Workflow zur Verarbeitung von Google Drive Daten

Dieser Workflow lädt eine Datei von Google Drive, teilt den Inhalt in kleinere Abschnitte und ermöglicht die Interaktion mit einem Vektor-Indexer und einem KI-Modell.

Workflow zur Verarbeitung von Google Drive Daten

Die Website nutzt die Wordpress-Infrastruktur.

Server: Unser Server befindet sich in einem Unternehmen mit Sitz in Deutschland. Er hat eine hohe und schnelle Internetverbindung. Es gibt eine Generatorunterstützung für ununterbrochenen Strom.

Einführung

Dieser n8n Workflow wird verwendet, um eine Datei aus Google Drive herunterzuladen, den Inhalt zu verarbeiten und mit einem Embedding-Modell von OpenAI zu interagieren. Hier sind die einzelnen Schritte und deren Funktionen:

Node 1: Google Drive

Type: n8n-nodes-base.googleDrive
Was es tut: Lädt eine Datei von Google Drive herunter.
Einstellungen:

  • fileId: Der Link zur Google Drive-Datei.
  • operation: „download“ um die Datei abzurufen.

Durch diese Konfiguration wird die Datei für die weitere Verarbeitung zur Verfügung gestellt.

Node 2: Set Google Drive file URL

Type: n8n-nodes-base.set
Was es tut: Initialisiert die URL der zu ladenden Datei.
Einstellungen:

  • file_url: URL der Google Drive Datei.

Dies ermöglicht Flexibilität, falls die Datei-URL nachträglich geändert werden muss.

Node 3: Default Data Loader

Type: @n8n/n8n-nodes-langchain.documentDefaultDataLoader
Was es tut: Lädt die heruntergeladene Datei in das System.
Einstellungen:

  • dataType: „binary“ für die Verarbeitung.

Der Binary-Datentyp sorgt für die korrekte Behandlung des heruntergeladenen Inhalts.

Node 4: Recursive Character Text Splitter

Type: @n8n/n8n-nodes-langchain.textSplitterRecursiveCharacterTextSplitter
Was es tut: Teilt den Text in kleinere Abschnitte.
Einstellungen:

  • chunkSize: 3000 Zeichen pro Abschnitt.
  • chunkOverlap: 200 Zeichen Überlappung zwischen Abschnitten.

Diese Parameter helfen dabei, den Text so aufzuteilen, dass die Abschnitte sowohl vollständig als auch überlappend sind, um den Kontext zu erhalten.

Node 5: Insert into Pinecone vector store

Type: @n8n/n8n-nodes-langchain.vectorStorePinecone
Was es tut: Fügt die verarbeiteten Textabschnitte in ein Vektor-Store ein.
Einstellungen:

  • mode: „insert“ um neue Daten hinzuzufügen.
  • clearNamespace: true um den ehemaligen Namespace zu löschen.
  • pineconeIndex: „test-index“ der Index von Pinecone.

Dieser Step stellt sicher, dass die analysierten Textabschnitte in Pinecone zur Nutzung für Suchanfragen gespeichert werden.

Node 6: Question and Answer Chain

Type: @n8n/n8n-nodes-langchain.chainRetrievalQa
Was es tut: Verarbeitet Fragen und sorgt für die Antwortgenerierung.
Einstellungen: Keine speziellen Einstellungen nötig.
Hier wird das KI-Modell aufgerufen, um Antworten basierend auf den gewonnenen Daten zu generieren.

Node 7: OpenAI Chat Model

Type: @n8n/n8n-nodes-langchain.lmChatOpenAi
Was es tut: Nutzt das OpenAI Sprachmodell zur Verarbeitung von Textanfragen.
Einstellungen: Keine spezifischen Anpassungen.
Durch dieses Model können Antworten präzise formuliert werden.

Node 8: Vector Store Retriever

Type: @n8n/n8n-nodes-langchain.retrieverVectorStore
Was es tut: Ruft relevante Vektorinformationen aus dem Store ab.
Einstellungen: Keine speziellen Konfigurationen.
Dieser Knoten ist entscheidend für die Suche im Vektor-Store, um relevante Daten zu finden.

Node 9: Read Pinecone Vector Store

Type: @n8n/n8n-nodes-langchain.vectorStorePinecone
Was es tut: Liest Daten vom Vektor-Store,
Einstellungen:

  • pineconeIndex: „test-index“ für den Index.

Dieser Knoten ermöglicht den Zugriff auf die gespeicherten Vektordaten.

Node 10: Embeddings OpenAI

Type: @n8n/n8n-nodes-langchain.embeddingsOpenAi
Was es tut: Generiert Embeddings für die Texte.
Einstellungen: Keine spezifischen Optionen konfiguriert.

Hier werden die Texte in Vektorform gebracht, um die Effizienz der Antwortverarbeitung zu erhöhen.

Node 11: When clicking ‚Chat‘ button below

Type: @n8n/n8n-nodes-langchain.chatTrigger
Was es tut: Trigger für die Chat-Aktion.
Einstellungen: Keine Anpassungen nötig.
Dieser Knoten ist verantwortlich für die Verarbeitung der Benutzeranfragen.

Node 12: When clicking ‚Test Workflow‘ button

Type: n8n-nodes-base.manualTrigger
Was es tut: Initialer Trigger für den Workflow.
Einstellungen: Keine Konfiguration erforderlich.
Dieser Knoten wird genutzt, um den Workflow manuell zu starten, wodurch der gesamte Prozess gelauncht wird.

Ergebnis

Am Ende des Workflows können Benutzer mit der KI interagieren und Antworten auf ihre Fragen aus den in Pinecone gespeicherten Daten erhalten. Der gesamte Prozess von der Datenbeschaffung, über die Verarbeitung bis hin zu den Antworten erfolgt nahtlos.

Facebook
Twitter
LinkedIn

Andere Projekte