1. Chat Message Trigger
Typ: @n8n/n8n-nodes-langchain.chatTrigger
Funktion: Dieser Node fungiert als Auslöser für den Workflow. Er wartet auf eine Chatnachricht, die die Benutzeranfrage enthält.
2. Generate Search Queries using LLM
Typ: @n8n/n8n-nodes-langchain.chainLlm
Funktion: Dieser Node nutzt ein KI-Modell, um präzise Suchanfragen basierend auf der Benutzeranfrage zu generieren. Die Anfrage wird in das KI-System eingegeben, das dann bis zu vier verschiedene Suchanfragen zurückgibt.
3. LLM Response Provider (OpenRouter)
Typ: @n8n/n8n-nodes-langchain.lmChatOpenRouter
Funktion: Sendet die generierten Suchanfragen an ein KI-Modell über die OpenRouter API, um die Antworten zu erhalten. Der Servertitel „google/gemini-2.0-flash-001“ ist konfiguriert, um den gewünschten LLM-Anbieter zu verwenden.
4. Parse and Chunk JSON Data
Typ: n8n-nodes-base.code
Funktion: Dieser Node verarbeitet die von der LLM-Antwort gelieferten Daten, entfernt unwichtige Markdown-Blöcke und unterteilt das JSON in vier Teile zur weiteren Verarbeitung.
5. Perform SerpAPI Search Request
Typ: n8n-nodes-base.httpRequest
Funktion: Führt eine HTTP-Anfrage an die SerpAPI aus, um die organischen Suchergebnisse für jede generierte Suchanfrage abzurufen. Die API erwartet den Suchbegriff und den API-Schlüssel als Parameter.
6. Perform Jina AI Analysis Request
Typ: n8n-nodes-base.httpRequest
Funktion: Sendet die Suchergebnisse an den Jina AI-Server zur Analyse, um zusätzliche Einsichten zu gewinnen. Der HTTP-Header wird für die Authentifizierung genutzt.
7. Format SerpAPI Organic Results
Typ: n8n-nodes-base.code
Funktion: Formatiert die organischen Suchergebnisse von SerpAPI, sodass sie leicht lesbar sind. Es entfernt Einträge ohne Titel oder Link und gibt die formatierten Ergebnisse zurück.
8. Extract Relevant Context via LLM
Typ: @n8n/n8n-nodes-langchain.agent
Funktion: Dieser Node extrahiert relevante Informationen aus Webseiteninhalten unter Verwendung eines weiteren LLM, basierend auf der Benutzeranfrage und den durchsuchten Ergebnissen.
9. Generate Comprehensive Research Report
Typ: @n8n/n8n-nodes-langchain.agent
Funktion: Generiert einen umfassenden Forschungsbericht, der die wichtigsten Erkenntnisse und Analysen enthält. Verwendung von strukturiertem Markdown für die Darstellung.
10. Split Data for SerpAPI Batching
Typ: n8n-nodes-base.splitInBatches
Funktion: Teilt die Suchergebnisse in Chargen auf, damit mehrere API-Anfragen gleichzeitig verarbeitet werden können.
11. Split Data for Jina AI Batching
Typ: n8n-nodes-base.splitInBatches
Funktion: Dieser Node hat die gleiche Funktion wie die vorherige, jedoch für die Ergebnisse, die an den Jina AI-Server gesendet werden.
12. LLM Memory Buffer (Input Context)
Typ: @n8n/n8n-nodes-langchain.memoryBufferWindow
Funktion: Puffer zur Speicherung des Kontextes aus der ursprünglichen Benutzeranfrage für die LLM-Modelle.
13. LLM Memory Buffer (Report Context)
Typ: @n8n/n8n-nodes-langchain.memoryBufferWindow
Funktion: Puffer zur Speicherung von Kontext, der beim Erstellen des Forschungsberichts verwendet wird.
14. Fetch Wikipedia Information
Typ: @n8n/n8n-nodes-langchain.toolWikipedia
Funktion: Ermöglicht es, Informationen aus Wikipedia abzurufen, die zur Komplementierung der Antwort bei Bedarf verwendet werden können.
15. Sticky Note: SerpAPI Setup
Typ: n8n-nodes-base.stickyNote
Funktion: Fügt eine Notiz für mögliche Benutzer hinzu, die ihnen Anweisungen zur Einrichtung der SerpAPI geben.
16. Sticky Note: Jina AI Setup
Typ: n8n-nodes-base.stickyNote
Funktion: Fügt eine Notiz für mögliche Benutzer hinzu, die ihnen Anweisungen zur Einrichtung der Jina AI geben.
17. Sticky Note: OpenRouter API Setup
Typ: n8n-nodes-base.stickyNote
Funktion: Fügt eine Notiz für mögliche Benutzer hinzu, die ihnen Anweisungen zur Einrichtung des OpenRouter API geben.
Ergebnis
Der Workflow ermöglicht eine vollständige Automatisierung des Forschungsprozesses, vom Erhalt der Benutzeranfrage bis zur Erstellung eines detaillierten Berichts. Diese Effizienz steigert die Geschwindigkeit und Qualität der Informationen, die durch kombinierte KI-Technologien bereitgestellt werden.
Um den Workflow herunterzuladen, klicken Sie auf den folgenden Link:
Workflow Download Link