Workflow zur Extraktion persönlicher Daten mit einem selbst gehosteten LLM Mistral NeMo

Dieser Workflow dient der Analyse und Verarbeitung von Chatnachrichten, um persönliche Informationen mithilfe eines Sprachmodells zu extrahieren.

Workflow zur Extraktion persönlicher Daten mit einem selbst gehosteten LLM Mistral NeMo

Die Website nutzt die Wordpress-Infrastruktur.

Server: Unser Server befindet sich in einem Unternehmen mit Sitz in Deutschland. Er hat eine hohe und schnelle Internetverbindung. Es gibt eine Generatorunterstützung für ununterbrochenen Strom.

1. Wenn Chatnachricht empfangen

Nome: When chat message received

Typ: @n8n/n8n-nodes-langchain.chatTrigger

Was es macht: Dieser Node wird aktiviert, wenn eine neue Chatnachricht empfangen wird. Es handelt sich um den Auslöser für den gesamten Workflow.

2. Ollama Chat Model

Nome: Ollama Chat Model

Typ: @n8n/n8n-nodes-langchain.lmChatOllama

Was es macht: Nutzt das Ollama-Modell (insbesondere Mistral NeMo), um die eingehende Chatnachricht zu analysieren und Antworten zu generieren. Die Parameter sind auf eine Temperatur von 0.1 gesetzt, um konsistente Antworten zu gewährleisten, und der Modus „useMLock“ sorgt für die Stabilität der Verbindung. Die Option „keepAlive“ von 2 Stunden hält die Verbindung aktiv.

3. Auto-fixing Output Parser

Nome: Auto-fixing Output Parser

Typ: @n8n/n8n-nodes-langchain.outputParserAutofixing

Was es macht: Wenn die Ausgabe des Modells nicht den Erwartungen entspricht, nutzt dieser Parser eine neue Anfrage, um die Ausgabe zu korrigieren. Dies geschieht durch präzise Anweisungen im Prompt, die darauf abzielen, mögliche Fehler zu erkennen und zu beheben.

4. Structured Output Parser

Nome: Structured Output Parser

Typ: @n8n/n8n-nodes-langchain.outputParserStructured

Was es macht: Dieser Node überprüft die von dem Modell generierte Ausgabe gegen ein vordefiniertes JSON-Schema, um sicherzustellen, dass die Struktur und die erforderlichen Felder gegeben sind. Es wird ein manuelles Schema verwendet, das die Benutzerinformationen definiert.

5. Basic LLM Chain

Nome: Basic LLM Chain

Typ: @n8n/n8n-nodes-langchain.chainLlm

Was es macht: Verarbeitet die eingehende Benutzeranfrage und fragt das Modell an, um Informationen gemäß dem JSON-Schema zu extrahieren. Die Nachrichtenparameter werden dynamisch erstellt und die Ausgabe wird zur weiteren Verarbeitung geroutet.

6. On Error

Nome: On Error

Typ: n8n-nodes-base.noOp

Was es macht: Ein Platzhalter-Node, der ausgeführt wird, falls ein Fehler in den vorherigen Nodes auftritt. Dies gibt dem Workflow eine Fehlerbehandlungsoption, ohne ihn zu unterbrechen.

7. Extract JSON Output

Nome: Extract JSON Output

Typ: n8n-nodes-base.set

Was es macht: Stellt die endgültige Ausgabe in einem Rohformat zur Verfügung, sodass sie leicht in anderen Anwendungen oder Prozessen verwendet werden kann. Hier wird der Extraktionsprozeß abgeschlossen.

Ergebnis

Dieser Workflow ermöglicht es, effizient mit Chatnachrichten umzugehen und die relevanten Benutzerdaten automatisch zu extrahieren und zu strukturieren, was die anschließende Datenverarbeitung erheblich erleichtert. Indem er die Stärken von LLM-Technologien nutzt, können Unternehmen einen wertvollen Mehrwert aus ihren Kommunikationsdaten ziehen.

Download Link: Workflow Download

Facebook
Twitter
LinkedIn

Andere Projekte