7. Januar 2026

Technische Details zu meinem n8n Chatbot mit RAG-System

← Zurück zur Blog-Übersicht

Als Automatisierungs-Consultant begegne ich täglich der gleichen Herausforderung: Wie kann ich mein Fachwissen skalieren, ohne ständig die gleichen Fragen zu beantworten? Die Antwort liegt in einem intelligenten Chatbot-System, das ich komplett mit n8n aufgebaut habe. In diesem Artikel nehme ich Sie mit auf eine technische Reise durch die faszinierende Welt der RAG-Systeme (Retrieval Augmented Generation) und zeige Ihnen, wie aus simplen Texten ein intelligenter Gesprächspartner wird.

Das Problem: Warum normale Chatbots nicht ausreichen

Stellen Sie sich vor, Sie haben jahrelange Expertise in einem Fachgebiet aufgebaut. Ihre Website-Besucher stellen immer wieder ähnliche, aber nicht identische Fragen: "Was kostet eine Automatisierung?", "Haben Sie Erfahrung mit Logistik?", "Wie funktioniert n8n?". Ein herkömmlicher Chatbot mit vorgefertigten Antworten würde hier schnell an seine Grenzen stoßen. Die Fragen sind zu vielfältig, zu spezifisch, zu kontextabhängig.

Die Lösung? Ein System, das wie ein menschlicher Experte funktioniert: Es "liest" die gesamte Wissensbasis, "versteht" die Frage und "komponiert" eine passende Antwort aus dem verfügbaren Wissen. Genau das macht ein RAG-System.

Die Architektur: Zwei Welten, ein System

Mein n8n-Workflow besteht aus zwei getrennten, aber verbundenen Bereichen:

Teil 1) Wissen digitalisieren - Der Upload-Prozess

1.1) Upload der Informationen

Alles beginnt mit dem Upload einer Markdown-Datei - in meinem Fall eine 15-seitige Zusammenfassung meiner gesamten beruflichen Expertise. Warum Markdown? Es ist strukturiert, maschinenlesbar und trotzdem menschenfreundlich.

1.2) Text-Segmentierung - Der "Default Data Loader"

Hier wird es technisch interessant. Ein 15-seitiges Dokument kann nicht als ein Block verarbeitet werden - es wäre zu groß und zu unspezifisch. Der Default Data Loader von n8n zerlegt den Text intelligent in kleinere, sinnvolle Abschnitte (Chunks).

Was passiert beim Chunking?

Warum ist Chunking notwendig? Stellen Sie sich vor, Sie suchen in einem Lexikon nach "Automatisierung". Sie möchten nicht das komplette Lexikon als Antwort, sondern nur den relevanten Artikel. Genauso funktioniert Chunking - es macht das Wissen "durchsuchbar".

1.3) Vektorisierung - Die "Embeddings OpenAI" Node

Jetzt kommt der magische Teil: Die Textstücke werden in mathematische Vektoren umgewandelt. Aber was bedeutet das konkret?

Was sind Embeddings? Ein Embedding ist eine numerische Darstellung von Text in einem hochdimensionalen Raum (meist 1536 Dimensionen bei OpenAI). Ähnliche Begriffe liegen im Vektorraum nah beieinander:

"Automatisierung" → [0.1, -0.3, 0.8, ..., 0.2]
"Workflow-Optimierung" → [0.12, -0.28, 0.82, ..., 0.18]
"Kuchen backen" → [-0.5, 0.7, -0.1, ..., -0.9]

Die ersten beiden Vektoren sind ähnlicher zueinander als zum dritten - das System "versteht" semantische Verwandtschaft.

1.4) Speicherung - Der "Pinecone Vector Store"

Die Vektoren werden in einer spezialisierten Datenbank gespeichert - einem Vector Store. Pinecone ist darauf optimiert, aus Millionen von Vektoren die ähnlichsten zu finden.

Warum nicht eine normale Datenbank? Normale Datenbanken sind für exakte Übereinstimmungen optimiert ("Finde alle Kunden mit Namen 'Müller'"). Vector Stores sind für Ähnlichkeitssuchen optimiert ("Finde die 5 ähnlichsten Konzepte zu 'Prozessoptimierung'").

Teil 2) Die Konversations-Intelligenz

Sobald ein Nutzer eine Nachricht sendet, startet die rechte Seite des Workflows. Hier beginnt die eigentliche Intelligenz.

2.1) Session-Management - "Has sessionId?"

Jeder Chat braucht ein Gedächtnis. Die "Has sessionId?" Node prüft, ob bereits eine Unterhaltung läuft oder eine neue beginnt. Sessions ermöglichen Kontext über mehrere Nachrichten hinweg:

User: "Was ist n8n?"
Bot: "n8n ist eine Workflow-Automatisierungsplattform..."
User: "Wie lerne ich es?"  ← Das System weiß, "es" = "n8n"

2.2) Relevanz-Prüfung - "Guardrails"

Nicht jede Frage gehört an einen Fachexperten. Die Guardrails-Node fungiert als intelligenter Filter:

Was macht Guardrails?

Technische Umsetzung: Guardrails nutzen meist kleinere, spezialisierte Modelle, die schnell entscheiden können: "Ist diese Frage relevant für Kevin Armbrusters Automation-Expertise?"

2.3) Wissens-Retrieval - Der unsichtbare Held

Hier passiert die RAG-Magie: Das System sucht die relevantesten Informationen aus dem Vector Store.

Der Retrieval-Prozess:

  1. Anfrage vektorisieren: "Wie kann Automatisierung meine Logistikkosten senken?" → Vektor
  2. Ähnlichkeitssuche: Finde die 3-5 relevantesten Chunks aus der Wissensbasis
  3. Kontext zusammenstellen: Kombiniere gefundene Informationen zu einem Kontext

Beispiel:

Gefundene relevante Chunks:
- "50% Kostenreduktion KREATIZE Logistik"
- "Lean-Prinzipien Implementation"
- "Termintreue von 81% auf 95%"

2.4) Intelligente Antwort-Generierung - "AI Agent (Jake)"

Der AI Agent ist das Herzstück des Systems. Er kombiniert:

Was macht den Agent intelligent?

2.5) Memory-Management - "Simple Memory"

Jede Interaktion wird gespeichert, damit das System lernt und Kontext behält:

Gespeichert wird:
- User-Frage
- Bot-Antwort
- Session-ID
- Timestamp
- Verwendete Quellen

2.6) Follow-up - "send_email"

Nach wichtigen Gesprächen sendet das System automatisch eine Zusammenfassung per E-Mail. Das ermöglicht persönliche Nachfassungen bei qualifizierten Leads.

Die Technologien im Detail

RAG (Retrieval Augmented Generation)

RAG löst das Grundproblem großer Sprachmodelle: Sie sind auf ihren Trainingsdaten "eingefroren". RAG erweitert sie mit aktuellem, spezifischem Wissen:

Klassisches LLM:

Frage → LLM → Antwort (basierend auf Training bis 2023)

RAG-System:

Frage → Retrieval (aktuelles Wissen) → LLM + Kontext → präzise Antwort

Vector Embeddings - Die Mathematik hinter der Semantik

Embeddings übersetzen menschliche Sprache in mathematische Sprache:

Beispiel-Transformation:

Text: "Ich automatisiere Workflows"
Preprocessing: Tokenization, Normalisierung
Neural Network: Transformer-Modell (z.B. text-embedding-ada-002)
Output: [0.023, -0.156, 0.789, ..., 0.445] (1536 Dimensionen)

Ähnlichkeits-Berechnung: Zwei Vektoren werden verglichen mittels Cosinus-Ähnlichkeit:

similarity = cos(θ) = (A · B) / (||A|| × ||B||)
Wert von -1 (völlig unähnlich) bis 1 (identisch)

Business-Implikationen

Dieses System demonstriert, wie moderne AI-Technologien praktisch eingesetzt werden können:

Fazit: Von der Technik zum Business-Value

Was als technisches Experiment begann, ist zu einem wertvollen Business-Tool geworden. Das RAG-System mit n8n zeigt, wie Low-Code-Plattformen auch komplexeste AI-Anwendungen zugänglich machen können.

Die Zukunft der Business-Automatisierung liegt nicht in der Replacement von Menschen, sondern in der Amplifikation menschlicher Expertise. RAG-Systeme wie dieses sind ein perfektes Beispiel dafür.


Möchten Sie ein ähnliches System für Ihr Unternehmen? Testen Sie zunächst meinen Chatbot und lassen Sie sich von den Möglichkeiten überzeugen. Bei Fragen zur Implementierung stehe ich gerne zur Verfügung.

INTERESSE AN AUTOMATISIERUNG?

Buchen Sie ein kostenloses 30-Minuten Erstgespräch – unverbindlich.

Kostenloses Erstgespräch buchen