Member Content

Langdock und n8n verbinden: Das Automation-Setup für 2026

Zur Event Anmeldung
Download PDF

Warum Langdock plus n8n?

Langdock ist eine der wenigen Enterprise-KI-Plattformen, die Modelle EU-gehostet anbieten und trotzdem eine offene API bereitstellen. n8n ist das Open-Source-Pendant auf der Automation-Seite: selbst gehostet oder in der Cloud, mit voller Kontrolle über Daten und Workflows. Beide zusammen ergeben ein Setup, bei dem sensible Unternehmensdaten nicht über US-Server laufen müssen -- und trotzdem die volle Power von GPT-4.1, Claude oder Gemini zur Verfügung steht.

Der Original-Artikel zu diesem Thema ist von Mitte 2025. Seitdem hat sich einiges getan: n8n hat Version 2.0 veröffentlicht, Langdock hat neu API-Endpoints und MCP-Support eingeführt, und das Model Context Protocol hat sich als Standard für Tool-Integrationen etabliert. Zeit für ein Update.

Das Basis-Setup: Langdock als OpenAI-kompatible API

Das Grundprinzip hat sich nicht verändert. Langdock stellt eine OpenAI-kompatible API bereit. Du kannst also in n8n jeden Node verwenden, der mit der OpenAI API arbeitet -- musst aber die Base URL auf Langdocks Endpoint umstellen und deinen Langdock API Key hinterlegen.

Konkret läuft das so:

  • In Langdock unter Einstellungen > API einen neun API Key erstellen
  • In n8n einen OpenAI Chat Model Node hinzufügen
  • Unter Credentials die Base URL auf den Langdock API-Endpoint setzen
  • Den Langdock API Key als OpenAI API Key eintragen

Das funktioniert, weil Langdock die wichtigsten OpenAI-Endpoints nachbaut. Aber -- und das ist der entscheidende Punkt -- es ist keine vollständige 1:1-Implementierung. Bestimmte Features fehlen oder verhalten sich anders.

Was in n8n 2.0 anders ist

n8n 2.0 kam Anfang 2026 und hat einige Änderungen mitgebracht, die direkt auf die Langdock-Integration einzahlen.

Draft und Published Workflows: Du kannst jetzt an einem Workflow arbeiten, ohne die Live-Version zu beeinflussen. Für Langdock-Integrationen heisst das: du testest neu Modelle oder Prompt-Änderungen im Draft, während der Production Workflow weiterläuft.

Human-in-the-Loop für AI Agents: Sub-Workflows können jetzt pausieren und auf menschliche Freigabe warten -- etwa über Slack. Wenn dein AI Agent über Langdock Entscheidungen trifft, die ein Review brauchen, lässt sich das jetzt nativ einbaün.

Response API Problematik: Hier wird es relevant für Langdock-Nutzer. Der neu Message a Model Node in n8n 2.0 nutzt standardmäßig die OpenAI Response API. Die ist bei Langdock aber noch nicht implementiert. Du musst die Response API in den Node-Einstellungen explizit deaktivieren, sonst bekommst du Fehler.

Isolierte Code Execution: Python- und JavaScript-Nodes laufen jetzt in sandboxed Task Runners. Wenn du Langdock-API-Responses nachbearbeiten musst, ist das sicherer als vorher.

Die bekannten Limitationen -- und was sich geändert hat

Im Original-Artikel hatten wir zwei Hauptprobleme dokumentiert: inkonsistente System Prompts und fehlerhafte Output Parser. Der aktuelle Stand:

System Prompts funktionieren zuverlässig mit GPT-4.1 und Claude-Modellen über Langdock. Bei neueren Modellen wie GPT-5 gibt es aber weiterhin Inkonsistenzen. Langdock arbeitet laut Changelog daran, die Kompatibilität für neu Modelle schneller nachzuziehen.

Output Parser bleiben ein Thema. Wenn du strukturierte JSON-Responses brauchst, ist der sicherste Weg immer noch, die Langdock API direkt per HTTP Request Node anzusprechen und die Response selbst zu parsen. Der Overhead ist minimal, und du hast volle Kontrolle.

Neu seit 2026: Langdock hat eine Agent API eingeführt. Du kannst jetzt nicht nur Modelle ansprechen, sondern komplette Langdock Agents -- inklusive ihrer Konfiguration, ihres Wissens und ihrer Tools -- per API aufrufen. Das öffnet Möglichkeiten, die vorher nicht da waren.

MCP: Die eigentliche Neuerung für 2026

Die größte Veränderung seit dem Original-Artikel ist das Model Context Protocol. Sowohl Langdock als auch n8n unterstützen MCP jetzt nativ -- und das verändert die Art, wie du die beiden Tools kombinierst.

Was MCP macht: Es ist ein offener Standard, der es KI-Systemen erlaubt, externe Tools zu entdecken und zu nutzen. Statt hartcodierte API-Calls zu baün, stellt ein MCP-Server seine Fähigkeiten automatisch bereit, und der KI-Client wählt das richtige Tool für die jeweilige Aufgabe.

n8n als MCP Server: Mit dem neun MCP Server Trigger Node kannst du jeden n8n Workflow als MCP-Tool bereitstellen. Ein Langdock Agent kann dann diesen Workflow aufrufen, ohne dass du dafür einen eigenen API-Endpoint baün musst. Das ist besonders stark für Szenarien wie: Langdock Agent braucht Zugriff auf interne Datenbanken, CRM-Systeme oder benutzerdefinierte Business-Logik.

n8n als MCP Client: Umgekehrt kann n8n MCP Server konsumieren. Wenn Langdock selbst als MCP Server fungiert -- was es seit Anfang 2026 kann -- lassen sich Langdock Agents direkt als Tools in n8n Workflows einbinden.

Langdock MCP-Support: Langdock unterstützt mehrere Transport- und Auth-Methoden für MCP: HTTP mit optionalem Streaming, Server-Sent Events, API Key Auth und OAuth 2.0. MCP-Tools werden automatisch in Langdock Actions konvertiert, inklusive Vorschau und Bestätigungsmechanismen.

Drei Setup-Varianten für 2026

Je nach Anwendungsfall ergeben sich drei sinnvolle Architektur-Muster:

1. Einfach: Langdock als LLM-Backend in n8n

  • OpenAI Chat Model Node mit Langdock Credentials
  • Response API deaktivieren
  • Für einfache Aufgaben: Zusammenfassungen, Klassifikationen, E-Mail-Drafts
  • Vorteil: Schnell aufgesetzt, EU-gehostet

2. Mittel: Langdock Agent API in n8n

  • HTTP Request Node ruft Langdock Agent API auf
  • Der Agent bringt sein eigenes Wissen und seine Tools mit
  • Für komplexere Aufgaben: Research, Analyse, Multi-Step Reasoning
  • Vorteil: Langdock-seitiges Knowledge Management, n8n-seitige Orchestrierung

3. Fortgeschritten: MCP-basierte Integration

  • n8n Workflows als MCP Server für Langdock Agents
  • Langdock Agents als MCP Tools in n8n
  • Bidirektionale Kommunikation, lose Kopplung
  • Für Enterprise-Setups: Flexible Tool-Discovery, keine hartcodierten Integrationen

Langdock-Features, die du für n8n-Workflows kennen solltest

Langdock hat in den letzten Monaten einiges nachgelegt, was für Automation relevant ist:

Skills: Du kannst in Langdock wiederverwendbare Anweisungen als Skills speichern. Wenn du einen Langdock Agent per API oder MCP aufrufst, werden relevante Skills automatisch angewandt. Für n8n heisst das: weniger Prompt-Engineering im Workflow, mehr Konfiguration in Langdock.

Workflow Nodes mit Loops: Langdock hat eigene Workflow-Funktionalität mit Loop Nodes. Für reine Langdock-Nutzer interessant, aber wenn du n8n als Orchestrierungs-Layer nutzt, bleibst du besser bei n8n für die Workflow-Logik und nutzt Langdock für die KI-Komponente.

Modell-Auswahl: Langdock bietet jetzt auch Gemini 3 Pro an, allerdings vorerst nur als Global Deployment, nicht EU-gehostet. Für datenschutzkritische Workflows also noch nicht einsetzbar.

Was du aus diesem Artikel mitnehmen solltest

Die Langdock-n8n-Kombination ist 2026 deutlich stärker als noch vor einem Jahr. Die drei wichtigsten Punkte:

  • Basis-Setup funktioniert -- aber deaktiviere die Response API im OpenAI Node und teste System Prompts mit deinem spezifischen Modell
  • MCP ist der größte Hebel -- bidirektionale Integration statt hartcodierter API-Calls. Wenn du Enterprise-Workflows baust, ist das der richtige Ansatz
  • Agent API nutzen -- statt nur Modelle anzusprechen, kannst du jetzt komplette Langdock Agents mit ihrem Wissen und ihren Tools in n8n-Workflows einbinden

Für produktionskritische Workflows bleibt die Empfehlung: direkte HTTP Requests statt der generischen AI Nodes. Der Overhead ist gering, aber du bekommst volle Kontrolle über Request und Response.

Melde dich an um diese Masterclass zu schauen

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Simon Sommer
Head of DECAID Community

Simon ist ein Innovationsenthusiast, der in verschiedenen Rollen als Gründer und C-Level Executive digitale Geschäftsmodelle von der Idee bis zur Skalierung begleitet. In seiner aktiven Rolle in der Tech- und Startup-Szene, fördert er den Austausch über Zukunftsthemen wie KI und Circular Economy. Durch DISO ventures unterstützt er als Venture Architekt Unternehmen dabei, innovative Projekte umzusetzen und nachhaltig am Markt zu etablieren.

Mehr von diesem Autor:
Langdock Workflows in der Praxis: So automatisierst du komplexe Prozesse mit KI
Warum schlechte UX teuer wird – n8n vs. Power Automate
Dein Guide zur Einführung von Langdock Workflows
Kontext ist King: Langdock Knowledge vs. Knowledge Folder