
Member Content
Langdock ist eine der wenigen Enterprise-KI-Plattformen, die Modelle EU-gehostet anbieten und trotzdem eine offene API bereitstellen. n8n ist das Open-Source-Pendant auf der Automation-Seite: selbst gehostet oder in der Cloud, mit voller Kontrolle über Daten und Workflows. Beide zusammen ergeben ein Setup, bei dem sensible Unternehmensdaten nicht über US-Server laufen müssen -- und trotzdem die volle Power von GPT-4.1, Claude oder Gemini zur Verfügung steht.
Der Original-Artikel zu diesem Thema ist von Mitte 2025. Seitdem hat sich einiges getan: n8n hat Version 2.0 veröffentlicht, Langdock hat neu API-Endpoints und MCP-Support eingeführt, und das Model Context Protocol hat sich als Standard für Tool-Integrationen etabliert. Zeit für ein Update.
Das Grundprinzip hat sich nicht verändert. Langdock stellt eine OpenAI-kompatible API bereit. Du kannst also in n8n jeden Node verwenden, der mit der OpenAI API arbeitet -- musst aber die Base URL auf Langdocks Endpoint umstellen und deinen Langdock API Key hinterlegen.
Konkret läuft das so:
Das funktioniert, weil Langdock die wichtigsten OpenAI-Endpoints nachbaut. Aber -- und das ist der entscheidende Punkt -- es ist keine vollständige 1:1-Implementierung. Bestimmte Features fehlen oder verhalten sich anders.
n8n 2.0 kam Anfang 2026 und hat einige Änderungen mitgebracht, die direkt auf die Langdock-Integration einzahlen.
Draft und Published Workflows: Du kannst jetzt an einem Workflow arbeiten, ohne die Live-Version zu beeinflussen. Für Langdock-Integrationen heisst das: du testest neu Modelle oder Prompt-Änderungen im Draft, während der Production Workflow weiterläuft.
Human-in-the-Loop für AI Agents: Sub-Workflows können jetzt pausieren und auf menschliche Freigabe warten -- etwa über Slack. Wenn dein AI Agent über Langdock Entscheidungen trifft, die ein Review brauchen, lässt sich das jetzt nativ einbaün.
Response API Problematik: Hier wird es relevant für Langdock-Nutzer. Der neu Message a Model Node in n8n 2.0 nutzt standardmäßig die OpenAI Response API. Die ist bei Langdock aber noch nicht implementiert. Du musst die Response API in den Node-Einstellungen explizit deaktivieren, sonst bekommst du Fehler.
Isolierte Code Execution: Python- und JavaScript-Nodes laufen jetzt in sandboxed Task Runners. Wenn du Langdock-API-Responses nachbearbeiten musst, ist das sicherer als vorher.
Im Original-Artikel hatten wir zwei Hauptprobleme dokumentiert: inkonsistente System Prompts und fehlerhafte Output Parser. Der aktuelle Stand:
System Prompts funktionieren zuverlässig mit GPT-4.1 und Claude-Modellen über Langdock. Bei neueren Modellen wie GPT-5 gibt es aber weiterhin Inkonsistenzen. Langdock arbeitet laut Changelog daran, die Kompatibilität für neu Modelle schneller nachzuziehen.
Output Parser bleiben ein Thema. Wenn du strukturierte JSON-Responses brauchst, ist der sicherste Weg immer noch, die Langdock API direkt per HTTP Request Node anzusprechen und die Response selbst zu parsen. Der Overhead ist minimal, und du hast volle Kontrolle.
Neu seit 2026: Langdock hat eine Agent API eingeführt. Du kannst jetzt nicht nur Modelle ansprechen, sondern komplette Langdock Agents -- inklusive ihrer Konfiguration, ihres Wissens und ihrer Tools -- per API aufrufen. Das öffnet Möglichkeiten, die vorher nicht da waren.
Die größte Veränderung seit dem Original-Artikel ist das Model Context Protocol. Sowohl Langdock als auch n8n unterstützen MCP jetzt nativ -- und das verändert die Art, wie du die beiden Tools kombinierst.
Was MCP macht: Es ist ein offener Standard, der es KI-Systemen erlaubt, externe Tools zu entdecken und zu nutzen. Statt hartcodierte API-Calls zu baün, stellt ein MCP-Server seine Fähigkeiten automatisch bereit, und der KI-Client wählt das richtige Tool für die jeweilige Aufgabe.
n8n als MCP Server: Mit dem neun MCP Server Trigger Node kannst du jeden n8n Workflow als MCP-Tool bereitstellen. Ein Langdock Agent kann dann diesen Workflow aufrufen, ohne dass du dafür einen eigenen API-Endpoint baün musst. Das ist besonders stark für Szenarien wie: Langdock Agent braucht Zugriff auf interne Datenbanken, CRM-Systeme oder benutzerdefinierte Business-Logik.
n8n als MCP Client: Umgekehrt kann n8n MCP Server konsumieren. Wenn Langdock selbst als MCP Server fungiert -- was es seit Anfang 2026 kann -- lassen sich Langdock Agents direkt als Tools in n8n Workflows einbinden.
Langdock MCP-Support: Langdock unterstützt mehrere Transport- und Auth-Methoden für MCP: HTTP mit optionalem Streaming, Server-Sent Events, API Key Auth und OAuth 2.0. MCP-Tools werden automatisch in Langdock Actions konvertiert, inklusive Vorschau und Bestätigungsmechanismen.
Je nach Anwendungsfall ergeben sich drei sinnvolle Architektur-Muster:
1. Einfach: Langdock als LLM-Backend in n8n
2. Mittel: Langdock Agent API in n8n
3. Fortgeschritten: MCP-basierte Integration
Langdock hat in den letzten Monaten einiges nachgelegt, was für Automation relevant ist:
Skills: Du kannst in Langdock wiederverwendbare Anweisungen als Skills speichern. Wenn du einen Langdock Agent per API oder MCP aufrufst, werden relevante Skills automatisch angewandt. Für n8n heisst das: weniger Prompt-Engineering im Workflow, mehr Konfiguration in Langdock.
Workflow Nodes mit Loops: Langdock hat eigene Workflow-Funktionalität mit Loop Nodes. Für reine Langdock-Nutzer interessant, aber wenn du n8n als Orchestrierungs-Layer nutzt, bleibst du besser bei n8n für die Workflow-Logik und nutzt Langdock für die KI-Komponente.
Modell-Auswahl: Langdock bietet jetzt auch Gemini 3 Pro an, allerdings vorerst nur als Global Deployment, nicht EU-gehostet. Für datenschutzkritische Workflows also noch nicht einsetzbar.
Die Langdock-n8n-Kombination ist 2026 deutlich stärker als noch vor einem Jahr. Die drei wichtigsten Punkte:
Für produktionskritische Workflows bleibt die Empfehlung: direkte HTTP Requests statt der generischen AI Nodes. Der Overhead ist gering, aber du bekommst volle Kontrolle über Request und Response.


0 Comments
Login or Register to Join the Conversation
Create an AccountLog in