Zum Hauptinhalt springen
Um deine eigenen Modelle hinzuzufügen, haben wir die folgenden Anleitungen für dich vorbereitet. Wenn du Fragen hast, kontaktiere das Langdock-Team.

Modelle hinzufügen

Modelldialog öffnen

  1. Gehe zu den Modelleinstellungen und klicke auf Modell hinzufügen, um ein neues Modell zur Plattform hinzuzufügen
  2. Es öffnet sich ein Modal, in dem du Modelle hinzufügen kannst. Hier findest du zwei Abschnitte:
    • Die Anzeigeeinstellungen oben ermöglichen es dir, anzupassen, was der Nutzer in der Modellauswahl sieht.
    • Die Modellkonfiguration ermöglicht es dir, deinen Langdock-Workspace mit deiner Modell-API zu verbinden.

Anzeigeeinstellungen

Um die Anzeigeeinstellungen zu konfigurieren, kannst du die folgenden Schritte befolgen. Diese Informationen sind auch bei dem Unternehmen verfügbar, das das Modell hostet. Anbieter: Die Organisation, die das Modell gebaut und trainiert hat. Dies stimmt nicht unbedingt mit dem Unternehmen überein, von dem du das Modell beziehst. Zum Beispiel kannst du Microsoft Azure verwenden, um OpenAI-Modelle in der EU zu nutzen, aber der Anbieter bleibt OpenAI. Modellname: Der Name des Modells. Hosting-Anbieter: Wo du das Modell beziehst. Zum Beispiel kann GPT-5 von Microsoft Azure gehostet werden. Region: Zeigt dem Nutzer, wo das Modell gehostet wird. Kann auf EU, US oder Global eingestellt werden. Wissensstichtag: Wann die Trainingsdaten des Modells endeten. Bildanalyse: Gibt an, ob das Modell Bilder analysieren kann. Diese Information ist vom Modellanbieter und dem Hoster verfügbar. Bitte aktiviere diese Einstellung nur, wenn das Modell Vision/Bildanalyse unterstützt. Modellbeschreibung: Eine optionale Beschreibung (max. 150 Zeichen), die Nutzern angezeigt wird. Du kannst Beschreibungen auf Englisch und Deutsch über den Sprach-Toggle angeben.

Modellkonfigurationen

Um die Modellkonfiguration einzurichten, wähle das SDK, das du verwendest. Du findest Informationen zur Konfiguration des Modellanbieters (z.B. Azure oder AWS): SDK: Das Kit oder die Bibliothek, die Langdock benötigt, um das von dir hinzugefügte Modell zu verwenden. Base URL: Zum Senden von Prompts an den entsprechenden Endpunkt deines Modells. Model ID: Der Name des Modells in deiner Konfiguration (dies muss nicht der “offizielle” Modellname sein). API Key: Ermöglicht es deinen Nutzern, sich bei der Verwendung des Modells innerhalb von Langdock zu authentifizieren, wenn sie Prompts senden. Context Size: Die Anzahl der Token, die das Modell in seinem Kontextfenster verarbeiten kann. Bitte verwende den exakten Wert des Modells, um sicherzustellen, dass die Kontextverwaltung in Langdock korrekt funktioniert. API-Typ: Wähle zwischen Completion API und Responses API je nach Modell. Neuere Modelle (GPT-5-Serie, o3, o4 Mini) verwenden typischerweise die Responses API, ältere Modelle die Completion API.

Weitere Konfigurationsoptionen

Maximum messages in 3 hours: Ermöglicht es dir, die Nutzung/Kosten zu beeinflussen und Nachrichten pro Nutzer zu begrenzen. Diese Einstellung ist optional. Input and output token pricing: Ermöglicht die Festlegung der Token-Preise des individuellen Modells, um Nutzung und Kosten zu überwachen. Reasoning Effort: Bestimmt, wie viel Rechenaufwand das Modell für das Reasoning aufwendet. Höhere Werte verbessern die Qualität, führen aber zu zusätzlicher Latenz und mehr Token. Akzeptierte Werte: None, Minimal, Low, Medium, High. Nur verfügbar für Modelle mit Responses API. Verbosity: Kontrolliert den Detailgrad in der finalen Antwort des Modells. Akzeptierte Werte: Low, Medium, High. Nur verfügbar für Modelle mit Responses API. Canvas: Ob das Modell Canvas-Inhalte für kollaboratives Schreiben und Bearbeiten generieren kann. Supports Tools: Ob das Modell Tool-Aufrufe unterstützt (Integrationen, Websuche, etc.). Standardmäßig aktiviert. Tool Calls in Stream: Ob das Modell während des Streamings Tools aufrufen kann. Standardmäßig aktiviert. Supports Temperature: Ob das Modell den Temperature-Parameter zur Steuerung der Zufälligkeit unterstützt. Deaktiviere dies für Reasoning-Modelle (o1, o3, o4 Mini, GPT-5, GPT-5 mini, GPT-5 nano), da diese Temperature-Werte ablehnen. Claude-Modelle unterstützen Temperature ebenfalls nicht, wenn Display Thinking aktiviert ist. Display Thinking: Zeigt den Reasoning-Prozess des Modells in der UI an. Aktiviere dies für Reasoning/Thinking-Modellvarianten. Available in Agents: Ob dieses Modell für die Verwendung in Agenten ausgewählt werden kann. Standardmäßig aktiviert. Visible to everyone: Du kannst das Modell für alle im Workspace sichtbar machen. Wenn diese Option deaktiviert ist, ist das Modell nur für Admins sichtbar und kann von anderen Nutzern nicht verwendet werden. Das ermöglicht dir, das Modell zu testen, bevor du es für den gesamten Workspace freigibst. Maintenance mode: Kann aktiviert werden, um Nutzern in der Oberfläche anzuzeigen, dass das Modell möglicherweise nicht wie erwartet funktioniert. Nützlich bei Konfigurationsänderungen oder vorübergehenden Problemen mit dem Modellanbieter. Strict Mode: Aktiviert den strikten Validierungsmodus für die API-Aufrufe des Modells. User Identifier: Steuert, ob Nutzeridentitätsinformationen an den Modellanbieter gesendet werden. Optionen: None, User ID, Email oder Microsoft UPN (User Principal Name). Image Editing: Nur für Bildgenerierungsmodelle — gibt an, ob das Modell bestehende Bilder bearbeiten kann, zusätzlich zur Generierung neuer Bilder.

Abschließende Schritte

  1. Nach Eingabe aller erforderlichen Einstellungen klicke auf Save
  2. Wir empfehlen, das Modell zu testen, bevor du es für alle sichtbar machst. Sende eine Nachricht an das Modell und prüfe, ob eine Antwort generiert wird. Wenn du auf Probleme stößt, kontaktiere support@langdock.com

Modellspezifische Konfiguration

Unten findest du die empfohlenen Einstellungen für jedes Modell. Verwende diese Werte bei der Konfiguration von Modellen in Langdock.

OpenAI GPT-5.2 Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
GPT-5.2Responses API400.000128.000Setze Reasoning auf minimal und Verbosity auf low
GPT-5.2 (Thinking)Responses API400.000128.000Setze Reasoning auf high und Verbosity auf low
GPT-5.2 ProResponses API400.000128.000Maximale Reasoning-Tiefe und Zuverlässigkeit

OpenAI GPT-5.1 Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
GPT-5.1Responses API400.000128.000Setze Reasoning auf minimal und Verbosity auf low
GPT-5.1 (Thinking)Responses API400.000128.000Setze Reasoning auf high und Verbosity auf low
GPT-5.1 ChatResponses API128.00016.384Nur bei Azure als Global Standard Deployment in der EU oder direkt über OpenAI verfügbar

OpenAI GPT-5 Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
GPT-5Responses API400.000128.000Setze Reasoning auf minimal und Verbosity auf low
GPT-5 (Thinking)Responses API400.000128.000Setze Reasoning auf high und Verbosity auf low
GPT-5 ChatResponses API128.00016.384
GPT-5 miniResponses API400.000128.000
GPT-5 nanoResponses API400.000128.000

OpenAI GPT-4.1 Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
GPT-4.1Completion API1.047.57632.768Gut für den Datenanalysten (CSV/Excel-Dateien)
GPT-4.1 miniCompletion API1.047.57632.768
GPT-4.1 nanoCompletion API1.047.57632.768

OpenAI GPT-4o Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
GPT-4oCompletion API128.00016.384
GPT-4o MiniCompletion API128.00016.384

OpenAI Reasoning-Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
o3Responses API200.000100.000
o3 MiniCompletion API200.000100.000Verwende Model-ID o3-mini
o3 Mini highCompletion API200.000100.000Verwende Model-ID o3-mini und setze Reasoning Effort auf high
o4 MiniResponses API200.000100.000
o4 Mini highResponses API200.000100.000Verwende Model-ID o4-mini und setze Reasoning Effort auf high
o1Completion API200.000100.000

Anthropic Claude Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
Claude Opus 4.6Completion API200.000128.000
Claude Opus 4.6 ReasoningCompletion API200.000128.000Aktiviere Display Thinking
Claude Opus 4.5Completion API200.00064.000
Claude Opus 4.5 ReasoningCompletion API200.00064.000Aktiviere Display Thinking
Claude Sonnet 4.6Completion API200.00064.000
Claude Sonnet 4.6 ReasoningCompletion API200.00064.000Aktiviere Display Thinking
Claude Sonnet 4.5Completion API200.00064.000
Claude Sonnet 4.5 ReasoningCompletion API200.00064.000Aktiviere Display Thinking
Claude Sonnet 4Completion API200.00064.000
Claude Sonnet 4 ReasoningCompletion API200.00064.000Aktiviere Display Thinking
Claude Sonnet 3.7Completion API200.0008.192
Claude Sonnet 3.7 ReasoningCompletion API200.0008.192Aktiviere Display Thinking
Claude Haiku 4.5Completion API200.00064.000

Google Gemini Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
Gemini 2.5 ProCompletion API1.000.00064.000Unterstützt Reasoning/Thinking
Gemini 2.5 FlashCompletion API1.000.00032.000Unterstützt Reasoning/Thinking
Gemini 3 ProCompletion API1.000.00064.000
Gemini 3 FlashCompletion API200.00032.000

Andere Modelle

ModellAPI-TypKontextgrößeMax. Output-TokenSpezielle Konfiguration
Mistral Large 2411Completion API128.000Keine Bildanalyse-Unterstützung
CodestralCompletion API32.000Code-Generierungsmodell
Llama 4 MaverickCompletion API1.000.000
Llama 3.3 70BCompletion API128.000Keine Bildanalyse-Unterstützung
DeepSeek R1Completion API128.000Nur US-Region, keine Tool-Unterstützung
DeepSeek v3Completion API128.000
Amazon Nova LiteCompletion API300.000Nur US-Region
Amazon Nova ProCompletion API300.0005.000Nur US-Region
Für die aktuellsten Modellinformationen und -funktionen schau in die Modellauswahl in app.langdock.com.

Spezialfälle während der Einrichtung

Mistral von Azure: Stelle sicher, dass du “Mistral” als SDK auswählst. Claude von AWS Bedrock: Wenn du das Bedrock SDK auswählst, wird das Feld „Base URL” zu „Access Key ID” und „API Key” zu „Secret Access Key”. Gib deine AWS-Anmeldedaten in diese Felder ein. Siehe den Bedrock-Einrichtungsguide für Details. Flux von Replicate: Das Base URL-Feld muss den vollständigen Modellpfad enthalten, nicht nur die Basis-URL. Für Flux 1.1 Pro ist dies: https://api.replicate.com/v1/models/black-forest-labs/flux-1.1-pro/predictions