Modelle hinzufügen
Modelldialog öffnen
- Gehe zu den Modelleinstellungen und klicke auf Modell hinzufügen, um ein neues Modell zur Plattform hinzuzufügen
- Es öffnet sich ein Modal, in dem du Modelle hinzufügen kannst. Hier findest du zwei Abschnitte:
- Die Anzeigeeinstellungen oben ermöglichen es dir, anzupassen, was der Nutzer in der Modellauswahl sieht.
- Die Modellkonfiguration ermöglicht es dir, deinen Langdock-Workspace mit deiner Modell-API zu verbinden.
Anzeigeeinstellungen
Um die Anzeigeeinstellungen zu konfigurieren, kannst du die folgenden Schritte befolgen. Diese Informationen sind auch bei dem Unternehmen verfügbar, das das Modell hostet. Anbieter: Die Organisation, die das Modell gebaut und trainiert hat. Dies stimmt nicht unbedingt mit dem Unternehmen überein, von dem du das Modell beziehst. Zum Beispiel kannst du Microsoft Azure verwenden, um OpenAI-Modelle in der EU zu nutzen, aber der Anbieter bleibt OpenAI. Modellname: Der Name des Modells. Hosting-Anbieter: Wo du das Modell beziehst. Zum Beispiel kann GPT-5 von Microsoft Azure gehostet werden. Region: Zeigt dem Nutzer, wo das Modell gehostet wird. Kann auf EU, US oder Global eingestellt werden. Wissensstichtag: Wann die Trainingsdaten des Modells endeten. Bildanalyse: Gibt an, ob das Modell Bilder analysieren kann. Diese Information ist vom Modellanbieter und dem Hoster verfügbar. Bitte aktiviere diese Einstellung nur, wenn das Modell Vision/Bildanalyse unterstützt. Modellbeschreibung: Eine optionale Beschreibung (max. 150 Zeichen), die Nutzern angezeigt wird. Du kannst Beschreibungen auf Englisch und Deutsch über den Sprach-Toggle angeben.Modellkonfigurationen
Um die Modellkonfiguration einzurichten, wähle das SDK, das du verwendest. Du findest Informationen zur Konfiguration des Modellanbieters (z.B. Azure oder AWS): SDK: Das Kit oder die Bibliothek, die Langdock benötigt, um das von dir hinzugefügte Modell zu verwenden. Base URL: Zum Senden von Prompts an den entsprechenden Endpunkt deines Modells. Model ID: Der Name des Modells in deiner Konfiguration (dies muss nicht der “offizielle” Modellname sein). API Key: Ermöglicht es deinen Nutzern, sich bei der Verwendung des Modells innerhalb von Langdock zu authentifizieren, wenn sie Prompts senden. Context Size: Die Anzahl der Token, die das Modell in seinem Kontextfenster verarbeiten kann. Bitte verwende den exakten Wert des Modells, um sicherzustellen, dass die Kontextverwaltung in Langdock korrekt funktioniert. API-Typ: Wähle zwischen Completion API und Responses API je nach Modell. Neuere Modelle (GPT-5-Serie, o3, o4 Mini) verwenden typischerweise die Responses API, ältere Modelle die Completion API.Weitere Konfigurationsoptionen
Maximum messages in 3 hours: Ermöglicht es dir, die Nutzung/Kosten zu beeinflussen und Nachrichten pro Nutzer zu begrenzen. Diese Einstellung ist optional. Input and output token pricing: Ermöglicht die Festlegung der Token-Preise des individuellen Modells, um Nutzung und Kosten zu überwachen. Reasoning Effort: Bestimmt, wie viel Rechenaufwand das Modell für das Reasoning aufwendet. Höhere Werte verbessern die Qualität, führen aber zu zusätzlicher Latenz und mehr Token. Akzeptierte Werte: None, Minimal, Low, Medium, High. Nur verfügbar für Modelle mit Responses API. Verbosity: Kontrolliert den Detailgrad in der finalen Antwort des Modells. Akzeptierte Werte: Low, Medium, High. Nur verfügbar für Modelle mit Responses API. Canvas: Ob das Modell Canvas-Inhalte für kollaboratives Schreiben und Bearbeiten generieren kann. Supports Tools: Ob das Modell Tool-Aufrufe unterstützt (Integrationen, Websuche, etc.). Standardmäßig aktiviert. Tool Calls in Stream: Ob das Modell während des Streamings Tools aufrufen kann. Standardmäßig aktiviert. Supports Temperature: Ob das Modell den Temperature-Parameter zur Steuerung der Zufälligkeit unterstützt. Deaktiviere dies für Reasoning-Modelle (o1, o3, o4 Mini, GPT-5, GPT-5 mini, GPT-5 nano), da diese Temperature-Werte ablehnen. Claude-Modelle unterstützen Temperature ebenfalls nicht, wenn Display Thinking aktiviert ist. Display Thinking: Zeigt den Reasoning-Prozess des Modells in der UI an. Aktiviere dies für Reasoning/Thinking-Modellvarianten. Available in Agents: Ob dieses Modell für die Verwendung in Agenten ausgewählt werden kann. Standardmäßig aktiviert. Visible to everyone: Du kannst das Modell für alle im Workspace sichtbar machen. Wenn diese Option deaktiviert ist, ist das Modell nur für Admins sichtbar und kann von anderen Nutzern nicht verwendet werden. Das ermöglicht dir, das Modell zu testen, bevor du es für den gesamten Workspace freigibst. Maintenance mode: Kann aktiviert werden, um Nutzern in der Oberfläche anzuzeigen, dass das Modell möglicherweise nicht wie erwartet funktioniert. Nützlich bei Konfigurationsänderungen oder vorübergehenden Problemen mit dem Modellanbieter. Strict Mode: Aktiviert den strikten Validierungsmodus für die API-Aufrufe des Modells. User Identifier: Steuert, ob Nutzeridentitätsinformationen an den Modellanbieter gesendet werden. Optionen: None, User ID, Email oder Microsoft UPN (User Principal Name). Image Editing: Nur für Bildgenerierungsmodelle — gibt an, ob das Modell bestehende Bilder bearbeiten kann, zusätzlich zur Generierung neuer Bilder.Abschließende Schritte
- Nach Eingabe aller erforderlichen Einstellungen klicke auf Save
- Wir empfehlen, das Modell zu testen, bevor du es für alle sichtbar machst. Sende eine Nachricht an das Modell und prüfe, ob eine Antwort generiert wird. Wenn du auf Probleme stößt, kontaktiere support@langdock.com
Modellspezifische Konfiguration
Unten findest du die empfohlenen Einstellungen für jedes Modell. Verwende diese Werte bei der Konfiguration von Modellen in Langdock.OpenAI GPT-5.2 Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| GPT-5.2 | Responses API | 400.000 | 128.000 | Setze Reasoning auf minimal und Verbosity auf low |
| GPT-5.2 (Thinking) | Responses API | 400.000 | 128.000 | Setze Reasoning auf high und Verbosity auf low |
| GPT-5.2 Pro | Responses API | 400.000 | 128.000 | Maximale Reasoning-Tiefe und Zuverlässigkeit |
OpenAI GPT-5.1 Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| GPT-5.1 | Responses API | 400.000 | 128.000 | Setze Reasoning auf minimal und Verbosity auf low |
| GPT-5.1 (Thinking) | Responses API | 400.000 | 128.000 | Setze Reasoning auf high und Verbosity auf low |
| GPT-5.1 Chat | Responses API | 128.000 | 16.384 | Nur bei Azure als Global Standard Deployment in der EU oder direkt über OpenAI verfügbar |
OpenAI GPT-5 Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| GPT-5 | Responses API | 400.000 | 128.000 | Setze Reasoning auf minimal und Verbosity auf low |
| GPT-5 (Thinking) | Responses API | 400.000 | 128.000 | Setze Reasoning auf high und Verbosity auf low |
| GPT-5 Chat | Responses API | 128.000 | 16.384 | — |
| GPT-5 mini | Responses API | 400.000 | 128.000 | — |
| GPT-5 nano | Responses API | 400.000 | 128.000 | — |
OpenAI GPT-4.1 Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| GPT-4.1 | Completion API | 1.047.576 | 32.768 | Gut für den Datenanalysten (CSV/Excel-Dateien) |
| GPT-4.1 mini | Completion API | 1.047.576 | 32.768 | — |
| GPT-4.1 nano | Completion API | 1.047.576 | 32.768 | — |
OpenAI GPT-4o Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| GPT-4o | Completion API | 128.000 | 16.384 | — |
| GPT-4o Mini | Completion API | 128.000 | 16.384 | — |
OpenAI Reasoning-Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| o3 | Responses API | 200.000 | 100.000 | — |
| o3 Mini | Completion API | 200.000 | 100.000 | Verwende Model-ID o3-mini |
| o3 Mini high | Completion API | 200.000 | 100.000 | Verwende Model-ID o3-mini und setze Reasoning Effort auf high |
| o4 Mini | Responses API | 200.000 | 100.000 | — |
| o4 Mini high | Responses API | 200.000 | 100.000 | Verwende Model-ID o4-mini und setze Reasoning Effort auf high |
| o1 | Completion API | 200.000 | 100.000 | — |
Anthropic Claude Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| Claude Opus 4.6 | Completion API | 200.000 | 128.000 | — |
| Claude Opus 4.6 Reasoning | Completion API | 200.000 | 128.000 | Aktiviere Display Thinking |
| Claude Opus 4.5 | Completion API | 200.000 | 64.000 | — |
| Claude Opus 4.5 Reasoning | Completion API | 200.000 | 64.000 | Aktiviere Display Thinking |
| Claude Sonnet 4.6 | Completion API | 200.000 | 64.000 | — |
| Claude Sonnet 4.6 Reasoning | Completion API | 200.000 | 64.000 | Aktiviere Display Thinking |
| Claude Sonnet 4.5 | Completion API | 200.000 | 64.000 | — |
| Claude Sonnet 4.5 Reasoning | Completion API | 200.000 | 64.000 | Aktiviere Display Thinking |
| Claude Sonnet 4 | Completion API | 200.000 | 64.000 | — |
| Claude Sonnet 4 Reasoning | Completion API | 200.000 | 64.000 | Aktiviere Display Thinking |
| Claude Sonnet 3.7 | Completion API | 200.000 | 8.192 | — |
| Claude Sonnet 3.7 Reasoning | Completion API | 200.000 | 8.192 | Aktiviere Display Thinking |
| Claude Haiku 4.5 | Completion API | 200.000 | 64.000 | — |
Google Gemini Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| Gemini 2.5 Pro | Completion API | 1.000.000 | 64.000 | Unterstützt Reasoning/Thinking |
| Gemini 2.5 Flash | Completion API | 1.000.000 | 32.000 | Unterstützt Reasoning/Thinking |
| Gemini 3 Pro | Completion API | 1.000.000 | 64.000 | — |
| Gemini 3 Flash | Completion API | 200.000 | 32.000 | — |
Andere Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|---|---|---|---|
| Mistral Large 2411 | Completion API | 128.000 | — | Keine Bildanalyse-Unterstützung |
| Codestral | Completion API | 32.000 | — | Code-Generierungsmodell |
| Llama 4 Maverick | Completion API | 1.000.000 | — | — |
| Llama 3.3 70B | Completion API | 128.000 | — | Keine Bildanalyse-Unterstützung |
| DeepSeek R1 | Completion API | 128.000 | — | Nur US-Region, keine Tool-Unterstützung |
| DeepSeek v3 | Completion API | 128.000 | — | — |
| Amazon Nova Lite | Completion API | 300.000 | — | Nur US-Region |
| Amazon Nova Pro | Completion API | 300.000 | 5.000 | Nur US-Region |
Für die aktuellsten Modellinformationen und -funktionen schau in die Modellauswahl in app.langdock.com.
Spezialfälle während der Einrichtung
Mistral von Azure: Stelle sicher, dass du “Mistral” als SDK auswählst. Claude von AWS Bedrock: Wenn du das Bedrock SDK auswählst, wird das Feld „Base URL” zu „Access Key ID” und „API Key” zu „Secret Access Key”. Gib deine AWS-Anmeldedaten in diese Felder ein. Siehe den Bedrock-Einrichtungsguide für Details. Flux von Replicate: Das Base URL-Feld muss den vollständigen Modellpfad enthalten, nicht nur die Basis-URL. Für Flux 1.1 Pro ist dies:https://api.replicate.com/v1/models/black-forest-labs/flux-1.1-pro/predictions