Langdock benötigt drei Modelltypen, um alle Plattformfunktionen abzudecken. Füge sie unter Workspace-Einstellungen -> Modelle hinzu. Die Einrichtungsanleitung für jeden Modelltyp findest du unter Eigene Modelle hinzufügen.Documentation Index
Fetch the complete documentation index at: https://docs.langdock.com/llms.txt
Use this file to discover all available pages before exploring further.
Modelle in Langdock einrichten
Completion-Modelle
Das sind die Modelle, die deine Nutzer im Chat auswählen. Füge die Modelle hinzu, die du von den Anbietern anbieten möchtest, für die du Schlüssel hast. Wir unterstützen Modelle von Microsoft Azure, AWS Bedrock, Google Vertex AI, Google AI Studio, OpenAI, Anthropic, Mistral, DeepSeek, Perplexity, Black Forest Labs, Replicate und jedem OpenAI-kompatiblen Endpunkt. Für Kontingente decken zwischen 200k und 500k TPM (Token pro Minute) rund 200 Nutzer ab. Für dein meistgenutztes Modell benötigst du möglicherweise 500k bis 1 Mio. TPM.Wir empfehlen, mehrere Deployments in verschiedenen Regionen einzurichten. Wenn ein Modell in einer Region fehlschlägt, versucht Langdock automatisch eine andere Region.
Bildgenerierungsmodelle
Füge mindestens ein Bildgenerierungsmodell hinzu, damit Nutzer Bilder aus dem Chat generieren können. Die Einrichtungsanleitung findest du im Image-Tab der Modell-Hinzufügen-Seite.Embedding-Modell
Embedding-Modelle ermöglichen Dokumentensuche und Ordner. Die Plattform benötigt ein Modell mit 1536 Dimensionen. Jedes OpenAI- oder Azure-kompatible Embedding-Modell mit 1536 Dimensionen funktioniert. Die Einrichtungsanleitung findest du im Embedding-Tab der Modell-Hinzufügen-Seite.Deep-Research-Modelle
Deep Research benötigt drei dedizierte Modelle. Gehe zu Einstellungen > Produkte > Deep Research und weise jedem Typ ein Modell zu:| Typ | Aufgabe | Empfehlung |
|---|---|---|
| Reasoning-Modell | Plant die Recherche, bewertet Ergebnisse und erstellt den Abschlussbericht. | o3 |
| Fast-Reasoning-Modell | Erstellt Zwischenzusammenfassungen während der Rechercheschleife. | o4 Mini |
| Backbone-Modell | Trifft Entscheidungen in der Schleife und verfeinert den Abschlussbericht. Muss schnell und kosteneffizient sein. | GPT-5 Mini |
Empfohlene Einstellungen: Reasoning- und Fast-Reasoning-Modelle
Empfohlene Einstellungen: Reasoning- und Fast-Reasoning-Modelle
| Einstellung | Empfohlener Wert |
|---|---|
| API-Typ | Responses API |
| Reasoning Effort | Medium |
| Verbosity | Medium |
| Supports Temperature | Deaktiviert |
| Supports Tools | Aktiviert |
Empfohlene Einstellungen: Backbone-Modell
Empfohlene Einstellungen: Backbone-Modell
| Einstellung | Empfohlener Wert |
|---|---|
| API-Typ | Responses API |
| Reasoning Effort | Minimal |
| Verbosity | Low |
| Supports Temperature | Deaktiviert |
| Strict Mode | Deaktiviert |
| Supports Tools | Aktiviert |
- Completion-Modelle von den Anbietern, die du anbieten möchtest
- 1 oder mehr Bildgenerierungsmodelle
- 1x Embedding-Modell (1536 Dimensionen)
- 3x Deep-Research-Modelle mit den richtigen Einstellungen (siehe oben)
Langdock-Team kontaktieren
Sobald deine Modelle eingerichtet sind, kontaktiere das Langdock-Team, um BYOK auf unserer Seite zu aktivieren.Modelle testen
Sobald BYOK aktiv ist, prüfe jeden Modelltyp:- Completion-Modelle: sende einen Prompt an jedes Modell in der Oberfläche.
- Bildmodell: bitte ein beliebiges Modell, ein Bild zu generieren.
- Embedding-Modell: erstelle einen Ordner in der Bibliothek, lade eine Datei hoch, starte dann einen Chat und erwähne den Ordner. Du solltest eine Antwort basierend auf dem Dateiinhalt erhalten.
- Deep Research: führe eine Deep-Research-Abfrage durch und prüfe, ob der Bericht ausführlich und gut strukturiert ist. Ist er flach, überprüfe die Modelleinstellungen aus dem Abschnitt oben.