1. Richte die Modelle und Schlüssel in Langdock ein
Du benötigst verschiedene Modelle, damit die Plattform funktioniert. Um Modelle hinzuzufügen, musst du die Modelle und die entsprechenden Schlüssel hier in den Workspace-Einstellungen hinzufügen. Die Schlüssel können für mehrere Modelle desselben Anbieters verwendet werden, sodass beispielsweise GPT-5 und GPT-4.1 denselben Schlüssel verwenden können, wenn sie beide aus demselben Deployment stammen, z.B. in Microsoft Azure. Hier sind die Modelle, die notwendig sind, um alle Funktionalitäten abzudecken:1.1 Embedding-Modell
- Embedding-Modelle verarbeiten Dokumente und ermöglichen dem Modell, hochgeladene Dokumente zu durchsuchen.
- Derzeit benötigen wir die Bereitstellung von ADA v2 (text-embedding-ada-002).
1.2 Backbone-Modell
- Das Backbone-Modell hat drei Zwecke:
- Es generiert Chat-Titel in der Seitenleiste links (um eine Zusammenfassung in 3 Wörtern zu generieren, brauchst du nicht das Hauptmodell)
- Es definiert und führt Planungsschritte von Modellen aus, die nicht effizient im Tool-Calling sind (z.B. LLaMA oder DeepSeek)
- Wenn das Hauptmodell fehlschlägt, springt das Backbone-Modell ein, um eine Antwort für den Nutzer zu vervollständigen.
- Wir empfehlen GPT-4.1 mini (gpt-4.1-mini) für diesen Zweck.
1.3 Bildgenerierungsmodell
- Wir unterstützen dall-e-3, gpt-image-1, Google Imagen und Flux-Modelle von Black Forest Labs.
- Für Google Imagen 3 folge dem gleichen Einrichtungsprozess wie bei Gemini mit der Modell-ID
imagen-3.0-generate-001
1.4 Completion-Modelle
- Damit Nutzer verschiedene Modelle im Chat auswählen können, kannst du die Completion-Modelle für deine Nutzer hinzufügen, wie GPT-5, GPT-4.1, o3, Claude Sonnet 4.5, Gemini 2.5 Flash usw.
- Bitte füge auch die für Deep Research benötigten Modelle hinzu (o3, o4 mini und GPT-4.1 mini). Diese benötigen keine 2 Deployments wie das Backbone-Modell.
- Wir unterstützen alle Modelle, die von Microsoft Azure, AWS, Google Vertex und OpenAI gehostet werden.
- Für Kontingente sollte alles zwischen 200k und 500k ausreichen, um die Nutzung von ~200 Nutzern abzudecken. Für GPT-4.1, das am häufigsten verwendete Modell, benötigst du möglicherweise ein Kontingent von 500k bis 1 Mio. Token.
Für die Hauptmodelle empfehlen wir, mehrere Deployments in verschiedenen Regionen einzurichten. Wenn ein Modell in einer Region einen Fehler hat, versucht Langdock automatisch, das Modell in einer anderen Region aufzurufen.
- 1x Embedding-Modell (Ada)
- 2x GPT-4.1 mini (eines als Completion-Modell und eines als Backbone-Modell)
- 1 oder mehr Bildgenerierungsmodelle
- 1x o3
- 1x o4 mini
- Aktuelle Hauptmodelle von OpenAI, Anthropic und Google (und anderen) als Completion-Modelle
2. Kontaktiere das Langdock-Team
Nachdem du alle benötigten Modelle eingerichtet hast, wende dich bitte an das Langdock-Team. Wir werden mit dir einen Zeitfenster vereinbaren, um BYOK auf unserer Seite zu aktivieren. Normalerweise sollte dies am späten Nachmittag oder Abend geschehen, wenn weniger Nutzer aktiv sind. Es sollte keine Ausfallzeit geben; dies ist eine Vorsichtsmaßnahme, um Störungen während des Wechsels zu vermeiden. Bitte stelle sicher, dass du oder jemand, der die Modelle einrichten kann, verfügbar ist. Wir stellen sicher, dass auch auf unserer Seite ein Ingenieur verfügbar ist.3. Teste die Modelle
Bitte stelle sicher, dass alle Modelle korrekt funktionieren. Hier erfährst du, wie du die Modelle testen kannst:- Completion-Modelle: Sende einen Prompt an jedes Modell, das du in der Nutzeroberfläche auswählen kannst (z.B. “schreibe eine Geschichte über Hunde”).
- Embedding-Modell: Lade eine Datei hoch und stelle eine Frage dazu (z.B. “was steht in der Datei”). Der Upload sollte funktionieren und du solltest eine Antwort basierend auf der Datei erhalten.
- Bildmodell: Bitte ein beliebiges Modell, ein Bild zu generieren. Du solltest ein vom Modell im Hintergrund generiertes Bild sehen.
- Backbone-Modell: Schreibe eine Nachricht in einem neuen Chat und prüfe, ob nach dem Senden des Prompts ein Chat-Titel generiert wird. (Bitte stelle sicher, dass der Strict Mode für dieses Modell deaktiviert ist)