Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.langdock.com/llms.txt

Use this file to discover all available pages before exploring further.

Langdock benötigt drei Modelltypen, um alle Plattformfunktionen abzudecken. Füge sie unter Workspace-Einstellungen -> Modelle hinzu. Die Einrichtungsanleitung für jeden Modelltyp findest du unter Eigene Modelle hinzufügen.

Modelle in Langdock einrichten

Completion-Modelle

Das sind die Modelle, die deine Nutzer im Chat auswählen. Füge die Modelle hinzu, die du von den Anbietern anbieten möchtest, für die du Schlüssel hast. Wir unterstützen Modelle von Microsoft Azure, AWS Bedrock, Google Vertex AI, Google AI Studio, OpenAI, Anthropic, Mistral, DeepSeek, Perplexity, Black Forest Labs, Replicate und jedem OpenAI-kompatiblen Endpunkt. Für Kontingente decken zwischen 200k und 500k TPM (Token pro Minute) rund 200 Nutzer ab. Für dein meistgenutztes Modell benötigst du möglicherweise 500k bis 1 Mio. TPM.
Wir empfehlen, mehrere Deployments in verschiedenen Regionen einzurichten. Wenn ein Modell in einer Region fehlschlägt, versucht Langdock automatisch eine andere Region.

Bildgenerierungsmodelle

Füge mindestens ein Bildgenerierungsmodell hinzu, damit Nutzer Bilder aus dem Chat generieren können. Die Einrichtungsanleitung findest du im Image-Tab der Modell-Hinzufügen-Seite.

Embedding-Modell

Embedding-Modelle ermöglichen Dokumentensuche und Ordner. Die Plattform benötigt ein Modell mit 1536 Dimensionen. Jedes OpenAI- oder Azure-kompatible Embedding-Modell mit 1536 Dimensionen funktioniert. Die Einrichtungsanleitung findest du im Embedding-Tab der Modell-Hinzufügen-Seite.

Deep-Research-Modelle

Deep Research benötigt drei dedizierte Modelle. Gehe zu Einstellungen > Produkte > Deep Research und weise jedem Typ ein Modell zu:
TypAufgabeEmpfehlung
Reasoning-ModellPlant die Recherche, bewertet Ergebnisse und erstellt den Abschlussbericht.o3
Fast-Reasoning-ModellErstellt Zwischenzusammenfassungen während der Rechercheschleife.o4 Mini
Backbone-ModellTrifft Entscheidungen in der Schleife und verfeinert den Abschlussbericht. Muss schnell und kosteneffizient sein.GPT-5 Mini
EinstellungEmpfohlener Wert
API-TypResponses API
Reasoning EffortMedium
VerbosityMedium
Supports TemperatureDeaktiviert
Supports ToolsAktiviert
EinstellungEmpfohlener Wert
API-TypResponses API
Reasoning EffortMinimal
VerbosityLow
Supports TemperatureDeaktiviert
Strict ModeDeaktiviert
Supports ToolsAktiviert
Deep Research verwendet die Reasoning- und Verbosity-Einstellungen, die du an jedem Modell konfiguriert hast. Sind diese falsch oder fehlen, liefert Deep Research schlechte Ergebnisse oder schlägt ganz fehl.
Du kannst ein Nutzungslimit in den Deep-Research-Einstellungen festlegen (Standard: 15 Abfragen pro Nutzer pro 30 Tage). Checkliste vor dem Fortfahren:
  • Completion-Modelle von den Anbietern, die du anbieten möchtest
  • 1 oder mehr Bildgenerierungsmodelle
  • 1x Embedding-Modell (1536 Dimensionen)
  • 3x Deep-Research-Modelle mit den richtigen Einstellungen (siehe oben)

Langdock-Team kontaktieren

Sobald deine Modelle eingerichtet sind, kontaktiere das Langdock-Team, um BYOK auf unserer Seite zu aktivieren.

Modelle testen

Sobald BYOK aktiv ist, prüfe jeden Modelltyp:
  • Completion-Modelle: sende einen Prompt an jedes Modell in der Oberfläche.
  • Bildmodell: bitte ein beliebiges Modell, ein Bild zu generieren.
  • Embedding-Modell: erstelle einen Ordner in der Bibliothek, lade eine Datei hoch, starte dann einen Chat und erwähne den Ordner. Du solltest eine Antwort basierend auf dem Dateiinhalt erhalten.
  • Deep Research: führe eine Deep-Research-Abfrage durch und prüfe, ob der Bericht ausführlich und gut strukturiert ist. Ist er flach, überprüfe die Modelleinstellungen aus dem Abschnitt oben.
Kontaktiere support@langdock.com, wenn etwas nicht funktioniert.