Documentation Index
Fetch the complete documentation index at: https://docs.langdock.com/llms.txt
Use this file to discover all available pages before exploring further.
Voraussetzungen
Stelle sicher, dass du folgende Voraussetzungen erfüllt hast, bevor du ein Modell konfigurierst:- Du hast das gewünschte Modell bei deinem Anbieter konfiguriert
- Du hast den entsprechenden Model Key bei deinem Anbieter konfiguriert
Eigene Modelle zum Workspace hinzufügen
Langdock bietet vorkonfigurierte Einstellungen für die beliebtesten KI-Modelle. Du kannst ein Modell aus diesem Katalog auswählen und wir füllen alle Anbieter-Einstellungen automatisch aus. Du musst nur deine Modell-Zugangsdaten angeben, den Rest übernehmen wir. Wir bieten Vorkonfigurationen für die meistgenutzten KI-Modelle, darunter Completion-, Bildgenerierungs- und Embedding-Modelle.- Completion
- Image
- Embedding
1. Modell auswählen
Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.Wenn du ein vorkonfiguriertes Modell wählst, hält Langdock alle Einstellungen aktuell. Preise, Kontextfenster und Funktionen spiegeln immer den aktuellen Stand deines Anbieters wider.
2. Modell konfigurieren
Wenn du ein vorkonfiguriertes Modell ausgewählt hast, hat Langdock die technischen Einstellungen bereits ausgefüllt. Du musst nur entscheiden, wie das Modell in deinem Workspace verfügbar sein soll. Bei manueller Einrichtung konfigurierst du alles selbst, von den Anbieter-Details bis zu Preisen und Funktionen.Wähle die Option aus, die zu deiner Einrichtung passtVorkonfiguriertes Modell
Vorkonfiguriertes Modell
Langdock übernimmt alle technischen Einstellungen für dich. Du musst nur entscheiden, wie du das Modell in deinem Workspace bereitstellen möchtest.
Sichtbarkeitseinstellungen:

- Setze das Modell auf unsichtbar, während du es testest. Mache es sichtbar, sobald du mit dem Verhalten zufrieden bist.
- Entscheide, ob das Modell beim Erstellen von Assistenten verfügbar sein soll.
- Markiere es als Premium-Modell, wenn Nutzer es nicht als persönliches Standardmodell festlegen sollen.
- Nutze den Wartungsmodus, um die Nutzung zu pausieren, ohne das Modell zu entfernen.
Manuell einrichten
Manuell einrichten
Die manuelle Einrichtung gibt dir vollständige Kontrolle über jeden Konfigurationsparameter. Beachte, dass du selbst dafür verantwortlich bist, diese Einstellungen aktuell zu halten. Langdock aktualisiert Parameter wie Kontextfenstergröße oder Preise nicht automatisch, wenn ein Anbieter Änderungen vornimmt.
Allgemein

- Modellname: der Anzeigename für Nutzer.
- Anbieter Modellname: der Modell-Identifier bei deinem Anbieter.
- Anbieter: die Organisation, die das Modell entwickelt hat (z.B. OpenAI, Anthropic).
- Region: wo das Modell gehostet wird. Nutzern als EU, US oder Global angezeigt.
- Beschreibung (EN): optional, max. 150 Zeichen.
- Beschreibung (DE): optional, max. 150 Zeichen.
- Context Window Größe: das Kontextfenster des Modells in Token.
- Max. Output Tokens: maximale Token, die das Modell pro Antwort generieren kann.
- Max. Bilder pro Anfrage: maximale Anzahl an Bildern pro Anfrage.
- Max. Nachrichten pro Nutzer: optional. Lege ein Limit fest, wie viele Nachrichten ein Nutzer in einem Zeitfenster senden kann (z.B. 100 pro 3 Stunden).
- Erweitertes Denken umschalten: zeigt einen “Erweitertes Denken”-Schalter in der Chat-Oberfläche, damit Nutzer tieferes Reasoning aktivieren können. Nur relevant für Modelle, die dies unterstützen, wie Opus 4.6 oder GPT-5.4.
- Reasoning-Aufwand: optionaler Reasoning-Aufwand bei aktiviertem Erweitertem Denken.
- Ausführlichkeit (Verbosity): optionale Ausführlichkeit der Antworten.
Token-Preise werden für Nutzungsverfolgung und Kostenberichte verwendet.
- Input-Token Preis (USD / 1M tokens)
- Output-Token Preis (USD / 1M tokens)
- Cache-Read-Token Preis (USD / 1M tokens)
- Cache-Write-Token Preis (USD / 1M tokens)
- Bildanalyse: aktivieren, wenn das Modell Bildanalyse unterstützt.
- Unterstützt Bilder über signierte URLs: aktivieren, wenn das Modell Bilder über signierte URLs empfangen kann. Deaktivieren, um Bilder als Base64 zu senden (erforderlich für Claude via Vertex AI und OpenAI via eu.api.openai.com).
- Canvas: aktivieren, damit das Modell Dokumente mit dem Canvas-Tool erstellen kann.
- Unterstützt Tools: aktivieren, wenn das Modell Tools unterstützt. Wenn deaktiviert, sind alle Tools für dieses Modell unbrauchbar.
- Tool-Aufrufe im Stream: aktivieren, wenn das Modell Tool-Aufrufe während des Streamings unterstützt. Empfohlen für Llama- und Mistral-Modelle zu deaktivieren.
- Temperatur-Parameter: wenn deaktiviert, wird der Temperature-Parameter nicht an das Modell gesendet.
- Reasoning immer anzeigen: für Modelle, die nativ Reasoning-Ausgaben erzeugen (z.B. o3, o4 Mini). Der Denkprozess ist für Nutzer immer sichtbar.
- Responses API verwenden: OpenAIs Responses API statt Chat Completions verwenden. Erforderlich für Websuche und Dateisuche bei OpenAI-Modellen.
- Strikter Modus: Im strikten Modus werden Anfragen bei Fehlern nicht wiederholt und die Titelgenerierung wird mit diesem Modell durchgeführt.
- Nutzer-Identifier: ein Identifier, der an den Anbieter für Compliance, Audit-Protokollierung und Missbrauchserkennung gesendet wird.
3. Deployment konfigurieren
Ein Deployment verbindet dein Modell über einen Model Key mit einem bestimmten Anbieter-Endpunkt. Wähle einen Key, den du bereits in den Model Keys konfiguriert hast, oder füge einen neuen hinzu.
- Key: wähle einen vorhandenen Model Key oder füge einen neuen hinzu.
- Model identifier: der Deployment-Name oder die Modell-ID aus der Konfiguration deines Anbieters.
- Tokens per minute (TPM): optional. Begrenzt die Token pro Minute für dieses Deployment.
4. Modell prüfen










