Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.langdock.com/llms.txt

Use this file to discover all available pages before exploring further.

Voraussetzungen

Stelle sicher, dass du folgende Voraussetzungen erfüllt hast, bevor du ein Modell konfigurierst:
  • Du hast das gewünschte Modell bei deinem Anbieter konfiguriert
  • Du hast den entsprechenden Model Key bei deinem Anbieter konfiguriert

Eigene Modelle zum Workspace hinzufügen

Langdock bietet vorkonfigurierte Einstellungen für die beliebtesten KI-Modelle. Du kannst ein Modell aus diesem Katalog auswählen und wir füllen alle Anbieter-Einstellungen automatisch aus. Du musst nur deine Modell-Zugangsdaten angeben, den Rest übernehmen wir. Wir bieten Vorkonfigurationen für die meistgenutzten KI-Modelle, darunter Completion-, Bildgenerierungs- und Embedding-Modelle.

1. Modell auswählen

Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.Wenn du ein vorkonfiguriertes Modell wählst, hält Langdock alle Einstellungen aktuell. Preise, Kontextfenster und Funktionen spiegeln immer den aktuellen Stand deines Anbieters wider.Modell aus Konfigurationen auswählenWenn dein Modell nicht im Katalog ist, kannst du es manuell einrichten.

2. Modell konfigurieren

Wenn du ein vorkonfiguriertes Modell ausgewählt hast, hat Langdock die technischen Einstellungen bereits ausgefüllt. Du musst nur entscheiden, wie das Modell in deinem Workspace verfügbar sein soll. Bei manueller Einrichtung konfigurierst du alles selbst, von den Anbieter-Details bis zu Preisen und Funktionen.Wähle die Option aus, die zu deiner Einrichtung passt
Langdock übernimmt alle technischen Einstellungen für dich. Du musst nur entscheiden, wie du das Modell in deinem Workspace bereitstellen möchtest.Vorkonfiguriertes Modell auswählenSichtbarkeitseinstellungen:
  • Setze das Modell auf unsichtbar, während du es testest. Mache es sichtbar, sobald du mit dem Verhalten zufrieden bist.
  • Entscheide, ob das Modell beim Erstellen von Assistenten verfügbar sein soll.
  • Markiere es als Premium-Modell, wenn Nutzer es nicht als persönliches Standardmodell festlegen sollen.
  • Nutze den Wartungsmodus, um die Nutzung zu pausieren, ohne das Modell zu entfernen.
Wenn du dich für die manuelle Einrichtung entschieden hast, musst du die technischen Parameter jetzt selbst konfigurieren. Dazu gehören allgemeine Modellinformationen, Verbindungseinstellungen, Preise und Funktionen, die Langdock sonst für dich verwalten würde.
Die manuelle Einrichtung gibt dir vollständige Kontrolle über jeden Konfigurationsparameter. Beachte, dass du selbst dafür verantwortlich bist, diese Einstellungen aktuell zu halten. Langdock aktualisiert Parameter wie Kontextfenstergröße oder Preise nicht automatisch, wenn ein Anbieter Änderungen vornimmt.Modell manuell einrichtenAllgemein
  • Modellname: der Anzeigename für Nutzer.
  • Anbieter Modellname: der Modell-Identifier bei deinem Anbieter.
  • Anbieter: die Organisation, die das Modell entwickelt hat (z.B. OpenAI, Anthropic).
  • Region: wo das Modell gehostet wird. Nutzern als EU, US oder Global angezeigt.
Beschreibung
  • Beschreibung (EN): optional, max. 150 Zeichen.
  • Beschreibung (DE): optional, max. 150 Zeichen.
Konfigurieren
  • Context Window Größe: das Kontextfenster des Modells in Token.
  • Max. Output Tokens: maximale Token, die das Modell pro Antwort generieren kann.
  • Max. Bilder pro Anfrage: maximale Anzahl an Bildern pro Anfrage.
  • Max. Nachrichten pro Nutzer: optional. Lege ein Limit fest, wie viele Nachrichten ein Nutzer in einem Zeitfenster senden kann (z.B. 100 pro 3 Stunden).
Denken & Reasoning
  • Erweitertes Denken umschalten: zeigt einen “Erweitertes Denken”-Schalter in der Chat-Oberfläche, damit Nutzer tieferes Reasoning aktivieren können. Nur relevant für Modelle, die dies unterstützen, wie Opus 4.6 oder GPT-5.4.
  • Reasoning-Aufwand: optionaler Reasoning-Aufwand bei aktiviertem Erweitertem Denken.
  • Ausführlichkeit (Verbosity): optionale Ausführlichkeit der Antworten.
Preise
Token-Preise werden für Nutzungsverfolgung und Kostenberichte verwendet.
  • Input-Token Preis (USD / 1M tokens)
  • Output-Token Preis (USD / 1M tokens)
  • Cache-Read-Token Preis (USD / 1M tokens)
  • Cache-Write-Token Preis (USD / 1M tokens)
Erweitert
  • Bildanalyse: aktivieren, wenn das Modell Bildanalyse unterstützt.
  • Unterstützt Bilder über signierte URLs: aktivieren, wenn das Modell Bilder über signierte URLs empfangen kann. Deaktivieren, um Bilder als Base64 zu senden (erforderlich für Claude via Vertex AI und OpenAI via eu.api.openai.com).
  • Canvas: aktivieren, damit das Modell Dokumente mit dem Canvas-Tool erstellen kann.
  • Unterstützt Tools: aktivieren, wenn das Modell Tools unterstützt. Wenn deaktiviert, sind alle Tools für dieses Modell unbrauchbar.
  • Tool-Aufrufe im Stream: aktivieren, wenn das Modell Tool-Aufrufe während des Streamings unterstützt. Empfohlen für Llama- und Mistral-Modelle zu deaktivieren.
  • Temperatur-Parameter: wenn deaktiviert, wird der Temperature-Parameter nicht an das Modell gesendet.
  • Reasoning immer anzeigen: für Modelle, die nativ Reasoning-Ausgaben erzeugen (z.B. o3, o4 Mini). Der Denkprozess ist für Nutzer immer sichtbar.
  • Responses API verwenden: OpenAIs Responses API statt Chat Completions verwenden. Erforderlich für Websuche und Dateisuche bei OpenAI-Modellen.
  • Strikter Modus: Im strikten Modus werden Anfragen bei Fehlern nicht wiederholt und die Titelgenerierung wird mit diesem Modell durchgeführt.
  • Nutzer-Identifier: ein Identifier, der an den Anbieter für Compliance, Audit-Protokollierung und Missbrauchserkennung gesendet wird.

3. Deployment konfigurieren

Ein Deployment verbindet dein Modell über einen Model Key mit einem bestimmten Anbieter-Endpunkt. Wähle einen Key, den du bereits in den Model Keys konfiguriert hast, oder füge einen neuen hinzu.Deployment-Konfiguration
  • Key: wähle einen vorhandenen Model Key oder füge einen neuen hinzu.
  • Model identifier: der Deployment-Name oder die Modell-ID aus der Konfiguration deines Anbieters.
  • Tokens per minute (TPM): optional. Begrenzt die Token pro Minute für dieses Deployment.
Du kannst mehrere Deployments für dasselbe Modell hinzufügen. Wenn eines fehlschlägt, fällt Langdock automatisch auf das nächste verfügbare zurück.

4. Modell prüfen

Modellkonfiguration vor dem Speichern prüfenSobald du das Modell erfolgreich getestet hast, prüfe die finalen Einstellungen, bevor du speicherst und das Modell für deinen Workspace verfügbar machst.Du hast jetzt dein eigenes Completions-Modell zu Langdock hinzugefügt 🎉