Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.langdock.com/llms.txt

Use this file to discover all available pages before exploring further.

Wähle deinen Anbieter aus, um die Einrichtungsschritte zu sehen.
Langdock unterstützt zwei Wege, Gemini-Modelle zu verbinden:
  • Google Vertex AI: verwendet Service-Account-Zugangsdaten. Am besten für Enterprise-Setups mit GCP-Infrastruktur.
  • Google AI Studio: verwendet einen einfachen API-Schlüssel. Einfacher einzurichten.

Option 1: Google Vertex AI

Google Cloud einrichten

  1. Aktiviere die Vertex AI API in deiner Google Cloud Platform.
  2. Gehe zu “Service Accounts” in den Google Cloud Console IAM-Einstellungen.
Gehe zu Service Accounts in der Seitenleiste
  1. Klicke auf “Create Service Account”.
  2. Gib dem Service Account einen Namen.
Gib dem Service Account einen Namen
  1. Weise die Rolle “Vertex AI User” zu.
Weise die Vertex AI User Rolle zu
  1. Erstelle den Service Account.
Erstelle den Service Account
  1. Du gelangst zurück zur Service Account Übersicht.
Service Account Übersicht
  1. Klicke auf der Übersichtsseite auf “Manage keys”.
Klicke auf Manage keys beim Service Account
  1. Erstelle einen neuen JSON-Schlüssel.
Wähle Create new key aus dem Dropdown
  1. Lade die JSON-Datei herunter und öffne sie.
Lade den Schlüssel herunter und öffne die JSON-Datei

Langdock einrichten

  1. Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.
  2. Nutze die vorgefertigte Langdock-Konfiguration oder richte es manuell ein. Setze das SDK auf Google Vertex.
Wenn du das Google Vertex SDK auswählst, beschriftet die Oberfläche die Felder um: “Base URL” wird zu Service Account Email und “API Key” wird zu Service Account Private Key.
  1. Fülle die Verbindungsfelder aus:
    • Service Account Email: füge den client_email-Wert aus deiner JSON-Schlüsseldatei ein (z.B. my-sa@my-project.iam.gserviceaccount.com)
    • Service Account Private Key: füge den private_key-Wert aus deiner JSON-Schlüsseldatei ein (einschließlich -----BEGIN PRIVATE KEY----- und -----END PRIVATE KEY-----)
    • Region: deine Vertex AI Region (z.B. europe-west3, us-central1). Diese bestimmt, welcher Vertex AI Endpunkt verwendet wird.
    • Model ID: die Modell-ID aus dem Vertex Portal (z.B. gemini-2.5-flash, gemini-2.5-pro)
  2. Führe den Live-Test durch und speichere.
Die GCP-Projekt-ID wird automatisch aus deiner Service Account Email extrahiert. Du musst sie nicht separat eingeben.

Option 2: Google AI Studio

  1. Hole dir einen API-Schlüssel von Google AI Studio.
  2. Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen. Wähle Google AI Studio als SDK.
  3. Füge deinen API-Schlüssel ein und setze die Model ID.
  4. Führe den Live-Test durch und speichere.

Imagen (Bildgenerierung)

Folge der Vertex AI-Einrichtung oben, setze aber den Modelltyp auf Image Generation und verwende eine Imagen Model ID (z.B. imagen-4.0-generate-001).
AWS Bedrock gibt dir Zugang zu Modellen wie Claude über deine eigene AWS-Infrastruktur mit Enterprise-Sicherheit und Compliance.Voraussetzungen:
  1. Ein AWS-Konto mit aktiviertem Bedrock-Zugang
  2. IAM-Zugangsdaten mit Bedrock-Berechtigungen
  3. Modellzugang in deiner AWS Bedrock Konsole aktiviert
  4. Admin-Zugang zu deinem Langdock Workspace

AWS einrichten

1. Modellzugang aktivieren

  1. Gehe zur AWS Bedrock Konsole.
  2. Navigiere zu Model access in der linken Seitenleiste.
  3. Klicke auf Manage model access und aktiviere die benötigten Modelle.
  4. Warte, bis der Zugang gewährt wurde (kann einige Minuten dauern).

2. IAM-Zugangsdaten erstellen

  1. Gehe zur AWS IAM Konsole.
  2. Navigiere zu Users und klicke auf Create user.
  3. Gib dem Nutzer einen beschreibenden Namen (z.B. langdock-bedrock-access).
  4. Füge die AmazonBedrockFullAccess-Richtlinie hinzu oder erstelle eine benutzerdefinierte Richtlinie mit den Mindestberechtigungen:
{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "bedrock:InvokeModel",
                "bedrock:InvokeModelWithResponseStream"
            ],
            "Resource": "*"
        }
    ]
}
  1. Gehe zum Tab Security credentials des Nutzers, klicke auf Create access key, wähle Third-party service und speichere sowohl die Access Key ID als auch den Secret Access Key.
Der Secret Access Key wird nur einmal angezeigt. Bewahre ihn sicher auf, bevor du den Dialog schließt.

Langdock einrichten

  1. Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.
  2. Wähle Bedrock als SDK.
Wenn du das Bedrock SDK auswählst, beschriftet die Oberfläche die Felder um: “Base URL” wird zu Access Key ID und “API Key” wird zu Secret Access Key.
  1. Fülle die Verbindungsfelder aus:
    • Access Key ID: deine AWS Access Key ID
    • Secret Access Key: dein AWS Secret Access Key
    • Region: deine AWS Region (z.B. us-east-1, eu-central-1)
    • Model ID: verwende den Bedrock Modell-Identifier (siehe unten)
    • Context Size: entsprechend dem Modell einstellen (siehe Modellkonfigurationstabellen)
  2. Klicke auf Save und teste das Modell, bevor du es für alle Nutzer sichtbar machst.

Model IDs

AnbieterFormatBeispiel
Anthropicanthropic.{model-name}anthropic.claude-sonnet-4-6
Metameta.{model-name}-v1:0meta.llama4-maverick-17b-instruct-v1:0
Amazonamazon.{model-name}-v1:0amazon.nova-pro-v1:0
Schau auf der AWS Bedrock Seite für unterstützte Modelle für genaue Model IDs.

Cross-Region Inference Profiles

Stelle der Model ID einen geografischen Code voran, um automatisch über Regionen zu routen:
PräfixGeltungsbereich
us.US-Regionen
eu.Europäische Regionen
global.Alle kommerziellen Regionen
apac.Asien-Pazifik Regionen
Beispiel: eu.anthropic.claude-sonnet-4-6Schau in die Inference Profiles Dokumentation für verfügbare Profile je Modell.

Unterstützte Regionen

  • US East (N. Virginia): us-east-1
  • US West (Oregon): us-west-2
  • EU (Frankfurt): eu-central-1
  • EU (Irland): eu-west-1
  • EU (Paris): eu-west-3
  • Asien-Pazifik (Tokio): ap-northeast-1
  • Asien-Pazifik (Sydney): ap-southeast-2

Netzwerkkonfiguration

Wenn deine Organisation Network Allowlisting verwendet, füge bedrock.REGION.amazonaws.com zu deiner Allowlist hinzu (ersetze REGION durch deine AWS Region, z.B. us-east-1).

Fehlerbehebung

“Access Denied”-Fehler: überprüfe die IAM-Berechtigungen und dass der Modellzugang in der Bedrock Konsole aktiviert ist.Modell nicht verfügbar: bestätige, dass das Modell in deinen AWS Bedrock Modellzugriffseinstellungen aktiviert und in deiner ausgewählten Region verfügbar ist.Authentifizierungsfehler: überprüfe, dass Access Key ID und Secret Access Key korrekt sind und die Region-Einstellung deiner Bedrock-Region entspricht.Langsame Antworten oder Timeouts: erwäge die Nutzung einer Region näher bei deinen Nutzern. Prüfe das AWS Service Health Dashboard auf laufende Probleme. Stelle sicher, dass dein AWS-Konto ausreichende Kontingente für das Modell hat.
Mistral-Modelle verbinden sich über die Mistral API oder über Azure (für Azure-gehostetes Mistral).Voraussetzungen:
  1. Ein Mistral-Konto bei console.mistral.ai
  2. Ein API-Schlüssel von der Mistral-Plattform
  3. Admin-Zugang zu deinem Langdock Workspace

Einrichtung

  1. Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.
  2. Fülle die Verbindungsfelder aus:
    • SDK: wähle Mistral
    • Base URL: leer lassen für den Standard (https://api.mistral.ai/v1) oder einen benutzerdefinierten Endpunkt angeben
    • Model ID: verwende den offiziellen Modell-Identifier (siehe unten)
    • API Key: füge deinen Mistral API-Schlüssel ein
  3. Klicke auf Save und teste das Modell.

Model IDs

Model IDAnwendungsfall
mistral-large-latestFlagship-Modell — komplexes Reasoning, mehrsprachig, Instruktionsfolgen
codestral-latestCode-spezialisiert — Code-Generierung und technische Aufgaben
mistral-small-latestSchnell und kosteneffizient — gut für alltägliche Aufgaben
Schau in Mistrals Modelldokumentation für die vollständige Liste der verfügbaren Modelle.

Mistral über Azure verwenden

Wenn du Mistral-Modelle über Azure (via Azure AI Models-as-a-Service) verwendest, musst du trotzdem “Mistral” als SDK in Langdock auswählen. Die SDK-Auswahl bezieht sich auf das API-Format, nicht den Hosting-Anbieter.
Beim Konfigurieren von Azure-gehosteten Mistral-Modellen:
  • Setze den Hosting-Anbieter auf Azure
  • Setze das SDK auf “Mistral” (nicht Azure OpenAI)
  • Verwende deinen Azure-Endpunkt als Base URL
  • Verwende deinen Azure API-Schlüssel

Konfigurationshinweise

  • Mistral-Modelle unterstützen Tool Calling nativ.
  • Der Standard-API-Endpunkt https://api.mistral.ai/v1 wird automatisch verwendet, wenn keine benutzerdefinierte Base URL angegeben wird.
  • Mistral-Modelle sind bekannt für starke mehrsprachige Fähigkeiten, besonders in europäischen Sprachen.

Fehlerbehebung

Modell antwortet nicht: überprüfe, ob dein API-Schlüssel gültig ist und du ausreichend Credits in deinem Mistral-Konto hast. Stelle sicher, dass die Model ID exakt übereinstimmt (Groß-/Kleinschreibung beachten).Authentifizierungsfehler mit Azure: überprüfe, dass du “Mistral” als SDK verwendest. Verifiziere, dass deine Azure-Endpunkt-URL und dein API-Schlüssel korrekt sind.Langsame Antworten: größere Modelle benötigen möglicherweise mehr Zeit für komplexe Reasoning-Aufgaben. Erwäge ein kleineres Modell für schnellere Antworten bei einfacheren Aufgaben.
DeepSeek-Modelle verbinden sich über die DeepSeek API. Alle Modelle werden in der US-Region gehostet.Voraussetzungen:
  1. Ein DeepSeek-Konto bei platform.deepseek.com
  2. Ein API-Schlüssel von der DeepSeek-Plattform
  3. Admin-Zugang zu deinem Langdock Workspace

Einrichtung

  1. Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.
  2. Fülle die Verbindungsfelder aus:
    • SDK: wähle DeepSeek
    • Base URL: https://api.deepseek.com/v1
    • Model ID: siehe Tabelle unten
    • API Key: füge deinen DeepSeek API-Schlüssel ein
    • Region: US
  3. Für Reasoning-Modelle (R1), aktiviere Always show reasoning, um den Denkprozess des Modells in der UI anzuzeigen.
  4. Klicke auf Save und teste das Modell.

Model IDs

Model IDTyp
deepseek-reasonerReasoning-Modell (R1-Serie) — hervorragend für schrittweises Problemlösen und Coding
deepseek-chatAllzweck-Modell (V3-Serie) — schnelle Antworten, gut für alltägliche Aufgaben
Schau in DeepSeeks API-Dokumentation für die neuesten verfügbaren Modelle.

Konfigurationshinweise

  • DeepSeek-Modelle werden nur in der US-Region gehostet. DeepSeek-Modelle unterstützen keine Bildanalyse.
  • DeepSeek R1 ist ein Reasoning-Modell. Aktiviere Always show reasoning, um seine Reasoning-Schritte in der UI zu sehen.
  • Die Base URL muss den /v1-Pfad enthalten: https://api.deepseek.com/v1.

Fehlerbehebung

Modell antwortet nicht: überprüfe, ob dein API-Schlüssel gültig ist und du ausreichend Credits hast. Stelle sicher, dass die Model ID exakt übereinstimmt (Groß-/Kleinschreibung beachten).Langsame Antworten: DeepSeek R1 (Reasoning-Modell) benötigt aufgrund seines schrittweisen Reasoning-Prozesses möglicherweise mehr Zeit. Verwende DeepSeek V3 für schnellere Antworten bei einfacheren Aufgaben.
Perplexitys Sonar-Modelle kombinieren LLM-Fähigkeiten mit Echtzeit-Websuche. Alle Modelle werden in der US-Region gehostet.Voraussetzungen:
  1. Ein Perplexity-Konto bei perplexity.ai
  2. Ein API-Schlüssel aus deinen Perplexity API-Einstellungen
  3. Admin-Zugang zu deinem Langdock Workspace

Einrichtung

  1. Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.
  2. Fülle die Verbindungsfelder aus:
    • SDK: wähle Perplexity
    • Base URL: leer lassen für den Standard (https://api.perplexity.ai)
    • Model ID: siehe Tabelle unten
    • API Key: füge deinen Perplexity API-Schlüssel ein
    • Region: US
  3. Klicke auf Save und teste das Modell.

Model IDs

Model IDTyp
sonar-proErweiterte suchbasierte Generierung mit detaillierten Zitaten
sonarSchnelle suchbasierte Antworten für allgemeine Anfragen
sonar-reasoning-proTiefgehende Analyse mit Suche und mehrstufigem Reasoning
sonar-reasoningReasoning mit Suchunterstützung
Schau in Perplexitys Modelldokumentation für die vollständige Liste der verfügbaren Modelle.

Konfigurationshinweise

  • Perplexity-Modelle haben eingebaute Websuchfähigkeiten und haben immer Zugang zu aktuellen Informationen.
  • Der API-Endpunkt https://api.perplexity.ai wird automatisch verwendet, wenn keine benutzerdefinierte Base URL angegeben wird.
  • Sonar Pro-Modelle liefern detailliertere Antworten mit besseren Quellzitaten.
  • Reasoning-Varianten eignen sich am besten für komplexe analytische Aufgaben, die von schrittweisem Denken profitieren.
  • Perplexity-Modelle unterstützen keine Bildanalyse.

Fehlerbehebung

Fehlende Zitate: Perplexity-Modelle fügen Zitate automatisch hinzu, wenn eine Websuche durchgeführt wird. Fehlen Zitate, hat das Modell aus seinem Basiswissen geantwortet.Langsame Antworten: Perplexity-Modelle führen Websuchen durch, was Latenz hinzufügt. Sonar (non-Pro) Varianten sind schneller als Pro-Versionen. Für zeitkritische Aufgaben ohne Suchbedarf erwäge ein anderes Modell.Modell antwortet nicht: überprüfe, ob dein API-Schlüssel gültig ist und du ausreichend Credits hast.
Verwende dies für jede API, die der OpenAI-Spezifikation folgt, einschließlich vLLM, LiteLLM, Ollama und selbst gehosteter Modelle.Viele LLM-Inference-Lösungen implementieren die OpenAI API-Spezifikation als Standard-Interface. Das bedeutet, sie akzeptieren Anfragen und geben Antworten im gleichen Format wie OpenAIs API zurück, wodurch sie aus Integrationsperspektive austauschbar sind.Gängige OpenAI-kompatible Lösungen:
  • vLLM: Hochdurchsatz-Inferenzserver für Large Language Models
  • LiteLLM: Proxy-Server mit einheitlichem Interface für 100+ LLM-Anbieter
  • Ollama: Large Language Models lokal ausführen
  • Text Generation Inference (TGI): Hugging Faces Inferenzserver
  • LocalAI: selbst gehostete, OpenAI-kompatible API
  • Benutzerdefinierte Deployments: jeder Service, der die OpenAI Chat Completions API implementiert
Voraussetzungen:
  1. Ein laufender OpenAI-kompatibler Inferenz-Endpunkt, erreichbar über HTTPS
  2. Die Base URL deines Endpunkts
  3. Die Model ID/Name, wie in deinem Inferenzserver konfiguriert
  4. Ein API-Schlüssel (falls dein Endpunkt Authentifizierung erfordert)
  5. Admin-Zugang zu deinem Langdock Workspace

Einrichtung

  1. Navigiere zu Workspace-Einstellungen -> Modelle und klicke auf Eigenes Modell hinzufügen.
  2. Fülle die Verbindungsfelder aus:
    • SDK: wähle OpenAI Compatible
    • Base URL: deine Endpunkt-URL (z.B. https://your-server.com/v1). Pflichtfeld.
    • Model ID: der genaue Modell-Identifier, wie in deinem Inferenzserver konfiguriert
    • API Key: dein Authentifizierungsschlüssel, oder leer lassen wenn nicht erforderlich
    • Context Size: die Kontextfenstergröße deines Modells in Token
  3. Klicke auf Save und teste das Modell.
Dein Endpunkt muss über HTTPS öffentlich erreichbar sein. Langdock blockiert Anfragen an private IPs, localhost und interne Hostnamen. Kontaktiere support@langdock.com, wenn du eine Verbindung zu einem internen Endpunkt herstellen musst.

Beispielkonfigurationen

ServerBase URLModel ID
vLLMhttps://your-server.com/v1Modellname beim vLLM-Start (z.B. meta-llama/Llama-3.1-70B-Instruct)
LiteLLM Proxyhttps://your-litellm.comAlias aus deiner LiteLLM-Konfiguration
Ollamahttps://your-ollama.com/v1Name aus ollama list (z.B. llama3.1)
Für Azure OpenAI verwende stattdessen das dedizierte Azure SDK. Es verwaltet API-Versionierung und deployment-basiertes URL-Routing automatisch.

Häufige Anwendungsfälle

  • Datenschutz: betreibe Modelle auf deiner eigenen Infrastruktur, damit Prompts und Antworten in deinem Netzwerk bleiben.
  • Kostenoptimierung: Open-Source-Modelle auf eigener Hardware können die Kosten bei hohem Volumen erheblich senken.
  • Benutzerdefinierte Fine-Tuned-Modelle: deploye Modelle, die für spezifische Aufgaben oder Domänen fine-tuned wurden, mit vLLM oder ähnlichen Servern.
  • Multi-Anbieter-Abstraktion: verwende LiteLLM als Proxy, um Anfragen von einem einzigen Interface aus an verschiedene Anbieter zu routen.

Fehlerbehebung

Verbindung verweigert oder Timeout: überprüfe, ob der Endpunkt von externen Servern über HTTPS erreichbar ist. Stelle sicher, dass deine Firewall eingehende Verbindungen erlaubt. Stelle sicher, dass dein Inferenzserver läuft und gesund ist.Authentifizierungsfehler: überprüfe deinen API-Schlüssel und prüfe, ob dein Endpunkt ein spezifisches Bearer-Token-Format erwartet.Modell nicht gefunden: stelle sicher, dass die Model ID exakt mit dem übereinstimmt, was dein Inferenzserver erwartet (Groß-/Kleinschreibung beachten). Überprüfe, ob das Modell geladen und auf deinem Server verfügbar ist.Antworten werden abgeschnitten: überprüfe die Max Output Tokens Einstellung in Langdock und die Generierungslängenbeschränkungen deines Inferenzservers.Langsame Antworten: überprüfe den verfügbaren GPU-Speicher und die Rechenressourcen deines Servers. Erwäge quantisierte Modellversionen für schnellere Inferenz. Überwache die Queue-Länge und Skalierungskonfiguration deines Servers.Inkompatibles API-Format: nicht alle “OpenAI-kompatiblen” Server implementieren die vollständige API-Spezifikation. Überprüfe, ob dein Server den /v1/chat/completions-Endpunkt unterstützt und ob spezifische API-Versions-Header erforderlich sind.