Documentation Index
Fetch the complete documentation index at: https://docs.langdock.com/llms.txt
Use this file to discover all available pages before exploring further.
Welche Modelle hinzufügen
KI-Modelle entwickeln sich schnell. Wir empfehlen, mindestens ein Flaggschiff-Modell von jedem großen Anbieter hinzuzufügen. So haben deine Nutzer Zugang zu den besten verfügbaren Modellen für verschiedene Aufgaben.
Wenn ein Anbieter ein neues Modell veröffentlicht, füge es neben dem bestehenden hinzu, anstatt es zu ersetzen. Nutzer können Agenten oder Workflows haben, die auf bestimmte Modelle angewiesen sind.
Wähle einen Anbieter aus, um die empfohlenen Modelltypen und ihre Konfigurationswerte zu sehen.
Modellspezifische Konfiguration
Verwende diese Werte, wenn du Modelle manuell konfigurierst. Mit einer vorgefertigten Langdock-Konfiguration werden diese automatisch angewendet.
OpenAI
Anthropic
Google
Andere
Füge diese Modelltypen hinzu:
- Neuestes Flaggschiff - Am leistungsfähigsten für komplexe Aufgaben
- Effiziente Variante (mini/nano) - Schnell und kosteneffizient für den täglichen Gebrauch
- Reasoning-Modell (o-Serie) - Für analytische und mathematische Aufgaben
Achte auf die höchste verfügbare Versionsnummer. OpenAI erhöht die Versionsnummern mit jedem größeren Release.
GPT-5.2
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| GPT-5.2 | Responses API | 400.000 | 32.000 | Reasoning: minimal, Verbosity: low |
| GPT-5.2 (Thinking) | Responses API | 400.000 | 32.000 | Reasoning: high, Verbosity: low |
| GPT-5.2 Pro | Responses API | 400.000 | 32.000 | Maximale Reasoning-Tiefe |
GPT-5.1
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| GPT-5.1 | Responses API | 400.000 | 32.000 | Reasoning: minimal, Verbosity: low |
| GPT-5.1 (Thinking) | Responses API | 400.000 | 32.000 | Reasoning: high, Verbosity: low |
| GPT-5.1 Chat | Responses API | 128.000 | 16.000 | Nur bei Azure als Global Standard Deployment in der EU oder direkt über OpenAI |
GPT-5
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| GPT-5 | Responses API | 400.000 | 32.000 | Reasoning: minimal, Verbosity: low |
| GPT-5 (Thinking) | Responses API | 400.000 | 32.000 | Reasoning: high, Verbosity: low |
| GPT-5 Chat | Responses API | 128.000 | 16.000 | — |
| GPT-5 mini | Responses API | 400.000 | 16.000 | — |
| GPT-5 nano | Responses API | 400.000 | 16.000 | — |
GPT-4.1
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| GPT-4.1 | Completion API | 1.047.576 | 32.000 | Gut für Datenanalyse (CSV/Excel) |
| GPT-4.1 mini | Completion API | 1.047.576 | 32.000 | — |
| GPT-4.1 nano | Completion API | 1.047.576 | 32.000 | — |
GPT-4o
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| GPT-4o | Completion API | 128.000 | 16.000 | — |
| GPT-4o Mini | Completion API | 128.000 | 16.000 | — |
Reasoning-Modelle (o-Serie)
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| o3 | Responses API | 200.000 | 32.000 | — |
| o3 Mini | Completion API | 200.000 | 32.000 | Model-ID: o3-mini |
| o3 Mini high | Completion API | 200.000 | 32.000 | Model-ID: o3-mini, Effort: high |
| o4 Mini | Responses API | 200.000 | 32.000 | — |
| o4 Mini high | Responses API | 200.000 | 32.000 | Model-ID: o4-mini, Effort: high |
| o1 | Completion API | 200.000 | 32.000 | — |
Füge diese Modelltypen hinzu:
- Sonnet - Ausgewogen für die meisten Aufgaben, exzellent bei Coding und Schreiben
- Sonnet Reasoning - Erweiterte Version für komplexe logische Aufgaben
- Opus (falls verfügbar) - Am leistungsfähigsten für anspruchsvolle Aufgaben
Anthropic verwendet Tier-Namen (Opus > Sonnet > Haiku) statt Versionsnummern. Opus ist am leistungsfähigsten, Haiku am schnellsten.
Claude Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| Claude Opus 4.6 | Completion API | 200.000 | 32.000 | — |
| Claude Opus 4.6 Reasoning | Completion API | 200.000 | 32.000 | Display Thinking aktivieren |
| Claude Opus 4.5 | Completion API | 200.000 | 32.000 | — |
| Claude Opus 4.5 Reasoning | Completion API | 200.000 | 32.000 | Display Thinking aktivieren |
| Claude Sonnet 4.6 | Completion API | 200.000 | 32.000 | — |
| Claude Sonnet 4.6 Reasoning | Completion API | 200.000 | 32.000 | Display Thinking aktivieren |
| Claude Sonnet 4.5 | Completion API | 200.000 | 32.000 | — |
| Claude Sonnet 4.5 Reasoning | Completion API | 200.000 | 32.000 | Display Thinking aktivieren |
| Claude Sonnet 4 | Completion API | 200.000 | 32.000 | — |
| Claude Sonnet 4 Reasoning | Completion API | 200.000 | 32.000 | Display Thinking aktivieren |
| Claude Sonnet 3.7 | Completion API | 200.000 | 8.192 | — |
| Claude Sonnet 3.7 Reasoning | Completion API | 200.000 | 8.192 | Display Thinking aktivieren |
| Claude Haiku 4.5 | Completion API | 200.000 | 16.000 | — |
Füge diese Modelltypen hinzu:
- Gemini Pro - Flaggschiff mit fortschrittlichen multimodalen Fähigkeiten
- Gemini Flash - Schnell und effizient für Echtzeit-Anwendungen
Google verwendet “Pro” für ihr Flaggschiff und “Flash” für schnelle Varianten. Höhere Versionsnummern bedeuten neuere Releases.
Gemini Modelle
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| Gemini 2.5 Pro | Completion API | 1.000.000 | 32.000 | Reasoning/Thinking |
| Gemini 2.5 Flash | Completion API | 1.000.000 | 32.000 | Reasoning/Thinking |
| Gemini 3 Pro | Completion API | 1.000.000 | 32.000 | — |
| Gemini 3 Flash | Completion API | 200.000 | 32.000 | — |
| Modell | API-Typ | Kontextgröße | Max. Output-Token | Spezielle Konfiguration |
|---|
| Mistral Large 2411 | Completion API | 128.000 | — | Keine Bildanalyse |
| Codestral | Completion API | 32.000 | — | Code-Generierung |
| Llama 4 Maverick | Completion API | 1.000.000 | — | — |
| Llama 3.3 70B | Completion API | 128.000 | — | Keine Bildanalyse |
| DeepSeek R1 | Completion API | 128.000 | — | Nur US-Region, kein Tool-Support |
| DeepSeek v3 | Completion API | 128.000 | — | — |
| Amazon Nova Lite | Completion API | 300.000 | — | Nur US-Region |
| Amazon Nova Pro | Completion API | 300.000 | 5.000 | Nur US-Region |
Für die aktuellsten Modellinformationen schau in die Modellauswahl in app.langdock.com. Modellnamen folgen konsistenten Mustern. Schau in den Modell-Guide für mehr Informationen.