Documentation Index
Fetch the complete documentation index at: https://docs.langdock.com/llms.txt
Use this file to discover all available pages before exploring further.
Ein Modell auswählen
- Wenn du einen neuen Chat startest, wähle oben links das gewünschte Modell aus
- Du kannst das Modell jederzeit während eines Chats wechseln. Starte zum Beispiel mit einem schnellen Modell für Brainstorming und wechsle dann zu einem leistungsfähigeren für das endgültige Ergebnis
- Lege dein persönliches Standardmodell in den Kontoeinstellungen fest
Auto-Modus
Der Auto-Modus ist die intelligente Modell-Routing-Option von Langdock. Anstatt für jedes Gespräch ein Modell manuell auszuwählen, analysiert Auto deine erste Nachricht, um die Anfrage zu verstehen und ihre Komplexität einzuschätzen, und wählt dann ein passendes Modell für das Gespräch aus.
Modell-Namenskonventionen verstehen
KI-Anbieter folgen konsistenten Namensmustern, die dir helfen, die Fähigkeiten eines Modells schnell zu erkennen. Wenn du diese Muster verstehst, kannst du das richtige Modell wählen, ohne dir bestimmte Versionen merken zu müssen.Versionsnummern = Leistungsniveau
Höhere Versionsnummern bedeuten in der Regel neuere, leistungsfähigere Modelle. Wenn ein Anbieter eine neue Generation veröffentlicht, erhöht er die Hauptversionsnummer.| Muster | Bedeutung |
|---|---|
| GPT-5 vs GPT-4 | GPT-5 ist die neuere Generation |
| Claude 4 vs Claude 3 | Claude 4 ist die neuere Generation |
| Gemini 2.5 vs Gemini 2.0 | Gemini 2.5 ist neuer innerhalb der gleichen Generation |
Größenindikatoren = Geschwindigkeit vs. Intelligenz
Anbieter bieten mehrere Größen innerhalb jeder Modellfamilie an. Modelle ohne Größenindikator sind am intelligentesten, aber möglicherweise langsamer. Modelle mit Größenindikatoren tauschen etwas Leistung gegen Geschwindigkeit und Kosteneffizienz.| Indikator | Intelligenz | Geschwindigkeit | Am besten für |
|---|---|---|---|
| Kein Indikator (z.B. “GPT-5”, “Claude Sonnet”) | Höchste | Moderat | Komplexe Aufgaben, wichtige Ergebnisse |
| mini / nano | Mittel-Hoch | Schnell | Alltägliche Aufgaben, schnelle Iterationen |
| flash / fast | Mittel | Sehr schnell | Echtzeit-Anwendungen, hohes Volumen |
| haiku (Anthropic) | Gut | Sehr schnell | Einfache Aufgaben, kostensensitive Anwendungen |
Pro-Tipp: Starte mit einem schnelleren Modell für Entwürfe und Erkundung, wechsle dann zum vollständigen Modell für dein finales Ergebnis. Das spart Zeit und liefert trotzdem hochwertige Resultate, wenn es darauf ankommt.
Thinking
„Reasoning”- und „Thinking”-Funktionen sind über einen Schalter direkt in der Modellauswahl verfügbar. Wenn aktiviert, denkt das Modell Probleme Schritt für Schritt durch, bevor es antwortet, und liefert genauere Ergebnisse bei komplexen Aufgaben, allerdings auf Kosten einer längeren Antwortzeit.
- Komplexe mehrstufige Probleme
- Mathematische und wissenschaftliche Analysen
- Logische Schlussfolgerungen und Planung
- Code-Architekturentscheidungen
Einige Modelle sind standardmäßig Thinking-Modelle (wie GPT-5.1 Thinking Fast oder OpenAIs o-series). Thinking ist bei ihnen immer aktiv, ohne separaten Schalter.
Anbieter-Stufen
Jeder Anbieter organisiert seine Modelle in Stufen:- OpenAI
- Anthropic
- Google
- Andere
| Stufe | Beispiele | Anwendungsfall |
|---|---|---|
| Flagship | GPT-5, GPT-5.x | Am leistungsfähigsten, für komplexe Aufgaben |
| Reasoning | o-Serie (o3, o4) | Tiefe analytische Aufgaben |
| Effizient | mini, nano Varianten | Schnell, kosteneffektiv |
Das richtige Modell wählen
Nach Aufgabentyp
| Aufgabe | Empfohlener Modelltyp | Warum |
|---|---|---|
| Schnelle Fragen, Brainstorming | Fast/mini Varianten | Geschwindigkeit wichtig, ausreichende Qualität |
| E-Mails, Dokumente schreiben | Standard Flagship | Gute Balance aus Qualität und Geschwindigkeit |
| Komplexe Analyse, Recherche | Flagship mit Thinking | Höchste Genauigkeit erforderlich |
| Programmierung und Debugging | Anthropic Sonnet | Stark bei strukturierten Aufgaben |
| Kreatives Schreiben | Anthropic Modelle | Bekannt für natürlichen, authentischen Ton |
| Lange Dokumente | Google Gemini | Exzellente Verarbeitung langer Kontexte |
| Mathematik und Wissenschaft | Beliebiges Modell mit aktiviertem Thinking | Schrittweise Problemlösung |
Schnelle Entscheidungshilfe
Unsere Empfehlungen
Auto-Modus wählen
Nicht sicher, welches Modell du nehmen sollst? Wähle Auto in der Modellauswahl. Langdock analysiert die Komplexität deiner ersten Nachricht und leitet sie an das richtige Modell weiter. Schnell und effizient für alltägliche Aufgaben, leistungsstärker wenn die Anfrage es erfordert.Für alltägliche Aufgaben
Verwende das aktuelle Flagship-Modell von OpenAI oder Anthropic. Diese bieten die beste Balance aus Leistung und Geschwindigkeit für den allgemeinen Gebrauch. Achte auf Modelle ohne Größenindikatoren (kein “mini”, “fast”, etc.).Für Programmierung und Schreiben
Anthropics Sonnet-Modelle werden durchweg für natürlich klingenden Text und starke Programmierfähigkeiten gelobt. Sie haben einen authentischen Ton, der gut für professionelle Kommunikation funktioniert.Für komplexes Reasoning
Aktiviere Thinking bei einem Flagship-Modell, wenn du maximale Genauigkeit bei analytischen Aufgaben brauchst. Das dauert länger, reduziert aber Fehler bei komplexen Problemen deutlich.Für zeitkritische Aufgaben
Flash-, mini- oder nano-Varianten liefern gute Ergebnisse viel schneller. Perfekt für Echtzeit-Anwendungen, Ideen-Iteration oder hohe Volumina.Deine Modellwahl beeinflusst auch, wie schnell du deine Nutzungs-Limits erreichst. Leistungsstärkere Modelle verbrauchen pro Interaktion mehr. Details findest du unter Nutzungs-Limits.
Bildgenerierungs-Modelle
Auch Bildmodelle folgen Namensmustern:| Anbieter | Modelle | Stärken |
|---|---|---|
| Black Forest Labs | Flux-Serie | State-of-the-Art Qualität, schnelle Generierung |
| Imagen-Serie | Diverse Kunststile, Fotorealismus | |
| OpenAI | DALL-E, GPT Image | Text-zu-Bild, integriert mit Chat |
Aktuell bleiben
KI-Modelle entwickeln sich schnell. Um aktuell zu bleiben:- Prüfe die Modellauswahl - Langdock zeigt immer die neuesten verfügbaren Modelle
- Achte auf Versionsnummern - Höhere Nummern = neuere Fähigkeiten
- Probiere neue Modelle - Wenn eine neue Version erscheint, teste sie mit deinen typischen Aufgaben
- Lies Release Notes - Anbieter kündigen größere Verbesserungen mit neuen Releases an
Langdock fügt kontinuierlich neue Modelle hinzu, sobald sie verfügbar sind. Die Modellauswahl in deinem Chat spiegelt immer die aktuellen Optionen wider.