Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.langdock.com/llms.txt

Use this file to discover all available pages before exploring further.

Ein Modell auswählen

  • Wenn du einen neuen Chat startest, wähle oben links das gewünschte Modell aus
  • Du kannst das Modell jederzeit während eines Chats wechseln. Starte zum Beispiel mit einem schnellen Modell für Brainstorming und wechsle dann zu einem leistungsfähigeren für das endgültige Ergebnis
  • Lege dein persönliches Standardmodell in den Kontoeinstellungen fest

Auto-Modus

Der Auto-Modus ist die intelligente Modell-Routing-Option von Langdock. Anstatt für jedes Gespräch ein Modell manuell auszuwählen, analysiert Auto deine erste Nachricht, um die Anfrage zu verstehen und ihre Komplexität einzuschätzen, und wählt dann ein passendes Modell für das Gespräch aus. Auto-Modus Modellkarte in der Modellauswahl Der Auto-Modus ist für die tägliche Arbeit gedacht: schnelle Fragen, Texte verfassen, Zusammenfassungen, Umformulierungen und Analysen. Er soll die manuelle Modellauswahl nicht vollständig ersetzen. Für Aufgaben, die maximale Reasoning-Tiefe oder Qualität erfordern, kannst du jederzeit zu einem bestimmten Modell wie Opus wechseln. Auto leitet derzeit zwischen GPT-5.2 und Sonnet 4.6 weiter. Sobald ein Modell ausgewählt wurde, bleibt es für den Rest des Gesprächs festgelegt. Ein Modellwechsel mitten im Gespräch würde erfordern, den gesamten Gesprächsverlauf erneut an das neue Modell zu senden, was deinen Token-Verbrauch erhöhen würde. Indem Auto die Modellwahl automatisch übernimmt, hilft es Teams, schneller zu arbeiten und zu vermeiden, dass Nutzungs-Limits für leistungsstarke Modelle bei Aufgaben verbraucht werden, die das nicht erfordern.

Modell-Namenskonventionen verstehen

KI-Anbieter folgen konsistenten Namensmustern, die dir helfen, die Fähigkeiten eines Modells schnell zu erkennen. Wenn du diese Muster verstehst, kannst du das richtige Modell wählen, ohne dir bestimmte Versionen merken zu müssen.

Versionsnummern = Leistungsniveau

Höhere Versionsnummern bedeuten in der Regel neuere, leistungsfähigere Modelle. Wenn ein Anbieter eine neue Generation veröffentlicht, erhöht er die Hauptversionsnummer.
MusterBedeutung
GPT-5 vs GPT-4GPT-5 ist die neuere Generation
Claude 4 vs Claude 3Claude 4 ist die neuere Generation
Gemini 2.5 vs Gemini 2.0Gemini 2.5 ist neuer innerhalb der gleichen Generation
Im Zweifelsfall wähle das Modell mit der höheren Versionsnummer. Es hat typischerweise bessere Reasoning-Fähigkeiten, weniger Fehler und mehr Features.

Größenindikatoren = Geschwindigkeit vs. Intelligenz

Anbieter bieten mehrere Größen innerhalb jeder Modellfamilie an. Modelle ohne Größenindikator sind am intelligentesten, aber möglicherweise langsamer. Modelle mit Größenindikatoren tauschen etwas Leistung gegen Geschwindigkeit und Kosteneffizienz.
IndikatorIntelligenzGeschwindigkeitAm besten für
Kein Indikator (z.B. “GPT-5”, “Claude Sonnet”)HöchsteModeratKomplexe Aufgaben, wichtige Ergebnisse
mini / nanoMittel-HochSchnellAlltägliche Aufgaben, schnelle Iterationen
flash / fastMittelSehr schnellEchtzeit-Anwendungen, hohes Volumen
haiku (Anthropic)GutSehr schnellEinfache Aufgaben, kostensensitive Anwendungen
Pro-Tipp: Starte mit einem schnelleren Modell für Entwürfe und Erkundung, wechsle dann zum vollständigen Modell für dein finales Ergebnis. Das spart Zeit und liefert trotzdem hochwertige Resultate, wenn es darauf ankommt.

Thinking

„Reasoning”- und „Thinking”-Funktionen sind über einen Schalter direkt in der Modellauswahl verfügbar. Wenn aktiviert, denkt das Modell Probleme Schritt für Schritt durch, bevor es antwortet, und liefert genauere Ergebnisse bei komplexen Aufgaben, allerdings auf Kosten einer längeren Antwortzeit. Thinking aktivieren Schalter in der Modellauswahl Thinking eignet sich besonders für:
  • Komplexe mehrstufige Probleme
  • Mathematische und wissenschaftliche Analysen
  • Logische Schlussfolgerungen und Planung
  • Code-Architekturentscheidungen
Einige Modelle sind standardmäßig Thinking-Modelle (wie GPT-5.1 Thinking Fast oder OpenAIs o-series). Thinking ist bei ihnen immer aktiv, ohne separaten Schalter.

Anbieter-Stufen

Jeder Anbieter organisiert seine Modelle in Stufen:
StufeBeispieleAnwendungsfall
FlagshipGPT-5, GPT-5.xAm leistungsfähigsten, für komplexe Aufgaben
Reasoningo-Serie (o3, o4)Tiefe analytische Aufgaben
Effizientmini, nano VariantenSchnell, kosteneffektiv

Das richtige Modell wählen

Nach Aufgabentyp

AufgabeEmpfohlener ModelltypWarum
Schnelle Fragen, BrainstormingFast/mini VariantenGeschwindigkeit wichtig, ausreichende Qualität
E-Mails, Dokumente schreibenStandard FlagshipGute Balance aus Qualität und Geschwindigkeit
Komplexe Analyse, RechercheFlagship mit ThinkingHöchste Genauigkeit erforderlich
Programmierung und DebuggingAnthropic SonnetStark bei strukturierten Aufgaben
Kreatives SchreibenAnthropic ModelleBekannt für natürlichen, authentischen Ton
Lange DokumenteGoogle GeminiExzellente Verarbeitung langer Kontexte
Mathematik und WissenschaftBeliebiges Modell mit aktiviertem ThinkingSchrittweise Problemlösung

Schnelle Entscheidungshilfe

Nicht sicher, wo du anfangen sollst?
└─ Verwende Auto → Langdock wählt das richtige Modell für dich

Weißt du, was du brauchst?
├─ Einfache, schnelle Aufgabe → Verwende ein fast/mini/flash Modell
└─ Komplexe Aufgabe
    ├─ Tiefes Reasoning erforderlich → Verwende ein Flagship-Modell mit aktiviertem Thinking
    └─ Sonst → Verwende das Standard-Flagship Modell

Unsere Empfehlungen

Auto-Modus wählen

Nicht sicher, welches Modell du nehmen sollst? Wähle Auto in der Modellauswahl. Langdock analysiert die Komplexität deiner ersten Nachricht und leitet sie an das richtige Modell weiter. Schnell und effizient für alltägliche Aufgaben, leistungsstärker wenn die Anfrage es erfordert.

Für alltägliche Aufgaben

Verwende das aktuelle Flagship-Modell von OpenAI oder Anthropic. Diese bieten die beste Balance aus Leistung und Geschwindigkeit für den allgemeinen Gebrauch. Achte auf Modelle ohne Größenindikatoren (kein “mini”, “fast”, etc.).

Für Programmierung und Schreiben

Anthropics Sonnet-Modelle werden durchweg für natürlich klingenden Text und starke Programmierfähigkeiten gelobt. Sie haben einen authentischen Ton, der gut für professionelle Kommunikation funktioniert.

Für komplexes Reasoning

Aktiviere Thinking bei einem Flagship-Modell, wenn du maximale Genauigkeit bei analytischen Aufgaben brauchst. Das dauert länger, reduziert aber Fehler bei komplexen Problemen deutlich.

Für zeitkritische Aufgaben

Flash-, mini- oder nano-Varianten liefern gute Ergebnisse viel schneller. Perfekt für Echtzeit-Anwendungen, Ideen-Iteration oder hohe Volumina.
Deine Modellwahl beeinflusst auch, wie schnell du deine Nutzungs-Limits erreichst. Leistungsstärkere Modelle verbrauchen pro Interaktion mehr. Details findest du unter Nutzungs-Limits.

Bildgenerierungs-Modelle

Auch Bildmodelle folgen Namensmustern:
AnbieterModelleStärken
Black Forest LabsFlux-SerieState-of-the-Art Qualität, schnelle Generierung
GoogleImagen-SerieDiverse Kunststile, Fotorealismus
OpenAIDALL-E, GPT ImageText-zu-Bild, integriert mit Chat
Bei der Bildgenerierung priorisieren “Fast”-Varianten Geschwindigkeit, während Standardversionen Qualität priorisieren. Wähle basierend darauf, ob du schnelle Iterationen oder finale Qualität brauchst.

Aktuell bleiben

KI-Modelle entwickeln sich schnell. Um aktuell zu bleiben:
  1. Prüfe die Modellauswahl - Langdock zeigt immer die neuesten verfügbaren Modelle
  2. Achte auf Versionsnummern - Höhere Nummern = neuere Fähigkeiten
  3. Probiere neue Modelle - Wenn eine neue Version erscheint, teste sie mit deinen typischen Aufgaben
  4. Lies Release Notes - Anbieter kündigen größere Verbesserungen mit neuen Releases an
Langdock fügt kontinuierlich neue Modelle hinzu, sobald sie verfügbar sind. Die Modellauswahl in deinem Chat spiegelt immer die aktuellen Optionen wider.