Auswahl eines Modells
- Wenn du einen neuen Chat startest, kannst du oben links das gewünschte Modell auswählen, mit dem du arbeiten möchtest.
- Du kannst das Modell oben links auch noch ändern, wenn du einen Chat bereits begonnen hast. So kannst du beispielsweise mit GPT-4.1 beginnen und nach drei Nachrichten zu Claude Sonnet 4 wechseln.
- Du kannst auch dein persönliches Standardmodell in den Kontoeinstellungen festlegen hier. Der Standard für neue Nutzer ist GPT-4.1.
Auswahl des richtigen Modells
Im Anschluss findest du eine Übersicht darüber, welche Modelle sich besonders gut für welche Anwendungsfälle eignen, denen du begegnen könntest. Weiter unten skizzieren wir auch unsere persönlichen Empfehlungen basierend auf dem aktuellen Nutzerfeedback.Modell | Anbieter | Stärken | Token-Limits (Kontextfenster und Ausgabelimit) | Hinweise |
---|---|---|---|---|
GPT-5 | OpenAI | Modernste Denkfähigkeiten, fortschrittliche multimodale Fähigkeiten, höchste Genauigkeit bei komplexen Aufgaben | Input: 272,000 Output: 16,000 | GPT-5 ist OpenAIs neuestes Flaggschiff-Modell mit erweiterten Kontextfähigkeiten, Bildverständnis und Flexibilität bei Antwortschemas, geeignet für Unternehmensanwendungen. |
GPT-5 mini | OpenAI | Schnellere, kosteneffiziente Version von GPT-5 mit nahezu Flaggschiff-Denkfähigkeiten, ideal für alltägliche professionelle Aufgaben | Input: 272,000 Output: 16,000 | GPT-5 mini balanciert Performance und Geschwindigkeit und bietet die meisten GPT-5-Fähigkeiten zu einem niedrigeren Preis – perfekt für routinemäßige Inhaltserstellung und Analyse. |
GPT-5 nano | OpenAI | Leichte Variante, die Geschwindigkeit und Durchsatz priorisiert, während sie solide Denkfähigkeiten für häufige Anwendungsfälle beibehält | Input: 272,000 Output: 16,000 | GPT-5 nano liefert zuverlässige Antworten zu den niedrigsten Kosten in der GPT-5-Familie und eignet sich für Hochvolumen- oder latenzkritische Anwendungen. |
GPT-5 Chat | OpenAI | Konversationell feinabgestimmtes GPT-5-Modell, optimiert für Dialoge, Kundensupport und interaktive Assistenten | Input: 272,000 Output: 16,000 | GPT-5 Chat ist auf Chat-Szenarien zugeschnitten und betont Dialog-Kohärenz und Persona-Konsistenz bei vollem Zugriff auf die Denkstärke von GPT-5. |
o3 | OpenAI | Fortgeschrittenes technisches Schreiben & Befolgen von Anweisungen, herausragende Mathematik-, Wissenschafts- und Programmierfähigkeiten, überzeugt bei mehrstufigem Denken über Text und Code. | Input: 200,000 Output: 100,000 | o3 ist ein ausgewogenes und leistungsfähiges Modell, das in verschiedenen Bereichen stark abschneidet. Es setzt neue Standards für Mathematik, Wissenschaft, Programmierung und visuelles Denken und überzeugt auch beim technischen Schreiben und bei der Befolgung von Anweisungen. |
Claude Sonnet 4 | Anthropic | Überzeugt bei komplexer Programmierung, kreativem Schreiben, Bildanalyse und Übersetzung, mit einem Dual-Mode-System für sowohl schnelle Antworten als auch tiefgehendes Denken | Input: 200,000 Output: 64,000 | Anthropics Spitzenmodell, Claude Sonnet 4, verbessert Claude 3.7 mit einem größeren Kontextfenster, reibungsloser Modusumschaltung, besserer Programmierung und tieferem Denken. Behält starke Sicherheit und Ausrichtung bei. |
Gemini 2.5 Flash | Überzeugt bei schneller Echtzeit-Inhaltserstellung und robuster Bildanalyse, verarbeitet lange Dokumente und Datensätze mit Leichtigkeit. | Input: 1,048,576 Output: 65,535 | Googles schnellstes Gemini Flash-Modell mit großem Kontextfenster und doppelter Ausgabelänge. Überzeugt bei Aufgaben mit langen Dokumenten und multimodaler Analyse und liefert Ergebnisse fast doppelt so schnell wie sein Vorgänger. | |
Gemini 2.5 Pro | Überzeugt bei schneller Echtzeit-Inhalts- und Bildanalyse mit ultra-langem Kontext für die Verarbeitung großer Dokumente. | Input: 1,048,576 Output: 65,535 | Googles Flaggschiff-Modell Gemini 2.5 Pro bietet Unterstützung für große Kontexte und überzeugt bei komplexen Aufgaben und Code. Es priorisiert nuanciertes Denken und Tiefe gegenüber Geschwindigkeit und übertrifft frühere Gemini-Modelle in Genauigkeit und Analyse. | |
Mistral Large 2411 | Mistral | Softwareentwicklung & Programmierung, Mehrsprachige Fähigkeiten | Input: 131,000 Output: 4,096 | Mistrals Spitzenmodell mit hervorragenden Denkfähigkeiten. Starke Leistung bei anspruchsvollen Gesprächen und komplexer Problemlösung. Verfeinerter als frühere Versionen mit besserer Befolgung von Anweisungen. |
Unsere Empfehlungen
Unsere Empfehlung für alltägliche Aufgaben: GPT-5 (OpenAI)
GPT-5 von OpenAI ist unsere Top-Empfehlung für ein vielseitiges Standardmodell, das sich durch seine außergewöhnlichen multimodalen Fähigkeiten bei einer Vielzahl von Aufgaben auszeichnet. Dieses Flaggschiff-Modell ist ideal für Nutzer, die einen leistungsstarken Allrounder benötigen, der hervorragende Leistungen bei der Erstellung von Inhalten, kreativem Schreiben, Bildanalyse und mehrsprachiger Unterstützung bietet. GPT-5 zeichnet sich durch seine modernsten Denkfähigkeiten aus und verfügt gleichzeitig über ausgeprägte kreative Schreibfähigkeiten.Ein Hybridmodell für Programmierung und Schreiben: Claude Sonnet 4 (Anthropic)
Claude Sonnet 4 von Anthropic ist unsere Top-Empfehlung für die Programmierung oder Textgenerierung. Viele unserer Nutzer bevorzugen Claude gegenüber GPT-4.1 für das Schreiben von Software-Code, E-Mails, Texten, Übersetzungen usw. Dieses Hybridmodell ist ideal, wenn du sowohl schnelle Antworten als auch tiefgehende Analysen benötigst, da es einen Standardmodus für effiziente Antworten und einen erweiterten Denkmodus für komplexe Aufgaben bietet. Claude Sonnet 4 bietet hervorragende Fähigkeiten zur Befolgung von Anweisungen, minimale Halluzinationen und verbesserte Programmierfähigkeiten. Wir empfehlen es aufgrund seiner konstant hohen Nutzerzufriedenheit bei Sprach- und Softwareentwicklungsaufgaben.Das spezialisierte Modell für komplexes Denken: GPT-5 Thinking (OpenAI)
GPT-5 Thinking von OpenAI ist unsere Top-Empfehlung für komplexe analytische Aufgaben, die maximale Präzision erfordern. Diese spezialisierte Variante zeichnet sich bei mathematischen, wissenschaftlichen und Programmierherausforderungen durch ihre fortschrittliche Denk-Architektur aus, die komplexe Probleme mit außergewöhnlicher Klarheit aufschlüsselt. Der entscheidende technische Vorteil liegt in den erweiterten Denkfähigkeiten kombiniert mit GPT-5s modernster Intelligenz, die umfassende Analysen ohne Verlust der Kohärenz ermöglicht. Während dieses tiefere Denken eine moderate Latenz hinzufügt, machen die Genauigkeitsgewinne es ideal für professionelle und Unternehmensanwendungen, die die höchste Qualität der Ausgaben erfordern.Ältere Modelle
Die folgenden Modelle sind weiterhin verfügbar und können verwendet werden. Unsere Empfehlung ist jedoch, die neueren Versionen zu nutzen.Hintergrund: Die älteren Modellversionen haben im Vergleich zu ihren neueren Pendants Einschränkungen in Leistung und Genauigkeit. Die neueren Versionen beinhalten signifikante Verbesserungen in der Antwortqualität, Geschwindigkeit und Sicherheitsfunktionen, die wir basierend auf Nutzerfeedback und technischen Fortschritten entwickelt haben.Du kannst die älteren Versionen weiterhin verwenden, wenn dies aus Kompatibilitätsgründen erforderlich ist, aber wir empfehlen, wenn möglich, auf die neueren Versionen umzusteigen, um die beste Erfahrung zu erhalten.
Modell | Anbieter | Stärken | Token-Limits (Kontextfenster und Ausgabelimit) | Hinweise |
---|---|---|---|---|
GPT-4.1 | OpenAI | Inhaltserstellung & Kreatives Schreiben, Starke analytische Fähigkeiten, hohe Kompetenz in logischem Denken und Problemlösung | Input: 1,047,576 Output: 32,768 | OpenAIs verfeinertes Flaggschiff vor GPT-5, verfügt über ein großes Kontextfenster, verbesserte Genauigkeit und multimodale Fähigkeiten. Immer noch hervorragend für kreative, analytische und logische Aufgaben. |
GPT-4.1 mini | OpenAI | Kleinere, schnellere Version von GPT-4.1. Hervorragend für alltägliche Aufgaben mit deutlich schnelleren Antworten. | Input: 1,047,576 Output: 32,768 | GPT-4.1 mini ist eine optimierte Variante des GPT-4.1-Modells von OpenAI, die schnelle, effiziente Antworten liefert und gleichzeitig ein robustes Sprachverständnis beibehält. |
GPT-4.1 nano | OpenAI | Schnelle und effiziente Inhaltserstellung, schnelle interaktive Antworten und solide Leistung bei alltäglichen Aufgaben | Input: 1,047,576 Output: 32,768 | ChatGPT 4.1 nano ist eine leichte und schnelle Variante, ideal für Echtzeit-Assistenten und Anwendungen mit hohem Volumen. Optimiert für Geschwindigkeit und geringeren Ressourcenverbrauch. |
o4 mini | OpenAI | Überzeugt bei visuellen Aufgaben, optimiert für schnelles, effektives Denken. | Input: 200,000 Output: 100,000 | OpenAIs kleines o-Serie-Modell, o4-mini, überzeugt bei schnellem, effektivem Denken und liefert hocheffiziente Programmier- und visuelle Leistung. |
GPT-4o | OpenAI | Inhaltserstellung & Kreatives Schreiben, Datenanalyse (Excel & CSV-Dateien), Bildanalyse, Übersetzung und mehrsprachige Unterstützung | Input: 128,000 Output: 16,384 | OpenAIs vorheriges Flaggschiff-Modell mit guten multimodalen Fähigkeiten. Ausgewogene Leistung und Geschwindigkeit mit kreativen Schreib- und Denkfähigkeiten. |
GPT-4o Mini | OpenAI | Geschwindigkeit und Effizienz, Bildanalyse | Input: 128,000 Output: 16,384 | Schneller und kosteneffizienter als GPT-4o, aber mit reduzierten Fähigkeiten für komplexe Aufgaben. Ideal für schnelle Antworten und leichtgewichtige Anwendungen, bei denen Geschwindigkeit wichtiger ist als Tiefe. |
o1 | OpenAI | Überzeugt bei Echtzeit-Denken, Planung, Inhaltserstellung, Programmierung und Kohärenz in längeren Gesprächen. | Input: 200,000 Output: 100,000 | ChatGPT o1, ein optimiertes OpenAI-Modell, das GPT-4 und zukünftige GPT-Versionen verbindet, bietet gutes Dialogmanagement. Es balanciert Effizienz und fortschrittliches Denken. |
o3 Mini High | OpenAI | Verbesserte Genauigkeit und Antworttiefe bei gleichzeitiger Nutzung einer optimierten, effizienten Architektur | Input: 200,000 Output: 100,000 | Verbessertes o3 Mini für tiefere, leistungsstärkere Ausgaben. Bewältigt längere, detailliertere Aufgaben und bleibt dabei effizient. |
LLaMA 3.3 70B | Meta | Geschwindigkeit und Effizienz, Mehrsprachige Fähigkeiten | Input: 128,000 Output: 2,048 | Metas Open-Source-Modell mit wettbewerbsfähiger Leistung gegenüber proprietären Alternativen. Signifikante Verbesserung gegenüber früheren Llama-Modellen mit besserem Denken und Befolgung von Anweisungen. |
DeepSeek R1 32B | DeepSeek | Softwareentwicklung & Programmierung, Halluzinationsresistenz | Input: 128,000 Output: 8,000 | Als erstes wettbewerbsfähiges Modell aus China ist Deep Seek R1 besonders beeindruckend, wenn man bedenkt, dass es mit deutlich weniger Ressourcen als Wettbewerber wie OpenAI entwickelt wurde. Optimiert für Denkqualität statt Geschwindigkeit, zeigt es außergewöhnliche Leistung bei Benchmarks wie Mathematik- und Programmierherausforderungen. |
Claude 3.7 Sonnet | Anthropic | Softwareentwicklung & Programmierung, Inhaltserstellung & Kreatives Schreiben, Bildanalyse, Übersetzung und mehrsprachige Unterstützung | Input: 200,000 Output: 8,192 | Anthropics vorheriges Flaggschiff-Modell mit einzigartiger Dual-Mode-Fähigkeit. Bietet Standardmodus für schnelle Antworten und erweiterten Denkmodus für komplexe Denkaufgaben. Deutlich verbesserte Programmierfähigkeiten gegenüber früheren Claude-Modellen. |
Gemini 2.0 Flash | Langkontext-Analyse & Dokumentenverarbeitung, Bildanalyse, Geschwindigkeit und Effizienz | Input: 1,048,576 Output: 8,192 | Googles vorheriges Flaggschiff-Hochgeschwindigkeitsmodell mit großem Kontextfenster. Übertrifft das vorherige Gemini 1.5 Pro-Modell bei wichtigen Benchmarks und ist dabei doppelt so schnell. | |
Gemini 1.5 Pro | Langkontext-Analyse & Dokumentenverarbeitung, Bildanalyse | Input: 2,097,152 Output: 8,192 | Googles älteres Modell mit 2M Token-Kontextfenster. Starke multimodale Fähigkeiten und gut für Langkontext-Anwendungen. |