Skip to main content

Sélectionner un modèle

  • Quand tu commences un nouveau chat, tu peux utiliser le modèle avec lequel tu veux travailler en haut à gauche.
  • Tu peux toujours changer le modèle en haut à gauche si tu as déjà commencé un chat. Par exemple, tu peux commencer avec GPT-4.1 et, après trois messages, passer à Claude Sonnet 4.
  • Tu peux aussi définir ton modèle par défaut personnel dans les paramètres du compte ici. Le modèle par défaut pour les nouveaux utilisateurs est GPT-4.1.

Sélectionner le bon modèle

Tu trouveras ci-dessous un aperçu des modèles qui excellent dans certains cas d’utilisation que tu pourrais rencontrer. Ci-dessous, on présente aussi nos recommandations personnelles basées sur les retours actuels des utilisateurs.
ModèleFournisseurPoints fortsLimites de tokens (Context Window et Output Limit)Notes
GPT-5OpenAIRaisonnement de pointe, capacités multimodales avancées, réponses de la plus haute fidélité pour les tâches complexesInput : 272 000
Output : 16 000
GPT-5 est le dernier modèle phare d’OpenAI, avec un contexte étendu, une compréhension des images et une flexibilité de schéma de réponse adaptée aux charges de travail de niveau entreprise.
GPT-5 miniOpenAIVersion plus rapide et économique de GPT-5 avec un raisonnement presque phare, idéale pour les tâches professionnelles quotidiennesInput : 272 000
Output : 16 000
GPT-5 mini équilibre performance et vitesse, offrant la plupart des capacités de GPT-5 à un prix inférieur - parfait pour la création de contenu et l’analyse de routine.
GPT-5 nanoOpenAIVariante légère privilégiant la vitesse et le débit tout en conservant un raisonnement solide pour les cas d’utilisation courantsInput : 272 000
Output : 16 000
GPT-5 nano fournit des réponses fiables au coût le plus bas de la famille GPT-5, le rendant adapté aux applications à volume élevé ou critiques en latence.
GPT-5 ChatOpenAIModèle GPT-5 affiné pour la conversation, optimisé pour le dialogue, le support client et les assistants interactifsInput : 272 000
Output : 16 000
GPT-5 Chat est conçu pour les scénarios de chat, mettant l’accent sur la cohérence du dialogue et la cohérence de la personnalité tout en tirant parti de toute la force de raisonnement de GPT-5.
o3OpenAIRédaction technique avancée et suivi d’instructions, compétences exceptionnelles en mathématiques, sciences et codage, excelle dans le raisonnement multi-étapes sur texte et code.Input : 200 000 Output : 100 000o3 est un modèle polyvalent et performant qui se distingue dans un large éventail de domaines. Il établit une nouvelle norme pour les mathématiques, les sciences, le codage et le raisonnement visuel, et excelle aussi dans la rédaction technique et le suivi d’instructions.
Claude Sonnet 4.5AnthropicLa plus haute intelligence sur la plupart des tâches avec des capacités d’agent et de codage exceptionnelles, ton authentique et réaliste pour l’écriture créativeInput : 200 000 Output : 64 000Le modèle le plus avancé d’Anthropic à ce jour. Selon plusieurs benchmarks, il se compare aux modèles GPT-5 et les surpasse même dans certains domaines. Disponible avec et sans capacités de réflexion étendue (raisonnement).
Claude Sonnet 4AnthropicExcelle dans le codage complexe, l’écriture créative, l’analyse d’images et la traduction, avec un système à double mode pour des réponses rapides et un raisonnement approfondiInput : 200 000 Output : 64 000Le meilleur modèle d’Anthropic, Claude Sonnet 4, améliore Claude 3.7 avec une fenêtre de contexte plus large, un changement de mode plus fluide, un meilleur codage et un raisonnement plus profond. Maintient une forte sécurité et alignement.
Gemini 2.5 FlashGoogleExcelle dans la génération de contenu rapide en temps réel et l’analyse d’images robuste, gérant facilement de longs documents et ensembles de données.Input : 1 048 576 Output : 65 535Le modèle Gemini Flash le plus rapide de Google, avec une grande fenêtre de contexte et le double de longueur de sortie. Excelle dans les tâches sur documents longs et l’analyse multimodale, livrant des résultats presque deux fois plus vite que son prédécesseur.
Gemini 2.5 ProGoogleExcelle dans le contenu rapide en temps réel et l’analyse d’images avec un contexte ultra-long pour gérer de grands documents.Input : 1 048 576 Output : 65 535Le modèle phare Gemini 2.5 Pro de Google offre un grand support de contexte et excelle dans les tâches complexes et le code. Il privilégie un raisonnement nuancé et la profondeur plutôt que la vitesse, surpassant les modèles Gemini précédents en précision et analyse.
Mistral Large 2411MistralDéveloppement logiciel et codage, capacités multilinguesInput : 131 000 Output : 4 096Le meilleur modèle de Mistral avec d’excellentes capacités de raisonnement. Forte performance sur les conversations sophistiquées et la résolution de problèmes complexes. Plus raffiné que les versions précédentes avec un meilleur suivi d’instructions.

Nos recommandations

Notre choix par défaut pour les tâches quotidiennes : GPT-5 (OpenAI)

GPT-5 d’OpenAI est notre recommandation principale pour un modèle standard polyvalent, excellant dans un large éventail de tâches avec ses capacités multimodales exceptionnelles. Ce modèle phare est idéal pour les utilisateurs qui ont besoin d’un modèle puissant tout-terrain, offrant d’excellentes performances en génération de contenu, écriture créative, analyse d’images et support multilingue. GPT-5 se distingue par ses capacités de raisonnement de pointe tout en maintenant de fortes compétences en écriture créative.

Un modèle hybride pour le codage et l’écriture : Claude Sonnet 4.5 (Anthropic)

Claude Sonnet 4.5 d’Anthropic est notre recommandation principale pour le codage ou la génération de texte. Beaucoup de nos utilisateurs préfèrent Claude pour écrire leur code logiciel, e-mails, textes, traductions, etc. Comme avec les versions précédentes de Claude Sonnet, on le recommande pour le codage et la création de texte, car il a un ton de voix authentique et réaliste. On a ajouté deux modèles pour te donner le choix d’utiliser ou non le raisonnement. Les modèles sont Claude Sonnet 4.5 et Claude Sonnet 4.5 Reasoning. Les deux offrent d’incroyables capacités de suivi d’instructions, une hallucination minimale et des capacités de codage exceptionnelles. On le recommande pour sa satisfaction utilisateur constamment élevée dans les tâches liées au langage et au développement logiciel.

Le modèle spécialisé pour le raisonnement complexe : GPT-5 Thinking (OpenAI)

GPT-5 Thinking d’OpenAI est notre recommandation principale pour les tâches analytiques complexes demandant une précision maximale. Cette variante spécialisée excelle dans les défis mathématiques, scientifiques et de programmation grâce à son architecture de raisonnement avancée, qui décompose les problèmes complexes avec une clarté exceptionnelle. L’avantage technique clé est ses capacités de réflexion étendues combinées à l’intelligence de pointe de GPT-5, permettant des analyses complètes sans perdre de cohérence. Bien que ce raisonnement plus profond ajoute une latence modeste, les gains de précision le rendent idéal pour les applications professionnelles et d’entreprise demandant les sorties de la plus haute qualité.

Modèles d’image

Tu trouveras ci-dessous les modèles d’image actuellement disponibles dans Langdock.
ModèleFournisseurPoints forts
Flux1.1 Pro UltraBlack Forest LabsLe modèle phare de Black Forest Labs, offrant une génération d’images de pointe à une vitesse fulgurante avec un suivi de prompt, une qualité visuelle de premier ordre.
Flux.1 KontextBlack Forest LabsÉtat de l’art en génération et édition d’images en contexte par Black Forest Labs. Utilise-le pour combiner texte et images pour des résultats précis et cohérents.
Imagen 4GoogleLe modèle text-to-image phare de Google, conçu pour la créativité. Imagen 4 peut rendre divers styles artistiques avec une plus grande précision - du photoréalisme et impressionnisme à l’abstrait et l’illustration.
Imagen 4 FastGoogleLe modèle d’image de Google optimisé pour la génération d’images rapide et les tâches à volume élevé.
Gemini 2.5 Flash Image (Nano Banana)GoogleLe modèle avancé d’édition d’images IA de Google, partie de Gemini 2.5 Flash, qui permet aux utilisateurs de transformer et éditer des photos en utilisant des prompts en langage naturel avec des résultats rapides, précis et cohérents. Actuellement non disponible avec hébergement exclusif UE.
DALL-E 3OpenAILe modèle IA text-to-image legacy d’OpenAI qui génère des images à partir de prompts écrits en combinant compréhension du langage et vision.
GPT Image 1OpenAIGPT Image 1 est le nouveau modèle de génération d’images de pointe d’OpenAI. C’est un modèle de langage nativement multimodal qui accepte les entrées texte et image, et produit des sorties image.

Modèles legacy

Les modèles suivants sont toujours disponibles et peuvent être utilisés. Cependant, notre recommandation est d’utiliser les versions plus récentes.
Pour contexte : les anciennes versions de modèles ont des limitations en performance et précision par rapport à leurs homologues plus récents. Les nouvelles versions incluent des améliorations significatives en qualité de réponse, vitesse et fonctionnalités de sécurité qu’on a développées sur la base des retours utilisateurs et des avancées techniques.
Tu peux continuer à utiliser les anciennes versions si nécessaire pour des raisons de compatibilité, mais on recommande de migrer vers les nouvelles versions quand c’est possible pour la meilleure expérience.
ModèleFournisseurPoints fortsLimites de tokens (Context Window et Output Limit)Notes
GPT-4.1OpenAIGénération de contenu et écriture créative, fortes compétences analytiques, haute maîtrise du raisonnement logique et résolution de problèmesInput : 1 047 576
Output : 32 768
Le modèle phare raffiné d’OpenAI avant GPT-5, avec une grande fenêtre de contexte, une précision améliorée et des capacités multimodales. Toujours excellent pour les tâches créatives, analytiques et de raisonnement.
GPT-4.1 miniOpenAIVersion plus petite et rapide de GPT-4.1. Excellent pour les tâches quotidiennes avec des réponses significativement plus rapides.Input : 1 047 576
Output : 32 768
GPT-4.1 mini est une variante rationalisée du modèle GPT-4.1 d’OpenAI, offrant des réponses rapides et efficaces tout en maintenant une compréhension robuste du langage.
GPT-4.1 nanoOpenAIGénération de contenu rapide et efficace, réponses interactives rapides et solides performances sur les tâches quotidiennesInput : 1 047 576
Output : 32 768
ChatGPT 4.1 nano est une variante légère et rapide idéale pour les assistants en temps réel et une utilisation à volume élevé. Optimisé pour la vitesse et une utilisation réduite des ressources.
o4 miniOpenAIExcelle dans les tâches visuelles, optimisé pour un raisonnement rapide et efficace.Input : 200 000
Output : 100 000
Le petit modèle de la série o d’OpenAI, o4-mini, excelle dans le raisonnement rapide et efficace et offre des performances de codage et visuelles très efficaces.
GPT-4oOpenAIGénération de contenu et écriture créative, analyse de données (fichiers Excel et CSV), analyse d’images, traduction et support multilingueInput : 128 000
Output : 16 384
L’ancien modèle phare d’OpenAI avec de bonnes capacités multimodales. Performance et vitesse équilibrées avec compétences en écriture créative et raisonnement.
GPT-4o MiniOpenAIVitesse et efficacité, analyse d’imagesInput : 128 000
Output : 16 384
Plus rapide et plus économique que GPT-4o mais avec des capacités réduites pour les tâches complexes. Idéal pour des réponses rapides et des applications légères où la vitesse compte plus que la profondeur.
o1OpenAIExcelle dans le raisonnement en temps réel, la planification, la création de contenu, le codage et la cohérence dans les conversations étendues.Input : 200 000 Output : 100 000ChatGPT o1, un modèle OpenAI optimisé reliant GPT-4 et les futures versions GPT, offre une bonne gestion du dialogue. Il équilibre efficacité et raisonnement avancé.
o3 Mini HighOpenAIPrécision et profondeur de réponse améliorées tout en bénéficiant d’une architecture optimisée et efficaceInput : 200 000 Output : 100 000o3 Mini amélioré pour des sorties plus profondes et puissantes. Gère des tâches plus longues et détaillées tout en restant efficace.
LLaMA 3.3 70BMetaVitesse et efficacité, capacités multilinguesInput : 128 000 Output : 2 048Le modèle open-source de Meta avec des performances compétitives contre les alternatives propriétaires. Amélioration significative par rapport aux modèles Llama précédents avec un meilleur raisonnement et suivi d’instructions.
DeepSeek R1 32BDeepSeekDéveloppement logiciel et codage, résistance aux hallucinationsInput : 128 000 Output : 8 000En tant que premier modèle compétitif de Chine, Deep Seek R1 est particulièrement impressionnant, considérant qu’il a été construit avec beaucoup moins de ressources que des concurrents comme OpenAI. Optimisé pour la qualité du raisonnement plutôt que la vitesse, il démontre des performances exceptionnelles sur des benchmarks comme les mathématiques et les défis de codage.
Claude 3.7 SonnetAnthropicDéveloppement logiciel et codage, génération de contenu et écriture créative, analyse d’images, traduction et support multilingueInput : 200 000 Output : 8 192L’ancien modèle phare d’Anthropic avec une capacité unique à double mode. Possède un mode standard pour des réponses rapides et un mode de réflexion étendue pour des tâches de raisonnement complexes. Capacités de codage significativement améliorées par rapport aux modèles Claude précédents.
Gemini 2.0 FlashGoogleAnalyse de contexte long et traitement de documents, analyse d’images, vitesse et efficacitéInput : 1 048 576 Output : 8 192L’ancien modèle haute vitesse phare de Google avec une grande fenêtre de contexte. Surpasse le modèle Gemini 1.5 Pro précédent sur les benchmarks clés tout en étant deux fois plus rapide.
Gemini 1.5 ProGoogleAnalyse de contexte long et traitement de documents, analyse d’imagesInput : 2 097 152 Output : 8 192L’ancien modèle de Google avec une fenêtre de contexte de 2M tokens. Fortes capacités multimodales et bon pour les applications à contexte long.
I