Sélectionner un modèle
- Quand tu commences un nouveau chat, tu peux utiliser le modèle avec lequel tu veux travailler en haut à gauche.
- Tu peux toujours changer le modèle en haut à gauche si tu as déjà commencé un chat. Par exemple, tu peux commencer avec GPT-4.1 et, après trois messages, passer à Claude Sonnet 4.
- Tu peux aussi définir ton modèle par défaut personnel dans les paramètres du compte ici. Le modèle par défaut pour les nouveaux utilisateurs est GPT-4.1.
Sélectionner le bon modèle
Tu trouveras ci-dessous un aperçu des modèles qui excellent dans certains cas d’utilisation que tu pourrais rencontrer. Ci-dessous, on présente aussi nos recommandations personnelles basées sur les retours actuels des utilisateurs.Modèle | Fournisseur | Points forts | Limites de tokens (Context Window et Output Limit) | Notes |
---|---|---|---|---|
GPT-5 | OpenAI | Raisonnement de pointe, capacités multimodales avancées, réponses de la plus haute fidélité pour les tâches complexes | Input : 272 000 Output : 16 000 | GPT-5 est le dernier modèle phare d’OpenAI, avec un contexte étendu, une compréhension des images et une flexibilité de schéma de réponse adaptée aux charges de travail de niveau entreprise. |
GPT-5 mini | OpenAI | Version plus rapide et économique de GPT-5 avec un raisonnement presque phare, idéale pour les tâches professionnelles quotidiennes | Input : 272 000 Output : 16 000 | GPT-5 mini équilibre performance et vitesse, offrant la plupart des capacités de GPT-5 à un prix inférieur - parfait pour la création de contenu et l’analyse de routine. |
GPT-5 nano | OpenAI | Variante légère privilégiant la vitesse et le débit tout en conservant un raisonnement solide pour les cas d’utilisation courants | Input : 272 000 Output : 16 000 | GPT-5 nano fournit des réponses fiables au coût le plus bas de la famille GPT-5, le rendant adapté aux applications à volume élevé ou critiques en latence. |
GPT-5 Chat | OpenAI | Modèle GPT-5 affiné pour la conversation, optimisé pour le dialogue, le support client et les assistants interactifs | Input : 272 000 Output : 16 000 | GPT-5 Chat est conçu pour les scénarios de chat, mettant l’accent sur la cohérence du dialogue et la cohérence de la personnalité tout en tirant parti de toute la force de raisonnement de GPT-5. |
o3 | OpenAI | Rédaction technique avancée et suivi d’instructions, compétences exceptionnelles en mathématiques, sciences et codage, excelle dans le raisonnement multi-étapes sur texte et code. | Input : 200 000 Output : 100 000 | o3 est un modèle polyvalent et performant qui se distingue dans un large éventail de domaines. Il établit une nouvelle norme pour les mathématiques, les sciences, le codage et le raisonnement visuel, et excelle aussi dans la rédaction technique et le suivi d’instructions. |
Claude Sonnet 4.5 | Anthropic | La plus haute intelligence sur la plupart des tâches avec des capacités d’agent et de codage exceptionnelles, ton authentique et réaliste pour l’écriture créative | Input : 200 000 Output : 64 000 | Le modèle le plus avancé d’Anthropic à ce jour. Selon plusieurs benchmarks, il se compare aux modèles GPT-5 et les surpasse même dans certains domaines. Disponible avec et sans capacités de réflexion étendue (raisonnement). |
Claude Sonnet 4 | Anthropic | Excelle dans le codage complexe, l’écriture créative, l’analyse d’images et la traduction, avec un système à double mode pour des réponses rapides et un raisonnement approfondi | Input : 200 000 Output : 64 000 | Le meilleur modèle d’Anthropic, Claude Sonnet 4, améliore Claude 3.7 avec une fenêtre de contexte plus large, un changement de mode plus fluide, un meilleur codage et un raisonnement plus profond. Maintient une forte sécurité et alignement. |
Gemini 2.5 Flash | Excelle dans la génération de contenu rapide en temps réel et l’analyse d’images robuste, gérant facilement de longs documents et ensembles de données. | Input : 1 048 576 Output : 65 535 | Le modèle Gemini Flash le plus rapide de Google, avec une grande fenêtre de contexte et le double de longueur de sortie. Excelle dans les tâches sur documents longs et l’analyse multimodale, livrant des résultats presque deux fois plus vite que son prédécesseur. | |
Gemini 2.5 Pro | Excelle dans le contenu rapide en temps réel et l’analyse d’images avec un contexte ultra-long pour gérer de grands documents. | Input : 1 048 576 Output : 65 535 | Le modèle phare Gemini 2.5 Pro de Google offre un grand support de contexte et excelle dans les tâches complexes et le code. Il privilégie un raisonnement nuancé et la profondeur plutôt que la vitesse, surpassant les modèles Gemini précédents en précision et analyse. | |
Mistral Large 2411 | Mistral | Développement logiciel et codage, capacités multilingues | Input : 131 000 Output : 4 096 | Le meilleur modèle de Mistral avec d’excellentes capacités de raisonnement. Forte performance sur les conversations sophistiquées et la résolution de problèmes complexes. Plus raffiné que les versions précédentes avec un meilleur suivi d’instructions. |
Nos recommandations
Notre choix par défaut pour les tâches quotidiennes : GPT-5 (OpenAI)
GPT-5 d’OpenAI est notre recommandation principale pour un modèle standard polyvalent, excellant dans un large éventail de tâches avec ses capacités multimodales exceptionnelles. Ce modèle phare est idéal pour les utilisateurs qui ont besoin d’un modèle puissant tout-terrain, offrant d’excellentes performances en génération de contenu, écriture créative, analyse d’images et support multilingue. GPT-5 se distingue par ses capacités de raisonnement de pointe tout en maintenant de fortes compétences en écriture créative.Un modèle hybride pour le codage et l’écriture : Claude Sonnet 4.5 (Anthropic)
Claude Sonnet 4.5 d’Anthropic est notre recommandation principale pour le codage ou la génération de texte. Beaucoup de nos utilisateurs préfèrent Claude pour écrire leur code logiciel, e-mails, textes, traductions, etc. Comme avec les versions précédentes de Claude Sonnet, on le recommande pour le codage et la création de texte, car il a un ton de voix authentique et réaliste. On a ajouté deux modèles pour te donner le choix d’utiliser ou non le raisonnement. Les modèles sont Claude Sonnet 4.5 et Claude Sonnet 4.5 Reasoning. Les deux offrent d’incroyables capacités de suivi d’instructions, une hallucination minimale et des capacités de codage exceptionnelles. On le recommande pour sa satisfaction utilisateur constamment élevée dans les tâches liées au langage et au développement logiciel.Le modèle spécialisé pour le raisonnement complexe : GPT-5 Thinking (OpenAI)
GPT-5 Thinking d’OpenAI est notre recommandation principale pour les tâches analytiques complexes demandant une précision maximale. Cette variante spécialisée excelle dans les défis mathématiques, scientifiques et de programmation grâce à son architecture de raisonnement avancée, qui décompose les problèmes complexes avec une clarté exceptionnelle. L’avantage technique clé est ses capacités de réflexion étendues combinées à l’intelligence de pointe de GPT-5, permettant des analyses complètes sans perdre de cohérence. Bien que ce raisonnement plus profond ajoute une latence modeste, les gains de précision le rendent idéal pour les applications professionnelles et d’entreprise demandant les sorties de la plus haute qualité.Modèles d’image
Tu trouveras ci-dessous les modèles d’image actuellement disponibles dans Langdock.Modèle | Fournisseur | Points forts |
---|---|---|
Flux1.1 Pro Ultra | Black Forest Labs | Le modèle phare de Black Forest Labs, offrant une génération d’images de pointe à une vitesse fulgurante avec un suivi de prompt, une qualité visuelle de premier ordre. |
Flux.1 Kontext | Black Forest Labs | État de l’art en génération et édition d’images en contexte par Black Forest Labs. Utilise-le pour combiner texte et images pour des résultats précis et cohérents. |
Imagen 4 | Le modèle text-to-image phare de Google, conçu pour la créativité. Imagen 4 peut rendre divers styles artistiques avec une plus grande précision - du photoréalisme et impressionnisme à l’abstrait et l’illustration. | |
Imagen 4 Fast | Le modèle d’image de Google optimisé pour la génération d’images rapide et les tâches à volume élevé. | |
Gemini 2.5 Flash Image (Nano Banana) | Le modèle avancé d’édition d’images IA de Google, partie de Gemini 2.5 Flash, qui permet aux utilisateurs de transformer et éditer des photos en utilisant des prompts en langage naturel avec des résultats rapides, précis et cohérents. Actuellement non disponible avec hébergement exclusif UE. | |
DALL-E 3 | OpenAI | Le modèle IA text-to-image legacy d’OpenAI qui génère des images à partir de prompts écrits en combinant compréhension du langage et vision. |
GPT Image 1 | OpenAI | GPT Image 1 est le nouveau modèle de génération d’images de pointe d’OpenAI. C’est un modèle de langage nativement multimodal qui accepte les entrées texte et image, et produit des sorties image. |
Modèles legacy
Les modèles suivants sont toujours disponibles et peuvent être utilisés. Cependant, notre recommandation est d’utiliser les versions plus récentes.Pour contexte : les anciennes versions de modèles ont des limitations en performance et précision par rapport à leurs homologues plus récents. Les nouvelles versions incluent des améliorations significatives en qualité de réponse, vitesse et fonctionnalités de sécurité qu’on a développées sur la base des retours utilisateurs et des avancées techniques.Tu peux continuer à utiliser les anciennes versions si nécessaire pour des raisons de compatibilité, mais on recommande de migrer vers les nouvelles versions quand c’est possible pour la meilleure expérience.
Modèle | Fournisseur | Points forts | Limites de tokens (Context Window et Output Limit) | Notes |
---|---|---|---|---|
GPT-4.1 | OpenAI | Génération de contenu et écriture créative, fortes compétences analytiques, haute maîtrise du raisonnement logique et résolution de problèmes | Input : 1 047 576 Output : 32 768 | Le modèle phare raffiné d’OpenAI avant GPT-5, avec une grande fenêtre de contexte, une précision améliorée et des capacités multimodales. Toujours excellent pour les tâches créatives, analytiques et de raisonnement. |
GPT-4.1 mini | OpenAI | Version plus petite et rapide de GPT-4.1. Excellent pour les tâches quotidiennes avec des réponses significativement plus rapides. | Input : 1 047 576 Output : 32 768 | GPT-4.1 mini est une variante rationalisée du modèle GPT-4.1 d’OpenAI, offrant des réponses rapides et efficaces tout en maintenant une compréhension robuste du langage. |
GPT-4.1 nano | OpenAI | Génération de contenu rapide et efficace, réponses interactives rapides et solides performances sur les tâches quotidiennes | Input : 1 047 576 Output : 32 768 | ChatGPT 4.1 nano est une variante légère et rapide idéale pour les assistants en temps réel et une utilisation à volume élevé. Optimisé pour la vitesse et une utilisation réduite des ressources. |
o4 mini | OpenAI | Excelle dans les tâches visuelles, optimisé pour un raisonnement rapide et efficace. | Input : 200 000 Output : 100 000 | Le petit modèle de la série o d’OpenAI, o4-mini, excelle dans le raisonnement rapide et efficace et offre des performances de codage et visuelles très efficaces. |
GPT-4o | OpenAI | Génération de contenu et écriture créative, analyse de données (fichiers Excel et CSV), analyse d’images, traduction et support multilingue | Input : 128 000 Output : 16 384 | L’ancien modèle phare d’OpenAI avec de bonnes capacités multimodales. Performance et vitesse équilibrées avec compétences en écriture créative et raisonnement. |
GPT-4o Mini | OpenAI | Vitesse et efficacité, analyse d’images | Input : 128 000 Output : 16 384 | Plus rapide et plus économique que GPT-4o mais avec des capacités réduites pour les tâches complexes. Idéal pour des réponses rapides et des applications légères où la vitesse compte plus que la profondeur. |
o1 | OpenAI | Excelle dans le raisonnement en temps réel, la planification, la création de contenu, le codage et la cohérence dans les conversations étendues. | Input : 200 000 Output : 100 000 | ChatGPT o1, un modèle OpenAI optimisé reliant GPT-4 et les futures versions GPT, offre une bonne gestion du dialogue. Il équilibre efficacité et raisonnement avancé. |
o3 Mini High | OpenAI | Précision et profondeur de réponse améliorées tout en bénéficiant d’une architecture optimisée et efficace | Input : 200 000 Output : 100 000 | o3 Mini amélioré pour des sorties plus profondes et puissantes. Gère des tâches plus longues et détaillées tout en restant efficace. |
LLaMA 3.3 70B | Meta | Vitesse et efficacité, capacités multilingues | Input : 128 000 Output : 2 048 | Le modèle open-source de Meta avec des performances compétitives contre les alternatives propriétaires. Amélioration significative par rapport aux modèles Llama précédents avec un meilleur raisonnement et suivi d’instructions. |
DeepSeek R1 32B | DeepSeek | Développement logiciel et codage, résistance aux hallucinations | Input : 128 000 Output : 8 000 | En tant que premier modèle compétitif de Chine, Deep Seek R1 est particulièrement impressionnant, considérant qu’il a été construit avec beaucoup moins de ressources que des concurrents comme OpenAI. Optimisé pour la qualité du raisonnement plutôt que la vitesse, il démontre des performances exceptionnelles sur des benchmarks comme les mathématiques et les défis de codage. |
Claude 3.7 Sonnet | Anthropic | Développement logiciel et codage, génération de contenu et écriture créative, analyse d’images, traduction et support multilingue | Input : 200 000 Output : 8 192 | L’ancien modèle phare d’Anthropic avec une capacité unique à double mode. Possède un mode standard pour des réponses rapides et un mode de réflexion étendue pour des tâches de raisonnement complexes. Capacités de codage significativement améliorées par rapport aux modèles Claude précédents. |
Gemini 2.0 Flash | Analyse de contexte long et traitement de documents, analyse d’images, vitesse et efficacité | Input : 1 048 576 Output : 8 192 | L’ancien modèle haute vitesse phare de Google avec une grande fenêtre de contexte. Surpasse le modèle Gemini 1.5 Pro précédent sur les benchmarks clés tout en étant deux fois plus rapide. | |
Gemini 1.5 Pro | Analyse de contexte long et traitement de documents, analyse d’images | Input : 2 097 152 Output : 8 192 | L’ancien modèle de Google avec une fenêtre de contexte de 2M tokens. Fortes capacités multimodales et bon pour les applications à contexte long. |