Sélectionner un modèle
- Quand tu commences un nouveau chat, sélectionne le modèle souhaité dans le menu déroulant en haut à gauche
- Tu peux changer de modèle en cours de conversation - par exemple, commence avec un modèle rapide pour le brainstorming, puis passe à un plus puissant pour le résultat final
- Définis ton modèle par défaut personnel dans les paramètres du compte
Comprendre les conventions de nommage des modèles
Les fournisseurs d’IA suivent des conventions de nommage cohérentes qui t’aident à identifier rapidement les capacités d’un modèle. Comprendre ces conventions te permet de choisir le bon modèle sans mémoriser des versions spécifiques.
Des numéros de version plus élevés indiquent généralement des modèles plus récents et plus performants. Quand un fournisseur publie une nouvelle génération, il incrémente le numéro de version majeur.
| Pattern | Signification |
|---|
| GPT-5 vs GPT-4 | GPT-5 est la génération plus récente |
| Claude 4 vs Claude 3 | Claude 4 est la génération plus récente |
| Gemini 2.5 vs Gemini 2.0 | Gemini 2.5 est plus récent au sein de la même génération |
En cas de doute, choisis le modèle avec le numéro de version le plus élevé - il a généralement un meilleur raisonnement, moins d’erreurs et plus de fonctionnalités.
Indicateurs de taille = Compromis vitesse vs intelligence
Les fournisseurs proposent plusieurs tailles au sein de chaque famille de modèles. Les modèles sans indicateur de taille sont les plus intelligents mais peuvent être plus lents. Les modèles avec indicateurs de taille sacrifient un peu de performance pour la vitesse et l’efficacité des coûts.
| Indicateur | Intelligence | Vitesse | Idéal pour |
|---|
| Pas d’indicateur (ex: “GPT-5”, “Claude Sonnet”) | Maximale | Modérée | Tâches complexes, résultats importants |
| mini / nano | Moyenne-Haute | Rapide | Tâches quotidiennes, itérations rapides |
| flash / fast | Moyenne | Très rapide | Applications temps réel, gros volumes |
| haiku (Anthropic) | Bonne | Très rapide | Tâches simples, applications sensibles aux coûts |
Astuce pro : Commence avec un modèle rapide pour les brouillons et l’exploration, puis passe au modèle complet pour ton résultat final. Ça fait gagner du temps tout en obtenant des résultats de haute qualité quand ça compte.
Variantes Reasoning/Thinking = Analyse approfondie
Certains modèles ont des variantes “Reasoning” ou “Thinking” (ex: “GPT-5 Thinking”, “Claude Opus Reasoning”). Elles sont spécifiquement optimisées pour :
- Les problèmes complexes à plusieurs étapes
- L’analyse mathématique et scientifique
- La déduction logique et la planification
- Les décisions d’architecture de code
Ces modèles prennent plus de temps pour répondre car ils “réfléchissent” aux problèmes étape par étape, mais ils produisent des résultats plus précis sur les tâches difficiles.
Niveaux par fournisseur
Chaque fournisseur organise ses modèles en niveaux :
OpenAI
Anthropic
Google
Autres
| Niveau | Exemples | Cas d’usage |
|---|
| Flagship | GPT-5, GPT-5.x | Le plus performant, pour les tâches complexes |
| Reasoning | série o (o3, o4) | Tâches analytiques approfondies |
| Efficient | variantes mini, nano | Rapide, économique |
| Niveau | Exemples | Cas d’usage |
|---|
| Opus | Claude Opus | Le plus intelligent, raisonnement complexe |
| Sonnet | Claude Sonnet | Équilibre intelligence et vitesse |
| Haiku | Claude Haiku | Rapide, efficace pour les tâches simples |
| Niveau | Exemples | Cas d’usage |
|---|
| Pro | Gemini Pro | Le plus performant, tâches complexes |
| Flash | Gemini Flash | Rapide, applications temps réel |
| Fournisseur | Flagship | Notes |
|---|
| Mistral | Mistral Large | Fort en multilingue, codage |
| Meta | LLaMA | Open-source, efficace |
| DeepSeek | DeepSeek R1 | Fort raisonnement, codage |
Choisir le bon modèle
Par type de tâche
| Tâche | Type de modèle recommandé | Pourquoi |
|---|
| Questions rapides, brainstorming | Variantes fast/mini | La vitesse compte, qualité suffisante |
| Écriture d’emails, documents | Flagship standard | Bon équilibre qualité/vitesse |
| Analyse complexe, recherche | Flagship ou variantes Reasoning | Précision maximale nécessaire |
| Codage et débogage | Anthropic Sonnet ou modèles Reasoning | Fort sur les tâches structurées |
| Écriture créative | Modèles Anthropic | Connus pour leur ton naturel et authentique |
| Documents longs | Google Gemini | Excellente gestion des longs contextes |
| Mathématiques et sciences | Variantes Reasoning/Thinking | Résolution de problèmes étape par étape |
Guide de décision rapide
Est-ce une tâche simple et rapide ?
├─ Oui → Utilise un modèle fast/mini/flash
└─ Non → Un raisonnement approfondi est-il nécessaire ?
├─ Oui → Utilise un modèle Reasoning/Thinking
└─ Non → Utilise le modèle flagship standard
Nos recommandations
Pour les tâches quotidiennes
Utilise le modèle flagship actuel d’OpenAI ou Anthropic. Ils offrent le meilleur équilibre entre performance et vitesse pour un usage général. Cherche les modèles sans indicateurs de taille (pas de “mini”, “fast”, etc.).
Pour le codage et l’écriture
Les modèles Sonnet d’Anthropic sont constamment loués pour leur texte naturel et leurs fortes capacités de codage. Ils ont un ton authentique qui fonctionne bien pour la communication professionnelle.
Pour le raisonnement complexe
Utilise les variantes Thinking/Reasoning quand tu as besoin d’une précision maximale sur les tâches analytiques. Elles prennent plus de temps mais réduisent significativement les erreurs sur les problèmes complexes.
Pour les tâches sensibles au temps
Les variantes Flash, mini ou nano donnent de bons résultats beaucoup plus rapidement. Parfaites pour les applications temps réel, l’itération d’idées ou le traitement de gros volumes.
Modèles de génération d’images
Les modèles d’images suivent aussi des conventions de nommage :
| Fournisseur | Modèles | Points forts |
|---|
| Black Forest Labs | Série Flux | Qualité état de l’art, génération rapide |
| Google | Série Imagen | Styles artistiques variés, photoréalisme |
| OpenAI | DALL-E, GPT Image | Texte vers image, intégré au chat |
Pour la génération d’images, les variantes “Fast” privilégient la vitesse tandis que les versions standard privilégient la qualité. Choisis selon que tu as besoin d’itérations rapides ou d’une qualité finale.
Rester à jour
Les modèles IA évoluent rapidement. Pour rester à jour :
- Vérifie le sélecteur de modèles - Langdock affiche toujours les derniers modèles disponibles
- Regarde les numéros de version - Des numéros plus élevés = capacités plus récentes
- Essaie les nouveaux modèles - Quand une nouvelle version apparaît, teste-la sur tes tâches habituelles
- Lis les notes de version - Les fournisseurs annoncent les améliorations majeures avec les nouvelles versions
Langdock ajoute continuellement de nouveaux modèles dès qu’ils sont disponibles. Le sélecteur de modèles dans ton chat reflète toujours les options actuelles.