Skip to main content
Pour ajouter des propres modèles, nous avons préparé les guides suivants pour toi. Si tu as des questions, contacte l’équipe Langdock.

Ajouter des modèles

Ouvrir le dialogue de modèle

  1. Va dans les paramètres de modèles et clique sur Ajouter Modèle pour ajouter un nouveau modèle à la plateforme
  2. Une fenêtre modale s’ouvre où tu peux ajouter des modèles. Ici, tu trouveras deux sections :
    • Paramètres d’Affichage en haut te permet de personnaliser ce que l’utilisateur voit dans le sélecteur de modèles.
    • Configuration du Modèle te permet de connecter ton workspace Langdock à ton API de modèle.

Paramètres d’Affichage

Pour configurer les Paramètres d’affichage, tu peux suivre les étapes suivantes. Ces informations sont aussi disponibles auprès de l’entreprise hébergeant le modèle. Fournisseur : L’organisation qui a construit et entraîné le modèle. Cela ne correspond pas nécessairement à l’entreprise depuis laquelle tu consommes le modèle. Par exemple, tu peux utiliser Microsoft Azure pour utiliser les modèles OpenAI dans l’UE, mais le fournisseur sera toujours OpenAI. Nom du modèle : Le nom du modèle. Fournisseur d’hébergement : Où tu consommes le modèle. Par exemple, GPT-5.2 peut être hébergé par Microsoft Azure. Région : Montre à l’utilisateur où le modèle est hébergé. Cela peut être défini sur les États-Unis ou l’UE. Classement : Pour donner aux utilisateurs une indication de la performance du modèle en termes de vitesse et de qualité, tu peux ajouter un classement de 1 à 5. Les modèles plus petits, comme Claude 3.5 Haiku, GPT-5 mini ou Llama 3.3 70B, sont plus rapides mais n’ont pas la plus haute qualité. Les meilleurs modèles, GPT-5.2 ou Claude Sonnet 4.5, ont une haute qualité de sortie. Date limite de connaissances : Quand les données d’entraînement du modèle se sont terminées. La plupart des modèles ont une date limite de connaissances fin 2023. Analyse d’images : Indique si le modèle peut analyser des images. Cette information est disponible auprès du fournisseur de modèle et de l’hébergeur de modèle. Active uniquement ce paramètre si le modèle supporte la vision/l’analyse d’images. Les modèles qui permettent l’analyse d’images sont GPT-5.2, GPT-5 mini, Claude et les modèles Gemini.

Configurations de Modèle

Pour configurer la Configuration du Modèle, sélectionne le SDK que tu utilises. Tu trouveras des informations sur la configuration du fournisseur de modèle (par ex., Azure ou AWS) : SDK : Le kit ou la bibliothèque que Langdock doit utiliser pour le modèle que tu as ajouté. URL de Base : Pour envoyer les prompts à l’endpoint correspondant de ton modèle. ID du Modèle : Le nom du modèle dans ta configuration (cela peut ne pas être le nom “officiel” du modèle, comme GPT-5.2). Clé API : Permet à tes utilisateurs de s’authentifier en utilisant le modèle depuis Langdock lorsqu’ils envoient des prompts. Taille du Contexte : Le nombre de tokens que le modèle peut traiter dans sa fenêtre de contexte. Utilise la valeur exacte du modèle pour t’assurer que la gestion du contexte dans Langdock fonctionne correctement.

Autres options de configuration

Maximum de messages en 3 heures : Te permet d’influencer l’utilisation/les coûts et de limiter les messages par utilisateur. Ce paramètre est optionnel. Tarification des tokens d’entrée et de sortie : Te permet de définir la tarification des tokens du modèle individuel pour surveiller l’utilisation et les coûts. Effort de Raisonnement : Détermine combien de calcul le modèle dépense sur le raisonnement. Des valeurs plus élevées améliorent la qualité mais entraînent une latence et des tokens supplémentaires. Valeurs acceptées : Minimal, Faible, Moyen, Élevé. (Uniquement pour les modèles GPT-5.) Verbosité : Contrôle le niveau de détail dans la réponse finale du modèle. Valeurs acceptées : Faible, Moyen, Élevé. (Uniquement pour les modèles GPT-5.) Visible pour tout le monde : Tu peux définir le modèle pour qu’il soit visible par tout le monde dans le workspace. Si cette option est désactivée, le modèle n’est visible que pour les admins et ne peut pas être utilisé par d’autres utilisateurs. Cela te permet de tester le modèle avant de le lancer à l’ensemble du workspace. Mode maintenance : Peut être activé pour montrer aux utilisateurs dans l’interface que le modèle pourrait ne pas fonctionner comme prévu. Cela est utile si tu changes une configuration ou s’il y a un problème temporaire avec le modèle de ton fournisseur de modèle.

Étapes finales

  1. Après avoir entré tous les paramètres obligatoires, clique sur Sauvegarder
  2. On te recommande de tester le modèle avant de le rendre visible à tout le monde. Envoie un message au modèle et vérifie s’il y a une réponse générée par le modèle. Si tu rencontres des problèmes, contacte support@langdock.com

Configuration spécifique par modèle

Voici les paramètres recommandés pour chaque modèle. Utilise ces valeurs lors de la configuration des modèles dans Langdock.

Modèles OpenAI GPT-5.1

ModèleType d’APITaille du contexteTokens de sortie maxConfiguration spéciale
GPT-5.1Responses API160 00016 000Définir reasoning sur minimal et verbosity sur low
GPT-5.1 (Thinking)Responses API160 00016 000Définir reasoning sur high et verbosity sur low
GPT-5.1-chatResponses API160 00016 000Disponible uniquement sur Azure en déploiement standard global dans l’UE ou directement via OpenAI

Modèles OpenAI GPT-5

ModèleType d’APITaille du contexteTokens de sortie maxConfiguration spéciale
GPT-5Responses API160 00016 384Définir reasoning sur minimal et verbosity sur low
GPT-5 (Thinking)Responses API128 00016 384Définir reasoning sur high et verbosity sur low
GPT-5 miniResponses API160 00016 384Définir les tokens de sortie sur 16 000
GPT-5 nanoResponses API128 00016 384Définir les tokens de sortie sur 16 000

Modèles OpenAI legacy

ModèleType d’APITaille du contexteTokens de sortie maxConfiguration spéciale
GPT-4.1Completion API128 00032 768Bon pour l’analyste de données (fichiers CSV/Excel)
GPT-4.1 miniCompletion API128 00032 768
GPT-4.1 nanoCompletion API128 00032 768
GPT-4oCompletion API128 0008 192
GPT-4o miniCompletion API128 0008 192

Modèles de raisonnement OpenAI

ModèleType d’APITaille du contexteTokens de sortie maxConfiguration spéciale
o3Responses API128 0008 192
o3 MiniCompletion API128 0008 192Utiliser l’ID de modèle o3-mini
o3 Mini highCompletion API128 0008 192Utiliser l’ID de modèle o3-mini-high
o4 miniResponses API128 0008 192
o4 mini highResponses API128 0008 192Utiliser l’ID de modèle o3-mini-high
o1Completion API128 0008 192

Modèles Anthropic Claude

ModèleType d’APITaille du contexteTokens de sortie maxConfiguration spéciale
Claude Sonnet 4.5Completion API80 00032 768
Claude Sonnet 4.5 ReasoningCompletion API80 00032 768Définir les tokens de sortie max sur 8 192
Claude Opus 4.5Completion API80 00032 768
Claude Opus 4.5 ReasoningCompletion API80 00032 768Définir les tokens de sortie max sur 8 192
Claude Sonnet 4Completion API80 00032 768
Claude Sonnet 4 ReasoningCompletion API60 00032 768Définir les tokens de sortie max sur 8 192
Claude Sonnet 3.7Completion API80 00032 768
Claude Sonnet 3.7 ReasoningCompletion API80 00032 768

Modèles Google Gemini

ModèleType d’APITaille du contexteTokens de sortie maxConfiguration spéciale
Gemini 2.5 ProCompletion API300 00032 000Supporte le raisonnement/thinking
Gemini 2.5 FlashCompletion API838 40032 000Supporte le raisonnement/thinking

Autres modèles

ModèleType d’APITaille du contexteTokens de sortie maxConfiguration spéciale
Mistral Large 2411Completion API128 000Pas de support d’analyse d’images
Llama 3.3 70BCompletion API128 000Pas de support d’analyse d’images
DeepSeek r1Completion APIRégion US uniquement, pas de support d’outils
Amazon Nova LiteCompletion API200 000Région US uniquement
Amazon Nova ProCompletion API200 000Région US uniquement
Pour les informations les plus récentes sur les modèles et leurs capacités, consulte le sélecteur de modèles dans app.langdock.com.

Cas spéciaux lors de la configuration

Mistral depuis Azure : Assure-toi de sélectionner “Mistral” comme SDK. Claude depuis AWS Bedrock : L’URL de Base doit contenir la “clé d’accès” / “Zugriffsschlüssel”. Flux depuis Replicate : Le champ URL de base doit avoir le chemin complet du modèle, pas seulement l’URL de base. Pour Flux 1.1 Pro c’est : https://api.replicate.com/v1/models/black-forest-labs/flux-1.1-pro/predictions