Ajouter des modèles
Ouvrir le dialogue de modèle
- Va dans les paramètres de modèles et clique sur Ajouter Modèle pour ajouter un nouveau modèle à la plateforme
- Une fenêtre modale s’ouvre où tu peux ajouter des modèles. Ici, tu trouveras deux sections :
- Paramètres d’Affichage en haut te permet de personnaliser ce que l’utilisateur voit dans le sélecteur de modèles.
- Configuration du Modèle te permet de connecter ton workspace Langdock à ton API de modèle.
Paramètres d’Affichage
Pour configurer les Paramètres d’affichage, tu peux suivre les étapes suivantes. Ces informations sont aussi disponibles auprès de l’entreprise hébergeant le modèle. Fournisseur : L’organisation qui a construit et entraîné le modèle. Cela ne correspond pas nécessairement à l’entreprise depuis laquelle tu consommes le modèle. Par exemple, tu peux utiliser Microsoft Azure pour utiliser les modèles OpenAI dans l’UE, mais le fournisseur sera toujours OpenAI. Nom du modèle : Le nom du modèle. Fournisseur d’hébergement : Où tu consommes le modèle. Par exemple, GPT-4o peut être hébergé par Microsoft Azure. Région : Montre à l’utilisateur où le modèle est hébergé. Cela peut être défini sur les États-Unis ou l’UE. Classement : Pour donner aux utilisateurs une indication de la performance du modèle en termes de vitesse et de qualité, tu peux ajouter un classement de 1 à 5. Les modèles plus petits, comme Claude 3 Haiku, GPT-4o mini ou Llama 3.1 8B, sont plus rapides mais n’ont pas la plus haute qualité. Les meilleurs modèles, GPT-4o ou Claude 3.5, ont une haute qualité de sortie. Date limite de connaissances : Quand les données d’entraînement du modèle se sont terminées. La plupart des modèles ont une date limite de connaissances fin 2023. Analyse d’images : Indique si le modèle peut analyser des images. Cette information est disponible auprès du fournisseur de modèle et de l’hébergeur de modèle. Active uniquement ce paramètre si le modèle supporte la vision/l’analyse d’images. Les modèles qui permettent l’analyse d’images sont GPT-4o, GPT-4o mini, Claude et les modèles Gemini.Configurations de Modèle
Pour configurer la Configuration du Modèle, sélectionne le SDK que tu utilises. Tu trouveras des informations sur la configuration du fournisseur de modèle (par ex., Azure ou AWS) : SDK : Le kit ou la bibliothèque que Langdock doit utiliser pour le modèle que tu as ajouté. URL de Base : Pour envoyer les prompts à l’endpoint correspondant de ton modèle. ID du Modèle : Le nom du modèle dans ta configuration (cela peut ne pas être le nom “officiel” du modèle, comme GPT-4o). Clé API : Permet à tes utilisateurs de s’authentifier en utilisant le modèle depuis Langdock lorsqu’ils envoient des prompts. Taille du Contexte : Le nombre de tokens que le modèle peut traiter dans sa fenêtre de contexte. Utilise la valeur exacte du modèle pour t’assurer que la gestion du contexte dans Langdock fonctionne correctement.Autres options de configuration
Maximum de messages en 3 heures : Te permet d’influencer l’utilisation/les coûts et de limiter les messages par utilisateur. Ce paramètre est optionnel. Tarification des tokens d’entrée et de sortie : Te permet de définir la tarification des tokens du modèle individuel pour surveiller l’utilisation et les coûts. Effort de Raisonnement : Détermine combien de calcul le modèle dépense sur le raisonnement. Des valeurs plus élevées améliorent la qualité mais entraînent une latence et des tokens supplémentaires. Valeurs acceptées : Minimal, Faible, Moyen, Élevé. (Uniquement pour les modèles GPT-5.) Verbosité : Contrôle le niveau de détail dans la réponse finale du modèle. Valeurs acceptées : Faible, Moyen, Élevé. (Uniquement pour les modèles GPT-5.) Visible pour tout le monde : Tu peux définir le modèle pour qu’il soit visible par tout le monde dans le workspace. Si cette option est désactivée, le modèle n’est visible que pour les admins et ne peut pas être utilisé par d’autres utilisateurs. Cela te permet de tester le modèle avant de le lancer à l’ensemble du workspace. Mode maintenance : Peut être activé pour montrer aux utilisateurs dans l’interface que le modèle pourrait ne pas fonctionner comme prévu. Cela est utile si tu changes une configuration ou s’il y a un problème temporaire avec le modèle de ton fournisseur de modèle.Étapes finales
- Après avoir entré tous les paramètres obligatoires, clique sur Sauvegarder
- On te recommande de tester le modèle avant de le rendre visible à tout le monde. Envoie un message au modèle et vérifie s’il y a une réponse générée par le modèle. Si tu rencontres des problèmes, contacte [email protected]
Cas spéciaux lors de la configuration
Mistral depuis Azure : Assure-toi de sélectionner “Mistral” comme SDK. Claude depuis AWS Bedrock : L’URL de Base doit contenir la “clé d’accès” / “Zugriffsschlüssel”. Flux depuis Replicate : Le champ URL de base doit avoir le chemin complet du modèle, pas seulement l’URL de base. Pour Flux 1.1 Pro c’est :https://api.replicate.com/v1/models/black-forest-labs/flux-1.1-pro/predictions