Skip to main content

1. Fournir les clés API requises

Tu as besoin de différents modèles pour que la plateforme fonctionne. Voici les modèles nécessaires pour couvrir toutes les fonctionnalités :

1.1 Modèle d’Embedding

  • Les modèles d’embedding traitent les documents et permettent au modèle de rechercher dans les documents téléchargés
  • Nous nécessitons actuellement la fourniture d’ADA v2 (text-embedding-ada-002)

1.2 Modèle de Base

  • Pour les titres de chat et les étapes de planification de modèles qui ne sont pas efficaces dans l’appel d’outils, un modèle de base est requis
  • On te recommande GPT-4.1 mini (gpt-4.1-mini) à cette fin

1.3 Modèle de Génération d’Images

  • Nous supportons Dall-E 3 (dall-e-3), GPT Image 1 et les modèles Google Imagen 3
  • Pour Google Imagen 3, suis le même processus de configuration que Gemini en utilisant l’ID de modèle imagen-3.0-generate-001

1.4 Modèles de Complétion

  • En plus de ces modèles indispensables, tu peux ajouter les modèles de complétion pour tes utilisateurs comme GPT-4o, o1, Claude 3.5 Sonnet, Gemini 1.5 Pro etc.
  • Nous supportons tous les modèles hébergés par Microsoft Azure, AWS, Google Vertex et OpenAI
  • Pour les quotas, n’importe quoi entre 200k et 500k devrait être bon pour couvrir l’utilisation d’environ 200 utilisateurs. Pour GPT-4o, le modèle le plus utilisé, tu pourrais avoir besoin d’un quota de 500k à 1 million de tokens

2. Contacter l’équipe Langdock

Après avoir reçu toutes les clés dont tu as besoin, contacte l’équipe Langdock. Nous conviendrons avec toi d’un créneau horaire pour activer BYOK de notre côté. Après cela, tu peux ajouter les différents modèles. Habituellement, cela se fait le soir lorsque moins d’utilisateurs sont actifs, car il peut y avoir un temps d’arrêt de quelques minutes pendant le changement de modèle.

3. Configurer tes modèles

Après l’activation de BYOK, tu peux ajouter les différents modèles dans les paramètres de modèles. Ici est un guide sur comment ajouter des modèles.
Remarque que les URL de base que nous fournissons incluent déjà le chemin d’endpoint complet, donc tu n’as pas besoin d’ajouter quoi que ce soit de supplémentaire.

4. Tester les modèles

Assure-toi que tous les modèles fonctionnent correctement. Voici comment tu peux tester les modèles :
  • Modèles de complétion : Envoie un prompt à chaque modèle que tu peux sélectionner dans l’interface (par ex., “écris une histoire sur les chiens”).
  • Modèle d’embedding : Télécharge un fichier et pose une question à son sujet (par ex., “qu’y a-t-il dans le fichier”). Le téléchargement devrait fonctionner et tu devrais recevoir une réponse basée sur le fichier.
  • Modèle d’image : Demande à n’importe quel modèle de générer une image. Tu devrais voir une image générée par le modèle en arrière-plan.
  • Modèle de base : Écris un message dans un nouveau chat et vérifie si un titre de chat est généré après l’envoi du prompt. (Assure-toi que le mode strict est désactivé pour ce modèle)
Contacte l’équipe Langdock s’il y a des problèmes ici.