Skip to main content
Chaque fois que tu soumets un prompt et l’envoies au modèle, une réponse est générée et te revient. Des coûts surviennent pour le modèle IA sous-jacent pour cette génération de réponse.

Options pour les coûts LLM

Il existe deux options pour payer ces coûts au fournisseur de modèle (par ex., Microsoft Azure pour les modèles GPT) :

Option 1 : Forfait pour les coûts LLM

  • Tu utilises les clés API de Langdock depuis Microsoft, par exemple
  • Toute l’utilisation est facturée via Langdock
  • Langdock offre à tous les utilisateurs du workspace l’accès à tous les modèles à un forfait
  • Ce forfait coûte actuellement 5 € par utilisateur par mois

Option 2 : Apporte tes propres clés (BYOK)

  • Tu apportes tes propres clés API du fournisseur de modèle (par exemple, Microsoft)
  • Pour Langdock, seuls les frais de licence pour la plateforme sont payés
  • Tous les coûts liés au modèle/à l’utilisation sont directement entre toi et le fournisseur de modèle
L’Option 1 est la version “tout compris” de Langdock, où tu n’as pas à configurer et gérer les clés de ton côté (obtenir les clés pour les modèles, demander des quotas, maintenir les modèles à jour, etc.). L’Option 2 a tendance à être un peu moins chère globalement. Note : Nous offrons l’utilisation de nos clés API à bas prix car nous ne voulons pas nous inciter à gagner de l’argent avec l’arbitrage d’API LLM et pour nous concentrer sur la construction d’une excellente couche applicative au-dessus des LLM.

Configuration de BYOK

Pour utiliser BYOK et ne pas payer le forfait pour les coûts LLM, BYOK doit être activé manuellement pour ton workspace par l’équipe Langdock. Sinon, ton workspace utilise toujours les modèles de Langdock en arrière-plan (pour les embeddings et la génération d’images). Ici est un guide sur comment configurer BYOK.