Zum Hauptinhalt springen
Mistral-Modelle können direkt in Langdock über die Mistral API konfiguriert werden.

Voraussetzungen

Bevor du Mistral-Modelle einrichtest, benötigst du:
  1. Ein Mistral-Konto auf console.mistral.ai
  2. Einen API-Schlüssel von der Mistral-Plattform
  3. Admin-Zugriff auf deinen Langdock-Workspace

Einrichtungsschritte

  1. Gehe zu den Modelleinstellungen und klicke auf Modell hinzufügen
  2. Konfiguriere die Anzeigeeinstellungen:
    • Anbieter: Mistral
    • Modellname: Das Modell, das du hinzufügen möchtest (z.B. Mistral Large, Codestral)
    • Hosting-Anbieter: Mistral (oder Azure, wenn du Azure-gehostete Mistral-Modelle verwendest)
    • Region: Wähle die passende Region
    • Bildanalyse: Deaktiviert für reine Textmodelle, aktiviert für multimodale Varianten
  3. Konfiguriere die Modellkonfiguration:
    • SDK: Wähle Mistral
    • Base URL: Leer lassen für den Standard (https://api.mistral.ai/v1) oder einen benutzerdefinierten Endpunkt angeben
    • Modell-ID: Verwende die offizielle Modellkennung (siehe Modell-IDs unten)
    • API-Schlüssel: Füge deinen Mistral API-Schlüssel ein
    • Kontextgröße: Entsprechend dem Modell einstellen (prüfe Mistrals Dokumentation für aktuelle Werte)
  4. Klicke auf Speichern und teste das Modell mit einem Prompt, bevor du es für alle Nutzer sichtbar machst

Modell-IDs

Mistral verwendet das -latest-Suffix, um immer auf die aktuelle Version jedes Modells zu verweisen:
Modell-IDTyp
mistral-large-latestFlagship-Modell — komplexes Reasoning, mehrsprachig, Instruktionsbefolgung
codestral-latestCode-spezialisiert — Code-Generierung, Vervollständigung und technische Aufgaben
mistral-small-latestSchnell und kosteneffektiv — gut für alltägliche Aufgaben
Prüfe Mistrals Modell-Dokumentation für die vollständige Liste der verfügbaren Modelle, ihre Spezifikationen und Kontextgrößen.

Mistral über Azure verwenden

Wenn du Mistral-Modelle verwendest, die auf Azure gehostet werden (über Azure AI Models-as-a-Service), musst du trotzdem “Mistral” als SDK in Langdock auswählen. Die SDK-Auswahl bezieht sich auf das API-Format, nicht auf den Hosting-Anbieter.
Bei der Konfiguration von Azure-gehosteten Mistral-Modellen:
  • Setze den Hosting-Anbieter in den Anzeigeeinstellungen auf Azure
  • Setze das SDK in der Modellkonfiguration auf “Mistral”
  • Verwende deinen Azure-Endpunkt als Base URL
  • Verwende deinen Azure API-Schlüssel

Konfigurationshinweise

  • Mistral-Modelle unterstützen Tool-Aufrufe nativ
  • Der Standard-API-Endpunkt https://api.mistral.ai/v1 wird automatisch verwendet, wenn keine benutzerdefinierte Base URL angegeben wird
  • Mistral-Modelle sind bekannt für starke mehrsprachige Fähigkeiten, besonders bei europäischen Sprachen

Fehlerbehebung

Modell antwortet nicht:
  • Überprüfe, ob dein API-Schlüssel gültig ist und nicht abgelaufen ist
  • Stelle sicher, dass du ausreichend Guthaben in deinem Mistral-Konto hast
  • Vergewissere dich, dass die Modell-ID exakt übereinstimmt (Groß-/Kleinschreibung beachten)
Authentifizierungsfehler mit Azure:
  • Überprüfe, ob du “Mistral” als SDK verwendest, nicht “Azure OpenAI”
  • Verifiziere, dass deine Azure-Endpunkt-URL korrekt und erreichbar ist
  • Stelle sicher, dass dein Azure API-Schlüssel die erforderlichen Berechtigungen hat
Langsame Antworten:
  • Größere Modelle können bei komplexen Reasoning-Aufgaben länger dauern
  • Erwäge ein kleineres Modell für schnellere Antworten bei einfacheren Aufgaben
Bei Problemen kontaktiere support@langdock.com.