Voraussetzungen
Bevor du Mistral-Modelle einrichtest, benötigst du:- Ein Mistral-Konto auf console.mistral.ai
- Einen API-Schlüssel von der Mistral-Plattform
- Admin-Zugriff auf deinen Langdock-Workspace
Einrichtungsschritte
- Gehe zu den Modelleinstellungen und klicke auf Modell hinzufügen
-
Konfiguriere die Anzeigeeinstellungen:
- Anbieter: Mistral
- Modellname: Das Modell, das du hinzufügen möchtest (z.B. Mistral Large, Codestral)
- Hosting-Anbieter: Mistral (oder Azure, wenn du Azure-gehostete Mistral-Modelle verwendest)
- Region: Wähle die passende Region
- Bildanalyse: Deaktiviert für reine Textmodelle, aktiviert für multimodale Varianten
-
Konfiguriere die Modellkonfiguration:
- SDK: Wähle Mistral
- Base URL: Leer lassen für den Standard (
https://api.mistral.ai/v1) oder einen benutzerdefinierten Endpunkt angeben - Modell-ID: Verwende die offizielle Modellkennung (siehe Modell-IDs unten)
- API-Schlüssel: Füge deinen Mistral API-Schlüssel ein
- Kontextgröße: Entsprechend dem Modell einstellen (prüfe Mistrals Dokumentation für aktuelle Werte)
- Klicke auf Speichern und teste das Modell mit einem Prompt, bevor du es für alle Nutzer sichtbar machst
Modell-IDs
Mistral verwendet das-latest-Suffix, um immer auf die aktuelle Version jedes Modells zu verweisen:
| Modell-ID | Typ |
|---|---|
mistral-large-latest | Flagship-Modell — komplexes Reasoning, mehrsprachig, Instruktionsbefolgung |
codestral-latest | Code-spezialisiert — Code-Generierung, Vervollständigung und technische Aufgaben |
mistral-small-latest | Schnell und kosteneffektiv — gut für alltägliche Aufgaben |
Prüfe Mistrals Modell-Dokumentation für die vollständige Liste der verfügbaren Modelle, ihre Spezifikationen und Kontextgrößen.
Mistral über Azure verwenden
Wenn du Mistral-Modelle verwendest, die auf Azure gehostet werden (über Azure AI Models-as-a-Service), musst du trotzdem “Mistral” als SDK in Langdock auswählen. Die SDK-Auswahl bezieht sich auf das API-Format, nicht auf den Hosting-Anbieter.Konfigurationshinweise
- Mistral-Modelle unterstützen Tool-Aufrufe nativ
- Der Standard-API-Endpunkt
https://api.mistral.ai/v1wird automatisch verwendet, wenn keine benutzerdefinierte Base URL angegeben wird - Mistral-Modelle sind bekannt für starke mehrsprachige Fähigkeiten, besonders bei europäischen Sprachen
Fehlerbehebung
Modell antwortet nicht:- Überprüfe, ob dein API-Schlüssel gültig ist und nicht abgelaufen ist
- Stelle sicher, dass du ausreichend Guthaben in deinem Mistral-Konto hast
- Vergewissere dich, dass die Modell-ID exakt übereinstimmt (Groß-/Kleinschreibung beachten)
- Überprüfe, ob du “Mistral” als SDK verwendest, nicht “Azure OpenAI”
- Verifiziere, dass deine Azure-Endpunkt-URL korrekt und erreichbar ist
- Stelle sicher, dass dein Azure API-Schlüssel die erforderlichen Berechtigungen hat
- Größere Modelle können bei komplexen Reasoning-Aufgaben länger dauern
- Erwäge ein kleineres Modell für schnellere Antworten bei einfacheren Aufgaben