Zum Hauptinhalt springen
Perplexity-Modelle können in Langdock über die Perplexity API konfiguriert werden. Diese Modelle sind besonders nützlich für suchgestützte Textgenerierung und kombinieren LLM-Fähigkeiten mit Echtzeit-Websuche.

Voraussetzungen

Bevor du Perplexity-Modelle einrichtest, benötigst du:
  1. Ein Perplexity-Konto auf perplexity.ai
  2. Einen API-Schlüssel aus den Perplexity API-Einstellungen
  3. Admin-Zugriff auf deinen Langdock-Workspace

Einrichtungsschritte

  1. Gehe zu den Modelleinstellungen und klicke auf Modell hinzufügen
  2. Konfiguriere die Anzeigeeinstellungen:
    • Anbieter: Perplexity
    • Modellname: Das Modell, das du hinzufügen möchtest (z.B. Sonar Pro, Sonar)
    • Hosting-Anbieter: Perplexity
    • Region: US (Perplexitys API wird in den USA gehostet)
    • Bildanalyse: Deaktiviert (Perplexity-Modelle unterstützen keine Bilderkennung)
  3. Konfiguriere die Modellkonfiguration:
    • SDK: Wähle Perplexity
    • Base URL: Leer lassen für den Standard (https://api.perplexity.ai) oder einen benutzerdefinierten Endpunkt angeben
    • Modell-ID: Verwende die offizielle Modellkennung (siehe Modell-IDs unten)
    • API-Schlüssel: Füge deinen Perplexity API-Schlüssel ein
    • Kontextgröße: Entsprechend dem Modell einstellen (prüfe Perplexitys Dokumentation für aktuelle Werte)
  4. Klicke auf Speichern und teste das Modell mit einem Prompt, bevor du es für alle Nutzer sichtbar machst

Modell-IDs

Perplexitys Sonar-Modellfamilie umfasst suchgestützte und Reasoning-Varianten:
Modell-IDTyp
sonar-proFortgeschrittene suchgestützte Generierung — detaillierte Antworten mit Quellenangaben
sonarSchnelle suchgestützte Antworten — gut für allgemeine Anfragen
sonar-reasoning-proTiefgreifende Analyse mit Suche — mehrstufiges Reasoning mit Quellenangaben
sonar-reasoningReasoning mit Suchunterstützung
Prüfe Perplexitys Modell-Dokumentation für die vollständige Liste der verfügbaren Modelle, ihre Spezifikationen und Kontextgrößen.

Konfigurationshinweise

  • Perplexity-Modelle haben integrierte Websuchfähigkeiten und haben daher immer Zugriff auf aktuelle Informationen
  • Der API-Endpunkt https://api.perplexity.ai wird automatisch verwendet, wenn keine benutzerdefinierte Base URL angegeben wird
  • Sonar Pro-Modelle liefern detailliertere Antworten mit besseren Quellenangaben
  • Reasoning-Varianten sind am besten für komplexe analytische Aufgaben geeignet, die von schrittweisem Denken profitieren

Fehlerbehebung

Modell antwortet nicht:
  • Überprüfe, ob dein API-Schlüssel gültig ist und nicht abgelaufen ist
  • Stelle sicher, dass du ausreichend Guthaben in deinem Perplexity-Konto hast
  • Vergewissere dich, dass die Modell-ID exakt übereinstimmt (Groß-/Kleinschreibung beachten)
Fehlende Quellenangaben:
  • Perplexity-Modelle fügen automatisch Quellenangaben hinzu, wenn die Websuche verwendet wird
  • Wenn Quellenangaben fehlen, hat das Modell möglicherweise aus seinem Basiswissen geantwortet
Langsame Antworten:
  • Perplexity-Modelle führen Websuchen durch, was zusätzliche Latenz verursacht
  • Sonar (nicht-Pro) Varianten sind schneller als Pro-Versionen
  • Für zeitkritische Aufgaben ohne Suchbedarf solltest du ein anderes Modell in Betracht ziehen
Bei Problemen kontaktiere support@langdock.com.