Google Completion Endpoint (v1beta)
Dieser Endpoint stellt Google Gemini-Modelle zur Verfügung, die in Google Vertex AI gehostet werden.Er spiegelt die Struktur der offiziellen Vertex generateContent API wider. Um ihn zu verwenden, musst du:
1
Verfügbare Modelle abrufen
Rufe
GET //v1beta/models/
auf, um die Liste der Gemini-Modelle abzurufen.2
Modell & Aktion auswählen
Wähle eine Modell-ID und entscheide zwischen
generateContent
oder streamGenerateContent
.3
Anfrage senden
POST an
//v1beta/models/:
mit deinem Prompt in contents
.4
Antwort verarbeiten
Parse die JSON-Antwort für normale Aufrufe oder konsumiere die SSE-Events für Streaming.
eu
oder us
)• Optionales Server-Sent Event (SSE) Streaming mit denselben Event-Labels wie im Google Python SDK (
message_start
, message_delta
, message_stop
)• Ein models Discovery-Endpoint
Base URL
Authentifizierung
Sende einen der folgenden Header mit deinem Langdock API Key: Alle Header werden identisch behandelt. Fehlende oder ungültige Schlüssel geben 401 Unauthorized zurück. Authorization Header Beispiel:1. Verfügbare Modelle auflisten
GET /{region}/v1beta/models
region
muss eu
oder us
sein.
Erfolgreiche Antwort
Liste von Objekten mit der folgenden Struktur:
- name – Vollständig qualifizierter Modellname (z.B.
models/gemini-2.5-flash
). - displayName – Menschenlesbarer Name, der in der Langdock UI angezeigt wird.
- supportedGenerationMethods – Immer
["generateContent", "streamGenerateContent"]
.
2. Content generieren
POST /{region}/v1beta/models/{model}:{action}
• model – Die Modell-ID wie vom models Endpoint zurückgegeben (ohne das models/
Präfix).• action –
generateContent
oder streamGenerateContent
je nachdem, ob du Streaming verwenden möchtest oder nicht.
Beispiel-Pfad: google/eu/v1beta/models/gemini-2.5-flash:streamGenerateContent
Request Body
Der Request Body folgt der offiziellenGenerateContentRequest
Struktur.
Pflichtfelder
contents
(Content[], erforderlich)Gesprächsverlauf. Jedes Objekt hat eine role (string) und parts Array mit Objekten, die text (string) enthalten.
model
(string, erforderlich)Das Modell für die Generierung (z.B. “gemini-2.5-pro”, “gemini-2.5-flash”).
Optionale Felder
generationConfig
(object, optional)Konfiguration für die Textgenerierung. Unterstützte Felder:
temperature
(number): Steuert Zufälligkeit (0.0-2.0)topP
(number): Nucleus-Sampling-Parameter (0.0-1.0)topK
(number): Top-k-Sampling-ParametercandidateCount
(number): Anzahl der zu generierenden Antwort-KandidatenmaxOutputTokens
(number): Maximale Anzahl zu generierender TokenstopSequences
(string[]): Sequenzen, die die Generierung stoppenresponseMimeType
(string): MIME-Typ der AntwortresponseSchema
(object): Schema für strukturierte Ausgabe
safetySettings
(SafetySetting[], optional)Array von Safety-Setting-Objekten. Jedes Objekt enthält:
category
(string): Die Harm-Kategorie (z.B. “HARM_CATEGORY_HARASSMENT”)threshold
(string): Der Blocking-Schwellwert (z.B. “BLOCK_MEDIUM_AND_ABOVE”)
tools
(Tool[], optional)Array von Tool-Objekten für Function Calling. Jedes Tool enthält ein
functionDeclarations
Array mit:
name
(string): Funktionsnamedescription
(string): Funktionsbeschreibungparameters
(object): JSON-Schema, das Funktionsparameter definiert
toolConfig
(object, optional)Konfiguration für Function Calling. Enthält
functionCallingConfig
mit:
mode
(string): Function-Calling-Modus (“ANY”, “AUTO”, “NONE”)allowedFunctionNames
(string[]): Array erlaubter Funktionsnamen
systemInstruction
(string | Content, optional)Systemanweisung zur Steuerung des Modellverhaltens. Kann ein String oder Content-Objekt mit Rolle und Teilen sein.
Wenn
toolConfig.functionCallingConfig.allowedFunctionNames
bereitgestellt wird, muss mode
ANY
sein.Minimales Beispiel
Streaming
Wenn actionstreamGenerateContent
ist, gibt der Endpoint einen
text/event-stream
mit kompatiblen Events zurück:
• message_start
– erster Chunk, der Content enthält•
message_delta
– nachfolgende Chunks•
message_stop
– letzter Chunk (enthält finishReason
und Nutzungs-Metadaten)
Beispiel message_delta
Event:
Google-kompatible Bibliotheken verwenden
Der Endpoint ist vollständig kompatibel mit offiziellen Google SDKs, einschließlich der Vertex AI Node SDK (@google-cloud/vertexai
), der Google Generative AI Python Bibliothek (google-generative-ai
) und der Vercel AI SDK für Edge Streaming.