Google Completion Endpoint (v1beta)
Dieser Endpoint stellt Google Gemini-Modelle zur Verfügung, die in Google Vertex AI gehostet werden.Er spiegelt die Struktur der offiziellen Vertex generateContent API wider. Um ihn zu verwenden, musst du:
1
Verfügbare Modelle abrufen
Rufe
GET //v1beta/models/ auf, um die Liste der Gemini-Modelle abzurufen.2
Modell & Aktion auswählen
Wähle eine Modell-ID und entscheide zwischen
generateContent oder streamGenerateContent.3
Anfrage senden
POST an
//v1beta/models/: mit deinem Prompt in contents.4
Antwort verarbeiten
Parse die JSON-Antwort für normale Aufrufe oder konsumiere die SSE-Events für Streaming.
eu oder us)• Optionales Server-Sent Event (SSE) Streaming mit denselben Event-Labels wie im Google Python SDK (
message_start, message_delta, message_stop)• Ein models Discovery-Endpoint
Base URL
Authentifizierung
Sende einen der folgenden Header mit deinem Langdock API Key: Alle Header werden identisch behandelt. Fehlende oder ungültige Schlüssel geben 401 Unauthorized zurück. Authorization Header Beispiel:1. Verfügbare Modelle auflisten
GET /{region}/v1beta/models
region muss eu oder us sein.
Erfolgreiche Antwort
Liste von Objekten mit der folgenden Struktur:
- name – Vollständig qualifizierter Modellname (z.B.
models/gemini-2.5-flash). - displayName – Menschenlesbarer Name, der in der Langdock UI angezeigt wird.
- supportedGenerationMethods – Immer
["generateContent", "streamGenerateContent"].
2. Content generieren
POST /{region}/v1beta/models/{model}:{action}
• model – Die Modell-ID wie vom models Endpoint zurückgegeben (ohne das models/ Präfix).• action –
generateContent oder streamGenerateContent je nachdem, ob du Streaming verwenden möchtest oder nicht.
Beispiel-Pfad: google/eu/v1beta/models/gemini-2.5-flash:streamGenerateContent
Request Body
Der Request Body folgt der offiziellenGenerateContentRequest Struktur.
Pflichtfelder
contents (Content[], erforderlich)Gesprächsverlauf. Jedes Objekt hat eine role (string) und parts Array mit Objekten, die text (string) enthalten.
model (string, erforderlich)Das Modell für die Generierung (z.B. “gemini-2.5-pro”, “gemini-2.5-flash”).
Optionale Felder
generationConfig (object, optional)Konfiguration für die Textgenerierung. Unterstützte Felder:
temperature(number): Steuert Zufälligkeit (0.0-2.0)topP(number): Nucleus-Sampling-Parameter (0.0-1.0)topK(number): Top-k-Sampling-ParametercandidateCount(number): Anzahl der zu generierenden Antwort-KandidatenmaxOutputTokens(number): Maximale Anzahl zu generierender TokenstopSequences(string[]): Sequenzen, die die Generierung stoppenresponseMimeType(string): MIME-Typ der AntwortresponseSchema(object): Schema für strukturierte Ausgabe
safetySettings (SafetySetting[], optional)Array von Safety-Setting-Objekten. Jedes Objekt enthält:
category(string): Die Harm-Kategorie (z.B. “HARM_CATEGORY_HARASSMENT”)threshold(string): Der Blocking-Schwellwert (z.B. “BLOCK_MEDIUM_AND_ABOVE”)
tools (Tool[], optional)Array von Tool-Objekten für Function Calling. Jedes Tool enthält ein
functionDeclarations Array mit:
name(string): Funktionsnamedescription(string): Funktionsbeschreibungparameters(object): JSON-Schema, das Funktionsparameter definiert
toolConfig (object, optional)Konfiguration für Function Calling. Enthält
functionCallingConfig mit:
mode(string): Function-Calling-Modus (“ANY”, “AUTO”, “NONE”)allowedFunctionNames(string[]): Array erlaubter Funktionsnamen
systemInstruction (string | Content, optional)Systemanweisung zur Steuerung des Modellverhaltens. Kann ein String oder Content-Objekt mit Rolle und Teilen sein.
Wenn
toolConfig.functionCallingConfig.allowedFunctionNames bereitgestellt wird, muss mode ANY sein.Minimales Beispiel
Streaming
Wenn actionstreamGenerateContent ist, gibt der Endpoint einen
text/event-stream mit kompatiblen Events zurück:
• message_start – erster Chunk, der Content enthält•
message_delta – nachfolgende Chunks•
message_stop – letzter Chunk (enthält finishReason und Nutzungs-Metadaten)
Beispiel message_delta Event:
Google-kompatible Bibliotheken verwenden
Der Endpoint ist vollständig kompatibel mit offiziellen Google SDKs, einschließlich der Vertex AI Node SDK (@google-cloud/vertexai), der Google Generative AI Python Bibliothek (google-generative-ai) und der Vercel AI SDK für Edge Streaming.Headers
API key as Bearer token. Format "Bearer YOUR_API_KEY"
Path Parameters
The region of the API to use.
Verfügbare Optionen:
eu, us The model ID (e.g., gemini-2.5-pro, gemini-2.5-flash).
Body
application/json
The content to generate a response for.