model
: Derzeit wird nur dastext-embedding-ada-002
Modell unterstützt.encoding_format
: Unterstützt sowohlfloat
als auchbase64
Formate.
Rate Limits
Die Rate Limit für den Embeddings-Endpunkt beträgt 500 RPM (Anfragen pro Minute) und 60.000 TPM (Token pro Minute). Rate Limits werden auf Workspace-Ebene definiert - und nicht auf API-Schlüssel-Ebene. Wenn du deine Rate Limit überschreitest, erhältst du eine429 Too Many Requests
Antwort.
Bitte beachte, dass die Rate Limits Änderungen unterliegen. Beziehe dich auf diese Dokumentation für die aktuellsten Informationen.
Falls du eine höhere Rate Limit benötigst, kontaktiere uns bitte unter support@langdock.com.
Verwendung von OpenAI-kompatiblen Bibliotheken
Da das Anfrage- und Antwortformat dasselbe wie bei der OpenAI API ist, kannst du beliebte Bibliotheken wie die OpenAI Python library oder das Vercel AI SDK verwenden, um die Langdock API zu nutzen.Beispiel mit der OpenAI Python-Bibliothek
Beispiel mit dem Vercel AI SDK in Node.js
Headers
API key as Bearer token. Format "Bearer YOUR_API_KEY"
Path Parameters
The region of the API to use.
eu
, us
Body
Input text to get embeddings for, encoded as a string or array of tokens. To get embeddings for multiple inputs in a single request, pass an array of strings or array of tokens, e.g. ["text1", "text2"]
. Each input must not exceed 8192 tokens in length.
ID of the model to use. You can use the List models API to see all of your available models, or see OpenAI's Model overview for descriptions of them.
The format to return the embeddings in. Can be either float
or base64
.
float
, base64
The number of dimensions the resulting output embeddings should have. Only supported in text-embedding-3
and later models.
x >= 1
A unique identifier representing your end-user, which can help OpenAI to monitor and detect abuse.