POST
/
openai
/
{region}
/
v1
/
embeddings
Creates embeddings for the given input text.
curl --request POST \
  --url https://api.langdock.com/openai/{region}/v1/embeddings \
  --header 'Authorization: <authorization>' \
  --header 'Content-Type: application/json' \
  --data '{
  "model": "text-embedding-ada-002",
  "input": "The quick brown fox jumps over the lazy dog",
  "encoding_format": "float"
}'
{
  "data": [
    {
      "embedding": [
        0.0023064255,
        -0.009327292,
        "..."
      ],
      "index": 0,
      "object": "embedding"
    }
  ],
  "model": "text-embedding-ada-002",
  "object": "list",
  "usage": {
    "prompt_tokens": 9,
    "total_tokens": 9
  }
}
In dedizierten Deployments wird api.langdock.com auf <Base URL>/api/public abgebildet
Erstellt Embeddings für Text mit OpenAIs Embedding-Modellen. Dieser Endpunkt folgt der OpenAI API specification und die Anfragen werden an den Azure OpenAI-Endpunkt gesendet.
Um die API zu nutzen, benötigst du einen API-Schlüssel. Administratoren können API-Schlüssel in den Einstellungen erstellen.
Alle Parameter vom OpenAI Embeddings endpoint werden gemäß den OpenAI-Spezifikationen unterstützt, mit folgenden Ausnahmen:
  • model: Derzeit wird nur das text-embedding-ada-002 Modell unterstützt.
  • encoding_format: Unterstützt sowohl float als auch base64 Formate.

Rate Limits

Die Rate Limit für den Embeddings-Endpunkt beträgt 500 RPM (Anfragen pro Minute) und 60.000 TPM (Token pro Minute). Rate Limits werden auf Workspace-Ebene definiert - und nicht auf API-Schlüssel-Ebene. Wenn du deine Rate Limit überschreitest, erhältst du eine 429 Too Many Requests Antwort. Bitte beachte, dass die Rate Limits Änderungen unterliegen. Beziehe dich auf diese Dokumentation für die aktuellsten Informationen. Falls du eine höhere Rate Limit benötigst, kontaktiere uns bitte unter support@langdock.com.

Verwendung von OpenAI-kompatiblen Bibliotheken

Da das Anfrage- und Antwortformat dasselbe wie bei der OpenAI API ist, kannst du beliebte Bibliotheken wie die OpenAI Python library oder das Vercel AI SDK verwenden, um die Langdock API zu nutzen.

Beispiel mit der OpenAI Python-Bibliothek

from openai import OpenAI
client = OpenAI(
  base_url="https://api.langdock.com/openai/eu/v1",
  api_key="<YOUR_LANGDOCK_API_KEY>"
)

embedding = client.embeddings.create(
  model="text-embedding-ada-002",
  input="The quick brown fox jumps over the lazy dog",
  encoding_format="float"
)

print(embedding.data[0].embedding)

Beispiel mit dem Vercel AI SDK in Node.js

import { createOpenAI } from "@ai-sdk/openai";

const langdockProvider = createOpenAI({
  baseURL: "https://api.langdock.com/openai/eu/v1",
  apiKey: "<YOUR_LANGDOCK_API_KEY>",
});

const response = await langdockProvider.embeddings.create({
  model: "text-embedding-ada-002",
  input: "The quick brown fox jumps over the lazy dog",
  encoding_format: "float",
});

console.log(response.data[0].embedding);

Headers

Authorization
string
required

API key as Bearer token. Format "Bearer YOUR_API_KEY"

Path Parameters

region
enum<string>
required

The region of the API to use.

Available options:
eu,
us

Body

application/json
input
required

Input text to get embeddings for, encoded as a string or array of tokens. To get embeddings for multiple inputs in a single request, pass an array of strings or array of tokens, e.g. ["text1", "text2"]. Each input must not exceed 8192 tokens in length.

model
required

ID of the model to use. You can use the List models API to see all of your available models, or see OpenAI's Model overview for descriptions of them.

encoding_format
enum<string>
default:float

The format to return the embeddings in. Can be either float or base64.

Available options:
float,
base64
dimensions
integer

The number of dimensions the resulting output embeddings should have. Only supported in text-embedding-3 and later models.

Required range: x >= 1
user
string

A unique identifier representing your end-user, which can help OpenAI to monitor and detect abuse.

Response

OK

data
object[]
required

The list of embeddings generated by the model.

model
string
required

The name of the model used to generate the embedding.

object
enum<string>
required

The object type, which is always "list".

Available options:
list
usage
object
required