Zum Hauptinhalt springen
Die Modelle können im Hintergrund ein anderes Modell aufrufen, um Bilder zu generieren. Die aktuell in Langdock verfügbaren Bildmodelle umfassen unter anderem Flux1.1 Pro Ultra und Flux.1 Kontext von unserem deutschen Partner Black Forest Labs. Außerdem stehen Imagen 4, Imagen 4 Fast und Gemini 2.5 Flash Image (Nano Banana) von Google sowie DALL-E 3 und GPT Image 1 von OpenAI zur Verfügung. Die Bildgenerierung verwendet die folgenden Schritte:
  1. Über den „Bild“-Button im Chat-Feld kannst du ganz einfach Bilder generieren. Standardmäßig wird das voreingestellte Bildmodell genutzt, aber du kannst jederzeit über den Auswahl-Button ein anderes Modell wählen.
  2. Das von dir ausgewählte Modell wählt das Bildgenerierungstool und schreibt einen Prompt an das Bildmodell im Hintergrund.
  3. Das Bildmodell generiert das Bild basierend auf dem Prompt und gibt es an das Hauptmodell und dich als Nutzer zurück.
Du kannst jedes LLM für die Bildgenerierung auswählen. Jedes Modell sendet Prompts unterschiedlich an das zugrundeliegende Bildgenerierungsmodell weiter, also probiere gerne verschiedene Modelle aus und beobachte, wie sich die generierten Bilder unterscheiden. Hier ist eine bekannte Einschränkung, an der wir arbeiten:
  • Text in Bildern enthält Fehler / ist in nicht existierenden Buchstaben geschrieben:
    Das passiert, weil die Modelle mit echten Bildern trainiert wurde, die Text enthielten. Das Modell generiert Objekte, die dem ähneln, was es gelernt hat, kann aber noch keine vollständigen, korrekten Sätze schreiben. Stattdessen versucht es, Buchstaben aus dem Alphabet nachzuahmen, was zu falscher Rechtschreibung oder nicht existierenden Buchstaben führt. Das ist eine aktuelle Einschränkung von Bildgenerierungsmodellen, die OpenAI in kommenden Versionen aktiv verbessert.
I