Zum Hauptinhalt springen
Es gibt drei grundlegende Techniken, die du beim Prompting von LLMs verwenden kannst. Zu verstehen, wann und wie du jede Technik einsetzt, hilft dir dabei, effektivere Prompts zu erstellen.

Zero-Shot-Prompting

Zero-Shot-Prompting bedeutet, das Modell aufzufordern, eine Aufgabe ohne Beispiele auszuführen. Da diese Modelle mit großen Datenmengen trainiert wurden, macht ihr internes Wissen sie fähig, eine Vielzahl von Aufgaben ohne Demonstrationen auszuführen. Stell dir vor: Du bittest einen Gitarrenspieler, Klavier zu spielen, obwohl er noch nie zuvor Klavier gespielt hat. Er würde sein bisheriges Wissen über Musik und Instrumente anwenden, um es herauszufinden. Beispiel: Prompt:
Klassifiziere den Text in die Kategorien zufrieden, neutral oder unzufrieden.

Text: Ich war heute mit dem Kundensupport zufrieden.
Output:
Zufrieden
Wann verwenden: Ideal für allgemeine Aufgaben wie Klassifizierung, Übersetzung und Beantwortung von Fragen mit vorhandenem Wissen. Die meisten Prompts, die wir verwenden, sind standardmäßig Zero-Shot-Prompts.

Few-Shot-Prompting

Few-Shot-Prompting bedeutet, Demonstrationen bereitzustellen, wie eine Aufgabe ausgeführt werden soll. Zusätzlich zum breiten, allgemeinen Wissen des KI-Modells sind die Few-Shots also spezifische Beispiele, die das Modell dazu anleiten, eine Aufgabe qualitativ hochwertiger auszuführen. Stell dir vor: Du zeigst einem Gitarrenspieler ein paar Klavierstücke, bevor du ihn bittest, zum ersten Mal Klavier zu spielen. Beispiel: Prompt:
Ich war heute mit dem Kundensupport zufrieden. - zufrieden
Das Produkt ist schrecklich! - sehr unzufrieden
Das ist eines der besten Produkte, das ich je benutzt habe. - sehr zufrieden
Das ist ein fantastisches Produkt! -
Output:
Sehr Zufrieden
Wann verwenden:
  • Bei komplexen oder nuancierten Aufgaben, bei denen das Format eine Rolle spielt
  • Wenn du eine konsistente Ausgabestruktur benötigst
  • 3-4 Beispiele funktionieren in der Regel am besten
Wichtige Einschränkung: Bei komplexen Denkaufgaben stößt Few-Shot-Prompting an seine Grenzen. Kombiniere es in diesen Fällen mit den Prinzipien des Chain-of-Thought-Promptings, um bessere Ergebnisse zu erzielen.

Chain-of-Thought-Prompting

Chain-of-Thought-Prompting verbessert die Qualität des Denkprozesses, indem es das Modell zwingt, seinen Denkprozess zu externalisieren, sodass es im Wesentlichen „seine Gedanken zeigt”. Dies ist besonders nützlich bei komplexen oder Randfällen, bei denen das Modell sonst halluzinieren oder logisch inkonsistente Ergebnisse liefern könnte. Drei bewährte Methoden:

1. Direkte Schritt-für-Schritt-Anweisungen

Füge „Denke Schritt für Schritt” zu deinen Prompts hinzu. Dieser einfache Satz veranlasst das Modell, komplexe Probleme in logische Komponenten zu zerlegen, anstatt voreilige Schlüsse zu ziehen.

2. Gib einen logischen Rahmen vor

Anstatt zu hoffen, dass das Modell den richtigen Ansatz findet, gib ihm einen genauen Rahmen vor, dem es folgen soll. Dadurch werden Fehler in der Argumentation reduziert, da der Lösungsweg eingeschränkt wird. Beispiel: Unstrukturierter Prompt:
Analysiere die Auswirkungen des Klimawandels auf die Populationen der Eisbären.
Strukturierter Prompt:
Analysiere die Auswirkungen des Klimawandels auf die Populationen der Eisbären mit dieser Methode:
1. Beschreibe den aktuellen Zustand der Eisbärenpopulationen
2. Nenne die wichtigsten Faktoren des Klimawandels, die sich auf ihren Lebensraum auswirken
3. Erläutere die direkten Auswirkungen (Lebensraumverlust, Jagdveränderungen)
4. Erläutere die indirekten Auswirkungen (Störung der Nahrungskette)
5. Fasse die Gesamtauswirkungen und mögliche Zukunftsszenarien zusammen

3. XML-Tags für die Trennung von Prozessen

Nutze die Tags <thinking></thinking> und <answer></answer>, um die Überlegungen vom Endergebnis zu trennen. So wird verhindert, dass das Modell seinen Arbeitsprozess mit dem fertigen Ergebnis vermischt, was besonders bei komplexen, mehrstufigen Problemen nützlich ist. Mehr dazu findest du in unserem Abschnitt über XML-Tags hier.

Schneller Vergleich

TechnikAm besten fürKomplexität
Zero-ShotAllgemeine Aufgaben, Klassifizierung, ÜbersetzungEinfach
Few-ShotAufgaben, die ein spezifisches Format oder nuancierte Ausgabe erfordernMittel
Chain-of-ThoughtKomplexe Denkaufgaben, mehrstufige ProblemeFortgeschritten

Techniken kombinieren

Du kannst diese Techniken für noch bessere Ergebnisse kombinieren:
  • Verwende Few-Shot-Beispiele mit Chain-of-Thought-Anweisungen für komplexe Denkaufgaben
  • Wende Chain-of-Thought-Prinzipien auf Zero-Shot-Prompts an, wenn du mit Randfällen arbeitest
  • Strukturiere Few-Shot-Beispiele mit Chain-of-Thought-Rahmen für konsistentes Denken