Nachdem wir nun die Grundlagen der Prompts behandelt haben, ist es an der Zeit, uns mit fortgeschrittenen Techniken zu befassen, die deine Fähigkeit verfeinern, präzise und leistungsstarke Prompts zu erstellen, wodurch sich neue Möglichkeiten und tiefere Interaktionen mit LLMs eröffnen. Es gibt einige Techniken, die du beim Prompting von LLMs verwenden kannst. Die erste ist “Zero-Shot-Prompting”. Da diese Modelle mit einer großen Datenmenge trainiert wurden, macht ihr internes Wissen sie fähig, eine Vielzahl von Aufgaben ohne Beispiele oder präzise Demonstrationen auszuführen. Sobald wir anleitende Beispiele setzen, sprechen wir von Few-Shot-Prompting. Wir können uns Zero-Shot-Prompting wie jemanden vorstellen, der einen Gitarrenspieler bittet, Klavier zu spielen, obwohl er noch nie zuvor Klavier gespielt hat. Er würde sein bisheriges Wissen über Musik und Instrumente anwenden, um Klavier zu spielen. Die meisten Prompts, die wir verwenden, sind standardmäßig Zero-Shot-Prompts. Ein Beispiel könnte sein: Prompt:
Klassifiziere den Text in die Kategorien zufrieden, neutral oder unzufrieden.
Text: Ich war heute mit dem Kundensupport zufrieden.
Output:
Zufrieden
Das Modell verarbeitet die Eingabe und generiert die richtige Ausgabe, da es anhand von Millionen von Beispielen für ähnliche Klassifizierungsaufgaben trainiert wurde. Wann sollte welcher Ansatz verwendet werden?
  • Zero-Shot-Prompting: Ideal für allgemeine Aufgaben wie Klassifizierung, Übersetzung und Beantwortung von Fragen mit vorhandenem Wissen.
  • Few-Shot-Prompting: Besser geeignet, wenn du differenzierte Ergebnisse, komplexe Schlussfolgerungen oder bestimmte Ausgabeformate benötigst.