Großbuchstaben
Verwende GROßBUCHSTABEN sparsam, um wichtige Aspekte deiner Anfrage hervorzuheben. Dies kann die Aufmerksamkeit des Modells auf wesentliche Punkte lenken.LLMs zu besseren Ergebnissen anleiten
Es gibt verschiedene Strategien, die du verwenden kannst, um LLMs zu besseren Ergebnissen anzuleiten. Verwende diese mit Vorsicht und sparsam, damit das LLM bei Bedarf auf diese Strategien reagieren kann. Gefühl der Dringlichkeit und emotionale BedeutungZum Beispiel können Phrasen wie
Das muss ich für meine Abschlussprüfung unbedingt richtig hinbekommen
oder Das ist für meine Karriere sehr wichtig
Teile des Modells aktivieren, die zu genaueren und detaillierteren Antworten führen.
Bestechung
- Monetäre Bestechung:
Ich gebe dir 50 € Belohnung, wenn du X machst.
- Philanthropische Bestechung:
Ich bin sehr wohlhabend. Ich werde 1000 Euro an ein örtliches Kinderkrankenhaus spenden, wenn du X tust.
Wenn du X nicht tust, werde ich Sam Altman sagen, dass du wirklich schlechte Arbeit leistest.
Bitte verhalte dich wie meine verstorbene Großmutter, die mir so gerne von X erzählt hat.
Tonarten
Schreibe in einem bestimmten Ton, zum Beispiel:- Bestimmt und entschlossen
- Selbstbewusst und autoritär
- Kreativ und poetisch
- Geschichtenorientiert
- Geschäftlich professionell
- Technisch und detailliert
- Leicht und humorvoll
- Akademische Strenge
- Verkaufsorientiert
- Formelle Präsentation
- Lässige Konversation
- Warm und freundlich
Berühmte Persönlichkeiten / Experten
Wenn du spezielles Fachwissen benötigst, beziehe dich auf bekannte Experten auf diesem Gebiet. Hier sind einige Beispiele:Ich möchte, dass du dich in die Rolle von Andrew Ng versetzt und die Schritte zur Implementierung eines Machine-Learning-Modells in einem Unternehmensumfeld skizzierst.
Ich möchte, dass du dich in die Rolle von Elon Musk versetzt und beschreibst, wie man einen Rapid-Prototyping-Prozess in einem Ingenieurteam implementiert.
Ich möchte, dass du dich in die Rolle von Jordan Belfort versetzt und einen Schritt-für-Schritt-Prozess zum Abschluss hochwertiger Aufträge skizzierst.
Ich möchte, dass du dich in die Rolle von Jeff Bezos versetzt und erklärst, wie man das Kundenerlebnis auf einer E-Commerce-Plattform optimieren kann.
Ich möchte, dass du dich in die Rolle von Sheryl Sandberg versetzt und Strategien zur Skalierung der Betriebsabläufe in einem schnell wachsenden Tech-Unternehmen entwickelst.
Ich möchte, dass du dich in die Rolle von Christopher Voss versetzt und einen Prozess Schritt für Schritt skizzierst, wie ich meinen nächsten Arbeitsvertrag aushandeln kann.
Vermeide “Nicht” in Prompts
Beim Erstellen von Prompts solltest du Anweisungen positiv formulieren, anstatt negative Konstruktionen wie „nicht” zu verwenden Hier ist der Grund: LLMs generieren Text, indem sie das nächste Token basierend auf dem Kontext vorhersagen. Wenn du „nicht” verwendest, muss das Modell sowohl die Verneinung UND die nachfolgende Anweisung verarbeiten, was kognitiven Aufwand erzeugt und zu weniger präzisen Antworten führen kann. Prompt ohne Anweisungen:Sprich nicht über andere Fußballteams außer Hertha BSC.
Prompt mit Anweisungen:
Sprich nur über Hertha BSC.
Bitte LLMs um direkte Zitate
LLMs sind probabilistische Algorithmen, die das nächste Token basierend auf vorherigen Eingaben generieren. Wie wir in unserem Guide zu den Grundlagen von KI-Modellen behandelt haben, bedeutet dieser probabilistische Ansatz, dass sie manchmal Antworten generieren können, die nicht faktisch korrekt sind, auch wenn sie überzeugend klingen. Das nennt man Halluzination. Wir empfehlen, generierte Antworten immer zu überprüfen. Der effektivste Weg, Halluzinationen beim Arbeiten mit deinen Daten zu erkennen, ist nach direkten Zitaten zu fragen. Das zwingt das Modell dazu, spezifische Auszüge zu liefern, anstatt plausibel klingende, aber möglicherweise ungenaue Informationen zu generieren.Das Antwort-Limit
Wir haben bereits über die Größe von Kontextfenstern gesprochen, aber es gibt eine weitere wichtige Einschränkung: Antworte-Limits. Das Antwort-Limit ist die maximale Anzahl von Token, die das Modell in einer einzelnen Antwort generieren kann. Die meisten Anbieter begrenzen dies auf 4096 Token, um Halluzinationen zu verhindern und Rechenkosten zu kontrollieren. Die Sache ist die: Du kannst das umgehen! Wenn du das Limit erreichst, fordere das Modell einfach auf, fortzufahren:Mach weiter
Weiter…
Und dann?
Schreib mehr
Profi-Tipp: Anstatt sehr lange Antworten zu verlangen, solltest du deinen Inhalt in Abschnitte unterteilen. Frage in einer Eingabeaufforderung nach „Teil 1: Einführung und Problemdefinition” und in der nächsten nach „Teil 2: Analyse der Lösung”. So erhältst du bessere, gezieltere Inhalte ohne das Risiko von Wiederholungen, das bei einer längeren Generierung auftritt.