(summarized and translated into German / zusammengefasst und ins Deutsche übersetzt von Schulhoff et al., 2024. Bild mit DALL·E 3 generiert.)
Zero-Shot
Sie geben der KI in Ihrem Prompt keine Beispiele vor.
Role Prompting
Sie geben in einer Rolle vor, wie die Antwort formuliert werden soll.
Schreibe mir einen Bericht über Österreich. In der Rolle eines Reisebloggers.
Style Prompting
Sie geben den Ton, Stil oder Genre der Antwort vor.
Schreibe mir einen verspielten, emotionalen Bericht über Österreich.
Emotion Prompting
Sie können mit psychologischen wichtigen Phrasen die Antworten einer LLM verbessern.
Schreibe mir einen Bericht über Österreich. Das ist wichtig für meine Karriere.
Self-Ask
Sie lassen sich im Prompt Fragen zum Thema generieren, auf die sie im Folge-Prompt beantworten.
Ich möchte einen Bericht über Österreich schreiben. Stelle mir 10 Fragen, um diesen Bericht zu schreiben.
Few-Shot
Anhand von Beispielen im Prompt geben sie der KI vor, welche Antwort sie erwarten.
Vote-K
In einer ersten Anfrage lassen sie sich Beispiele generieren, die Sie in einem Folge-Prompt bewerten. So geben Sie der KI vor, wie sie vorgehen soll.
Nenne mir unterschiedliche Länder Europas.
6xA – Few-Shot Prompt-Design Richtlinie
Ihre Beispiele im Few-Shot Prompt sollen der KI gut vermitteln, was die Aufgabe ist. Beachten Sie folgende sechs Richtlinien, jeweils mit Beispiel. Randnotiz: Leider lassen sich nicht alle Richtlinien auf alle Anwendungsfälle anwenden.
Anzahl
Geben Sie so viele Beispiele wie möglich. Decken Sie das Themengebiet ab.
- Deutschland, Fachabitur: EQR 4
- Österreich, Berufsreifeprüfung:
Anordnung
Eine zufällige Anordnung der Beispiele verhindert, dass andere Systematiken von der KI erkannt werden, als eigentlich erwünscht.
- Österreich, Lehrabschluss: EQR 4
- Österreich, Matura: EQR 5
- Deutschland, Fachabitur: EQR 4
- Deutschland, Abitur: EQR 5
- Österreich, Bachelorabschluss:
Ausgewogenheit
Achten Sie auf eine ausgewogene Verteilung der Beispiele.
- Österreich, Matura: EQR 5
- Deutschland, Meisterbrief: EQR 5
- Österreich, Berufsreifeprüfung: EQR 5
- Österreich, Bachelorabschluss:
Aufbereitung
Achten Sie bei der Aufbereitung der Beispiele darauf, dass diese auch korrekt sind.
- Österreich, Abitur: EQR 5
- Deutschland, Matura: EQR 9
- Österreich, Lehrabschluss: EQR 4
- Deutschland, Meisterbrief: EQR 5
- Österreich, Bachelorabschluss:
Aufbau
Die Struktur soll einfach zu fassen sein. Zu viele (Sonder-)Zeichen können das Model ablenken.
- @Deutschland [Realschulabschluss] ===> EQR 3
- @Österreich [Lehrabschluss] ===> EQR 4
- @Deutschland [Meisterbrief] ===> EQR 5
- @Österreich [Bachelorabschluss] ===>
Angemessenheit
Die Beispiele sollen angemessen für Ihre Anfrage sein.
- Deutschland, Meisterbrief: EQR 5
- Deutschland, Fachabitur: EQR 4
- Deutschland, Realschulabschluss: EQR 3
- Deutschland, Hauptschulabschluss: EQR 2
- Österreich, Bachelorabschluss:
Ein gutes Beispiel
Österreich, Matura: EQR 5
Deutschland, Realschulabschluss: EQR 3
Österreich, Lehrabschluss: EQR 4
Deutschland, Meisterbrief: EQR 5
Österreich, Bachelorabschluss:
Chain-of-Thought – Gedanken Generierung
Sie lassen sich den Gedankengang ausgeben, bevor die finale Antwort gegeben werden soll. Speziell für logische oder argumentierende Prompts erzielen Sie damit bessere Ergebnisse.
Zero-Shot-CoT
Mit Phrasen wie „Lass uns das Schritt für Schritt durchdenken.“ oder „Zuerst sollten wir das Problem logisch analysieren.“ können sie einen CoT Prompt einfach gestalten.
Ich möchte einen guten Espresso zubereiten. Gehen wir das Schritt für Schritt durch.
Step-Back Prompting
Der Prompt stellt zuerst eine allgemeine Frage zu relevanten Konzepten, bevor die detaillierte Argumentation generiert wird.
Welche wichtigen Faktoren sollten wir berücksichtigen, um einen guten Espresso zuzubereiten, bevor wir die Schritte durchgehen?
Thread-of-Thought (ThoT) Prompting
Anstatt des Zero-Shot-CoT „Lass uns das Schritt für Schritt durchdenken“ wird hier die Phrase „Führe mich durch diesen Kontext in handlichen Teilen Schritt für Schritt, zusammenfassend und analysierend, während wir voranschreiten“ verwendet. Dieser Ansatz eignet sich besonders gut bei großen, komplexen Kontexten.
Ich möchte einen perfekten Espresso zubereiten. Führe mich durch diesen Prozess in handlichen Teilen Schritt für Schritt, zusammenfassend und analysierend, während wir voranschreiten.
Active Prompting
Der Prompt startet mit Trainingsfragen, die das Modell löst. Bei Unsicherheiten werden die problematischsten Beispiele von Menschen überarbeitet.
Wie bereite ich einen guten Espresso zu?
Wenn bei der Antwort Unschärfen, etwa bei der optimalen Wassertemperatur, werden menschliche Experten diese Anweisung überarbeiten, um die Antwort zu präzisieren.
Decomposition
Die Decomposition-Methode zielt darauf ab, komplexe Probleme in einfachere Teilfragen zu zerlegen. Vergleichbar mit den Ansätzen der Chain of Thought (CoT)-Technik, werden Probleme gezielt zerlegt.
Least-to-Most Prompting
Der Prompt fordert auf, ein Problem in Teilprobleme zu zerlegen, ohne diese sofort zu lösen. Anschließend werden die Teilprobleme nacheinander gelöst, wobei die Antworten des Modells jeweils zum Prompt hinzugefügt werden, bis das endgültige Ergebnis erreicht ist.
Wie bereite ich einen perfekten Espresso zu? Lass uns das Problem in kleinere Schritte unterteilen, ohne sie direkt zu lösen.
Plan-and-Solve Prompting
Diese Methode erzeugt zuerst einen Plan und führt in dann schrittweise aus. Ein robusterer Ansatz als das Standard-Zero-Shot-CoT.
Ich möchte einen perfekten Espresso zubereiten. Lass uns zuerst das Problem verstehen und einen Plan entwickeln, um es zu lösen. Dann führen wir den Plan Schritt für Schritt aus.
Ensembling
Mehrere Prompts werden verwendet, um ein Problem zu lösen und fasst die Antworten zu einem Ergebnis zusammen, oft durch eine (Mehrheits-)Entscheidung. Das verbessert die Genauigkeit, erfordert aber mehr Rechenleistung oder Nachbearbeitung.
Self-Consistency
Die generative KI wird mit demselben Prompt verwendet. Durch Randomisierungsfaktoren kommt es oft zu kleinen Unterschieden in den Antworten der generativen KI. Am Ende wird die häufigste Antwort per Mehrheitsentscheidung gewählt.
Wie bereite ich einen Espresso zu?
Mögliche Antworten
Antwort 1: Mahle 18g Kaffeebohnen fein, tampe fest und brühe 30 Sekunden.
Antwort 2: Verwende 20g Espresso, presse das Pulver und extrahiere in 25-30 Sekunden.
Antwort 3: Mahle die Bohnen fein, fülle sie in den Siebträger und extrahiere 25 Sekunden.
DiVeRSe
Mehrere unterschiedliche Prompts werden verwendet, um verschiedene Antworten zu erzeugen. Dann prüft ein Verifikationsprozess diese Antworten und wählt die beste aus, um die Genauigkeit zu verbessern.
Prompt 1 (Schritt-für-Schritt) “Beschreibe, wie man Espresso in einer Espressomaschine zubereitet, beginnend mit dem Mahlen der Bohnen bis hin zum Aufbrühen.”
Prompt 2 (Vorgehensweise) “Wie bereitet man einen Espresso zu, wenn man eine Espressomaschine und frische Bohnen verwendet? Welche Schritte sind notwendig?”
Prompt 3 (Kurze Anweisung) “Gib eine einfache Anleitung für die Zubereitung eines perfekten Espresso mit einer Siebträgermaschine.”
Prompt 4 (Expertenwissen) “Was sind die wichtigsten Faktoren bei der Zubereitung von Espresso, um eine optimale Extraktion zu erreichen?”
Prompt 5 (Problemfokus) “Welche Fehler sollte man vermeiden, wenn man Espresso zubereitet, und wie kann man sie korrigieren?”
Self-Criticism
Über den Prompt wird das Sprachmodell dazu angeregt, seine eigenen Ausgaben zu hinterfragen.
Self-Calibration
Beim Self-Calibration-Ansatz wird ein Sprachmodell zunächst aufgefordert, eine Frage zu beantworten. Anschließend wird ein neuer Prompt erstellt, der die ursprüngliche Frage, die Antwort des Modells und eine zusätzliche Anweisung enthält, die fragt, ob die gegebene Antwort korrekt ist. Dieser Prozess ist nützlich, um das Vertrauen in die Antwort des Modells zu beurteilen und zu entscheiden, ob die ursprüngliche Antwort akzeptiert oder überarbeitet werden sollte.
Erster Prompt:
Wie bereite ich einen perfekten Espresso zu?
Antwort des Modells:
Mahlen Sie die Bohnen fein und extrahieren Sie den Espresso bei 85°C für 30 Sekunden.
Self-Calibration Prompt:
Die Frage lautete: ‚Wie bereite ich einen perfekten Espresso zu?‘ Deine Antwort war: ‚Mahlen Sie die Bohnen fein und extrahieren Sie den Espresso bei 85°C für 30 Sekunden.‘
Ist diese Antwort korrekt?
Selbstkalibrierte Antwort:
Die Antwort ist teilweise korrekt, aber die optimale Temperatur für Espresso liegt eher bei 92°C, nicht bei 85°C. Die Extraktionszeit ist angemessen, könnte aber je nach Geschmack etwas angepasst werden.
Chain-of-Verification (COVE)
Der Prompt erstellt zunächst eine Antwort auf eine gegebene Frage. Anschließend erstellt es eine Liste verwandter Fragen, die zur Überprüfung der Richtigkeit der ursprünglichen Antwort dienen. Jede dieser Fragen wird vom Modell beantwortet, und alle gewonnenen Informationen werden genutzt, um eine endgültige, überarbeitete Antwort zu erstellen. Diese Methode hat sich bei verschiedenen Aufgaben im Bereich Frage-Antwort und Textgenerierung als vorteilhaft erwiesen.
Erster Prompt:
Wie bereite ich einen perfekten Espresso zu?
Antwort des Modells:
Mahlen Sie die Bohnen fein und extrahieren Sie den Espresso bei 90°C für 25 Sekunden.
Chain-of-Verification Fragen:
Erstelle eine Liste von Fragen, die helfen, die Korrektheit der zuvor gegebenen Antwort zu überprüfen. Diese Fragen sollten sich auf die wichtigsten Aspekte des Themas beziehen.
Verifizierungsfragen des Models
- Welche Wassertemperatur ist optimal für Espresso?
- Wie fein sollten die Bohnen für Espresso gemahlen werden?
- Wie lange sollte die Extraktionszeit sein?
Chain-of-Verification Beantwortung:
Beantworte jede der erstellten Fragen ausführlich, um die wichtigsten Details zu klären.
Antwort des Modells:
- Ja, die optimale Wassertemperatur für Espresso liegt bei 92°C.
- Der Mahlgrad für Espresso sollte fein sein, aber nicht so fein wie Puderzucker. Diese Beschreibung ist korrekt.
- Die Extraktionszeit sollte zwischen 25-30 Sekunden liegen.
Durch diesen Verifizierungsprozess kann das Modell die anfängliche Antwort überprüfen und verfeinern, was zu einer präziseren und zuverlässigen Endantwort führt.
Quellen:
Schulhoff, S., Ilie, M., Balepur, N., Kahadze, K., Liu, A., Si, C., Li, Y., Gupta, A., Han, H., Schulhoff, S., Dulepet, P. S., Vidyadhara, S., Ki, D., Agrawal, S., Pham, C., Kroiz, G., Li, F., Tao, H., Srivastava, A., … Resnik, P. (2024). The Prompt Report: A Systematic Survey of Prompting Techniques (Version 3). arXiv. https://doi.org/10.48550/ARXIV.2406.06608
CC BY Schulhoff et al.