Prompting Techniken

Post category:
AI generated

(summarized and translated into German / zusammengefasst und ins Deutsche übersetzt von Schulhoff et al., 2024. Bild mit DALL E generiert.)

Zero-Shot

Sie geben der KI in Ihrem Prompt keine Beispiele vor.

Role Prompting

Sie geben in einer Rolle vor, wie die Antwort formuliert werden soll.

Schreibe mir einen Bericht über Österreich. In der Rolle eines Reisebloggers.

Style Prompting

Sie geben den Ton, Stil oder Genre der Antwort vor.

Schreibe mir einen verspielten, emotionalen Bericht über Österreich.

Emotion Prompting

Sie können mit psychologischen wichtigen Phrasen die Antworten einer LLM verbessern.

Schreibe mir einen Bericht über Österreich. Das ist wichtig für meine Karriere.

Self-Ask

Sie lassen sich im Prompt Fragen zum Thema generieren, auf die sie im Folge-Prompt beantworten.

Ich möchte einen Bericht über Österreich schreiben. Stelle mir 10 Fragen, um diesen Bericht zu schreiben.


Few-Shot

Anhand von Beispielen im Prompt geben sie der KI vor, welche Antwort sie erwarten.

Vote-K

In einer ersten Anfrage lassen sie sich Beispiele generieren, die Sie in einem Folge-Prompt bewerten. So geben Sie der KI vor, wie sie vorgehen soll.

Nenne mir unterschiedliche Länder Europas.

6xA – Few-Shot Prompt-Design Richtlinie

Ihre Beispiele im Few-Shot Prompt sollen der KI gut vermitteln, was die Aufgabe ist. Beachten Sie folgende sechs Richtlinien, jeweils mit Beispiel. Randnotiz: Leider lassen sich nicht alle Richtlinien auf alle Anwendungsfälle anwenden.

Anzahl

Geben Sie so viele Beispiele wie möglich. Decken Sie das Themengebiet ab.

  • Deutschland, Fachabitur: EQR 4
  • Österreich, Berufsreifeprüfung:

Anordnung

Eine zufällige Anordnung der Beispiele verhindert, dass andere Systematiken von der KI erkannt werden, als eigentlich erwünscht.

  • Österreich, Lehrabschluss: EQR 4
  • Österreich, Matura: EQR 5
  • Deutschland, Fachabitur: EQR 4
  • Deutschland, Abitur: EQR 5
  • Österreich, Bachelorabschluss:

Ausgewogenheit

Achten Sie auf eine ausgewogene Verteilung der Beispiele.

  • Österreich, Matura: EQR 5
  • Deutschland, Meisterbrief: EQR 5
  • Österreich, Berufsreifeprüfung: EQR 5
  • Österreich, Bachelorabschluss:

Aufbereitung

Achten Sie bei der Aufbereitung der Beispiele darauf, dass diese auch korrekt sind.

  • Österreich, Abitur: EQR 5
  • Deutschland, Matura: EQR 9
  • Österreich, Lehrabschluss: EQR 4
  • Deutschland, Meisterbrief: EQR 5
  • Österreich, Bachelorabschluss:

Aufbau

Die Struktur soll einfach zu fassen sein. Zu viele (Sonder-)Zeichen können das Model ablenken.

  • @Deutschland [Realschulabschluss] ===> EQR 3
  • @Österreich [Lehrabschluss] ===> EQR 4
  • @Deutschland [Meisterbrief] ===> EQR 5
  • @Österreich [Bachelorabschluss] ===>

Angemessenheit

Die Beispiele sollen angemessen für Ihre Anfrage sein.

  • Deutschland, Meisterbrief: EQR 5
  • Deutschland, Fachabitur: EQR 4
  • Deutschland, Realschulabschluss: EQR 3
  • Deutschland, Hauptschulabschluss: EQR 2
  • Österreich, Bachelorabschluss:

Ein gutes Beispiel

Österreich, Matura: EQR 5
Deutschland, Realschulabschluss: EQR 3
Österreich, Lehrabschluss: EQR 4
Deutschland, Meisterbrief: EQR 5
Österreich, Bachelorabschluss:


Chain-of-Thought – Gedanken Generierung

Sie lassen sich den Gedankengang ausgeben, bevor die finale Antwort gegeben werden soll. Speziell für logische oder argumentierende Prompts erzielen Sie damit bessere Ergebnisse.

Zero-Shot-CoT

Mit Phrasen wie „Lass uns das Schritt für Schritt durchdenken.“ oder „Zuerst sollten wir das Problem logisch analysieren.“ können sie einen CoT Prompt einfach gestalten.

Ich möchte einen guten Espresso zubereiten. Gehen wir das Schritt für Schritt durch.

Step-Back Prompting

Der Prompt stellt zuerst eine allgemeine Frage zu relevanten Konzepten, bevor die detaillierte Argumentation generiert wird.

Welche wichtigen Faktoren sollten wir berücksichtigen, um einen guten Espresso zuzubereiten, bevor wir die Schritte durchgehen?

Thread-of-Thought (ThoT) Prompting

Anstatt des Zero-Shot-CoT „Lass uns das Schritt für Schritt durchdenken“ wird hier die Phrase „Führe mich durch diesen Kontext in handlichen Teilen Schritt für Schritt, zusammenfassend und analysierend, während wir voranschreiten“ verwendet. Dieser Ansatz eignet sich besonders gut bei großen, komplexen Kontexten.

Ich möchte einen perfekten Espresso zubereiten. Führe mich durch diesen Prozess in handlichen Teilen Schritt für Schritt, zusammenfassend und analysierend, während wir voranschreiten.

Active Prompting

Der Prompt startet mit Trainingsfragen, die das Modell löst. Bei Unsicherheiten werden die problematischsten Beispiele von Menschen überarbeitet.

Wie bereite ich einen guten Espresso zu?

Wenn bei der Antwort Unschärfen, etwa bei der optimalen Wassertemperatur, werden menschliche Experten diese Anweisung überarbeiten, um die Antwort zu präzisieren.


Decomposition

Die Decomposition-Methode zielt darauf ab, komplexe Probleme in einfachere Teilfragen zu zerlegen. Vergleichbar mit den Ansätzen der Chain of Thought (CoT)-Technik, werden Probleme gezielt zerlegt.

Least-to-Most Prompting

Der Prompt fordert auf, ein Problem in Teilprobleme zu zerlegen, ohne diese sofort zu lösen. Anschließend werden die Teilprobleme nacheinander gelöst, wobei die Antworten des Modells jeweils zum Prompt hinzugefügt werden, bis das endgültige Ergebnis erreicht ist.

Wie bereite ich einen perfekten Espresso zu? Lass uns das Problem in kleinere Schritte unterteilen, ohne sie direkt zu lösen.

Plan-and-Solve Prompting

Diese Methode erzeugt zuerst einen Plan und führt in dann schrittweise aus. Ein robusterer Ansatz als das Standard-Zero-Shot-CoT.

Ich möchte einen perfekten Espresso zubereiten. Lass uns zuerst das Problem verstehen und einen Plan entwickeln, um es zu lösen. Dann führen wir den Plan Schritt für Schritt aus.


Ensembling

Mehrere Prompts werden verwendet, um ein Problem zu lösen und fasst die Antworten zu einem Ergebnis zusammen, oft durch eine (Mehrheits-)Entscheidung. Das verbessert die Genauigkeit, erfordert aber mehr Rechenleistung oder Nachbearbeitung.

Self-Consistency

Die generative KI wird mit demselben Prompt verwendet. Durch Randomisierungsfaktoren kommt es oft zu kleinen Unterschieden in den Antworten der generativen KI. Am Ende wird die häufigste Antwort per Mehrheitsentscheidung gewählt.

Wie bereite ich einen Espresso zu?

Mögliche Antworten

DiVeRSe

Mehrere unterschiedliche Prompts werden verwendet, um verschiedene Antworten zu erzeugen. Dann prüft ein Verifikationsprozess diese Antworten und wählt die beste aus, um die Genauigkeit zu verbessern.

Prompt 1 (Schritt-für-Schritt) “Beschreibe, wie man Espresso in einer Espressomaschine zubereitet, beginnend mit dem Mahlen der Bohnen bis hin zum Aufbrühen.”

Prompt 2 (Vorgehensweise) “Wie bereitet man einen Espresso zu, wenn man eine Espressomaschine und frische Bohnen verwendet? Welche Schritte sind notwendig?”

Prompt 3 (Kurze Anweisung) “Gib eine einfache Anleitung für die Zubereitung eines perfekten Espresso mit einer Siebträgermaschine.”

Prompt 4 (Expertenwissen) “Was sind die wichtigsten Faktoren bei der Zubereitung von Espresso, um eine optimale Extraktion zu erreichen?”

Prompt 5 (Problemfokus) “Welche Fehler sollte man vermeiden, wenn man Espresso zubereitet, und wie kann man sie korrigieren?”


Self-Criticism

Über den Prompt wird das Sprachmodell dazu angeregt, seine eigenen Ausgaben zu hinterfragen.

Self-Calibration

Beim Self-Calibration-Ansatz wird ein Sprachmodell zunächst aufgefordert, eine Frage zu beantworten. Anschließend wird ein neuer Prompt erstellt, der die ursprüngliche Frage, die Antwort des Modells und eine zusätzliche Anweisung enthält, die fragt, ob die gegebene Antwort korrekt ist. Dieser Prozess ist nützlich, um das Vertrauen in die Antwort des Modells zu beurteilen und zu entscheiden, ob die ursprüngliche Antwort akzeptiert oder überarbeitet werden sollte.

Erster Prompt:

Wie bereite ich einen perfekten Espresso zu?

Antwort des Modells:

Self-Calibration Prompt:

Die Frage lautete: ‚Wie bereite ich einen perfekten Espresso zu?‘ Deine Antwort war: ‚Mahlen Sie die Bohnen fein und extrahieren Sie den Espresso bei 85°C für 30 Sekunden.‘

Ist diese Antwort korrekt?

Selbstkalibrierte Antwort:

Chain-of-Verification (COVE)

Der Prompt erstellt zunächst eine Antwort auf eine gegebene Frage. Anschließend erstellt es eine Liste verwandter Fragen, die zur Überprüfung der Richtigkeit der ursprünglichen Antwort dienen. Jede dieser Fragen wird vom Modell beantwortet, und alle gewonnenen Informationen werden genutzt, um eine endgültige, überarbeitete Antwort zu erstellen. Diese Methode hat sich bei verschiedenen Aufgaben im Bereich Frage-Antwort und Textgenerierung als vorteilhaft erwiesen.

Erster Prompt:

Wie bereite ich einen perfekten Espresso zu?

Antwort des Modells:

Chain-of-Verification Fragen:

Erstelle eine Liste von Fragen, die helfen, die Korrektheit der zuvor gegebenen Antwort zu überprüfen. Diese Fragen sollten sich auf die wichtigsten Aspekte des Themas beziehen.

Verifizierungsfragen des Models

Chain-of-Verification Beantwortung:

Beantworte jede der erstellten Fragen ausführlich, um die wichtigsten Details zu klären.

Antwort des Modells:

Durch diesen Verifizierungsprozess kann das Modell die anfängliche Antwort überprüfen und verfeinern, was zu einer präziseren und zuverlässigen Endantwort führt.

Quellen:

Schulhoff, S., Ilie, M., Balepur, N., Kahadze, K., Liu, A., Si, C., Li, Y., Gupta, A., Han, H., Schulhoff, S., Dulepet, P. S., Vidyadhara, S., Ki, D., Agrawal, S., Pham, C., Kroiz, G., Li, F., Tao, H., Srivastava, A., … Resnik, P. (2024). The Prompt Report: A Systematic Survey of Prompting Techniques (Version 3). arXiv. https://doi.org/10.48550/ARXIV.2406.06608

CC BY Schulhoff et al.