Blog

Ideen und Impulse

Blog

Die 7 wichtigsten Prompting-Prinzipien

Die 7 wichtigsten Prompting-Prinzipien

Wenn man ein Problem gut beschreibt, kann man es auch gut lösen. Mit der Idee lassen sich auch gute Ergebnisse aus KIs herauskitzeln. Wenn wir mit einem KI-Modell richtig kommunizieren wollen, müssen wir zuerst seine Sprache sprechen. Da LLMs selbst nicht wissen, was sie reden, ist es ratsam, beim Verständnis zu helfen. Es gibt ein paar Prinzipien, die uns dabei helfen. Die schauen wir uns jetzt mal genauer an.

„RTF“ steht im Englischen für „Role“ (dtsch. Rolle), „Task“ (dtsch. Aufgabe) und „Format“ (dtsch. Format). Wir setzen damit einen bestimmten Rahmen und Kontext, indem wir zuerst die Rolle definieren, in die das Modell schlüpfen soll (z. B. Lehrer, Koch, Manager, Fitnesstrainer) und die genaue Aufgabe formulieren (z. B. „schreibe einen Lehrplan“, „entwerfe ein Rezept“). Als Nächstes geben wir noch das Format an, in das wir die Antwort erwarten – zum Beispiel Tabelle, Liste, Gedicht und so weiter.

Ohne RTF Framework

Prompt:
Was ist ein schwarzes Loch?

Antwort:
Ein Schwarzes Loch ist ein extrem dichtes Objekt im Universum, dessen Gravitationskraft so stark ist, dass nichts, nicht einmal Licht, entkommen kann. Es entsteht oft, wenn ein sehr massereicher Stern am Ende seines Lebenszyklus kollabiert. Aufgrund der enormen Schwerkraft, die auf einen sehr kleinen Raum konzentriert ist, krümmt ein Schwarzes Loch die Raumzeit um sich herum. Der „Ereignishorizont“ bezeichnet die Grenze, ab der nichts mehr dem Schwarzen Loch entkommen kann.

Mit RTF Framework

Prompt:
Du bist Physiklehrer an einem Gymnasium. Erkläre deiner 10. Klasse (15-16 jährige Schüler und Schülerinnen), bildhaft, was ein schwarzes Loch ist. Wecke dabei zuerst ihre Aufmerksamkeit. Gehe dann knapp auf die Physik ein. Setze in Aussicht, welche Aspekte schwarzer Löcher noch erforscht werden.

Antwort:
Stellt euch vor, ihr seid in einem Raumschiff und fliegt tief in den Weltraum. Plötzlich bemerkt ihr etwas Seltsames: Ein Bereich, in dem alles verschwindet. Sterne, Planeten – selbst das Licht wird verschluckt. Das ist kein Loch im Boden, sondern ein Loch im Weltraum! Man nennt es ein Schwarzes Loch, und es verhält sich wie ein riesiger kosmischer Staubsauger, der alles in seiner Nähe verschlingt.

Aber was passiert da genau? Ein Schwarzes Loch entsteht, wenn ein gigantischer Stern stirbt und unter seiner eigenen Schwerkraft zusammenbricht. Die gesamte Masse des Sterns wird auf einen extrem kleinen Raum komprimiert – stellt euch vor, ihr packt die Erde auf die Größe einer Erbse zusammen. Diese ungeheure Masse erzeugt eine so starke Anziehungskraft, dass nichts, was in die Nähe kommt, entkommen kann – nicht mal Licht. Deshalb sehen wir es auch nicht direkt, sondern nur die Dinge, die drumherum geschehen.

Was wir schon wissen, ist unglaublich – aber wir stehen eigentlich erst am Anfang. Forscher untersuchen, was im Inneren eines Schwarzen Lochs passiert: Gibt es eine sogenannte Singularität, in der alle bekannten Gesetze der Physik zusammenbrechen? Und könnten Schwarze Löcher vielleicht sogar Tore zu anderen Universen sein? Das klingt wie Science-Fiction, ist aber Teil realer wissenschaftlicher Theorien! Es gibt also noch so viel zu entdecken.

KI kann nicht aus Erfahrungen lernen und versteht Konzepte nicht so wie wir. Du musst also den Kontext liefern und klar sagen, was du im Ergebnis oder Output erwartest und was das Modell als Hintergrundwissen zusätzlich wissen muss, um diese Aufgabe entsprechend deiner Erwartungen zu lösen. Ein einfacher Prompt ohne Kontext liefert zwar schnell eine Antwort, trifft aber nicht ganz den Ton, das Niveau oder den Kern dessen, was du gerne wissen möchtest. Wenn du einem Chatbot die Anweisung „Erzähle mir mehr über Unglückszahlen“ gibst, ohne weitere Informationen, könnte er dir zum Beispiel die Zahl „13“ als Unglückszahl ausgeben und dir erzählen, dass es in Gebäuden oft keinen 13. Stock gibt und in Flugzeugen keine 13. Reihe.

Wenn du allerdings Japanerin bist, ergibt die Antwort keinen Sinn. Für dich ist die Unglückszahl nämlich die 4, weil das Zeichen ausgesprochen genauso klingt wie das Wort „Tod“.

Dein Alter, dein Beruf, der Ort, an dem du dich aufhältst, die Firma, für die du arbeitest – all diese Dinge und mehr bilden einen unerlässlichen Kontext für die optimale Ausgabe.

Prompt (ohne Kontext):
Ich würde gerne über das Wochenende verreisen. Welcher Ort wäre ideal für einen kurzen Wochenendausflug?

Prompt (mit Kontext):
Ich würde gerne über das Wochenende verreisen. Ich bin Studentin und wohne in Berlin. Ich besitze kein Auto und mein Budget für den Ausflug beträgt 150 Euro. Es ist im Moment Herbst und das Wetter ist eher kühl, aber trocken und sonnig. Welcher Ort wäre ideal für einen kurzen Wochenendausflug?

Hast du manchmal das Gefühl, dass dich große, komplexe Aufgaben überfordern?

Auch KI-Modelle sind da manchmal überfordert. Deshalb gibt es die Promptverkettung. Die Promptverkettung ist eine ziemlich fortschrittliche Prompt-Technik, die entwickelt wurde, um die Zuverlässigkeit und Leistung großer Sprachmodelle (LLMs) zu verbessern. Dabei wird eine Aufgabe in Teilaufgaben unterteilt. Die Antwort auf jede Teilaufgabe wird dann als Eingabe für den nächsten Prompt verwendet.

Prompt 1:
Beschreibe ein neues Smartwatch-Modell, das besonders für Sportler geeignet ist. Nenne drei Hauptfunktionen, die diese Smartwatch besonders machen.

Antwort 1:
Diese neue Smartwatch ist für Sportler konzipiert und bietet folgende Hauptfunktionen:

Ein GPS-Tracking-System zur genauen Routenverfolgung. Einen Herzfrequenzmesser, der die Herzgesundheit in Echtzeit überwacht. Eine wasserdichte Konstruktion, die auch für Schwimmen und extreme Wetterbedingungen geeignet ist.

+

Prompt 2:
Basierend auf den beschriebenen Funktionen, stelle dir vor, dass du ein Werbeslogan für diese Smartwatch schreiben sollst. Was wäre ein guter, eingängiger Slogan?

Antwort 2:
Bleib auf Kurs, bleib gesund, bleib unaufhaltsam – die Smartwatch für echte Sportler!

+

Prompt 3:
Erstelle nun bitte eine kurze Produktbeschreibung für eine Anzeige, die diese Smartwatch verkauft. Betone dabei die Hauptfunktionen und warum sie für Sportler nützlich ist.

Antwort 3:
Erleben Sie die perfekte Kombination aus Präzision und Langlebigkeit – die neue Smartwatch für Sportler. Mit GPS-Tracking, Echtzeit-Herzfrequenzmessung und wasserdichter Bauweise ist sie der ideale Begleiter für alle, die ihre Fitnessziele erreichen und ihre Leistung optimieren möchten. Egal ob Sie laufen, schwimmen oder Rad fahren – diese Uhr hält Schritt mit Ihrem aktiven Lebensstil!

Manchmal haben wir eine ziemlich genaue Vorstellung davon, was der Output eines Modells beinhalten soll, damit wir damit tatsächlich weiterkommen. Das Modell kann unsere Erwartungen aber nicht aus Erfahrungen ableiten oder unsere Gedanken lesen. Deshalb müssen wir sie ganz genau strukturieren. So vermeiden wir Missverständnisse und erhalten bessere Ergebnisse.

Wenn wir zum Beispiel ein „Status-Update“ für unser Team verfassen wollen, gibt es Details wie den „Status“ oder die „nächsten Schritte“, die unbedingt in ein Update hineingehören. Das müssen wir vorgeben.

Prompt:
Verfasse ein kurzes Status-Update aus all den Meeting-Notizen, die ich dir gebe, für unser monatliches Kunden-Update.

Das Update soll folgendes Format haben:

Projektname:
Projektphase:
Aktueller Status:
Wichtige Erfolge:
Nächste Schritte:

Chain-of-Thought Prompting, vorgestellt von Wei et al. (2022). CoT-Prompting, auf Deutsch Verkettung von Gedanken, hilft Sprachmodellen, komplexe Probleme besser zu lösen. Dabei werden die Probleme ähnlich wie bei der Verkettung von Prompts in Zwischenschritte zerlegt. So lernt das Modell, Schritt für Schritt vorzugehen und Aufgaben zu lösen, bei denen man mehrere Schritte überlegen und logisch denken muss. Wenn du die gesamte Argumentation oder die Ausgabe besser nachvollziehen möchtest, kannst du auch die Aufforderung „Denke Schritt für Schritt“ hinzufügen.

Stellen wir uns mal vor, du planst eine Dinnerparty und willst sichergehen, dass du alles Nötige für das Menü besorgt hast. Dafür fragst du das Sprachmodell um Hilfe. Der folgende Prompt zeigt dir, wie das funktioniert:

Prompt:
Gib mir bitte eine Einkaufsliste für eine Lasagne.

Antwort:
Hackfleisch
Tomaten
Zwiebeln
Knoblauch
Käse
Nudelplatten
Tomatenmark

Die Liste scheint nicht ganz vollständig zu sein, also verwendest du die “Chain-of-Thought” Technick, um nachzuvollziehen, was eventuell ausgelassen wurde.

Prompt:
Ich möchte eine Lasagne für eine Dinnerparty kochen. Hilf mir, eine vollständige Einkaufsliste zu erstellen. Denke dabei Schritt für Schritt, um sicherzustellen, dass ich nichts vergesse.

Antwort:

Vorbereitung der Sauce:
Hackfleisch

Zwiebeln
Knoblauch
Tomaten aus der Dose
Tomatenmark
Oregano
Basilikum
Salz und Pfeffer
Olivenöl
Zubereitung der Béchamelsauce:
Butter

Mehl

Shot Prompting ist eine Technik, bei der einem KI-Modell Beispiele gegeben werden. Diese Beispiele, auch „Shots“ genannt, sollen die Leistung des Modells bei einer bestimmten Aufgabe verbessern. Es gibt drei Hauptvarianten:

Zero-Shot Prompting

Hier erhält das Modell keine Beispiele und muss die Aufgabe nur anhand der Anweisung lösen.

Prompt:
Was ist die Hauptstadt von Spanien?

Antwort:
Madrid.

Das Modell beantwortet die Frage korrekt, ohne jemals Beispiele zu sehen​.

One-Shot Prompting

Hier wird dem Modell ein Beispiel gegeben, um die Aufgabe zu verdeutlichen.

Prompt:
Was ist die Hauptstadt von Frankreich? Antwort: Paris. Was ist die Hauptstadt von Italien?

Antwort:
Rom.

Mit einem Beispiel versteht das Modell besser, wie es die Frage beantworten soll​

Few-Shot Prompting

Hier werden dem Modell mehrere Beispiele gegeben (typischerweise 2-5), um es noch besser zu unterstützen.

Prompt:
Was ist die Hauptstadt von Deutschland? Antwort: Berlin. Was ist die Hauptstadt von Japan? Antwort: Tokio. Was ist die Hauptstadt von Kanada?

Antwort:
Ottawa.

Die zusätzlichen Beispiele helfen dem Modell, den Aufgabentyp und das erwartete Format besser zu verstehen​.

Wie du vielleicht schon gemerkt hast, geht es bei den Prompts hauptsächlich um Infos. Umso mehr dieser Hinweise in unsere Anweisungen einfließen, desto genauer ist das Ergebnis. Bisher ging’s vor allem um die Frage „Was?“. Jetzt schauen wir uns an, wie wir das „Wie“ besser machen können.

Wir könnten zum Beispiel sagen: „Schreib mir einen Absatz über Chatbots.“

Und wir würden vermutlich einen ziemlich guten Text über Chatbots bekommen. Wenn wir jetzt mal einen Kontext mit einer Rolle einbauen, sieht die Sache schon ganz anders aus:

„Du bist KI-Spezialist bei einer Online-Bank. Du sollst einen Absatz über Chatbots verfassen, der der Führungsebene ohne KI-Vorwissen als Entscheidungshilfe über den Einsatz eines Chatbots auf dem Onlineportal dienen soll.“

Jetzt kommen noch sogenannte „Qualifikatoren“ dazu: Schreibe in einem Absatz, was für und gegen die Integration eines Chatbots im Onlineportal der Bank spricht. Diese Erörterung soll der Führungsebene ohne KI-Vorwissen dabei helfen, zu entscheiden, ob ein Chatbot integriert werden soll.

Wenn der Kontext einen bestimmten Ton verlangt (etwa bei der Arbeit) oder unser eigener Charakter im Ergebnis durchschimmern soll, wird das „Wie“ wichtig. Hier kommen Qualifikatoren ins Spiel.

Prompt 1:
Du bist ein KI-Spezialist in einer Online-Bank. Erörtere in einem Absatz objektiv, in einem formellen Ton die möglichen Vor- und Nachteile der Integration eines Chatbots im Onlineportal der Bank. Diese Erörterung dient der Führungsebene ohne KI-Vorwissen als Entscheidungshilfe dabei, ob ein Chatbot integriert werden soll.

Prompt 2:
Du bist ein KI-Spezialist und unterhältst dich mit deinen Freunden und Bekannten beim Grillen über deine Arbeit und Chatbots. Fasse in einem umgänglichen Ton zusammen, was ein Chatbot ist, wie er funktioniert und wozu man diesen verwenden kann.

Bei der Bildgenerierung gibt es auch Qualifikatoren für den Stil – und Adjektive, mit denen sich Bilder beschreiben lassen.

Wenn ihr das nächste Mal ein LLM um Hilfe fragt, schreibt am Ende „Stelle mir fünf Fragen, die dein Ergebnis verbessern.“ Beantwortet diese Fragen und freut euch über deutlich hilfreichere Ergebnisse!

Wichtig zu wissen…

Obwohl in der Forschung das Thema des Promptings mithilfe von Benchmarks und Datensätzen mit Labels systematisch untersucht wird, gibt es in der alltäglichen Benutzung als Endnutzer leider kein universelles, klares Erkennungszeichen oder eine einfache Qualitätsprüfung.

Normalerweise basiert die Bewertung der Qualität auf sehr punktuellen, subjektiven Erfahrungen. Welcher Prompt liefert das Ergebnis, das deinen Erwartungen an die Darstellung, den Stil und/oder den Inhalt am nächsten kommt? Welcher führt dich zu einer korrekten Antwort, die auf Fakten basiert? Dabei muss man wissen, dass der optimale Prompt bei verschiedenen Modellen und auch bei verschiedenen Modellversionen ganz unterschiedlich sein kann. Das heißt, der Prompt, der bei Claude super Ergebnisse liefert, klappt nicht eins zu eins bei ChatGPT und liefert auch nicht unbedingt die gleichen Ergebnisse. Deshalb ist es wichtig, in der Praxis experimentierfreudig zu sein und das iterative Mindset zu schätzen, aber auch Erfahrungen und Prompts im Umgang mit Sprachmodellen mit Kolleginnen und Kollegen und Freunden zu teilen.

Wie bei vielen Dingen auf der Welt ist auch KI nicht perfekt. Trotz der gut gestalteten Prompts können sie manchmal falsche Ergebnisse liefern. Diese falschen Ergebnisse werden auch „Halluzinationen“ genannt. Das Problem bei Halluzinationen ist, dass sie für jemanden, der sich nicht mit dem Thema auskennt, oft plausibel klingen. Das System erklärt nämlich selbstbewusst, wie es zu der Antwort gekommen ist, und liefert sogar Begründungen. Dabei kann die Antwort faktisch gesehen falsch sein.

Deshalb ist „human in the loop“ so wichtig. Damit ist gemeint, dass bei KI-Systemen immer ein Mensch mit im Boot ist. Du, ich, wir sind also dafür verantwortlich, falsche Ergebnisse zu erkennen und herauszufiltern.

Teste deine Fähigkeiten!

Willst du deine Prompting-Fähigkeiten noch weiter auf die Probe stellen? Dann versuche dich an der Gandalf Challenge, in der du in immer höheren Levels versuchst, ein geheimes Passwort zu erraten.

Quelle: Dieser Text basiert auf Inhalten aus dem Kurs Einführung in die KI vom KI-Campus und steht unter einer offenen CC BY-SA 4.0 Lizenz.