Aus dem Kurs: KI-Prompting für Content Creation

Mit Prompting-Hacks zu besseren Resultaten

Aus dem Kurs: KI-Prompting für Content Creation

Mit Prompting-Hacks zu besseren Resultaten

Wenn Sie auf Google den Begriff "Prompt" eingeben, dann wird Ihnen vorgeschlagen, nach Prompt-Hacks zu suchen. Aber kann man Prompts wirklich hacken? Nein, natürlich nicht. Aber man kann dem KI-Modell schon helfen, Prompts besser zu verstehen. Daraus ist mittlerweile eine regelrechte Disziplin geworden. Prompt Engineer ist bereits ein regelrechtes Berufsfeld. Natürlich stellt sich die Frage, wie groß die Zukunft dieses Berufs ist. Denn KI-Modelle werden immer leistungsfähiger. Sie lernen und verbessern sich ständig. KI-Modelle werden zudem immer besser darin, aus ihrem Kontext zu lernen. Sie können also aus ihren Interaktionen mit der Welt lernen. Dies ermöglicht es ihnen, neue Aufgaben zu erlernen, ohne dass sie explizit dazu angewiesen werden. Aber bis es so weit ist und bis die KI uns perfekt verstehen kann, kann man sich natürlich ein paar Lifehacks zunutze machen. Diese möchte ich Ihnen in diesem Video zeigen. Ich habe diese Hacks wirklich in einer ungeordneten Reihenfolge aufgelistet. Ob ein Prompting-Hack für Sie wichtig ist oder nicht, hängt davon ab, was Sie generieren wollen. Der wohl bekannteste Ansatz ist das Gedankenketten-Prompting, auch Chain-of-Thought-Prompting genannt. Dabei ermutigen wir das Modell ausdrücklich, sachlich oder korrekt zu sein, indem wir es zwingen, eine Reihe von Schritten in seiner Argumentation zu befolgen. Chain-of-Thought-Prompting ist wirklich ein essentielles Werkzeug im Prompt Engineering geworden, da es die Ergebnisse drastisch verbessern kann. Die Technik funktioniert eigentlich ganz einfach. Wir hängen einfach an den Prompt ein "Denken wir Schritt für Schritt" an. Machen wir ein Beispiel mit ChatGPT 3. Die Aufgabe: "Ich gehe zum Markt und kaufe zehn Äpfel. Ich gebe dem Nachbarn zwei Äpfel und dem Handwerker auch zwei. Ich kaufe dann noch fünf Äpfel und esse einen. Wie viele Äpfel bleiben mir jetzt?" Kurzer Tipp: Die richtige Antwort ist "zehn". ChatGPT gibt jedoch "sechs" aus. Das ist falsch. Stellen wir dieselbe Aufgabe noch einmal und zwingen wir ChatGPT dann dazu, in Schritten zu denken, "Denken wir Schritt für Schritt", dann kommt die richtige Antwort. Ein anderes sehr häufiges Problem ist, dass KI-Modelle die Tendenz haben, Quellen und Fakten zu erfinden. Das Problem der sogenannten halluzinierenden KI ist ein großes und es gibt noch keine abschließende Lösung dafür. Mit einer Quellenabfrage können wir versuchen, echte Antworten zu erzwingen. Das heißt, wir hängen an den Prompt eine Quellenabfrage an. Wir sagen also so etwas wie "Antworte nur aus zuverlässigen Quellen und zitiere diese Quellen". Achtung! Auch diese Lösung schützt nicht zu 100 % vor Halluzination. Manche Language Models erfinden immer noch Fakten, aber durch die Nennung der Quellen kann die Echtheit zumindest überprüft werden. Die Quellenabfrage funktioniert übrigens hauptsächlich bei KIs, die Echtzeitzugriff haben aufs Internet. Gehen wir zum nächsten Hack. Wenn ich Ihnen sage, Sie sollen mir einen Text schreiben, dann schreiben Sie diesen so, wie Sie schreiben würden. Klingt logisch. Bei einer KI funktioniert das jedoch auch anders. Sie können einem KI- Modell mitteilen, welche Rolle es spielen soll. Machen wir ein paar Beispiele. Wir sagen dem Modell im Prompt "Du bist ein Lehrer". Dies würde dem Modell helfen, sich darauf zu konzentrieren, genaue und informative Informationen klar und prägnant bereitzustellen. Oder wenn ich das KI- Modell auffordere, kreative Inhalte zu generieren, dann könnte ich das Modell bitten, als kreative Autorin zu fungieren. Dann wird mein Text ganz bestimmt fantasievoller und ausdrucksvoller. Oder wenn ich Informationen finden oder ein Problem lösen will, könnte ich das Modell bitten, als Forscher/Forscherin zu funktionieren. Dies würde dazu beitragen, dass das Modell objektiver und analytischer wird. Ein zwar sehr simpler Hack, aber dafür sehr wirkungsvoll, ist das Trennen von Prompt und Material. Wenn Sie das KI-Modell mit einem Text arbeiten lassen wollen, sollten Sie immer klar machen, wann der Prompt endet und der zu bearbeitende Text beginnt. Das ist ganz einfach. Nutzen Sie zum Beispiel doppelte Klammern, "Textanfang" und "Textende". So ist klar, wann der Prompt endet und der zu bearbeitende Text anfängt. Nächster Hack: Sie können auch die KI nutzen, um Ihren Prompt zu verbessern. Also Sie prompten fürs Prompten. Bitten Sie das Modell, einfach Ihnen Fragen zu stellen, bevor es eine Antwort gibt. Das sieht dann zum Beispiel so aus: "Schreibe einen Text über mich und stelle mir Fragen, bevor du antwortest." ChatGPT antwortet mir dann mit Fragen. Ich kann diese Fragen dann beantworten, um ChatGPT die notwendigen Informationen zu geben. Ich nutze diese Technik sehr gerne, wenn ich weiß, dass die KI viele Informationen braucht, um eine Aufgabe gut ausführen zu können. Ein weiteres zentrales Standbein des Prompt Engineering sind Affordanzen. Affordanzen sind klare und präzise Aufforderungen, die die gewünschten Aktionen spezifizieren. So können wir sicherstellen, dass das Modell die gewünschte Ausgabe erzeugt. Wenn wir zum Beispiel möchten, dass das Modell ein Gedicht über Liebe erstellt, dann könnten wir die folgende Aufforderung verwenden. "Schreibe ein Gedicht über die Liebe, das sowohl romantisch als auch traurig ist. Das Gedicht sollte mindestens 100 Zeilen lang sein und mindestens fünf verschiedene Metaphern für Liebe verwenden." Diese Aufforderung gibt dem Modell klare Anweisungen, was zu tun ist. Sie gibt den gewünschten Output, also ein Gedicht über die Liebe, die gewünschte Länge, 100 Zeilen, und den gewünschten Stil, romantisch und traurig, an. Die Eingabeaufforderung liefert dem Modell auch einige zusätzliche Informationen, die es zur Erstellung des Ergebnisses verwenden kann, wie zum Beispiel eben die Verwendung von Metaphern. Wenn Sie Affordanzen in Ihrem Prompt verwenden, dann können Sie die Qualität und Konsistenz der von KI-Modellen erzeugten Ausgaben verbessern. Seien Sie also genau in Ihren Anfragen und nutzen Sie Affordanzen, um genau das zu erhalten, was Sie sich erhoffen. Ein weiterer Tipp betrifft eher ältere Language Models. Manche Models wie GPT 3 lesen Texte nur vorwärts. Das heißt, die Reihenfolge im Prompt ist sehr relevant. Wenn Sie die Anweisung also vor dem Beispiel geben, kann dies die Qualität Ihrer Ergebnisse verbessern. Experimentieren Sie mit der Reihenfolge der Aufforderungen. Zu guter Letzt können Sie auch mit der Sprache experimentieren. Manchmal lohnt es sich, auf Englisch zu prompten. Die Sprache im Prompt zu wechseln, kann den Output drastisch verändern, da nicht jedes Language Model auf jeder Sprache gleich gut trainiert wurde. So, das waren ein paar Prompting-Hacks für Sie. Spannend wird es übrigens im Besonderen, wenn Sie die gleichen Prompting-Hacks an verschiedenen KI-Modellen austesten. Sie werden nämlich merken, wie unterschiedlich die Language Models arbeiten und können so herausfinden, wie Sie bei welchem Language Model prompten müssen, damit Sie das Richtige bestellen, um das Richtige zu erhalten.

Inhalt