Im Netz kursieren unzählige Tipps und Tricks zum prompten, doch erstmalig hat OpenAI eine Anleitung zum prompten bei ChatGPT veröffentlicht! Damit Sie die besten Ergebnisse erzielen, haben wir zum Jahresabschluss die Strategien, die OpenAI vorschlägt, für Sie zusammengefasst!

Strategie eins: Klare Anweisungen geben

Damit das Large Language Modell nicht raten muss, welchen Output man erwartet, sollte man in seinen Prompts möglichst klare Anweisungen geben. Dabei ist es wichtig, möglichst detailliert zu beschreiben, was man möchte und Kontextinformationen einzubauen.

Schlechter Prompt: Fasse die Notizen aus dem Meeting zusammen

Guter Prompt: Fasse die Besprechungsnotizen in einem einzigen Absatz zusammen. Schreibe dann eine Markdown-Liste der Referenten und ihrer wichtigsten Punkte. Liste abschließend die nächsten Schritte oder Aktionspunkte auf, die von den Referenten vorgeschlagen wurden, falls vorhanden.

Möchte man sich Texte zusammenfassen lassen, ist es wichtig, dass ChatGPT unterscheiden kann, wann der Text anfängt und aufhört. OpenAI führt hier dreifache Anführungszeichen an, um Passagen voneinander abzuheben.

Beispiel: Fasse folgenden Text zusammen ‘‘‘‘‘‘Text hier einfügen‘‘‘‘‘‘

Taktik: Beispiele anführen

Manchmal kann es hilfreich sein, Beispiele anzuführen. Dies kann der Fall sein, wenn man die Outputs in einem bestimmten Style haben möchte. Ebenso kann man die Länge des Outputs angeben, die nicht überschritten werden soll.

Beispiel: Fasse den in dreifachen Anführungszeichen stehenden Text in 250 Wörtern zusammen

‘‘‘‘‘‘Text hier einfügen‘‘‘‘‘‘

Strategie zwei: Referenztext bereitstellen

Taktik: Antworten aus einem Referenztext generieren

Bei der Textararbeit kann ChatGPT behilflich sein, indem man einen Text in den Prompt einbaut, an den man Fragen hat. Das könnte so aussehen:

Beispiel: Verwende den angegebenen Artikel, der durch dreifache Anführungszeichen begrenzt ist, um Fragen zu beantworten. Wenn die Antwort nicht in den Artikeln zu finden ist, schreibe “Ich konnte keine Antwort finden”. Ebenso kann man das Modell anweisen, aus dem Referenztext direkt zu zitieren.

‘‘‘‘‘‘Artikel einfügen, jeweils durch dreifache Anführungszeichen begrenzt‘‘‘‘‘‘

Frage: <Frage hier einfügen>

Strategie drei: Komplexe Aufgaben aufsplitten

Ist eine Aufgabe sehr komplex und benötigt verschiedene Anweisungen, sollte sie in verschiedene Schritte aufgeteilt werden, damit optimale Ergebnisse erzielt werden können.

Taktik: Lange Unterhaltungen zusammenfassen

Ein langer Dialog mit dem Nutzenden und ChatGPT, der viele Zwischenschritte enthält, sollte zusammengefasst werden. Das Large Language Modell ist noch nicht in der Lage dazu, lange Unterhaltungen in den Kontext seiner Antworten einzubauen und kann dazu neigen, Zusammenfassungen der bisherigen Unterhaltung als Output zu geben. Daher sollte der Nutzende die wichtigsten Punkte der Unterhaltung zusammenfassen, bevor die nächste Frage gestellt wird.

Taktik: Lange Dokumente stückweise zusammenfassen lassen

Sehr lange Texte kann ChatGPT nicht auf einmal zusammenfassen, denn Large Language Modelle haben eine feste Kontextlänge, die sie bearbeiten können. In anderen Worten: die Anzahl der Token (beispielsweise ein Zeichen, ein Wort oder eine Wortfolge), die auf einmal bearbeitet werden können. OpenAi gibt an, dass die Texte nicht länger sein können als die Kontextlänge minus die Länge der generierten Zusammenfassung in einer einzigen Abfrage. Sehr langer Text muss deswegen schrittweise über Abschnittszusammenfassungen erarbeitet werden.

Strategie vier: Dem Modell Zeit zum Denken geben

Taktik: Das Modell soll eine eigene Lösung erarbeiten

Um falsche und voreilige Ergebnisse zu vermeiden, sollte man das Large Language Modell dazu anweisen, seine eigene Lösung zuerst vorzustellen. Soll beispielsweise ein Ergebnis einer Rechenaufgabe überprüft werden, gibt OpenAI folgenden Prompt vor:

Beispiel: Erarbeite zunächst deine eigene Lösung für das Problem. Vergleiche dann deine Lösung mit der Lösung des Schülers und beurteile, ob die Lösung des Schülers richtig ist oder nicht. Entscheide nicht, ob die Lösung des Schülers richtig ist, bevor du die Aufgabe selbst gelöst hast.

Ebenso kann man es anweisen, in der Rolle eines Nachhilfelehrer zu antworten, ohne die Lösung direkt vorzugeben. Auch im Stil anderer Personas kann ChatGPT antworten generieren, je nach Kontext, der benötigt wird.

Taktik: Das Modell fragen, ob es bei früheren Durchgängen etwas übersehen hat

Möchte man beispielsweise Abschnitte aus einem Textdokument herausfiltern lassen, die für die Beantwortung einer Frage wichtig sind, kann ChatGPT bei langen Dokumenten schnell etwas übersehen. Eine simple Nachfrage, ob alle Abschnitte herausgefiltert wurden, hilft, um vollständige Ergebnisse zu erhalten. Zusätzlich dazu sollte man ChatGPT anweisen, keine Abschnitte doppelt zu nennen.

Strategie fünf: externe Tools verwenden

Ein Trick, damit ChatGPT 3.5 auch auf externe, aktuelle Quellen zugreifen kann ist es, sie einfach in den Prompt einzubauen. Hat man eine Frage zu einem aktuellen Ereignis, kann man Informationen über dieses implementieren. So kann das Model Verständnis darüber aufbauen, obwohl es nicht Teil seiner Trainingsdaten ist. Nutzen Sie für die externen Informationen einfach die dreifachen Anführungszeichen, wie in Strategie eins erklärt.

Taktik:  Codeausführungen verwenden, um genauere Berechnungen durchzuführen

Sprachmodelle sind nur bedingt in der Lage dazu, komplexe und lange Berechnungen selbständig auszuführen. Stattdessen kann man es dazu auffordern, entsprechenden Code zu schreiben und für die Berechnungen ausführen zu lassen.

Strategie sechs: Änderungen systematisch testen

Evaluierungsverfahren (Evals) werden genutzt, um zu prüfen, ob neue Eingaben bessere Ergebnisse hervorbringen. Bewertungen von Outputs können sowohl von Menschen als auch Computern vorgenommen werden. Evals von OpenAI bietet hier ein open-source Framework, welches Werkzeuge für die Erstellung von Evals bereitstellt.

Taktik: Bewertung der Modellausgaben mit Bezug auf Goldstandard-Antworten

Um zu prüfen, ob bestimmte Informationen in einem Referenztext enthalten sind, kann man Goldstandard-Antworten festlegen. Diese Goldstandards sind eine Art, zu prüfen, ob gewünschte Informationen in Texten vorhanden sind. Der zu überprüfende Text soll die Antwort einer Frage sein und ist wieder mit dreifachen Anführungszeichen abgegrenzt.

Beispiel:

Prüfe, ob folgende Informationen in der Antwort enthalten sind:

-Neil Armstrong war der erste Mensch, der den Mond betreten hat.

-Das Datum, an dem Neil Armstrong zum ersten Mal den Mond betrat, war der 21. Juli 1969.

Um einen Text mit den Standards, die enthalten sein sollen, zu vergleichen, soll ChatGPT nun mehrere Schritte durchführen:

  1. wiedergeben, ob einer der Punkte enthalten ist
  2. Zitate ausgeben, welches den jeweiligen Punkten am nächsten kommt
  3. Überlegen, ob jemand, der mit dem Thema nicht vertraut ist, aufgrund des Zitats auf das Thema schließen kann. Die Entscheidung, ob ja oder nein, muss erklärt werden
  4. Angeben, ob die Antwort ja oder nein war

Zähle abschließend, wie viele “Ja”-Antworten es gibt. Geben Sie diese Zahl als {“count”: <Zählung hier angeben> } an.

Fazit:

Um die besten Ergebnisse zu erhalten, gibt es im Prompting einiges zu beachten. Jede Strategie kann natürlich weiter ausgebaut und auf die eigenen Bedürfnisse angepasst werden. Beachtet man die Strategien, wird ein qualitativer Unterschied in den Antworten klar zu erkennen sein.

Views: 913