Seit einigen Monaten sprechen alle über das Prompting bei KI. Was ist Prompt Engineering und welche Best Practices helfen Dir, um richtig prompten zu können? Genau darüber klären wir in diesem Blogartikel auf.

Was ist Prompting?

Einfach gesagt beschreibt Prompting die Eingabe – normalerweise in Schriftform – von Befehlen an ein KI-Modell. Prompts werden also verwendet, um ein KI-Modell dazu zu bringen, aus einem Input einen bestimmten Output zu generieren – meist in Form von Texten oder Bildern. Prompts werden häufig bei Large Language Modellen, einer besonderen Art von KI-Modellen, die besonders gut mit der menschlichen Sprache umgehen können, verwendet.

Unterschiedliche Prompt-Arten

Bevor wir tiefer in die Best Practices des Promptings einsteigen, sollten wir uns die zwei wichtigsten Arten des Promptings anschauen: Den System- und den Userprompt:

System-Prompt

Jeder KI-Assistent, welcher in Unternehmen, eingesetzt wird, hat von den Entwicklern einen sogenannten System-Prompt bekommen. Typischerweise wird ein solcher System-Prompt von KI-Entwicklern eingesetzt, um der Kommunikation des Endnutzers mit dem KI-Modell bestimmte Rahmen zu setzen.

System-Prompt in direkter Kommunikation mit einem KI-Modell

Ein System-Prompt kann bspw. eingesetzt werden, wenn Nutzer direkt mit einem KI-Modell chatten – z. B. mit ChatGPT von OpenAI oder Gemini von Google.

System-Prompt bei Retrieval-Augmented-Generation

In Unternehmen wird in den meisten Fällen jedoch nicht direkt mit einem KI-Modell gechattet, sondern stattdessen eine Retrieval-Augmented-Generation Technik genutzt. Darüber können Unternehmen sicher mit den eigenen, unternehmensinternen Daten chatten und das Risiko für Halluzinationen reduzieren und bspw. bestehende Zugriffsrechte berücksichtigen.

Der System-Prompt gibt in diesen Situationen den Rahmen vor, wie das KI-Modell auf die Anfrage des Nutzers reagieren soll. Rahmenbedingen können unter anderem sein:

  • Förmlichkeit der generierten Antwort: Soll eher formell, informell, freundlich, neutral oder technisch geantwortet werden?
  • Verhalten: Soll eher hilfsbereit, sachlich, kreativ oder analytisch reagiert werden?
  • Umfang der Antwort: Wie umfangreich soll das KI-Modell in seiner Antwort sein?
  • Anpassung an Zielgruppen: Soll die Antwort eher auf Anfänger, Fortgeschrittenen oder Expertenniveau sein?
  • Sprachliche Präzision: Auf welchem Sprachniveau soll kommuniziert werden?
  • Kulturelle und ethische Komponenten: Sollen bestimmte ethische Prinzipien oder Sensibilitäten berücksichtigt werden?

Somit erhalten Entwickler über den System-Prompt einen gewissen Rahmen, in dem das KI-Modell auf die Antwort reagieren darf. Der System-Prompt wird dann mit dem User-Prompt kombiniert, um eine Anfrage des Nutzers zu beantworten.

Damit jeder amberSearch einmal ausprobieren kann, haben wir in unserer Onlinedemo eine mittlere sechsstellige Anzahl an Dokumenten auf über 10 Systeme verteilt:

User-Prompt

Wenn die meisten Leute über Prompting sprechen, dann meinen sie den User-Prompt. Der User-Prompt ist nämlich das, was für sie in der Nutzeroberfläche sichtbar ist. Der System-Prompt ist im Gegensatz dazu für den Endanwender nicht sichtbar.

Wo der System-Prompt den Rahmen der Anfrage vorgibt, gibt der User-Prompt die bestimmte Aufgabe des Nutzenden, die das KI-Modell lösen soll, vor. Da in der Breite der KI-Anwender der User-Prompt der relevante Prompt ist und der System-Prompt für die Ersteller solcher KI-Systeme relevant ist, werden im Folgenden die Best Practices für User-Prompts erklärt:

8 Best Practices für erfolgreiche Prompts

Nutze die folgenden 8 Tipps, um die nächste Konversation mit einem AI Chatbot zu revolutionieren:

  1. Kontextualisierung: Je mehr Kontext mitgegeben wird, desto besser kann das KI-Modell die Anfrage einordnen. Beispiel: Statt „Wie wechsele ich das Öl an meinem Auto aus?“ Frage „Wie wechsele ich das Öl an meinem VW Golf 3 GTI aus?“
  1. Präzisierung: Je präziser der Prompt, desto besser und brauchbarer die Antwort: Beispiel: Statt „Schreibe eine Antwort auf die Kundenbeschwerde XYZ“ versuche es mit „Schreibe eine Antwort auf die Kundenbeschwerde XYZ von ABC und berücksichtige unsere E-Mailvorlagen.“
  1. Iterieren: Ein Prompt wird nicht beim ersten Mal perfekt sein. Verfeinere den Prompt über mehrere Iterationsschleifen. Pro-Tipp: Lasse das KI-Modell deinen Prompt optimieren oder dir erklären, wie es den Prompt interpretiert. Beispiel: Ist der erste Prompt: „Wie viel Budget darf ich als Abteilungsleiter ohne Rücksprache mit meinem Vorgesetzten ausgeben?“, dann ergänze im nächsten Schritt um: „Wie viel Budget darf ich als Abteilungsleiter ohne Rücksprache mit meinem Vorgesetzten ausgeben? Erkläre mir den Prozess der Budgetfreigabe bei Summen, die über der Freigabegrenze liegen“.
  1. Ergebnisvorgabe: Gebe der KI ein Beispiel vor, nach dem die Antwort formuliert werden soll. Beispiel: Gib für die Formulierung einer Kaltakquise E-Mail ähnliche, ältere E-Mails als Beispiel vor.
  1. Rollen-Prompting: Gib der KI vor, welche Rolle sie zu spielen hat. Beispiel: “Du bist ein Experte für Onlinemarketing. Du bist darauf spezialisiert, tolle Werbetexte für Out-of-Home Kampagnen zu erstellen”. Bei dieser Art von Prompts gilt es ein wenig zu experimentieren. Variiere mit verschiedenen Berufsbezeichnungen, aber auch Autoren oder prominenten Persönlichkeiten, um mit den richtigen Prompts ein verblüffendes Ergebnis zu erzielen.
  1. Erklärungs-Prompting: Lasse die KI dir Schritt-für-Schritt erklären, wie sie zum Ergebnis gekommen ist. Beispiel: “Erkläre mir Schritt für Schritt, wie du das Ergebnis erarbeitet hast”.
  1. Negativen Rahmen setzen: Sage der KI, was sie nicht tun soll. Beispiel: Erkläre mir, wie gute Prompts für KI-Modelle aussehen, ohne auf den Unterschied zwischen User- und System-Prompt einzugehen“. Zum Vermeiden vom typischen KI-Klang kannst du bei deinem formulierten Prompt auch die Nutzung bestimmter Wörter ausschließen. Beispiel: Schreibe eine Produktbeschreibung, aber vermeide die Begriffe „Entdecken Sie“ oder „Erfahren Sie“.
  1. Mehrstufige Fragestellung: Teile den Prompt in mehrere Aufgaben ein, die in mehreren Schritten gelöst werden sollen. (Hinweis: Solltest du ein Retrieval Augmented Generation System verwenden, dann benötigt dieses eine Multi-Hop Q&A Technik, um zu funktionieren). Beispiel: Erkläre mir Retrieval Augmented Generation. Beginne mit dem Schritt Retrieval, erkläre dann den Schritt Augmentation und gehe im dritten Schritt auf den Punkt Generierung ein.

Du möchtest wissen, wie man künstliche Intelligenz erfolgreich im Unternehmen einführt? Dann lies dir jetzt unser Whitepaper „So geht eine erfolgreiche Einführung von generativer KI“ mit allen relevanten Insights kostenlos durch. Du kannst den ganzen Report hier kostenlos herunterladen:

Häufige Fehler beim Prompten

Wo es Best Practices gibt, gibt es auch negative Beispiele. Daher haben wir anbei die drei häufigsten Fehler beim Schreiben von Prompts aufgeschrieben:

  • Unpräzise Prompts: Du solltest nicht davon ausgehen, dass KI-Modelle “Gedanken lesen” können. Formuliere deine Prompts klar und detailliert, statt vage und ungenau, um das volle Potenzial der Technologie auszunutzen.
  • Zu komplexe Prompts: Stelle einfache, leichte verständliche Prompts. Werden Prompts zu lang oder unübersichtlich, kann es vorkommen, dass das KI-Modell gewisse Teilpunkte vergisst oder nicht ausreichend berücksichtigt.
  • Fehlender Kontext: Ein KI-Modell benötigt Hintergrundinformationen, um Dinge richtig einordnen zu können. Sei also nicht nur im Prompt präzise, sondern gib notwendige Details, die zur Interpretation benötigt werden mit.

Limits von künstlicher Intelligenz

Auch wenn alle Best Practices berücksichtigt und Fehler vermieden werden – es kann aus verschiedenen Gründen vorkommen, dass die KI unzufriedene Ergebnisse liefern kann.

Daher ist es uns wichtig zu betonen: Eine generative KI, vor allem ein System wie ChatGPT, ist ein Assistenzsystem, das nicht dafür gedacht ist, Arbeit zu automatisieren oder zu 100 % abzunehmen. KI-Assistenten sind dafür gedacht, Mitarbeitenden Impulse und Ideen zu geben, sodass die Arbeit erleichtert wird.

Aktuell fließt ziemlich viel „Halbwissen“ in der Gesellschaft herum, was KI denn alles können soll und was nicht. Grundsätzlich gilt: KI kann – Stand September 2024 – nichts Neues entwickeln oder erarbeiten, sondern nur die Informationen, die einmal in das KI-Modell hinein trainiert wurden, wiedergeben. Es gibt also nur bereits bestehendes Wissen wieder. Dennoch wirkt es auf uns als Menschen als sehr intelligent, da es in Summe natürlich deutlich mehr weiß als ein individueller Mensch.

KI ist dafür gedacht, uns die Lösungsfindung für gewisse Probleme zu erleichtern – die schlussendliche Entscheidung müssen dennoch die Menschen selbst treffen.

Als Ausblick in die Zukunft: Zukünftig werden Multiagentensysteme immer relevanter. Diese sind – im Gegensatz zu KI-Assistenten – darauf ausgelegt, bestimmte Aufgaben selbst vollständig zu erledigen. Bis diese jedoch eine ausreichende Reife haben und in der Breite des Marktes angekommen sind, wird noch einige Zeit vergehen.

Du findest unseren Content spannend?

Dann bleib jetzt über unseren Newsletter mit uns in Kontakt: