Prompting ist in einer sich rasant entwickelnden Welt der künstlichen Intelligenz (KI) und Digitalisierung zu einer wichtigen Fähigkeit geworden. Dabei handelt es sich um das Know-how darüber, wie sich KI-Modelle wie Chat GPT, Dall-E oder andere generative Systeme präzise und effektiv steuern lassen, mit dem Ziel, spezifische Antworten oder Ergebnisse zu erhalten. Das können Texte, aber auch Bilder oder Analysen sein. Generative KI wirkt sich in den verschiedenen Berufen oder Tätigkeiten unterschiedlich aus. «Im Bereich der klassischen Bürojobs kann effektives Prompting einen enormen Einfluss auf die Produktivität von Menschen haben», sagt Raphael Zeder, Dozent für Digital Analytics, User Experience und Applied Artificial Intelligence am Institut für Kommunikation und Marketing an der Hochschule Luzern (HSLU). «Arbeiten, die ohne KI mehrere Stunden in Anspruch nehmen würden, können innert Minuten in gleicher oder sogar besserer Qualität erledigt werden.»

Partner-Inhalte
 
 
 
 
 
 

 

Es braucht eine klare Formulierung

Der Begriff Prompting kommt ursprünglich aus der Verhaltenstherapie. In diesem Fachbereich geht es darum, durch eine gewisse Einflussnahme bei den Patienten und Patientinnen ein gewünschtes Verhalten zu erreichen. Und genau das ist auch das Ziel bei der Kommunikation zwischen Mensch und Maschine. Nicht neu ist zudem, dass derjenige, der die besseren Fragen stellt, die besseren Antworten erhält. «Schon heute hat gutes Prompting oft viel weniger mit technischen Details der jeweiligen KI-Systeme zu tun als vielmehr mit der grundlegenden Formulierung eines präzisen Auftrags», so Raphael Zeder. «In dieser Hinsicht lohnt es sich gleich doppelt, sich vertieft mit Prompting auseinanderzusetzen. Einerseits können dadurch KI-Systeme effektiver eingesetzt werden, und anderseits dürfte auch die zwischenmenschliche Kommunikation davon profitieren, weil wir lernen, klarer zu kommunizieren.»

Die konkreten Quellen, aus denen KI-Tools wie Chat GPT ihr Wissen beziehen, unterscheiden sich je nach verwendeten Sprachmodellen. Hier sprechen wir von sogenannten Large Language Models (LLM). «Was all diese Modelle gemeinsam haben, ist, dass sie mit extrem grossen Datenmengen trainiert wurden. Viele davon greifen beispielsweise auf die Ressourcen von Common Crawl zurück, eine Non-Profit-Organisation, die im Grunde versucht, das gesamte Internet zu archivieren», erklärt Raphael Zeder. «Diese Datensätze umfassen eine Vielzahl an Textsorten, beginnend bei wissenschaftlichen Artikeln über Wikipedia-Beiträge bis hin zu öffentlich zugänglichen Forumsbeiträgen.»

 

Menschliche Kontrolle ist Pflicht

Für Unternehmen ist gutes Prompting wichtig, denn es liefert Content sowohl für den Kundensupport als auch wie fürs Marketing. So setzen Unternehmen KI-basierte Chatbots ein, um den Kundensupport zu verbessern: Durch präzises Prompting können Chatbots effektiv auf häufig gestellte Fragen reagieren und sogar komplexe Probleme lösen, indem sie die richtigen Informationen zur richtigen Zeit liefern. Ein gut strukturierter Prompt kann sicherstellen, dass der Chatbot nicht nur korrekt, sondern auch effizient arbeitet. Und im Marketing können KI-Modelle wie Chat GPT für die Erstellung von Marketinginhalten eingesetzt werden. Durch gezieltes Prompting können Unternehmen sicherstellen, dass die generierten Texte den gewünschten Ton und Stil treffen, was die Konsistenz der Markenkommunikation stärkt. So lassen sich in kurzer Zeit personalisierte E-Mails, Social-Media-Posts oder Blogartikel erstellen, die auf die Zielgruppe abgestimmt sind.

Ebenso unterstützt Prompting bei der Datenanalyse und Entscheidungsfindung. Denn KI-Modelle sind in der Lage, Trends und Muster in Daten zu erkennen, die für menschliche Analysten und Analystinnen schwer zugänglich sind. Durch gezielte Anweisungen in Prompts können Unternehmen spezifische Analysen durchführen lassen und so fundierte Entscheidungen treffen. Wichtig ist jedoch immer, dass final der Mensch entscheidet. Dazu Raphael Zeder: «Zusammengefasst sind die Antworten der KI-Tools in vielen Fällen äusserst zuverlässig und korrekt, dennoch ist eine manuelle Kontrolle unerlässlich, da nicht vorhergesagt werden kann, wann und weshalb es im Einzelfall zu Halluzinationen kommt. Die KI-Tools sind nur hilfreiche Werkzeuge, die Verantwortung für das Endergebnis liegt nach wie vor bei den Usern selbst.»

 

Klare Worte sind das A und O

Eine Studie der Mohamed bin Zayed University of AI in Abu Dhabi hat zusammengefasst, was gutes Prompting auszeichnet. Die dabei generierten 26 Prinzipien für die Interaktion mit der Maschine, wie sie es selbst nennen, basieren auf ein paar grundsätzlichen Erkenntnissen zusammenfassen, und hier steht die direkte und klare Kommunikation zuoberst: Also was soll die Maschine tun («Erkläre!»)? Und an wen richtet sich die Antwort («Erkläre es für Führungspersonen aus dem Finanzbereich?»). Die Fragestellung soll einfach statt komplex sein und deutlich machen, dass es ums Detail geht («Erkläre Führungspersonen aus dem Finanzbereich Schritt für Schritt, wie gute Kundenkommunikation funktioniert»). An der HSLU wird hierzu oft das Tool «3p Framework» genutzt. 

«Bevor der eigentliche Auftrag formuliert wird, sollten dem Modell jeweils eine Rolle zugewiesen und relevante Informationen zum Kontext und gewünschten Antwortformat zur Verfügung gestellt werden», meint Raphael Zeder. «Wir nennen das Priming.» Danach wird der eigentliche Auftrag erstellt beziehungsweise formuliert. Zur Auswahl stehen hier das Instruction Prompting (Verfassen einer Aufgabe) oder das Few-Shot Prompting (Eingabe von Beispielen). Final kann dann das durch die KI generierte Ergebnis bei Bedarf iterativ verfeinert und optimiert werden. Raphael Zeder sagt: «In meiner Erfahrung wird insbesondere die erste Phase (Priming) oftmals vernachlässigt, obwohl gerade dieser Aspekt für effektive Prompts von zentraler Bedeutung ist. Ohne relevante Kontextinformationen und gewünschtes Antwortformat ist es in vielen Fällen reine Glückssache, ob man die gewünschte Antwort erhält. Das heisst, das Priming zwingt uns auch dazu, den Auftrag einmal richtig durchzudenken, bevor wir ihn an die KI abschieben.»