Das Geheimnis des perfekten KI-Prompts: Episode 1

Während die Welt gerade mit dem ChatGPT-Frontend kopuliert, versuchen manche IT-Dienstleister (auch wir) im Hintergrund, die Hype-Welle nicht einfach für den schnellen Penny zwischendurch zu reiten, sondern wirklich sinnvolle Anwendungsfälle zu suchen, die echten Mehrwert bringen. Nicht im Sinne von Zeitersparnis beim Betexten von Websites, Blogs oder Product-Sheets. Sondern Benefits im Sinne dramatisch verkürzter oder gar entfallender Entwicklungszeiten für die Implementierung von komplexen Funktionen, die Wissen und Erkenntnisse bringen - und bislang nur schwer erreichbaren Mehrwert.

Einleitend eine Abgrenzung: In diesem Beitrag geht es zunächst um Systeme zur Textgenerierung. Das Thema Bildgenerierung ist einen eigenen Logbuch-Eintrag wert, der demnächst folgt.

Intercorp hat in den letzten Monaten eine ganze Reihe von Anfragen erhalten, bei denen es um künstliche Intelligenz, Chatbots & Co. geht. Sowohl von Bestandskunden, die den Wunsch haben, die KI-basierte Assistenz-Funktionen aus Prestige- oder Effizienz-Gründen bei sich einzusetzen, als auch von Neukunden, die händeringend nach Beratung und Führung suchen.

Und für die meisten Interessenten ist die Sache klar: ChatGPT funktioniert doch schon so irre gut, das muss man doch für eigene Zwecke nutzen können. Und zwar jetzt gleich. Kann ja nicht so schwer sein.

Was geht...

Sprechen wir erst mal darüber, was von Machine Learning gestützte Systeme wie ChatGPT, die man ohne größeren Aufwand ad hoc nutzen kann, tatsächlich aktuell so leisten. Sie...

  • schreiben Texte, nachdem man einen Themenrahmen definiert hat
  • analysieren Texte und erstellen Zusammenfassungen. Beispielsweise stellt es in der Regel überhaupt kein Problem, sich für einen wissenschaftlichen Beitrag ein Abstract von ChatGPT generieren zu lassen
  • können Texte umformulieren, ohne dabei den Inhalt wesentlich zu verfälschen oder zu ändern
  • können einfache Rechenaufgaben übernehmen
  • erstellen Listen, auch mit kreativen Leistungen (z.B. Einkaufslisten, Stichpunktlisten für bestimmte Themen, Aufgabenlisten,...)
  • helfen bei der Ideenfindung/Brainstorming, z.B. indem Synonyme gesucht werden, angrenzende Themen, „dazu passt...“
  • liefern Vorschläge für Lösungen in der Programmierung, und zwar in verschiedenen Programmiersprachen, Paradigmen und Umfängen
  • übersetzen Texte in ordentlicher Qualität in verschiedene Sprachen
  • können Texte „vervollständigen“, also begonnenene Sätze oder Artikel zu Ende schreiben
  • klassifizieren Texte, ordnen sie in Themengebiete ein, können den Typ bestimmen (z.B. ob es sich um einen wissenschaftlichen Artikel, einen Boulevard-Blödsinn oder eine Produktvorstellung handelt

Es geht also im Prinzip vor allem um die Auswertung und Manipulation von Informationen in Textform, die man an diese Systeme übergibt. Und man erhält auch immer Informationen in Textform zurück.

Grundsätzlich ist das eine tolle Sache, denn im Arbeitsalltag lassen sich über Sprachmodelle mit Textgeneratoren eine ganze Menge eher langweiliger, repetitiver oder qualitativ weniger anspruchsvolle Aufgaben an ein assistives System wie ChatGPT outsourcen.

Einige typische Szenarien, in denen ChatGPT bzw. die zu grunde liegenden Modelle bereits jetzt großflächig eingesetzt werden, sind:

  • Erzeugen von Blog-Beiträgen für bestimmte Themen
  • Erzeugen von Produkttexten auf Basis von Spec-Sheets o.ä.
  • Erzeugen von Teasern als Zusammenfassungen für längere Texte
  • Recherchen zur Wissensgenerierung
  • Erzeugen von Code-Fragmenten für die Programmierung
  • Übersetzungen
  • Mindmap-Entwürfe
  • Entwürfe für Geschäftsideen oder Business Plans
  • Entwürfe für Unterrichts/Trainingsmaterialien
  • Chatbots zur Kundenunterstützung, z.B. in E-Commerce-Umgebungen

Betonung auf „qualitativ weniger anspruchsvoll“

Auf Machine Learning gestützte Systeme wie ChatGPT liefern uns zwar erstaunliche Ergebnisse, jedoch können sie auch Output erzeugen, der entweder ungenau, irrelevant oder sogar fehlerhaft ist. Das liegt an der Art und Weise, wie die Sprachmodelle trainiert werden und welche Daten sie zum Lernen verwenden. Die Tatsache, dass sie einen textbasierten Input benötigen und einen textbasierten Output liefern, sorgt für Einschränkungen. So können diese Systeme Schwierigkeiten haben, Kontextinformationen zu berücksichtigen oder zu verstehen, was in einer bestimmten Situation aus zwischenmenschlicher Sicht angemessen ist.

Die Qualität und Nutzbarkeit der Ergebnisse, die ein ChatGPT oder äquivalentes System auswirft, hängt nicht zuletzt extrem davon ab, welche Rahmenbedingungen gesetzt und Anweisungen erteilt werden, auch „Prompting“ genannt.

Gute Prompts hängen in hohem Maße vom Anwendungsfall ab. Einige Anwendungen erfordern detaillierte, präzise Vorgaben, während andere mit allgemeinen, weniger spezifischen Anweisungen besser funktionieren könnten. Das Definieren und Optimieren der Prompts ist daher oft eine iterative Aufgabe, die sowohl ein Verständnis für das zugrunde liegende KI-System als auch für den spezifischen Anwendungsfall erfordert.

Man kann sich also nun die Frage stellen, ob die Nutzung solcher Systeme wie ChatGPT tatsächlich einen Effizienzgewinn darstellen. Denn offensichtlich ist menschliche Kontrolle und Anpassung der Ergebnisse unumgänglich. Und wenn man dann noch lange an Prompts feilen muss, um wirklich verwertbare Resultat zu bekommen, könnte es auch sinnvoller sein, lieber gleich einen Text selbst zu schreiben, anstatt einen Bot zu beauftragen.

Lässt sich nicht pauschal sagen, ist eine Einzelfall-Entscheidung.

Im Übrigen erfordert der produktive Einsatz von KI-basierten Systemen in Unternehmen oft auch eine gewisse Anpassung der Arbeitsabläufe und -strukturen. Nicht alle Mitarbeiter sind mit den Möglichkeiten und Einschränkungen vertraut, die so ein Chatbot mit sich bringt, und es braucht Zeit und Akzeptanz, um die Kollegen entsprechend zu schulen. Dies gilt insbesondere für Unternehmen, die bisher noch keine Erfahrung mit KI-Technologien haben.

Was nicht geht...

Es gibt Szenarien, in denen Systeme wie ChatGPT überhaupt keine nutzbare Kompetenz besitzen. Wir zählen mal eine Handvoll auf:

  1. Aktuelle Ereignisse oder neue Erkenntnisse sind nicht verfügbar. ChatGPT wurde mit Daten und Informationen gefüttert, die dem Stand von 2021 entsprechen. Die Wissensbasis wird nicht laufend aktualisiert, die Plattform kann nicht das Internet durchsuchen und auch keine sonstigen Quellen mit aktuellen Daten anzapfen.

  2. Sehr spezifisches Fachwissen: ChatGPT basiert auf einem eher allgemeinen Sprachmodell mit breitem, aber eher oberflächlichen Wissensschatz. Daher kann die Plattform bei spezifischen Fachfragen versagen. Menschliches, präzises und zuverlässiges Expertenwissen kann das System daher nicht ersetzen.

  3. Persönliche Ratschläge: ChatGPT kann allgemeine Hinweise und Informationen liefern, ist jedoch nicht dafür ausgelegt, persönliche Ratschläge zu geben, insbesondere in sensiblen Bereichen wie Gesundheit oder Rechtsberatung. Es sollte nicht als Ersatz für professionelle Beratung in diesen Bereichen verwendet werden.

  4. Vorhersagen und Zukunftsprognosen: Obwohl ChatGPT auf Basis von Mustern und Daten gewisse allgemeine Vorhersagen treffen kann, sollte der Bot nicht als verlässliche Basis für kritische Prognosen (z.B. im Bereich Finanzen, Medizin o.ä.) genutzt werden.

  5. Verständnis von Ironie, Slang, Dialekten o.ä.: ChatGPT ist zwar in der Lage, eine Vielzahl von Sprachstilen zu verstehen und zu generieren, aber es hat kein „Gefühl“ für Ironie, Slang oder Dialekte und kann diese meistens nicht korrekt interpretieren und als Kontext verwenden. Missverständnisse oder Ungenauigkeiten in den Resultaten sind daher sehr wahrscheinlich.

  6. Sensible ethische oder moralische Fragen: Überlassen wir am besten den Menschen. Ein Computer besitzt kein menschliches Einfühlungsvermögen und wird im Zweifel völlig andere Ansichten vertreten oder Entscheidungen treffen als ein Mensch. Menschen tendieren zur Irrationalität – das ist uns vertraut und in gewissen Bereichen auch erwartungskonform.
    Maschinen hingegen „denken“ mitunter völlig anders.

Soviel zur Theorie und der allgemeinen Situation. Die im Übrigen sich fortlaufend ändert, weil neue Anbieter, Sprachmodelle, Techniken, Frameworks quasi im Tagesrhythmus aus dem Boden sprießen.

Was schön wäre, wenn es ginge...

In den nächsten Teilen der Logbuch-Reihe plaudern wir aus dem Nähkästchen über konkrete Projekte:

Erstens: einen Chatbot-Prototypen, der es unternehmensintern ermöglicht, bestehendes Wissen zu aggregieren, zu interpretieren und bei Recherchen, Onboardings oder Ausbildungen zu unterstützen.

Zweitens: einen Assistant-Prototypen, der ein bestimmtes Szenario als Grundlage hat.

Man stelle sich folgende Situation vor. Ein Business Analyst hat den Wunsch, zum Quartalsende aktuelle Verkaufs-/Umsatzzahlen oder andere Statistiken zu erzeugen und diese dann in eine Powerpoint-Präsentation einzubauen.

Der Mensch sitzt also vor seinem Computer und sagt: „Hey PC, ich brauche die Verkaufszahlen von Produkt XYZ aus dem ersten Quartal für DACH, aufgeschlüsselt nach Regionen, dazu noch die Daten aus dem Vorjahresquartal in Gegenüberstellung. Bitte als buntes 3D-Balkendiagramm, damit ich es in eine Powerpoint-Präsentation einfügen kann.“
Klingt kompliziert. Kann sowas funktionieren? Und wenn ja, mit welchem Aufwand?


Stay tuned!