Wo steckt ein kluger Kopf? Gewiss beim Autor eines Buches über KI, aber laut ihm nicht bei dieser, nur bei den Fachleuten dahinter.

Daniel Goldstein  für die Online-Zeitung INFOsperber

«Dahinter steckt immer ein kluger Kopf.» Dieses Zitat stellt der Wissenschaftsjournalist Christoph Drösser fast an den Anfang seines kleinen, feinen Buchs, ohne die Quelle zu nennen. Ein Plagiat mag ein passender Einstieg sein, denn unter KI wird heute fast immer der «generative» Teilbereich verstanden, der mit Textproduktion aufgrund fremden Trainingsmaterials operiert. Doch vermutlich hat der Autor einfach angenommen, alle Interessierten kennten den Werbespruch der «Frankfurter Allgemeinen Zeitung» ohnehin.

Nun ist aber nicht jener lesende Kopf gemeint, der in der Reklame hinter dem aufgefalteten Blatt steckt, sondern jener, den man bisher als Urspung einer sprachlichen Äusserung vermuten durfte. Und das «gilt spätestens seit ChatGPT nicht mehr», also seit dieser Sprachautomat Ende 2022 öffentlich zugänglich wurde. Was er und seinesgleichen von sich geben, sind keine Sprechakte. So nennt die Linguistik Äusserungen in der zwischenmenschlichen Kommunikation und sieht dahinter immer eine Absicht.

Textproduktion Wort für analysiertes Wort

Eine solche Absicht fehlt der KI laut dem Buch, denn: «Ein Sprachmodell hat nur eine einzige Intention: den Prompt des Users oder der Userin Wort für Wort fortzusetzen.» Der «Prompt» ist die Eingabe am Computer, auf die das Sprachmodell mit etwas antwortet, das den Erwartungen mehr oder weniger entsprechen sollte. Eher mehr, wenn der Prompt auf Kenntnissen der Arbeitsweise und der erwartbaren Resultate beruht und Angaben über die erwünschte Form, Länge und Verständlichkeit der Antwort enthält. Die danach einsetzende Arbeitsweise wird oft so geschildert, dass das Programm immer nach dem wahrscheinlichsten nächsten Wort suche, eben aufgrund der vielen Texte, mit denen es gefüttert wurde.

Drösser macht klar, dass es nicht ganz so einfach ist, denn die Trainingstexte sind nicht bloss gespeichert, sondern es ist für jedes Wort erfasst, in welchen Zusammenhängen es vorkommt. Beim Schreiben stützt sich das KI-Programm laufend auf das Geflecht von Zusammenhängen zwischen Wörtern, die schon im Prompt oder im bereits erstellten Teil der Antwort stehen. Es straft damit ein weiteres geflügeltes Wort Lügen: «Wer schreibt, muss vorher nachgedacht haben.» So zitiert Drösser den Essay «Die Schrift» des Philosophen Vilém Flusser (1989) und fügt an: «Das gilt im Zeitalter von ChatGPT nicht mehr.»

Intelligent wirken, ohne es zu sein

Unerklärt bleibt im Buch, wie so ein Programm sogar komplizierte Regieanweisungen im Prompt befolgen kann, ohne deren Sinn zu verstehen und über die Umsetzung nachzudenken. Deshalb bin ich dem Beispiel des Autors gefolgt, der an verschiedenen Stellen ChatGPT selber Auskunft geben lässt. Das ansprechende, nach wenigen Sekunden erhaltene Ergebnis steht im Kasten unten. Dass z. B. eine Längenangabe als Anweisung interpretiert wird und nicht als Texteinstieg, ist demnach sehr wahrscheinlich eine eingebaute Eigenschaft des Programms, keine von ihm selbst gelernte. Die Antwort ist auch sachlicher als bei meinem früheren Versuch mit dem Schweizerpsalm, den ich nach Anmeldung bei ChatGPT immer noch nachschlagen kann. Zudem steht unter neueren Antworten: «ChatGPT kann Fehler machen. Überprüfe wichtige Informationen.» Drösser rät ohnehin, bei «konkreten Faktenfragen» eher gewöhnliche Suchmaschinen, Wikipedia oder passende Fachseiten zu konsultieren.

Ob von selbst oder durch bessere Programmierung: ChatGPT scheint gelernt zu haben, weniger zu flunkern. Die neuen Antworten wirken durchaus intelligent. Das aktuelle Modell schneidet bei diversen einschlägigen Tests denn auch gut ab. Drösser dazu: «Wenn Sprachmodelle nun diese Tests mit Bravour bestehen, muss man sagen: Entweder kann ein Wesen – Mensch oder Maschine – intelligent sein, ohne jemals die Welt erfahren zu haben. Oder Intelligenz ist etwas, das uns immer durch die Finger rinnt, wenn wir glauben, es erfasst zu haben.»

Besser mit als gegen KI-Unterstützung

Für Schule und Arbeitswelt empfiehlt der Autor den gut durchdachten Einsatz von KI-Programmen, denn vermeiden liessen sie sich ohnehin nicht. Statt für Hausaufgaben KI-Hilfe zu verbieten und sich mit der Kontrolle abzumühen, sollten Lehrkräfte den schon früher erwogenen «Umgekehrten Unterricht» vermehrt praktizieren: Lernen mit KI-Unterstützung zuhause, Klärung und Übung in der Schule – dort ohne elektronische Hilfsmittel, ausser wenn es um den Umgang mit ihnen geht.

Auf schon heute zunehmend automatisierte Routinearbeit geht das Buch nicht ein, wohl aber auf gern «kreativ» genannte Tätigkeiten. Es folgt der britischen Kognitionswissenschafterin Margaret Boden mit der Einteilung, wonach «transformatorische» Genies Ideen aufbringen, die nirgends vorgespurt und daher auch keiner KI zuzutrauen sind. Häufiger ist «exploratorische» Kreativität gefragt, die bestehende Muster auf die jeweils anstehende Arbeit anwendet: «Für die meisten kreativen Tätigkeiten, insbesondere in Branchen wie der Werbung, dem Journalismus oder der Popmusik, ist ja die Grenzüberschreitung gar nicht gewünscht. Und diese Berufe werden durch generative KI in den nächsten Jahren gehörig aufgemischt werden.»

Worüber sich Medienleute Gedanken machen müssen

Der Autor nimmt auch die eigene Arbeit als Beispiel: In der Wissenskolumne «Stimmt’s?» beantwortet er seit 25 Jahren Leserfragen an die Wochenzeitung «Die Zeit» und hat nun mit einem Versuch festgestellt, ChatGPT sei «in puncto Recherche schon ziemlich gut», aber in der Formulierung noch nicht publikationsreif, vor allem mangels Humor. Jüngere als er müssten sich schon über das Eindringen von KI in ihren Beruf Gedanken machen. Der ältere Kollege lässt aber offen, ob er eher Gedanken über den Gebrauch als Werkzeug oder solche übers Verdrängtwerden meint.

Drösser erklärt gut verständlich, «was KI mit der Sprache macht» – im Wortsinn, also wie sie damit umgeht. Aber wer wegen des Buchtitels Auskunft darüber erwartet hat, wie sich KI-gesteuerte Bots (Konversations-Programme) auf unser eigenes Reden und Schreiben auswirken könnten, wird enttäuscht: «Wird sich unsere Sprache verändern, wenn wir zunehmend in Dialog mit Maschinen treten und computergenerierte Texte lesen? Die Frage lässt sich nach einem Jahr ChatGPT noch nicht wirklich beantworten. (…) Reden wir alle bald wie Bots? Dagegen gibt es gute Mittel: möglichst viel selber lesen und auch schreiben. Das sollten wir uns von den Bots nicht so bald komplett abnehmen lassen.» Die eigene Lese- und Schreibarbeit befähigt uns auch besser, mit jener der KI sinnvoll umzugehen.

ChatGPT plaudert aus dem Nähkästchen

D.G.: Wie geht ChatGPT vor, um die verlangte Art von Text zu erkennen und zu produzieren?

ChatGPT: ChatGPT erkennt und produziert die verlangte Art von Text basierend auf mehreren Faktoren:

  1. Analyse der Benutzereingabe: Der erste Schritt ist die Analyse der Benutzereingabe. Dabei wird der Kontext, die Wortwahl und der Ton des Textes untersucht. Wenn ein Benutzer beispielsweise nach einem formellen Brief fragt, erkennt das Modell anhand von Stichwörtern wie «formell», «Brief», «geehrter Herr» oder «sehr geehrte Damen und Herren», dass ein bestimmtes Format und eine bestimmte Sprache erwartet werden.
  2. Kontextverständnis: ChatGPT berücksichtigt den gesamten Gesprächskontext, um die passende Art von Text zu produzieren. Wenn ein Benutzer in einer laufenden Unterhaltung einen neuen Text anfordert, wird der vorherige Textverlauf genutzt, um den Zusammenhang zu verstehen und die Relevanz zu wahren.
  3. Verwendung von Trainingsdaten: ChatGPT wurde mit einer großen Menge an Texten trainiert, die verschiedene Stile, Tonarten und Textformen abdecken. Dazu gehören formelle und informelle Schreiben, wissenschaftliche Texte, kreative Texte, technische Dokumentationen und vieles mehr. Dieses Training ermöglicht es dem Modell, verschiedene Stile nachzuahmen und die Anforderungen des Benutzers zu erfüllen.
  4. Anpassung an den gewünschten Stil: Basierend auf der Analyse der Eingabe und dem erkannten Kontext generiert das Modell den Text im passenden Stil. Wenn zum Beispiel ein wissenschaftlicher Bericht gewünscht ist, verwendet das Modell eine sachliche, präzise Sprache mit entsprechenden Fachbegriffen. Bei einer humorvollen Geschichte würde es einen lockeren, unterhaltsamen Ton anschlagen.
  5. Feedback und Verfeinerung: Wenn der Benutzer Feedback gibt oder den generierten Text weiter spezifiziert (z.B. «kürzer», «formeller», «mehr Details»), passt das Modell seine Ausgabe entsprechend an und produziert eine verfeinerte Version des Textes. Durch diese Schritte kann ChatGPT effektiv auf verschiedene Anfragen reagieren und die jeweils verlangte Art von Text erstellen.

gut, nun etwa halb so lang und für ein 12-jähriges Kind verständlich.

ChatGPT erkennt die gewünschte Textart, indem es die Eingabe analysiert und den Kontext versteht. Es achtet auf bestimmte Wörter und den Ton, um herauszufinden, was erwartet wird, z. B. einen formellen Brief oder eine lustige Geschichte. Dann nutzt es sein Wissen aus vielen Beispielen, die es gelernt hat, um einen passenden Text zu schreiben. Wenn du Feedback gibst, kann ChatGPT den Text anpassen, um genau das zu liefern, was du möchtest. So entsteht immer der richtige Text für deine Anfrage.

(Ich finde Schwachpunkte, melde sie aber nicht: kürzer als gewünscht, schwieriges Wort «Kontext», zu dickes Eigenlob – ich klicke kommentarlos aufs Pfeilsymbol «regenerieren». Laut dem Buch wirkt bei jedem Schritt zur Antwort Zufall mit, wenn des Programm gleichwertige Fortsetzungen findet – vielleicht verschwindet sogar der einzige Grammatikfehler: «einen formellen Brief».)

ChatGPT erkennt die gewünschte Textart, indem es zuerst die Benutzereingabe analysiert. Es achtet auf den Kontext und Wörter, um zu verstehen, was genau gefragt ist, zum Beispiel ein formeller Brief oder eine Geschichte. Das Modell hat durch sein Training viele verschiedene Textstile gelernt und nutzt dieses Wissen, um den passenden Text zu erstellen. Wenn der Benutzer Feedback gibt, kann ChatGPT den Text auch anpassen und verfeinern, damit er den Wünschen besser entspricht. So kann es verschiedene Arten von Texten gut erzeugen.

(Die neue Antwort kann ich benoten: «besser» finde ich, nicht «schlechter» oder «gleich»; die Bewertung soll ChatGPT bei der Arbeit an sich selbst helfen.)

Weiterführende Informationen

  • Christoph Drösser: Was macht KI mit unserer Sprache? Perspektiven auf ChatGPT und Co. Dudenverlag Berlin 2024.
  • Indexeintrag «KI» in der laufenden «Sprachlupen»-Sammlung: tiny.cc/lupen3.
  • Quelldatei für RSS-Gratisabo «Sprachlupe»: sprachlust.ch/rss.xml; Anleitung: sprachlust.ch/RSS.html