Heinz Moser für die Online-Zeitung INFOsperber
Seit Microsoft am 7. Februar dieses Jahres Chat GPT präsentierte, ist nichts mehr wie vorher. Fast täglich berichten Zeitungen und soziale Medien über neue Einsatzmöglichkeiten der Künstlichen Intelligenz (KI). Entstanden ist ein Cocktail von Faszination, gemischt mit diffusen Ängsten. Ein mit einer gefakten Daunenjacke bekleideter Papst ist ein skurriles Beispiel, das erst einmal ein Schmunzeln hervorruft. Beim fast gleichzeitig in sozialen Medien veröffentlichte Bild eines Papstes, der vor Polizisten flieht, bleibt das Lachen im Hals stecken. Und der welsche Radiosender, der das Wetter von einer künstlich generierten Person verlesen ließ, verbindet die Faszination über die technischen Möglichkeiten mit der Frage, ob in Zukunft Nachrichtensprecher und Journalisten auf dem Arbeitsmarkt zugunsten künstlicher Bots wegfallen könnten.
Gefakte Bilder und künstlich erzeugte Bücher
Bei der Colorado State Fair gewann Jason Allen 300 Dollar für sein Bild «Théâtre D’opéra Spatial» – obwohl nicht er es gemalt hatte, sondern dazu die KI «Midjourney» eingesetzt hatte. Seither wird heiß diskutiert, wie weit es noch menschlicher Kreativität bedarf, wenn Kunst durch künstliche Intelligenz geschaffen werden kann.
Nicht zu vergessen ist, dass auf Amazon bereits Bücher verkauft werden, die mithilfe von Chat GPT verfasst wurden – etwa Kinderbücher wie «Mia, Finn und der kleine Roboter KI» von Ivana Leiseder. Es ist das erste deutschsprachige Bilderbuch über künstliche Intelligenz, das von Schweizer Autoren und Autorinnen gemeinsam mit Kindern und Chat GPT entwickelt wurde (so die Beschreibung auf «Amazon»). Im Internet wird das Buch mit gut bewertet.
Zu den Büchern, die mit dem Einsatz von Chat GPT geschrieben wurden, gehört auch das Werk von Brett Schickler, einem Verkäufer aus Rochester. Sein Traum war es immer schon gewesen, einmal ein eigenes Buch zu schreiben. Mithilfe der KI-Software erstellte er in wenigen Stunden ein 30-seitiges, illustriertes E-Book für Kinder. Die Geschichte, wie das weise kleine Eichhörnchen sparen und investieren lernt (The Wise Little Squirrel: A Tale of Saving and Investing). Oder ein weiteres Beispiel: «Chat GPT – Ein Buch von mir. Über mich: Ein Buch. Erstellt mit der Künstlichen Intelligenz Chat GPT» von Niklas Schügerl.
Alle diese Titel werden über Amazon vertrieben. Nach Reuters gab es im Kindle-Shop von Amazon schon im Februar 2023 über 200 E-Books, in denen Chat GPT als Autor oder Co-Autor aufgeführt war – mit der Tendenz stark steigend. Es wird nicht mehr lange dauern, bis wir auch Thriller «made by KI» lesen können.
Die Datafizierung der Gesellschaft
Im Zentrum der Entwicklungen um KI steht die wachsende Bedeutung digitaler Daten für die Gesellschaft. Denn überall werden Daten abgegriffen, welche als riesige Datenbasis für die Algorithmen der Chatbots dienen – um zum Beispiel daraus ein neues Buch zusammenzusetzen. Überall wo uns abverlangt wird, online ein Profil zu erstellen, wird nach dem «digitalen Gold» geschürft. Im Supermarkt wagen es viele Leute schon fast nicht mehr, ohne Karte zu bezahlen, wenn an der Kasse ultimativ nach «Cumulus» verlangt wird und damit alle unsere Einkäufe zentral erfasst werden können.
Dabei hat die Datafizierung schleichend begonnen und sich verstärkt, je häufiger digitale Daten aufgezeichnet wurden. Ein Treiber dazu waren die Handys und PCs. Im Alltag nutzen Unternehmen diese Technologie, um Beratung und Kundenkontakte zu ersetzen, insbesondere in Situationen, in denen das Sprachvokabular und die damit verbundenen Aufgaben klar umrissen und überschaubar sind. So ist es in Online-Shops üblich geworden, sich beim Einkaufen durch Bots assistieren zu lassen. Obwohl dies das tägliche Leben erleichtern soll, gibt es auch eine Kehrseite der Medaille: Je häufiger bei Verwaltungsvorgängen oder beim Bezahlen ein digitaler Zugriff erfolgt, desto umfassender werden engmaschige Kontrollsysteme. Fichen oder die Stasi-Akten in der DDR waren primitive Vorläufer der heute möglichen Überwachung. Während damals Informationen mühsam von Hand gesammelt und protokolliert wurden, sind heute Millionen Daten per Mausklick zugänglich. Google weiss zum Beispiel über den Standortverlauf, wo man sich im letzten Jahr aufhielt und welche Orte man besuchte. Für diese Informationen braucht es nur das Handy und keine «echten» Menschen mehr, die uns hinterher spionieren.
Zwar verhindert der Datenschutz das Schlimmste. Wie klein jedoch der Schritt zur Manipulation sein kann, wurde erstmals bei der US-Präsidentenwahl von 2016 bewusst. Vor allem von der Seite Donald Trumps wurden Social Bots eingesetzt. Diese Computerprogramme agierten wie richtige Menschen und nutzen die Informationen aus dem Netz, um massgeschneiderte Propaganda an die Wählerinnen und Wähler zu bringen. Fast jeder dritte Tweet, der auf Twitter Donald Trump unterstützte, war von einem solchen Bot erzeugt.
Die Verunsicherung durch Chat GPT
Diese Vorgeschichte ist wichtig, um den Hype zu verstehen, der dieses Jahr um Chat GPT entstanden ist. Als Chat GPT vorgestellt wurde, ist vielen erst richtig bewusst geworden, wie rasant sich KI-Modelle in den letzten Jahren entwickelt haben. Wenn man mit künstlichen Intelligenzen ganz natürlich kommunizieren kann, dann kommen alle Ängste hoch, die man mit Science-Fiction und der Bedrohung durch Cyborgs verbindet. So befürchten wir, von einer Technologie bedroht zu werden, die wir nicht kontrollieren können und nicht im Griff haben.
Dahinter steht eine grundlegende Vertrauenskrise: Wie kann man seinen Augen noch trauen, wenn unser Wissen und unsere Argumente auf Informationen beruhen, die uns von KI-Modellen in den Mund gelegt werden? Zu einem Interview-Auftritt von Robert Habeck schrieb das Social-Media-Team des deutschen Bundeswirtschaftsministers erst kürzlich, es handle sich um ein «Deepfake». Das Material sei so geschickt manipuliert worden, dass es auf den ersten Blick echt wirke. Die Aussagen im Interview seien aber nicht so gefallen. Und am Schluss folgt der Appell, solche Fakes nicht weiterzuverbreiten.
Was man gegen eine «gefakte Realität» tun kann
Die Appelle, nicht auf Fakes hereinzufallen, wirken ihrerseits hilflos. Auch die alten journalistischen Regeln, wie man Texte und Bilder medienkritisch hinterfragen kann, helfen nicht weiter. So war es zu Zeiten eines klassischen Journalismus sicher richtig, dass Informationen auf wenigstens zwei unterschiedlichen Quellen beruhen sollten. Doch die gigantische Datenflut, die jeden Tag erzeugt wird, macht es heute oft unmöglich, die Unabhängigkeit von Quellen zu belegen. Auch wer mehrere unabhängige Quellen findet, weiss nicht, ob im Hintergrund nicht dennoch ein Netzwerk von gleichgerichteten Chatbots steht, oder ob man auf das Netzwerk eines Narrativs gestossen ist, dessen Meinungen sich gegenseitig verstärken.
Zudem: wer hat überhaupt Zeit, die Informationen aus Zeitungen, dem Internet und dem Fernsehen gleich noch mit ausführlichen Recherchen über die Glaubwürdigkeit von Inhalten zu verbinden. Deshalb ist medienkritisches Expertenwissen wichtig geworden, welches die Einordnung von Informationen unterstützt und Fake-Nachrichten entdeckt. Medienkonsumenten und -konsumentinnen können sich zum Beispiel informieren bei:
– Plattformen wie Google «Fact Check», «Correctiv», «Fullfact» aus Grossbritannien oder «Volksverpetzer» mit eigener App, wo Informationen auf ihre Richtigkeit untersucht und die Resultate online veröffentlicht werden.
– Googles Bildersuche, wo man über die Rückwärtssuche eines Bildes den Kontext abfragen kann, in welchem ein Bild schon einmal erschienen ist. Auf diese Weise kann man grobe Manipulationen auch als Konsument oder Konsumentin erkennen.
– den Angeboten zu Faktenchecks, welche Medienanbieter selbst auf die Beine gestellt haben. So bietet die Schweizerische Radio- und Fernsehgesellschaft (SRF) ebenso eine Plattform für Faktencheck wie die englische BBC mit ihrer Seite zum Reality Check. Und auch grosse Zeitungen wie der Tages-Anzeiger unterhalten eigene Faktencheck-Teams. Seit 2019 besteht zudem die Trusted News Initiative (TNI) ein globales Netzwerk von Nachrichtenorganisationen und sozialen Medienplattformen, der auch SRF angehört.
Nur kann man leider auch auf Faktenchecks nicht blind vertrauen, wie Infosperber immer wieder nachgewiesen hat. Wenn Fernsehsender zum Beispiel in ihren Talkshows ankündigen, dass die dort verbreiteten Meldungen noch über Faktenchecks geprüft würden, so kann das auch bedeuten, dass fragwürdige Narrative weiter gestützt und nicht hinterfragt werden. Problematisch ist vor allem, dass fast alle «Faktencheck»-Organisationen mit mächtigen staats- und konzernnahen Interessengruppen verbandelt sind. So stellt sich gemäss Infosperber auch bei der weltweit operierenden Trusted News Initiative (TNI) die Frage nach transparenten Leitlinien, welche Fake News zu klassifizieren ermöglichte. Die Website «Volksverpetzer» hält denn auch mit Blick auf die grossen Konzerne fest: «Lass nicht Tech-Milliardäre und deren Algorithmen entscheiden, ob du Faktenchecks siehst!»
Die Veränderung der Arbeitswelt durch KI
Das Unbehagen, welches um die künstliche Intelligenz entstanden ist, beschränkt sich nicht auf die Verbreitung von Fake News und die Frage, ob die menschliche Intelligenz bald durch KI überholt wird. Besonders beunruhigend sind die Unsicherheiten über die Zukunft des Arbeitsmarktes. So prognostizierte der deutsche Arbeitsminister Hubertus Heil kürzlich in einem Interview mit dem Tagesspiegel eine tiefgreifende Veränderung der Arbeitsmärkte. Dies betreffe weniger die klassischen Arbeiterinnen und Arbeiter, die hauptsächlich physische Arbeit verrichten, sondern den heutigen Mittelstand, also überwiegend Menschen, die Schlips und Kragen tragen – etwa in den Bereichen Handel, Banken und Versicherung. Heil dazu: «Hier wird es irgendwann tatsächlich um berufliche Neuorientierung gehen. Deswegen setzen wir jetzt schon stark auf Weiterbildung und Qualifizierung». Er sieht aber auch Bereiche, wo die Nachfrage nach menschlicher Arbeit nicht weniger werde, sondern dramatisch wachse – etwa im Bereich Gesundheit, Bildung, Pflege, also in allen sozialen Dienstleistungen.
Die Meinungen über die Auswirkungen der KI auf die Arbeitswelt sind geteilt: Einige KI-Entwicklerinnen und Entwickler sind überzeugt, dass die neuen KI-Tools zu bedeutenden Fortschritten in Bereichen wie der Arzneimittelforschung, der Verwaltung oder der Bildung führen können. Andere befürchten, dass es in den Mittelschichten eine große Anzahl von Verliererinnen und Verlierern geben könnte. Die aktuelle Verunsicherung belegt eine internationale Studie der Unternehmensberatung Boston Consulting Group (BCG), über die das deutsche «Handelsblatt» berichtet. Danach glauben weltweit 36 Prozent der Befragten, dass KI ihren Arbeitsplatz irgendwann überflüssig machen könnte.
Paul Hinton, laut New York Times einer der Pioniere der KI, teilt zwar die Meinung, dass Chatbots wie Chat GPT Routineaufgaben erledigen können und damit die tägliche Plackerei überflüssig machen. Aber er befürchtet gleichzeitig, dass zukünftige Versionen der Technologie eine Bedrohung für die Menschheit darstellen könnten. Der Wettlauf zwischen Google, Microsoft und anderen pervertiere zu einem globalen Wettlauf, der ohne globale Regulierungen nicht aufhören werde.
Mehr als 1000 Experten, Unternehmer und Wissenschaftler haben kürzlich in einem Brief gefordert, dass «alle KI-Labore sofort das Training von KI-Systemen, die leistungsstärker als GPT-4 sind, für sechs Monate unterbrechen». Doch ist auch diese Erklärung mit der KI-Industrie verbandelt. Sie wurde vom «Future of Life Institute» initiiert, einer von Elon Musk und anderen 2014 gegründeten US-Stiftung. Wenn sich die Vorreiter der KI-Industrie hinter dieser Initiative versammeln, könnte es leicht sein, dass diese auch deshalb ein Moratorium fordern, um zu verhindern, dass neue Konkurrenten die Möglichkeit erhalten, sich in diesen neuen Märkten breit zu machen.
KI im gesellschaftlichen Wandel
Die Gefahren der Entwicklung der künstlichen Intelligenz abzuschätzen, ist ein Weg zwischen Skylla und Charybdis. Auf der einen Seite geht es darum, den gläsernen Menschen zu verhindern, welcher der Macht und der Kontrolle dieser neuen Technologie unterliegt. Wie weit kann man demokratischen Prinzipien wie dem Überzeugen durch Argumente noch trauen, wenn diese sich auf Behauptungen stützen, die möglicherweise mit KI fabriziert wurden? Gleichzeitig kann man sich von einem gesellschaftlichen Wandel nicht abkoppeln, der bereits im vollen Gang ist.
Zur Eingrenzung der KI strebt die EU bereits heute Regulierungen an – etwa eine Verordnung der EU-Kommission für die Entwicklung, Vermarktung und Nutzung von künstlicher Intelligenz (KI) in Europa. Hochrisiko-Anwendungen sollen EU-weit kontrolliert werden: So soll es für Gesichtserkennungssysteme, medizinische Diagnose- und Entscheidungsunterstützungssysteme und autonomes Fahren spezielle Regeln zur Nutzung geben.
In der Schweiz gibt es aber auch grosse Vorbehalte gegenüber Regulierungen. Der Wirtschaftsverband Swico, der die Interessen von Firmen der ICT- und Online-Branche vertritt, ist skeptisch. Angesichts der «Hilflosigkeit der staatlichen Akteure» appelliert Swico an die Eigenverantwortung der Digitalindustrie. Und SVP-Nationalrat Franz Grüter findet: «Zu viel Regulierung bei KI bremst die Innovation». Doch die Politik muss eine Balance zwischen ungehemmter Innovation und einem übertriebenen Regulierungswahn finden.