Ausgerechnet ein Physiker, der die Risiken von Künstlicher Intelligenz am deutlichsten benennt, erhält den Nobelpreis.

Leo Keller für die Online-Zeitung INFOsperber

Red. Dies ist ein Gastbeitrag. Leo Keller ist seit 2000 als Internet-Start-Up-Gründer beruflich im Feld der Semantic Intelligence tätig (Sprach-KI).

Zwei Nobelpreise, jener für Physik und jener für Chemie, gehen im Kern an die gleiche bahnbrechende Technologie: die Künstliche Intelligenz, die auf neuronalen Netzen und selbstlernenden Systemen basiert. Und sie gehen an drei der fünf hervorragenden Forscher, die bei Google zusammengearbeitet haben. Fast scheint es, die Schwedische Akademie wollte uns damit etwas sagen.

Denn es fällt auf: Wohl noch nie wurde mit der Vergabe eines Nobelpreises so intensiv auch über die Gefahren, die von der ausgezeichneten Forschung ausgehen können, berichtet und diskutiert.

Bereits die Akademie benennt die Risiken der KI für die Gesellschaft bei ihrer Ankündigung als zweiten wichtigen Grund für die Wahl von Geoffrey Hinton (neben John Hopfield). Und dass Hinton sehr deutlich auf die Gefahren, die von der Künstlichen Intelligenz ausgehen können, hinweise, begrüsst sie explizit: «und das ist sehr gut so» (ab Minute 26:00).

Hinton war «flabbergasted»

Manche Fachkommentatoren wundern sich schon, dass der Nobelpreis für Physik für die bahnbrechenden Grundlagenarbeiten der allgemeinen künstlichen Intelligenz vergeben wird, denn das sei eigentlich keine Physikforschung. Auch Geoffrey Hinton war sehr «verblüfft» – flabbergasted wie er sagte –, als er am Morgen um 1 Uhr in einem billigen Hotel in Westkalifornien mit schlechtem Internet einen Anruf aus Schweden entgegennahm. Erst war er unsicher, ob er ihn annehmen solle. Er vermutete einen «Spam-Call».

Das Komitee umgeht diese «Verwunderung» recht geschickt, indem es begründet: «Sie [die Preisträger] nutzen Methoden und Instrumente der Physik» und «die Forschungsergebnisse erlauben der Physik neue wichtige Erkenntnisse». Kritische Wellen schlägt diese Vergabe in dieser Hinsicht allerdings nicht, denn die bahnbrechenden Leistungen sind weitherum unbestritten.

Das zeigt auch die Vergabe des Chemie-Nobelpreises an David Baker, Demis Hassabi und John Jumper. Denn Hassabi und Jumper nutzen für ihre Arbeiten genau diese Grundlagentechnologie für ihr Computersystem Alphafold2, das ihnen erlaubt, sehr schnell und präzise die räumliche Struktur von komplexen Proteinen vorherzusagen. Dies führt in der Prävention und Therapie von Krankheiten wie Alzheimer und Rinderwahnsinn zu schnellen und grossen Fortschritten.

Die Vermutung liegt nahe, dass dem Nobelpreis-Komitee klar war, dass eine Auszeichnung dieser KI-basierten medizinischen Forschung nicht möglich ist, wenn man nicht wenigstens gleichzeitig auch jene bahnbrechende Grundlagenforschung auszeichnet, die diese Ergebnisse erst möglich gemacht hat. Und dass Geoffrey Hinton, Demis Hassabi und John Jumper bei Google/DeepMind zehn Jahre lang zusammengearbeitet hatten, weiss die Fachwelt.

Bravouröser Balanceakt

Mit der Vergabe der beiden Preise an die gleiche Technologie hat das Nobelpreis-Komitee einen bravourösen Balanceakt geschafft. Denn Alfred Nobel stipulierte in seiner Gründungsurkunde, dass jene Arbeiten ausgezeichnet werden sollen, die den grösstmöglichen Nutzen für die Menschheit erbringen können. Der Nobelpreis für Chemie illustriert den Nutzen für die Menschheit sehr gut.

Dass die darunterliegende Technologie aber auch ein sehr grosses Risiko-Potential in sich trägt, hat niemand deutlicher und glaubwürdiger in die Welt hinausgetragen als Geoffrey Hinton. Er hatte im März 2023 Google verlassen, um unabhängig vor den möglicherweise existentiellen Risiken warnen zu können, die bald von den KI-Systemen ausgehen werden, die auf maschinellem Lernen mit künstlichen neuronalen Netzen basieren. Hinton schätzt, dass die AGI (Künstliche allgemeine Intelligenz) in 5 bis 20 Jahren deutlich intelligenter sein wird als wir Menschen. Andere erwarten das bereits in ein bis zwei Jahren. Ray Kurzweil prognostiziert sie für 2029.

Hinton und der Grossteil seiner Fachkollegen warnen zwar seit dem 24. März 2023 – damals forderten sie ein Moratorium – eindringlich, aber praktisch folgenlos. Geoffrey Hinton vergleicht diese KI direkt mit der industriellen Revolution: Damals wurden die Maschinen viel stärker als der Mensch, nun werden sie viel intelligenter als der Mensch. Und das wird sicher zu grossen Problemen führen, meinen Hinton und viele andere.

Als «AI-Doomer» verspottet

Sie erhalten aber in der Politik und vor allem in den Mainstream Medien kaum Resonanz und Beachtung, sie werden zum Teil sogar als AI-Doomer verspottet. So sagte zum Beispiel die deutsche Kommunikationswissenschaftlerin Miriam Meckel sinngemäss, Superintelligenz werde es nicht geben. Wenn doch, dann sei es auch nicht schade um die Menschheit.

Mit der Verleihung des Physik-Nobelpreises an Geoffrey Hinton wird die existentielle Risiko-Debatte vielleicht durch die Schwedische Akademie neu lanciert. Vor über einem Jahr bezeichnete Hinton in einem Interview mit der BBC die neuen KI-Chatbots wie GPT4 als «ziemlich gefährlich» und sagte wörtlich: «Im Moment sind sie noch nicht intelligenter als wir, soweit ich das beurteilen kann. Aber ich denke, sie könnten es bald sein». Damals gab es wenig positives Echo.

Vielleicht wird es jetzt anders sein, wenn die gleichen Botschaften vom Nobelpreis-Komitee nochmals aufgenommen und als «sehr gut» bewertet werden. Das Medienecho auf die Preisverleihung jedenfalls stimmt optimistisch. Die Hälfte der Fragen an Geoffrey Hinton gingen direkt auf das Thema der existentiellen Bedrohung ein.

Weiterführende Informationen