„Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.“ Asimovs erste Regel der Robotik.
Künstliche Intelligenz (KI) ist allgegenwärtig, von der Autokorrektur bis zu den Algorithmen der sozialen Medien. Die Technologie wächst exponentiell und könnte schon bald die menschliche Intelligenz übertreffen. In vielerlei Hinsicht kann sie eine Kraft für das Gute sein. Aber was passiert, wenn das Militär KI entwickelt, um autonom zu töten? Die Campaign to Stop Killer Robots bezieht Stellung.
Bewaffnete künstliche Intelligenz: so gefährlich wie Atomwaffen?
Elon Musk glaubt, dass künstliche Intelligenz für die Zukunft der Menschheit weitaus gefährlicher ist als Atomwaffen.
Diese Behauptung scheint fragwürdig, wenn man die langanhaltenden zerstörerischen Folgen der Bombenangriffe auf Hiroshima und Nagasaki bedenkt – aber das Spiel ändert sich, wenn es sich um waffenfähige künstliche Intelligenz handelt.
Im Moment hängt die Zukunft der Menschheit davon ab, ob die Staats- und Regierungschefs bereit sind, den „Knopf zu drücken“, was zu einem Atomkrieg führen könnte. Die Entscheidung, Millionen zu töten, liegt in den Händen von Menschen, und es gab schon viele Beinahezusammenstöße.
In jedem dieser Fälle haben menschliche Emotionen wie Zweifel, Neugier oder gesunder Menschenverstand diese Entscheidung verhindert. Der Unterschied zwischen einem Menschen und einem Roboter besteht darin, dass ein Mensch seine Meinung ändern kann.
Künstliche Intelligenz, die vor der Aufgabe steht, einen anderen Menschen zu töten, verfügt nicht über diese Art von Menschlichkeit. Es ist nicht so, dass diese Roboter böse sind – es ist einfach so, dass sie nicht wissen, was ein Mensch ist. Sie schätzen das menschliche Leben nicht und wissen nicht, was es bedeutet, eine Seele zu zerstören.
Sie sind aus Metall und Drähten, ein binäres Ein-Aus-System, das entweder handelt oder nicht. Wenn eine künstliche Intelligenz darauf programmiert ist, zu töten, gibt es keine Grauzone, keinen Spielraum für ein Überdenken der Situation.
Die Kampagne zum Stoppen von Killerrobotern
Aus dieser dystopischen Landschaft ist die Kampagne gegen Killerroboter hervorgegangen. Sie hat vor kurzem eine neue Website https://automatedresearch.org/ eingerichtet, die Berichte und aktuelle Informationen über den Einsatz von waffenfähiger Robotertechnologie enthält.
Im Moment behauptet das Militär, dass diese Roboter dazu da sind, den Menschen zu helfen“.
Jodie Williams, Sprecherin der Kampagne „Stop Killer Robots“, gibt eine erschreckende Antwort: „Und dann werden sie den Menschen beim Töten helfen.“
Jahrelang hat das Militär Soldaten psychologisch darauf konditioniert, ohne Gewissensbisse zu töten. Lesen Sie einfach Gwynne Dyer’s The Shortest History of War.
Die Techniken reichen von der Verwendung humanoider Zielscheiben für Schießübungen bis zum Marschieren im Takt von „Kill. Kill. Kill.“, wäre es illusorisch zu glauben, dass das Militär keine Killerroboter einsetzen würde.
Fairerweise muss man sagen, dass die Programmierung eines Roboters zum Töten wahrscheinlich ethischer ist als eine Gehirnwäsche bei einem Menschen.
Was meinen Sie dazu?
Die Übersetzung aus dem Spanischen wurde von Alina Kulik vom ehrenamtlichen Pressenza-Übersetzungsteam erstellt. Wir suchen Freiwillige!