ChatGPT und Co stehen in der Kritik. Ihre Server-Farmen fressen Energie und verbrauchen große Mengen Wasser. Die Emissionen der großen Tech-Konzerne wachsen durch die milliardenschweren Entwicklungen im KI-Bereich weiter an. Gleichzeitig entwickeln Forscher:innen KI-Anwendungen, die uns beim Klimaschutz unterstützen könnten – auch in Österreich. Was überwiegt beim KI-Hype? Chancen oder Risiken?

von Jannik Hiddeßen

Kaum eine andere Technologie hat in den vergangenen Jahren einen solchen Hype erlebt wie die “Künstliche Intelligenz”. Studierende nutzen KI-Modelle für Seminararbeiten, Ärzt:innen als Unterstützung für Diagnosen und Unternehmen immer öfter als Verkaufsargument. Es gebe kaum ein Produkt, dass sich nicht durch Künstliche Intelligenz verbessern ließe. Das möchte uns die Tech-Industrie jedenfalls glauben lassen.

Ganz vorne dabei sind Tech-Giganten wie Microsoft oder Alphabet. Der Mutterkonzern von Google integrierte sein Modell “Gemini” im März direkt in die allgemeine Suchfunktion. Bei der Microsoft-Suchmaschine Bing ist das schon längst Standard. Das Beispiel zeigt: Ob wir wollen oder nicht und ob es uns immer klar ist oder nicht, wir nutzen KI mittlerweile im Alltag.

Viele verwenden Künstliche Intelligenz aber auch ganz bewusst, lassen zum Beispiel ChatGPT E-Mails formulieren oder Texte zusammenfassen. Aufgaben, die bislang auch gut ohne Künstliche Intelligenz erledigt wurden. Doch mit den KI-Anwendungen geht es oft schneller, einfacher, effizienter.

Reality Check für den KI-Hype

Der KI-Hype hat allerdings auch seine Schattenseiten. Ihrem Namen wiedersprechend, sind KI-Modelle nämlich nicht wirklich “intelligent”. Mit Hilfe der ihnen verfügbaren Daten berechnen sie lediglich die wahrscheinlichsten Antworten auf unsere Anfragen. Und lassen dabei auch Vorurteile und Ressentiments aus den Trainingsdaten weiterleben. Regelmäßig spucken sie außerdem gänzlich falsche Antworten, sogenannte “Halluzinationen”, aus, weil sie wahr und falsch nicht unterscheiden kann. Ein Problem, das viele mit der aktuellen Technologie nicht für lösbar halten.

Für die Arbeitswelt ist schon jetzt ist abzusehen, dass viele Unternehmen KI vor allem als Chance sehen, Arbeitsplätze und damit Geld einzusparen. Eingesetzt wird es etwa schon bei der Durchsicht von Bewerbungen in Personalabteilungen. Trifft  „Künstliche Intelligenz” eigenständig wichtige Entscheidungen – vielleicht weil der Mensch, der eingreifen könnte, schon eingespart ist – sind Fehler und diskriminierende Grundlagen besonders schwerwiegend. Über die Datenschutz- und Urheber-rechtlichen Probleme, die sich beim Training von ChatGPT und Co ergeben und die Überflutung des Internets mit KI-generiertem Trash-Content haben wir da noch gar nicht gesprochen.

Die Klimakrise und die KI

Nicht zuletzt hat die KI auch ein Klima-Problem.

Stellt man großen KI-Modellen wie ChatGPT, Gemini oder Copilot eine Frage, wird diese nicht vom eigenen Laptop beantwortet. Stattdessen wird sie in kleine Datenpakete zerlegt und durch Glasfaserkabel quer über den Erdball zu einem Rechenzentrum von OpenAI, Google oder Microsoft geschickt.

Das ist zwar erstmal nicht anders als bei einer Suchmaschine. Der Unterschied liegt aber in der Rechenleistung, die notwendig ist, um die gewünschte Antwort zu erstellen. Bis zu zehnmal mehr Energie als für eine Google-Suche wird dazu laut einer Untersuchung von Goldman Sachs benötigt. Das ist auch ein Problem fürs Klima. Auf jeden Fall so lange wir unseren Strom nicht komplett aus erneuerbaren Energien beziehen.

Wie viel Energie verbraucht KI?

Herauszufinden, wie viel Energie ein KI-Modell tatsächlich verbraucht, ist gar nicht so einfach. Die großen Tech-Firmen halten sich zum Energieverbrauch ihrer Tools bewusst sehr bedeckt. Mit der kommerziellen Nutzung kam auch mehr Geheimhaltung.

Um zu erkennen, dass der Energiehunger der Künstlichen Intelligenz zum Problem für das Klima werden könnte, reicht allerdings ein Blick auf die Treibhausgasemissionen von Google. Eigentlich sollte das Unternehmen bis 2030 klimaneutral werden. Tatsächlich sind Googles Emissionen seit 2019 aber sogar laut eigenen Angaben um fast 50 Prozent gestiegen (PDF: Seite 8 bzw 31.). Das Unternehmen schreibt dies auch dem Wachstum seiner Rechenzentren zu und erklärt, dass es aufgrund der intensiven KI-Nutzung schwierig werden könnte, die schädlichen Ausstöße in naher Zukunft zu verringern.

Der Wasserverbrauch der Künstlichen Intelligenz

Warum aber verbrauchen diese Rechenzentren so viel Energie? Neben dem Betrieb der Computer selbst, lässt vor allem die Kühlung der Rechenzentren, die Stromrechnung der Betreiber in die Höhe schnellen. Darauf reagieren die Unternehmen, indem sie Rechenzentren dort aufstellen, wo sie sich möglichst kostengünstig mit Strom versorgen lassen. Zum Beispiel in sonnigen Gebieten wie Kalifornien oder Arizona, wo es billigen Solarstrom gibt. Der Solarstrom fehlt dann aber anderswo, zudem gibt es dort auch enorm hohe Temperaturen. Das verursacht wiederum einen größeren Kühlbedarf, und erhöht so auch den Wasserverbrauch der Anlagen.

Wasserkühlsysteme, wie sie in den USA verbreitet sind, sind zwar energieeffizienter als Luftkühlung, verbrauchen aber Frischwasser. Eine Ressource, die nicht nur in der amerikanischen Wüste zusehends knapp wird. Schätzungen gehen davon aus, dass KI-Rechenzentren alleine bis 2027 halb so viel Wasser verbrauchen werden, wie ganz das gesamte Vereinigte Königreich von Großbritannien.

Nachhaltigkeit durch Wasserkraft und Bergluft?

Es gehe auch anders, erklärt Ivan Dukic, Gründer des KI-Startups Localmind: “Wo die Rechenzentren gebaut werden, entscheidet maßgeblich darüber, welchen Klimaeffekt sie haben. Und wenn ich das mitten in die Wüste stelle, ist es halt ein absoluter Energiewahnsinn.” Die Server für seine KI-Modelle stehen daher in einer Gegend, die mit einer Wüste so gar nichts gemein hat. Mitten in den Alpen, in der Nähe von Innsbruck.

Dort haben die Innsbrucker Kommunalbetriebe einen alten Trinkwasserspeicher im Berg zu einem modernen Rechenzentrum umgebaut. Die Kühlung ist hier kein großes Thema. “Generell bleibt das Ganze durch die Höhe, die Luft und die schattige Lage sehr lange kühl, ohne Kühlmittel zu verwenden”, meint Ivan Dukic. Bis 20 Grad Außentemperatur kann man die Anlage nur über die Außenluft kühlen. So warm wird es dort nur in den Sommermonaten. Braucht man sie doch einmal, wird die Kühlanlage, genauso wie der Rest des Rechenzentrums, mit Strom aus regionaler Wasserkraft betrieben.

Auch Ralph Hintemann, der am Borderstep Institut zu Digitalisierung und Nachhaltigkeit forscht, betont die Relevanz der richtigen Standortwahl. Besonders in Ballungszentren ergäben sich Vorteile, da Abwärme der Rechenzentren zum Heizen umstehender Wohngebiete genutzt werden könnte. “Was da an Strom reingeht, geht zum Teil als Wärme wieder raus. Diese Wärme können wir auch nutzbar machen.”

Großes Hirn, großer Energieverbrauch

Die Frage nach der Nachhaltigkeit entscheidet sich allerdings nicht allein im Rechenzentrum. Auch das verwendete KI-Modell spielt eine Rolle. Die Bandbreite dabei ist groß und reicht von Meta-Modellen wie Gemini oder ChatGPT bis hin zu einfachen Programmen mit engem Anwendungsfeld. “Das eine ist ein Riesengehirn, sowas wie ChatGPT. Und dann gibt es kleinere, spezialisierte Gehirne, die wesentlich weniger Rechenressourcen brauchen.”, fasst Dukic den Unterschied zusammen.

Weniger Rechenressourcen, das bedeutet in diesem Kontext auch weniger Energieverbrauch. Der Grund: “Riesengehirne”, wie das von ChatGPT werden mit Unmengen an Texten trainiert. Von Shakespeare bis zur Gebrauchsanleitung deines Staubsaugers ist alles dabei. Stellt man dem Chatbot eine Frage, wird dieser ganze Info-Haufen aktiviert. Logisch, dass das mehr Energie verbraucht, als eine Künstliche Intelligenz, die mit weniger Daten trainiert wurde, um dann gezieltere Aufgaben zu übernehmen. (Die sie dann oft auch besser erledigt.)

Laut einer US-amerikanischen Untersuchung verbrauchten sogenannte “Multi-Purpose-Modelle” 33 mal mehr Energie als “aufgabenspezifische Software”. Generell gilt also: Je spezialisierter die KI, desto geringer ihr Energieverbrauch.

Hier offenbart sich eines der grundlegenden Probleme des aktuellen KI-Hypes. Die Modelle, die häufig für die banalsten Dinge benutzt werden, sind auch die Modelle, die die meiste Energie fressen. Während eine Menge Energie also für kleine Erleichterungen im Alltag draufgeht, tragen spezialisierte KI-Modelle an anderer Stelle sogar aktiv zum Klimaschutz bei.

KI-Versprechen: Bessere Wetterprognosen für grüne Energie

In der Meteorologie sei KI eigentlich nichts Neues, erklärt Irene Schicker, von der Geosphere Austria. Die Grundlage der aktuell besonders populären Formen von KI ist sogenanntes “Maschinenlernen”. Damit werden große Datensätze mit Algorithmen analysiert. Das werde in anderer Form in ihrem Feld schon lange genutzt, um Daten zu analysieren und auszuwerten. Trotzdem hätte es in den letzten Jahren nochmal einen Umbruch gegeben.

Mit ihrem Team arbeitet Schicker an einem Forschungsprojekt mit dem knackigen Namen Atmol4REN-4Cast. Dabei nutzen sie Künstliche Intelligenz, um regionale Wetter- und Klimaprognosen zu verbessern. Das sei entscheidend für die Energiewende.

“Erneuerbare Energien sind sehr stark davon abhängig, wie gerade die atmosphärischen Bedingungen sind.”, erklärt Schicker. Schon kleine Wetteränderungen können große Auswirkungen auf die Stromproduktion von Solar- und Windkraftanlagen haben. Um das Stromnetz stabil zu halten, braucht es daher genaue, ortsspezifische Wetterprognosen. Und das quasi in Echtzeit.

Effizientere Windparks und Solaranlagen

Herkömmliche Wettermodelle können das kaum leisten. Zwar lassen sich die großen, überregionalen Entwicklungen gut vorhersagen. Bei Prognosen für einen spezifischen Standort stoßen sie allerdings an ihre Grenzen. Um so nah heranzuzoomen, sind die zugrundeliegenden Berechnungen zu komplex.

Künstliche Intelligenz soll dazu beitragen, dieses Problem zu lösen. Basierend auf den bestehenden Wettermodellen und mithilfe von Echtzeitdaten einzelner Wetterstationen, berechnet das Modell Prognosen mit großer räumlicher Auflösung. Und ist dabei schneller und energieeffizienter als die herkömmlichen Modelle.

Auch für die Planung neuer Windparks und Solaranlagen bietet das Projekt Vorteile. Angewendet auf ein Klimamodell lassen sich mit diesem Prinzip die Wetterverhältnisse an einem Ort in fünf, zehn oder zwanzig Jahren prognostizieren. Das ist gerade für die Planung neuer Windkraftanlagen entscheidend. Wer heute einen Windpark baut, möchte davon ausgehen können, dass an seinem Standort auch in Zukunft genug Wind zur Verfügung steht.

KI und Klima: Überwiegen die Chancen die Risiken?

Ist Künstliche Intelligenz also ein Klimakiller oder hilft sie uns sogar, das Klima besser zu schützen? Kommt darauf an, meint der Digitalisierungsforscher Ralph Hintemann: “Das Problem ist, dass es dabei häufig um Potenziale geht”. Und die müssten erstmal verwirklicht werden. Richtig eingesetzt, könne “Künstliche Intelligenz” durchaus große Veränderungen der Treibhausausstöße bringen – das sei aber kein Selbstläufer.

Die Unternehmen müssten das auch zum Ziel machen. Aber davon ist erst einmal wenig zu sehen. Glaubt man den Prognosen der Internationale Energieagentur, wird Künstliche Intelligenz schon  2026 für 1,5 bis 2 Prozent des weltweiten Energieverbrauchs verantwortlich sein. Zwei- bis dreimal so viel, wie ganz Österreich. Um die Emissionswaage ins Positive zu bewegen, müsste die KI also ganz schön viele “Potenziale” ausschöpfen.

Dennoch meint Hintemann, er könne sich kaum vorstellen, “dass wir die großen Herausforderungen, die wir jetzt beim Klimaschutz haben, ohne Digitalisierung und KI hinbekommen werden.” Dazu seien große Effizienzsteigerungen nötig, zu denen KI-Anwendungen maßgeblich beitragen könnten. Allerdings seien dabei solche Anwendungen zu fördern, die wirklich ressourcensparend sind.

Es geht in die falsche Richtung

Der Trend geht derzeit in eine andere Richtung. “KI wird aktuell hauptsächlich dazu eingesetzt, Konsum anzukurbeln”, so Hintemann. Egal ob Amazon oder TikTok, große Techkonzerne nutzen die Technologie, um uns zum Kaufen oder zum Weiterscrollen zu bewegen.

Gesellschaftlichen Fortschritt bringen andere Modelle. Hintemanns Fazit: “Es kann eigentlich nur mit effizienten, schlanken Lösungen funktionieren. Wir sollten KI dort einsetzen, wo sie wirklich hilft, effizienter zu werden und gleichzeitig wenig Ressourcen braucht. Dazu müssen wir  nicht mit Riesenmodellen arbeiten, sondern mit schlanken, direkt auf die Anwendung spezialisierten Modellen, die auch aus anderen Gründen unkritischer sind.”

Die Verantwortung, eine nachhaltigere Betriebsweise zu etablieren, liegt hier vor allem bei den Konzernen. Trotzdem sollten wir uns fragen, wo der Einsatz von KI wirklich sinnvoll ist. Das “Riesenhirn” ChatGPT zu nutzen, um eine Mail an den Chef zu schreiben, ist wie mit einer Kanone auf Spatzen zu schießen.

Die von Moment.at verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-SA 4.0. Inhalte dürfen demnach ohne Rückfrage übernommen werden.

Der Originalartikel kann hier besucht werden