Green AI – der Preis der Intelligenz

Künstliche Intelligenz soll helfen, die Welt nachhaltiger zu machen – doch ihr eigener Energiehunger wächst schneller als ihre Effizienz. Künstliche Intelligenz gilt als Symbol des Fortschritts. Sie verspricht präzisere Klimamodelle, effizientere Energienetze, optimierte Lieferketten. Doch während sie hilft, Emissionen zu senken, treibt sie selbst neue in die Höhe. Denn jede einzelne Berechnung, jeder generierte Text, jedes trainierte Modell verbraucht Energie – und zwar in Größenordnungen, die lange unterschätzt wurden.

 

Das Training von GPT-4 verschlang Schätzungen zufolge rund 1.300 Megawattstunden Strom – genug, um über 120 deutsche Haushalte ein Jahr lang zu versorgen. Hinzu kommen Abermillionen täglicher Anfragen, die in Rechenzentren verarbeitet werden. Laut der International Energy Agency (IEA) könnte der weltweite Energiebedarf der KI-Systeme bis 2026 zehnmal höher liegen als heute. Schon jetzt verbrauchen Rechenzentren rund vier Prozent des globalen Stroms – Tendenz steigend.

 

Wenig bekannt ist auch der Wasserverbrauch: Für die Kühlung der Server wird in manchen Anlagen mehrere Hunderttausend Liter Wasser pro Tag benötigt. Forschende der University of California schätzen, dass eine einzelne ChatGPT-Session indirekt etwa 500 Milliliter Wasser kostet – genug, um bei Milliarden täglicher Anfragen spürbare ökologische Effekte zu erzeugen.

 

Gleichzeitig arbeitet die Branche an Lösungen. Nvidia und AMD entwickeln Chips, die bis zu 40 Prozent weniger Energie pro Rechenoperation benötigen. Hyperscaler wie Microsoft oder Google investieren Milliarden in erneuerbare Energien, um ihre Rechenzentren CO₂-neutral zu betreiben. Doch selbst das reicht kaum, solange der Bedarf weiter explodiert. Google meldete in seinem Nachhaltigkeitsbericht 2024 einen 48 Prozent höheren CO₂-Ausstoß als im Vorjahr – vor allem durch KI-Anwendungen.

 

„Green AI“ ist daher kein fertiges Konzept, sondern ein Zielkorridor. Es geht nicht nur darum, Modelle effizienter zu machen, sondern den gesamten Lebenszyklus mitzudenken: vom Ressourcenverbrauch bei der Chip-Produktion über den Energie- und Wasserbedarf im Betrieb bis hin zur Entsorgung der Hardware. Auch Software-Design spielt eine Rolle – kleinere, spezialisierte Modelle können viele Aufgaben erfüllen, ohne Terawattstunden zu verschlingen.

 

KI kann helfen, Energieflüsse zu steuern, Klimarisiken zu erkennen und den Ressourcenverbrauch zu senken. Doch damit sie Teil der Lösung wird, muss sie lernen, ihre eigene Bilanz zu verbessern. Nachhaltigkeit ist keine nachträgliche Optimierung – sie muss zum Designprinzip werden.

 

Quellen:
International Energy Agency (2024): Electricity 2024 – Analysis and forecast to 2026
University of California, Riverside (2024): Making AI Less Thirsty
Google Sustainability Report (2024)
Nvidia Technical Brief (2025)
Yale Environment 360 (2025): AI’s Growing Energy and Water Footprint