Die Debatte über Künstliche Intelligenz kreist gemeinhin um ethische, arbeitsmarktpolitische und sicherheitstechnische Fragen. Weniger Aufmerksamkeit erhält eine Ressource, die im Schatten der Halbleiter gluckert: Wasser. Doch wer ChatGPT eine harmlose Frage stellt oder in der Cloud ein neuronales Netz trainiert, greift – mittelbar – in den lokalen Wasserhaushalt ein. Der jüngst erschienene Bericht zu Wasserverbrauch und Umweltrisiken von KI-Rechenzentren bringt ein Thema in den Vordergrund, das bislang vor allem Fachkreisen bekannt war: Die digitale Intelligenz hat eine physisch durstige Seite.
Ein durchschnittliches Hyperscale-Rechenzentrum – das Rückgrat der globalen KI-Infrastruktur – verbraucht jährlich rund 200 Millionen Gallonen Wasser, primär zur Kühlung. Das entspricht dem Verbrauch einer Kleinstadt. Bei mehreren tausend solcher Zentren allein in den USA entsteht eine Umweltwirkung von erheblicher Dimension. Laut Marktanalysen befinden sich rund 40 Prozent dieser Anlagen in wasserarmen Regionen wie Arizona, Nevada oder Utah – ein geopolitisch wie ökologisch brisanter Umstand. Dort konkurriert die Industrie mit Landwirtschaft und Bevölkerung um eine Ressource, die zunehmend knapper wird.
Auch bei der Nutzung selbstlernender Systeme sind die Relationen ernüchternd: Für einen kurzen Chat-Dialog von 20–30 Fragen wird etwa ein halber Liter Wasser in Form von Wasserdampf verbraucht – durch den indirekten Kühlbedarf der Rechenleistung. Multipliziert man dies mit Milliarden monatlicher Nutzerinteraktionen, offenbart sich eine Verbrauchsskala, die bislang kaum kommuniziert wird. Die Mär vom „unsichtbaren Cloud“-Rechnen ist eine Illusion – die ökologische Infrastruktur ist hoch materiell.
Hinzu tritt ein weiteres Problem: der Einsatz potenziell gesundheitsgefährdender PFAS-Chemikalien in bestimmten Kühlverfahren. Diese „Ewigkeitschemikalien“ reichern sich im Boden und Grundwasser an, sind toxisch und stehen weltweit im Verdacht, schwere Umweltschäden zu verursachen. Dass führende Rechenzentrumsbetreiber ihre Systeme noch immer mit solchen Substanzen betreiben, ist eine stille Katastrophe – ökologisch wie politisch.
Politisch brisant ist auch der jüngste Umgang mit regulatorischen Ansätzen. In Virginia etwa, einem Hotspot des US-amerikanischen Rechenzentrumsbooms, wurde ein Gesetz zur besseren wasserbezogenen Umweltkontrolle durch das Veto des Gouverneurs Glenn Youngkin gestoppt – mit Verweis auf föderale Prinzipien und angebliche Bürokratie. Doch in Wahrheit scheint sich hier ein altbekanntes Muster zu wiederholen: Die Interessen des digitalen Kapitals überlagern zunehmend den lokalen Gemeinwohlauftrag.
Technologische Unternehmen verweisen zwar auf Fortschritte: Amazon etwa meldet, bereits über die Hälfte seines selbstgesetzten Ziels erreicht zu haben, bis 2030 „water positive“ zu werden – also mehr Wasser zurückzuführen als zu verbrauchen. Doch solche Bilanzen sind in der Regel Eigenangaben und unterliegen kaum unabhängiger Prüfung. Sie greifen zudem zu kurz, wenn strukturelle Fragen der Standortwahl, der Langzeitrisiken durch chemische Emissionen und der lokalen Mitbestimmung ausgeklammert bleiben.
Es stellt sich daher die Frage, ob wir am Beginn einer neuen Umweltdebatte stehen – nicht mehr über Emissionen fossiler Brennstoffe, sondern über den ökologischen Fußabdruck der „intelligenten Maschinen“. Dass eine ökologische Bewertung von Künstlicher Intelligenz auch den Wasserhaushalt mit einbeziehen muss, wird sich kaum länger ignorieren lassen. Die bürgerlich-marktwirtschaftliche Antwort kann dabei nur lauten: Technologische Innovation darf kein Freibrief zur Externalisierung ökologischer Kosten sein.
Es braucht Transparenz, Regulierung mit Augenmaß – und ein kluges, marktwirksames Anreizsystem zur Schonung natürlicher Ressourcen auch in der digitalen Sphäre. Die ökologische Frage des 21. Jahrhunderts stellt sich nicht nur im Wald, sondern auch im Serverraum.