Nachhaltige KI: Energie, Wasser, Effizienz

Avatar
Lisa Ernst · 21.09.2025 · Technik · 5 min

Die Umweltwirkung von Künstlicher Intelligenz (KI) wird zunehmend diskutiert. Dieser Artikel beleuchtet den Energie- und Wasserverbrauch von KI-Operationen, basierend auf aktuellen Studien und Berichten.

Introduction to Green AI

Green AI beschreibt die messbare Umweltwirkung des KI-Betriebs, insbesondere den Strom- (Energie-Footprint) und Wasserverbrauch (Wasser-Footprint) während des Trainings und der Inferenz von Modellen. Rechenzentren verwenden hierfür zwei Kennzahlen: PUE (Power Usage Effectiveness) als Verhältnis von Gesamtstrom zu IT-Strom, wobei Werte näher an 1 eine höhere Effizienz anzeigen. Die WUE (Water Usage Effectiveness) misst den jährlichen Wasserverbrauch geteilt durch die IT-Energie in kWh; niedrigere Werte bedeuten hier eine höhere Wassereffizienz. Der Wasserverbrauch bezieht sich oft auf "konsumtives" Wasser, das verdunstet und nicht zurückgeführt wird, beispielsweise bei adiabatischer oder evaporativer Kühlung (airatwork.com).

Current Landscape and Developments

Die IEA prognostiziert, dass der weltweite Strombedarf von Rechenzentren bis 2030 auf etwa 945 TWh steigen wird, wobei KI der größte Treiber ist. Dies entspricht mehr als einer Verdopplung gegenüber heute. KI-spezialisierte Standorte könnten ihren Anteil bis 2030 sogar vervierfachen (iea.org). Der Detailbericht "Energy and AI" der IEA analysiert Methoden, Datenqualität und regionale Unterschiede. Gleichzeitig meldet Microsoft neue Rechenzentrumsdesigns, die "null Wasser für Kühlung" beanspruchen, durch geschlossene Kreisläufe und chipnahe Kühlung (microsoft.com). Google beschreibt, wie Effizienzgewinne beim Strom oft auch den Wasserbedarf senken, betont jedoch die Abhängigkeit von Klima und Kühltechnik (cloud.google.com; google.com). Berichte über den Wasserbedarf neuer Hyperscaler-Standorte in dürregefährdeten Regionen führen zu Debatten über Wasserrechte (reuters.com). Die Forschung zu Wasserspuren von KI zeigt seit 2023 die Dimensionen und methodischen Unsicherheiten auf (arxiv.org; dl.acm.org).

Eine detaillierte Betrachtung der Emissionsquellen von Rechenzentren ist entscheidend für die Entwicklung effektiver Reduktionsstrategien.

Quelle: fiberopticom.com

Eine detaillierte Betrachtung der Emissionsquellen von Rechenzentren ist entscheidend für die Entwicklung effektiver Reduktionsstrategien.

Drivers of Increased Consumption

Der Anstieg von Strom- und Wasserverbrauch hat mehrere Ursachen. Erstens verschiebt KI Lasten in Rechenzentren mit hoher Leistungsdichte. Dies kann die PUE senken, aber die WUE erhöhen, wenn Verdunstung zur Effizienz beiträgt (thegreengrid.org; google.com). Zweitens steigern neue Beschleuniger-Generationen zwar die Leistung pro Watt, erhöhen aber die absolute Nachfrage, da Workloads schneller und häufiger werden. Blackwell verspricht Effizienzgewinne gegenüber Hopper, ohne den Nachfragesog zu lösen (theregister.com; nvidia.com). Drittens beeinflussen Standortfaktoren wie Kühltechnik, Klima, Strommix, Wasserverfügbarkeit und Regulierung, ob Betreiber eher Strom oder Wasser "sparen" – selten beides gleichzeitig (google.com; iea.blob.core.windows.net).

Quelle: YouTube

Google erklärt die Nutzung von aufbereitetem Kanalwasser als Trinkwasserschutzmaßnahme.

Fact Check: Evidence vs. Claims

Der Strombedarf von Rechenzentren steigt stark; KI ist ein Haupttreiber. PUE und WUE sind definierte Metriken für Energie- bzw. Wassereffizienz (thegreengrid.org; thegreengrid.org). Training und Inferenz können relevante Wassermengen binden, abhängig von Standort, Jahreszeit und Kühltechnik (arxiv.org; google.com).

Das Versprechen „Null Wasser für Kühlung“ ist ein Betriebsversprechen. Lebenszykluswasser (z.B. Halbleiterfertigung) und Nicht-Kühlwasser bleiben außen vor, ebenso Standortverschiebungen bei Hitzeextremen (cloud.google.com).

Die Behauptung „Flüssigkühlung löst automatisch das Wasserproblem“ ist irreführend. Sie kann die WUE verbessern, muss es aber nicht; Effekte hängen von Auslegung und Rückkühlsystem ab. Auch die Annahme „KI ist virtuell und hat keinen physischen Impact“ ist falsch. Energie- und Wasserbilanzen sind messbar und korrelieren unter anderem mit Token-Längen und Auslastung (arxiv.org).

Der Energiehunger von Rechenzentren: Ein Vergleich mit dem Stromverbrauch ganzer Länder verdeutlicht die Dimension des Problems.

Quelle: device42.com

Der Energiehunger von Rechenzentren: Ein Vergleich mit dem Stromverbrauch ganzer Länder verdeutlicht die Dimension des Problems.

Industry Responses and Counterarguments

Die Industrie argumentiert mit Effizienzpfaden: bessere PUE/WUE, Wasserrecycling und Designwechsel zu wasserfreien Kühlungen im Betrieb (microsoft.com; cloud.google.com). Forschung und NGOs mahnen Transparenz und belastbare Offenlegung zu Standort, Saison und Technologie an, wegen Verlagerungseffekten und Dürre-Risiken (arxiv.org; reuters.com). Energieökonomen sehen in Beschleunigern Effizienzgewinne, warnen aber vor dem Rebound-Effekt: Mehr Effizienz senkt Kosten und kann die Nutzungsintensität erhöhen (theregister.com; iea.blob.core.windows.net).

Practical Implications and Recommendations

Pragmatisches Handeln erfordert: Erstens, Messen. Für Inferenz liefern Studien „Energy per Token“ als Metrik; Energie folgt stark der Tokenlänge und Latenz (euromlsys.eu). Zweitens, Last verdichten, aber nicht blind: Batch-Größe und Prompt-Design können Energie/Token senken; zu große Batches können die Effizienz durch Overhead kippen (upm.es; techrxiv.org). Drittens, Modelle und Präzisionen anpassen: Quantisierung bis 4-bit ist für viele Aufgaben praktikabel und spart Rechen- wie Speicherenergie; Qualitätsprüfungen bleiben Pflicht (openreview.net; arxiv.org). Viertens, Hardware passend wählen: Auf Edge/Client helfen NPUs bei Leistung pro Watt, im Rechenzentrum liefern spezialisierte Beschleuniger bessere Effizienz als General-Purpose-CPUs (qualcomm.com; nvidia.com). Fünftens, Standort & Kühlung aktiv managen: Klima, Strommix, WUE-/PUE-Ziele, Wasserqualität (z.B. Brauch- statt Trinkwasser) und Abwärmenutzung früh in Sourcing und Architektur aufnehmen (google.com; thegreengrid.org).

NPU-Chips sind Schlüsseltechnologien für energieeffiziente KI-Anwendungen, insbesondere im Bereich des Edge Computing.

Quelle: ai-market.jp

NPU-Chips sind Schlüsseltechnologien für energieeffiziente KI-Anwendungen, insbesondere im Bereich des Edge Computing.

Quelle: YouTube

Kurzer Überblick über die Stromfrage mit knackigen Visualisierungen.

Open Questions and Future Outlook

Wie verlässlich sind heutige Offenlegungen zu Wasser und Strom, wenn Klimaextreme zunehmen und Lastprofile wechseln? Standardisierte, standort- und saisonaufgelöste Reports zu WUE, PUE, Energie-/Wasserquellen und Lastmanagement wären nötig (thegreengrid.org; iea.blob.core.windows.net). Welche Regulierung setzt sinnvolle Leitplanken, ohne Innovation zu bremsen – etwa Wassernutzungsgrenzen in dürrerisikoreichen Regionen? Laufende Debatten und Fachgespräche zeigen, wie dynamisch das Feld ist (iea.org).

Conclusion

Green AI beginnt mit ehrlicher Bilanz: messen, vergleichen, steuern. Wer PUE und WUE konsequent verknüpft, Energy-per-Token trackt, Präzisionen reduziert, Batches klug wählt und Standorte samt Kühlung bewusster plant, senkt Kosten wie Umweltwirkung – und gewinnt belastbare Argumente für Technik- und Investitionsentscheidungen (aclanthology.org; upm.es; openreview.net; google.com).

Teilen Sie doch unseren Beitrag!