KI verbraucht so viel Strom wie Frankreich — die MIT‑Analyse zeigt, warum das uns alle betrifft

. Was als millisekundenlange Interaktion mit einem Chatbot erscheint, beruht auf einer globalen Infrastruktur aus Rechenzentren, spezialisierten Prozessoren und Kühlsystemen, deren Umweltkosten oft unsichtbar bleiben. Aktuelle Analysen von Forschungsteams am MIT bringen erstmals konkrete Mengen und Mechanismen ans Licht und zeigen: Die AI‑Revolution hat eine greifbare Ressourcenseite.

Rechenzentren wachsen rasant – und mit ihnen der Energiebedarf

Zwischen Ende 2022 und Ende 2023 stieg der Strombedarf von Rechenzentren in Nordamerika von etwa 2.688 MW auf 5.341 MW – nahezu eine Verdopplung in zwölf Monaten. Global wird der Stromverbrauch auf rund 460 TWh für 2022 geschätzt (vergleichbar mit dem Jahresverbrauch Frankreichs) und könnte laut den zitierten Projektionen bis 2026 auf rund 1.050 TWh anwachsen, falls sich Trends fortsetzen. Entscheidend ist dabei nicht nur die Menge, sondern das Nutzungsprofil: Große Trainingsläufe erzeugen kurzzeitige, sehr hohe Spitzenlasten; Inferenzaufgaben (der laufende Betrieb von Modellen) erzeugen eine stetige, wachsende Grundlast.

Warum Trainingsläufe das Stromnetz belasten

Das Training moderner Sprach‑ und Multimodelle umfasst Billionen von Rechenoperationen über Wochen oder Monate. Solche Trainings erzeugen starke, unregelmäßige Leistungsspitzen, die Netzbetreiber aus Redundanzgründen oft mit fossil betriebenen Ersatzaggregaten oder Gaskraftwerken abdecken – eine direkte Quelle zusätzlicher Emissionen. Bei Auslegungsszenarien sind drei Wirkungsbereiche relevant:

  • Training: große, kurzzeitige Lastspitzen mit hoher Emissionsintensität.
  • Inference: dauerhaftes Wachstum des Energiebedarfs – pro Prompt deutlich teurer als eine Websuche (Forschung schätzt etwa das Fünffache).
  • Backup und Netzstabilität: kurzfristige Aktivierung fossiler Backup‑Kapazitäten.

Wasserverbrauch und Kühlung: eine oft übersehene Dimension

Rechenzentren müssen Wärme effektiv abführen; viele Anlagen nutzen wasserbasierte Kühlsysteme, weil diese deutlich effizienter sind als Luftkühlung. Schätzungen sehen einen Bedarf von rund 2 Litern Wasser pro kWh. Addiert man das auf Hunderte von TWh, entstehen in Regionen mit knappen Wasserressourcen erhebliche lokale Belastungen – insbesondere wenn auf Frischwasserversorgung zurückgegriffen wird statt auf recycelte oder nicht‑trinkbare Quellen.

Hardware‑Kette: GPUs, Rohstoffe und vorgezogene Emissionen

AI setzt primär auf GPUs; 2023 wurden laut MIT‑Analyse etwa 3,85 Millionen GPUs an Rechenzentren geliefert, nach rund 2,67 Millionen in 2022. Die Produktion dieser Chips ist ressourcenintensiv: Bergbau für Kupfer, Gold und seltene Erden, energieintensive Fertigung in Halbleiterfabriken, chemische Prozesse und globaler Transport. Das erzeugt eine vorgezogene, „front‑loaded“ CO2‑Bilanz, lange bevor ein Modell trainiert wurde.

Warum die Bilanz so schwer zu fassen ist

Technologie, Nutzung und Hardware verändern sich so schnell, dass klassische Lebenszyklusanalysen hinterherhinken. Modelle, Chips und Rechenzentrumsdesigns werden in Monaten, nicht Jahren, weiterentwickelt. Forscher wie Elsa A. Olivetti betonen die Notwendigkeit, Bewertungsrahmen stärker zu kontextualisieren und systematisch zu erneuern.

Praktische Hebel: Was Betreiber, Politik und Nutzer tun können

Es gibt technische und regulatorische Maßnahmen, die den Fußabdruck merklich reduzieren können, wenn sie konsequent umgesetzt werden:

  • Standortwahl: Rechenzentren an Orten mit hohem Anteil erneuerbarer Energie und ausreichend nicht‑potablem Wasser bevorzugen.
  • Effizientere Hardware: Entwicklung und Einsatz energieeffizienter Chips, spezialisierter Beschleuniger und längere Hardware‑Lebenszyklen.
  • Softwareoptimierung: Quantisierung, Sparsity, Model Distillation und serverseitiges Caching reduzieren kWh pro Anfrage.
  • Kühltechnik: Einsatz von Direkt‑Liquid‑Cooling oder Immersionskühlung reduziert Energiebedarf und kann Wasserverbrauch minimieren.
  • Lastmanagement: Trainingsläufe zeitlich so planen, dass sie mit erneuerbarer Überschussenergie zusammenfallen; Nutzung von Demand‑Response‑Mechanismen.
  • Transparenzpflichten: verpflichtende Offenlegung von Kennzahlen wie kWh pro Training, PUE, Wasserverbrauch (Liter/kWh) und CO2‑Intensität.

Konkrete Offenlegungsempfehlungen

Für glaubwürdige Vergleiche sollten Unternehmen standardisierte Metriken berichten:

  • kWh für Trainingsläufe (pro Modellversion)
  • Durchschnittliche kWh pro 1 Mio. Inferenzanfragen
  • Wasserverbrauch in Litern pro kWh und verwendete Wasserquelle (recycelt vs. Frischwasser)
  • Anzahl eingesetzter GPUs und durchschnittliche Hardware‑Lebensdauer
  • CO2‑Intensität des genutzten Strommixes (g CO2/kWh)

Was einzelne Nutzer und Unternehmen praktisch beachten können

Auch auf Nutzer‑ und Unternehmensebene lässt sich Einfluss nehmen, ohne auf AI‑Funktionalität zu verzichten:

  • Batching von Anfragen und Verwendung lokaler Modelle, wo sinnvoll, reduziert Inferenzvolumen.
  • Bei Anbietern auf Offenlegung von Energie‑ und Wasserkennzahlen achten; Anbieter mit klaren Nachhaltigkeitskennzahlen bevorzugen.
  • In Prozessen prüfen, ob AI echte Einsparungen (z. B. weniger Fahrten, optimierte Logistik) erzeugt oder nur zusätzliche Arbeitsschritte ermöglicht.
  • IT‑Beschaffung auf längere Lebenszyklen und Reparierbarkeit ausrichten, statt ständiger GPU‑Aufrüstung.

Eine Realitätsprüfung für Investoren und Regulierer

Investoren sollten nicht nur Wachstumspotenzial bewerten, sondern auch die realen Betriebskosten in Form von Energie, Wasser und Umweltrisiken. Regulatorische Transparenzanforderungen können sicherstellen, dass Marktanreize nicht allein durch Marketing‑Claims entstehen. Nur so lässt sich steuern, ob KI‑Fortschritt mit ökologischem Fußabdruck skaliert oder in Richtung Ressourceneffizienz gelenkt wird.

Schreibe einen Kommentar