KI-Wiki
Reiter
Ressourcenverbrauch von KI-Systemen
Nach dem anfänglichen KI-Hype rückt in diesem Zusammenhang ein Thema immer mehr in den Fokus: Der Ressourcenverbraucht von KI-Systemen. Die verfügbaren Daten zum Energie- und Wasserverbrauch von KI-Systemen und somit der tatsächliche Ressourcenverbrauch lassen sich nur schwer einschätzen und variieren je nach Quelle stark. Dies lässt sich oft auf unterschiedliche Messmethoden oder teilweise auf fehlende Transparenz zurückführen.
1. Energieverbrauch
Der stark wachsende Einsatz von KI-Systemen in den letzten Jahren hat nahezu zu einem sprunghaft steigendem Energieverbrauch in Rechenzentren geführt. Besonders der rasante Ausbau von Rechenzentren und grossen Sprachmodellen hat zu einem stark steigenden Strombedarf geführt, der inzwischen mit dem Verbrauch ganzer Industrieländer vergleichbar ist. Der weltweite Stromverbrauch von Rechenzentren lag 2022 bei rund 460 Terawattstunden und wäre damit etwa auf dem Niveau eines grossen Industrieland wie Frankreich. In den USA sind inzwischen etwa 4,4% des gesamten Stromverbrauchs auf Rechenzentren zurückzuführen (O’Donell & Crownhart, 2025). Bis 2026 wird erwartet, dass der Stromverbrauch von Rechenzentren sich auf etwa 1.050 Terawattstunden beläuft, was im Ländervergleich etwa dem jährlichen Stromverbrauch von Ländern wie Japan oder Russland entspricht (Zewe, 2025). Die heutige Leistungsfähigkeit von KI-Systemen ist das Ergebnis aufwendiger Trainingsprozesse, bei denen grosse Datenmengen verarbeitet wurden. Solche Trainingsphase sind rechenintensiv und mit einem hohen Stromverbrauch verbunden. Allein für das Training des GPT-3 Modells wurden ca. 1 300 MWh verbraucht, was in etwa dem Jahresstromverbrauch von 130 US-Haushalten entspricht (WEF, 2024). Im Vergleich zu den Trainingsprozessen der KI-Modelle ist der Energieverbrauch bei einzelnen Anfragen zwar deutlich geringer, summiert sich im laufenden Betrieb jedoch stetig. Google hat erst kürzlich den Energieverbrauch von ihrem KI-Chatbot “Gemini” publiziert. Den Angaben zufolge verbraucht eine Textanfrage bei Gemini so viel Energie wie ca. 9 Sekunden Fernsehschauen (SRF, 2025). Auch OpenAI, die Firma hinter ChatGPT, hat eine Berechnung gemacht. Dabei verbraucht eine KI-Anfrage etwa 0.34 Wattstunden, was dem Stromverbrauch von einer Sekunde Backofenbetrieb entspricht (SRF, 2025). Der Grossteil des Stromverbrauchs von KI-Systemen wird jedoch nicht durch die Anfragen und die Berechnungen verursacht, sondern auch durch die Kühlung von Rechen- und Datenzentren. Bei jeder Rechenoperation entsteht Wärme, die kontinuierlich abgeführt werden muss, um die Hardware vor Überhitzung zu schützen und einen stabilen Betrieb der Rechen- und Datenzentren sicherzustellen. In einigen Rechenzentren macht diese Kühlung 30-40% des gesamten Stromverbrauchs aus (Net Zero Insights, 2025).
2. Wasserverbrauch
Neben dem Stromverbrauch weisen KI-Systeme auch einen hohen Wasserverbrauch aus. Dieser hohe Wasserverbrauch wird hauptsächlich durch die Kühlung der Rechenzentren verursacht. Zusätzlich kann der Wasserverbrauch auf indirekte Prozesse entlang der Wertschöpfungskette zurückgeführt werden, wie beispielsweise die Herstellung der Hardware (Server und Chips) sowie für die Stromerzeugung (Wiedebusch, 2025). Bei der direkten Nutzung in Form von einer KI-Textanfrage werden je nach Modell ca. 5 Tropfen Wasser für die Kühlung der Rechenzentren verbraucht (SRF, 2025). Das klingt erstmals nicht nach viel, summiert sich aber bei einer regelmässigen Nutzung zu beachtlichen Summen. So werden für ein einziges Gespräch (20-50 Fragen) mit einem KI-Chatbot im Durchschnitt rund 500 Milliliter Wasser verbraucht (Wiedebusch, 2025).
Gegenmassnahmen
Die Sichtung von unterschiedlichen Quellen macht zudem ein Widerspruch sichtbar: Während KI in einigen Quellen als Ursprung des Problems verantwortlich gemacht wird, argumentieren andere Quellen wiederum, dass KI zur Lösung des hohen Stromverbrauchs eingesetzt werden kann. Zwar bemühen sich die grossen Konzerne immer mehr darum, den Energie- und Wasserverbrauch zu senken, doch ein entscheidender Aspekt bleibt bestehen: Die Menge an KI-Anfragen steigt kontinuierlich und sehr schnell an. Mit jeder zusätzlichen Nutzung wächst auch der Bedarf an Rechenleistung und damit auch der Energieverbrauch. Selbst optimierte Systeme und effizientere Hardware können diesen Anstieg nur teilweise abfangen (SRF, 2025). Gegenmassnahmen umfassen beispielsweise den Umstieg auf erneuerbare Energien für Rechenzentren, effizientere Hardware und Algorithmen (auch „Green AI“ genannt), Standortwahl von Rechenzentren in Regionen mit geringerer Wasserknappheit sowie verbesserte Kühltechnologien und Wasserrecycling. Zunehmend werden auch vermehrt politische Instrumente wie Berichts- und Transparenzpflichten, CO₂-Bepreisung und Effizienzstandards für Rechenzentren eingesetzt, um die ökologischen Nachteile von KI zukünftig zu begrenzen.
Quellen:
Net Zero Insights, 2025: https://netzeroinsights.com/resources/how-ai-intensifying-data-center-water-consumption/
O’Donell & Crownhart, 2025: https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/
SRF, 2025: https://www.srf.ch/news/wirtschaft/strom-fuer-rechenzentren-wie-viel-strom-braucht-kuenstliche-intelligenz
WEF, 2024: https://www.weforum.org/stories/2024/07/generative-ai-energy-emissions/
Wiedebusch, 2025: https://www.roedl.com/insights/wasserverbrauch-kuenstliche-intelligenz/
Zewe, 2025: https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117
Zuletzt geändert: 2. Mär 2026, 14:21, Kieber, Melanie [melanie.kieber@phzh.ch]