Der Energiebedarf der Digitalisierung ist enorm – und wächst immer weiter. Ursächlich hierfür sind drei Bereiche: Endgeräte der Nutzer, wie Computer und Smartphones, die Netzwerkinfrastruktur mit ihren Mobilfunkstationen und Internetroutern sowie – das ist der größte Batzen – Rechenzentren, deren leistungsstarke Server konstant auf 22 bis 24 Grad Celsius temperiert werden müssen.
Anschaulich lässt sich der Energiehunger an zwei Beispielen beziffern: Eine Stunde Videostreaming in Full-HD-Auflösung benötigt 220 bis 370 Wattstunden (Wh) elektrische Energie. Das verursacht etwa 100 bis 175 Gramm Kohlendioxid (CO2) und entspricht damit den Emissionen, die ein Kleinwagen bei einem Kilometer Autofahrt erzeugt. Während eine Suchanfrage bei Google etwa 0,3 Wh Energie erfordert, verzehnfacht sich der Wert für eine einzelne Anfrage bei ChatGPT. Künstliche Intelligenz (KI) und das Mining von Kryptowährungen beanspruchen durch die intensive Rechenleistung und den kontinuierlichen Betrieb leistungsstarker Hardware viel Energie. Der Bedarf an elektrischer Energie wird weltweit weiter steigen – getrieben durch das Wachstum datenintensiver Technologien wie KI, Cloud Computing und Streaming-Diensten, prognostiziert die Internationale Energieagentur IEA.
Da liegen Befürchtungen nahe, dass die Energienachfrage digitaler Anwendungen in den kommenden Jahren das Angebot übersteigen könnte. US-Tech-Giganten, deren Geschäftsmodelle ohne KI kaum noch denkbar sind, nehmen solche Befürchtungen sehr ernst. In den Vereinigten Staaten gibt es daher Bestrebungen, kleine modulare Reaktoren (SMR) als moderne Alternative zu herkömmlichen Atomkraftwerken zu entwickeln. Mehrere Unternehmen, darunter Microsoft, Google und Amazon, arbeiten an Projekten für diese kompakten Reaktoren, die als sicherer, kostengünstiger und flexibler gelten. Trotz anfänglicher Begeisterung und staatlicher Unterstützung gibt es jedoch Rückschläge, wie das Scheitern des NuScale-Projekts in Idaho zeigt. Die Betreiber beendeten es wegen gestiegener Kosten und Zweifeln an der Wirtschaftlichkeit.
In Deutschland – nach den USA der wichtigste Standort für Rechenzentren – ist Atomstrom derzeit keine Option, zumindest, solange die Politik keinen Wiedereinstieg in die Kernkraft beschließt. Dem Energiebedarf der Rechenzentren versucht man durch eine Vielzahl von Strategien und Technologien zu begegnen. Neben dem zuverlässigen Betrieb und der Performanz spielt vor allem die Nachhaltigkeit eine zentrale Rolle: Seit 2024 muss der Energieaufwand deutscher Rechenzentren zu 50 Prozent aus erneuerbaren Quellen kommen, ab 2027 sogar zu 100 Prozent. Langfristige Verträge mit Anbietern regenerativer Energien – sogenannte Power Purchase Agreements (PPAs) – ermöglichen es, die Versorgung kostengünstig und nachhaltig zu sichern. Als Backup- oder Primärenergiequelle kommen in Pilotprojekten inzwischen Brennstoffzellen zum Einsatz, die sich mit grünem Wasserstoff betreiben lassen. Laut der German Datacenter Association (GDA) stammen bereits heute 88 Prozent des genutzten Stroms der Rechenzentren – auf den etwa die Hälfte der Betriebsausgaben entfallen – aus regenerativen Quellen.
Einsatz nachhaltiger Energie, unmittelbare Nutzung der Abwärme und CO2-Abbau im laufenden Betrieb: Das gelingt in den CO2-freien Rechenzentren mit Algenfarm von Windcloud.
| Credit: Windcloud