In Europa und Nordamerika verbrauchen Datencenter rund vier Prozent des gesamten Stroms. Der Ausbau der Künstlichen Intelligenz dürfte den Energiebedarf der Rechenzentren in den nächsten Jahren weiter in die Höhe treiben. Umso drängender wird die Frage, wie flexibel der Stromverbrauch von Rechenzentren sein kann.
Rechenzentren brauchen Strom – und zwar rund um die Uhr und nicht zu knapp. Weltweit entfallen um die 2 % des globalen Stromverbrauchs auf Datencenter. In Deutschland waren es 2022 laut dem Borderstep Institut 3,7 %, in den USA waren es 2023 laut US Department of Energy 4,4 %. Tendenz: steigend.
Eine wichtige Rolle dabei soll Künstliche Intelligenz spielen. Einerseits hofft die Branche, dass lernfähige Computer ihren eigenen Energiebedarf optimieren. Derzeit überwiegt aber die Überzeugung, dass sich mit der Rechenleistung des IT-Sektors auch ihr Elektrizitätsbedarf drastisch erhöhen wird. Analysten überbieten sich gegenseitig mit ihren Prognosen.
KI-Boom könnte Stromverbrauch von Rechenzentren vervielfachen
Die Autoren einer aktuellen Studie der Boston Consulting Group rechnen damit, dass die elektrische Leistungskapazität der weltweiten Rechenzentren zwischen 2023 und 2028 jährlich um 16 Prozent steigt. Das entspräche einer Verdopplung in den nächsten vier Jahren auf 125 Gigawatt (GW). Zum Vergleich: Im Jahresschnitt liegt die wochentägliche Spitzenlast von Frankreich und Deutschland zusammen bei etwa 150 GW. Goldman Sachs Research kommt zu einem sehr ähnlichen Ergebnis.
Noch steiler könnte die Kurve in den USA nach oben gehen. Im Januar verkündete der neue US-Präsident Donald Trump, dass in den nächsten Jahren allein in den USA 500 Milliarden US-Dollar in den Ausbau der KI-Infrastruktur fließen sollen. Dieser Investitionsbedarf findet sich auch in einer McKinsey-Studie vom September 2024. Die Analysten prognostizieren darin eine Vervierfachung des Stromverbrauchs der US-Rechenzentren zwischen 2023 und 2030 – von 148 auf 606 Terawattstunden (TWh). Das wäre mehr als der aktuelle globale Bedarf aller Rechenzentren und entspricht manchen Prognosen für den gesamten Stromverbrauch Deutschlands im Jahr 2030.
Neu gebaut werden sollen vor allem Hyperscale Data Centers – also solche mit Servern, Speichereinheiten und vor allem Prozessoren, die leistungsstark für KI-Anwendungen sind. Die zusätzliche Rechenleistung spiegelt sich auch in der elektrischen Leistung wider: Ein typischer KI-Prozessor wie der Nvidia A100 hat eine rund fünfmal so hohe Leistungsaufnahme wie eine herkömmliche CPU. Zwar wirbt Nvidia damit, dass der Chip für dieselbe Rechenleistung nur etwa ein Viertel der Energie benötigt. Allerdings darf man davon ausgehen, dass dieser Effizienzgewinn nicht genutzt wird, um weniger Strom zu verbrauchen, sondern um mehr KI zu benutzen.
Zudem deutet einiges darauf hin, dass nicht nur die Prozessoren, sondern auch die lernfähigen Programme deutlich energieeffizienter werden könnten. Anfang des Jahres hat DeepSeek die KI-Welt aufgerüttelt. Das chinesische Unternehmen hat einen Chatbot entwickelt, der auf dem Niveau von ChatGPT von OpenAI, Copilot von Microsoft und Gemini von Google arbeitet, aber deutlich weniger Energie als die US-Konkurrenz benötigt.
Was geht schneller: Ausbau oder Effizienzgewinn der KI-Chips?
Ob der Ausbau von KI-Kapazitäten zwangsweise binnen weniger Jahre auf einen vielfach höheren Strombedarf von Rechenzentren hinausläuft, ist also keineswegs gewiss. Dies betont etwa Michael Terell. Der Senior Director of Clean Energy and Carbon Reduction bei Google ist dafür zuständig, dass sich der Internetgigant vollständig mit erneuerbarer Energie versorgen kann. Im Podcast Redefining Energy erinnert Terell an einen Fachartikel in der Science, laut dem die weltweite Rechenleistung zwischen 2010 und 2018 um 550 Prozent gestiegen ist, der Stromverbrauch der Rechenzentren aber gerade einmal um sechs Prozent.
„Die Betreiber von Rechenzentren sind hoch motiviert, diese Einrichtungen so effizient wie möglich zu betreiben“, begründet Terell seine Skepsis gegenüber den Vervielfachungsprognosen und gibt ein Beispiel: „Googles TPU (das sind KI-Trainingschips, d. Verf.) der 4. Generation ist jetzt dreimal so energieeffizient wie unsere Version 3.“
Natürlich geht es in einem Unternehmen im Herzen des Internet-Kapitalismus nicht nur um Energieeffizienz, sondern auch oder vor allem um Kosteneffizienz. Allerdings ist beides in Rechenzentren eng miteinander verbunden.
„Strom ist bei weitem der größte laufende Kostenfaktor für Betreiber von Rechenzentren und macht 46 % der Gesamtausgaben für Unternehmensrechenzentren und 60 % für Rechenzentren von Dienstleistern aus“, heißt es in einem Report der International Data Corporation (IDC).
„Strom ist bei weitem der größte laufende Kostenfaktor für Betreiber von Rechenzentren und macht 46 % der Gesamtausgaben für Unternehmensrechenzentren und 60 % für Rechenzentren von Dienstleistern aus.“
Wie viel können Rechenzentren zu Stabilisierung der Stromnetze beitragen?
Die hohen Energiekosten ändern nichts daran, dass Datencenter am rentabelsten arbeiten, wenn sie ausgelastet sind.
Nach Schätzungen von Goldman Sachs Research sind Rechenzentren derzeit zu etwa 85 bis 90 Prozent ausgelastet. Theoretisch wäre da also etwas Spielraum, den man nutzen könnte, um Lastspitzen zu vermeiden und den Anteil der Erneuerbaren Energien an der Stromversorgung zu erhöhen.
Dies hätte auch einen positiven Einfluss auf die Stromnetze an sich, die während Spitzenlaststunden regelmäßig unter Stress stehen. Schon ein wenig Flexibilität könnte einen signifikanten Beitrag zur Netzentlastung leisten, erklären Forscher der Duke University in North Carolina in einem Paper. Demnach könnten die Stromnetze in den USA neue Anlagen mit einer Gesamtleistung von 100 GW recht problemlos versorgen. Nötig wäre dafür lediglich eine durchschnittliche Lastreduktion um 0,5 % über das Jahr verteilt.
Wie lässt sich der Stromverbrauch von Rechenzentren flexibilisieren?
Entscheidend dafür, dass Rechenzentren in Spitzenlastzeiten herunterfahren und sich auf die Verfügbarkeit von Erneuerbarer Energie einstellen, ist allerdings der Zeitpunkt, zu dem die Rechenzentren ihre Last reduzieren. Wie könnte das funktionieren?
Rechenleistung verschieben
Google-Experte Terell spricht davon, Rechenleistung zu verschieben – zeitlich und geografisch. So gebe es Aufgaben, die weniger latenzempfindlich seien als andere wie Daten-Backups oder die Verarbeitung von YouTube-Videos oder Fotos. „Wir haben festgestellt, dass wir diese Aufgaben tatsächlich verzögern oder verlagern konnten, ohne die Dienste, die wir unseren Kunden anbieten, zu beeinträchtigen“, sagt Terell. „Also haben wir damit begonnen, unsere Rechenlasten zu verlagern und unsere Rechenaufträge so zu planen, dass sie mit den Tageszeiten übereinstimmen, zu denen die Stromversorgung am saubersten ist.“
Auch das Training von KI-Anwendungen könnte eine zeitlich verschiebbare Aufgabe sein, das theoretische Potenzial jedenfalls wäre groß, nimmt es doch schätzungsweise fast zwei Drittel des Energiebedarfs der KI-Rechenleistung in Anspruch.
Die Idee der geografischen Flexibilität funktioniert analog zur zeitlichen: Wenn an der US-Ostküste bereits die Sonne aufgegangen ist und im Westen nicht genug Wind weht, wird Rechenleistung an den Atlantik verlagert. „Jetzt haben wir die Fähigkeit entwickelt, diese Lasten tatsächlich von einem Ort zum anderen zu verlagern“, so Terell. Verbesserungspotenzial sieht er dennoch etwa bei den Wetterprognosen. Perspektivisch stellt er sich vor, dass die Lasten rund um den Globus dahin verlagert werden können, wo gerade die Sonne scheint. Allerdings ziehe man bei Google künftig auch Energiequellen wie Geothermie und langfristige Energiespeicher wie Wasserstoff in Betracht.
Auch Mining Center für Bitcoin und andere Kryptowährungen können Rechenleistung verschieben. Dies ist sogar mittlerweile relativ attraktiv geworden. Denn der Energieverbrauch pro Bitcoin ist im vergangenen Jahr deutlich gestiegen. Anfang Februar 2025 erreichte er ein Allzeit-Hoch von mehr als 1.300 MWh/BTC. Selbst bei einem Bitcoin-Kurs von 80.000 Euro etwa hieße das, dass eine Megawattstunde höchstens 61,50 Euro kosten dürfte, damit die Stromkosten den Wert der geschürften Bitcoins nicht überträfen. Diese Marke wird auch in Ländern wie Norwegen und Dänemark, wo wegen der moderaten Stromkosten viele Mining Center betrieben werden, regelmäßig übertroffen. Klar ist aber auch: Je höher der Bitcoin-Preis steigt, umso unattraktiver wird das Verschieben von Rechenleistung.

Quelle: Shehabi (2016) via AGCI
Ein öffentlich finanziertes Forschungsprojekt des National Renewable Energy Laboratory (NREL) in den USA widmet sich der Möglichkeit, unterirdische Kühlspeicher (UTES) einzusetzen, um den Stromverbrauch von Rechenzentren während Spitzenlastzeiten zu senken. Schon 2020 stellten Forscher der Cornell University fest, dass Kühlwasserspeicher dazu geeignet sind die laufenden Kosten von Datencentern zu senken. Sie errechneten eine Stromkostenersparnis von 8,8 % durch geschickte Lastverschiebung in einem Zeitraum von zwei Tagen.
Batteriespeicher ausbauen
Um eine lückenlose Stromversorgung zu garantieren und damit einen 24-Stunden-Betrieb zu gewährleisten und Datenverluste zu verhindern, sind Rechenzentren ohnehin mit Notstromaggregaten und immer öfter mit Batteriespeichern ausgerüstet.
Die Stromspeicher auszubauen, wäre eine weitere Möglichkeit, zusätzlich den Bezug von Netzstrom zu flexibilisieren und an die Verfügbarkeit Erneuerbarer Energie und damit auch an niedrige Strompreise anzupassen. Die Batterien könnten zum Beispiel mittags preiswert mit Solarstrom aufgeladen werden. Dieser könnte dann das Rechenzentrum versorgen, wenn der Strom gegen Nachmittag wieder teurer wird, was in Deutschland und den meisten anderen Ländern nahezu gleichbedeutend mit einem geringeren Anteil von Ökostrom im Netz ist.
Stromerzeugung behind the meter
Eine weitere Möglichkeit besteht darin, die Rechenzentren mit eigenen Behind-the-meter-Kraftwerken auszustatten. Das bedeutet, dass beispielsweise eine PV-Anlage auf dem Dach so installiert wird, dass sie in erster Instanz das Datencenter mit Strom versorgt.
Mit überschüssigem Strom könnte dann ein damit verbundener Batteriespeicher aufgeladen werden. Erst wenn der voll ist und immer noch Strom übrig ist, könnte der dann gegebenenfalls ins Netz eingespeist werden.
Große Rechenzentren, die mitunter heute schon eine Leistung von 100 Megawatt und mehr haben, sollen mit eigenen Gaskraftwerken ausgestattet werden. Google lässt zudem in den kommenden Jahren sogenannte SMRs (Small Modular Reactors), also kleine flexible Kernkraftwerke, bauen, um die Erneuerbaren-Lücken zu füllen. Ob diese Kraftwerke über das Stromnetz oder behind-the-meter angeschlossen werden, ist wohl noch nicht entschieden.
Ein solcher Ansatz erfordert freilich erhebliche Zusatz-Investitionen. Befürworter argumentieren jedoch damit, dass sie die Genehmigung neuer Datencenter erleichtern können, da sie das örtliche Stromnetz weniger belasten. So zumindest argumentiert der Projektentwickler Sheldon Kimber im Podcast Catalyst. Dies ist insbesondere deshalb der Fall, weil sie das Netz gerade tagsüber während der Spitzenlast entlasten können, schließlich wird der benötigte Strom ja behind-the-meter, also außerhalb des Netzes, erzeugt und genutzt.
Wie ist die Situation der Rechenzentren in Deutschland?
Deutschland ist in Europa der Standort der höchsten Datencenterkapazität, gefolgt vom Vereinigten Königreich und Frankreich. Für die Betreiber in Deutschland ist die Frage, wie sie ihre Rechenzentren auf nachhaltige Stromquellen einstellen, besonders dringend. Denn sie sind nach dem Energieeffizienzgesetz seit Anfang 2024 neben weiteren Auflagen dazu verpflichtet, ihren Strom - zumindest bilanziell - zu 50 % aus Erneuerbaren Energien zu beziehen, ab 2027 müssen es 100 % sein.
Das bedeutet zwar nicht, dass jedes Watt physikalisch aus einer Solar- oder Windenergieanlage kommen muss. Das ist in den wenigsten Fällen möglich. Die Betreiber müssen aber nachweisen, dass sie die verbrauchte Menge Strom aus nachhaltiger Erzeugung beschafft haben.
Für die jüngste Studie „Rechenzentren in Deutschland“ des deutschen IT-Branchenverband Bitcom wurden 78 Unternehmer gefragt, welche Maßnahmen sie bisher ergriffen haben, um die Emissionen ihrer Rechenzentren zu senken. Drei Viertel von ihnen setzen dabei auf einen Ökostrom-Vertrag. Dies ist sicher der bequemste Weg, nicht aber unbedingt der mit den besten Strompreisen.

Strombeschaffung für Rechenzentren
Fassen wir die Ausgangslage der Strombeschaffung für ein Rechenzentrum zusammen: Ein hoher Strombedarf trifft auf die Möglichkeit, den eigenen Verbrauch ein Stück weit zu flexibilisieren. Als Stromhändler raten wir in diesen Szenarien zu einer dynamischen Belieferungsstrategie, die verschiedene Module kombiniert, um dieser Ausgangslage Rechnung zu tragen.
Der erste Baustein sollte eine Fixierung des Strompreises für einen Anteil des Stromverbrauchs durchführen. Hier lässt sich beispielsweise 70 % des Verbrauchs eines Rechenzentrums über den Kauf von Solar- und Wind-Shapes am PPA-Markt abdecken, wobei die Preise für diesen Baustein für ein bis drei Jahre fixiert werden.
Der nächste Baustein ist die Abdeckung der restlichen 30 % der benötigten Gesamtstrommengen über den kurzfristigen Stromhandel (Spot Exposure). Dieser Anteil ist preislich nicht fixiert, sondern ein flexibler Kostenanteil. Wie kann ein Rechenzentrum das Risiko, das in einem flexiblen Kostenanteil inhärent steckt, absichern, ohne die Chance, die ihm ebenso inhärent ist, zu verspielen (Preise im kurzfristigen Stromhandel können sowohl sinken als auch steigen)?
Wir optimieren Ihre Strombeschaffung
Unsere Expertise in der Optimierung und im Handel von Verbrauchsprofilen, kombiniert mit der längsten Handelserfahrung auf deutschen Kurzfristmärkten und unserer PPA-Plattform PowerMatch, bietet Ihnen eine dynamische Strombeschaffung.
Hier ergeben sich zwei Optionen, die bestenfalls kombiniert werden: Zum einen kann die eigene Flexibilität im Stromverbrauch genutzt werden, um Strom nur für niedrigpreisige Phasen zu kaufen und nur dann zu verbrauchen. Zum anderen erlaubt eine virtuelle Batterie – im Grunde ein PPA mit einem Batteriebetreiber – die Absicherung des nicht-preisfixierten Anteils des Stromverbrauchs. Falls dieser nicht benötigt wird, etwa weil die eigene Flexibilität ausreicht, um die Residualmengen am Spotmarkt sehr günstig zu beziehen, lässt er sich in hochpreisigen Phasen am Spotmarkt gewinnbringen veräußern.
Flexibilität zahlt sich aus
Am ehesten lassen sich für Rechenzentren also Preisvorteile erzielen, wenn sie den eigenen Stromverbrauch an die Verfügbarkeit von Erneuerbarer Energie anpassen. Denn dann ist Strom - unabhängig von der Erzeugungsart – am günstigsten. Sprich: Rechenzentren, die es schaffen, den größten Bedarf in sonnenreiche Mittagsstunden und windige Nächte zu legen, werden deutlich niedrigere Stromkosten verzeichnen, als solche, die auch an sonnenlosen Winternachmittagen unter Volllast arbeiten.
Wie wollen deutsche Rechenzentren ihren Stromverbrauch flexibilisieren?
In einer Experten-Befragung für die Bitcom-Studie sahen 52 % der Teilnehmer den Ausbau der Erneuerbaren und die Flexibilisierung als Chance für die Branche. Von 110 befragten Experten, welchen Technologien sie besonders große Chancen einräumen, den Netzstrombedarf zu flexibilisieren, räumten die meisten thermischen Energiespeichern gute Chancen ein. Gut 40 % sehen Wasserstoff und synthetisch erzeugte Kraftstoffe (E-Fuels) als Energieträger für Notstromaggregate kommen. Zwei von fünfen denken hingegen an Lithium-Ionen und gut halb so viele an Natrium-Batterien. Die Möglichkeit, die Rechenleistung zu flexibilisieren, spielte bei der Umfrage keine Rolle.
