Ohne Netz keine KI

Datenzentren werden zu „Ankerkunden“ der Stromwirtschaft – mit Preisrisiken für Haushalte und Industrie.

Michael Kordovsky. Künstliche Intelligenz wächst nicht nur mit mehr Rechenchips, sondern vor allem auch mit Stromverbrauch. Laut International Energy Agency (IEA) in ihrer Publikation „Electricity 2024 – Analysis and forecast to 2026” lag der weltweite Strombedarf von Rechenzentren im Jahr 2022 bei 460 TWh und könnte im Jahr 2026 mehr als 1.000 TWh erreichen, was in etwa dem Stromverbrauch Japans entspricht. Treiber dieser Dynamik ist dabei die KI.

Der Aufstieg des „Ankerkunden“: Zahlen, Trends, Hotspots
In Irland sind die Dimensionen bereits sichtbar: Datenzentren verbrauchten 2024 rund 22 % des Landesstroms. Bis 2026 könnten es laut IEA bereits 32 % sein. Bereits im Juni 2023 waren in Irland 82 Datenzentren in Betrieb, 14 weitere im Bau und für 22 Projekte waren bereits 40 weitere genehmigt. Irlands Netzbetreiber EirGrid kalkuliert im mittleren Szenario für den Zeitraum 2023 bis 2034 mit einem Anstieg der Stromnachfrage um 45 % und die Spitzennachfrage wird bis 2034 voraussichtlich um 24 % (gegenüber 2023) steigen. Die Folgen: Zwar sind für den Zeitraum 2028 bis 2032 unter normalen Bedingungen ausreichend Kapazitäten für den Betrieb des Systems gegeben. Aber unter schwierigen Bedingungen entsteht eine Lücke von 600 bis 800 MW. Von 2032 bis 2034 werden in beiden Szenarien zusätzliche Kapazitäten im Bereich von 100 bis 1.000 MW benötigt.

Auch Deutschland ist ein Hotspot. Laut Studie des Bundesministeriums für Wirtschaft und Klimaschutz benötigten Rechenzentren und kleinere IT-Anlagen in Deutschland bereits 2024 20 TWh Strom, was rund 4 % des deutschen Bruttostromverbrauchs von 2023 entsprach. Im Jahr 2030 werden es bereits 31 TWh sein, u.a. getrieben von KI und dem Cloud-Boom.

In den USA wird im gewerblichen Sektor im Jahr 2025 mit einer Steigerung des Stromabsatzes um 3 % gerechnet – und 2026 bereits um 4,5 %, was vor allem auf die höhere Nachfrage von Rechenzentren zurückzuführen ist. Ein Bericht des US- Energieministeriums gelangt zu dem Ergebnis, dass Rechenzentren im Jahr 2023 etwa 4,4 % des gesamten Stromverbrauchs der USA ausmachten und bis 2028 voraussichtlich etwa 6,7 bis 12 % ausmachen werden.

Preise, Netzausbau, Versorgung: Wer zahlt die KI-Skalierung?
Wird der „Ankerkunde Datenzentrum“ zum Preismacher? Drei Mechanismen sprechen dafür:

Netz- & Erzeugungsausbau: Neue Kraftwerkskapazitäten, Reserveleistung, Transformatoren und Leitungen verursachen enorme Investitionskosten. Diese werden über Netzentgelte und Tarife auf alle Verbraucher verteilt. Hinzu kommt, dass Netzbetreiber im Zuge der KI-Skalierung oftmals kurzfristig zusätzliche Reservekraftwerke vorhalten müssen, um Lastspitzen abzufangen. Das treibt die Systemkosten weiter nach oben. Beispiel Irland: Der Netzbetreiber EirGrid warnt vor Kapazitätsengpässen und organisiert Auktionen, zur Sicherung von Kapazitäten vier Jahre im Voraus (T-4-Auktionen), die von Stromerzeugern gegen Kapazitätszahlungen angeboten werden.

• Lastspitzen & Lokalisierung: Große Cloud-Konzerne („Hyperscaler“) siedeln ihre Rechenzentren bevorzugt an wichtigen Netzknoten an, also dort, wo große Stromleitungen zusammenlaufen. Dadurch konzentriert sich der Stromverbrauch auf wenige Punkte. Da Rechenzentren Gleichstrom für Server und Kühlung benötigen, steigt der Stromverbrauch lokal besonders stark. Bis 2030 können sich die Lasten in KI-optimierten Zentren sogar vervielfachen. Das erhöht den Bedarf an Regelenergie und lässt Spitzenstrompreise an bestimmten Standorten überdurchschnittlich steigen.

• Kostenverschiebung: Große Cloud-Anbieter bauen immer mehr Rechenzentren, die viel Strom verbrauchen. Große Unternehmen sichern sich über PPAs (Power Purchase Agreements) oder eigene Aggregate Verfügbarkeit. Die Kosten für Netzausbau, Reservekraftwerke und Netzsteuerung werden in der Regel über alle Tarife verteilt. Haushalte zahlen also mit. Laut einer Analyse der N.C. State University und der Carnegie Mellon University wird die steigende Zahl von Rechenzentren über das gesamte US-Bundesgebiet bis 2030 voraussichtlich zu einem Anstieg der Stromkosten um durchschnittlich 8 % führen. Dieser Preisanstieg könnte in Hotspots für Rechenzentren sogar noch höher ausfallen, beispielsweise um bis zu 25 % in Nord-Virginia, wo sich einige der höchsten Konzentrationen von Rechenzentren befinden.

Drei Stellschrauben gegen die KI-Preisspirale
Damit KI nicht zur Preisfalle für Haushalte und Mittelstand wird, braucht es drei Ansätze.
Erstens Effizienz: Rechenzentren müssen ihren Energieverbrauch senken, z.B. durch bessere Kühlung, höhere Serverauslastung oder Abwärmenutzung in Stadtquartieren.
Zweitens Flexibilität: Lasten können in wind- oder sonnenreiche Stunden verschoben werden. Speicher (große Batterien oder Wasserstoff-Tanks) und Co-Location mit erneuerbaren Energien (z.B. Datenzentrum neben Windpark) stabilisieren zusätzlich.
Drittens faire Kostenregeln: Netzgebühren und Tarife müssen so gestaltet sein, dass Großkunden einen angemessenen Anteil für Reservierungen und Spitzenlasten zahlen. Nur wenn Effizienz, Flexibilität und Fairness zusammenspielen, bleibt Digitalisierung bezahlbar und die Energiewende auf Kurs.

Foto: Wikimedia / Cabramon