Zum Inhalt

7. IT-Infrastrukturen und deren Stromverbrauch

  • Open Access
  • 2026
  • OriginalPaper
  • Buchkapitel
Erschienen in:

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Der Fachbeitrag untersucht den enormen Stromverbrauch von IT-Infrastrukturen, insbesondere durch Künstliche Intelligenz und Rechenzentren. Es wird der aktuelle Stand des Stromverbrauchs von Rechenzentren und die Herausforderungen bei der Bereitstellung der erforderlichen Rechenkapazität analysiert. Der Beitrag beleuchtet die Auswirkungen des Stromverbrauchs auf das Klima und diskutiert Lösungsansätze zur Reduzierung des Energiebedarfs und zur Steigerung der Energieeffizienz. Dabei werden verschiedene Technologien und Strategien zur Optimierung des Energieverbrauchs von Rechenzentren vorgestellt, wie z.B. effiziente Kühlung, Energiemanagement und die Nutzung erneuerbarer Energien. Zudem werden die Herausforderungen bei der Bereitstellung der erforderlichen Rechenkapazität und die Auswirkungen auf das Klima diskutiert. Der Beitrag schließt mit einem Ausblick auf Maßnahmen, die erforderlich sind, um den Energieverbrauch von IT-Infrastrukturen zu reduzieren und die Auswirkungen auf das Klima zu verringern. Der Fachbeitrag bietet einen detaillierten Überblick über den Stromverbrauch von IT-Infrastrukturen und die Herausforderungen bei der Bereitstellung der erforderlichen Rechenkapazität. Er diskutiert Lösungsansätze zur Reduzierung des Energiebedarfs und zur Steigerung der Energieeffizienz und bietet einen Ausblick auf Maßnahmen, die erforderlich sind, um den Energieverbrauch von IT-Infrastrukturen zu reduzieren und die Auswirkungen auf das Klima zu verringern. Der Beitrag ist eine wertvolle Ressource für Professionals, die sich mit den Herausforderungen und Lösungsansätzen im Bereich der Energieeffizienz von IT-Infrastrukturen auseinandersetzen.
Seit der Erfindung des Computers hat die digitale Transformation unser tägliches Leben immer mehr durchdrungen. Der jüngste Höhepunkt der Digitalisierung ist die Künstliche Intelligenz mit dem Erwachen der großen Sprachmodelle (Large-Language Models, LLMs), die als Vorläufer einer allgemeinen Künstlichen Intelligenz (AGI) angesehen werden. Auch wenn die AGI noch nicht existiert, sie ist im Kommen – und wenn man ihren Befürwortern Glauben schenkt, wird sie die Welt massiv verändern. Sie wird die Arbeitswelt umgestalten, die Wissenschaften, das Ingenieurwesen und die Medizin extrem beschleunigen und die Unterhaltung auf allen Gebieten bereichern. Andererseits verspricht die AGI auch, die Kriegsführung in einer Weise zu verändern, die wir uns noch nicht vorstellen können, und durch gezielte Desinformationskampagnen soziales und politisches Chaos zu verursachen.
Unabhängig von den Versprechungen und Risiken der digitalen Transformation im Allgemeinen oder der AGI im Besonderen – eines ist sicher: Der Infrastrukturbedarf der allgemeinen Künstlichen Intelligenz, insbesondere die benötigte Energiemenge, ist enorm. Jüngste Schätzungen gehen davon aus, dass die AGI-Infrastruktur bis 2030 allein in Nordamerika zusätzliche 30 Gigawatt (GW) an Stromerzeugung erfordern wird. Mit ähnlichen Zahlen wird in anderen Teilen der Welt gerechnet. Allein der Aufbau einer derartigen zusätzlichen Stromerzeugungskapazität in diesem vergleichsweise kurzen Zeitrahmen ist schwierig. Je nach Erzeugungsmix könnten die Treibhausgasemissionen für den Betrieb dieser neuen Infrastrukturen leicht in die Hunderte von Millionen Tonnen CO2 pro Jahr gehen.
In diesem Kapitel untersuchen wir den scheinbar unersättlichen Strombedarf der digitalen Transformation und der allgemeinen Künstlichen Intelligenz und beleuchten, wie wir als Gesellschaft diesen Bedarf reduzieren und kontrollieren sowie die Auswirkungen auf das Klima durch sorgfältige Technik und die Bereitschaft, einige vernünftige Kompromisse einzugehen, verringern können.
Wir beginnen mit einer Einführung in den Stromverbrauch herkömmlicher digitaler Geräte, bevor wir Hintergrundmaterial zu Umfang und Ausmaß der Herausforderungen für die IT-Infrastruktur anbieten. Wie viel Rechnerkapazität wird benötigt, welche Technologien werden wahrscheinlich eingesetzt, und welche Investitions- und Stromkosten werden der Gesellschaft durch die Bereitstellung dieser Kapazitäten entstehen? Dazu gehört auch ein Überblick über den aktuellen Stromverbrauch und den Stromerzeugungsmix in Deutschland sowie über die Arten und Grenzen der verschiedenen Stromerzeugungsquellen.
Anschließend gehen wir näher auf die Herausforderungen bei der Bereitstellung der erforderlichen Rechenkapazität ein. Dazu gehören Fragen, die von der Schätzung des Energiebedarfs über die physischen Rechenzentren, der effizienten Kühlung und des Energiemanagements (PUE und Auftragsplanung) bis hin zu den Übertragungssystemen für die Stromversorgung der Rechenzentren reichen, und schließlich Fragen der Stromerzeugung und der Standorte der Rechenzentren, die eng mit den gewählten Erzeugungsansätzen verbunden sind. Obwohl es ein interessanter Aspekt in diesem Kontext ist, werden wir uns explizit nicht mit den erforderlichen Änderungen im Software-Ökosystem zur Unterstützung von KI-Prozessoren befassen.
Wir schließen mit einem Ausblick auf Maßnahmen, die erforderlich sind, wenn die digitale Transformation wie erwartet voranschreitet und ein solcher AGI-Aufbau stattfinden soll. Dies ist von besonderer Bedeutung für die Aspekte mit langer Vorlaufzeit, wie z. B. den Ausbau der Stromerzeugung, den Aufbau von Energiespeichersystemen und die Verbesserung des Übertragungsnetzes, die alle umfangreichen Genehmigungen und Planungen auf staatlicher und nationaler Ebene erfordern.

7.1 Hintergrund: Wie viel Energie brauchen wir und woher bekommen wir sie heute?

In einem Beitrag von Nicola Jones (2018) in Nature untersucht die Autorin die bereits damals riesigen Mengen an Energie, die von Rechenzentren verbraucht werden. Der Fokus liegt dabei auf Social-Media-Akteuren wie Facebook, der weltweit bekanntesten Suchmaschine Google und rechenintensiven Kryptowährungen wie Bitcoin. Wann immer Sie ein Foto auf Facebook hochladen, wann immer Sie eine Suche auf Google starten oder während Sie Bitcoin handeln, spielen diese Rechenzentren irgendwo im Hintergrund eine wichtige Rolle. Der geschätzte Stromverbrauch im Jahr 2018 lag bei 200 Terawattstunden (TWh) Strom pro Jahr und damit bei etwa 1 % des weltweiten Strombedarfs. Die gesamten Kohlenstoffemissionen von Rechenzentren wurden auf 0,3 % geschätzt, während die Informations- und Kommunikationstechnologien (IKT) für insgesamt mehr als 2 % der weltweiten Emissionen verantwortlich waren. Während diese Zahlen bereits beträchtlich sind, geht die Energieprognose im Artikel von Nicola Jones von einem raschen Anstieg von bis zu 20 % des für 2030 prognostizierten weltweiten Strombedarfs für IKT aus, wobei mehr als ein Drittel dieses Bedarfs auf Rechenzentren entfällt. Und das waren die Schätzungen vor dem Auftauchen der großen Sprachmodelle.
Dieser Artikel ist heute sechs Jahre alt, und die Zeiten haben sich grundlegend geändert. Die Covid-19-Pandemie hat die Art und Weise, wie wir leben und arbeiten, in vielerlei Hinsicht verändert. Neue Technologien haben sich schnell durchgesetzt, andere haben ein erhebliches Wachstum erfahren. Vor der Pandemie wurden Videokonferenzen nur mit speziellen Geräten in bestimmten Situationen durchgeführt, während sie heute zu den Standardkommunikationsmitteln im Berufs- und Privatleben gehören. Das Online-Shopping war schon vor Covid-19 auf dem Vormarsch, aber die Einschränkungen beim Kauf von Lebensmitteln des täglichen Bedarfs führten zu nie dagewesenen Wachstumsraten bei den Online-Lagerhäusern. Gerade als die Pandemie unter Kontrolle war, brachte OpenAI im November 2022 seinen Konversationsagenten ChatGPT auf den Markt. Laut OpenAI hat ChatGPT innerhalb von fünf Tagen 1 Mio. Nutzer gewonnen, während Instagram 2,5 Monate brauchte, um 1 Mio. zu erreichen und Netflix 3,5 Jahre. In einem Artikel von Agam Shah (2024) auf HPCwire schätzt ein Zitat des Halbleiterforschungsunternehmens TechInsights, dass bis 2029 1,5 % des weltweiten Stromverbrauchs auf KI-Beschleuniger entfallen. Ein ähnlicher Bericht von PR Newswire (The Conference Board, 2024) schätzt den auf KI zurückzuführenden weltweiten Energiebedarf in den kommenden Jahren auf 26–36 % jährlich. Wie auch immer der endgültige Anteil des Stromverbrauchs von Rechenzentren im Allgemeinen oder von KI im Besonderen aussehen mag – es ist unvermeidlich, die Situation anzugehen.
Ein erster Schritt zum Verständnis des Energieverbrauchs besteht darin, eine Grundlage für das Verständnis der Gesellschaft von Strom und Elektrizität zu finden. Die oben genannten Zahlen sind meist Indikatoren, die zu abstrakt und für die meisten Menschen schwer zu verstehen sind. Eine Wattstunde (Wh) ist für uns nicht greifbar, und selbst wenn wir sie auf unseren Stromrechnungen sehen, ist es meist schwierig, ihre Bedeutung zu verstehen oder ihren Wert einzuschätzen. Die allgemeine Definition, dass eine Wh eine Energieeinheit ist, die einem Watt Leistung in einer Stunde entspricht, ist in der Regel nicht hilfreich. Wir müssen also zunächst ein verständliches Maß finden. Eine Möglichkeit bietet der Haushaltsstrompreis, der die Höhe der Stromrechnung einer Person durch Multiplikation des Einheitspreises mit den verbrauchten Wattstunden bestimmt. Für Deutschland, das allgemein als eines der teuersten Länder in Bezug auf die Strompreise bekannt ist, wurde der durchschnittliche Strompreis im Dezember 2023 mit 0,402 € pro Kilowattstunde (kWh entspricht 1000 Wh) gemessen. (Beachten Sie, dass der Durchschnittspreis ohne Steuern in diesem Zeitraum laut derselben Webseite 0,2882 € pro kWh betrug). Natürlich wird der Strompreis von vielen Faktoren bestimmt, z. B. von der Verfügbarkeit von Energiequellen und Brennstoffen, den Brennstoffkosten und der Verfügbarkeit von Kraftwerken, so dass die Spotmarktpreise für Strom stark schwanken können. Außerdem besteht ein erheblicher Unterschied zwischen den Preisen für Haushalte und Großverbraucher, und Rechenzentren als Großverbraucher erhalten in der Regel einen günstigeren Preis als der Durchschnittsbürger. Zur Vereinfachung werden wir im weiteren Verlauf des Beitrags 0,30 € pro kWh als Einheit für die Strompreise verwenden.
Nachdem wir die Preise für die Einheiten festgelegt haben, können wir einen Blick auf unsere üblichen Geräte zuhause werfen, um ein Gefühl für den Stromverbrauch zu bekommen. Als erstes und allgemein verfügbares Beispiel sehen wir uns ein Smartphone an. Das meistverkaufte Smartphone ist heute das Apple iPhone 15, das laut Online-Quellen eine Batteriekapazität von 3349 mAh hat. Wenn wir dieses Smartphone einmal am Tag aufladen und dabei die oben erwähnten 0,30 € pro kWh zugrunde legen, benötigen wir etwa 0,005 € pro Tag oder 1,80 € pro Jahr. Das scheint annehmbar und erschwinglich, vor allem im Vergleich zum Preis des Smartphones selbst.
Ein weiteres Gerät, das in den meisten Haushalten vorhanden ist, ist ein Personal Computer. Wenn wir von einem heutigen Durchschnittsmodell und einer Nutzung von etwa 4 h pro Tag ausgehen, können wir den Stromverbrauch eines Personal Computers auf etwa 200 kWh pro Jahr schätzen, was etwa 60 € an Stromkosten entspricht. Dies liegt noch in einem Bereich, der für die meisten Haushalte akzeptabel erscheint.
Ein heute eher noch seltener genutztes Elektroauto kann hier aber als guter Vergleich dienen. Gehen wir von einem Standard-Tesla Model S 60 aus, der 18,1 kWh pro 100 km benötigen soll, können wir die Kosten für 100 km mit 5,43 € berechnen. Bei einer jährlichen Fahrleistung von beispielsweise 15.000 km mit diesem Auto belaufen sich die Stromkosten auf 814,50 € pro Jahr. Vergleicht man dies mit den Kosten für ein benzinbetriebenes Auto, ist es immer noch beachtlich günstiger.
Wenn wir auf diesem Wege weitergehen, können wir auch den durchschnittlichen Stromverbrauch pro Kopf und Haushalt schätzen. In Deutschland liegt der durchschnittliche Pro-Kopf-Stromverbrauch bei etwa 1,5 MWh (Megawattstunden = 1000 kWh) pro Jahr bzw. bei etwa 4 MWh pro Haushalt pro Jahr. Das macht nach unseren Schätzungen etwa 1200 € pro Jahr aus. Die Webseite Statista gibt detailliertere Einblicke in die Zahlen und Entwicklungen der letzten Jahre und schätzt die aktuelle Stromrechnung in Deutschland im Jahr 2024 auf 120,60 € pro Monat oder 1447,20 € pro Jahr für einen 3-Personen-Haushalt. (Der Vergleich dieser Zahl mit den Stromkosten für das Elektroauto offenbart ein interessantes Detail).
Mit einer Bevölkerung von 84,3 Mio. Menschen in Deutschland belief sich der Nettostromverbrauch im Jahr 2022 auf 507 TWh (Terawattstunden = 1000 GWh = 1.000.000 MWh = 1.000.000.000 kWh), während die Bruttostromerzeugung 577 TWh betrug. Im Wesentlichen wurde also mehr Energie erzeugt als verbraucht, aber natürlich schwanken sowohl der Verbrauch als auch die Erzeugung im Laufe der Zeit und sind möglicherweise nicht ausgeglichen, weshalb Strommärkte für den Handel benötigt werden.
Interessant ist auch die Herkunft des Stroms, von der Kernkraft bis zu den erneuerbaren Energien.

7.2 IT-Infrastrukturen – Hochleistungscomputer und Künstliche Intelligenz

Nach den Informationen über Stromverbrauch und -erzeugung wollen wir uns nun den Stromverbrauch von Rechenzentren genauer ansehen. Laut DataCentre Magazine (Amber Jackson, 2024) ist das weltweit größte Rechenzentrumsunternehmen Amazon Web Services (AWS) von Amazon.com mit 32 Cloud-Regionen und 102 Availability Zones im Januar 2024, gefolgt von Microsoft Azure mit 62 Cloud-Regionen und 120 Availability Zones. Die AWS-Rechenzentren erstrecken sich über eine Fläche von 3,1 Mio. Quadratmetern. Auch wenn es schwierig ist, genaue Zahlen zum Energieverbrauch von Rechenzentren zu erhalten, scheint es für die Firmen unabdingbar zu sein zu verkünden, dass der gesamte Strom in naher Zukunft aus erneuerbaren Quellen stammt oder keine Kohlenstoffemissionen mehr verursacht. In einem Artikel von Mark Heschmeyer auf CoStar News vom 07. März 2024 wird erwähnt, dass AWS ein Rechenzentrum in Pennsylvania in der Nähe eines Kernkraftwerks gekauft hat. Allein der Stromverbrauch dieses Rechenzentrums wird auf bis zu 960 MW geschätzt. Der in dem Artikel genannte offizielle Preis beträgt 650 Mio. US-$. Bei anderen im Bau befindlichen Rechenzentren werden oft Preise von einer Milliarde oder sogar mehr nur für den Bau des Standorts genannt.
Da es schwierig ist, offizielle Zahlen von kommerziellen Anbietern zu erhalten, richten wir unseren Blick auf ein öffentliches Rechenzentrum für Wissenschaft und Forschung. Das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften existiert seit 1962. Ursprünglich für den Betrieb von Großrechnern eingerichtet, hat es seine digitalen Dienste auf viele Bereiche ausgeweitet, darunter Kommunikationsnetze sowie Speicherung und Housing für alle Bereiche von Wissenschaft und Forschung. Heute ist es der IT-Dienstleister für die Münchner Universitäten und Hochschulen, bietet ausgewählte Dienste für alle bayerischen Forschungseinrichtungen an, ist eines der drei nationalen Höchstleistungsrechenzentren und einer der Standorte für einen europäischen Quantencomputer. Zu den Dienstleistungen des LRZ gehören das Münchner Wissenschaftsnetz, das mehr als 600 Gebäude verbindet, das Datenarchiv der Bayerischen Staatsbibliothek und der nationale Supercomputer SuperMUC-NG. Neben der Bereitstellung von Dienstleistungen forscht das LRZ zu verschiedenen Themen, darunter auch zum energieeffizienten Betrieb von Rechenzentren.
Derzeit kann die Gesamtkapazität des LRZ bis zu 10 MW betragen, wovon im Durchschnitt 6 MW für den Betrieb verwendet werden. Der durchschnittliche Verbrauch des Supercomputers liegt jedoch bei 2,6 MW, kann aber bei leistungshungrigen Anwendungen auf über 3,6 MW ansteigen. Mit Zunahme der Dienstleistungen für Wissenschaft und Forschung sowohl im Bereich des Supercomputings als auch der KI werden Pläne verfolgt, die Stromkapazität des LRZ auf 15 MW und später 40 MW zu erweitern. Die durchschnittlichen Stromkosten des LRZ pro Stunde belaufen sich auf 1500–2000 €. (Vergleichen Sie dies mit den durchschnittlichen Stromkosten eines Haushalts pro Jahr).
Das LRZ, das größtenteils durch das Bayerische Staatsministerium für Wissenschaft und Kunst (StMWK) aus Steuergeldern finanziert wird, verfügt über ein festgelegtes jährliches Budget für den Betrieb seiner Infrastruktur und die Bereitstellung seiner Dienste für Nutzer aus Wissenschaft und Forschung. Dabei ist es von entscheidender Bedeutung, so energieeffizient wie möglich zu arbeiten, denn geringere Energiekosten erlauben mehr Rechenleistung für die Nutzer. Die Beschaffung der LRZ-Supercomputer erfolgt auf der Basis von Gesamtkosten (Total Cost of Ownership, TCO), wobei ein Gesamtbudget für Investitions- und Betriebskosten ausgeschrieben wird. Angebote mit der größten Leistung bei den geringsten Stromkosten erhalten Extrapunkte.
Etwa 70 % des Stroms, den das LRZ verbraucht, wird für den Betrieb seiner Supercomputer benötigt, und ein Teil der Stromkosten ist für die Ausfallsicherheit und Zuverlässigkeit des Betriebs erforderlich. Es ist naheliegend, dass der Supercomputer das erste Ziel jeglicher Energieoptimierung ist. Die Schlüsselfrage ist, wie man die maximale Rechenleistung bei minimalen Energiekosten erreichen kann. Die Leistung hängt jedoch immer von den jeweiligen Aufgaben ab, und unterschiedliche Supercomputer sind für unterschiedliche Anwendungen optimiert.
Die Weltrangliste der Supercomputer, die sogenannte Top500-Supercomputerliste (https://top500.org/), basiert auf dem sogenannten Linpack-Benchmark, einem numerischen Löser für lineare Gleichungen. Das System, das in diesem Benchmark die höchste Punktzahl erreicht, wird als das schnellste System in der Liste (und damit auf der Welt) bezeichnet, gefolgt von allen anderen Systemen, jeweils entsprechend ihrer Leistung im Linpack. Der derzeit schnellste Supercomputer auf der Liste (im Linpack-Benchmark) ist ein System namens Frontier (https://www.olcf.ornl.gov/frontier/), eine HPE Cray EX235a, die aus 8.699.904 AMD-Rechenkernen besteht und im Oakridge National Laboratory in den Vereinigten Staaten installiert ist. Durch den parallelen Einsatz all dieser Kerne zur Berechnung des Linpack-Benchmarks erreicht dieser Supercomputer ein Linpack-Ergebnis Rmax von 1206 Petaflop/s oder 1,2 Exaflop/s (d. h. 1,2 × 1018 oder 1.206.000.000.000.000.000 Gleitkommaoperationen pro Sekunde). Dies ist die Anzahl der Operationen, die bei der Lösung eines bestimmten Systems linearer Gleichungen durchgeführt werden. Würden theoretisch alle Rechenkerne ohne ein bestimmtes Ziel mit maximaler Geschwindigkeit rechnen, wäre das System in der Lage, einen Rpeak von 1714,81 Petaflop/s zu erreichen. Das bedeutet, dass das System für Linpack 70 % seiner Spitzenleistung nutzen kann. Folglich würde Frontier bis zu 70 % seiner Leistung bieten, wenn die Zielanwendungen einen Linpack-ähnlichen Algorithmus verwenden. Umgekehrt, wenn sich die Zielanwendung stark von Linpack unterscheidet, ist eine viel geringere Leistung zu erwarten. In vielen Fällen liegt die tatsächliche Leistung unter 10 % oder sogar unter 1 % der theoretischen Spitzenleistung.
Während die lange Tradition der Top500 (seit 1993) eine wertvolle Quelle für den Vergleich von Supercomputer-Entwicklungen darstellt, liefert die Messung eines Systems anhand seines Linpacks nur begrenzte Erkenntnisse für ein breites Spektrum von Anwendungen. Dies wurde von der wissenschaftlichen Gemeinschaft wiederholt angemerkt, was in der Folge zu einer Reihe von verschiedenen Benchmarks führte, um unterschiedliche Anwendungsmerkmale zu modellieren. Ein weiterer bekannter Benchmark ist HPCG (High Performance Conjugate Gradients), der einen völlig anderen Algorithmus zur Bestimmung der Systemleistung verwendet und seit 2017 Ergebnisse liefert. In der Folge ist das System auf Platz 1 der HPCG-Liste ein völlig anderes System als Frontier auf der Top500-Liste. Platz 1 der HPCG-Liste wird von Fugaku belegt; er besteht aus 7.630.848 A64FX ARM-Kernen und ist installiert im RIKEN Center for Computational Science in Kobe, Japan. Die resultierende Leistung von Fugaku in HPCG beträgt 16.004,50 TFlop/s (oder 16 × 1015 Gleitkommaoperationen pro Sekunde), was etwa 3,6 % seiner theoretischen Spitzenleistung entspricht. Die HPCG-Leistung von Frontier steht auf der HPCG-Liste an zweiter Stelle.
Eine weitere interessante Zahl für diese Supercomputer ist der Stromverbrauch, der für die Durchführung des Linpack-Benchmarks gemessen wird. Hier wird Frontier mit 22,768 MW angegeben, während Fugako mit 29,899 MW gelistet ist. Dies weist auf eine andere Rangliste hin, die die Leistung in Bezug auf die für die Berechnung verwendete Energie vergleicht, die sogenannte Green500-Liste. Das Maß für die Green500-Liste ist GFlop/Watt, d. h. wie viel Energie für die Bereitstellung des Linpack-Ergebnisses verwendet wurde. Auf Platz 1 der Green500-Liste steht derzeit JEDI – JUPITER Exascale Development Instrument, ein BullSequana XH3000-Rechner mit 19.584 Kernen in Jülich, Deutschland. Obwohl JEDI nur auf Platz 190 der Top500-Liste steht, erreichte es eine Energieeffizienz von 72,73 GFlop/Watt und einen Linpack-Wert von 4,5 PFlop/s. Die Entwicklungen auf der Green500-Liste bieten wertvolle Einblicke in die Entwicklung von Chips, wobei neuere Chips eindeutig energieeffizienter sind als ältere. Allerdings gibt es hier zwei Kritikpunkte: Erstens basiert Green500 wiederum auf den Linpack-Benchmarks und ist somit auf eine bestimmte Gruppe von Algorithmen beschränkt. Zweitens wird nur der Energieverbrauch des Systems gemessen, während alle anderen für den Betrieb des Systems erforderlichen Stromverbraucher vernachlässigt werden.
Die obigen Ausführungen zielen zwar auf High-Performance Computing (HPC) ab, jedoch ist die Situation bei KI-Supercomputern fast identisch. Der Hauptunterschied ergibt sich aus den Anwendungsmerkmalen, und daher müssen Supercomputer für KI mit KI-Benchmarks wie MLPerf gemessen werden. In vielerlei Hinsicht sind die Architekturen von KI-Supercomputern mit HPC-Systemen vergleichbar, aber die Eigenschaften der Verarbeitungselemente, der Speicheranbindung und des Verbindungsnetzes können sich unterscheiden. Tatsächlich wird der Supercomputer JUPITER auch Deutschlands leistungsstärkster Supercomputer für das Training von Large Language Models (LLMs) sein.
Vergleicht man die Anforderungen von KI mit HPC, so zeigt sich zuletzt ein starker Anstieg der Rechenleistung für KI-Training und -Inferenz. Die Top500-Liste der Supercomputer enthält derzeit 22 Systeme, das höchstplatzierte auf Position 10, des Herstellers NVIDIA, heutiger Weltmarktführer für KI-Chips. Darüber hinaus werden NVIDIA-Chips auch als Beschleuniger in vielen der heutigen HPC-Supercomputer eingesetzt. Die Einführung von KI in HPC führt zu Änderungen in den Architekturen, vor allem zur Reduzierung der 64-Bit-Funktionen, die für HPC unerlässlich sind, aber für KI nicht benötigt werden. Da mehr KI-Funktionen benötigt werden, wird der Platz auf den Chips vorzugsweise für KI-Funktionen und 64-Bit-Computing genutzt.
Die Fähigkeiten der KI können auch mit HPC verglichen werden, indem die Anforderungen von ChatGPT mit der Leistung von Frontier verglichen werden. Offizielle Zahlen werden zwar nicht genannt, aber Schätzungen für das Training von GPT-3 sprechen von 1064 MWh, während für die Inferenz 260 MWh pro Tag benötigt werden. Im Vergleich dazu benötigt Frontier etwa 545 MWh pro Tag. Es liegt auf der Hand, dass neuere Modelle von GPT noch mehr Energie benötigen, und die steigende Zahl der Benutzer erhöht den täglichen Bedarf. Eine Eingabeaufforderung in ChatGPT benötigt 6,79 Wh und die gleiche Anfrage in der Google-Suchmaschine 0,3 Wh. Es erfordert also von jedem von uns eine verantwortungsvolle Entscheidung, welches Tool für die Online-Recherche verwendet werden soll.
Bislang haben wir nur über den Energiebedarf der Verarbeitungselemente oder des gesamten Supercomputers gesprochen. Wenn wir uns den aktuellen Spitzenchip von NVIDIA, die sogenannte H100 GPU, genauer ansehen, sehen wir interessante Zahlen. (GPU steht für Graphics Processing Unit, was auf die ursprüngliche Verwendung dieser Chips hindeutet. Nachdem jedoch Algorithmen gefunden wurden, die diese Chips für KI nutzen können, haben sie dieses Marktsegment mit fliegenden Fahnen erobert.) Die NVIDIA H100 GPU ist mit 700 W spezifiziert. Geht man davon aus, dass der Chip zu 61 % ausgelastet ist, eine Zahl, die NVIDIA aus eigener Erfahrung angibt, beträgt der Energieverbrauch eines solchen Grafikprozessors 3741 kWh pro Jahr. Zum Vergleich: Ein deutscher Durchschnittshaushalt im Jahr 2020 benötigte 3200 kWh. Und das ist nur der Bedarf für eine GPU. NVIDIA schätzte den Absatz dieser GPUs für das Jahr 2024 auf 1,5–2 Mio. H100 Einheiten.
Der Stromverbrauch der einzelnen Rechenelemente oder sogar des Supercomputers ist nur ein Teil des gesamten Stromverbrauchs. In Rechenzentren beschreibt die Kennzahl Power Usage Effectiveness (PUE), manchmal auch als Stromverbrauchseffizienz bezeichnet, wie viel Energie im Vergleich zur übrigen Infrastruktur des Rechenzentrums einschließlich Kühlung und anderer Gemeinkosten von der Rechenanlage verbraucht wird. Die PUE berechnet sich aus der Gesamtenergiemenge, die dem Rechenzentrum zugeführt wird, im Verhältnis zur Energie, die für den Betrieb der Rechenanlagen verwendet wird. Für herkömmliche luftgekühlte Komponenten, z. B. die oben erwähnten H100-GPUs, werden die zusätzlichen Energiebedarfe auf mindestens 30 % für interne Lüfter und Ventilatoren und auf mindestens 30 % für externe Kühlung geschätzt. Das bedeutet, dass die oben erwähnten H100-GPUs mit einem PUE-Wert von 1,65 bis 1,80 berechnet werden, was auf einen Overhead von 65–80 % beim Energieverbrauch hinweist. Wenn die GPU 700 W benötigt, erfordert die Infrastruktur für den Betrieb dieser GPU zusätzliche 455–595 W oder insgesamt bis zu 1285 W pro GPU.
Für die realen Betriebsanforderungen von HPC- und KI-Supercomputern müssen wir den gesamten Stromverbrauch bewerten und daher mit der Gesamtenergie unter Verwendung der PUE berechnen. Umgekehrt müssen wir, um den Energieverbrauch von IT-Infrastrukturen zu reduzieren, viele verschiedene Aspekte potenzieller Energieverbraucher und deren Zusammenspiel untersuchen. Am LRZ wurde dafür das Vier-Säulen-Modell eingeführt, um eine ganzheitliche Optimierungsstrategie für die Energieeffizienz umzusetzen (Wilde et al., 2014). Diese vier Säulen sind jeweils:
  • Gebäudeinfrastruktur
  • Systemhardware
  • Systemsoftware
  • Anwendungen
Optimierungen von Rechenzentren sollten in jedem dieser Bereiche stattfinden. So können Verbesserungen des PUE-Wertes durch Optimierungen der Gebäudeinfrastruktur erreicht werden. Im LRZ erfolgt die Kühlung mit sogenannten Heißwasserkühlkreisläufen, die mit Wassertemperaturen von bis zu 45 Grad Celsius die Wärme aus den Rechenkomponenten abführen. Das Kühlwasser wird so nah wie möglich an die heißen Chips herangeführt, um die Wärme abtransportieren zu können. Wasser ist, wenn es zur Kühlung verwendet wird, in vielerlei Hinsicht besser als Luft, z. B. Wärmeleitfähigkeit 23x, Wärmekapazität 4x, volumetrische Wärmekapazität 3493x, thermische Trägheit 284x. Das in das Rechensystem eintretende Wasser wird aufgeheizt, und die entscheidende Frage ist, wie viel Energie benötigt wird, um das Wasser wieder unter die maximale Eintrittstemperatur zu bringen. Im LRZ ist bei 45 Grad Celsius Eintrittstemperatur und dem in Mitteleuropa derzeit üblichen Klima neben den normalen Außentemperaturen keine zusätzliche Kühlung erforderlich. Das bedeutet, dass der Aufwand für die Pumpen, die das Wasser antreiben, bei einem warmwassergekühlten System nur 2–3 % beträgt, was in einem PUE-Wert von 1,02–1,03 am LRZ resultiert und damit eine Energieeinsparung von 60–80 % im Vergleich zu den oben genannten luftgekühlten Systemen bedeutet. Das erste warmwassergekühlte System wurde 2012 im LRZ installiert, wobei im Laufe der Jahre zahlreiche Verbesserungen vorgenommen wurden. Die jüngste Verbesserung ist die Entfernung von Glykol aus den Heißwasserkreisläufen, da das warme Wasser im Freien nicht einfrieren kann, solange es fließt. Die Reduzierung des Glykols verbessert erneut die Kühlleistung des Wassers.
Ähnlich den Optimierungen in der Gebäudeinfrastruktur lassen sich auch andere Bereiche des Rechenzentrums auf Energieeffizienz optimieren. Im Bereich der Systemhardware kann der Stromverbrauch gesenkt werden, indem nur die zu einem bestimmten Zeitpunkt benötigten Komponenten mit Strom versorgt werden, oder es wird eine dynamische Taktfrequenzskalierung (Dynamic Clock Frequency Scaling) verwendet, um die Verarbeitungselemente mit der jeweils optimalen Taktfrequenz für eine bestimmte Anwendung zu betreiben. In der Systemsoftware-Säule können die Ressourcennutzung optimiert und die Ausführung von Anwendungen auf dem System abgestimmt werden. Im Bereich der Anwendungen lässt sich schließlich die Anwendungsleistung durch bessere Algorithmen oder eine bessere Anpassung des Codes an das zugrunde liegende System optimieren.
Algorithmen bieten angesichts ihrer zeitlichen und räumlichen Komplexität in der Regel das größte Optimierungspotential. So basieren beispielsweise heutige LLM-Systeme mit ihren Deep-Learning-Transformer-Ansätzen auf einer quadratischen Komplexität, wie im Originalpapier von Vaswani et al. (2017) angegeben. Dies ist die Hauptursache für die hohen Infrastrukturanforderungen heutiger KI-Systeme, da die Qualität des LLM mit mehr Daten zunimmt, während die Rechenleistung (und deren Energieverbrauch) mit der Datenzunahme quadratisch ansteigt. Sepp Hochreiter, einer der Autoren der ursprünglichen LSTM-Technologie (Long-Short Term Memory), die heute in vielen kommerziellen Geräten verwendet wird, schlägt xLSTM vor, eine Version, die schneller, effizienter und präziser sein soll. Die Berechnungen mit xLSTM bieten eine lineare Zunahme der Länge des verarbeiteten Textes und würden daher viel weniger Leistung und Energie verbrauchen als bestehende Ansätze. Andere Entwicklungen, z. B. von Stephan Günnemann et al., schlagen vor, sich auf die relevantesten Teile der neuronalen Netze zu konzentrieren und dadurch Modelle zu komprimieren, um sie kleiner und billiger zu machen. Björn Ommer, Erfinder der stabilen Diffusion, behauptet, er kämpfe gegen den Größenwahn der KI-Community.
Insgesamt sehen wir ein großes Potential bei der Optimierung des Energieverbrauchs von IT-Infrastrukturen, und eine ganzheitlichere Betrachtung aller Aspekte des Rechenzentrums und seines Stromverbrauchs erforderlich. Es gibt jedoch auch eine Perspektive der Energieversorgungsseite, die von der Rechenlast zum Ausgleich von Energienetzen profitieren kann, wie es im folgenden Abschnitt erläutert ist.

7.3 Hochskalierte Berechnungen und das Energienetz

Wie bereits beschrieben, wird der erwartete Energieverbrauch neuer KI-Supercomputer in Nordamerika voraussichtlich 30 GW übersteigen und bis 2030 weltweit bei über 75 GW liegen. Das ist eine riesige Menge an Energie, insbesondere wenn sie von kohlenstofffreien bis -armen Generatoren geliefert werden soll. Wenn Europa und Deutschland im KI-Bereich wettbewerbsfähig bleiben und gleichzeitig ihre digitale Souveränität bewahren wollen, müssen sie aber auch ihre Hochleistungsrechen- und KI-Kapazitäten erheblich ausbauen und damit deutlich mehr Energie dafür zur Verfügung stellen.
In diesem Abschnitt betrachten wir die Stromnetze und Strommärkte etwas genauer, die die Energie im Gigawatt-Bereich für diese riesigen Rechenzentren bereitstellen werden. Wir beginnen mit einigen Hintergrundinformationen zu den Möglichkeiten des Energiemanagements in Rechenzentren, bevor wir uns den Stromnetzen, den Herausforderungen im Zusammenhang mit erneuerbarer Energie und den Strommärkten zuwenden. Insbesondere beleuchten wir die Volatilität der Strompreise und Emissionsfaktoren1 im Tagesverlauf und zwischen den Jahreszeiten, die Notwendigkeit, die Stromnetze „auszugleichen“, sowie die Variabilitäts- und Übertragungsprobleme bei erneuerbaren Energien.
Anschließend diskutieren wir, wie diese Herausforderungen auf kostengünstige2 Weise bewältigt werden können, insbesondere wenn Vorschriften und Marktstrukturen gutes Verhalten fördern, anstatt es zu behindern. Wenn Betreiber von Rechenzentren beispielsweise die Preisvolatilität ausnutzen, um die Energiekosten zu senken, können sie (i) energieintensivere Anwendungen planen, wenn Energie günstig ist, und energiearme Anwendungen planen, wenn Energie teuer ist, (ii) energieintensive Anwendungen an Standorten planen, an denen Energie derzeit weniger teuer ist, oder (iii) einfach abschalten (oder in einen Niedrigenergiezustand wechseln), wenn die Preise einen bestimmten Schwellenwert überschreiten. Mit derartig einfachen Minderungsstrategien lassen sich nicht nur die Energiekosten senken, sondern auch die CO2-Emissionen durch den Betrieb der Rechenzentren verringern.
Umgekehrt können Rechenzentrumsbetreiber dem Stromnetz auch wichtige Funktionen zur Stabilität des Stromnetzes (sogenannte Nebendienstleistungen) bereitstellen. Die Bereitstellung von Nebendienstleistungen durch Rechenzentrumsbetreiber senkt sowohl ihre Stromkosten als auch die Notwendigkeit, große „Spitzenlast“-Stromerzeugungsanlagen3 (Peaker Plant) oder riesige Energiespeichersysteme (Batterien) zu bauen und einzusetzen.

7.3.1 Möglichkeiten des Energiemanagements in Rechenzentren

Rechenzentren verfügen über mehrere Mechanismen, um ihre Energie-/CO2-Kosten dynamisch4 zu steuern und ihren Stromverbrauch aus dem Stromnetz zu modulieren. Es gibt zwei große Kategorien von Techniken: Job-Shifting in Raum und Zeit und Techniken zur vorübergehenden Reduzierung der elektrischen Last.
Zunächst jedoch ein paar Worte zu Job-Mixen und Unterschieden zwischen Anwendungen. In „normalen“ HPC-Rechenzentren haben verschiedene Anwendungen unterschiedliche Energieintensitäten, und viele verschiedene Anwendungen laufen gleichzeitig. Während zwei Jobs dieselbe Anzahl von Serverknoten für dieselbe Zeitspanne belegen können, verbrauchen sie oft sehr unterschiedliche Energiemengen, da sie die Hardware effektiv nutzen und „beschäftigt“ halten. Eine höhere Hardwareauslastung führt zu einem höheren Energieverbrauch und damit zu einer höheren Energieintensität. Das Gegenteil ist ebenso der Fall. Diese Unterschiede können von Job-Schedulern ausgenutzt werden, um die Energiekosten zu senken, indem energieintensive Jobs räumlich in Rechenzentren mit derzeit niedrigeren Kosten oder zeitlich in Stunden verschoben werden, in denen Energie weniger teuer ist.
Gängige Techniken zur Steuerung der Last bei laufenden Jobs sind (i) Reduzierung der Taktfrequenz (s. dynamische Taktfrequenzskalierung oben), (ii) Einfrieren/Auftauen von Jobs und (iii) Überprüfen/Neustarten. Die beiden letzteren stoppen die Jobs auf den Rechenknoten und machen sie dadurch vorübergehend unbrauchbar. Dies ist wichtig, da es direkte Auswirkungen auf die Hardwareauslastung, die Anzahl der Stunden, über die die Hardware amortisiert wird, und die Investitionskosten pro CPU/GPU-Stunde hat.
Durch die Reduzierung der Taktfrequenz der CPUs und GPUs auf einem Rechenknoten wird der Stromverbrauch des Knotens um unterschiedliche Beträge reduziert. Eine Reduzierung der Taktfrequenz erhöht normalerweise auch die zum Abschließen des Auftrags erforderliche Zeit und möglicherweise auch den Gesamtenergiebedarf zum Abschließen des Auftrags. Die Kompromisse sind hardware- und anwendungsabhängig, aber die Energieeinsparungen betragen normalerweise nicht mehr als 30 %. Der Vorteil besteht jedoch darin, dass die Anwendung auch bei heruntergefahrener Taktfrequenz weiterhin verwendet werden kann, sie ist nur langsamer.
Unter Job-Einfrieren (Job Freezing) versteht man das Anhalten des Jobs, so dass er nicht weiter fortschreitet. Der Job befindet sich noch im Speicher, er nutzt lediglich keine CPU-/GPU-Zyklen. Der Knoten läuft noch „im Leerlauf“. Dies verbraucht üblicherweise noch 15–20 % der vollen Leistung des Knotens, obwohl bei dem Job keine Fortschritte erzielt werden. Der Vorteil ist, dass Jobs in wenigen Millisekunden eingefroren werden können, wodurch es möglich ist, die Leistung eines großen Knotenclusters schnell deutlich zu senken. Der Nachteil ist, dass die Anwendung im eingefrorenen Zustand nicht verwendet werden kann. In einer Umgebung mit vielen verschiedenen Jobs können Teilmengen der Jobs eingefroren werden, um die gewünschte Lastreduzierung zu erreichen. Jobs werden „aufgetaut“, indem sie wieder ausführbar gemacht werden. Das Auftauen dauert ebenfalls nur wenige Millisekunden. Der Stromverbrauch steigt schnell an, wenn der Job aufgetaut ist, obwohl es bei voller Auslastung eine Minute oder länger dauern kann, bis zusätzliche Kühlressourcen aktiviert werden.
Checkpoint/Neustart bezeichnet das Anhalten eines Jobs und das Speichern des laufenden Jobs auf der Festplatte. Der Vorteil besteht darin, dass der Knoten ausgeschaltet werden kann, sobald die Anwendungen auf einem Knoten (normalerweise nur einem) bestehen bleiben, sodass nur ein kleiner 6–10 W BMC5 läuft. Dies führt zu maximalen Energieeinsparungen. Beachten Sie, dass es je nach Anzahl der Faktoren mehrere Minuten dauern kann, einen Prüfpunkt für eine Anwendung zu setzen. Die Verwendung von Prüfpunkt/Neustart ist nur bei langen Ausfallzeiten sinnvoll. Der Job kann nach dem Setzen eines Prüfpunkts migriert und in einem anderen Rechenzentrum neu gestartet werden.
KI-Lasten in Rechenzentren sind normalerweise einer von zwei Typen: Modelltraining oder Inferenz. Beim Modelltraining werden oft alle Knoten in einem Rechenzentrum für einen einzigen Job genutzt. In Texas werden mehrere KI-Trainingsrechenzentren im GW+-Maßstab gebaut, und fünf GW+-KI-Trainingsrechenzentren befinden sich in der Planungsphase. Diese Zentren werden jeweils einen Job ausführen. Dies macht Techniken nutzlos, die die Unterschiede in den Jobtypen ausnutzen, so dass das Verlangsamen oder Stoppen der Anwendung effektiv die einzigen Möglichkeiten sind, Energiekosten zu sparen.
Fazit
  • Der Stromverbrauch von Rechenzentren kann in weniger als ein paar Sekunden schnell gesenkt und erhöht werden, um die primäre Frequenzantwort (PFR) und Zusatzdienste bereitzustellen.
  • Der Stromverbrauch von Rechenzentren kann langsamer gesenkt werden, während der Betrieb weiterläuft.
  • Durch die Verschiebung der Last in Raum und Zeit lassen sich Energiekosten sparen.
Inferenz ist ein Problem mit hohem Durchsatz, bei dem potenziell Millionen von Inferenzoperationen in mehreren geografisch verteilten Datenzentren ausgeführt werden. Die Kommunikation zwischen Clients und Servern für die Inferenz erfolgt normalerweise über Standard-Webprotokolle, wodurch die Lastverschiebung zwischen Standorten vereinfacht wird.

7.3.2 Energiepreise – Abhängigkeiten von Tageszeit, Jahreszeit und Wetter

Wenn Sie sich eine Stromrechnung in den meisten Teilen der Welt ansehen, bestehen die Kosten aus mindestens vier Komponenten: den Kosten für den Strom selbst, den Kosten für die Übertragung des Stroms bei hoher Spannung von Generatoren zu einem Umspannwerk in der Nähe des Verbrauchers, den Verteilungskosten für die Herunterspannung und Verteilung des Stroms in einem Ort sowie den von der Regierung erhobenen Steuern und Gebühren.
In vielen Teilen der Welt, auch in Deutschland, dominieren die Steuern und Gebühren die Kosten für Strom, Übertragung und Verteilung. In anderen Regionen ist dies nicht der Fall. In den meisten Teilen der USA und in weiten Teilen der Welt betragen die Kosten für Verteilung und Übertragung jeweils etwa 1–2 Cent pro kWh. Steuern und Gebühren können in einigen US-Bundesstaaten und den meisten Teilen Europas leicht 20–30 Cent pro kWh betragen. Industrielle Nutzer zahlen normalerweise deutlich niedrigere Steuer- und Gebührensätze.
In diesem Abschnitt fokussieren wir uns zuerst auf den Energiepreis. Wenn Steuern und Gebühren die Kosten dominieren, dämpfen sie das Energiepreissignal und verringern den Anreiz, das Verhalten aufgrund von Energieknappheit zu ändern.
Wie Abb. 7.1 zeigt, können die Energiepreise im Jahresverlauf und von Stunde zu Stunde erheblich schwanken. Die Schwankungen werden durch viele Faktoren verursacht, die alle auf Angebot und Nachfrage hinauslaufen. An heißen und kalten Tagen besteht eine höhere Nachfrage nach Elektrizität. An manchen Tagen ist weniger Wind- oder Solarenergie verfügbar, was sich auf die Versorgung mit kostengünstigem Strom auswirkt. Ebenso gibt es Zeiten, in denen Kraftwerke wegen Wartungsarbeiten außer Betrieb sind, was wiederum das Angebot reduziert.
Abb. 7.1
Heatmap der Spot-Strompreise für ganz Texas im Jahr 2022. Der gesetzlich vorgeschriebene Höchstpreis beträgt 4000 US-$/MWh. Heatmaps sind eine großartige Möglichkeit, die Preisvolatilität schnell zu verstehen. Wie Sie sehen, ist die Energie in Texas am späten Nachmittag im Sommer sehr teuer. Beachten Sie auch die negativen Energiepreise. Datenquelle: ERCOT (ERCOT (Electric Reliability Council of Texas), https://www.ercot.com/, bietet Zugriff auf Echtzeit- und historische Daten zu Preisen, Erzeugungsquellen, Kapazität, Last und anderen Systemintegrationen. Die Daten können als CSV-Rohdaten heruntergeladen oder auf der Website zur Erstellung einfacher Grafiken wie Heatmaps verwendet werden. Die meisten Strommärkte bieten Zugang zu ähnlichen Informationen, beispielsweise Nordpool, https://www.nordpoolgroup.com/en/, in Deutschland)
Bild vergrößern
Es gibt auch Schwankungen innerhalb größerer Märkte aufgrund von Übertragungsüberlastungen und anderen ähnlichen Faktoren. Wenn beispielsweise die Übertragung in ein Gebiet unzureichend ist, können die Preise in diesem Gebiet höher sein. Wenn die Übertragung aus einem Gebiet mit sehr niedrigen Kosten unzureichend ist, können die Preise in diesem Gebiet niedriger sein. Diese „Gebiete“ werden oft als Lastzonen bezeichnet. Sogar innerhalb einer Lastzone kann ein bestimmtes Umspannwerk aufgrund interner Überlastungen innerhalb der Lastzone weniger teuren Strom haben.
Dies ist in den Daten der Lastzone im Westen von Texas in Abb. 7.2 zu sehen. Hier haben wir die Daten für einen Zeitraum im Jahr 2022 sortiert. Die Lastzone hatte im Jahr 2021 14 GW Wind und 7 GW Solar. In Abb. 7.2 gibt es drei Dinge, auf die man sich konzentrieren sollte.
Abb. 7.2
Echtzeit-Preisverteilung in der Lastzone Texas West im Jahr 2022. Fast die Hälfte der Kosten für 1 MW für das Jahr fallen in 5 % der Stunden an. Datenquelle: ERCOT (Grafik von Shaun Connell und Andrew Grimshaw auf Lancium.com unter Verwendung von Daten von https://www.ercot.com/)
Bild vergrößern
Erstens war der Strompreis 20 % der Zeit negativ, weil die Übertragungskapazität von der Lastzone zum Rest von Texas nicht ausreichte und die Energie nicht abtransportiert werden konnte. Dies lag daran, dass die erneuerbaren Energien „funktionierten“, was zu einem Stromüberschuss über die ~5 GW lokale Last in der Westzone und die ~14 GW führte, die über Übertragungsleitungen zu den Bevölkerungszentren im Rest von Texas transportiert werden konnten.
Wenn dies geschieht, sprechen wir von einer Überlastung des Netzes6 (Congestion) – es ist Strom vorhanden, aber er kann nicht dorthin transportiert werden, wo er benötigt wird. Wenn das Netz überlastet ist und es einen Überschuss an erneuerbarer Energie gibt, werden die Preise negativ, da die Grenzkosten der Energieerzeugung nahe Null liegen und es eine staatliche Subvention von drei Cent pro kWh für erneuerbare Energie gibt, genau dann, wenn der Strom geliefert (und verbraucht) wird. Die Subvention gilt während der ersten zehn Jahre der Laufzeit von erneuerbaren Projekten in den USA.
Zweitens beachten Sie die Gewinnschwellenlinien für den Erdgaspreis in Texas zu dieser Zeit für Gasturbinen (am teuersten), reine Dampfkraft und kombinierte Kreislaufkraftwerke. Wenn der Energiepreis unter diesen Punkten liegt, stammt der Strom nicht aus Gaskraftwerken, da die Verwendung von Gas nicht wirtschaftlich ist (es könnte eine Ausnahme für Kraft-Wärme-Kopplungsanlagen wie in Deutschland geben, aber das ist in West-Texas nicht der Fall).
Drittens gibt es am anderen Ende des Spektrums die wenigen Zeiten, in denen Energie sehr knapp oder sehr gefragt ist. Diese treten normalerweise auf, wenn es sehr heiß oder sehr kalt ist und die erneuerbaren Energien nicht so viel produzieren. Unter diesen Umständen werden mit fossilen Brennstoffen betriebene Generatoren, die möglicherweise die meiste Zeit inaktiv sind, online geschaltet, um Strom zu liefern. Die Kosten für die selten genutzten Ressourcen sind tendenziell höher als bei regelmäßig betriebenen Anlagen. Ihre Kapitalkosten und Betriebskosten wie Personal müssen unabhängig davon bezahlt werden, wie oft sie genutzt werden. Diese Kosten werden wiederum über weniger Megawattstunden amortisiert.
Da die tatsächlichen Energiekosten volatil sind, zahlen die meisten Industrienutzer und Verbraucher durch ihren Regulierungsprozess einen ausgehandelten Tarif, der eine Absicherung der tatsächlichen Strompreise darstellt. In der Industrie werden diese als PPAs (Power Purchase Agreements) bezeichnet.
Diese kurzen Preisspitzen sind ein wichtiger Faktor, der die durchschnittlichen Strompreise in die Höhe treibt, wie sie beispielsweise in einem PPA gezahlt werden können, bei dem die Energiepreise abgesichert sind. Verbraucher, die ihre Last auf günstigere Zeiten und weg von teuren Zeiten verlagern können, können ihre Stromrechnung erheblich senken.
In der Lastzone West-Texas können Sie 25 % Ihrer Rechnung sparen, wenn Sie Ihre Last während der teuersten 2 % der Zeit drosseln können. Wenn Sie während der teuersten 5 % der Zeit drosseln können, lassen sich 50 % Ihrer Rechnung sparen. Wenn Sie ein PPA haben, verkaufen Sie Ihren Strom im Wesentlichen an das Unternehmen zurück, von dem Sie das PPA gekauft haben. Diese Möglichkeit ist nicht überall verfügbar. Ohne die Möglichkeit, die Vorteile einer Lastreduzierung zu nutzen, werden die meisten Kunden nicht auf Preissignale reagieren und ihre Last während Zeiten hoher Preise reduzieren.
Beachten Sie, dass Preisschwankungen kein US-Phänomen sind. Sie können immer dann auftreten, wenn die Preise nicht kontrolliert werden und ein offener Großhandelsmarkt für Energie besteht. Der Markt wird verwendet, um Preissignale an Generatoren zu senden, damit sie online gehen, und an Benutzer, damit sie ihre Last reduzieren.
Abb. 7.3 zeigt beispielsweise die Preisvolatilität auf dem „Nordpool“-Markt in Deutschland über einige Tage im Jahr 2023 stündlich, und Abb. 7.4 zeigt den durchschnittlichen Spotpreis pro Tag in Deutschland über mehrere Monate des Jahres 2022. Bedenken Sie, dass Tagesdurchschnitte kurze Zeiträume mit sehr hohen/niedrigen Preisen während des Tages verschleiern können, was in Abb. 7.3 deutlich wird. Dies ist wichtig, da die meisten hohen Preise kurzzeitig und vorübergehend sind und daher, wenn ein Rechenzentrum diese Preisspitzen durch eine Reduzierung der Last ausnutzen möchte, die Dauer der Ausfallzeit/reduzierten Last kurz und damit für die Nutzergemeinschaft eher erträglich sein wird.
Abb. 7.3
Beispielhafte Spotpreise für Strom in Deutschland. (Quelle: https://www.nordpoolgroup.com/en/) Preisvolatilität kann sowohl von Rechenzentrumsplanern als auch von Energiespeichersystemen genutzt werden. Energiespeichersysteme kaufen Strom, wenn er billig ist, und verkaufen ihn, wenn er teurer ist
Bild vergrößern
Abb. 7.4
Durchschnittliche tägliche Spotmarktpreise für Strom Ende 2023. (Quelle: https://www.energy-charts.info/index.html?l=en&c=DE)
Bild vergrößern

7.3.3 CO2-Kosten von Elektrizität

Elektrizität kann auf viele verschiedene Arten erzeugt werden: Wasserkraft, Erdgas, Kohle, Kernenergie, Biomasse, Wind und Sonne sind einige der gängigsten. Jedes dieser Erzeugungssysteme hat einen zugehörigen Emissionsfaktor in kg CO2/MWh. Bei Generatoren mit fossilen Brennstoffen variiert der genaue Emissionsfaktor zwischen den einzelnen Anlagen je nach Design, Brennstoff und anderen Betriebsfaktoren. Die Grundzüge sind klar: Kohle und Öl verursachen deutlich mehr Emissionen als Erdgas (vgl. Tab. 7.1).
Tab. 7.1
Ungefähre CO2-Emissionen pro MWh nach Energiequelle
Energiequelle
Ungefähre CO2 Emissionen/MWh
Kohle
1000 kg
Öl
1000 kg
Erdgas – Gasturbine (Spitzenlast)
200 kg
Erdgas – Kombinierter Zyklus
100 kg
Der Energiemix des Stroms im Netz variiert ständig. Der Mix wird durch den Generatortyp und seinen prozentualen Beitrag zur Gesamtenergie bestimmt. Abb. 7.5 zeigt den Energiemix für Deutschland in der 8. Woche des Jahres 2023 und den Emissionsfaktor zum Zeitpunkt der Aufnahme dieser Grafik. Der Gesamtemissionsfaktor des Netzes variiert also, ist bekannt und kann mit denselben Planungstools wie bei der Geldpreisoptimierung optimiert werden.
Abb. 7.5
Energiemix in Deutschland an fünf Tagen im Februar 2023. Beachten Sie die schnellen Schwankungen bei Wind und Sonne und den Emissionsfaktor von 582 kg/MWh. (Quelle: https://www.nowtricity.com/country/germany/)
Bild vergrößern
Rechenzentrumsplaner können sowohl zur Preis- als auch zur Emissionsoptimierung und zur Stabilisierung des Netzes beitragen.
Fazit
  • Das Herunter-/Abschalten der Last oder die Nutzung von Energiespeichersystemen bei hohen Preisen kann die Kosten erheblich senken und das Stromnetz bei knappem Angebot und hohen Preisen entlasten.
  • Die Verlagerung energieintensiver Computerjobs in billige Zeiten und von Jobs mit geringem Energieverbrauch in teure Zeiten senkt die Energiekosten, ohne den Durchsatz zu verringern.
  • Die Reduzierung der Nachfrage in Zeiten mit hoher Nachfrage wird die Preiserhöhungen in diesen Zeiten abmildern, was allen Netznutzern zugutekommt.
  • Wenn Marktstrukturen es Lasten nicht erlauben, Strom bei hohen Preisen zurückzuverkaufen, sind die Preissignale bei der Reduzierung der Last und damit der Preise weniger wirksam.

7.3.4 Vorteile und Herausforderungen bei erneuerbarer Energie

Erneuerbare Energie, insbesondere Solar- und Windenergie, ist heute die kostengünstigste Methode zur Stromerzeugung. Jahrzehntelange Investitionen von Regierungen auf der ganzen Welt haben zu Innovationen und Skaleneffekten geführt, die die nicht subventionierten Stromgestehungskosten (LCOE) unter die von konventioneller Kohle, Erdgas und Kernenergie gedrückt haben (zitiert nach Lazard und IEA).
Leider bringen erneuerbare Energien aus Sicht des Netzmanagements einige Herausforderungen mit sich. Zwei der wichtigsten Herausforderungen sind: (i) Ihre Energieerzeugung kann sich unerwartet ändern, so dass Reservekapazitäten zur Stromerzeugung verfügbar sein müssen, um sicherzustellen, dass der erzeugte Strom den Bedarf der Kunden deckt. (ii) Die besten Standorte für die Stromerzeugung aus erneuerbaren Energien sind oft weit von den Orten entfernt, an denen der Strom benötigt wird, so dass erhebliche Übertragungsanlagen (Hochspannungsleitungen) erforderlich sind, um den Strom vom Erzeugungsort zum Verbrauchsort zu transportieren (Acatech et al., 2021).
Beide Mängel können gemildert werden, was jedoch oft mit erheblichen Kosten verbunden ist. Um die Variabilität zu mildern, kann man massive Energiespeichersysteme (ESS) verwenden, zusätzliche steuerbare Erzeugungskapazitäten7 bauen, normalerweise Erdgasturbinen, oder sicherstellen, dass einige große Lasten heruntergeregelt werden können. Der Bau weiterer Erzeugungskapazitäten ist teuer und erfordert normalerweise Kapitalausgaben von über1 Mio. US-$/MW.
Die Milderung von Übertragungsproblemen ist komplexer. Das Problem sind nicht so sehr die Kosten der Übertragungssysteme, sondern vielmehr, dass Gemeinden keine Hochspannungsleitungen in ihrer Nähe haben möchten. Eine Alternative zum Bau weiterer Übertragungsnetze besteht darin, die Rechenzentren dorthin zu verlegen, wo die Erzeugung am effektivsten ist, z. B. auf die Nordseeinseln, anstatt zu warten, bis die Übertragungskapazität verfügbar wird.
Fazit
  • Wind- und Solarenergie sind die kostengünstigste Art der Stromerzeugung.
  • Die Variabilität der Stromerzeugung muss entweder durch neue bedarfsgerechte Stromerzeugung oder durch steuerbare Lasten angegangen werden.
  • Überlastungen der Übertragungsleitungen können durch den Bau von Rechenzentren, in denen die erneuerbare Energie erzeugt wird, gemildert werden.

7.3.5 Gleichgewicht und Nebenleistungen

Die Erzeugung und Nutzung, im Folgenden „Last“, von Elektrizität müssen immer ausgeglichen sein, sonst passieren sehr schnell schlimme Dinge. Alles, was das Gleichgewicht im großen Maßstab stört, z. B. ein schneller Anstieg der Last oder ein schneller Rückgang der Erzeugung, muss sofort (~15 s) durch Erhöhung der Erzeugung oder Verringerung der Last ausgeglichen werden. Andernfalls kann es zu beschädigten Erzeugungsanlagen und/oder kaskadierenden Stromausfällen kommen.
Ein Ungleichgewicht, das durch „Erzeugung < Last“ verursacht wird, führt zu einer niedrigeren Frequenz im Netz, während ein Ungleichgewicht, bei dem „Erzeugung > Last“ ist, zu einer höheren Frequenz führt. Wenn diese auftreten, werden sie als Abweichungen bezeichnet, weil die Netzfrequenz von der gewünschten Frequenz abweicht. Kleine, aber signifikante Abweichungen treten ständig auf. Ist die Abweichung groß genug, muss sie sofort korrigiert werden. Überschüssige Energie kann leicht verwaltet werden, indem die Generatoren heruntergefahren und/oder Energie in Lastbänke geleitet wird, große Widerstandsgeräte, die Energie in Wärme umwandeln.
Wenn die Erzeugung nicht ausreicht, werden die Generatoren angewiesen, mehr Strom zu erzeugen, oder die Lasten werden angewiesen, die Last zu reduzieren. Wird das Gleichgewicht nicht wiederhergestellt, schaltet der Netzbetreiber große Lasten, wie z. B. Städte, durch Auslösen von Leistungsschaltern ab. Dies ist ein Stromausfall. Wenn die Abweichung nicht schnell behoben wird, z. B. innerhalb von 15 s, schalten sich die Generatorbetreiber rotierender Erzeugungssysteme selbst offline, um dauerhafte und teure Schäden an den Generatoren zu vermeiden. In so einem Fall wird das Ungleichgewicht größer, was dazu führt, dass mehr Generatoren offline gehen oder der Betreiber gezwungen ist, immer mehr Lasten abzuschalten. Dies ist ein Szenario, das Netzbetreiber aus offensichtlichen Gründen verhindern möchten.
Um Stromausfälle zu vermeiden, halten Netzbetreiber weltweit ausreichende Reservekapazitäten bereit, die sehr schnell online gebracht werden können. Traditionell halten Netzbetreiber bei einem Großteil der Erzeugung bedarfsgesteuert etwa 10 % der geschätzten Last bereit. Bei einem größeren Mix aus erneuerbaren Energien ist normalerweise die erforderliche Reservekapazität mit 20–30 % größer. Diese Reservekapazität kann als eine Art Versicherung gegen Ausfälle betrachtet werden oder im Fall von erneuerbaren Energien gegen die Unfähigkeit, ihre Erzeugungsziele zu erreichen.
Eine schnell bedarfsgesteuerte Kapazität wird im Allgemeinen dadurch erreicht, dass Generatoren unterhalb ihres Auslegungsmaximums betrieben werden, möglicherweise bei 80–90 % der Kapazität. Dadurch können sie ihre Stromerzeugung sehr schnell steigern, indem sie im Grunde Brennstoff hinzufügen. Es gibt Opportunitätskosten für den Betrieb unter Kapazität (sie könnten mehr Strom verkaufen) und Kapitalkosten für den Betrieb unter Kapazität (sie amortisieren die Kapitalkosten über weniger MWh). Daher müssen Generatoren dafür entschädigt werden, dass sie freie Kapazitäten online halten.
Die Fähigkeit, freie Kapazitäten bereitzustellen oder die Last auf Befehl zu reduzieren, wird als Nebendienstleistungen (AS) bezeichnet. Es gibt Märkte für diese Dienstleistungen, die durch ihre Reaktionszeit definiert sind, d. h. die Zeit, die sie zum Reagieren benötigen. Rotierende Ressourcen, die in Sekundenschnelle online gehen können, sind eine Klasse; solche, die in 10–15 min online gehen können, z. B. Gasturbinen, sind eine andere Klasse und solche, die 3–24 h brauchen, z. B. Kohle- oder Gas-/Dampfkraftwerke, sind eine weitere Klasse von Dienstleistungen.
AS-Preise werden normalerweise in Form von Kosten/MWh angegeben, z. B. US-$/MWh, und decken bestimmte Stunden während eines Tages ab. Wenn beispielsweise Unternehmen A einen Vertrag zur Bereitstellung von 100 MW von 14:00–15:00 Uhr zu einem Preis von 10 US-$/MWh hat, würde Unternehmen A 1000 US-$/Stunde erhalten, unabhängig davon, ob es Energie liefert oder nicht! Wenn es jedoch aufgefordert wird, die Energie zu liefern, muss es dies tun, da es sonst erhebliche Strafen zahlen muss und wahrscheinlich nicht mehr auf dem Markt verkaufen kann. Die Preise für AS mit schneller Reaktionszeit variieren sowohl tagsüber als auch im Jahresverlauf erheblich. Typische Preise liegen irgendwo zwischen 10 und 40 US-$/MWh.
Wir erwähnen Nebenleistungen aus zwei Gründen. Erstens, weil Sie, wenn Sie 1 GW neue Last einführen wollen, nicht nur 1 GW Erzeugung einführen müssen, sondern auch ausreichend Überschusserzeugung oder Fähigkeit zur Laststeuerung, um die Nebenleistungsanforderungen zu erfüllen. Beachten Sie, dass diese Anforderungen umso höher sind, je größer der erneuerbare Mix ist.
Zweitens können nicht nur Generatoren AS verkaufen. Ladungen, die ihre Fähigkeit zum Ladungsabwurf auf Anforderung innerhalb der angegebenen Zeit nachweisen können, können ihre Fähigkeit zum Ladungsabwurf auch verkaufen, wiederum unabhängig davon, ob sie genutzt wird oder nicht und wie lange sie genutzt wird.
HPC/KI-Rechenzentren verfügen über die technische Fähigkeit, mit zusätzlicher Systemmanagementsoftware die Last schnell zu senken, und könnten an den AS-Märkten teilnehmen, wodurch der Bau zusätzlicher Erzeugungskapazitäten entfällt. Wenn Betreiber von HPC/KI-Rechenzentren per AS die Kapitalkosten für den Bau von Erzeugungsanlagen, die Betriebskosten für die Besetzung und Wartung neuer Generatoren sowie die politischen Kosten für die Platzierung von Kraftwerken und zugehörigen Übertragungsleitungen zur Verfügung stellen würden, könnte dies vermieden werden.
Fazit
  • Erzeugung und Last müssen immer übereinstimmen.
  • Reserve, steuerbare Erzeugung ODER steuerbare Lasten können verwendet werden, um das Stromnetz ins Gleichgewicht zu bringen.
  • Steuerbare Lasten wie Rechenzentren können ihre Fähigkeit zur Leistungsreduzierung verkaufen und so ihre Stromrechnung senken. Dies kann den Bedarf an zusätzlicher steuerbarer Erzeugung verringern.
  • In einigen Bereichen müssen die Märkte möglicherweise umstrukturiert werden, um entsprechende Anreize zu bieten.

7.3.6 Kosten für Erzeugung und Energiespeicherung

Neue Erzeugungskapazität und Energiespeicherkapazität zur Bereitstellung von Nebenleistungen kosten erhebliche Summen. In den USA beispielsweise betrugen die Gesamtkosten für ein 100-MW-Batteriespeichersystem (BESS) mit vier Stunden Laufzeit Ende 2023 etwas über 100 Mio. US-$ oder ungefähr 1 Mio. US-$/MW. Somit würde ein hypothetisches 1-GW-Rechenzentrum mit vier Stunden Batterie-Backup (um teure Stunden zu überbrücken, Nebenleistungen bereitzustellen und Netznotfälle und Stromausfälle zu überstehen) rund eine Milliarde US-$ kosten.
Es gibt drei Arten von Erdgaskraftwerken: Gasturbinen-, Dampf- und Kombikraftwerke. Im Grunde ist eine Gasturbine genau das: ein Generator, der an ein Düsentriebwerk geschnallt ist. Ein Dampfkraftwerk ist wie ein Kohlekraftwerk, verbrennt aber Erdgas. Ein Kombikraftwerk kombiniert eine Gasturbine mit einem Dampfkraftwerk, das die Abwärme der Gasturbine nutzt. Gasturbinen können sehr schnell, innerhalb von Minuten, ans Netz gebracht werden. Der Dampfteil eines Kombikraftwerks kann Stunden dauern. Spitzenlastkraftwerke, die einspringen und bei Bedarf schnell Strom liefern, um das Netz auszugleichen, sind daher in der Regel Gasturbinen. Gasturbinen kosten 700.000 bis 1,1 Mio. US-$ pro MW, GuD-Kraftwerke 650.000 bis 1,3 Mio. US-$ pro MW (auch Lazard, 2023).
Dies sind jedoch nur die grundlegenden Kapitalkosten für die Ausrüstung und die Grundausstattung. Oft gibt es noch weitere nicht unerhebliche Kosten: das Land, auf dem die Generatoren aufgestellt werden, das Genehmigungsverfahren, Transformator-Upgrades, die Verlegung der Übertragungsleitungen (und all die erheblichen Herausforderungen bei der Erlangung von Wegerechten und Dienstbarkeiten) und so weiter.
Bei selten genutzten Kapitalanlagen sind die amortisierten Kapitalkosten pro Nutzungsstunde in der Regel deutlich höher als bei voll genutzten Anlagen.
Diese Kosten sind sehr wichtig, wenn man die Kosten für die Bereitstellung von Ausgleichsdiensten betrachtet, bei denen nur die Erzeugung und nicht die Last genutzt wird. Wenn Sie die 10–30 % freie Kapazität durch Stromerzeugung bereitstellen, können die Vorlaufkapitalkosten für diese freie Kapazität für ein Rechenzentrum mit 1 GW nicht steuerbarer Last leicht mehrere Hundert Millionen betragen.
Fazit
  • Die Investitionsausgaben und Genehmigungsprobleme für freie Erzeugungskapazitäten können gemildert werden, indem Rechenzentren als erstklassige Netzteilnehmer behandelt werden und ihre Fähigkeit zur Lastreduzierung als Ersatz für die Stromerzeugung genutzt wird.
  • Die Erdgasversorgung in Europa ist nicht so reichlich und zuverlässig wie in den USA. Dies spricht gegen die Erhöhung der Anzahl von Gasturbinen-Spitzenlastkraftwerken als Mittel zur Gewährleistung der Netzstabilität und stattdessen für die Nutzung großer Rechenzentren als steuerbare Lasten.

7.3.7 Rechenzentren als erstklassige Teilnehmer am Stromnetz

Bis vor kurzem waren die Lasten von Rechenzentren geringer als die eines typischen Stromerzeugungssystems und ihre Gesamtauswirkungen auf das Stromnetz niedriger. Da es sich um geringe Lasten handelt, konnten Netzbetreiber ihre Auswirkungen auf die Netzstabilität und den Netzausgleich ignorieren. Das ist nicht mehr der Fall. Rechenzentren, die weltweit gebaut oder geplant werden, werden eine Leistung von 1–6 GW pro Standort haben. Bei diesen Leistungsstufen dominieren die Rechenzentren die Diskussionen über Übertragung, Erzeugung und Netzausgleich.
Ebenso steigen die Kosten (Energie und CO2) für den Betrieb großer Rechenzentren rapide an. Ein Rechenzentrum mit einer Leistung von 1 GW und 11,5 Cent pro kWh wird eine Stromrechnung von 1 Mrd. US-$ pro Jahr verursachen und bei einer Stromversorgung mit Kohle zu einem Ausstoß von etwa 8,7 Mio. Tonnen CO2 pro Jahr führen. Eine Kombination aus verbesserten Zeitplänen und einer (innerhalb bestimmter Grenzen) steuerbaren Auslastung der Rechenzentren durch die Netzausgleichsbehörde könnte die direkten Kosten für die Stromversorgung der Rechenzentren (Geld und CO2) senken und auch andere Kosten reduzieren, die die Gesellschaft in Form von freier Erzeugungskapazität und zusätzlicher Übertragungskapazität zu tragen hat. Dies spricht dafür, große Rechenzentren zu erstklassigen Teilnehmern am Stromnetz zu machen.

7.4 Wie sollte Europa reagieren? Mögliche Antworten

Der Wachstumsfaktor von Rechenzentren, der größtenteils aus der Nachfrage nach KI resultiert, stellt eine Reihe von Herausforderungen für unsere Gesellschaft dar. Microsoft hat kürzlich das Projekt Stargate angekündigt, ein fünfstufiges Projekt zum Bau von KI-Rechenzentren. Das erste dieser neuen Rechenzentren wird 2026 gemeinsam mit Open AI in Mount Pleasant, Wisconsin, zu voraussichtlichen Kosten von 10 Mrd. US-$ eröffnet. Die Fertigstellung des Projekts ist für 2030 mit dem KI-Supercomputer Stargate zu Gesamtkosten von 115 Mrd. US-$ und einem Energieverbrauch von 5 GW geplant – 500-mal mehr als die Stromkapazität von LRZ. Die Konkurrenz von Microsoft arbeitet angeblich an ähnlichen Zielen.
Ob solche Ansätze nachhaltig sind, hängt von vielen verschiedenen Faktoren ab. Selbst wenn ein Unternehmen in der Lage ist, die erste Version eines solchen Rechenzentrums aufzubauen, fallen auch erhebliche Betriebs- und Wartungskosten an, einschließlich der Erneuerung der IT-Infrastruktur in regelmäßigen Zyklen, derzeit 5–7 Jahre.
Angesichts solcher Entwicklungen ist klar, dass Deutschland und Europa einen eigenen Fahrplan für zukünftige IT-Infrastrukturen benötigen. Der Deutsche Bundestag hat deshalb 2023 das Gesetz zur Steigerung der Energieeffizienz und zur Änderung des Energiedienstleistungsgesetzes (EnEfG) verabschiedet. Obwohl es erfreulich ist, dass die Politik dieses Ziel aufgreift, scheinen die Umweltziele im Gesetzesentwurf für das, was benötigt wird, zu wenig ehrgeizig zu sein.
Derzeit scheint es zumindest mit den aktuellen LLMs fast unmöglich, wettbewerbsfähige IT-Infrastrukturen in Deutschland oder Europa aufzubauen, angefangen von den Anforderungen an die Energieversorgung bis hin zur Verfügbarkeit der entsprechenden Hardware. Angesichts der Möglichkeit weltweiter politischer Veränderungen und um eine Bindung an bestimmte Anbieter zu verhindern, muss jedoch eine europäische Strategie für technologische oder digitale Souveränität entwickelt werden. Eine solche Strategie muss sich auf nachhaltige Aspekte von IT-Infrastrukturen konzentrieren, bei denen Europa heute sogar führend ist. Gleichzeitig ist jedoch möglicherweise die Zusammenarbeit mit internationalen Partnern zu prüfen.
Aus Platzgründen kann dieser Artikel nur einige Aspekte des Themas ansprechen. Einen detaillierteren Blick auf die Nachhaltigkeit von KI bietet Kate Crawford in ihrem Buch „Atlas of AI“ (2022). Neben der Energieproblematik benötigen Rechenzentren und IT-Infrastrukturen erhebliche Mengen Wasser für die Kühlung, seltene Erden für die Chips und viele andere Aspekte.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
download
DOWNLOAD
print
DRUCKEN
Titel
IT-Infrastrukturen und deren Stromverbrauch
Verfasst von
Dieter Kranzlmüller
Andrew Grimshaw
Copyright-Jahr
2026
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-71567-3_7
1
Der Emissionsfaktor ist die Menge an CO2, die pro MWh erzeugter Elektrizität in die Atmosphäre freigesetzt wird. Er wird üblicherweise in kg CO2/MWh angegeben.
 
2
Mit „Kosten“ meinen wir in diesem Abschnitt monetäre Kosten oder CO2-Kosten oder eine Kombination davon.
 
3
Ein Spitzenlastkraftwerk ist eine Stromerzeugungsanlage, die schnell ans Netz gehen und dem Netz zusätzlichen Strom liefern kann, um entweder einen Nachfrageanstieg oder einen unerwarteten Stromausfall zu bewältigen. Spitzenlastkraftwerke waren in der Vergangenheit Erdgasturbinen. Immer häufiger übernehmen Batterien diese Rolle, obwohl Batterien nur eine begrenzte Menge an Energie speichern können, während Gasturbinen laufen können, bis der Brennstoff aufgebraucht ist.
 
4
Wir verwenden „dynamisch“, um es von Energiespartechnologien, wie energieeffizienteren Kühltechniken, der Nutzung von Abwärme zur Heizung und Kühlung von Gebäuden usw. zu unterscheiden.
 
5
BMC, Board Management Controller. Ein kleiner energieeffizienter Computer in einem Knoten, der die Fernverwaltung eines Computerknotens ermöglicht; normalerweise ein Gerät mit sehr geringem Stromverbrauch.
 
6
Von Überlastung bzw. Engpässen spricht man, wenn die verfügbare Leistung nicht an die Verbraucher übertragen werden kann, also die Stromleitungen voll sind. Auch in Deutschland ist das ein Problem, wenn überschüssiger Windstrom aus dem Norden aufgrund von Engpässen nicht vollständig in den Süden transportiert werden kann.
 
7
Ein steuerbarer Generator ist ein Generator, dem man sagen kann, wie viel Strom er erzeugen soll (innerhalb seiner Konstruktionsgrenzen) und der dies auch tut. Gas-/Kohle-/Atom-/Wasserkraftwerke gelten normalerweise als steuerbar. Wind- und Solarkraftwerke sind das nicht. Wenn der Wind nicht weht oder die Sonne nicht scheint, kann man nicht einfach sagen: „Gib mir mehr“, denn es gibt nicht mehr zu geben.
 
Zurück zum Zitat Acatech, et al. (2021). Grid congestion as a challenge for the electricity system options for a future market design. https://energiesysteme-zukunft.de/fileadmin/user_upload/Publikationen/PDFs/ESYS_Position_Paper_Grid_congestion.pdf. Zugegriffen am 18.07.2025.
Zurück zum Zitat Crawford, K. (2022). Atlas of AI. Yale University Press.
Zurück zum Zitat Jackson, A. (2024). Top 10: Data centre companies in the world 2024. https://datacentremagazine.com/top10/top-10-data-centre-companies-in-the-world-2024. Zugegriffen am 18.07.2025.
Zurück zum Zitat Jones, N. (2018, September 12). How to stop data centres from gobbling up the world’s electricity. News Feature, Nature. https://www.nature.com/articles/d41586-018-06610-y. Zugegriffen am 18.07.2025.
Zurück zum Zitat Lazard. (2023). Levelized cost of energy. https://www.lazard.com/research-insights/2023-levelized-cost-of-energyplus/. Zugegriffen am 18.07.2025.
Zurück zum Zitat The Conference Board. (2024, Juni 13). Report: The rise of AI threatens to explode US electricity demand and overburden the grid – But also promises new efficiencies. https://www.prnewswire.com/news-releases/report-the-rise-of-ai-threatens-to-explode-us-electricity-demand-and-overburden-the-gridbut-also-promises-new-efficiencies-302172058.html. Zugegriffen am 18.07.2025.
Zurück zum Zitat Vaswani, A., et al. (2017). Attention is all you need. https://arxiv.org/abs/1706.03762. Zugegriffen am 18.07.2025.
Zurück zum Zitat Wilde, T., et al. (2014). The 4 Pillar Framework for energy efficient HPC data centers. Computer Science Research and Development, 29, 241. https://doi.org/10.1007/s00450-013-0244-6CrossRef
    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, NTT Data/© NTT Data, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Kumavision/© Kumavision, Noriis Network AG/© Noriis Network AG, WSW Software GmbH/© WSW Software GmbH, tts GmbH/© tts GmbH, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG