EnEfG und KI-Strom: Was Rechenzentren jetzt beachten müssen
8 Min. Lesezeit
Deutschlands Rechenzentren verbrauchen erstmals über 21 Milliarden Kilowattstunden Strom pro Jahr. KI-Workloads treiben den Bedarf weiter: Die installierte GPU-Kapazität soll sich bis 2030 vervierfachen. Gleichzeitig verschärft das Energieeffizienzgesetz die Anforderungen: Ab Juli 2026 gilt für neue Rechenzentren ein PUE-Limit von 1,2. Für den Mittelstand, der zunehmend auf Cloud- und KI-Infrastruktur angewiesen ist, wird Energieeffizienz zur Standortfrage.
Das Wichtigste in Kürze
- PUE 1,2 ab Juli 2026: Neue Rechenzentren über 300 kW dürfen einen Power Usage Effectiveness von maximal 1,2 nicht überschreiten. Bestehende müssen bis Juli 2027 PUE 1,5 erreichen (EnEfG, §12).
- KI vervierfacht den GPU-Strombedarf: Aktuell 530 MW installierte KI-Kapazität in Deutschland, Prognose 2030: 2.020 MW. Ein einzelner 8-GPU-Trainingsknoten zieht 10-12 kW (Bitkom/Borderstep, 2025).
- Abwärmenutzungspflicht ab 2026: Neue Rechenzentren müssen mindestens 10 Prozent der Primärenergie als Abwärme wiederverwerten. Bis 2028 steigt die Quote auf 20 Prozent.
- Flüssigkühlung amortisiert sich in unter 2 Jahren: Investitionsmehrkosten von rund 739.000 Euro stehen jährliche Einsparungen von 380.000 Euro gegenüber (Datacenter-Insider, 2024).
- Registrierungspflicht seit Juli 2025: Alle Rechenzentren über 300 kW müssen im BfEE-Energieeffizienzregister gemeldet sein. Jährliche Datenabfrage bis 31. März.
Was das EnEfG von Rechenzentren verlangt
Das Energieeffizienzgesetz, seit November 2023 in Kraft, ist das erste deutsche Gesetz, das verbindliche Effizienzstandards für Rechenzentren vorschreibt. Betroffen sind alle Anlagen mit einer nicht redundanten Nennanschlussleistung über 300 Kilowatt. Das umfasst die meisten gewerblichen Rechenzentren, aber auch größere Inhouse-Serverräume in Unternehmen.
Die Anforderungen kommen in drei Stufen:
Ab Juli 2026: Neue Rechenzentren müssen einen PUE von maximal 1,2 nachweisen. Der PUE (Power Usage Effectiveness) misst das Verhältnis von Gesamtstromverbrauch zu IT-Stromverbrauch. Ein PUE von 1,2 bedeutet: Für jede Kilowattstunde IT-Last fallen nur 0,2 kWh für Kühlung, USV und Infrastruktur an. Das ist ambitioniert – der deutsche Durchschnitt liegt laut Borderstep Institut aktuell bei etwa 1,55.
Ab Juli 2027: Bestehende Rechenzentren müssen PUE 1,5 einhalten. Für Altanlagen mit Luftkühlung und ineffizienten USV-Systemen bedeutet das Investitionen in die Infrastruktur.
Ab Juli 2030: Bestehende Rechenzentren müssen auf PUE 1,3 nachbessern. Diese zweite Stufe gibt Betreibern Zeit für größere Umbauten, setzt aber einen klaren Transformationspfad.
KI-Strom: Warum GPU-Workloads die Rechnung verändern
Die Energiedynamik in Rechenzentren verschiebt sich fundamental. Klassische CPU-Workloads verbrauchen 65 bis 250 Watt pro Prozessor. Eine einzelne NVIDIA H100 GPU zieht unter Volllast 700 Watt. Ein typischer KI-Trainingsknoten mit acht GPUs kommt auf 10 bis 12 Kilowatt. Ein einziges Rack mit acht bis zehn solcher Knoten erreicht 80 bis 140 Kilowatt – das Fünf- bis Zehnfache eines klassischen Server-Racks.
Die Konsequenz: KI-Workloads sprengen bestehende Kühlkonzepte. Luftkühlung stößt bei Leistungsdichten über 30 kW pro Rack an physikalische Grenzen. Flüssigkühlung wird zur Notwendigkeit, nicht zum Luxus.
Laut Bitkom sind aktuell 530 Megawatt an KI-Rechenzentrumskapazität in Deutschland installiert – rund 15 Prozent der Gesamtkapazität. Bis 2030 soll dieser Anteil auf 2.020 Megawatt wachsen. Goldman Sachs prognostiziert global einen Anstieg des Rechenzentrums-Stromverbrauchs um 165 Prozent bis 2030, hauptsächlich getrieben durch GPU-intensive KI-Anwendungen.
Gleichzeitig sind GPUs bei KI-Aufgaben deutlich energieeffizienter als CPUs: Dieselbe Berechnung, die auf CPUs hundertmal mehr Energie verbrauchen würde, schafft eine GPU in einem Bruchteil der Zeit. Der Gesamtverbrauch steigt also nicht durch Ineffizienz, sondern durch die schiere Menge neuer Anwendungen.
„Rechenzentren könnten langfristig über 20 Prozent des städtischen Wärmebedarfs in Frankfurt decken. Die Abwärme reicht theoretisch zur Beheizung aller Wohngebäude der Stadt.“
Sinngemäß nach Borderstep Institut, Abwärmenutzung Rechenzentren 2022/2024
Abwärmenutzung: Vom Kostenfaktor zum Geschäftsmodell
Das EnEfG führt erstmals eine Abwärmenutzungspflicht für Rechenzentren ein. Die Anforderungen steigen stufenweise: 10 Prozent Energy Reuse Factor ab Juli 2026, 15 Prozent ab 2027, 20 Prozent ab 2028. Akzeptiert werden die Nutzung im eigenen Betrieb, die Abgabe an Dritte und die Einspeisung in kommunale Wärmenetze.
In der Praxis entsteht hier ein neues Geschäftsmodell: Rechenzentren als Wärmelieferanten für ihre Nachbarschaft. In Frankfurt, dem größten deutschen Rechenzentrumsstandort, könnte die Abwärme perspektivisch über 20 Prozent des städtischen Wärmebedarfs decken. Laut Borderstep Institut werden in Deutschland jährlich über 13 Milliarden Kilowattstunden Abwärme aus Rechenzentren ungenutzt in die Umwelt abgegeben.
Für Betreiber, die eigene Rechenzentren oder Serverräume betreiben, bietet die Abwärmenutzung einen doppelten Vorteil: Sie erfüllt die gesetzliche Pflicht und senkt gleichzeitig die Heizkosten für angrenzende Büroflächen oder Produktionshallen.
Was die Umrüstung kostet
Die Investitionen hängen von der Ausgangslage ab. Für typische Mittelstands-Rechenzentren sind drei Szenarien relevant:
Optimierung der Luftkühlung (20.000-80.000 Euro): Kaltgangeinhausung, Anhebung der Zulufttemperatur auf 27 Grad Celsius, Optimierung der Luftführung. Reicht oft aus, um von PUE 1,6-1,8 auf PUE 1,5 zu kommen.
Indirekte Freikühlung (100.000-300.000 Euro): Nutzung der Außenluft zur Kühlung, wenn die Temperaturen es erlauben. In Deutschland sind das sechs bis neun Monate pro Jahr. Senkt den PUE auf 1,2-1,3 und reduziert den Kühlstromverbrauch um 40-60 Prozent.
Flüssigkühlung für KI-Racks (250.000-800.000 Euro pro Installation): Direkte Flüssigkühlung (Direct-to-Chip oder Immersion Cooling) für hochverdichtete GPU-Racks. Die Investitionsmehrkosten gegenüber Luftkühlung liegen laut Datacenter-Insider bei rund 739.000 Euro, die jährliche Einsparung bei 380.000 Euro. Amortisation in unter zwei Jahren.
Praxis: Wie Equinix Frankfurt den PUE senkt
Equinix betreibt in Frankfurt mehrere Rechenzentren und zeigt, wie die EnEfG-Anforderungen in der Praxis umgesetzt werden. Im Rechenzentrum FR6 konnte durch den Einsatz einer KI-basierten Kühlungssteuerung des Darmstädter Startups etalytics der Energieverbrauch um bis zu 9 Prozent gesenkt werden.
Die Technologie analysiert Wetterdaten, Auslastungsmuster und Kühlkreisläufe in Echtzeit und optimiert die Kühlleistung automatisch. Das Ergebnis: PUE-Werte zwischen 1,2 und 1,35 – konform mit den EnEfG-Anforderungen für Neubauten. Equinix plant, die Technologie auf weitere Standorte auszurollen.
Auch bei der Abwärmenutzung entstehen Pilotprojekte: ENGIE Refrigeration kooperiert bei über zehn deutschen Rechenzentren mit Stadtwerken, um Abwärme in lokale Fernwärmenetze einzuspeisen. Rund 14-15 Prozent der deutschen Haushalte sind an Fernwärmenetze angeschlossen – die Infrastruktur für die Abwärmenutzung ist vielerorts vorhanden.
Was der Mittelstand jetzt tun sollte
1. Bestandsaufnahme machen. PUE messen (nicht schätzen), Kühlsystem dokumentieren, Stromverbrauch pro Rack erfassen. Wer seinen aktuellen PUE nicht kennt, kann nicht planen.
2. Registrierung prüfen. Rechenzentren über 300 kW müssen seit Juli 2025 im BfEE-Energieeffizienzregister gemeldet sein. Jährliche Datenabfrage bis 31. März.
3. Energiemanagementsystem einführen. Seit Januar 2026 Pflicht. ISO 50001 oder EMAS als Rahmenwerk. Viele Unternehmen können das an ein bestehendes Governance-System andocken.
4. Kühlstrategie bewerten. PUE über 1,5? Kaltgangeinhausung und Freikühlung evaluieren. KI-Workloads geplant? Flüssigkühlung frühzeitig einplanen. Die Amortisation ist bei steigenden Strompreisen und wachsender Leistungsdichte wirtschaftlich attraktiv.
5. Abwärmepotenzial prüfen. Kontakt zu Stadtwerken oder Nachbarbetrieben aufnehmen. Die Abwärmepflicht ab 2026 (10 Prozent ERF) lässt sich oft durch einfache Wärmetauscher-Lösungen für angrenzende Gebäude erfüllen.
Fazit
Das EnEfG macht Energieeffizienz in Rechenzentren von der Kür zur Pflicht. Die KI-getriebene Nachfrage nach GPU-Kapazität verschärft die Herausforderung zusätzlich. Für den Mittelstand bedeutet das: Wer eigene Serverräume oder Colocation-Flächen betreibt, muss bis Juli 2027 handeln. Die gute Nachricht: Die Investitionen in effizientere Kühlung amortisieren sich schnell, und die Abwärmenutzung eröffnet sogar neue Erlösquellen. Energieeffizienz im Rechenzentrum ist 2026 kein Umweltthema mehr – es ist ein Wirtschaftlichkeitsthema.
Häufige Fragen
Ab welcher Größe gilt das EnEfG für mein Rechenzentrum?
Das EnEfG gilt für Rechenzentren mit einer nicht redundanten Nennanschlussleistung über 300 Kilowatt. Das umfasst die meisten gewerblichen Rechenzentren, kann aber auch größere Inhouse-Serverräume in Unternehmen betreffen. Kleine Serverräume unter 300 kW sind nicht betroffen.
Was passiert, wenn mein Rechenzentrum den PUE-Grenzwert nicht einhält?
Das Gesetz sieht Bußgelder bei Nichteinhaltung vor. Zusätzlich müssen Rechenzentren jährlich Daten an das BfEE melden. Bei dauerhafter Nichteinhaltung drohen verschärfte Kontrollen. Für neue Rechenzentren ab Juli 2026 ist die Nichteinhaltung des PUE 1,2 ein Betriebshindernis.
Wie kann ich die Abwärmepflicht erfüllen, wenn kein Fernwärmenetz in der Nähe ist?
Die Abwärme muss nicht in ein Fernwärmenetz eingespeist werden. Akzeptiert werden auch die Nutzung im eigenen Betrieb (z.B. Beheizung angrenzender Bürogebäude), die Abgabe an benachbarte Gewerbebetriebe oder die Erwärmung von Prozesswasser. Schon einfache Wärmetauscher-Lösungen können die 10-Prozent-Quote erfüllen.
Sind Cloud-Kunden vom EnEfG betroffen?
Nicht direkt. Das EnEfG reguliert den Betreiber des Rechenzentrums, nicht dessen Kunden. Indirekt werden Cloud-Kunden die steigenden Compliance-Kosten aber in den Preisen spüren. Große Cloud-Provider wie AWS, Azure und Google Cloud erfüllen die PUE-Anforderungen in der Regel bereits.
Lohnt sich Flüssigkühlung schon für kleinere Rechenzentren?
Ab dem Moment, in dem GPU-Workloads mit Leistungsdichten über 30 kW pro Rack laufen, ist Flüssigkühlung wirtschaftlich sinnvoll. Die Amortisation liegt unter zwei Jahren. Für reine CPU-Workloads mit moderater Leistungsdichte ist optimierte Luftkühlung mit Freikühlung oft die kosteneffizientere Lösung.
Lesetipps der Redaktion
- KI-Cloud-Kosten außer Kontrolle: Warum GPU-Workloads die IT-Budgets 2026 sprengen
- High Performance, Low Carbon: Zukunftssichere Kühlung für Rechenzentren
- Daten-Governance im Mittelstand: Praxischeck zum neuen DGG
- KRITIS-Dachgesetz: Was Betreiber kritischer Anlagen bis Juli 2026 umsetzen müssen
Mehr aus dem MBF Media Netzwerk
- MyBusinessFuture– Digitalisierung, KI, Business
- cloudmagazin– Cloud, SaaS, IT-Infrastruktur
- SecurityToday– Cybersecurity, IT-Sicherheit
- Digital Chiefs– C-Level Thought Leadership
Quelle Titelbild: Pexels / Manuel Geissinger

