05.05.2026

Rechenzentren im KI-Zeitalter: Wie Infrastruktur sich weiterentwickelt

Künstliche Intelligenz verändert die Anforderungen an Rechenzentren signifikant. Höhere Leistungsdichten, neue Lastprofile und steigender Energiebedarf stellen Betreiber vor strukturelle Herausforderungen. Sascha Horn, Regional Strategic Account Manager DACH bei Vertiv, erklärt, welche Anpassungen notwendig sind und warum ein Umdenken in der Infrastrukturplanung unvermeidlich ist. Er wird als Panelist auf dem diesjährigen eco Data Center Expert Summit vor Ort vertreten sein.

Herr Horn, welche infrastrukturellen Anpassungen sind notwendig, um ein klassisches Rechenzentrum für KI-Workloads umzurüsten, insbesondere im Hinblick auf Kühlung, Energieverteilung und Layout?

Klassische Rechenzentren stoßen bei KI-Workloads schnell an ihre Grenzen. Der entscheidende Unterschied ist, dass Stromversorgung, Kühlung und IT nicht mehr getrennt geplant werden können – sie müssen als integriertes System funktionieren. Leistungsdichten von deutlich über 50 kW pro Rack erfordern neue Layouts, kürzere Wege für Energie und Kühlung sowie zunehmend den Einsatz flüssigkeitsbasierter Kühllösungen. Luftkühlung bleibt zwar relevant, reicht allein aber nicht mehr aus. Gleichzeitig müssen viele Betreiber bestehende Infrastrukturen im laufenden Betrieb umbauen. Genau hier werden Modularität und Skalierbarkeit zum entscheidenden Erfolgsfaktor.

Wie lassen sich Leistungsdichten von 50 bis 100 kW pro Rack zuverlässig und effizient bereitstellen? Und wo stoßen heutige Stromverteilungs- und USV-Konzepte an ihre Grenzen?

Diese Leistungsdichten lassen sich nicht mehr mit klassischen Architekturen abbilden. Es reicht nicht, bestehende Systeme zu skalieren, da die Energieinfrastruktur grundlegend neu gedacht werden muss. Im Fokus steht eine durchgängige Betrachtung von Verteilung, Umwandlung und Speicherung. Jede zusätzliche Umwandlungsstufe kostet Effizienz, gleichzeitig steigen die Anforderungen an Dynamik und Skalierbarkeit durch stark schwankende KI-Lasten. Traditionelle USV-Konzepte stoßen insbesondere in Bezug auf Effizienz, Platzbedarf und Flexibilität an ihre Grenzen. Neueste Innovationen im USV-Design führen Funktionen wie die dynamische Netzunterstützung ein, die entscheidend dafür sind, das Stromnetz zu stärken und alternative Energiequellen wie Solar- und Windenergie zu unterstützen. Der Schlüssel liegt nicht mehr in der Optimierung einzelner Komponenten, sondern in der Maximierung der Gesamtleistung des Systems.

In welchen Szenarien sind Hochvolt-Gleichstromarchitekturen aus Ihrer Sicht heute bereits wirtschaftlich und technisch überlegen gegenüber 400 V AC? Und wo bestehen noch Hürden?

Mit steigenden Leistungsdichten wächst der Druck, Energie möglichst verlustarm bereitzustellen. Hochvolt-Gleichstrom kann hier Vorteile bieten, insbesondere in Umgebungen mit konstant hohen Lasten wie KI-Trainingsclustern. Weniger Umwandlungsschritte bedeuten potenziell höhere Effizienz und eine einfachere Verteilung. In der Praxis bremsen jedoch noch fehlende Standards, begrenzte Betriebserfahrung und ein nicht vollständig entwickeltes Ökosystem die breite Einführung. Deshalb geht es aktuell weniger um einen Ersatz von AC durch DC, sondern um die gezielte Auswahl der passenden Architektur je nach Anwendung.

Welche Auswirkungen haben leistungsstarke GPU-Interconnects auf die physische Infrastruktur im Rechenzentrum, etwa bei Verkabelung, Kühlung und Rack-Design?

GPU-Interconnects verändern die Architektur von Rechenzentren grundlegend. Der Fokus verschiebt sich von klassischen Netzwerkstrukturen hin zu hochintegrierten Systemen, in denen die Kommunikation zwischen den GPUs zentral ist. Das führt dazu, dass Compute-Ressourcen physisch enger zusammenrücken müssen. Daraus ergeben sich direkte Auswirkungen auf Rack-Design, Verkabelung und Energieverteilung. Gleichzeitig steigen die Anforderungen an die Kühlung weiter an. Infrastruktur wird damit nicht mehr um generische IT herum geplant, sondern gezielt für hochintegrierte KI-Systeme ausgelegt. Das erfordert eine deutlich engere Verzahnung von IT-Architektur und physischer Infrastruktur.

Wie verändert sich das Verständnis von Resilienz im Rechenzentrum, insbesondere im Kontext steigender Leistungsdichten, höherer Integration und neuer Konzepte wie „Bring Your Own Power“ oder Batteriespeicher?

Resilienz wird heute anders gedacht als noch vor wenigen Jahren. Statt den Fokus auf Redundanz einzelner Komponenten zu legen, liegt der Schwerpunkt nun auf der Stabilität und Zuverlässigkeit des Gesamtsystems. Durch höhere Leistungsdichten und stärkere Integration wachsen auch die potenziellen Ausfallbereiche. Entsprechend müssen neue Ansätze zur Fehlertoleranz entwickelt werden, die auf Systemebene greifen. Gleichzeitig gewinnen Energiekonzepte an Bedeutung: Lokale Energieerzeugung, Batteriespeicher und „Bring Your Own Power“-Modelle helfen nicht nur, die Versorgung abzusichern, sondern auch, Netzengpässe zu überbrücken und Lastspitzen zu managen. Resilienz wird damit zur Schnittstelle zwischen Infrastruktur, Energie und IT-Architektur – und genau diese Verzahnung entscheidet künftig über die Betriebssicherheit moderner Rechenzentren.

Speaker DCES 2025 4