Steigende Leistungsdichten, KI-Anwendungen und modulare Ausbaukonzepte verändern die Anforderungen an Rechenzentren grundlegend. Dabei rückt eine Ebene stärker in den Fokus, die lange als selbstverständlich galt: die physische Glasfaserinfrastruktur. Im Vorfeld seiner Paneldiskussion auf der eco Datacenter Plaza bei den fiberdays 26 spricht Matthias Nitschke, Director Datacenter Solutions bei Corning, im eco Interview darüber, welche Rolle Faserarchitekturen für Skalierbarkeit und Zukunftssicherheit spielen, wie sich Planung und Zusammenarbeit verändern und welche Aspekte Entscheiderinnen und Entscheider heute berücksichtigen sollten, um langfristig tragfähige Rechenzentrumsinfrastrukturen zu schaffen.
Rechenzentren werden immer leistungsfähiger und dichter. Welche Rolle spielt die physische Glasfaserinfrastruktur dabei?
Die Glasfaser ist heute das zentrale Nervensystem jedes Rechenzentrums und längst kein passives Beiwerk mehr. Wir erleben ein echtes „Space Paradoxon“ im Rack: Immer leistungsfähigere Server und GPUs treiben den Bedarf an Stromversorgung und Kühlung massiv nach oben, während gleichzeitig der Bandbreitenbedarf explodiert. Beides würde theoretisch deutlich mehr Kabel erfordern – was den verfügbaren Platz und den kritischen Airflow weiter einschränkt.
Genau hier wird die physische Glasfaserinfrastruktur zum aktiven Enabler für Leistungsdichte, Skalierungsgeschwindigkeit und Investitionssicherheit moderner Rechenzentren – vergleichbar mit Power und Cooling. Sie muss heute auf mehreren Ebenen neu gedacht werden. Bei Corning begegnen wir dieser Herausforderung mit technologischen Innovationen auf Material und Systemebene: durch Multicore Fasern und extrem miniaturisierte Konnektoren, die eine massive Verdichtung ermöglichen, ohne den für die Kühlung entscheidenden Luftstrom zu blockieren.
Gerade Multicore-Fasern helfen als nächster Evolutionsschritt, den stark gestiegenen Port- und Faserzahlen sowie dem resultierenden Kabelbedarf durch Parallelisierung auf Faserebene entgegenzuwirken. Für den Data Center Interconnect (DCI) im Metropolitan Area Network eröffnen perspektivisch neue Ansätze wie Hollowcore-Fasern mit einer größeren räumlichen Flexibilität bei der Anbindung und Standortwahl.
KI-Anwendungen und High Performance Computing verändern die internen Verkehrsströme in Datacentern. Welche Auswirkungen hat das auf die Planung von Verkabelungs- und Faserarchitekturen?
KI- und HPC-Workloads verändern die internen Verkehrsströme im Rechenzentrum grundlegend. Der Datenverkehr verlagert sich massiv von klassischen Nord-Süd-Mustern hin zu latenzkritischem Ost-West-Traffic zwischen GPUs, Compute und Storage Clustern, die permanent und nahezu ohne Verzögerung miteinander kommunizieren müssen. Die Herausforderung liegt dabei längst nicht mehr nur in der schieren Bandbreite, sondern zunehmend in der Energieeffizienz der Datenübertragung.
Mit jeder Generation steigen Portdichte und Bandbreite nahezu exponentiell – und damit auch der Energiebedarf pro Port. Verkabelungs- und Faserarchitekturen müssen deshalb konsequent auf hochdichte, symmetrische und Clusteroptimierte Backend-Netzwerke ausgelegt werden. Die physische Infrastruktur wird damit zu einem zentralen Hebel für Performance, Skalierbarkeit und Nachhaltigkeit KI-fähiger Rechenzentren.
Ein entscheidender Ansatzpunkt ist, die Optik näher an den Chip zu bringen. Konzepte wie Co‑Packaged Optics (CPO) ermöglichen es, den Energiebedarf für die optische Signalwandlung drastisch zu senken und gleichzeitig die Portanzahl deutlich zu erhöhen. Damit entlasten sie nicht nur die Energiebilanz des einzelnen Servers, sondern wirken sich positiv auf die Gesamteffizienz des Rechenzentrums aus – ein wesentlicher Schritt, um KI‑Infrastrukturen langfristig leistungsfähig und nachhaltig zu betreiben.
Viele Rechenzentren werden modular erweitert. Welche Herausforderungen entstehen dabei für eine konsistente und zukunftssichere Glasfaserinfrastruktur?
Modulares Wachstum von Rechenzentren bedeutet vor allem eines: Geschwindigkeit bei gleichzeitig langfristiger Konsistenz. Betreiber können es sich nicht leisten, bei Erweiterungen monatelang auf Material zu warten oder zeitintensive Spleiß Arbeiten im Whitespace durchzuführen, insbesondere da Ausbauphasen zeitlich versetzt erfolgen und sich technologische Rahmenbedingungen stetig weiterentwickeln. Ohne standardisiertes Setup bei Fasertypen, Steckgesichtern und Patch-Konzepten werden Skalierbarkeit und spätere Upgrades massiv eingeschränkt.
Der Schlüssel liegt daher in abgestimmten, vorkonfektionierten Plugand‑Play‑Glasfaserlösungen, die auf universellen Mehrfaser‑Stecksystemen und modular skalierbaren Patchzentralen (ODF) aufbauen. Sie ermöglichen eine schnelle Installation, reproduzierbare Qualität und reduzieren die Abhängigkeit von knappen Spleiß‑Ressourcen vor Ort – ein entscheidender Faktor für Time‑to-Market und Betriebssicherheit.
Gleichzeitig ist Liefersicherheit zu einem zentralen Erfolgsfaktor geworden. Mit einer konsequenten Local-for-Local-Strategie – Forschung und Entwicklung in Berlin Adlershof sowie Glasfaser-, Kabel- und Systemproduktion in Polen – stellt Corning sicher, dass modulare Erweiterungen just in time, in hoher Qualität und mit einem minimierten CO₂ Fußabdruck realisiert werden können.
Aus Sicht eines Systemlieferanten sind vorkonfektionierte Glasfasersysteme damit ein zentraler Hebel, um modulare Rechenzentren schnell, effizient und langfristig konsistent zu erweitern.
Wie verändert sich die Zusammenarbeit zwischen Herstellern, Planern und Betreibern, wenn Rechenzentren zunehmend als langfristige Infrastrukturprojekte verstanden werden?
Die Zusammenarbeit im Rechenzentrumsumfeld entwickelt sich weg von klassischen Lieferantenbeziehungen hin zu frühzeitigen, tief integrierten Innovations-Ökosystemen. Ein Rechenzentrum für das Jahr 2030 lässt sich nicht mehr in Silos planen. Systemarchitektur, Technology und Platzbedarf; Server, Switches, Kühlung und Glasfaserinfrastruktur müssen von Tag null an gemeinsam gedacht und entschieden werden, da Entwicklungszyklen kürzer werden und die technologischen Anforderungen gewerkeübergreifend stetig zunehmen.
Hersteller werden dabei stärker in Roadmap-Abstimmungen, Innovationspartnerschaften und Technologie-Vorausschau eingebunden, während Planer zunehmend die Rolle integrativer Systemarchitekten übernehmen statt einzelner Gewerke isoliert umzusetzen. Betreiber profitieren im Gegenzug von höherer Planungssicherheit, geringeren Lebenszykluskosten und einer resilienteren, langfristig zukunftsfähigen Infrastruktur.
Parallel rücken Nachhaltigkeit und Scope-3-Emissionen stärker in den Fokus. Als Hersteller müssen wir bereits in der frühen Planungsphase transparente Daten zu Lebenszyklen und lokalen Lieferketten liefern – etwa über eine europäische Wertschöpfungskette –, damit Betreiber ihre ESG-Ziele nicht nur kurzfristig erfüllen, sondern langfristig absichern können.
Mit Blick auf die fiberdays 26 und die eco Datacenter Plaza: Welche Aspekte der physischen Infrastruktur sollten Entscheider:innen heute stärker in den Fokus rücken, um spätere Nachrüstungen zu vermeiden?
Entscheider sollten sich heute weniger an bestehenden Standards und Blaupausen orientieren, sondern die physikalischen Grenzen der nächsten Jahre antizipieren. Wer heute baut, muss Architekturen für 1,6 Terabit und darüber hinaus mitdenken. Latenz und optische Dämpfung werden dabei zur härtesten Währung. Gleichzeitig erfordern KI- und HPC-Workloads eine klare Trennung und integrierte Planung von Frontend- und Backend-Netzwerken: Während Frontend-Netze primär über Standardisierung und Migrationsfähigkeit wachsen, sind Backend Netze physikalisch limitiert – insbesondere durch Energie und Kühlkonzepte sowie hochdichte Glasfaser Konnektivität.
Steigende Rackleistungen von perspektivisch deutlich über 300 kW koppeln Netzwerkdesign, Glasfaserarchitektur, Strom und Kühlung untrennbar zu einem Gesamtsystem, das nur integriert zukunftssicher geplant werden kann. Entscheidend ist daher eine modulare, hochdichte und energieeffiziente Glasfaserbasis, die Backend Skalierung weit über die 800G Grenze hinaus ermöglicht, ohne den Backbone nachrüsten zu müssen – sowohl für Trainingsrechenzentren als auch für den stetig wachsenden Inferenz-Betrieb. Gerade die Inferenz wird für Unternehmen zunehmende Bedeutung erlangen um lokal oder dezentral an der Edge, Applikationen in Real-Time nahe der Datengenerierung mit trainierten KI-Lösungen der verschiedenen Generationen zu unterstützen.
Disruptive Technologien sollten frühzeitig in die Roadmaps aufgenommen werden. Dazu zählen insbesondere Hollow Core Fasern im Data Center Interconnect, die durch minimale Latenz neue Spielräume bei Architektur und Standortwahl eröffnen. Wer diese physikalischen Zusammenhänge heute berücksichtigt, vermeidet spätere Eingriffe, senkt Lebenszykluskosten und schafft eine belastbare Grundlage für KI-fähige Rechenzentren der nächsten Dekade.


