02.05.2025

Wenn KI das Netz verändert: Neue Wege im Data Center Networking

Künstliche Intelligenz verändert nicht nur Anwendungen und Geschäftsprozesse – sie stellt auch völlig neue Anforderungen an die zugrunde liegende Infrastruktur. Insbesondere Netzwerke in Rechenzentren müssen mit der rasant steigenden Datenflut, neuen Workload-Typen und extrem niedrigen Latenzanforderungen Schritt halten. Im Vorfeld seines Vortrags „AI and its impact on data center networking“ beim diesjährigen Data Center Expert Summit hat eco mit Nils Kleemann, CTO - Central Europe bei NOKIA, über aktuelle Entwicklungen, notwendige Strategiewechsel und seine Vision eines AI-ready Netzwerks gesprochen.

Welche Veränderungen beobachten Sie derzeit im Bereich Data Center Networking durch den zunehmenden Einsatz von KI?

Sicherlich muss man hier zunächst den mit KI verbundenen, wachsenden Datenverkehr nennen. Nokia Bell Labs erwartet gemäß seines letzten Traffic Reports, dass bis 2033 der von KI erzeugte, weltweite Wide Area Network (WAN)-Verkehr 33% des gesamten WAN-Verkehrs ausmachen wird. Der Löwenanteil wird hiervon vom Consumer-Bereich generiert (38% des gesamten weltweiten Consumer WAN-Verkehrs), wobei aber im Enterprise Segment das höchste Wachstum (57% CAGR) zu erwarten ist. Dies hat zur Folge, dass insbesondere die Vernetzung von Datenzentren eine immer wichtigere Rolle spielt und dass diese Teil der kritischen Infrastruktur werden, die skalierbar (Glasfaser), redundant und hoch performant sein muss. Neben sehr großen Large Language Models (LLMs), die in großen Datenzentren trainiert werden und KI-Applikationen verarbeiten, gibt es jedoch auch kleinere LLMs, die zum Beispiel auf Endgeräten wie Smartphones oder IoT-Geräten laufen. Nicht alle solche Endgeräte sind aufgrund ihrer limitierten Prozessoren in der Lage, entsprechende KI-Berechnungen durchzuführen. Aus diesem Grunde müssen solche KI-Prozesse in nahe gelegene Edge Datencenter ausgelagert werden und treiben damit die Nachfrage nach Edge Datacenter-Infrastruktur voran.

Inwiefern erfordert der KI-Boom ein Umdenken in der Netzwerkarchitektur – sowohl bei Hyperscalern als auch bei kleineren Anbietern?

Es ist sicherlich von einer Transformation der heutigen Netze auszugehen. Dies beginnt zunächst in den Datenzentren selbst. Um eine extrem hohe Rechenleistung der Grafikprozessoren (GPUs) in einem KI-Datenzentrum zu erreichen, arbeiten diese parallel. Dies hat extreme Anforderungen an das Backbone (z.B. 400G/800G Interfaces) zur Folge und erfordert sehr geringe Latenzen. Aus diesem Grund wurde das Ultra Ethernet Consortium (UEC) gegründet, bei dem auch Nokia Mitglied ist. Hier entstehen ganz neue Standards. Beim Betrieb solcher KI-Datenzentren wird auch die Automatisierung in Richtung „Intent-based“ Automatisierungs-Tools eine immer größere Rolle spielen, um Eingabefehler des Menschen zu vermeiden. Zum Thema Sicherheit, gerade in Zeiten, in denen Cyberattacken zunehmen, ist sicherlich auch ein Umdenken in Richtung Skalierbarkeit nötig. So werden bis dato bei DDoS Attacken, die entsprechenden IP-Pakete zu einem dedizierten Scrubbing Center geroutet. Ein Ansatz, solch ein Scrubbing direkt auf einem IP-Router (z.B. DC Gateway) vorzunehmen, ist hierbei sicherlich skalierbarer. Mit dem Einsatz von Quantum-Computern in den nächsten Jahren, wird auch die  Quantum-sichere Datenübertragungen wie z.B. beim Datacenter-Interconnect in den Fokus rücken. Darüber hinaus sehen wir in den Netzen aufgrund der wachsenden Bedeutung von Edge Datenzentren ein verstärktes Aufkommen von ‚East-West‘ Datenverkehr und die Forderung nach Unterstützung von mehr symmetrischem Datenverkehr, dem sicherlich in Hinblick auf Netzarchitektur stärker Rechnung getragen werden muss.

Wie bereiten sich Netzwerkanbieter wie Nokia strategisch auf die steigende Nachfrage nach KI-tauglichen Netzwerken vor?

Nokia adressiert all diese Entwicklungen durch dedizierte Lösungen, die sich in fünf Bereiche aufteilen lassen:
Datacenter Fabric (DCF) - hoch performante, skalierbare Vernetzung innerhalb von Datenzentren
▶Datacenter Gateway (DC GW) - skalierbare, multi-service Routinglösung für eine Vielzahl von Anwendungsszenarien
Datacenter Interconnect (DCI) - optische und IP basierte Übertragungslösungen zwischen Datenzentren
Automatisierung - Intent-basierte Automatisierungslösung auf Basis von Kubernetes
Security - Lösungen - zur DDoS Mitigation als auch Quantum Computer sichere Verschlüsslung

Neben diesen Lösungen zum Ausbau und der Transformation von Netzwerktechnologien, um KI-Datenströme und Applikationen zwischen Datenzentren und den Endverbrauchern transportieren zu können, investiert Nokia ebenfalls in die Nutzung von KI für Netztechnologien als solche. Dabei ist die Fragestellung, wie KI den Betrieb, den Endnutzer-Service und die Netzperformanz vereinfachen bzw. optimieren kann, zentral. Dies führt hin zu einem sogenannten „AI-native Networking“ - ein Ansatz, der Limitationen von bisherigen, traditionellen Netztechnologien aufbricht. Insofern verfolgt Nokia einen zweidimensionalen Ansatz: einerseits mit Fokus auf Netzen für KI-unterstützende Dienste, andererseits auf KI-unterstützende Netze.

Wie sieht Ihre Vision eines AI-ready Network im Jahr 2030 aus – welche Prinzipien, Architekturen oder Paradigmen dominieren dann?

Wenn KI das Netz verändert: Neue Wege im Data Center Networking. Der Ansatz sollte sein, „KI-unterstütze Netze für KI-unterstütze Dienste“ bereitzustellen, die skalierbar, hoch-automatisiert und auch gegenüber Cyberangriffen (DDoS, Quantum) gesichert sind. Nur so kann die kritische Netzinfrastruktur die digitale Souveränität eines Landes unterstützen.

Nils Kleemann