Mit dem zunehmenden Einsatz von KI-Anwendungen rückt die zugrunde liegende Rechenzentrumsinfrastruktur stärker in den Fokus. Besonders dort, wo neue KI-Workloads auf gewachsene IT- und Betriebsstrukturen treffen, entstehen technische, organisatorische und wirtschaftliche Spannungsfelder. Im eco Interview gibt Thimo Groneberg, Chief Commercial Officer bei eco Mitglied Polarise, Einblicke in aktuelle Herausforderungen beim Betrieb und der Skalierung von KI-Rechenleistung, beleuchtet Unterschiede zwischen Neubau- und Bestandsansätzen und ordnet ein, welche Fragen Unternehmen sich stellen sollten, bevor sie KI produktiv einsetzen.
Polarise arbeitet an der Infrastruktur für KI-Anwendungen. Wo zeigen sich aus Ihrer Erfahrung die größten Spannungen zwischen neuen Anforderungen und gewachsenen Betriebsmodellen, wenn man KI-Workloads in bestehende IT- und Rechenzentrumsstrukturen integriert?
Die Herausforderungen ziehen sich durch alle Bereiche, denn KI-Infrastruktur ist mehr als ein paar GPUs in ein bestehendes Rack zu schrauben und irgendwie zu betreiben. Bestandsrechenzentren im laufenden Betrieb für moderne KI-Systeme zu retrofitten gleicht der sprichwörtlichen „Operation am offenen Herzen“ und ist nahezu unmöglich. Dabei behalten bewährte Geschäftsmodelle weiterhin ihre Gültigkeit – nicht jedes neue Rechenzentrum muss eine „AI Factory“ sein – und sollten sie auch nicht. Nicht umsonst kristallisiert sich dieser Begriff stetig als neue Gattung innerhalb der Rechenzentren heraus. Mehr dazu später.
In vielen Unternehmen wächst der Bedarf an KI-Rechenleistung sehr schnell. Woran scheitert die Skalierung in der Praxis Ihrer Erfahrung nach am häufigsten?
Eindeutig an verfügbarer Infrastruktur. Deshalb legen wir bei Polarise einen besonderen Fokus auf das Thema Geschwindigkeit, als eine der drei Säulen unseres Selbstverständnisses neben Souveränität und Nachhaltigkeit. Unternehmen in Deutschland und Europa haben es heute besonders schwer, die passende Infrastruktur zu finden, die ihren Anforderungen hinsichtlich Datenschutz, Skalierbarkeit und Performance gerecht wird. Natürlich wird dieser Tage viel angekündigt, aber absehbar kommen diese Projekte erst in ein, zwei Jahren in eine entsprechende Reife. Was machen wir bis dahin? Diese Lücke schließen wir als Polarise, denn gerade beim Thema KI haben wir in Europa keine Zeit zu verlieren.
Beim Aufbau von KI-Rechenzentren wird häufig zwischen Neubauten und der Weiterentwicklung bestehender Standorte unterschieden. Welche besonderen Herausforderungen bringt der Einsatz bestehender Rechenzentrumsinfrastruktur für KI-Workloads mit sich?
Eine ganz besondere Herausforderung ist die Auslegung der Stromversorgung und der Kühlung. Beides ist im KI-Umfeld hoch-dicht und erfordert entsprechende Ausführung. Doch auch eine heute als ausreichend erachtete Infrastruktur kann mit Ankündigung der nächsten Chip-Generation morgen bereits wieder „veraltet“ sein. Die raschen Entwicklungssprünge der KI-Chips und -systeme macht eine besonders vorausschauende, gezielt auf die Systeme abgestimmte Planung notwendig. Mit unseren „AI Pods‘‘ haben wir eine flexible und modulare Lösung geschaffen, um auch in den angesprochenen Bestandsstrukturen extrem schnell ausrollen zu können.
Viele Unternehmen stehen noch am Anfang ihrer KI-Nutzung. Welche Fragen sollten sie sich stellen, bevor sie KI-Workloads produktiv einsetzen?
Wir glauben, dass es als Unternehmen entscheidend ist, einen echten Usecase und einen echten Mehrwert identifiziert zu haben, bevor man „irgendetwas mit KI“ macht; nur um der KI willen. Die Zahlen sprechen für sich: 63% aller Unternehmen, die KI in ihre Abläufe integriert haben, sprechen von einer direkten Verbesserung ihrer Produktivität. Aber sicherlich nur, wenn man die Hausaufgaben vorher gut gemacht hat – klarer Usecase, klares Ziel, klarer Datenpool. Dabei können sowohl wir als Polarise als auch unsere starken Partner helfen, die die richtigen Fragen stellen, um am Ende genau das richtige Tool zu finden, das der Kunde dann auf unserer souveränen Plattform betreiben kann.
Zum Abschluss ein Blick nach vorn: Welche Entwicklung im Bereich KI-Rechenzentren halten Sie für wahrscheinlich?
Wie bereits angedeutet, werden AI Factories ob ihres speziellen Anforderungsprofils zukünftig eine eigene Klasse innerhalb der Rechenzentren ausmachen. Unsere Vision als Polarise ist dabei ein untereinander vernetztes, dezentrales Netzwerk aus entsprechenden Rechenzentren, die lokal eingebunden die Ökosysteme und die Communities vor Ort stärken, während sie zusätzlich Platz für KI-Startups, Bildung und Forschung bieten und eine sinnvolle Kreislaufwirtschaft mit den umliegenden Anwohnern und Unternehmen eingehen. Nur so werden wir in Europa ein Modell finden, dass in Einklang mit dem wachsenden Bedarf und den uns zur Verfügung stehenden Ressourcen steht.


