Vom statischen zum dynamischen Datacenter

Vom statischen zum dynamischen Datacenter

 
Ein Erfahrungsbericht über den Rechenzentrumsbau der letzten 20 Jahre
 

Kaum eine Branche ist so rasanten Veränderungen unterworfen wie die der Rechenzentren: Das einst kleine Marktsegment, in dem die Wettbewerber klaren Linien folgten, wurde von der Dynamik der Zeit überwältigt. Die rasante Entwicklung ließ eine Masse an Lösungen und Anbietern mit einem Hang zur Überdimensionierung entstehen, in der kaum noch eine eindeutige Richtung erkennbar war. Doch wissen wir es heute besser?

Als ich vor 20 Jahren meine Laufbahn als Rechenzentrumsplaner begann, betrat ich die einfache Welt des „statischen Rechenzentrums“: Gradlinige Ansprüche, 500 Watt je Quadratmeter, gebaut wurde immer auf den Endausbau, und Verfügbarkeits- und Sicherheitskriterien kamen aus einem eigens entwickelten Sicherheitskonzept.

Damals gab es noch kein Uptime Institute, keinen TÜV oder Rechenzentrumsnormen, die mehr oder weniger sinnvolle Vorgaben machten. Der Mittelstand bediente sich gerne der sogenannten „Lampertzzelle“ und tat darin all seinen Ansprüchen genüge. Was ich damals erlebte, war ein übersichtlicher Markt, der von wenigen Playern bedient wurde und weitestgehend ohne internationalen Einfluss funktionierte.

Seitdem haben sich die Zeiten geändert: Anders als damals gibt es heute nicht mehr das Rechenzentrum, sondern ein nahezu unendliches Spektrum an Rechenzentrumslösungen. Vielleicht spricht man inzwischen auch deshalb lieber von einem Datacenter, um darin Begriffe wie Serverraum, EDV-Raum, Serverzelle, Rechnerraum, Rechenzentrum, usw. zu vereinen.

Im Wesentlichen unterscheiden sich die Rechenzentren hinsichtlich ihrer Größe (von wenigen Datenschränken bis hin zu Mega-Datacenter von über 100.000 m² Whitespace), ihren Anforderungen an Verfügbarkeit und Sicherheit sowie der Leistungsdichte (von wenigen Kilowatt bis hin zu Gigawatt-Anlagen). Diese Unterschiede haben eine Vielzahl verschiedener RZ-Lösungen hervorgebracht, die durch die Kriterien des modularen Aufbaus und der Energieeffizienz in den letzten Jahren zusätzlich erhöht wurde.

 
Der Wahnsinn nimmt seinen Lauf
 

Abb. 1: Übersicht über Leistungs- und Verfügbarkeitsanforderungen der verschiedenen Branchen

Doch wie wurde aus dem einst statischen Rechenzentrum diese dynamische Lösungsvielfalt? Am Anfang stand die rasante Entwicklung, mit der die IT-Technik das Arbeits- und Privatleben der Menschen veränderte. Sie ließ den Bedarf an Rechenzentren kontinuierlich und ungebremst steigen. Inzwischen gibt es kaum noch einen Geschäftsprozess oder eine menschliche Handlung, die nicht computergestützt ist. Diese Entwicklung war nur mithilfe einer Menge Rechnertechnik möglich, die sie sicher und verfügbar unterstützte. Doch trotz der parallel stattfindenden rasanten Verbesserung und Verdichtung der Server- und Speichertechnik konnte der Mehrbedarf an Rechenzentrumsfläche nicht eingedämmt werden.

Der technologische Boom dieser Zeit überforderte die noch junge Branche: In all den Versuchen, den steigenden Ansprüchen an die Rechenzentren gerecht zu werden, fehlte es am Vermögen, die Dynamik der Entwicklung wirklich zu begreifen und sinnvoll einzuschätzen. Ihre Rasanz veranlasste viele in der Branche zu falschen Prognosen, wie sich der Markt weiterentwickeln würde. Statt Rechenzentren den wandelnden Ansprüchen entsprechend bereitzustellen, machte sich die Angst bereit, in Zukunft nicht mehr mithalten zu können.

Das Ergebnis war ein Hang zur gnadenlosen Überdimensionierung: Noch heute hat kaum ein Rechenzentrum die Leistungsdichte erreicht, mit der es vor 10 Jahren geplant wurde. Die damalige Unsicherheit und Unwissenheit war fruchtbarer Boden für die Entstehung einer trügerischen Beraterszene. Menschen, die noch nie ein Rechenzentrum von innen gesehen hatten, mutierten dank umfassender Google-Recherche, eines einwöchigen Aufenthaltes in den USA oder geschicktem Online-Marketing plötzlich zu vermeintlichen Datacenter-Spezialisten.

Ihre Prognosen und Empfehlungen brachten jede Menge Fehlkonstruktionen hervor, über die man heute nur noch den Kopf schütteln kann. Millionen an Investitionskosten wurden in technische Anlagen versenkt, die letztlich ein nutzloses Dasein fristeten. Wassergekühlte Racks mit einer Kühlleistung von mehr als 20 kW, die ein Vielfaches der konventionellen Lösungen kosteten, wurden für „2 kW Racks“ verwendet. Zum einen wussten viele gar nicht, wie hoch der Energieverbrauch tatsächlich war, zum anderen ließ man sich aber auch von der Stimmung anstecken: Um auf Nummer sicher zu gehen, folgte man dem Motto „schneller, höher und weiter“. Die rasanten Veränderungen im IT-Markt, der damit einhergehende steigende Bedarf an RZ-Fläche in allen Lebensbereichen und eine große Unsicherheit darüber, was die Anforderungen der Zukunft mit sich bringen würden, erzeugten eine Wild-West-Branche mit Goldgräberstimmung: Wer nicht schon heute das Maximum in sein Rechenzentrum steckt, der bleibt morgen auf der Strecke.

 
Vom Wild-West-Rechenzentrum zum dynamischen Datacenter
 

Nachwievor erleben wir einen rasanten technologischen Fortschritt – doch inzwischen ist er für uns greifbarer geworden. Langsam aber sicher registrieren wir, dass das Rechenzentrum kein Mysterium ist: Es muss sich klaren physikalischen Gesetzmäßigkeiten unterwerfen und marktwirtschaftlichen Regeln folgen. Die Entwicklungsszenarien von Rechenzentren sind mithilfe von Verbrauchsmessungen, Wochen-, Monats- und Jahresvergleichen sowie seriösen Trendanalysen transparenter und berechenbarer geworden.

All diese validierten Informationen lassen uns vor allem eines verstehen: Anders als noch vor 20 Jahren gibt es nicht mehr das Rechenzentrum, sondern eine Vielfalt von unterschiedlichen Rechenzentrumslösungen. Inzwischen ist jedem klar, dass man ein HPC-Datacenter völlig anders baut als das Rechenzentrum eines mittelständischen Produktionsbetriebs. Doch selbst innerhalb dieses Bereiches können die Ansprüche schwanken: Der eine Betrieb legt mehr Wert auf Sicherheit, der andere auf Energieeffizienz – schon werden die beiden Rechenzentren völlig verschieden aussehen.

Ein Rechenzentrum ist also nicht gleich ein Rechenzentrum. Man mag geneigt sein, einzuwenden, dass es doch einheitliche Normen wie z.B. EN 50600 oder klare Vorgaben von Zertifizierungsinstituten gibt. Sind Rechenzentren unterm Strich also doch wieder gleich? Hier muss beachtet werden: Die Anwendung dieser rahmengebenden Mittel ist mehr oder weniger freiwillig und wird national, insbesondere aber international, völlig unterschiedlich gehandhabt. Die wesentlichen Entscheidungskriterien, welches Rechenzentrum benötigt wird, sind nachwievor vielmehr das Budget, die Erfahrungswerte und die gelebte Sicherheitskultur. Kurz gesagt: Wenn keine Kohle da ist, wird das Rechenzentrum bescheidener, wenn Erfahrungen mit Wasserschäden gemacht wurden, werden die Maßnahmen hier umfassender, und ein Deutscher wird sein Rechenzentrum in der Regel anderes bauen als ein Portugiese. Aus diesen Gründen wird es immer eine Vielfalt von Möglichkeiten geben, die auch weiterhin dafür sorgen, dass unterschiedlichste Rechenzentren gebaut werden.

 
Standardisierung vs. Individualisierung
 

Abb. 2: Verschiedene Wege zum Rechenzentrum

Da wir erkannt haben, dass es auf die individuellen Bedürfnisse und Ansprüche ankommt, finden wir heute alle Varianten des Rechenzentrumsbaus: Von den Systembauten mit einem hohen Standardisierungsgrad bis hin zum individuellen maßgeschneiderten Rechenzentrum. Im Trend liegt sicherlich der Weg zur Standardisierung, also Systembauten, die mehr oder weniger aus dem Katalog bestellt werden können. Bislang haben sich diese Lösungen aber noch nicht durchgesetzt, da nur die wenigsten Marktplayer daran ein Interesse haben.

Denn wie würde das perfekte Standard-Rechenzentrum aussehen? Welche Techniken (USV, Klima, NEA, etc.) kommen zum Einsatz, welches Produkt ist das Beste? Wie viel Energieeffizienz ist wichtig und richtig? Welcher Grad an modularem Ausbau soll berücksichtigt werden? Wer übernimmt wofür die Gewährleistung? Wer sorgt für die Baugenehmigungen und Absprachen mit Ämtern, Behörden und sonstigen Beteiligten? Welcher Anbieter kann überhaupt das Knowhow über alle Gewerke darstellen?

Alle diese Fragen stellen sich seit Längerem, ohne dass schon bahnbrechende Lösungen am Markt zu erkennen sind – denn keiner will auf der Strecke bleiben. Mit dem anderen Extrem der maximalen Individualisierung lassen sich zwar alle Wünsche und Ideen umsetzen, aber die Koordination aller Gewerke und die Zuordnung von Gewährleistungs- und Garantieansprüchen ist eine Herkulesaufgabe und kann schnell zum Horror werden. Da die Verfügbarkeit und Ausfallsicherheit eines der elementaren Anforderungen im Rechenzentrum ist, wird diese Vergabeform sehr selten gewählt. Die Mehrzahl der Lösungen liegt irgendwo zwischen beiden Formen mit der Tendenz zur Standardisierung.

Die Geschichte hat uns gezeigt, wohin es führt, wenn wir mehr wollen, als wir tatsächlich brauchen. Wir haben daraus gelernt, dass man sich beim Bau eines Rechenzentrums klar darüber sein muss, welche Ansprüche man hat. Mit einem Lastenheft sollte man klar beschreiben, welche Anforderungen an das Rechenzentrum gestellt werden und sich erst dann an die Umsetzung machen. Der Grundstein für eine zukunftsorientierte Planung liegt vor allem im Hier und Jetzt.

Autoren: 
Ulrich Terrahe (Geschäftsführer dc-ce RZ-Beratung GmbH und Co. KG), David Balschukat (Presse- und Öffentlichkeitsarbeit, marconing).

ERGÄNZENDE INFORMATIONEN:

Orientierungshilfe zur Leistungsdichte und Lastermittlung
von Servern, Datenschränken und Rechenzentren

Autoren: Ulrich Terrahe, Marc Wilkens
Stand: 05. Juni 2012

DOWNLOAD (PDF)