ecoTrialog #1: Big Data – neuer Treiber für das RZ-Wachstum?

ecoTrialog #1: Big Data – neuer Treiber für das RZ-Wachstum? 1

 
Norddeutsche RZ-Community traf sich zum Auftakt der neuen Info-Reihe ecoTrialog
 

Hamburg, 07.06.2012 – Annähernd 50 IT-Experten aus dem gesamten norddeutschen Raum folgten der Einladung zur Auftakt-Veranstaltung der neuen Info-Reihe ecoTrialog.

Nach der Begrüßung durch den Gastgeber Roger Bellof, Stulz GmbH, führte Monika Graß, Leiterin der neuen Info-Reihe, die Teilnehmer thematisch durch den Nachmittag. ecoTrialog diene dem regelmäßigen Erfahrungsaustausch unter Partnern auf Augenhöhe. Ziel sei es, Betreiber, Anwender sowie Planer und Hersteller aus dem IT-, Carrier und Rechenzentrums-Umfeld zusammen zu bringen.

In der Eröffnungs-Keynote ging Dr. Flemming Moos, Partner der Kanzlei Norton Rose Germany, auf die anhaltende Datenexplosion und deren Auswirkungen auf die Rechenzentren ein. Wer sind die Treiber des „BigData“ genannten Trends und welche Prozesse werden benötigt um die immer weiter steigende Menge an Datenvolumen zu speichern und zu analysieren? – Diese und weitere Fragen versuchte Moos im Dialog mit den Teilnehmern zu klären.

Er identifizierte neue Datenströme wie z.B. die Machine-to-Machine Kommunikation (M2M) als einen der Verursacher. Beispielhaft für M2M nannte Moos die von vielen Automobil-Herstellern angebotene „E-Call„-Funktion. Hierbei handele es sich um ein Notruf-Signal, welches bei einem Unfall automatisiert vom Bordcomputer des jeweiligen Fahrzeugs ausgelöst werde und Informationen über Standort und Hinweise auf die Schwere des Schadens übermitteln kann.

Aber auch Smart-Metering, Social-Analytics, Location-Based-Services oder ganz allgemein das „Internet of Things“ können neben dem schon jetzt sehr hohen Aufkommen an Video-Daten für das exponentiell wachsende Datenvolumen verantwortlich gemacht werden. Eine Social-Networking Plattform wie z.B. Facebook verfüge derzeit über annähernd 1 Mrd. Nutzer die täglich neue Daten erzeugten.

So entspreche aktuell ein 60-tägiger Youtube-Upload dem erzeugten Datenvolumen der drei größten amerikanischen TV-Sender aus den letzten 60 Jahren. „Big Data“ sei auch der ausschlaggebende Treiber der letzten Jahre für den anhaltenden Cloud-Computing Hype.

In einer Zeit, in der es unter betriebswirtschaftlichen Aspekten günstiger sei, Daten einfach gespeichert zu lassen, als Sie mit großem Aufwand aus einem gigantischen Datenbank-Pool heraus zu entfernen, spielten Aspekte des Datenschutzes eine immer wichtigere Rolle. Moos skizzierte modellhaft am Beispiel des Smart-Meterings wie man aus digitalen Stromverbrauchs-Informationen auf die Auswahl des TV-Programms Rückschlüsse ziehen könne. Hier müsse dem Bereich des sog. „Data-Minings“ in Zukunft eine wesentlich größere Beachtung geschenkt werden.

Im Anschluss stellte sich Dr. Sebastian Brandis, COO der e-shelter facility services GmbH die Frage: „Was treibt die Zukunft der Rechenzentren?

Der promovierte Physiker skizzierte unterschiedliche Entscheidungs-Strategien im Spannungsfeld von Power, Protection und Proximity für die heutige und zukünftige globale Standortwahl von Rechenzentren.

Die reine Energiebeschaffung für den Betreiber sei nach wie vor von erheblicher Bedeutung. Volkswirtschaftlich sei es mittlerweile sogar günstiger, Daten anstelle von Strom über weite Strecken zu transportieren. Dies spreche zum einen für eine Standortwahl in der Nähe großer erneuerbarer Energievorkommen wie z.B. Wasserkraftwerken im Norden Europas. Auf der anderen Seite sei aber auch ein kurzer Weg zum RZ-Kunden von entscheidender Bedeutung – gerade wenn es um kurze Latenzzeiten wie z.B. im Finanzsektor gehe.

So dauere es z.B. deutlich länger als 20 ms um Informationen aus Island nach Westeuropa zu senden. Unter Berücksichtigung des Hin- und Rücktransportes sowie der Verarbeitungszeit auf den Servern seien Vorgaben wie 150 ms für eine „Google Instant Search„-Rückmeldung über diese Entfernungen nicht immer sicher zu gewährleisten.

Brandis verwies auf die Notwendigkeit einer guten Infrastruktur von Internet-Austauschknotenpunkten (CIX). Um Daten von Hamburg nach München zu senden, mache es keinen Sinn, diese über Nordamerika zu routen, wie es in der Anfangszeit des Internets oftmals geschehen sei. Kurze Transportwege seien von strategisch entscheidener Bedeutung. Dies zeige auch das Wachstum neuer CIXe im asiatischen Raum.

Das Thema Abwärme-Nutzung stelle für einen Rechenzentrums-Betreiber ebenfalls einen entscheidenden Faktor in der Nachhaltigkeits-Diskussion dar. Noch immer seien herkömmliche Rechenzentren aufgrund der aktuellen Technologie im Grunde nichts anderes als große „Elektro-Heizungen“. Nicht immer könne die unmittelbare Nähe zu Abnehmern der Wärmeenergie, wie z.B. Schwimmbädern, Bürogebäuden oder die Einspeisung in ein Fernwärmenetz umgesetzt oder energetisch gewinnbringend realisiert werden.

Für Brandis gebe es folglich kein Patentrezept für die ideale Standortwahl eines Rechenzentrums der Zukunft. So spielten neben der politischen Stabilität eines Landes, der Korruptionsindex, die Glasfaser-Anbindung, die Verfügbarkeit des Stromversorgungsnetzes sowie eine Vielzahl weitere Parameter eine entscheidene Rolle.

Im Anschluss an die Networking-Pause, welche die anwesenden IT-Experten zu intensiven Gesprächen untereinander sowie mit Gastgeber und Referenten nutzten, informierte KlausClasen, Geschäftsführer der Notstromtechnik Clasen GmbH über aktuelle Verfügbarkeitsaspekte bei der RZ-Stromversorgung.

Nach einer einleitenden Definition von Verfügbarkeit sowie einem Blick auf die baulichen Aspekte stellte Clasen die Verfügbarkeit als ganzheitlichen Aspekt in den Fokus seiner Betrachtungen. Am Beispiel des Umbaus eines Bestand-Rechenzentrums in einem dreistöckigen Bürogebäude schilderte er die alltäglichen Herausforderungen mit denen ein Betreiber bei der Absicherung seiner Stromversorgung konfrontiert sei.

Für ihn stehe das Ausschalten des „Single Point of Failure“ (SPOF) an erster Stelle der Verfügbarkeits-Betrachtungen. Hierzu sei eine möglichst weitgehende Entkopplung aller betreffenden Komponenten voneinander eine Grundvoraussetzung.

Im Bezug auf die spätere Skalierbarkeit eines Rechenzentrums sei für ihn eine genaue Wachstums-Prognose im Vorfeld der Planungen die Voraussetzung für ein gutes Modularitäts-Konzept.

Im Dialog mit den Teilnehmern wurde die Strompreisentwicklung in Deutschland ebenso diskutiert wie die gewerkeübergreifende Konzeption und Planung einer Strom- und Notstromversorgung der Server-Räume. „Wer im Vorfeld keine genauen Messungen durchführt, kann auch keine Verbesserung vornehmen„, so das Fazit seiner Planungs-Strategie.

Unter dem Stichwort „Keep it simple!“ wies Clasen auf die Bedeutung einer verständlichen Dokumentation des eigenen Versorgungsnetzes hin. Noch wichtiger sei allerdings die Dokumentationspflege. Hauptfehlerquelle im Bereich der Stromversorgung sei immer noch der Mensch.

Nach der anschliessenden Abschlussdiskussion und Zusammenfassung durch Monika Graß bestand für die Teilnehmer die Gelegenheit, an einer Führung durch das Test-Labor des Gastgebers, der Stulz GmbH, teilzunehmen.