Anlass: DataCenter-Day - Interview: Delta-Managerin - Gültigkit: Jetzt und gleich

Welche Trends bestimmen RZ-Design, -Ausstattung und -Betrieb?

| Autor / Redakteur: DataCenter-Insider / Ulrike Ostler

Astrid Hennevogl-Kaulhausen ist Head of MCIS/UPS Sales Germany, Mission Critical Infrastructure Solutions (MCIS) bei Delta Energy Systems. Sie spricht über die im Interview angeschnittenen Themen auf dem DataCenter Day 2017: PUE, Edge-Computing, modulare rechenzentren und das Open Compute Project.
Astrid Hennevogl-Kaulhausen ist Head of MCIS/UPS Sales Germany, Mission Critical Infrastructure Solutions (MCIS) bei Delta Energy Systems. Sie spricht über die im Interview angeschnittenen Themen auf dem DataCenter Day 2017: PUE, Edge-Computing, modulare rechenzentren und das Open Compute Project. (Bild: Delta)

Im Vorfeld des dritten DataCenter Day, den die Vogel IT-Akademie am 24. Oktober dieses Jahres erneut in Würzburg ausrichtet, hat Astrid Hennevogl-Kaulhausen DataCenter-Insider ein Interview gegeben. Sie ist Head of MCIS/UPS Sales Germany, Mission Critical Infrastructure Solutions (MCIS) bei Delta Energy Systems. Sie erörtert die Herausforderungen für RZ-Betreiber und aktuelle Trends im deutschen Rechenzentrumsmarkt.

Der deutsche Rechenzentrumsmarkt wächst weiterhin sehr dynamisch. Vor welchen Herausforderungen stehen die RZ-Betreiber momentan?

Astrid Hennevogl-Kaulhausen: Die wichtigsten Themen sind momentan ganz klar: Flexibilität, Energie-Effizienz und übergreifendes Management von Facility- und IT-Ressourcen. Die aktuellen Veränderungen im Markt werden vor allem durch die fortschreitende Digitalisierung und den Wandel im Nutzungsverhalten der Anwender getrieben.

Wir alle haben mittlerweile ein Smartphone und verwenden es nicht nur beruflich, sondern auch privat. Wir nehmen nicht nur Fotos mit dem Handy auf, sondern filmen interessante Ereignisse und teilen sie unmittelbar über soziale Netze oder sehen uns Live Streams an. Die Entwicklungen im Bereich IoT (Internet der Dinge) tragen ihr Übriges dazu bei. Zudem erwarten wir inzwischen rund um die Uhr Zugriff auf unsere Anwendungen und Daten aus der Cloud.

Diese Änderungen im Nutzerverhalten, in der Erwartungshaltung an die Verfügbarkeit der Anwendungen sowie das zunehmende Datenaufkommen an sich, erfordern eine schnelle und flexible Anpassung oder Erweiterung von Rechenzentren. Vor allem die Telekommunikationsanbieter stehen hier vor großen Herausforderungen. Denn ihre bestehenden Rechenzentren wurden vor allem für die Verarbeitung von Sprachdaten konzipiert.

Für das steigende Aufkommen an Big Data sowie Videodaten sind sie meist noch nicht optimal ausgelegt. Doch genau hier, im Rechenzentrum der Telekom-Anbieter, fallen zunehmend große Mengen an Streaming-Daten an. Oft ist es dann auch durch bauliche Restriktionen oder gesetzliche Vorschriften nicht ohne weiteres möglich, diese bestehenden Rechenzentren oder Knotenpunkte zügig aufzurüsten oder umzubauen.

Welche konkrete Empfehlung können sie den TK-Anbietern geben?

Astrid Hennevogl-Kaulhausen: Im Idealfall sollten sie auf modulare Rechenzentren setzen, denn diese bieten in der gegenwärtigen Situation unmittelbare Vorteile: Die Planung und der Bau sind innerhalb von einigen Monaten möglich, denn diese Rechenzentren basieren auf standardisierten, modularen Bausteinen für Stromversorgung, Präzisionskühlung, Energie-Management sowie Umgebungsüberwachung.

Ergänzendes zum Thema
 
Delta auf dem DataCenter Day 2017

Das modulare Design bietet allen RZ-Betreibern eine umfassende skalierbare Lösung für eine flexible und schnelle Anpassung oder Erweiterung von Rechenzentren. Und sie müssen dabei nicht auf ein umfassendes Management aller integrierten Komponenten verzichten.

Ein weiterer Aspekt: In den kommenden Jahren wird sich das Datenaufkommen verdoppeln. Das zieht auch eine entsprechende Anpassung der Klimatisierungsleistung in den Rechenzentren nach sich. Da gilt es sich zu überlegen, ob es zukünftig noch zeitgemäß ist, alle Daten in der Cloud zu lagern. Wir sehen hier die Notwendigkeit für eine veränderte Infrastruktur in deutschen Rechenzentren. Es wird immer wichtiger, näher am Nutzer zu sein.

Wie meinen Sie das?

Astrid Hennevogl-Kaulhausen: Für Big Content wie zentrale Datenbanken und Applikationen wird die Cloud nach wie vor der geeignete Ort sein. Aber wir sehen auch, dass es in Zukunft notwendig wird, einen weiteren Infrastruktur-Layer näher am Kunden aufzubauen. Es wird wichtiger, die Daten in dezentralen „Edge-Rechenzentren“ am Rande des Netzwerks verarbeiten zu können (siehe aus: Abbildung 1). Das bringt eine Veränderung der Datacenter-Infrastruktur mit sich.

Wie viele Infrastruktur-Layer der einzelne RZ-Betreiber letztlich benötigt, hängt dabei von den individuellen Gegebenheiten und dem speziellen Content-Angebot ab. Für manche RZ-Anbieter mag es ausreichen, global oder national ein Cloud-Rechenzentrum und ein weiteres Edge-Rechenzentrum zu betreiben. Andere RZ-Anbieter müssen ihre Infrastruktur granularer aufbauen und verfügen am Ende vielleicht über bis zu sieben Layer.

Können Sie ein konkretes Beispiel nennen?

Astrid Hennevogl-Kaulhausen: Nehmen wir das aktuelle Nutzungsverhalten für mobile Endgeräte und digitale Medien. Im nächsten Jahr findet die Fußball-WM in Russland statt. Da werden zahlreiche Live Streams abgerufen. Nicht nur für Public Viewing, sondern auch auf dem Smartphone - ob bei der Fahrt mit der U-Bahn, oder um die Wartezeit auf Zug oder Flugzeug zu überbrücken, zum Beispiel.

Die Fans möchten live dabei sein. Das stellt Rechenzentrumsbetreiber vor nicht unerhebliche Herausforderungen an die Verfügbarkeit und Leistungsfähigkeit ihrer Infrastruktur. Gerade bei solchen Großveranstaltungen ist es wichtig, nah am Nutzer zu sein. Das bedeutet, dass kurzfristig ein erhöhter Bedarf an hochverfügbarer Infrastruktur an mehreren Standorten benötigt wird - jedoch nur zeitlich begrenzt.

Bleiben wir beim Beispiel Live Streaming während der Fußball-WM: Allein aus Gründen der Latenz ist es bei einem solchen Event nicht sinnvoll, eine Million Anfragen nach long-line Videos durch die Cloud zu schicken und für jeden einzelnen Endanwender zurück zu streamen. Hier bietet es sich an, ein oder mehrere Rechenzentren am Edge, also so nah am Nutzer wie möglich, zu implementieren.

Container-Rechenzentren sind dafür zum Beispiel eine ideale Lösung. Sie sind mobil, extrem skalierbar, energieeffizient, kostenoptimiert und in unterschiedlichen Leistungsplattformkonfigurationen verfügbar.

Sie können als „Cache-Rechenzentrum“ fungieren, in dem Video-Streams nah am Nutzer zwischengespeichert und vorgehalten werden. Dadurch wird die Infrastruktur in dem Hauptrechenzentrum nicht durch eine Million Downloads von long-line Videos überlastet. Stattdessen wird ein Video einmalig heruntergeladen und dann vor Ort an eine Vielzahl von Nutzern ausgeliefert. Solche Edge-Rechenzentren dienen quasi als Puffer- oder Datensammelpunkt zwischen den Nutzern und größeren Rechenzentren.

Sie bieten nicht nur bei Großveranstaltungen unmittelbare Vorteile, sondern eignen sich auch ideal im Rahmen von RZ-Umzügen oder für den Einsatz auf einer Baustelle. Durch die standardisierten Modulbausteine können Unternehmen ihre IT-Infrastruktur bedarfsgerecht aufbauen und betreiben, während parallel die Baustelle fertiggestellt wird. Ist alles bereit, erfolgt die schnelle Inbetriebnahme der RZ-Infrastruktur in dem neuen Gebäude oder der Fabrik.

Unsere Container-RZ-Lösung enthält alle Bausteine, die auch in einem klassischen Rechenzentrum zum Einsatz kommen: Von Server Racks über Präzisionsklimatisierung, USV- und Strommanagement, Feuerlöschung bis hin zur DCIM-Software. Zudem sind diese Container-Rechenzentren auf allen Ebenen erweiterbar–- innerhalb eines Schrankes, eines Containers oder durch Hinzufügen weiterer Container (siehe: Abbildung 3).

Je nach individuellem Bedarf der Kunden bieten wir verschiedene Konfigurationen, beginnend bei einem einzelnen 20-Fuß Container. Und alle Module können einfach ausgetauscht werden. Das vereinfacht die Planung von Kapazitäten, verringert die Downtime aufgrund effektiver Disaster Recovery Operations und bietet ein Höchstmaß an Flexibilität und Skalierbarkeit.

Sie erwähnten eingangs Energie-Effizienz als eines der wichtigen Themen der Branche. Was sind Ihrer Meinung nach die größten Herausforderungen in diesem Bereich?

Astrid Hennevogl-Kaulhausen: Nun, grundsätzlich gilt es heute zu bedenken, dass auch die physikalische Infrastruktur in den Rechenzentren dem erhöhten Datenaufkommen der Zukunft Rechnung tragen muss. Mehr Daten erfordern mehr Rechenleistung. Server und IT-Equipment werden zwar immer leistungsstärker und Technologien wie Virtualisierung tragen zu mehr Energieeffizienz bei. Dennoch benötigen RZ-Betreiber de facto immer mehr Equipment, das immer mehr Strom benötigt und immer mehr Wärme erzeugt. Heute geht es im Bereich der physikalischen Infrastruktur nicht mehr nur darum, ob der benötigte Strombedarf gedeckt werden kann, sondern es wird immer wichtiger, wirklich effiziente Maßnahmen für die Stromversorgung sowie für Wärmezu- und -abfuhr zu finden.

Produkte für konvergente Stromversorgung (CPS - Converged Power Systems) sind hier ein bereits bestehender Ansatz. Sie bieten im Vergleich zu herkömmlichen Systemen eine höhere Verfügbarkeit, volle Skalierbarkeit sowie einen kompakten Formfaktor. Solche CPS-Lösungen stellen alle Komponenten bereit, die für die Stromanforderungen in Datacentern benötigt werden. Dadurch tragen sie schon einmal direkt zu einer Senkung der Gesamtbetriebskosten bei.

In Zukunft werden wir gerade im Bereich der Stromversorgung noch bessere Lösungen benötigen. Die Bestrebungen des Open Compute Project (OCP) liefern hier schon sehr interessante Ansätze. Es ist, glaube ich, das erste Mal, dass Veränderungen im Bereich der Hardware-Technologie von Seiten der Stromversorgung getrieben werden.

Was genau macht das Open Compute Project und welche Rolle spielt Delta dabei?

Astrid Hennevogl-Kaulhausen: Das Open Computer Project wurde im Juni 2011 in Kalifornien gegründet. Das Hauptziel ist es, Spezifikationen für möglichst energieeffiziente und preiswerte Hardware zu entwickeln. Dazu gehören Komponenten wie Server oder Storage-Systeme sowie komplette Racks. Im Prinzip alle Komponenten, die Cloud-Anbieter und RZ-Betreiber benötigen.

Die Standardisierung von Server-Hardware und Schnittstellen spielt hierbei eine wichtige Rolle. Ebenso die Entwicklung eines neuen Rack-Designs. Delta ist seit Mai 2012 Mitglied in dem Team, das sich der Entwicklung neuer Rack-Designs widmet. Eine wesentliche Bestrebung ist es zum Beispiel, Akkus direkt in offenen Racks zu integrieren. Durch diese Integration moderner kompakter Lithium-Ionen-Akkus unmittelbar in die Racks können Cloud- und RZ-Anbieter sich zukünftig beispielsweise große zentrale USV-Räume sparen.

Die Stromverteilung innerhalb der Racks läuft dann über Gleichstrom. Die lokalen Batterien können dann auch einspringen und den Betrieb sicherstellen bis zum geregelten Herunterfahren der Systeme oder bis der Notstromgenerator hochgefahren ist. Es ist auch möglich, USVs auf Gleichstrombasis mit in ein solches Rack zu integrieren.

Das klingt spannend. Allerdings ist die direkte Integration von Akkus in das Rack gerade in Deutschland nicht so ohne weiteres möglich. Wie können RZ-Betreiber dennoch von diesen Entwicklungen profitieren?

Astrid Hennevogl-Kaulhausen: Sie können zum Beispiel in jeder Rack-Reihe einen dezentralen Akku-Schrank anordnen oder auch mit einer zentralen Batterie außerhalb des White Space arbeiten. Der grundsätzliche Vorteil ist: Je weniger der Strom umgewandelt werden muss, je höher ist der Wirkungsgrad.

Und das wirkt sich auch auf die Kosten aus. Denn eine geringere Flussleistung bedeutet auch weniger operative Kosten. Durch den Einsatz solch moderner Lösungen lässt sich der Wirkungsgrad um bis zu vier Prozent steigern - und zwar für den gesamten RZ-Betrieb. Mein Kollege John Laban (EMEA Representative OCP) wird hierzu auf dem DataCenter Day einen interessanten Vortrag halten und mehr Details und Informationen zu diesem Thema liefern.

Wie sollte mit der anfallenden Wärme in den Rechenzentren umgegangen werden? Welche Trends sehen Sie hier?

Astrid Hennevogl-Kaulhausen: In den nächsten Jahren müssen wir uns ganz klar mit konkreten Lösungen für eine optimierte Klimatisierung und vor allem über eine sinnvolle und effiziente Wärme-Abfuhr aus dem Datacenter beschäftigen. Fakt ist: Die RZ-Betreiber tragen wesentlich zu einer erhöhten Wärmeproduktion bei. Hier gibt es noch sehr viel Entwicklungspotenzial.

Im Bereich der freien und der adiabatischen Kühlung (Verdunstungskühlung) gibt es bereits gute Ansätze und Lösungen. Das trägt schon einmal zu einem verbesserten Wirkungsgrad der Komponenten und zu reduzierten Energiekosten bei. Doch gerade im Bereich der Wärme-Abfuhr und der sinnvollen Wiederverwertung gibt es noch viel zu tun. Die skandinavischen Länder sind hier schon weiter als Deutschland. In Schweden und Dänemark gibt es erste Ansätze zur Einspeisung der überschüssigen Wärme aus Rechenzentren in das Fernwärmenetz.

Staffan Revemann zur Wärmerückgewinnung im Rechenzentrum

Ja, sind wir noch zu retten? Wir ignorieren Best Practices

Staffan Revemann zur Wärmerückgewinnung im Rechenzentrum

12.09.17 - Datacenter sind heute schon große Verbraucher elektrischer Energie, und der Bedarf steigt mit zunehmender Digitalisierung, schnell und kontinuierlich. Noch sind die Effizienzsteigerungen durch stromsparendere Anlagen und IT nicht ausgereizt, doch der Nachhaltigkeitsschub fällt zu gering aus. Wer mehr für die Umwelt und den Geldbeutel erreichen will, muss die Wärme, die die IT erzeugt, zurückgewinnen. lesen

Facebook baut in Dänemark ein Datacenter mit Abwärmenutzung

Rechenzentrum sorgt mit 100.000 Megawattstunden für saubere Energie

Facebook baut in Dänemark ein Datacenter mit Abwärmenutzung

13.09.17 - Im dänischen Odense entsteht ein neues Facebook-Rechenzentrum. Bereits im Januar 2017 erfolgte der erste Spatenstich, im Jahr 2020 soll es in Betrieb gehen. Der Clou aber liegt im Anschluss an das örtliche Fernwärmenetz. lesen

Ein weiteres Datacenter mit Anschluss ans Fernwärmenetz – in Stockholm

Server-Hitze für 10.000 warme Stuben

Ein weiteres Datacenter mit Anschluss ans Fernwärmenetz – in Stockholm

18.09.17 - Am 1. Januar 2019 soll das Rechenzentrum von Multigrid in Kista Science City, Stockholm, an den Start gehen. Es ist für mehrere Kunden ausgelegt und wird das Fernwärmenetz von Fortum Värme mit seiner Abwärme versorgen. 10.000 Haushalte können davon profitieren. lesen

H&M plant in Stockholm ein Datacenter mit Fernwärmezufuhr

Wärme aus Rechenzentrum heizt schwedische Haushalte

H&M plant in Stockholm ein Datacenter mit Fernwärmezufuhr

12.07.17 - Das schwedische Textilhandelsunternehmen H&M wird in Stockholm ein Rechenzentrum bauen, das die Abwärme in ein Fernwärmenetz einspeist. lesen

Die Entwicklungen in diesem Bereich stecken allerdings noch in den Kinderschuhen. Damit hier nachhaltige Lösungen entstehen können, müssen auch die Sektoren Energiewirtschaft und Informationstechnologie enger zusammenarbeiten. Für uns ist das ein brandaktuelles Thema, mit dem wir uns intensiv beschäftigen. Darüber hinaus arbeiten wir intensiv daran, Monitoring und Management in Rechenzentren noch effizienter und vor allem übergreifender zu gestalten.

Welche konkreten Bestrebungen unternehmen Sie in diesem Bereich?

Astrid Hennevogl-Kaulhausen: Für uns ist es wichtig, den Bereich der Gebäudeleittechnik von Anfang an mit einzubinden. Dazu gehören zum Beispiel auch die Steuerung der Beleuchtung, der Alarmsysteme und mehr. Wir wollen ein Gesamtkonzept für „Smart Building“ liefern, mit dem effiziente und übergreifende Steuerung und Analyse möglich sind. Nur so können Gebäude- und IT-Technik in Zukunft effizient zusammenarbeiten. Deshalb wird es immer wichtiger, ein möglichst umfassendes Gesamtbild des kompletten Rechenzentrums in einer zentralen Managementplattform abbilden zu können.

DCIM-Software (Data Center Infrastructure Management) fungiert dabei als zentrale Konsole für eine übergreifende Echtzeitsteuerung. Sie bietet ein umfassendes Überwachungssystem für Strom-, Energie-, Anlagen-, Arbeitsaufwands-, Sicherheits- und Kapazitätsmanagement. So ermöglicht es die Software, die Infrastruktur sowie Teile der Gebäudeleittechnik abzubilden. RZ-Betreiber erhalten schnell und einfach einen Überblick, der einerseits täglich Monitoring-Daten über den laufenden Betrieb und das optimale Funktionieren aller Komponenten und Systeme liefert. Und der andererseits als Planungsgrundlage für weitere Implementierungen, Umbaumaßnahmen oder Erweiterungen dient.

Unsere DCIM-Lösung (siehe: Abbildungen 5 und 6) trägt zusammen mit den Produkten von Delta Controls und Loytec, die ebenfalls zur Delta Gruppe gehören, wesentlich dazu bei, RZ-Betreibern einen möglichst kompletten „Digitalen Zwilling“ zur Verfügung zu stellen. Dieser unterstützt Unternehmen dabei, im Vorfeld zukünftige Planungen zu simulieren und dadurch die Planungs- und Bauphase insgesamt zu verkürzen, das Fehlerpotenzial zu minimieren und so die Kosten zu senken. Unterschiedliche Module ermöglichen es, eine optimale Verwaltung der physikalischen IT und der Gebäudeinfrastruktur zu erreichen.

Die Software bietet zudem zwei unterschiedliche, kundenspezifisch angepasste Ansichten für IT- und Facility-Management. So kann jede Abteilung auf die individuell benötigten Informationen aus dem gemeinsamen Datenpool zugreifen. Ein wesentlicher Vorteil der Lösung ist es, dass wir Drittanbieter über SNMP oder andere Protokolle und Hardware-Signale direkt einbinden können. Das vereinfacht es, beispielsweise Wartungsaufträge oder Bestellungen zu planen, Berichte oder Dokumentationen hochzuladen oder sogar Support-Tickets bei Zulieferern aufzumachen. So ermöglichen es DCIM-Lösungen, dass Gebäude- und IT-Technik in Zukunft effizienter zusammenarbeiten können.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44939190 / Klimatechnik)