Die Marschrichtung ist vielen Unternehmen unklar

Quo vadis Datacenter?

| Autor / Redakteur: Kriemhilde Klippstätter / Ulrike Ostler

Wer Digitalisierung wil, braucht Rechenzentren. Umgekehrt lässt sich eine Datacenter-Transformation nur mit einem übergreifender Ansatz richtig angehen.
Wer Digitalisierung wil, braucht Rechenzentren. Umgekehrt lässt sich eine Datacenter-Transformation nur mit einem übergreifender Ansatz richtig angehen. (Quelle: IDC Multi-Client-Studie „Next Generation Data Center. Trends in Deutschland 2018“, November 2017)

Das Marktforschungsinstitut IDC hat interessiert, wie sich die deutschen Unternehmen auf die zukünftigen Herausforderungen von Digitalisierung, Internet of Things und IT-Transformation einstellen. Ergänzt wurde die Präsentation der Umfrageergebnisse am vergangenen Freitag von einer Gesprächsrunde aus Anbietern von Rechenzentrums- und Cloud-Diensten.

Weitgehend einig waren sich die Manager, dass Cyber-Risiken eine veränderte Infrastruktur im Datacenter und auch mehr Netzsicherheit erfordern. Ebenso beobachten sie, dass die Heterogenität der IT-Umgebungen dank IoT, Edge- und Cloud- Computing zunimmt und die digitalen Ökosysteme neue Anforderungen an Bandbreiten, Connectivity und Latenz stellen. Dabei rückt auch die engere Verbindung der hauseigenen IT zu Partnern und anderen Marktteilnehmern stärker in den Fokus.

Grundlage der Diskussion war eine Studie, die IDC in diesem Oktober erhoben hat, und zwar durch Befragung in 205 deutschen Firmen mit mindestens 500 Mitarbeitern die IT-Entscheider, die für die Beschaffung von IT-Infrastruktur verantwortlich sind. Inhalt ist der Status Quo ihrer Datacenter und deren Planung.

Kein Wunder also, dass die Befragten in den kommenden zwölf Monaten die Steigerung von Effizienz und Effektivität ihrer Rechenzentren ebenso im Blick haben wie das Dauerthema Kosteneinsparung. Ebenso wichtig ist für sie die Verbesserung von Security und Compliance. Das überrascht nicht; denn 78 Prozent der Befragten verzeichneten in den vergangenen zwölf Monaten bei ihren Datacenter entweder komplette Downtimes oder zumindest Einschränkungen bei der Bereitstellung von Services.

Fast drei Viertel wollen ihr Datacenter modernisieren

Anbieter von IT-Ressourcen dürften sich freuen, denn 73 Prozent der befragten IT-Manager müssen wegen der „drohenden“ oder bereits eingesetzten digitalen Transformation ihr Data Center erheblich modernisieren. „Eine Erweiterung bestehender Anlagen reicht ihnen nicht aus“, spezifiziert Matthias Zacher, Manager Research & Consulting bei IDC, die Ergebnisse.

Für ihn müssen Digitale Transformation und die Transformation der Datacenter als „ein übergreifender Ansatz“ gesehen werden. Konkret muss das DC um die Cloud (mit SaaS, PaaS und IaaS), Edge- und IoT-Strukturen sowie Innovationen wie etwa „Composable IT“ ergänzt werden.

Erreicht wird das durch sechs Building-Blocks, die die vorhandenen IT-Ressourcen in modernen Data Center ergänzen: Software Defined Infrastructure (vor allem wegen Automatisierung), Multi Cloud (Nutzung von zwei oder mehr Cloud-Diensten für einen Workload), Virtualisierung, Co-Location, für die sichere Verbindungen auch zu Lieferanten und anderen Partnern sowie converged- oder hyperconverged Systeme, die Hardware und Software entkoppeln.

Als innovativer Building Block kommen laut IDC Composable Infrastrukturen zum Tragen, bei denen die physischen Ressourcen im Datacenter (Rechner, Speicher, Netzwerke) als Service betrachtet und bei Bedarf in Pools zusammengefasst werden, also praktisch eine Virtualisierung des gesamten Rechenzentrums.

Was von dem haben die befragten Unternehmen bereits umgesetzt?

Im Bereich Software Defined Infrastructure (SDI) nutzen 33 Prozent OpenStack als Pilotprojekt oder sogar im produktiven Betrieb. 34 Prozent verfügen über Co-Location-Strukturen und Server Housing, immerhin 26 Prozent lösen ihr SAN komplett durch eine hyperkonverged Infrastruktur ab. Aber mehr als 90 Prozent der Befragten haben ihre Server virtualisiert.

Weniger als ein Prozent nutzen schon die Composable IT - das dynamische Bündeln und erneut Verteilen von IT-Ressourcen hat nicht einmal eine 'feste' Definition, weshalb die Befragten unterschiedliches darunter verstehen - und wer zwei oder mehr Cloud-Dienste parallel (Multi Clouds) im Einsatz hat, konnte IDC nicht ermitteln. Immerhin sollen aber 88 Prozent immerhin über eine Cloud-Strategie verfügen.

Auch über die Verwaltung der (neuen) Datacenter machen sich die Verantwortlichen Gedanken. 33 Prozent wollen in den kommenden zwölf Monaten ein Cloud System Management einführen oder bestehendes verbessern (siehe: Abbildung 10). 29 Prozent haben das Container Management im Fokus, 27 Prozent die Verbesserung von Help Desk und Ticketing. Interessant auch, dass mehr als ein Viertel Analytics für den IT-Betrieb einführen oder verbessern möchte.

Warum Automatisierung im Rechenzentrum so schwer umzusetzen ist

Das Problem mit der Katze und ihrem Schwanz

Warum Automatisierung im Rechenzentrum so schwer umzusetzen ist

25.09.17 - Von wegen Server, Virtual Machines, Storage- und Netzwerk-Systeme mühsam im Handbetrieb für neue Anforderungen umkonfigurieren. Im softwarebasierten Datacenter erledigt das der Administrator auf Knopfdruck. Doch um ein Software-Defined Datacenter einzurichten, ist eine Menge Arbeit nötig, und die muss eine eh überlastete IT-Abteilung zusätzlich erledigen. lesen

Unternehmen leiden unter Komplexität der IT

IDC organisierte eine Gesprächsrunde mit Vertretern von fünf Anbietern von Datacenter-Produkten und Cloud-Diensten. Ziemlich einig war sich die Runde, dass die IT-Verantwortlichen in den Unternehmen, insbesondere im Mittelstand, unter der wachsenden Komplexität leiden. Manfred Kessler, CEO vom Münchner Cloud Service Provider Global Access Internet Services greift als Beispiel die hyperkonvergenten Systeme heraus, die nicht so einfach zu nutzen sind, wie vielfach propagiert: „Von wegen plug and play“, berichtet er aus der Praxis und weist zudem darauf hin, dass solche Systeme nicht für alles im Datacenter geeignet sind.

„Manche Applikationen benötigen die volle Power, da nutzt ein konvergentes System wenig.“ Zudem sei es schwierig, alte und neue Stacks kombiniert anzubieten, „das klappt noch nirgendwo problemlos“, erläutert er. Alexander Best, Director Technical Business Development bei Datacore, plädiert allerdings für die integrierten Systeme, da diese „den Storage näher an die Applikation heranbringen“.

Die Münchner Diskussionsrunde: v.l.: Matthias Zacher, Manager Research & Consulting IDC, Manfred Kessler ,CEO Global Access Internet Services, Johannes Wagmüller, Director Systems Engineering bei Netapp, Donald Badoux, Managing Director Germany Equinix, Alexander Best, Director Technical Business Development bei Datacore, Markus Pleier, Director Germany & Austria bei Nutanix, sowie Lynn -Kristin Thorenz, Associate VP, Research & Consulting bei IDC.
Die Münchner Diskussionsrunde: v.l.: Matthias Zacher, Manager Research & Consulting IDC, Manfred Kessler ,CEO Global Access Internet Services, Johannes Wagmüller, Director Systems Engineering bei Netapp, Donald Badoux, Managing Director Germany Equinix, Alexander Best, Director Technical Business Development bei Datacore, Markus Pleier, Director Germany & Austria bei Nutanix, sowie Lynn -Kristin Thorenz, Associate VP, Research & Consulting bei IDC. (Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Ein anderes Thema war die Stabilität der IT. „Das Taxi-Unternehmen Uber darf nicht ausfallen“, sagt Kessler und verweist darauf, dass einige Firmen wie etwa Zalando eigene Layer eingezogen haben, damit der Cloud-Provider schnell gewechselt werden kann. Deshalb setzen 60 Prozent der Unternehmen heute auch auf zwei Standorte für ihre Datacenter, berichtet Donald Badoux, Managing Director von Equinix Germany. Das stabilisiere auch die Kommunikation mit Lieferanten und anderen Partnern, denn „das Eco-System mit der Umwelt wird wichtiger“.

Der häufigste Grund für ungeplante Downtime: Stromausfall

Datacore-Manger Best weist allerdings darauf hin, dass Stromausfall noch immer der Hauptverantwortliche für Downtime ist. Auch Software-Updates sollen nach Meinung von Dr. Markus Pleier, Director Germany & Austria bei Nutanix, heutzutage keine Downtime mehr verursachen: „Da muss die Infrastruktur funktionieren“, fordert er. Einig sind sich die Fachleute, dass die derzeitige Bewegung von Top-Cloud-Abietern wie Amazon von einem Tier-3- auf ein Tier-2-Rechenzentrum zu wechseln, deshalb sehr bedenklich sei.

Wie stellen sich die IT-Verantwortlichen in den Unternehmen auf die neue Situation ein? Einerseits sorgt die wachsende Komplexität für Probleme, da sie kaum und wenn, dann nur unter hohen Kosten beherrschbar ist oder – wegen Fachkräftemangel nicht mehr selbst zu bändigen ist. Weichen Firmen dann auf externe Anbieter aus, sieht sich der IT-Leister bedroht und ist es in vielen Fällen auch.

„Die IT-Administratoren haben Angst um ihre Jobs“, berichtet Datacore-Manager Best, obwohl die IT-Mitarbeiter doch für andere Aufgaben eingesetzt werden können. „Zurecht!“ ergänzt CEO Kessler von Global Access Internet Services. „Wer heute nicht agil entwickeln kann oder will oder der Automatisierung m Weg steht, muss gehen.“

Personalwechsel hinter den Kulissen

Auch Johannes Wagmüller, Director Systems Engineering bei Netapp, erläutert, dass die Automatisierung sich trotzdem nicht aufhalten lasse. Die Frage ist dann, ob sich eine Auslagerung in Cloud-Strukturen rechnet. Nutanix-Chef Pleier vermutet, dass bei zunehmender Automatisierung Vieles wieder zurück ins eigene Rechenzentrum wandern wird.

Die Diskussion darum, ob nicht auch die Anbieter von IT-Ressourcen und -Services ihre Geschäftsmodelle überdenken müssten, beantwortete das Podium damit, dass man den Kunden mehr Ausbildung und Workshops über neue Entwicklungen anbiete oder, wie Netapp es ausdrückt, zu fragen, was am besten für den Kunden passt.

Konkret empfiehlt Nutanix-Manager Pleier, die Unternehmen sollten ihre Workloads hinsichtlich Sicherheit, Lokalität etc. klassifizieren und – ganz wichtig – zu kommunizieren: „Man muss die Menschen bei der Transformation mitnehmen“. Datacore rät zu modularen Schritten um den Übergang in neue Datacenter-Strukturen nahtlos zu gestalten. Und schließlich, so CEO Kessler vom Cloud Service Provider Access, sei ab einer bestimmten Größe ein eigenes Rechenzentrum günstiger als Cloud Computing.

Fazit:

Die Wege zum neuen Data Center sind vielfältig, die Marschrichtung unklar, aber Weichen müssen trotzdem jetzt gestellt werden.

* Kriemhilde Klippstätter ist freie Autorin und Systemischer Coach (SE) in München.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45038919 / Virtualisierung)