Chancen und Risiken für die Datacenter-Branche im Jahr 2019

Die Top 10 Datacenter-Trends von Uptime Institute Research

| Autor: Ulrike Ostler

Was hält das Jhar 2019 an Herausforderungen, Aufgaben und Chancen für die Datacenter-Betreiber parat? Das Uptime Institut hat sich auf die Suche nach Trends gemacht, die das Geschehen im Markt und in den Rechenzentren selbst beleuchten.
Was hält das Jhar 2019 an Herausforderungen, Aufgaben und Chancen für die Datacenter-Betreiber parat? Das Uptime Institut hat sich auf die Suche nach Trends gemacht, die das Geschehen im Markt und in den Rechenzentren selbst beleuchten. (Bild: gemeinfrei - geralt/Pixabay / CC0)

Die Bedingungen für und die Einflussfaktoren auf den Bau, die Modernisierung und den Betrieb von Rechenzentren ändern sich massiv – nicht immer zum Positiven; So verursachen Frachkräftemangel aber auch das außerordentliche Wachstum Verzögerungen in der Lieferkette. Zugleich schaffen Innovationen in den Bereichen Vernetzung, Leistung und Belastbarkeit neue Möglichkeiten. Das Uptime-Institut hat sich die Trends für 2019 genauer angeschaut.

Gesamtleistung, Serviceverfügbarkeit und Sicherheit sind die wichtigsten Anliegen der Datacenter-Betreiber, die sich durch zunehmende Interdependenz und Komplexität der Ökosysteme noch verstärken. Daher sind Strategien zur Abwägung von Risikominderung und Kostenkontrolle entscheidend.

Darüber hinaus hat Uptime Institute Research zehn Schlüsselbereiche identifiziert, die das Potenzial haben, traditionelle Rechenzentrumskonzepte und Betriebsprozesse zu transformieren:

1. Hyperscaler reizen ihre Ökosysteme bis an die Grenzen aus.

Die sich beschleunigenden Anforderungen großer Cloud-Betreiber nach mehr Rechenzentrumskapazität verzerren und belasten das Ökosystem von Lieferanten, Bauherren, Betreibern und Energieversorgern.

2. Regierungen sorgen sich und verstärken Aufsicht sowie Regulierung

Regierungen auf der ganzen Welt sind zunehmend besorgt über die Gewinne und die Macht großer IT-Unternehmen - und über die Abhängigkeit der Gesellschaft von dieser unsichtbarer Infrastruktur.

3. Der Übergang zu größerer Agilität verläuft holprig.

Unterbrechungen und oft schwerwiegende Ausfälle werden anhalten, da die Betreiber mit der Komplexität der Bereitstellung verteilter, hybrider Systeme über mehrere Rechenzentren und Dienste hinweg zu kämpfen haben.

4. Der Hyper um die Edge Rechenzentren entwickelt sich schneller als die Bereitstellung.

Die Nachfrage nach kleinen, hochmodernen Rechenzentren kommt langsamer als prognostiziert. Probleme mit Sicherheit, Kosten, Geschäftsmodellen, Integration, Vernetzung und 5G-Rollout werden die Akzeptanz auch 2019 einschränken.

5. Connectivity is king.

Die Nachfrage nach schnellen und sicheren Netzwerkverbindungen sowohl zu Handelspartnern als auch zu Cloud-Betreibern steigt und steigt, da das Netzwerk zum kritischen Bestandteil der hybriden Infrastruktur wird.

6. Fachkräftemangel erzwingt neue Strategien.

Auch bei Automatisierung und Künstlichen Intelligenz (KI) wird sich der Personalengpass im Rechenzentrumsbereich verschärfen. Um mit der heutigen Nachfrage Schritt zu halten und eine drastische Unterdeckung zu vermeiden, werden die Betreiber von Rechenzentren daran arbeiten müssen, die Skills ihrer Mitarbeiter zu stärken - mit neuen Initiativen, Einstellungsstrategien und Mitarbeiterschulungen.

7. Der Klimawandel zwingt zur Überprüfung der Nachhaltigkeit.

Die mit dem Klimawandel verbundenen Risiken werden drängender, vielfältiger und umfangreicher sein, als es die IT-Planung bisher erwartet hatte. Die Ausfallsicherheit von Rechenzentren ist heute wichtiger denn je – und, so das Uptime-Institut deren Überprüfung und Zertifizierung.

8. Wirtschaftliche Zwänge sorgen für Akzeptanz von KI im Rechenzentrum.... vielleicht.

KI-basierte Ansätze zur Analyse von Risiken und Möglichkeiten der Effizienzsteigerung im Rechenzentrum, auch durch Cloud-Services, werden sich in großen Implementierungen bewähren und so die Akzeptanz im Mainstream fördern - im Laufe der Zeit wid daraus eine hohes Maß an Akzeptanz.

8. Wachsende Bedrohungen erfordern neue „Zero-Trust“-Ansätze.

Mit der noch zunehmenden Bedeutung der Rechenzentren für die Industrie und Gesellschaft treffen Schwachstellen nun auch verstärkt unternehmenskritische Einrichtungen. Unternehmen müssen daher strengere Richtlinien an die Rechenzentrumsausrüstung, Dienstleistungen, Auftragnehmer, Lieferanten und Mitarbeiter stellen.

10. Energieversorgung wird programmierbar.

Eine Kombination aus Lithium-Ionen-Batterien und neuen Formen der Energiespeicherung bietet Rechenzentrumsbetreibern zugleich neue Hebel zur Verbesserung der Rechenzentrumsleistungen, -effizienz und -agilität.

Die Transformation durch Hyperscaler

Die Anforderungen, die Hyperscaler an ihre Rechenzentren stellen, haben die Lieferkette der bereits umgewandelt. So sorgt der Sog durch diese Masse dafür, dass sich die Konkurrenz der Rechenzentrumserbauer und -betreiber etwas überlegen mussten und müssen, um für Neukunden attraktiv zu sein, zum Beispiel durch den Einsatz individuell angepasster IT, Verstärkung im Verkauf und Co-Engineering mit Anlagenherstellern.

Dennoch: Heute schon bestimmen Hyperscale-Kunden die Lieferantenbeziehungen in Bezug auf Kosten, Design und Produktion. Außerdem wächst die Kapazität im Hyperscale-Segment stärker als in den anderen Bereichen der Datacenter-Branche. Die globale Auslastung im Jahr 2018 war etwa doppelt so hoch wie vor zwei Jahren – mit regionalen Unterschieden, versteht sich.

Für das Jahr 2019 erwarten Andy Lawrence, Rhonda Ascierto und Kevin Heslin, vom Uptime-Institut und Macher der Trendstudie, dass sich Betreiber und Lieferanten auf eine stärkere Standardisierung konzentrieren. Das gilt für die Konzeption von Rechenzentren und Anlagen, von Build-Ansätzen bis zu von inkrementellen Leistungsanforderungen.

Die größeren Anbieter unter den Lieferanten indes dringen zudem auf mehr Transparenz hinsichtlich der erwarteten Nachfrage bei den Hyperscaler. Kleinere Lieferanten aber haben es schwer. Wie die Analysten schreiben, werden sie zwar noch wachsen, feststellen, dass ihre Margen sinken. Das aber liege an ihrer eingeschränkten Position in der Lieferkette.

Gesetze und Regularien

Wurde das Aufkommen von Amazon, Facebook, Google …. In den Anfängen als positive Kraft verstanden - die IT fördert Innovation, Produktivität und Handelsfluss (für einige) , schafft Arbeitsplätze, Wohlstand und Investitionen in die Infrastruktur, treten derzeit die Nachteile in den Vordergrund: mangelnde Privatsphäre, Monopolstellungen, Energieverbrauch beziehungsweise CO2-Emissionen, fragwürdige Beschäftigungspraktiken und Steuerschummeleien. Laut den Uptime-Institut-Analysten können sich vor allem die Internet-Giganten in den kommenden Jahren auf ein skeptisches und gelegentlich frostigeres Klima erwarten und müssen mit Widerständen rechnen.

Regierungen auf der ganzen Welt reagiert. Neue Vorschriften und Steuern sollen die Privatsphäre des Einzelnen schützen, die Cyber-Sicherheit verbessern, Infrastrukturinvestitionen erhöhen, Ausfallzeiten mildern und/oder soziale Störungen begrenzen. „Erwarten Sie mehr im Jahr 2019 und darüber hinaus“, heißt es im Report.

Der Wandel zur Nutzung verteilter und unterschiedlicher Ressourcen

Wie die Studienmacher schreiben, befindet sich die IT-Branche inmitten eines großen und schwierigen Übergangs - von einzelnen, sicheren und streng verwalteten Rechenzentren zu einem Netzwerk aus verteilten, dynamisch miteinander verbundenen Systemen, die Clouds, Microservices und softwaredefinierte Netzwerke (SDN) bereitstellen. Die dafür notwendige neue Architektur entsteht erst und wird teils aus neuen Rechenzentren, Netzwerken und Systemen, teils aus bestehenden Infrastruktur bestehen, die ausgebaut werden. Das Ergebnis ist ein kompliziertes verteiltes Grid, das eine Vielzahl von Anwendungen und Diensten unterstützt.

Laut Studie gibt Hinweise darauf, dass der beste - aber nicht unbedingt billigste - Weg, um die Ausfallsicherheit zu gewährleisten, darin besteht, Redundanz auf Standort- und Netzwerkebene mit verteilter IT und robusten Architekturen unter Verwendung von Cloud-Technologien zu kombinieren. Wenn die Branche 2019 in diese Richtung geht, steht ein teilweise schmerzhafter Lernprozess an.

Bruchlandungen und Erdrutsche sind unvermeidlich.
Bruchlandungen und Erdrutsche sind unvermeidlich. (Bild: gemeinfrei - geralt/Pixabay / CC0)

Die Edge-Rechenzentren

Die Nutzung verteilter Ressourcen ist in der IT kein neues Thema. Doch jetzt treiben vor allem das Internet der Dinge (IoT) und das Aufkommen von Mobile Edge Computing (MEC) die Entwicklung an. Internet der Dinge heißt: Sensoren, Messgeräte, Mobiltelefone und medizinische Geräten beispielsweise, die „kommunizieren – untereinander und vor allem mit den Rechenzentrumssystemen. Virtual und Augmented Reality wird parallel dazu eingeführt.

Die erzeugten Daten steigern die Nachfrage nach Rechenzentren aller Art:

  • solche in der Nähe („local edge“ oder „edge“) für die erste Verarbeitung vor Ort, Analyse und Weiterleitung;
  • solche innerhalb eines lokalen Bereichs, bezeichnet als „near“ oder „regional“ edge, die für die Verbindung, Integration und Weiterleitung von Daten benötigt werden,
  • und solche in der Ferne - beispielsweise Hypersclae-Einrichtungen („core“) für die Weiterverarbeitung, Analyse und Archivierung.

Uptime Institute Research hat bereits eine signifikante Nachfrage nach neuen, innovativen Rechenzentren prognostiziert, insbesondere nach Mikrorechenzentren. Dabei handelt es sich um vollständig gekapselte, integrierte, fernverwaltete und kleinflächige Anlagen, die oft an Datennetz gekoppelt sind und typischerweise weniger als 150 Kilowatt IT-Kapazität aufweisen.

Nach wie vor sei anzunehmen, so die Studienmacher, dass Mikrorechenzentren, die mit diskreter Kapazität oder als modulare, inkrementelle Blöcke großer Implementierungen eingesetzt werden können, viele Anwendungsfälle finden werden - für effiziente Upgrades von Netzwerkschränken und für die Unterstützung der Datenanalyse, -speicherung und -resilienz von IoT-Geräten in intelligenten Fabriken, Gebäuden und anderswo.

Diese neue Welle Nachfrage nach Computing in der Edge werde transformativ sein und einen Teil der aktuellen Aufmerksamkeit und des Hype rechtfertigen, so die Studie. Aber, wie es für große neue Märkte typisch sei, brauche die Einführung in großem Maßstab Zeit. „2019 wird nicht das Jahr für den Durchbruch sein, da die geschäftlichen und technischen Probleme noch nicht vollständig gelöst sind.“

Software Defined Networks (SDN)

SDN ermöglicht es Nutzern einer wie immer gearteten Cloud-Plattform, virtuelle private Verbindungen zu anderen bereitzustellen: zu Public Clouds, Service Providern, Partnern und Lieferanten in verschiedenen Rechenzentren und Regionen. Der Datenverkehr wird sicher und vorhersehbar und das hilft letztlich, die Kosten Verbindungskosten zu senken.

2019 werde weitere SDN-Implementierungen, etwa bei den Co-Locator, bringen, so das Uptime Institut. Wie die verschiedenen Anbieter miteinander vernetzt sein werden und miteinander konkurrierten, sei jedoch noch unklar: Die Kunden könnten auf mehr Offenheit drängen.

Die Nachfrage nach Fachpersonal

Die Umfrageergebnisse von Uptime Institute Research (und auch von DataCenter-Insider, siehe eBook: „Fachkräftemangel im Rechenzentrum“) deuten darauf hin, dass Rechenzentren weiterhin mit der Rekrutierung und Bindung von ausreichend qualifiziertem Personal kämpfen werden, um einen zuverlässigen Betrieb aufrechtzuerhalten und auszubauen. In der Umfrage des Uptime Institut gaben 2018 rund 45 Prozent der Befragten an, dass ein Mangel an Mitarbeitern in Rechenzentren das Wachstum der Rechenzentrumsbranche in den kommenden fünf bis sieben Jahren einschränken wird.

eBook „Fachkräftemangel im Rechenzentrum“

Fachkräftemangel im RechenzentrumDeutschland ist der drittgrößte Rechenzentrumsmarkt weltweit, es mangelt aber an Fachkräften. Die Mehrzahl der RZ-Betreiber findet nicht genügend Personal. In diesem eBook haben wir die Gründe dafür ausgelotet und nach Exit-Strategien gefahndet.  (PDF | ET 27.03.2018)

eBook herunterladen »

In einer weiteren Umfrage gaben 38 Prozent der Rechenzentrumsbetreiber an, dass sie Schwierigkeiten haben, qualifizierte Kandidaten für offene Stellen zu finden, und 17 Prozent hatten Schwierigkeiten, Personal zu halten.

Das Uptime Institute weist darauf hin, dass der Fachkräftemangel in der gesamten Branche spürbar sein wird, da Unternehmen mit der Besetzung traditioneller Positionen wie Betrieb und Management, Sicherheit, Netzwerkanbindung, Cloud Provisioning und Maschinenbau zu kämpfen haben, aber auch mit Compliance, Verträgen/SLAs/Vendor Management, Software, Finanz- und Supply-Chain-Management sowie unternehmerischer und sozialer Verantwortung.

Energie-Effizienz, Nachhaltigkeit und Risiko

„Niemand könnte der Rechenzentrumsbranche Selbstgefälligkeit oder straußenähnliches Verhalten vorwerfen“, heißt es im Trendbericht des Uptime Institute, stehe doch eine konservative Risikobewertung steht im Mittelpunkt des Designs und des Betriebs. Doch der Klimawandel und der Bedarf nach höherer Energie-Effzienz, nach neuen Konzepte, die notwendig sind, um der Verschleuderung von Abwärme entgegen- und einer sinnhafteren Bevorratung von Strom zuzuarbeiten, bestimmen viele der Diskussionen auch hierzulande.

Dazu kommt, dass ganz konkret der steigende Meeresspiegel, höhere und häufige Hochwasser, heftigere Stürme und andere Auswirkungen des Klimawandels unerwartete und potenziell große Herausforderung für die Betreiber von Rechenzentren darstellen können. Laut Uptime Institut dürfte das wiederum Risikobewertungen von vor drei oder fünf Jahren veraltet haben lassen.

Mit der Veranstaltung am 31. Januar sollen unterschiedliche Aspekte der Risikobetrachtung für Rechenzentren und IT-Unternehmen beleuchtet werden. Neben Cyber-Risiken, sind das etwa Risiken der Betriebs- und Lieferkettenunterbrechung, Naturkatastrophen, Wirtschaftssanktionen, Protektionismus, politische Risiken wie Terrorismus und Krieg und technische Betriebsrisiken wie Feuer, Wassereinbrüche und Stromausfälle.
Mit der Veranstaltung am 31. Januar sollen unterschiedliche Aspekte der Risikobetrachtung für Rechenzentren und IT-Unternehmen beleuchtet werden. Neben Cyber-Risiken, sind das etwa Risiken der Betriebs- und Lieferkettenunterbrechung, Naturkatastrophen, Wirtschaftssanktionen, Protektionismus, politische Risiken wie Terrorismus und Krieg und technische Betriebsrisiken wie Feuer, Wassereinbrüche und Stromausfälle. (Bild: Eco - Verband der Internetwirtschaft e.V.)

Hinweis: Am 31.01. 2019 bietet der Eco – Verband der Internetwirtschaft e.V. in Frankfurt am Main ein Diskussionsforum zur Risikodarstellung und Bewertung von Rechenzentren.

KI im Rechenzentrum

Rechenzentrumsbetreiber sind generell vorsichtig gegenüber unerprobten oder riskanten Technologien und Strategien, müssen sie auch sein. Doch so mancher Datacenter-Manager ist etwa beim Machine Learning (ML) weiter, als andere ahnen. Am häufigsten eingesetzt wird ML in Form einer Software zur Optimierung der dynamischen Kühlung, die den Betriebszustand von Kühlgeräten, Frequenzumrichter und Temperatursollwerte automatisiert. Mit der Einführung der ersten DMaaS-Angebote (Datacenter Management as a Service) im Jahr 2016 begann jedoch eine neue Welle der Verbreitung von KI in Rechenzentren.

eBook „KI im Rechenzentrum“

KI im RechenzentrumKünstliche Intelligenz ist im Datacenter-Umfeld neuerdings in aller Munde und Rechenzentren rüsten sich bereits für KI-Workloads auf und um. Das selbstverwaltende Rechenzentrum ist keine Vision mehr.  (PDF | ET 27.03.2018)

eBook herunterladen »

Mit DMaaS werden große Mengen an überwachten Daten über Geräte und Betriebsumgebungen aus verschiedenen Einrichtungen (und verschiedenen Kunden) verschlüsselt, in Datenpools zusammengefasst und mit ML – beispielsweise zur Erkennung von Anomalien und Strom-Ereignissen - analysiert. ML-getriebene Ergebnisse haben sich weitgehend auf die Verbesserung bestehender Prozesse konzentriert, wie die Verkürzung von Alarmvorlaufzeiten und Ursachenanalysen, die Verbesserung der PUE und die Optimierung des Nutzungsgrades - Anwendungsfälle, die spürbare betriebliche Einsparungen bringen.

Im Jahr 2019 wird der größte Teil von DMaaS mit einer wachsenden Anzahl von Anwendern zum Proof-of-Concepts ausgebaut. Die Analysten des Uptime Institute erwarten auch, dass damit auch der Grundstein für eine weitere Automatisierung gelegt wird.

Kontrolle ist besser

Für viele Datacenter-Betreiber ist die angemessene Überwachung von Personen und RZ-Equipment ein anhaltendes und lästiges Problem. Doch mit der zunehmenden Intelligenz und Vernetzung von Rechenzentren über IP-basierte Steuerungen und Geräte wächst die Art und Weise, wie sie gefährdet werden können.

Unternehmen verbinden sich oft über private Netzwerke mit Kontrollen und gewähren Zugang zur Außenwelt für die Unterstützung der Hersteller von Gebäude-Management-/Automatisierungssystemen und -anlagen. Während IT-Abteilungen sich für Sicherheitsansätze wie Zero-Trust interessieren, bei denen alle Zugriffsversuche auf IT-Systeme, sowohl interne als auch externe, überprüft werden, gibt es relativ wenige Rechenzentrumsabteilungen, die ähnlich ausgestattet sind.

Im Jahr 2019 aber werden wahrscheinlich mehr Rechenzentren ihre Bemühungen intensivieren und sich auf Richtlinien zubewegen, bei denen etwa der Zugang zu Netzwerkressourcen nur gewährt wird, wenn die dafür vorgesehenen Bedingungen erfüllt sind, einschließlich Tageszeit und Zugangsort. Die Sicherheit von softwaregesteuerten Geräten - Sicherheitsinvestitionen und Fokussierung muss mit zunehmenden Bedrohungen Schritt halten.

Strom kostet

Da Rechenzentren immer größer werden, steigen auch die Kosten für Strom und Stromverteilungsanlagen. Die Stromkosten sollen sinken ohne das Risiko zu erhöhen. Das Uptime Institute sieht drei wesentliche Tätigkeitfelder, in denen sich die Kosten reduzieren lassen:

  • Im Betrieb: Hier kann der Energie-Aufwand (zum Beispiel durch Minderung des PUE-Werts) gesenkt werden.
  • Bei der IT-Last: Die Auslastung erhöhen oder der Stromverbrauch der Systeme senken.
  • Beim Stromlieferanten: Verhandeln der Nebenkosten, Lager- und Serviceverpflichtungen

Seit fast zwei Jahrzehnten ist das Bemühen um Kostensenkung, insbesondere in der IT zu beobachten, so die Studienmacher, doch die Fortschritte seien begrenzt. Uptime Institute Research gehe davon aus, dass sich dies bald ändern könnte – durch die Verlangsamung von Moore's Law, der Aufstieg der Cloud, verbesserte Management-Tools, die Integration von IT die Gewerke und Gebäude sowie durch eine schnelle Einführung von Li-Ionen-Akkus.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45664387 / Design und Umgebung)