Uptime Institute Global Data Center Survey 2020 Männergesellschaft Rechenzentrum

Von M.A. Jürgen Höfling

Anbieter zum Thema

Der diesjährige weltweit ausgerichtete Report des Uptime Institute über den Ist-Stand in den Rechenzentren thematisiert viele technische und organisatorische Aspekte. Gesellschaftlich skandalös ist aber der Befund, dass Frauen in Datacenter-Gefilden kaum vorkommen.

Frauen sind rar in der Welt der Rechenzentren
Frauen sind rar in der Welt der Rechenzentren
(Bild: Olaf_Schneider_pixelio.de)

Rechenzentren sind die Nervenzellen der Weltwirtschaft, in Corona-Zeiten mehr denn je. Und nach vor ist das Rechenzentrum, das man im eigenen Haus und dadurch stets im Blick hat, trotz aller Cloud-Konkurrenz alles andere als ein Auslaufmodell. Das jedenfalls ergibt sich aus der diesjährigen weltweit angelegten Befragung von IT- und Rechenzentrums-Managern durch das Uptime Institute: Rhonda Ascierto, Andy Lawrence: Tenth annual Uptime Global Survey of IT and Data Center Managers, New York 2020.

Die Mehrheit (58 Prozent) aller weltweit befragten Manager (25 Prozent aus Europa) gab zu Protokoll, dass 69 Prozent der Prozesslasten im hauseigenen Rechenzentrum abgewickelt werden: Für 2022 prognostiziert Uptime einen Prozentsatz von 63 Prozent. Die Analysten schließen aus dieser Prozentzahl und anderen Ergebnissen der diesjährigen Studie, dass das Vor-Ort-Rechenzentrum auch noch in zehn Jahren eine starke Stellung im Markt haben wird.

Mangelnder Durchblick bei Outsourcing

Uptime führt eine Reihe von Gründen auf, warum sich immer noch viele Unternehmen für ein oder mehrere eigene Rechenzentren entscheiden.

  • Auf lange Sicht haben die Unternehmen eine bessere Kostenkontrolle, auf kurze Sicht spart man die Transportkosten zum Outsourcing-Partner
  • Eigene Rechenzentren erleichtern die Einhaltung von gesetzlichen und
  • innerbetrieblichen Vorschriften und Maßgaben
  • Technische Parameter wie Latenzen, Verfügbarkeiten und Anwendungs-Performanz hat man bei eigenen Rechenzentren besser unter Kontrolle
  • Man kann das Risiko-Profil jeder Anwendung genauer kontrollieren
  • Die Sicherheitsmaßnahmen sind besser zu steuern

Fairerweise listen die Analysten gleichermaßen die Vorteile von verschiedenen Facetten von Outsourcing auf:

  • Kurz- und mittelfristig sind die Kosten bei Outsourcing geringer. Und für Unternehmen, deren Geschäftsmodell auf dem Internet aufbaut, stellt sich die Frage eigener Rechenzentren selten bis nie
  • Outsourcing senkt im Idealfall die IT-Kapitalkosten auf Null
  • Beim Auslagern der IT-Prozesse sind neue Anforderungen schnell und kostengünstig umzusetzen
  • Der Zugriff auf neue und neueste Technologie lässt sich bei Outsourcing besser, schneller und kostengünstiger durchführen
  • Neueste Technologien sind auch in Sachen Sicherheit bei Outsourcing günstiger zu haben

Wenn man die beiden Aufstellungen unvoreingenommen liest, dann stellt sich einem schon die Frage, warum die eigene Rechenzentrumslandschaft wirklich eine gleichwertige Option zur Auslagerung der IT (Cloud, Co-Location etc.) sein soll. Im Grunde ist eine Entscheidung „für das Selbermachen“ in erster Linie gesteuert durch die Angst vor Kontrollverlust beziehungsweise mangelndem Vertrauen in die Dienstleister.

Die Zahlen der Uptime-Befragung sind eindeutig.

  • Nur 17 Prozent der Befragten geben an, dass sie unternehmenskritische Applikationen in eine öffentliche Cloud geben und dass ihnen der „Durchblick“ für das, was abläuft, dabei ausreicht.
  • Weitere 10 Prozent geben unternehmenskritische Anwendungen zwar auch in eine öffentliche Cloud, haben aber bezüglich Transparenz sowie Sicherheit und Compliance der Abläufe „Bauchschmerzen“.
  • Und 21 Prozent geben zu Protokoll, dass sie kritische Anwendungen in die Cloud geben würden, wenn sie mehr Durchblick hätten, was beim Dienstleister genau abläuft.

Energie-Effizienz der Rechenzentren unbefriedigend

Ernüchternd sind die Ergebnisse der Studie bei der Energie-Effizienz. Der so genannte PUE-Wert (Power Usage Effectiveness) ist mit 1,59 schlechter als noch vor zwei Jahren (2018 lag er bei 1,58). Das heißt: Es wird immer noch viel zu viel Energie sinnlos in die Umgebung geblasen. Aber zugleich ist sicher: Alte Rechenzentren, die nicht wirklich umgebaut werden können beziehungsweise nicht veränderbare Reste in weitgehend umgebauten Rechenzentren vermiesen nicht selten die Gesamtbilanz.

Neu gebaute Großrechenzentren für Cloud-Services haben zuweilen PUE-Werte von 1,2. Aus der Perspektive der Energie-Effizienz ist insofern die Prognose aus der Uptime-Umfrage, dass die unternehmenseigenen Rechenzentren noch lange nicht ausgedient haben, eine eher schlechte Botschaft.

Im Übrigen ergibt die Uptime-Studie auch, dass mittlerweile die Rechenzentrums-Server nicht mehr so schnell wie noch vor fünf Jahren gegen neuere Energie-effizientere Teile ausgetauscht werden. Im Jahr 2015 waren drei Jahre die am häufigsten genannte „Laufzeit der Server bis zum Austausch“, Im Jahr 2020 wurden fünf Jahre am häufigsten genannt.

Viele Unternehmen erfassen Systemabstürze überhaupt nicht

Eine heikle Sache bei Umfragen wie der hier referierten des Uptime-Institute ist die Frage nach Systemausfällen und deren Auswirkungen auf das Geschäft. Kein Unternehmen wird gern zugeben, dass es in den Rechenzentren des eigenen Unternehmens erhebliche Störungen gegeben hat.

Die Autoren der Studie sehen diese Problematik durchaus. Gerade wegen dieser Zurückhaltung und des damit einher gehenden Unsicherheitsfaktors sind die Zahlen, die in puncto Systemabstürze und deren Auswirkungen in der diesjährigen Studie herausgekommen sind, nach Ansicht der Analysten Besorgnis erregend.

Laut der abgegebenen Antworten ist die Zahl der Systemabstürze zwar von 2019 auf 2020 nicht exorbitant gestiegen, wohl aber die finanziellen Auswirkungen dieser Unterbrechungen. So erhöhte sich die Zahl der Havarien, die einen Schaden bis zu 1 Million Dollar verursachten, um zwölf Prozentpunkte auf 40 Prozent gegenüber dem letzten Jahr. Die Havarien, die über eine Million Dollar Schaden verursachten, gingen um sechs Prozentpunkte auf 16 Prozent hoch. Was die Analysten darüber hinaus beunruhigend finden, ist die Tatsache, dass nur etwa die Hälfte aller befragten Unternehmen den Schaden von Havarien überhaupt in Zahlen fassen.

Unklare Verantwortungshierarchien

Es passt in dieses eher düstere Bild, dass viele Unternehmen offenbar ganz bewusst genauere Zahlen, was Schadenshöhe und Schadensfolgen betrifft, gar nicht wissen wollen. Auch ist die Zuordnung der Verantwortung in den meisten Unternehmen eher unklar. Über 75 Prozent der Befragten sagen, dass der jeweilige Systemabsturz durch präventive Maßnahmen hätte vermieden werden können.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Die Analysten vermerken indes, es sei ziemlich unklar, was mit dieser Aussage konkret gemeint sei; ob sie als Selbstkritik zu interpretieren sei, oder als Kritik an unterlassenen Maßnahmen des Managements, oder umgekehrt als Kritik des Managements an den IT-Managern vor Ort oder auch ganz allgemein als Klage darüber, dass nicht „genug Geld für Sicherheits-Maßnahmen in die Hand genommen wurde“.

Apropos Verantwortung: Die Studienergebnisse zeigen, dass Unternehmen, die keine Systemabstürze hatten beziehungsweise keine gravierenden (finanziellen) Einbußen aus den Havarien zu verzeichnen hatten, in der Regel solche sind, bei denen die Verantwortung für regelmäßige Stabilitätstests im mittleren oder gar oberen Führungskreis angesiedelt ist.

Regelmäßige Tests sind laut Uptime-Analysten nicht zuletzt auch notwendig, um festzustellen (zum Beispiel gegenüber internen und externen Kunden), inwieweit die bereitgestellten IT-Services mit den geschäftlichen Erfordernissen im Einklang sind. Oft entstehe nämlich eine Nicht-Verfügbarkeit von Services dadurch, dass sich die „Kritikalität von Services“ geändert habe und die IT nicht nachgezogen habe.

Solche Asymmetrien könne man nur durch ständige Tests erkennen, die aber nur von zwei Dritteln der Befragten überhaupt gemacht würden. Und von denjenigen, die sie machen, führt sie wiederum nur ein Bruchteil regelmäßig durch.

„Stabiles Ungleichgewicht“ bei Männern und Frauen

Die Defizite, die der Global Data Center Survey 2020 des Uptime-Instituts auflistet, haben viele Ursachen, menschlicher Schlendrian und Verantwortungsscheu gehören sicher mit dazu. Ein gewichtiger Grund liegt aber nicht zuletzt darin, dass gut ausgebildetes Personal weltweit immer rarer wird.

Mittlerweile klagt die Hälfte der Befragten darüber, dass man nicht genügend qualifizierte Ingenieure, Techniker und Informatiker für die Jobs in den Rechenzentren und für die Aufgaben um die Rechenzentren herum findet. 2018 waren es erst 38 Prozent, die über den Mangel an Personal mit ausreichenden Skills klagten, letztes Jahr dann 41 Prozent.

Werden Künstliche Intelligenz-Automatismen hier Entlastung bringen? Zwei Drittel der Befragten sind hier skeptisch und ein gutes Drittel glaubt ganz generell nicht an Erleichterungen durch KI in diesem Bereich.

Mit der Knappheit an qualifiziertem Personal geht ein groteskes Ungleichgewicht der Geschlechter unter den Beschäftigten im Rechenzentrums-Sektor einher. Gerade einmal in 4 Prozent aller Rechenzentren halten sich bei den Beschäftigen Männer und Frauen die Waage. Und in 25 Prozent der befragten Unternehmen sind im Rechenzentrums-Bereich überhaupt keine Frauen beschäftigt.

Diese beiden Werte sind laut Uptime-Institut seit Jahren stabil. Das ist eine Art von Stabilität im Rechenzentrum, auf die wir alle gern verzichten können, kann man da nur sarkastisch formulieren.

(ID:46806044)