KI und Big Data modellieren Rechenzentren für mehr Effizienz

Was ist Datacenter Predictive Modeling?

| Autor / Redakteur: Filipe Pereira Martins und Anna Kobylinska* / Ulrike Ostler

Das Bild zeigt die Modellierung eines Co-Location-Datacenter mit „6SigmaDCX Suite“ von Future Facilities.
Das Bild zeigt die Modellierung eines Co-Location-Datacenter mit „6SigmaDCX Suite“ von Future Facilities. (Bild: Future Facilities)

Ein Datacenter lässt sich im laufenden Betrieb an wechselnde Anforderungen kaum anpassen, denn unternehmenskritische Anwendungen dürfen nicht ausfallen, SLAs müssen eingehalten werden und Experimente kommen nicht in Frage. Lösungen aus dem Bereich DCPM, kurz für Datacenter Predictive Modeling, können in einem bisher ungekannten Maßstab Abhilfe schaffen.

Eine bessere Informationsbasis führt in der Regel zu besseren Entscheidungen. In der Vergangenheit mussten sich Datencenter-Betreiber ausschließlich auf Erfahrungen der Belegschaft verlassen. Neue Software-Produkte erlauben es, konkrete Messwerte zu erfassen und auszuwerten, um daraus unter Annahme verschiedener Rahmenbedingungen konkret umsetzbare Erkenntnisse zu gewinnen.

Prädiktive Datacenter-Modellierung mit „6SigmaDCX“ von Future Facilities.
Prädiktive Datacenter-Modellierung mit „6SigmaDCX“ von Future Facilities. (Bild: Future Facilities Ltd.)

Daher kommt der Begriff Datacenter Predictive Modeling. Diese Analyse befähigt das Management, das Datencenter auf verschiedene Szenarien vorab vorzubereiten, um auf fluktuierende Rahmenbedingungen flexibler reagieren zu können, ohne die Betriebsbereitschaft des Rechenzentrums aufs Spiel zu setzen.

„Zukünftige Modelle der Architektur eines Datencenters sind sehr dynamisch; Workloads werden problemlos übertragen und verwaltet“, sagt etwa Robert Schmidt, Ingenieur für Datencenter-Simulation bei der Future Facilities Ltd. Wer diesem Ziel heute näher kommen möchte, sollte auf prädiktive Modellierungswerkzeuge zurückgreifen.

Das neuronale Netzwerk bei Google - nicht ganz so offen

Die bemerkenswerte Energie-Effizienz seiner Datacenter, von denen sich einige eines PUE-Wertes von 1,06 rühmen, verdankt Google dem Einsatz Künstlicher Intelligenz (KI). Für das DCPM zeichnet bei Google ein neuronales Netzwerk verantwortlich.

Ergänzendes zum Thema
 
Das Fazit der Autoren

Mit einem PUE-Wert von 1,06 für einige der eigenen Standorte zählen Googles Datacenter klar zu der weltweiten Spitze; das Resultat verdankt der Suchriese u.a. der prädiktiven Modellierung durch das neuronale Netzwerk von Jim Gao.
Mit einem PUE-Wert von 1,06 für einige der eigenen Standorte zählen Googles Datacenter klar zu der weltweiten Spitze; das Resultat verdankt der Suchriese u.a. der prädiktiven Modellierung durch das neuronale Netzwerk von Jim Gao. (Bild: Google)

Sensoren verschiedener Infrastrukturbausteine des Rechenzentrums liefern Messwerte an das neuronale Netzwerk, welches den Ingenieuren dann eine konkrete Handlung empfiehlt. So könnte die Software eine geringfügige Temperaturanpassung des Kühlwassers in nur einem ganz bestimmten Bereich des Datacenter vorschlagen oder die optimale Vorgehensweise für eine Migration laufender Workloads bei der Umstellung auf neue Hardware ausrechnen.

Jim Gao, Leitender Datacenter-Ingenieur bei Google und der Hauptentwickler des neuronalen Netzwerks zur prädiktiven Datacenter-Modellierung.
Jim Gao, Leitender Datacenter-Ingenieur bei Google und der Hauptentwickler des neuronalen Netzwerks zur prädiktiven Datacenter-Modellierung. (Bild: Google)

Das neuronale Netzwerk von Google entstammt der Feder von Jim Gao, einem Google-Ingenieur, der es in seiner freien Zeit zum Spaß entwickelt hatte. Das Wissen um maschinelles Lernen habe sich Gao in einem Online-Kurs angeeignet, konnte dann jedoch aber auch auf Googles beachtliches Know-How im Bereich künstlicher Intelligenz zurückgreifen.

Jim Gao identifizierte anfangs 19 Variablen, die sich auf die Energie-Effizienz eines Datacenter am stärksten auswirken würden. Dazu zählten die Gesamtbelastung der Server in Kilowatt, die Anzahl der Kondensatorpumpen in Betrieb, aber auch die Windgeschwindigkeit und sogar die Windrichtung draußen. Auf der Basis dieser Kernvariablen hat Google ein neuronales Netzwerk entwickelt, welches die Auswirkungen neuer Hardwarekomponenten und Software-steuerbarer Parameter auf die resultierende Energie-Effizienz unter den gegebenen Bedingungen modellieren konnte.

Erst einmal lernen

Nach einer ursprünglichen Lernphase, in der die Software erst einmal die Zusammenhänge zwischen den verschiedenen Messwerten und anderen Variablen erforschen musste, konnte das neuronale Netz künftige PUE-Werte mit einer Genauigkeit von 99,6 Prozent voraus berechnen. Ohne das neuronale Netz wäre es für Google gar nicht möglich gewesen, die zahlreichen möglichen Kombinationen von Datacenter-Ausrüstung in der Praxis auszutesten.

Diese Grafik illustriert die Abweichung zwischen dem vorausberechneten PUE-Wert und den tatsächlich erzielten Wert in Googles Datacenter bei der Verwendung des neuronalen Netzes von Jim Gao.
Diese Grafik illustriert die Abweichung zwischen dem vorausberechneten PUE-Wert und den tatsächlich erzielten Wert in Googles Datacenter bei der Verwendung des neuronalen Netzes von Jim Gao. (Bild: Google)

Das Werkzeug konnte unter anderem die beste Zeit zur Migration von Servern vorschlagen und die erforderlichen Anpassungen der Kühltemperatur ausrechnen. Die lernende Software läuft interessanterweise auf einem einzigen physikalischen Computer.

Google hat seinerzeit ein Whitepaper veröffentlicht, in dem das Unternehmen die eigene Methodologie offen legt und einige Gleichungen aufstellt, um die Umsetzung zu veranschaulichen (siehe auch: „Machine Learning Applications for Data Center Optimization“ von Jim Ga. Den Code hat Google jedoch bisher nicht offen gelegt (stattdessen aber das neuronale Netzwerk „Tensor Flow“ zur Bilderkennung mittels Deep Learning).

SAP IT Operations Analytics

Datacenter-Modellierung auf der Basis einer virtuellen Einrichtung liegt klar im Trend. Anbieter wie SAP mit „IT Operations Analytics“ und Future Facilities mit „6SigmaDCX“ finden insbesondere unter den Co-Location-Anbietern sowie Betreibern unternehmenseigener Datacenter kleiner bis mittlerer Größe eine interessierte und aufgeschlossene Kundschaft.

SAP IT Operational Analytics
SAP IT Operational Analytics (Bild: SAP AG)

Bei SAP entstand die Idee für ein Werkzeug zur prädiktiven Analyse und Modellierung des Rechenzentrums aus Eigenbedarf: Das Unternehmen verzeichnet täglich eine halbe Milliarde Ereignisse und musste zwischen sieben und 20 Software-Tools nutzen, um den Überblick über die eigenen Betriebsabläufe zu behalten.

SAP IT Operations Analytics (kurz ITOA) auf der Basis der hauseigenen HANA-Plattform bringt den Funktionsumfang dieser verschiedenen Lösungen in einem Paket aus einem Guss. Künftig möchte das Unternehmen vor allem die prädiktive Seite der Anwendung ausbauen. Der Markt sei längst reif dafür.

Future Facilities 6SigmaDCX

Die Stärken von Future Facilities liegen dagegen im Bereich der Modellierung des Datacenter. 6SigmaDCX integriert sich mit DCIM-Werkzeugen führender Anbieter, um die so erfassten Daten über Server-Schränke, Stromverbrauch, Temperaturverteilung und andere als Ausgangsbasis zu nutzen, um künftige Entwicklungen zu modellieren und konkrete Resultate vorherzusagen.

Berechnungen mittels Big Data und lernender Systemen machen Vorhersagen für das Vergalten von IT- und Infrastrukturkomponenten im Rechenzentrum vorhersehbar. Insbesondere Co-Location-Anbieter stehen darauf.
Berechnungen mittels Big Data und lernender Systemen machen Vorhersagen für das Vergalten von IT- und Infrastrukturkomponenten im Rechenzentrum vorhersehbar. Insbesondere Co-Location-Anbieter stehen darauf. (Bild: Future Facilities)

So können Co-Location-Anbieter unterschiedliche Platzierung der Käfige simulieren, Feuchttemperatur-Berichte analysieren, feste Hindernisse modellieren, mit Entlüftungsöffnungen spielen, die Oberflächenrauheit der Böden optimieren und das Windprofil der Räume visualisieren, ohne die Betriebsbereitschaft des Rechenzentrums im Geringsten zu beeinträchtigen.

Das Modul 6SigmaGateway kann Daten aus „Struxureware“ von Schneider Electric sowie aus DCIM-Werkzeugen von ABB, Panduit, Sensorium, RF Code, Nolimits Software, FNT und MPL beziehen. Mit Hilfe der Web-Dienste von 6SigmaDCX lassen sich darüber hinaus nahezu beliebige andere DCIM-Systeme „anzapfen“. Die Software kann zudem auf eine Bibliothek mit über 800 ACUs und 2.400 Servern (einschließlich der „HP Proliant G9“-Familie) zurückgreifen, um die technischen Daten dieser Geräte für die Simulation im virtuellen Datencenter zu nutzen.

Auch Romonet bietet eine eigene Lösung rund um Predictive Modeling auf der Basis einer Big-Data-Architektur. Romonets Modellierungssoftware kann Notfallereignisse vorhersagen und künftige Kosten voran abschätzen.

Das Autorenduo

Das Autoren-Duo Filipe Pereira Martins und Anna Kobylinska arbeitet bei der Soft1T S.a r.l. Beratungsgesellschaft mbH, McKinley Denali Inc. (USA).

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44359768 / RZ-Tools)