Firmen aus Finnland, Schweden und Kanada initiieren AutoDC Testen, Forschen, Ausprobieren für das autonome Rechenzentrum
Autonome Rechenzentren sollen möglichst ohne menschliches Eingreifen und unabhängig von kontextbedingten Störungen wie intermittierendem Stromausfall oder Überhitzung ihren Betrieb aufrecht halten können und sich in gewissem Maße „selbst heilen“. Das Projekt „AutoDC“, getragen von einem Konsortium, hat sich 2019 gegründet, um einen innovativen Designrahmen für autonome Rechenzentren zu schaffen.
Anbieter zum Thema

Das Konsortium besteht aus schwedischen und finnischen Partnern und Kanada, wobei Ericsson, ABB, Granlund und Swegon die wichtigsten Industriepartner sind. Mehrere relevante KMU, darunter Swedish Modules, OP5, Hi5, Clavister, Comsys, Seecooling, Missing Link Technologies, Mariner Partner, Ionsign, OuluDC, Hitseed, Cumucore und Sensoftia bringen praktische Erfahrungen mit Forschungsorganisationen und Universitäten ergänzen das Wissen in verschiedenen Forschungsbereichen, um Vision von autonomen Rechenzentren zu verwirklichen.
Mit dem erwarteten anhaltenden Wachstum des Rechenzentrumsmarktes werden die Kosten für den Betrieb und die Wartung des Rechenzentrums steigen. Die Verwaltungs- und Wartungskosten in großen und mega-großen Rechenzentren machen ein Drittel des OPEX aus, und die Herausforderungen in diesem Marktsegment sind auf die enorme Menge an Ausrüstung und Personal zurückzuführen. Doch die evaluierten Einnsatzszenarien im Projekt AutoDC gehen über die in großen und Mega-Rechenzentren hinaus, betrachten sowohl wie Co-Location, Wholesale- und Web-Szenarien aber auch Edge- und Remote-Rechenzentren sowie Rechenzentren in Entwicklungsländern.
So wird ein Teil des Wachstums, außer im Nutzungsszenario von Mega-Rechenzentren, im Marktsegment des Edge-Computing prognostiziert, wo die Infrastruktur nahe an der Anwendungsnutzung liegt, wie in städtischen Gebieten, auf innerstädtischen Verkehrswegen und in Gebieten mit einer dichten Ansammlung von Geräten. Diese zukünftigen Anforderungen werden verteilte Rechenzentren und Geräte benötigen, was auch hier zu einem Anstieg der Betriebs- und Wartungskosten führt.

Kompendium herunterladen »
Auf der Projekt-Website ist zu lesen, dass das Projekt Rechenzentren so spezifizieren und konzipieren will, dass sie vollständig autonom sind, keine Anforderungen an die Wartung vor Ort stellen und möglichst wenig Fernwartung erfordern. Neben der offensichtlichen Notwendigkeit, mehr Redundanz in Form von Back-up-Komponenten hinzuzufügen, werde dieser Grad an Autonomie eine detaillierte Kenntnis des Zustands und des Ökosystemkontextes erfordern. Notwendig über den Stand der Technik hinaus sei die Fähigkeit, Ausfälle und Wartungsaktivitäten autonom zu erkennen und die Umgebung mit Hilfe von KI-geschulter Software ohne menschliches Eingreifen zu kontrollieren.
Und: Es geht nicht immer nur um Geld:. Zusätzlich zu den signifikanten OPEX-Reduzierungen aufgrund der geringeren Wartungs- und Betriebskosten erwarten die Projektbeteiligten, dass autonome Rechenzentren sich auch zu einem Schlüsselfaktor für die Märkte in Entwicklungsländern entwickeln, wo der Mangel an Wissen und Personal vor Ort den Weg zur Digitalisierung behindert. Ohnehin seien abgelegene Rechenzentren, die bislang hohe Wartungskosten haben, ein interessanter Anwendungsfall und Markt.
Interdisziplinäres Arbeiten an Technik und Technologien
Um die Vision von vollständig autonomen Rechenzentren zu erfüllen, müssen viele Technologien in der technischen Wertschöpfungskette kombiniert werden. Die Komplexität von Rechenzentren nimmt zu und es besteht ein Bedarf an ganzheitlichen und integrierten Ansätzen.
So bietet sich die Entwicklung modularer Rechenzentrumskomponenten für Anwendungen an, was zugleich eine leichtere Möglichkeit bietet, in Laborumgebungen zu experimentieren. Die entwickelten Konzepte werden jedoch eindeutig auf größere Anwendungen skalierbar sein.
Unabdingbar sind Sensoren, die die physikalischen Eigenschaften der Komponenten und ihrer Umgebung messen. Außerdem müssen Geräte zur Überwachung von Strom und Kühlung gut integriert sein und gegenüber dem heutigen Stand der Technik verbessert werden. Innovative und ausgefeilte Steuerungsperipherie wird auch benötigt, um den menschlichen Eingriff ersetzen.
Ferner ist eine leistungsstarke Datenanalyse-Engine erforderlich; sie muss die Datenerfassung aus den verschiedenen Überwachungssystemen erreichen, die Daten mit externen Datenquellen konsolidieren und geeignete Datensätze periodisch speichern, um sowohl Echtzeit- als auch Offline-Ökosystemmodellierung und Maschine Learning zu ermöglichen. Die Ergebnisse der Analyse sollen sicherstellen, dass die richtigen Maßnahmen auf die Steuerungssysteme angewendet werden, um den Betrieb von Strom, Kühlung, Netzwerk und Servern zu optimieren. Dies ist unerlässlich, um den "Gesundheitszustand" des Rechenzentrums innerhalb der gewünschten Parameter zu erhalten und um die identifizierten Ziel-KPI-Werte zu erreichen.
Erwartete Projektergebnisse und Zwischenstände
Das Projekt soll bis Ende 2021 laufen und über übliche Paperware hinausgehen. „Unser Ziel ist es, bis zum Ende des Projekts ein Referenzdesign für ein autonomes Rechenzentrum baureif zu haben, möglicherweise auch einen Proof-of-Concept während des Projekts.“ Die einzelnen Schritten sollen bis zu einer last von 100 Kilowatt in der in der sicheren Umgebung des Rechenzentrumslabors ICE von getestet und demonstriert werden.
Stromausfall, Netzwerkstörungen und anderen möglichen Ausfällen könnten leicht simuliert werden, ohne die Sicherheit und Datenintegrität zu beeinträchtigen, was bei der Nutzung eines kommerziellen Rechenzentrums der Fall wäre, teilt der RZ-Betreiber mit. Weitere Verbreitungsaktivitäten umfassen Demos und Präsentationen auf Rechenzentrumskonferenzen, Veröffentlichungen in wissenschaftlichen Fachzeitschriften und Konferenzen. Der nächste Termin ist ein „WP1 Workshop“ in Helsinki, am 20. Und 21. März dieses Jahres.
(ID:46310494)