High-Density-Rechenzentren sind das Pendant zum HPC Hochleistungsrechnen beginnt bei der Infrastruktur
Anbieter zum Thema
High Performance Computing (HPC) bietet einen hohen Mehrwert für Unternehmen. Ganz allgemein geht es dabei um Anwendungen, bei denen Daten in Rechnerverbünden (Cluster) schnell verarbeitet und Rechenoperationen mit hoher Intensität durchgeführt werden. Das erfordert eine besondere Infrastruktur für Rechenzentren, die auf HPC spezialisiert sind, mit Auswirkungen auf deren Planung, Aufbau und Betrieb.

Leistung ist im Moment ein wichtiges Stichwort im Enterprise Computing. Egal ob bei Anwendungen der Blockchain, der künstlichen Intelligenz, des Internets der Dinge oder bei aufwändigen Rendering-Prozessen – der Appetit nach Rechenleistung scheint endlos.
Aus diesem Grunde ist so genanntes High Performance Computing (HPC) in das Blickfeld der Unternehmen geraten. In der Vergangenheit nutzte vor allem die Forschung die enorme Rechenkraft von HPC-Clustern, etwa in der Meteorologie, Klimatologie, Astronomie oder Kernphysik.
Heutzutage werden HPC-Lösungen auch immer häufiger für kommerzielle Zwecke eingesetzt. Industrie 4.0, Big-Data-Anwendungen, künstliche Intelligenz oder aufwendige Grafik- und Filmsequenzen erfordern die schnelle Verarbeitung einer Vielzahl an Daten und sind ohne High Performance Computing kaum vorstellbar. Das gleiche gilt für Anwendungen auf der Blockchain.
HPC bedeutet High-Density-Rechenzentren
Beim HPC verteilt eine spezielle Management-Software alle Workloads auf leistungsfähige Multicore-Prozessoren. Das Ergebnis ist die Parallelverarbeitung auf Hunderten oder sogar Tausenden dieser Chips. Doch das ist noch nicht alles: Um den vorhandenen Platz besser auszunutzen, sind die Server-Schränke besonders dicht mit Computern belegt.
Aufgrund der hohen Rechenleistung haben HPC-Anwendungen einen hohen Energiebedarf. Dies wird bereits an den einzelnen Server-Racks deutlich. Obwohl auch in herkömmlichen Rechenzentren die Packungsdichte gestiegen ist, liegt dort der Durchschnitt des Energieverbrauchs nur bei etwa zehn Kilowatt pro Schrank. In einem HPC-Cluster sind es 40 Kilowatt pro Schrank oder mehr.
Rein auf HPC spezialisierte Rechenzentren, wie die von Northern Data, können ihre Rechenzentrumsinfrastruktur auf den hohen Energiebedarf und die damit verbundene hohe Wärme-Entwicklung optimieren. Die Infrastruktur unterscheidet sich dabei deutlich von der üblicher Rechenzentren.
Durch die Packungsdichte („High Density“) arbeiten HPC-Rechenzentren sehr effizient: Sie nutzen das Raumangebot maximal aus. Außerdem geht es darum, den Cluster sicher zu betreiben und gleichzeitig die eingesetzte Energie effizient in Rechenleistung umzuwandeln (hier spricht man von „High Efficiency“).
Effiziente Kühlung und Energie-Management
Ein deutlicher Teil des Stroms fließt bei Rechenzentren in Beleuchtung, Monitore, Sicherheitsanlagen und vor allem in die Kühlung. Allein sie verbraucht nicht selten ein Drittel der Energie, was einen hohen PUE-Wert (Power Use Effectiveness) bewirkt. Diese Maßzahl ist der Quotient aus dem Gesamtenergieverbrauch und dem Anteil, der in Rechenleistung fließt. Je näher dieser Wert bei Eins liegt, desto effizienter ist die Energienutzung. Der Durchschnittswert für gängige Rechenzentren liegt bei 1,6 bis 1,8.
Durch besonders effizienten Ressourceneinsatz aufgrund der speziellen Infrastruktur erreicht Northern Data in seinen HPC-Rechenzentren dagegen sogar PUE-Werte von 1,1 und darunter. Dabei wird bei der Planung in erster Linie von Anfang an die zu erwartende Temperaturverteilung berücksichtigt, um die Kühlung danach auszurichten.
Die Hardware wird so angeordnet, dass ausreichend Abluftzonen entstehen und die Luftströme gesteuert werden können. Nur mit der damit realisierbaren, zum größten Teil passiven Kühlung, sind dann die niedrigen PUE-Werte zu erreichen. Das Zusammenspiel von Energiezufuhr, Rechenleistung und Wärme-Entwicklung wird durch eine spezielle Software geregelt, die jeden einzelnen Chip und jeden einzelnen Prozessor ansteuern kann. Damit ist jederzeit der Ist-Zustand des Systems bekannt, so dass auch kleinräumig reagiert werden kann, noch bevor kritische Situationen entstehen können.
Planung, Aufbau und Betrieb eines HPC-Rechenzentrums
Solche reinen HPC-Rechenzentren gehören aufgrund ihrer Effizienz zu den fortschrittlichsten Rechenzentren der Welt, denn den steigenden Anforderungen an die Rechenleistung stehen die Notwendigkeit zu Ressourcenschonung und Klimaschutz gegenüber. Bei der Planung eines HPC-Rechenzentrums stehen zunächst in der Regel die Anforderungen des Kunden im Vordergrund.
Ob KI, Big Data, Rendering oder Blockchain, für jedes Szenario ergibt sich aus der verwendeten Hardware eine optimale Infrastruktur. Daraus lässt sich die zu erwartende Wärmemenge und ihre Verteilung abschätzen. Damit lassen sich die Abluftzonen planen, sodass auch die Rechenzentrumsfläche maximal ausgenutzt wird.
Die Vorgaben für die Energiezufuhr und die Abwärme bestimmen die technischen Daten der Stromversorgung und der Kühlung. Ein weiterer Aspekt der strukturierten Planung: Die Implementierung der Hardware. Sie wird im Prinzip wie am Fließband ausgepackt, installiert und verkabelt. Dafür gibt es Ablaufpläne, die jeden Handgriff berücksichtigen.
Auch hier automatisieren Soft- und Hardwaretools für die Konfigurierung und Inventarisierung bestimmte Arbeitsschritte. Diese Automatisierung auf Basis einer eigenen Software führt außerdem zu einem verringerten Personalbedarf im laufenden Betrieb, da die Service-Teams vor Ort sehr gezielt und effizient bei Erweiterung und Austausch der Hardware arbeiten können und Störungen schon im Vorfeld vermieden werden. Mit diesen Schritten ist es möglich, kommerzielle HPC-Anwendungen in speziellen Rechenzentren äußerst zeit- und kosteneffizient umzusetzen.
* Stefan Sickenberger ist Chief Operation Officer bei der Northern Data AG, Die Northern Data AG entwickelt und betreibt globale Infrastrukturlösungen im Bereich High-Performance Computing (HPC).
(ID:46859417)