High-Density-Rechenzentren sind das Pendant zum HPC Hochleistungsrechnen beginnt bei der Infrastruktur

Von Stefan Sickenberger* |

Anbieter zum Thema

High Performance Computing (HPC) bietet einen hohen Mehrwert für Unternehmen. Ganz allgemein geht es dabei um Anwendungen, bei denen Daten in Rechnerverbünden (Cluster) schnell verarbeitet und Rechenoperationen mit hoher Intensität durchgeführt werden. Das erfordert eine besondere Infrastruktur für Rechenzentren, die auf HPC spezialisiert sind, mit Auswirkungen auf deren Planung, Aufbau und Betrieb.

Northern Data hat sich auf High Performance Computing (HPC) spezialisiert und bietet diese als Dienst an.
Northern Data hat sich auf High Performance Computing (HPC) spezialisiert und bietet diese als Dienst an.
(Bild: Northern Data)

Leistung ist im Moment ein wichtiges Stichwort im Enterprise Computing. Egal ob bei Anwendungen der Blockchain, der künstlichen Intelligenz, des Internets der Dinge oder bei aufwändigen Rendering-Prozessen – der Appetit nach Rechenleistung scheint endlos.

Aus diesem Grunde ist so genanntes High Performance Computing (HPC) in das Blickfeld der Unternehmen geraten. In der Vergangenheit nutzte vor allem die Forschung die enorme Rechenkraft von HPC-Clustern, etwa in der Meteorologie, Klimatologie, Astronomie oder Kernphysik.

Heutzutage werden HPC-Lösungen auch immer häufiger für kommerzielle Zwecke eingesetzt. Industrie 4.0, Big-Data-Anwendungen, künstliche Intelligenz oder aufwendige Grafik- und Filmsequenzen erfordern die schnelle Verarbeitung einer Vielzahl an Daten und sind ohne High Performance Computing kaum vorstellbar. Das gleiche gilt für Anwendungen auf der Blockchain.

HPC bedeutet High-Density-Rechenzentren

Beim HPC verteilt eine spezielle Management-Software alle Workloads auf leistungsfähige Multicore-Prozessoren. Das Ergebnis ist die Parallelverarbeitung auf Hunderten oder sogar Tausenden dieser Chips. Doch das ist noch nicht alles: Um den vorhandenen Platz besser auszunutzen, sind die Server-Schränke besonders dicht mit Computern belegt.

Aufgrund der hohen Rechenleistung haben HPC-Anwendungen einen hohen Energiebedarf. Dies wird bereits an den einzelnen Server-Racks deutlich. Obwohl auch in herkömmlichen Rechenzentren die Packungsdichte gestiegen ist, liegt dort der Durchschnitt des Energieverbrauchs nur bei etwa zehn Kilowatt pro Schrank. In einem HPC-Cluster sind es 40 Kilowatt pro Schrank oder mehr.

Rein auf HPC spezialisierte Rechenzentren, wie die von Northern Data, können ihre Rechenzentrumsinfrastruktur auf den hohen Energiebedarf und die damit verbundene hohe Wärme-Entwicklung optimieren. Die Infrastruktur unterscheidet sich dabei deutlich von der üblicher Rechenzentren.

200 Millionen Dollar Projekt gestartet

Nach eigenen Angaben hat Northern Data am Montag in dieser Woche mit dem Projekt zum Bau neuer Hochleistungsserver an Standorten in Norwegen, Schweden und Kanada begonnen. In das Projekt sollen 200 Millionen Dollar fließen. Darauf laufen sollen High Performance-Anwendungen von Kunden wie Rendering, Künstliche Intelligenz und Deep Learning.

Die gesamten Kosten für Hardware und Bau würden von einem Ankerkunden finanziert, so das Unternehmen. Um wen es sich dabei handelt und wie hoch der Investitionsbeitrag ist, verrät die Gesellschaft nicht. Mit ersten Einnahmen aus dem Projekt rechnet das Unternehmen in der ersten Hälfte des kommenden Jahres.

Ein verteilter Rechen-Cluster teilt Software auf mehrere Computersysteme auf, um die Effizienz und Leistung zu steigern. Nach Angaben von Northern Data stammt die Hardware von Gigabyte, verbaut sind AMD-Prozessoren.

In seiner letzten Ausbaustufe wird der Cluster voraussichtlich eine FP32-Rechenleistung von etwa 3,1 Exaflops (3,1 Millionen Teraflops und 274,54 Petaflops FP64) bereitstellen. Zum Vergleich: Der schnellste Supercomputer der Welt, der japanische „Fukagu“ (Fujitsu), hat eine Rechenleistung von 1,07 Exaflops FP32 und 415,3 Petaflops FP64, während der zweitschnellste, der US-Supercomputer „Summit“ (IBM), auf eine Rechenleistung von 0,414 Exaflops FP32 und 148,0 Petaflops FP64 kommt.

Das Projekt soll unmittelbar nach Abschluss der Tranche, die in der ersten Hälfte des Jahres 2021 erwartet wird, Einnahmen bringen. CEO Aroosh Thillainathan erläutert das Projekt: „Northern Data ist mit seinen ehrgeizigen Wachstumszielen mehr als auf Kurs. Mit unserem neuen GPU-Cluster können wir unseren Kunden HPC-Anwendungen mit maximaler Skalierbarkeit und höchster Zeit- und Kosteneffizienz anbieten. Ein wichtiger Faktor dafür ist unsere starke Partnerschaft mit Gigabyte und AMD, über die ich mich besonders freue. Das bedeutende finanzielle Engagement eines Blue-Chip-Ankerkunden ist ein sehr starkes Zeichen für die Qualität dieser Partnerschaft, und wir erhalten eine sehr positive Resonanz von potenziellen weiteren Kunden.“

Durch die Packungsdichte („High Density“) arbeiten HPC-Rechenzentren sehr effizient: Sie nutzen das Raumangebot maximal aus. Außerdem geht es darum, den Cluster sicher zu betreiben und gleichzeitig die eingesetzte Energie effizient in Rechenleistung umzuwandeln (hier spricht man von „High Efficiency“).

Effiziente Kühlung und Energie-Management

Ein deutlicher Teil des Stroms fließt bei Rechenzentren in Beleuchtung, Monitore, Sicherheitsanlagen und vor allem in die Kühlung. Allein sie verbraucht nicht selten ein Drittel der Energie, was einen hohen PUE-Wert (Power Use Effectiveness) bewirkt. Diese Maßzahl ist der Quotient aus dem Gesamtenergieverbrauch und dem Anteil, der in Rechenleistung fließt. Je näher dieser Wert bei Eins liegt, desto effizienter ist die Energienutzung. Der Durchschnittswert für gängige Rechenzentren liegt bei 1,6 bis 1,8.

Durch besonders effizienten Ressourceneinsatz aufgrund der speziellen Infrastruktur erreicht Northern Data in seinen HPC-Rechenzentren dagegen sogar PUE-Werte von 1,1 und darunter. Dabei wird bei der Planung in erster Linie von Anfang an die zu erwartende Temperaturverteilung berücksichtigt, um die Kühlung danach auszurichten.

Die Hardware wird so angeordnet, dass ausreichend Abluftzonen entstehen und die Luftströme gesteuert werden können. Nur mit der damit realisierbaren, zum größten Teil passiven Kühlung, sind dann die niedrigen PUE-Werte zu erreichen. Das Zusammenspiel von Energiezufuhr, Rechenleistung und Wärme-Entwicklung wird durch eine spezielle Software geregelt, die jeden einzelnen Chip und jeden einzelnen Prozessor ansteuern kann. Damit ist jederzeit der Ist-Zustand des Systems bekannt, so dass auch kleinräumig reagiert werden kann, noch bevor kritische Situationen entstehen können.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Planung, Aufbau und Betrieb eines HPC-Rechenzentrums

Solche reinen HPC-Rechenzentren gehören aufgrund ihrer Effizienz zu den fortschrittlichsten Rechenzentren der Welt, denn den steigenden Anforderungen an die Rechenleistung stehen die Notwendigkeit zu Ressourcenschonung und Klimaschutz gegenüber. Bei der Planung eines HPC-Rechenzentrums stehen zunächst in der Regel die Anforderungen des Kunden im Vordergrund.

Ob KI, Big Data, Rendering oder Blockchain, für jedes Szenario ergibt sich aus der verwendeten Hardware eine optimale Infrastruktur. Daraus lässt sich die zu erwartende Wärmemenge und ihre Verteilung abschätzen. Damit lassen sich die Abluftzonen planen, sodass auch die Rechenzentrumsfläche maximal ausgenutzt wird.

Die Vorgaben für die Energiezufuhr und die Abwärme bestimmen die technischen Daten der Stromversorgung und der Kühlung. Ein weiterer Aspekt der strukturierten Planung: Die Implementierung der Hardware. Sie wird im Prinzip wie am Fließband ausgepackt, installiert und verkabelt. Dafür gibt es Ablaufpläne, die jeden Handgriff berücksichtigen.

Bremse für den Highflyer

Für Ärger sorgten im Vorfeld des Starts Twitter-Posts, weswegen sie Northern Data sich jetzt mit dem News-Dienst anlegt. Ziel ist vermutlich, die Identität hinter dem Twitter-Account „@btcking555” herauszufinden. Die kritischen Äußerungen beziehungsweise Vorwürfe gegen Northern Data hatten geradezu zu einem und dem Kurssturz bei der Aktie geführt.

Das ist einer der Schad-Tweets, die gegen Northern Data schießen.
Das ist einer der Schad-Tweets, die gegen Northern Data schießen.
(Bild: Twitter/Ken L./Ostler)

Wie etwa das Medium „4investors.de“ am 15. Juli berichtete, habe Northern Data in den Monaten zuvor zu den Highflyern an der Frankfurter Börse gezählt. Die Aktie kletterte von 11 Euro im November 2019 auf 82,40 Euro Anfang Juli dieses Jahres. Mitte Juli, nach den Twitter-News und einem kritischen Artikel von „Ken L.“ auf der Site „medium.com“ rutschte der Wert zwischenzeitlich auf 47,80 Euro.

Die britische „Times“ schrieb am 26. Juli 2020, Northern Data verklage Twitter vor dem Irish High Court,. Das 4investors.de mutmaßt, dass es sich bei den Vorwürfen um eine „Shortattacke“ handeln könne. Die Aktie lag gestern bei 57,80 Euro.

Auch hier automatisieren Soft- und Hardwaretools für die Konfigurierung und Inventarisierung bestimmte Arbeitsschritte. Diese Automatisierung auf Basis einer eigenen Software führt außerdem zu einem verringerten Personalbedarf im laufenden Betrieb, da die Service-Teams vor Ort sehr gezielt und effizient bei Erweiterung und Austausch der Hardware arbeiten können und Störungen schon im Vorfeld vermieden werden. Mit diesen Schritten ist es möglich, kommerzielle HPC-Anwendungen in speziellen Rechenzentren äußerst zeit- und kosteneffizient umzusetzen.

* Stefan Sickenberger ist Chief Operation Officer bei der Northern Data AG, Die Northern Data AG entwickelt und betreibt globale Infrastrukturlösungen im Bereich High-Performance Computing (HPC).

(ID:46859417)