Suchen

Hikari rechnet mit texanischer Sonne für die Zika-Forschung Supercomputer läuft mit Gleichstrom direkt aus Solarpaneelen

| Autor / Redakteur: Patrick Edlund* / Ulrike Ostler

Hewlett Packard Enterprise (HPE) und das Texas Advanced Computing Center der University of Texas haben den Supercomputer “Hikari” in Betrieb genommen. Es ist erste Solar-betriebene Superrechner und wird für die Zika-Forschung eingesetzt. Ein „Apollo-8000“-Cluster von HPE wird dabei direkt aus Solarpaneelen mit Gleichstrom versorgt.

Firma zum Thema

Die Solarpaneele auf dem Parkplatz des TACC versorgen an sonnigen Tagen des Supercomputer zu 100 Prozent.
Die Solarpaneele auf dem Parkplatz des TACC versorgen an sonnigen Tagen des Supercomputer zu 100 Prozent.
(Bild: Hewlett Pacakard Enterprise)

Supercomputer haben das Potenzial, Wissenschaft und Innovation entscheidend voranzubringen, aber ihr Energiebedarf war lange ein limitierender Faktor für ihren weitreichenden Einsatz. Weil traditionelle Supercomputer massive Mengen an Energie verbrauchen und dabei viel Hitze produzieren, müssen große Kühleinrichtungen errichtet werden, um den laufenden Betrieb sicherzustellen.

Um diese Herausforderungen zu meistern, hat das Texas Advanced Computing Center sich mit der New Energy and Industrial Technology Development Organization (NEDO), einer japanischen Regierungsorganisation, NTT Facilities. Inc und Hewlett Packard Enterprise (HPE) zusammengetan, um gemeinsam Hikari zu entwickeln.

Energie-effizienter Supercomputer

„Weil die Solarpaneele direkt an den Computer angeschlossen sind, läuft Hikari quasi mit kostenloser Energie – maximal effizient und nachhaltig“, sagt Nic Dube, Chief Technologist für High-Performance Computing bei Hewlett Packard Enterprise. „Wenn man sich das Dashboard von Hikari ansieht, kann man beobachten, wie die Echtzeit-Energieleistung dieses Systems jede andere Plattform auf dem Planeten in den Schatten stellt.“

Der Server "HPE Apollo 8000", heir aus aus mehreren Racks bestehend
Der Server "HPE Apollo 8000", heir aus aus mehreren Racks bestehend
(Bild: Hewlett Packard Enterprise)

Hikari nutzt das Warmwasser-Kühlsystem des Hochleistungsrechners HPE Apollo 8000, das damit keine Computer Room Air Handler (CRAH) benötigt, und nutzt Trockenkühler statt Kältekompressoren. Damit sinkt der Energiebedarf für die Kühlung signifikant. Außerdem wurde das Apollo-8000-System dafür ausgelegt, mit wenig Unterstützungsinfrastruktur auszukommen, um Betriebs- und Einrichtungskosten zu sparen.

Laut Dube ist die Übertragung der Hochspannungs-Gleichstromquelle der Photovoltaikanlage (PV) direkt in einen ebenfalls über Hochspannungs-Gleichstrom betriebenen Computer ein Paradigmenwechsel. „Tagsüber läuft die Energie des Solarsystems direkt in den Computer. Nachts, wenn das PV-System keine Energie erzeugt, wechselt das Apollo-System auf ein Wechselstromnetz. Es ist das Beste aus beiden Welten“, so Dube.

Verzicht auf Umwandlung in Wechselstrom

Tatsächlich geht Energie-Effizienz verloren, wenn Wechselstrom zu Gleichstrom gewandelt wird. Doch immerhin braucht der Supercomputer rund 200.000 Watt Gleichstrom. Weitere Komponenten des Hikari-Systems sind Gleichstrom-Batterien, Gleichstrom-Klimatechnik, Gleichstrom-Beleuchtung, eine Gleichstrom-Versorgung und die Solaranlage.

Dan Stanzione, Executive Director beim Texas Advanced Computing Center, sagt: „Hikari ist ein groß angelegtes Experiment darin, ein Rechenzentrum komplett auf Gleichstrom zu betreiben. Wir haben uns angeschaut, wie wir Hochspannungsgleichstrom in den effizientesten, wassergekühlten Racks der Welt nutzen und die erneuerbaren Energien integrieren können“, so Stanzione weiter. „Unser Ziel ist es, echte Erfahrungen in einer Produktivumgebung zu sammeln und damit Rechenzentren auf Jahre hinaus zu verbessern.“

Seit das Hikari-Team die Mess-Phase Ende August begonnen hat, wurden mehr als 30 Prozent des Energiebedarfs des Supercomputers aus erneuerbaren Quellen gedeckt. An sonnigen Tagen läuft das System zu 100 Prozent mit Energie aus erneuerbaren Energien.

Partner für die Zukunft der Supercomputer

Das Texas Advanced Computing Center habe den HPE Apollo 8000 für den Kern von Hikari ausgewählt, weil HPE als einziger Lieferant einen Cluster in der benötigten Größe und Geschwindigkeit mit Hochspannungs-Gleichstrombetrieb zur Verfügung stellen konnte, teilt der Hersteller mit.

Stanzione bestätigt: „Wir möchten, dass die Branche den großen Wandel von Wechselstrom zu Gleichstrom bei Server-Technologien macht. HPE hat sich wirklich darauf eingelassen, alternative Technologien zu untersuchen und zu erforschen. HPE leistete einen wichtigen Beitrag und brachte tolle Innovationen ein. Ohne ihre Partnerschaft hätten wir niemals den nachhaltigsten Supercomputer der Welt bauen können.“

Nach der Übernahme des Supercomputer-Spezialisten SGI hat HPE außerdem seine aktuellen Positionen auf der Top-500-Liste der größten Supercomputer der Welt und neue HPC-Technologien vorgestellt (siehe: Kasten).

Ergänzendes zum Thema
HPE mit SGI in der Top-500-Liste und neuen Features

Am 1. November 2016 hat HPE bekanntgeben, dass die Übernahme von SGI abgeschlossen sei. Nun kann Hewlett Packard Enterprise auf insgesamt 140 Systeme in der Liste der größten Supercomputer verweisen, der „Top 500“. Vorne aus dem Portfolio der der HPE-Superrechner liegen „Cheyenne” des NASA Ames Research Center und „Pleiades” vom National Center for Atmospheric Research’s (NCAR).

Pleiades liegt derzeit auf Platz 13 und hilft der amerikanischen Luft- und Raumfahrtorganisation bei der Erforschung des Alls sowie bei der Vorbereitung neuer Exkursionen. Der Rechner wird sowohl zur Auswertung bereits gewonnener Daten benötigt als auch für Modellierungsaufgaben und Simulationen, um Raumfahrttechnik zu entwickeln.

Cheyenne ist neu auf der Top-500-Liste und landet auf Platz 20. Grundlage ist das System „SGI ICE XA“. Nach HPE-Angaben handelt es sich mit 5,33 Petaflops um das größte kommerzielle System für das High Performance Computing. Es wird sowohl dazu genutzt, die Auswirkungen des Klimawandels in einzelnen Regionen zu untersuchen auch für Wettervorhersagen.

Neue Features

Doch zu den Bekanntmachungen auf der jüngsten „SC16“-Konferenz, auf der das aktuelle Ranking der Supercomputer bekannt gegeben wurde, gehörten auch neue technische Details. Dazu gehörten:

  • Die Multi-Rail Lustre-Fähigkeit von HPE/SGI und Intel, die erlaubt, hochskalierbare Daten-Pipelines zur Verfügung zu stellen, indem entweder „Intel Omni-Path“ oder „Infiniband“ benutzt wird. Das soll insbesondere Analysen auf dem HPC-System beschleunigen. In der Ausstellung konnte der Hersteller ein „SGI UV 300”-System zeigen, auf dem Multi-Rail Lustre, Intel NVMe Storage mit Intel Omni-Path-Interconnect liefen.
  • Die “HPE/SGI Management Suite” und die “HPE/SGI Performance Suite“ unterstützen nun die Plattformen, die mit SGI Intel Xeon PhiTM Processoren und Intel Omni-Path laufen. Die Management-Suite bietet zudem nun ein Power-management beziehungsweise eine Analyse des Stromverbrauchs, mitsamt Voraussagen- und Planungskomponenten. Dafür nutzt das Tools sowohl historischen Daten aus den vergangenen drei Monaten als auch aktuelle.
  • Der Hersteller hat zudem eine OpenStack-Referenz-Architektur entwickelt, in die sich die Rack-fähigen SGI-Scale-Out-Server und optional die Scale-Up-Server „SGI UV“ integrieren lassen. Genutzt wird die „SUSE OpenStack Cloud“.

Außerdem stellte HPE/SGI noch einige interessante Anwenderbeispiele vor. Dazu gehört der Einsatz des Systems „Apollo 2000” bei der Genom-Bestimmung und im Computer Aided Engineering (CAE). Nach Herstellerangaben ist der Einsatz dieses System in der Anschaffung von Hard- und Software um bis zu 84 Prozent als vergleichbare Systeme. Der Computer kann 45 Frames pro Sekunde rechnen, 32 User pro GPU und dabei noch immer die beste Performanz erzielen.

Änderungen gibt es in der Version 2.= des “HPE Core HPC Software Stack”, der nun mit den Fähigkeiten des „HPE Insight Cluster Management Utility (CMU) v8.1“ kombiniert wird. Unter anderem bietet die Software nun „OpenHPC“-Kompatibilität und CMU 8.1 erlaubt nahezu unbegrenzte Skalierbarkeit beim Management und Monitoring. Den gesamten Stack bis zu einer Größe von 32 Knoten gibt es zum Testen für 120 Tage zum freien Download. Die Support-Version wird ab dem 1. Quartal 2017 zur Verfügung stehen.

* Patrick Edlund ist Pressesprecher bei der Hewlett Packard GmbH, Böblingen.

Artikelfiles und Artikellinks

(ID:44390672)