Rescale und HPC als Service Zu neuen R&D-Horizonten mit Big Compute

Anbieter zum Thema

Viele anspruchsvolle Workloads brauchen längst mehr als nur eine Hardware-Architektur und eine Software. Doch kaum jemand kann sich für jede Aufgabe die passende Hardware ins eigene Unternehmen holen. Eine Lösung dafür ist HPCaaS.

Big Compute bezeichnet die Kombination skalierbarer, in Multicloud-Umgebungen verteilter HPC-Ressourcen mit intelligenten Algorithmen.(Bild:   Rescale)
Big Compute bezeichnet die Kombination skalierbarer, in Multicloud-Umgebungen verteilter HPC-Ressourcen mit intelligenten Algorithmen.
(Bild: Rescale)

Während die Zahl gängiger Hardwareplattformen zur Jahrtausendwende merklich zusammengeschrumpft war, fährt der Zug nun in die andere Richtung. Denn Moore`s Law funktioniert nicht mehr. Es zeigt sich, dass Hardware besser an die jeweils zu lösenden Aufgaben angepasst werden muss, um schnell genug zu rechnen und gleichzeitig weder Energie noch Zyklen zu verschleudern.

Inzwischen gibt es eine Welle neuer Prozessorarchitekturen. „Allein 2022 wurden bisher 370 neue Architekturen veröffentlicht“, sagt Poris Poort, CEO und Gründer von Rescale, einem HPCaaS-Anbieter. Die neuen, spezialisierten Architekturen tragen seit etwa der Jahrtausendwende maßgeblich Steigerungen der Rechenleistung bei.

Beispiele gibt es genug: die Chips „Gravitron“, „Tranium“ und „Inferia“ von AWS, der „Altra“ von Ampere, der „Grace“-Chip von Nvidia, „Tachyum“, an dem ein EU-Projekt arbeitet, Googles „Tensor Processing Unit“ (TPU), Apples „A16“, Microsofts aufgabenangepasste FPGAs, beispielsweise für tiefe Interferenz von neuronalen Netzwerken, Teslas Supercomputer „Dojo“ für autonomes Fahren individuelle Designs auf Atom- oder RISC-V-Basis und auch neue Architekturen von AMD und Intel. Viele dieser Prozessoren stehen in Cloud-Rechenzentren der Hyperscaler oder anderer Provider.

Industrie und Forschung haben nicht für jede Aufgabe die optimale Umgebung

Aufgaben wie Simulation, neuronale Netze, Sprachverstehen, die Auswertung und Analyse von Echtzeit-Datenstreams, strömungsdynamische Berechnungen (CFD, Computational Fluid Dynamics) oder Schaltkreisdesign sind wichtige Anwendungsgebiete. „Computing Power wird in Zukunft mit über den Unternehmenserfolg entscheiden“, ist Poort überzeugt.

Komplexe Verarbeitungsketten, etwa beim Aufbau und Anlernen Neuronaler Netze oder bei der Integration und Analyse unterschiedlicher Daten-Streams und anderer Datenquellen benötigen oft unterschiedliche Tools, die auf an jeden Algorithmus angepasster Hardware am besten laufen. Doch das Optimale für alles kann sich kaum ein Unternehmen leisten.

Hardware- und Stack-Vielfalt nötig

Ist der richtige Prozessor gefunden, sagt das aber noch nichts über den Rest des Stack aus: Wie viele Units braucht die Aufgabe, welche Art von und wie viel Storage, wie breit müssen Netzwerkverbindungen sein und so weiter. Es stellen sich eine Unzahl von Fragen über alle Infrastrukturebenen hinweg.

Poort: „Es gibt heute mehr als 50 Millionen Kombinationen, die man eigentlich alle testen müsste, um die optimale Umgebung für eine anspruchsvolle Forschungs- oder Entwicklungs-Workload zu finden.“

Eine Lösung besteht darin, die nötigen Rechenressourcen anzumieten. Die gibt es beispielsweise bei nationalen Großrechenzentren wie dem Leibniz-Rechenzentrum in Garching – allerdings sind Ressourcen und Architekturvielfalt jedes einzelnen Anbieters begrenzt. Deshalb werden, so Poort, Projekte oft genug nicht an den Anforderungen der dafür verwendeten Software, sondern umgekehrt an der verfügbaren Hardware ausgerichtet.

Das erhöht Kosten und Zeitaufwand. Zudem führt es unter Umständen zu suboptimalen Ergebnissen.

HPCaaS aus der Multicloud

Ein neues Schlagwort umschreibt eine Lösungsmöglichkeit für die Herausforderung: 'Big Compute'. Gemeint sind damit hoch skalierbare, anwendungsbezogen optimierte Infrastrukturressourcen in einer globalen Multicloud-Umgebung intelligent analysiert und bei Bedarf weitgehend automatisiert bereitgestellt. Auf dieser Idee beruht das HPCaaS-Geschäftsmodell von Rescale.

Die Hardware-Auswahl bei Cloud-Providern wächst stetig.(Bild:  Rescale)
Die Hardware-Auswahl bei Cloud-Providern wächst stetig.
(Bild: Rescale)

Denn welches Unternehmen kann individuell austesten, welche seiner Algorithmen auf welchem und Stack wo und wann am besten, kostengünstigsten und umweltfreundlichsten läuft? Und wer ersinnt funktionierende Betriebsmodelle, mit denen sich die komplexen Beziehungen zu einer Vielzahl von Providern und Services gestalten lassen?

Rescale hat Tools und Architekturen vorgetestet

Hier greift die Geschäftsidee von Rescale: Man koopperiere mit Cloud-Providern von HPC-Ressourcen, teste deren Stacks in allen möglichen Kombinationen mit mit möglichst vielen in R&D gern genutzten Anwendungen, finde heraus, was auf was unter welchen Umständen am besten läuft. Dann reichere man diese Informationen mit Echtzeitdaten über Preise, Verfügbarkeiten und die Nachhaltigkeit des jeweiligen Angebots an, übernehme die Sicherheitsverantwortung für den gesamten Stack einschließlich Anwendungssoftware, automatisiere die Bereitstellung bei Bedarf und biete das Ganze als HPCaaS an.

Unverzichtbar dafür ist Rescales Netz an Kooperationspartnern, zu denen die wichtigsten Prozessoranbieter, Hyperscaler und andere Cloud-Anbieter, etwa VMware, genauso gehören wie entsprechende R&D-Softwarelieferanten, etwa Siemens oder Cadence. Durch ein REST-API und weitere offene Schnittstellen kann sich Rescale auch mit allen wichtigen Hochelstungsspeichersystemen, PLM-Softwares, Data Lakes und Data Warehouses verbinden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Mehr als 1.700 Software-Items verfügbar

Auf der Rescale-HPCaaS-Plattform finden sich inzwischen unter einer über den Browser nutzbaren Web-Schnittstelle rund 900 beliebte F&E-Softwares und rund 800 containerisierte Applikationen, AI-Frameworks und Modelle aus dem „Nvidia NGC“-Katalog. Nvidia plant, auch AI Enterprise, das Betriebssystem seiner KI-Plattform, über bei Rescale angeschlossene VMware-Ressourcen als Service verfügbar machen.

Viele neue Prozessorarchitekturen sind an die Anforderungen einzelner Anwendungsszenarien angepasst.(Bild:  Rescale)
Viele neue Prozessorarchitekturen sind an die Anforderungen einzelner Anwendungsszenarien angepasst.
(Bild: Rescale)

Zudem können Anwender jederzeit Container mit selbst geschriebenen Anwendungen oder Open-Source-Paketen hochladen. Für das kommende Jahr hat Rescale den „Publisher“ angekündigt, eine Software, mit der man Software, die in der Rescale-Plattform läuft, messen, überwachen und managen kann.

Zu den Kunden, die sich davon überzeugen lassen, gehörten unter anderem Boeing (Dreamliner-Entwicklung), Gaon Chips (Chip-Zulieferer von Samsung) und die NASA.

Einfache Bedienung ermöglicht internationales Teamwork

Wer etwas rechnen will, loggt sich ein, wählt aus dem Portfolio die passenden Anwendungen und Ressourcen samt Skalierung und stößt den Rechenlauf an. Zudem lassen sich ganze Verarbeitungsketten vorbereiten, die nacheinander auf unterschiedliche Programme und Infrastruktur-Provider zugreifen.

Die Plattform wird ständig erweitert. Neu angekündigt wurde auf Rescales Jahrestagung „Big Compute 2022“ Anfang November der „Compute Optimizer“. Das Tool findet für 90 Prozent aller Workloads in Echtzeit die am besten passende Ressource , stellt sie automatisch bereit und skaliert sie.

Plattformerweiterungen 2022

Die ebenfalls neue Rescale Elastic Cloud Platform lässt sich in Minuten am Desktop als Tool für verteilte Teams aktivieren. Sie übernimmt auf skalierbaren Apps und Ressourcen aus der Rescale-Plattform Vorverarbeitung, Berechnung und Nachverarbeitung von Simulationen. Diese Vorgänge beschleunigen sich dadurch stark.

'Elastic Cloud Workstations' geben Entwicklern automatisierten Zugang zu den jeweils nötigen Rechenressourcen.(Bild:  Rescale)
'Elastic Cloud Workstations' geben Entwicklern automatisierten Zugang zu den jeweils nötigen Rechenressourcen.
(Bild: Rescale)

Eine weitere Neuerung, „Rescale Performance Profiles“, speichern kundenindividuelle Leistungsprofile für Modelle oder spezielle Workloads, die die Leistung mit der Zeit optimieren. Bis zu 30 Prozent Mehrleistung sollen damit drin sein.

„Continuous Performance Optimizer“ bietet laufend komplette Workload-spezifische Daten zum gesamten Stack und den Kosten. Die Funktion zeigt an, wenn neue Hardwarearchitekturen verfügbar sind, und weist darauf hin, wenn Leistung durch Lizenzfragen blockiert wird. Ein Performance Dashboard liefert Workload-spezifische Informationen zu Engpässen, die die Leistung der jeweiligen Workload behindern. Manchmal lohne es sich, so Rescale, etwas teurere Hardware zu nutzen, wenn dadurch Geld bei Lizenzen eingespart werden kann.

Erst im kommenden Jahr kommt Rescale Publisher auf den Markt. Das Tool ermöglicht Vermessung, Überwachung und Management aller Workloads irgendwo im Rescale-System. Anwender können zudem über die „Rescale Intelligent Control Plane“ bestimmte Computing-Plattformen über Geografien, Service-Level und Architekturen hinweg priorisieren.

Von Daten und intelligentem Computing getriebene Forschung und Entwicklung

Die Ergebnisse, von denen Kunden des HPCaaS-Anbieters berichten, sind beeindruckend. Entwicklungszeiten werden wegen optimaler Ausstattung und der Möglichkeit, gleichzeitig mehrere Aufgaben ablaufen zu lassen, um Dimensionen verkürzt, Kosten und Umweltauswirkungen nehmen ab.

HPCaaS ermögliche, so Poort in Zukunft eine vollkommen neue Forschungs- und Entwicklungsmethodik: Bislang werde meist eine konkrete Idee entwickelt und dann durch Simulationen und Real-World-Modelle verifiziert.

"Big Compute revolutioniert Forschung und Entwicklung"; Joris Poort, Gründer und CEO von Rescale.(Bild:  Rescale/Rüdiger)
"Big Compute revolutioniert Forschung und Entwicklung"; Joris Poort, Gründer und CEO von Rescale.
(Bild: Rescale/Rüdiger)

In Zukunft werde man mittels AI, neuronalen Netzen und hochleistungsfähigen Rechenressourcen Rahmenbedingungen vorgeben, aus denen dann das System einen konkreten Realisierungsvorschlag entwickelt. Der werde zunächst als Digital Twin umgesetzt, getestet und optimiert. Das verhindere viele Irrwege, spare Manpower, Zeit, Kosten und Material. Und schließlich komme dabei oft etwas vollkommen Neues heraus.

(ID:48765677)