Viele anspruchsvolle Workloads brauchen längst mehr als nur eine Hardware-Architektur und eine Software. Doch kaum jemand kann sich für jede Aufgabe die passende Hardware ins eigene Unternehmen holen. Eine Lösung dafür ist HPCaaS.
Big Compute bezeichnet die Kombination skalierbarer, in Multicloud-Umgebungen verteilter HPC-Ressourcen mit intelligenten Algorithmen.
(Bild: Rescale)
Während die Zahl gängiger Hardwareplattformen zur Jahrtausendwende merklich zusammengeschrumpft war, fährt der Zug nun in die andere Richtung. Denn Moore`s Law funktioniert nicht mehr. Es zeigt sich, dass Hardware besser an die jeweils zu lösenden Aufgaben angepasst werden muss, um schnell genug zu rechnen und gleichzeitig weder Energie noch Zyklen zu verschleudern.
Inzwischen gibt es eine Welle neuer Prozessorarchitekturen. „Allein 2022 wurden bisher 370 neue Architekturen veröffentlicht“, sagt Poris Poort, CEO und Gründer von Rescale, einem HPCaaS-Anbieter. Die neuen, spezialisierten Architekturen tragen seit etwa der Jahrtausendwende maßgeblich Steigerungen der Rechenleistung bei.
Beispiele gibt es genug: die Chips „Gravitron“, „Tranium“ und „Inferia“ von AWS, der „Altra“ von Ampere, der „Grace“-Chip von Nvidia, „Tachyum“, an dem ein EU-Projekt arbeitet, Googles „Tensor Processing Unit“ (TPU), Apples „A16“, Microsofts aufgabenangepasste FPGAs, beispielsweise für tiefe Interferenz von neuronalen Netzwerken, Teslas Supercomputer „Dojo“ für autonomes Fahren individuelle Designs auf Atom- oder RISC-V-Basis und auch neue Architekturen von AMD und Intel. Viele dieser Prozessoren stehen in Cloud-Rechenzentren der Hyperscaler oder anderer Provider.
Industrie und Forschung haben nicht für jede Aufgabe die optimale Umgebung
Aufgaben wie Simulation, neuronale Netze, Sprachverstehen, die Auswertung und Analyse von Echtzeit-Datenstreams, strömungsdynamische Berechnungen (CFD, Computational Fluid Dynamics) oder Schaltkreisdesign sind wichtige Anwendungsgebiete. „Computing Power wird in Zukunft mit über den Unternehmenserfolg entscheiden“, ist Poort überzeugt.
Komplexe Verarbeitungsketten, etwa beim Aufbau und Anlernen Neuronaler Netze oder bei der Integration und Analyse unterschiedlicher Daten-Streams und anderer Datenquellen benötigen oft unterschiedliche Tools, die auf an jeden Algorithmus angepasster Hardware am besten laufen. Doch das Optimale für alles kann sich kaum ein Unternehmen leisten.
Hardware- und Stack-Vielfalt nötig
Ist der richtige Prozessor gefunden, sagt das aber noch nichts über den Rest des Stack aus: Wie viele Units braucht die Aufgabe, welche Art von und wie viel Storage, wie breit müssen Netzwerkverbindungen sein und so weiter. Es stellen sich eine Unzahl von Fragen über alle Infrastrukturebenen hinweg.
Poort: „Es gibt heute mehr als 50 Millionen Kombinationen, die man eigentlich alle testen müsste, um die optimale Umgebung für eine anspruchsvolle Forschungs- oder Entwicklungs-Workload zu finden.“
Eine Lösung besteht darin, die nötigen Rechenressourcen anzumieten. Die gibt es beispielsweise bei nationalen Großrechenzentren wie dem Leibniz-Rechenzentrum in Garching – allerdings sind Ressourcen und Architekturvielfalt jedes einzelnen Anbieters begrenzt. Deshalb werden, so Poort, Projekte oft genug nicht an den Anforderungen der dafür verwendeten Software, sondern umgekehrt an der verfügbaren Hardware ausgerichtet.
Das erhöht Kosten und Zeitaufwand. Zudem führt es unter Umständen zu suboptimalen Ergebnissen.
HPCaaS aus der Multicloud
Ein neues Schlagwort umschreibt eine Lösungsmöglichkeit für die Herausforderung: 'Big Compute'. Gemeint sind damit hoch skalierbare, anwendungsbezogen optimierte Infrastrukturressourcen in einer globalen Multicloud-Umgebung intelligent analysiert und bei Bedarf weitgehend automatisiert bereitgestellt. Auf dieser Idee beruht das HPCaaS-Geschäftsmodell von Rescale.
Die Hardware-Auswahl bei Cloud-Providern wächst stetig.
(Bild: Rescale)
Denn welches Unternehmen kann individuell austesten, welche seiner Algorithmen auf welchem und Stack wo und wann am besten, kostengünstigsten und umweltfreundlichsten läuft? Und wer ersinnt funktionierende Betriebsmodelle, mit denen sich die komplexen Beziehungen zu einer Vielzahl von Providern und Services gestalten lassen?
Rescale hat Tools und Architekturen vorgetestet
Hier greift die Geschäftsidee von Rescale: Man koopperiere mit Cloud-Providern von HPC-Ressourcen, teste deren Stacks in allen möglichen Kombinationen mit mit möglichst vielen in R&D gern genutzten Anwendungen, finde heraus, was auf was unter welchen Umständen am besten läuft. Dann reichere man diese Informationen mit Echtzeitdaten über Preise, Verfügbarkeiten und die Nachhaltigkeit des jeweiligen Angebots an, übernehme die Sicherheitsverantwortung für den gesamten Stack einschließlich Anwendungssoftware, automatisiere die Bereitstellung bei Bedarf und biete das Ganze als HPCaaS an.
Unverzichtbar dafür ist Rescales Netz an Kooperationspartnern, zu denen die wichtigsten Prozessoranbieter, Hyperscaler und andere Cloud-Anbieter, etwa VMware, genauso gehören wie entsprechende R&D-Softwarelieferanten, etwa Siemens oder Cadence. Durch ein REST-API und weitere offene Schnittstellen kann sich Rescale auch mit allen wichtigen Hochelstungsspeichersystemen, PLM-Softwares, Data Lakes und Data Warehouses verbinden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Mehr als 1.700 Software-Items verfügbar
Auf der Rescale-HPCaaS-Plattform finden sich inzwischen unter einer über den Browser nutzbaren Web-Schnittstelle rund 900 beliebte F&E-Softwares und rund 800 containerisierte Applikationen, AI-Frameworks und Modelle aus dem „Nvidia NGC“-Katalog. Nvidia plant, auch AI Enterprise, das Betriebssystem seiner KI-Plattform, über bei Rescale angeschlossene VMware-Ressourcen als Service verfügbar machen.
Viele neue Prozessorarchitekturen sind an die Anforderungen einzelner Anwendungsszenarien angepasst.
(Bild: Rescale)
Zudem können Anwender jederzeit Container mit selbst geschriebenen Anwendungen oder Open-Source-Paketen hochladen. Für das kommende Jahr hat Rescale den „Publisher“ angekündigt, eine Software, mit der man Software, die in der Rescale-Plattform läuft, messen, überwachen und managen kann.
Zu den Kunden, die sich davon überzeugen lassen, gehörten unter anderem Boeing (Dreamliner-Entwicklung), Gaon Chips (Chip-Zulieferer von Samsung) und die NASA.
Wer etwas rechnen will, loggt sich ein, wählt aus dem Portfolio die passenden Anwendungen und Ressourcen samt Skalierung und stößt den Rechenlauf an. Zudem lassen sich ganze Verarbeitungsketten vorbereiten, die nacheinander auf unterschiedliche Programme und Infrastruktur-Provider zugreifen.
Die Plattform wird ständig erweitert. Neu angekündigt wurde auf Rescales Jahrestagung „Big Compute 2022“ Anfang November der „Compute Optimizer“. Das Tool findet für 90 Prozent aller Workloads in Echtzeit die am besten passende Ressource , stellt sie automatisch bereit und skaliert sie.
Plattformerweiterungen 2022
Die ebenfalls neue Rescale Elastic Cloud Platform lässt sich in Minuten am Desktop als Tool für verteilte Teams aktivieren. Sie übernimmt auf skalierbaren Apps und Ressourcen aus der Rescale-Plattform Vorverarbeitung, Berechnung und Nachverarbeitung von Simulationen. Diese Vorgänge beschleunigen sich dadurch stark.
'Elastic Cloud Workstations' geben Entwicklern automatisierten Zugang zu den jeweils nötigen Rechenressourcen.
(Bild: Rescale)
Eine weitere Neuerung, „Rescale Performance Profiles“, speichern kundenindividuelle Leistungsprofile für Modelle oder spezielle Workloads, die die Leistung mit der Zeit optimieren. Bis zu 30 Prozent Mehrleistung sollen damit drin sein.
„Continuous Performance Optimizer“ bietet laufend komplette Workload-spezifische Daten zum gesamten Stack und den Kosten. Die Funktion zeigt an, wenn neue Hardwarearchitekturen verfügbar sind, und weist darauf hin, wenn Leistung durch Lizenzfragen blockiert wird. Ein Performance Dashboard liefert Workload-spezifische Informationen zu Engpässen, die die Leistung der jeweiligen Workload behindern. Manchmal lohne es sich, so Rescale, etwas teurere Hardware zu nutzen, wenn dadurch Geld bei Lizenzen eingespart werden kann.
Erst im kommenden Jahr kommt Rescale Publisher auf den Markt. Das Tool ermöglicht Vermessung, Überwachung und Management aller Workloads irgendwo im Rescale-System. Anwender können zudem über die „Rescale Intelligent Control Plane“ bestimmte Computing-Plattformen über Geografien, Service-Level und Architekturen hinweg priorisieren.
Von Daten und intelligentem Computing getriebene Forschung und Entwicklung
Die Ergebnisse, von denen Kunden des HPCaaS-Anbieters berichten, sind beeindruckend. Entwicklungszeiten werden wegen optimaler Ausstattung und der Möglichkeit, gleichzeitig mehrere Aufgaben ablaufen zu lassen, um Dimensionen verkürzt, Kosten und Umweltauswirkungen nehmen ab.
HPCaaS ermögliche, so Poort in Zukunft eine vollkommen neue Forschungs- und Entwicklungsmethodik: Bislang werde meist eine konkrete Idee entwickelt und dann durch Simulationen und Real-World-Modelle verifiziert.
"Big Compute revolutioniert Forschung und Entwicklung"; Joris Poort, Gründer und CEO von Rescale.
(Bild: Rescale/Rüdiger)
In Zukunft werde man mittels AI, neuronalen Netzen und hochleistungsfähigen Rechenressourcen Rahmenbedingungen vorgeben, aus denen dann das System einen konkreten Realisierungsvorschlag entwickelt. Der werde zunächst als Digital Twin umgesetzt, getestet und optimiert. Das verhindere viele Irrwege, spare Manpower, Zeit, Kosten und Material. Und schließlich komme dabei oft etwas vollkommen Neues heraus.