IT-Awards 2023 Die beliebtesten Anbieter von HPC- und KI-Hardware

Von Martin Hensel 3 min Lesedauer

Anbieter zum Thema

Hochleistungsfähige Rechner sind unter anderem aus der Forschung und bei der Analyse großer Datenmengen nicht mehr wegzudenken. Mit der stetig steigender Datenflut wächst der Bedarf an Rechenleistung zudem konstant weiter. Mit immer neuen Rekorden warten die Hardware-Hersteller für das High-Performance Computing (HPC) und Künstliche Intelligenz (KI) auf – und auch das Quantencomputing wird interessanter.

High Performance Computing (HPC) und Künstlche Intelligenz (KI) ziehen sich magisch an und vereinen sich im großen und sehr großen Cluster. (Bild:  Nicolas - stock.adobe.com)
High Performance Computing (HPC) und Künstlche Intelligenz (KI) ziehen sich magisch an und vereinen sich im großen und sehr großen Cluster.
(Bild: Nicolas - stock.adobe.com)

Die Welt ist komplex und voller Informationen, die es zu entschlüsseln und analysieren gilt. In der Forschung und im Ingenieurswesen kommen dazu HPC-Cluster und KI-Systeme zum Einsatz. Mit innovativen Algorithmen gefüttert, durchleuchten sie riesige Mengen an strukturierten und unstrukturierten Daten auf Muster und Zusammenhänge. Im Ergebnis führt das häufig zu bislang unbekannten Verfahren und Erkenntnissen, die im besten Fall zu Verbesserungen in unserem Lebensalltag führen.

Ein Beispiel dafür ist etwa die Analyse medizinischer Bilddaten durch speziell entworfene, selbstlernende KI-Systeme. Nach entsprechendem Training können sie Erkrankungen und Anomalien mit hoher Zuverlässigkeit erkennen und möglicherweise die behandelnden Ärzte in Zukunft unterstützen. Weniger Fehldiagnosen und gezieltere Behandlungsmöglichkeiten oder gar völlig neue Therapieansätze sind hier das Ergebnis.

Unersättlicher Leistungshunger

Derartige Fortschritte haben natürlich ihren Preis: Dieser besteht unter anderem in einem immensen Bedarf an leistungsfähigen Systemen. Klassische Architekturen sind mit den erforderlichen komplexen Analysen, detaillierten Simulationen, KI- und Machine-Learning-Training oder großen Business-Intelligence-Projekten schlicht überfordert.

An ihre Stelle treten spezialisierte Systeme und entsprechende Hardware, die auf die parallele Verarbeitung von Aufgaben ausgelegt sind. Sie lassen sich in zentral gesteuerte und verwaltete Cluster oder Grids aggregieren, um maximale Performance zu bieten. Zudem schicken sich Quantencomputer an, künftig eine größere Rolle in HPC-Rechenzentren zu übernehmen. Sie sind in der Lage, bestimmte Aufgabenstellen exponentiell schneller und mit vergleichsweise geringerem Ressourcenaufwand zu bewältigen (siehe auch: Link unten).

Superrechner für besonders schwere Fälle

HPC-Umgebungen sind klassischerweise für besonders anspruchsvolle und komplizierte Problemstellungen konzipiert. Mit Performance-Werten, die vom TeraFlops-Bereich („Floating Point Operations Per Second“, Gleitkommaoperationen pro Sekunde) bis in PetaFlops- und ExaFlops-Größenordnungen reichen, sind sie in Wissenschaft und Technik besonders gefragt.

Laut den aktuellen Bestenlisten liegt aktuell der Supercomputer „Frontier“ des Oak Ridge Laboratory im US-Bundesstaat Tennessee in Sachen Leistung vorn. Im Linpack-Benchmark erreichte das System als bislang einziges weltweit eine Rechen-Performance von 1,194 ExaFlops. Frontier basiert auf der „Cray-EX235a“-Architektur von HPE und ist mit „Epyc-64C“-Prozessoren von AMD ausgestattet, die mit 2 Gigahertz Taktfrequenz arbeiten.

Insgesamt stellt der Supercomputer 8.699.904 Rechenkerne bereit. Eine Variante des Systems (Frontier TDS, „Test & Development System“) liegt zudem im Green500-Vergleich der Energie-Effizienz mit 62,684 GigaFlops pro Watt auf dem zweiten Rang weltweit. Spitzenreiter ist hier der Großrechner „Henri“ des Flatiron Institutes mit 65,396 GigaFlops pro Sekunde.

Aus dem Labor in die Unternehmen

Für den Einsatz in Unternehmen sind derartige HPC-Großsysteme eindeutig überdimensioniert. Dennoch gibt auch hierfür spezielle HPC-Umgebungen, die entweder in dedizierten Rechenzentren betrieben werden oder sogar on-premises in den Unternehmen selbst stehen.

Bildergalerie

Meist handelt es sich dabei um Cluster aus Servern, Storage- und Netzwerksystemen. Sie nutzen spezielle Hardware, die auf hohe Rechenleistung oder Performance optimiert ist. Zu den verbauten Komponenten zählen Mehrkern-CPUs, spezialisierte GPUs, Hochgeschwindigkeitsnetzwerke und hochleistungsfähige Speicherumgebungen.

Derartige Installationen sind allerdings immer noch mit hohen Kosten verbunden. Oft ist es deshalb einfacher, auf entsprechende Cloud-Angebote zurückzugreifen. Sie bieten im direkten Vergleich unkomplizierten Zugang zu HPC-Umgebungen und lassen sich auf die jeweiligen Bedürfnisse maßschneidern.

In der Regel sind derartige Services bei Bedarf skalierbar, schnell einsatzfähig und lassen sich dadurch für zeitnahe Ergebnisse gut nutzen. Der sonst nötige Aufbau eigener Infrastruktur entfällt. Wartung, Sicherheit und Patches werden in der Regel vom Anbieter vorgenommen. In der Regel erfolgt die Abrechnung der Dienste nutzungsbasiert auf der Grundlage der tatsächlich in Anspruch genommenen Ressourcen. Das sorgt für Planungssicherheit.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung
IT-Awards 2023 – die große Bildergalerie
Bildergalerie mit 167 Bildern

Artikelfiles und Artikellinks

(ID:49770496)