Wenn es um Beschleuniger im Compute-Bereich geht, ist schnell von GPUs, DPUs, IPUs und FPGAs die Rede. Aber es gibt noch viele weitere Methoden und Techniken, Rechnern und Rechenzentren auf die Sprünge zu helfen - es entsteht das Accelerated Computing.
Beschleuniger der neuen Art: QPU-Chip von QuantWare
(Bild: Quantware)
„Accelerated Computing“? Heißt das, man steckt einen Turbochip rein und ab geht die Post? Mit Sicherheit nicht - einfach weil es einen solchen universell einsetzbaren Turbochip überhaupt nicht gibt, sieht man einmal davon ab, dass der Austausch einer bestehenden Prozessorgeneration durch eine neu entwickelte Generation den Rechenprozessen neuen Schub verleiht. In der Regel jedenfalls, sicher ist das auch nicht immer.
Wenn nämlich schon in der alten Konfiguration die Software schlecht auf die Prozessor-Architektur abgestimmt war, dann kann diese missliche Tatsache mit der neuen und rein technisch deutlich schnelleren Prozessorversion womöglich noch einmal sichtbarer werden. Was von vornherein falsch konzipiert ist, wird durch pure Rechen-Power eher noch schneller an die Wand gefahren als verbessert.
Generalisten und Spezialisten
In einem Blog-Beitrag von Nvidia zum Thema von Rick Merritt „What is Accelerated Computing?“ vom 1. September 2019, wird im Rahmen der (durchaus berechtigten) Elogen über die Leistungen der Nvidia-GPUs auch der Parallelprozessor-Pionier Inmos mit seinem Transputer als Nvidia-Mitbewerber in den frühen 1990er-Jahren erwähnt und kommentiert: „Ein sehr guter Ansatz, aber es fehlte die Softwarelandschaft darum herum.“
Ganz richtig, genau darum geht es: um die möglichst passgenaue Abstimmung von Hardware und Software. In den Frühzeiten de Prozessorbeschleunigung waren es die Koprozessoren, die besonders gut in „Mathe“ waren und die mit ihren Spezialisten-Fähigkeiten bei Gleitkomma-Operationen dem Hauptprozessor als Generalisten auf die Sprünge helfen sollten.
Später kamen dann die digitalen Signalprozessoren, die auf schnelle Kommunikation spezialisiert waren und die Grafikprozessoren (GPUs) dazu, die besonders gut Bilder aufbauen können. Der eben genannte Transputer war im Übrigen sowohl Spezialprozessor, und zwar mit dem Spezialgebiet Parallelverarbeitung, hatte aber gleichzeitig auch alle Eigenschaften eines Universalprozessors. Vielleicht war das ja seine „geschäftliche Tragik“.
Die GPUs und ihre Ausprägungen
Mittlerweile sind „beschleunigende Prozessoren“ umfassend ausdifferenziert, schon allein die als GPU bezeichneten Chips haben viele Unterarten mit ganz speziellen Fähigkeiten: Maschinelles Lernen (ML) inclusive Verarbeitung natürlicher Sprache mit ML, Bildverarbeitung, Simulationsrechnungen, Deduktionsmechanismen im KI-Bereiche und mehr.
Das Anfang 2021 eingerichtete Zentrum für nationales Hochleistungsrechnen Erlangen an der dortigen Friedrich-Alexander-Universität (NHR@FAU) ist dafür ein gutes Beispiel. Das neue Hochleistungsrechner-Cluster „Alex“ von NHR@FAU besteht aus den beiden GPU-Servern NF5468A5 und NF5488A5 von Inspur, die sich ihrerseits aus insgesamt 256 NVIDIA A100 Tensor Core GPUs und 304 NVIDIA A40 Tensor Core GPUs zusammensetzen.
Je nach Aufgabenstellung, zum Beispiel Molekulardynamiksimulationen und ML-Lösungen, wird das eine oder das andere Cluster mit Programm und Daten bestückt. Mit dieser Kombination hat man eine leistungsstarke und flexible Lösung, da verschiedene Software- und Datenkombinationen eine unterschiedliche Auslastung von CPUs, GPUs, Speicher und Festplatten erfordern.
IPUs und SmartNICs als weitere Spezialchips
Obwohl GPUs mittlerweile eine Art Baukastensystem für die unterschiedlichsten Anwendungsfelder sind, gibt es daneben noch weitere (und nicht wenige) Spezialprozessoren, die bestimmte Bereiche des Computings beschleunigen und damit auch als Turbo für das gesamte Datacenter wirken. So können neuerdings die gesamten Infrastrukturoperationen, die für den Betrieb eines lokalen Rechenzentrums oder auch eines globalen Rechenzentrumsverbund via Cloud notwendig sind, an einen Spezialprozessor wie beispielsweise die 'Infrastructure Processing Unit' (IPU) von Intel ausgelagert werden.
Ähnliche Infrastrukturspezialisten gibt es auch für (virtualisierte) Netzwerk-Infrastrukturen und Funkverbindungen (SmartNICs). Derartige Spezialprozessoren werden in aller Regel als freiprogrammierbare Logikschaltungen (FPGAs) realisiert.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Da solche Spezialchips in Server- beziehungsweise Rechenzentrums- und Cloud-Umgebungen Standard sind oder demnächst werden, kann es sicher von Vorteil sein, wenn sie – wie beispielsweise Intel für seine künftigen „Arctic-Sound-M“-GPUs vermeldet – denselben Software-Stack und dieselbe API-Schnittstelle wie die dazugehörige CPU benutzen. So muss Software für beide Plattformen nur einmal entwickelt werden. Zugegebenermaßen sind die Nutzer dann an den entsprechenden Hersteller gebunden. Na ja, man muss für alles zahlen im Leben und auch in der IT.
SGX, CLX, Infiniband
Turbo-Elemente für das Computing sind nicht nur spezielle Chips, sondern auch komplette standardisierte Architekturen, die aus Software und Hardware bestehen. Intel „Software-guarded Extensions“ (SGX) ist ein solche Architektur, bei der mit einem Hardware-Software-Mix sensible Anwendungen und Daten, beispielsweise im medizinischen Bereich, durch einen hardwaregestützten Speicherschutz vor nicht-autorisiertem Zugriff geschützt werden.
Eine zentrale „Beschleunigungs-Architektur" ist der Compute Express Link (CLX), der mittlerweile (mit Version CLX 3.0) von allen relevanten Halbleiter-, Server-, Netzwerk- und Speicher-Herstellern unterstützt wird. Bei CLX handelt es sich um ein auf dem PCIe-Bus aufbauendes Verbindungssystem, das in einem Datacenter zwischen Zentrale und Peripherie alles mit allem direkt verbinden kann, und das sehr breitbandig und mit geringster Latenz.
CLX hat nicht nur das Zeug, die Daten zwischen dem zentralen Prozessor und den Peripherie-Komponenten noch schneller fließen zu lassen, sondern sorgt tendenziell auch dafür, dass ein Rechenzentrum sehr einfach, Energie-effizient und kostengünstig modularisiert werden kann und dass sinnloser Overhead vermieden wird. Für die gerade freigegebene Version CLX 3.0 fehlen aber derzeit noch die Komponenten. Aber das wird in zwei bis vier Jahren sicher anders sein.
Im Speicher- und Netzwerkbereich ist Infiniband ein wichtiger Rechen-Turbo. Der Netzwerk-Stack entfällt bei Infiniband. Dadurch wird die CPU entlastet und viele Kopiervorgänge vermieden. Nicht ohne Grund hat vor einigen Jahren das Accelarate-Computing-Schwergewicht Nvidia den dominierenden Infiniband-Protagonisten Mellanox in sein Imperium geholt.
Infiniband ist nicht so sehr eine Netzwerktechnologie als eher eine verlängerte Busstruktur, die vorwiegend im Bereich von Serverclustern, Server-Massenspeicher-Aggregaten sowie Rechenzentrum-Verbindungen verwendet wird. Auch Infiniband ist im Übrigen (wie auch CLX 3.0) als Weiterentwicklung des PCIBus entstanden.
QPUs und Analogrechner als Beschleuniger
Zukunftsträchtige Computing-Beschleuniger sind nicht zuletzt auch Quantenkomponenten.Quantum Processing Units (QPU) sind die CPUs, DPUs oder GPUs des Quantencomputings. Sie sind allerdings tückisch, QPUs sind sozusagen Qubits zusammen mit Schrödingerscher Wellengleichung. Die letztere so zu manipulieren, dass vernünftige Rechenergebnisse herauskommen, ist bekanntlich nicht einfach.
Wer mit QPUs rechnerisch Erfahrungen sammeln will, muss diese zwar nicht unbedingt selbst bauen, er oder sie sollten aber prinzipiell verstehen, was in deren Innerem abläuft. Erfahrungen mit QPUs lässt sich einerseits durch Cloud-Angebote sammeln, andererseits können Mutigere beziehungsweise Fortgeschrittene in Sachen Quantencomputing aber auch mit den vorkonfigurierten QPUs der niederländischen Firma Quantware experimentieren.
Da wir gerade bei den Quantenrechnern sind: diese sind ja gar keine richtigen digitalen Computer, sondern eigentlich verkleidete Analogrechner. Deshalb sei hier noch eine letzte (und provokante?) Bemerkung zum Thema Accelerated Computing angefügt: Zumindest für bestimmte Problemstellungen (durchaus nicht wenige) ist ein echter, moderner Analogrechner der wahre Beschleuniger.