Die Produktion des Grafikprozessors „Nvidia H100 Tensor Core“ ist angelaufen, hat Nvidia während der hauseigenen „GTC“-Konferenz in der vergangenen Woche bekannt gegeben. Die ersten Produkte und Services, die auf der zugrundeliegenden „Hopper“-Architektur aufbauen, sollen bereits im Oktober bei globalen Technologiepartnern eingeführt werden. Und dann ist da noch der 'Superchip'....
Der „Grace Hopper Superchip“ eignet sich insbesondere für Empfehlungssysteme. Sie werden bei Nvidia als „die Wirtschaftsmotoren des Internets“ beschrieben und der Chip als „Turbolader“.
(Bild: Nvidia)
Computerhersteller wie, Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Lenovo und Supermicro sowie die Cloud-Service-Anbieter AWS, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure haben bereits angekündigt, Angebote mit der GPU H100 anbieten zu wollen.
Der im April vorgestellte Grafikprozessor H100 verfügt über 80 Milliarden Transistoren. Zur Leistungsfähigkeit trägt aber eine neue „Transformer Engine“ und die die Verbindungstechnik „NVLink Interconnect“ bei. Sie dienen insbesondere der Beschleunigung großer KI-Modelle, wie fortschrittliche Empfehlungssysteme und umfangreiche Sprachmodelle, und treiben Innovationen in Bereichen wie Conversational AI sowie in der Arzneimittelforschung voran.
Jensen Huang, Gründer und CEO von Nvidia: „Hopper ist der neue Motor der KI-Fabriken, der Berge von Daten verarbeitet und verfeinert, um Modelle mit Billionen von Parametern zu trainieren, die für Fortschritte in der sprachbasierten KI, der Robotik, dem Gesundheitswesen und den Biowissenschaften eingesetzt werden.“
(Bild: Nvidia)
Neben der Hopper-Architektur und der Transformer-Engine sorgen Multi-Instance-Grafikprozessoren der zweiten Generation, weitere Computing-Sicherungen und „DPX“-Anweisungen für die Leistungsfähigkeit. Zudem ist nun eine Fünf-Jahres-Lizenz für die „AI Enterprise Software Suite“ des herstellers im Lieferumfang von H100 für Mainstream-Server enthalten. Dies kann die Entwicklung und den Einsatz von KI-Workflows optimieren und sicherstellen, dass Unternehmen Zugang zu den KI-Frameworks und -Tools haben, die für die Entwicklung von KI-Chatbots, Empfehlungsmaschinen, Vision AI und mehr benötigt werden.
Der Rollout von Hopper
Laut Nvidia kann H100 es Unternehmen ermöglichen, die Kosten für die Bereitstellung von KI zu senken, indem die GPU-Technik die gleiche KI-Leistung mit 3,5-facher Energie-Effizienz und dreifach niedrigeren Gesamtbetriebskosten liefere, während sie fünfmal weniger Serverknoten als die vorherige Generation benötige. Für Kunden, die die Technologie sofort ausprobieren möchten, läuft H100 auf „Dell Poweredge“-Servern auf dem „Nvidia Launchpad“. Dieses bietet kostenlose praktische Übungen und ermöglicht Unternehmen den Zugriff auf die neueste Hardware und der AI-Software.
Außerdem können Kunden bereits „DGX“- Systeme von Nvidia mit H100-Systeme bestellen. Diese enthalten acht H100-GPUs und bieten und eine Leistung von 32 PetaFlops bei FP8-Präzision. Dazu gehören „Base Command“ sowie die AI Enterprise Software von Nvidia; denn die Software-Tools treiben jedes DGX System an und ermöglichen Implementierungen von einem einzelnen Knoten bis hin zu einem „DGX Superpod“.
H100-betriebene Systeme von den anderen Computerherstellern werden voraussichtlich in den kommenden Wochen ausgeliefert, so dass bis Ende des Jahres mehr als 50 Servermodelle auf dem Markt sein werden und Dutzende weitere in der ersten Hälfte des Jahres 2023. Darüber hinaus werden einige der weltweit führenden Hochschul- und Forschungseinrichtungen H100 zum Betrieb ihrer Supercomputer der nächsten Generation einsetzen. Dazu gehören das Barcelona Supercomputing Center, das Los Alamos National Lab, das Swiss National Supercomputing Centre (CSCS), das Texas Advanced Computing Center und die University of Tsukuba.
H100 kommt in die Cloud
Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure werden zu den ersten gehören, die ab dem nächsten Jahr H100-basierte Instanzen in der Cloud bereitstellen. So sagt Nidhi Chappell, General Manager von Azure AI Infrastructur, beispielsweise: „Wir freuen uns darauf, die nächste Generation von KI-Modellen auf den neuesten H100-GPUs in Microsoft Azure zu ermöglichen. Mit den Fortschritten in der Hopper-Architektur in Verbindung mit unseren Investitionen in Azure AI Supercomputing können wir dazu beitragen, die Entwicklung von KI weltweit zu beschleunigen.“
Die fortschrittliche Transformer-Engine-Technologie der H100 ermöglicht es Unternehmen, schnell große Sprachmodelle mit einem höheren Genauigkeitsgrad zu entwickeln. Da diese Modelle immer umfangreicher werden, steigt auch die Komplexität, so dass manchmal Monate für das Training benötigt werden. Um dieses Problem zu lösen, werden einige der weltweit führenden großen Sprachmodelle und Deep-Learning-Frameworks auf H100 optimiert, darunter „Nemo Megatron“ von Nvidia, „Microsoft Deepspeed“, „Google JAX“, „Pytorch“, „Tensorflow“ und „XLA“.
Der Turbolader
„Grace Hopper“ ist die Bezeichnung des „Superchips“ von Nvidia, wie ihn das Unternehmen selbst bezeichnet. Er eignet sich insbesondere für Empfehlungssysteme. Um die Bedeutung zu verstehen, sollte in Betracht gezogen werden, dass jeden Tag Empfehlungssysteme Billionen von Suchergebnissen, Werbung, Produkten, Musik und Nachrichten an Milliarden von Menschen liefern. Sie gehören somit zu den wichtigsten KI-Modellen, weil sie effektiv im Internet-Pandämonium ´die Perlen` finden, die die Nutzer suchen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der „Grace Hopper Superchip“ eignet sich insbesondere für Empfehlungssysteme. Sie werden bei Nvidia als „die Wirtschaftsmotoren des Internets“ beschrieben und der Chip als „Turbolader“.
(Bild: Nvidia)
Diese Pipelines für maschinelles Lernen arbeiten mit Terabytes von Daten. Je mehr Daten die Empfehlungssysteme nutzen können, desto genauer sind ihre Ergebnisse und desto höher ist die Rendite, die sie erzielen. Um diesen Daten-Tsunami zu verarbeiten, setzen Unternehmen bereits auf Accelerated Computing, etwa um ihre Dienste für ihre Kunden zu personalisieren.
Bei Pinterest beispielsweise, das Unternehmen, das für den Austausch von Bildern in sozialen Medien steht, konnte durch den Einsatz von Nvidia-Grafikprozessoren auf 100-fach größere Empfehlungsmodelle umsteigen. Dadurch konnte die Beteiligung der mehr als 400 Millionen Nutzer um 16 Prozent gesteigert werden.
Ein Software-Ingenieur des Unternehmens äußerte kürzlich in einem Blog: „Normalerweise wären wir mit einer Steigerung von 2 Prozent zufrieden. Aber jetzt sind 16 Prozent erst ein Anfang.“
NVLink beschleunigt Grace Hopper
Grace Hopper besteht eigentlich aus zwei Chips, aber in einer Einheit, die sich eine superschnelle Chip-to-Chip-Verbindung teilen. Es handelt sich um eine ARM-basierte Grace CPU von Nvidia und eine Hopper-GPU, die über „NVLink-C2C“ kommunizieren.
NVLink kann aber noch mehr; die Technik kann viele Superchips zu einem Supersystem, einem Computing-Cluster, das für Empfehlungssysteme der Terabyte-Klasse entwickelt wurde, verbinden. Die Connectivity-Technik überträgt Daten mit 900 Gigabyte pro Sekunde - das ist das Siebenfache der Bandbreite von PCIe Gen 5, dem Interconnect, den die meisten zukünftigen Spitzensysteme verwenden werden. Das bedeutet, dass Grace Hopper die Empfehlungssysteme mit 7x mehr Einbettungen - Datentabellen, die mit Kontext gefüllt sind - füttert, die sie benötigen, um die Ergebnisse für die Benutzer zu personalisieren.
Im Gesamtergebnis erzielen Empfehlungsgeber mit Grace Hopper eine bis zu 4x höhere Leistung und größere Effizienz als mit herkömmlichen CPUs.
(Bild: Nvidia)
Die Grace-CPU verwendet „LPDDR5X“, einen Speichertyp, der ein Gleichgewicht zwischen Bandbreite, Energieeffizienz, Kapazität und Kosten für Empfehlungssysteme und andere anspruchsvolle Workloads herstellen soll. Er bietet 50 Prozent mehr Bandbreite und verbraucht dabei nur ein Achtel des Stroms pro Gigabyte im Vergleich zu herkömmlichen DDR5-Speicher-Subsystemen.
Alle Hopper-GPUs in einem Cluster können über NVLink auf den Grace-Speicher zugreifen. Dies ist eine Funktion von Grace Hopper, die die größten GPU-Speicherpools aller Zeiten bietet. Darüber hinaus benötigt NVLink-C2C nur 1,3 Picojoules pro übertragenem Bit und ist damit mehr als fünfmal so Energie-effizient wie PCIe Gen 5.
Auf dem Grace Hopper Superchip läuft die gesamte KI-Software von Nvidia, zum Beispiel:
„Nvidia Merlin“ wird vom Hersteller als „Raketentreibstoff für Empfehlungssysteme“ bezeichnet und besteht aus einer Sammlung von Modellen, Methoden und Bibliotheken für die Entwicklung von KI-Systemen.
„Nvidia Merlin HugeCTR“, ein Empfehlungsframework. Es hilft Anwendern bei der schnellen Verarbeitung großer Datensätze über verteilte GPU-Cluster mit Hilfe der „Nvidia Collective Communications Library“.