Wie im Krimi: Die Taktiken im GPU-Lager Unlauterer Wettbewerb? Nvidia unter Beobachtung des U.S.-Justizministeriums

Von Anna Kobylinska und Filipe Martins* 8 min Lesedauer

Anbieter zum Thema

Im Markt für Hochleistungs-GPUs herrscht Hauen und Stechen. Exklusive Partnerschaften, verzwickte Lizenzvereinbarungen, versteckte Preisdiskriminierung und architektonische Schikanen: Nvidia, AMD und Intel sind sich nun mal nicht grün und machen sich anscheinend gegenseitig die Hölle heiß. Einige Käufer zeigen sich verunsichert und dem Department of Justice gefällt das nicht.

Kriminell oder nur unschön? Jedenfalls sind die Zwistigkeiten unten den GPU-Anbietern nicht nur amüsant. (Bild:  Fox_Dsign - stock.adobe.com)
Kriminell oder nur unschön? Jedenfalls sind die Zwistigkeiten unten den GPU-Anbietern nicht nur amüsant.
(Bild: Fox_Dsign - stock.adobe.com)

Im boomenden KI-Markt dürfte es eigentlich genug Platz für alle geben, könnte man meinen, doch dem ist es anscheinend nicht so. Den Chip-Titanen sitzt ja der Aktienmarkt im Nacken – eben diese Lektion musste Intel und selbst Nvidia lernen.

Die Marketing-Maschinen der drei GPU-Riesen Nvidia, AMD und Intel laufen stets auf Hochtouren, auch wenn sich die Lieferfristen nicht einhalten lassen. Ob Pressekonferenz oder Messe-Keynote, jeder der Anbieter singt Lobeshymnen auf die eigenen Errungenschaften und schürt Unsicherheit über die Konkurrenten.

*Das Autrenduo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet: Bisher war das Programmiermodell von CUDA mit seinen leistungsstarken Rechenfunktionen nur auf Nvidia-GPUs verfügbar. Entwickler und Forscher müssen sich entscheiden, für welche Plattform sie entwickeln wollen.

Ein auf Github unter der Apache-2.0-Lizenz veröffentlichtes Projekt mit MIT-Lizenz unter der Bezeichnung „ZLUDA“ scheint einen bemerkenswerten Durchbruch erzielt zu haben: Es stellt die Kompatibilität der NVIDIA-Rechenplattform CUDA mit ausgewählten AMD-GPUs her. Trotz der Rückziehers von Intel und AMD scheint sich nun ein dritter Sponsor gefunden zu haben.

Der/die Wohltäter/in möchte vorerst anonym bleiben. Alles klar.

Im Brennpunkt

Jensen Huang, CEO bei Nvidia, und Lisa Su, die Chefin bei AMD, scheuen die Aufmerksamkeit nicht. Von Keynote zu Keynote, von Interview zu Interview liefern sie sich gegenseitig medienwirksam einen gut kalibrierten Schlagabtausch. Grabenkämpfe um die besseren Benchmarks amüsieren die Zuschauer und doch bleiben die lustigsten Seitenhiebe zu guter Letzt in der Familie: „Dann geht es ja!“ mag sich manch einer denken.

„Sorry, girl“, witzelte Huang bei der Vorstellung der „Blackwell“-Architektur, scheinbar in Anspielung an die überlegene Leistung von Blackwell im Vergleich zur Vorgängergeneration „Hopper“ – so benannt nach der Mathematikerin, Informatikerin und Admiralin der U.S.-Marine, Grace Hopper. Ein Augenzwinkern und schon war vielen klar: „Hey, Lisa, Nvida ist jetzt schneller als AMD!“

Familienbande

Jensen Huang ist Sohn einer Schwester von Lisas Großvater; Lisa ist die Enkelin von Jensens Onkel. Die Welt ist klein!

Auf der Überholspur und durch nichts aus der Ruhe zu bringen: Dr. Lisa Su beim 'Austin Grand Prix' als Ehrengast von Mercedes-AMG F1, dem Werksteam von Mercedes-Benz in der Formel 1.(Bild:  Dr. Lisa Su)
Auf der Überholspur und durch nichts aus der Ruhe zu bringen: Dr. Lisa Su beim 'Austin Grand Prix' als Ehrengast von Mercedes-AMG F1, dem Werksteam von Mercedes-Benz in der Formel 1.
(Bild: Dr. Lisa Su)

Weg von der Bühne pflegen die zwei ersten Cousins zweiten Grades eine professionelle und respektvolle, wenn auch etwas distanzierte Beziehung – außer im Rampenlicht. Eine Produktvorstellung von AMD im Jahre 2019 quittierte Huang mit den Worten: „[AMDs neue GPU] ist enttäuschend, die Leistung ist miserabel und es ist nichts Neues dran. Wenn wir [diese Option] einschalten, werden wir es vernichten!“.

Lisa Su ließ sich nicht aus der Reserve locken. Ihre Antwort, ganz trocken: „Er hat's ja noch gar nicht gesehen.“ Die Zuschauer und Zuhörer können von den Seitenhieben der Beiden oft nicht genug bekommen.

Der Unterhaltungswert dieses „Influencer-Marketings“ fließt den Chip-Riesen mit dem Verkauf von GPUs unterm Strich in barer Münze in die Kassen. Inzwischen ist Huang das Lachen aber vergangen.

Hinter den Kulissen

Was läuft eigentlich hinter den Kulissen ab, wenn die Presse gerade nicht hinguckt? Ein Netz aus Lügen und… Einschüchterung?

Laut der Nachrichtenagentur Reuters nimmt das amerikanische Justizministerium gerade die Geschäftspraktiken von Nvidia ins Visier. In einem Bericht des „Wall Street Journal“ erhob Groq, ein aufstrebender Hersteller von KI-Hardware für Rechenzentren (siehe: Groq Rack Compute Cluster), schwere Vorwürfe gegen den Marktführer Nvidia und nimmt dabei kein Blatt vor den Mund.

Jensen Huang auf der veranstaltung „GTC“ im Jahr 2024.(Bild:  Nvidia)
Jensen Huang auf der veranstaltung „GTC“ im Jahr 2024.
(Bild: Nvidia)

Demnach soll der Chip-Gigant absichtlich die Auslieferung einzelner Bestellungen von Groq-Datencenter-GPUs verzögert haben, um Kunden von der Nutzung alternativer Produkte abzuschrecken. Laut Aussagen von Jonathan Ross, CEO bei Groq, befürchteten potenzielle Käufer, dass sie bei einem Wechsel zu konkurrierenden Lösungen mit möglichen Repressalien seitens Nvidia rechnen müssten.

„Viele der Menschen, mit denen wir sprechen, sagen uns, dass sie den Kontakt mit uns abstreiten müssen“, so Ross. Das Problem bringt er wie folgt auf den Punkt: „Sie zahlen Nvidia ein Jahr im Voraus und erhalten die Hardware möglicherweise nach einem Jahr oder sogar noch später. Und dann heißt es: „Tja, Pech gehabt, Sie kaufen woanders, also dauert es halt etwas länger.“

Ätsch, bätsch!

Diese Anschuldigungen stehen im Kontrast zu offiziellen Aussagen aus dem Hause Nvidia. Das Unternehmen sei bemüht, Lieferkapazitäten „gerecht“ zu verteilen und jenen Kundenorganisationen, die auf ihre Bestellungen warten müssten, in dieser Zeit alternative Zugangsmöglichkeiten zu Rechenressourcen bereitzustellen.

Jensen Huangs Tochter Madiso ist die Direktorin für Produkt- und Technisches Marketing im Bereich „Nvidia Omniverse“, die Entwicklungsplattform für „OpenUSD“-basierte virtuelle Anwendungen, sowie für die Robotikplattformen von Nvidia, einschließlich „Isaac“ und „GR00T“.(Bild:  Nvidia)
Jensen Huangs Tochter Madiso ist die Direktorin für Produkt- und Technisches Marketing im Bereich „Nvidia Omniverse“, die Entwicklungsplattform für „OpenUSD“-basierte virtuelle Anwendungen, sowie für die Robotikplattformen von Nvidia, einschließlich „Isaac“ und „GR00T“.
(Bild: Nvidia)

Doch zwischen den Zeilen schwingt eine klare Botschaft: Es wäre doch bedauerlich, wenn Ihre GPU-Lieferung unerwartete Verzögerungen erfahren sollte. Dann halt Pech gehabt.

Schätzungen zufolge setzen etwa 80 Prozent der Unternehmen, die KI-Beschleunigung nutzen, auf die Hardware des „grünen Titans“ aus dem kalifornischen Santa Clara. Aus reiner Angst vor Vergeltung würden Käufer die Meetings mit Nvidia Wettbewerbern strikt leugnen, sagte Groq-CEO Ross dem „Wall Street Journal“.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Wiederholung

Diese Vorwürfe erinnern an die Taktiken, mit denen Intel Anfang der 2000er Jahre seine Partner im PC-Markt unter Druck setzte, damit sie die Integration von AMD-Prozessoren unterlassen würden. Wie ist es dann ausgegangen?

Jetzt, auch im weiteren Verlauf des Berichts des „Wall Street Journal“ wird schnell deutlich, dass Nvidia seine dominante Stellung im boomenden KI-Markt offenbar schamlos ausnutzt. Die Offenlegung solcher Praktiken wirft ein schlechtes Licht auf den Wettbewerb im Markt für KI-Hardware und lässt die Diskussion über (un-)faire Marktbedingungen ins Rampenlicht rücken.

Spencer Huang, Sohn des CEO,  ist Produktmanager bei Nvidia. Sein Schwerpunkt liegt auf der Entwicklung Cloud-nativer Technologien zur Vereinfachung und Beschleunigung der Einführung von Robotiksimulationsanwendungen. Seine Arbeit umfasst die Skalierung von Simulations-Workloads, wie die Erzeugung synthetischer Daten sowie Validierungs- und Testpipelines. (Bild:  Nvidia)
Spencer Huang, Sohn des CEO, ist Produktmanager bei Nvidia. Sein Schwerpunkt liegt auf der Entwicklung Cloud-nativer Technologien zur Vereinfachung und Beschleunigung der Einführung von Robotiksimulationsanwendungen. Seine Arbeit umfasst die Skalierung von Simulations-Workloads, wie die Erzeugung synthetischer Daten sowie Validierungs- und Testpipelines.
(Bild: Nvidia)

Nvidia setzt auf proprietäre Technologien wie „CUDA“ (Compute Unified Device Architecture), die die Entwicklergemeinschaft an ihre Plattform binden und den Wechsel zu anderen GPUs erschweren. Solche Ökosysteme steigern die Abhängigkeit der Anwenderorganisationen und schaffen Marktbarrieren für kleinere Mitstreiter.

Weiß und schwarz?

Im Gegensatz dazu verfolgt AMD im Grunde genommen dem Anschein nach einen offeneren Ansatz. Mit Initiativen wie „GPUOpen“ stellt AMD den Entwickler/inne/n quelloffene Tools und Ressourcen für plattformübergreifende Anwendungen zur Verfügung. Diese Offenheit fördert die Interoperabilität und reduziert die Abhängigkeit von spezifischen Hardwareplattformen, was den Wettbewerb im Markt stärken und kleineren Akteuren den Zugang erleichtern soll. Doch bei näherer Betrachtung kommen da Zweifel auf.

A(uch)-M(itten)-D(rin) - eine Illusion der Offenheit

Mit „ZLUDA“ hingegen ist im Lauf der vergangenen fünf Jahre ein bemerkenswertes Open Source-Projekt entstanden, das allem Anschein nach keinem der drei führenden GPU-Hersteller so recht in den Kram passt. ZLUDA, ebenfalls eine parallele Computing-Ülattform und ein Programmiermodell, soll die Dominanz proprietärer Technologien aufbrechen. Der Name leitet sich vom polnischen Wort 'złuda' ab, was so viel bedeuten soll wie 'Illusion' oder 'Trugbild' – in der Tat ein gewagter Vorwurf gegen die „GPU-Mafia“, wenn man das Grafikprozessoren-Oligopol so nennen will.

ZLUDA hat sich unter anderem der Aufgabe verschrieben, Anwendungen, die mit der proprietärer CUDA-Technologie von Nvidia entwickelt wurden, auf GPUs anderer Hersteller lauffähig zu machen. Sie fungiert als eine Übersetzungsschicht, die CUDA-Aufrufe in entsprechende Befehle für die Ziel-GPU umwandelt. Dies ermöglicht es, CUDA-Anwendungen ohne Modifikationen auf Nicht-Nvidia-GPUs auszuführen.

Um seine Programmierschnittstelle CUDA hat Nvidia ein massives Plattform-Ökosystem geschaffen, das Entwickler/innen – und damit Anwenderorganisationen – an die hauseigenen GPUs bindet. Frameworks wie „TensorRT“, „cuDNN“, „Pytorch“, „Matlab“ und eine Reihe anderer Tools und Bibliotheken gelten als kritische Wettbewerbsvorteile von Nvidia.

Schwaches Ökosystem

Für Nvidia-Mitbewerber wie AMD und Intel bedeutete ZLUDA ein gefundenes Fressen. Der größte Schwachpunkt des AMD-Ökosystems beispielsweise ist nämlich der Mangel an Tools, Frameworks und Anwendungen, nicht minderwertige Hardware. AMD-Hardware zieht in Bezug auf Leistung und Effizienz mit dem Marktführer Nvidia gleich und ist ihm in vielerlei Hinsicht sogar überlegen. Doch in Sachen Software hinkt AMD dem Branchenprimus hinterher.

AMD und Nvidia nutzen jeweils eigene Architekturen und Speicherzugriffe; die Anpassung an die Unterschiede erfordert tiefgreifende Optimierungen, die sich für die betroffenen Entwickler/innen meist nicht lohnen. ZLUDA adressiert eine der zentralen Herausforderungen von Intel und AMD: den Aufbau eines wettbewerbsfähigen Software-Ökosystems.

So hatte sich ZLUDA 2020 von Andrzej Janik ins Leben gerufen, ursprünglich das Ausführen von CUDA-Anwendungen auf Intel-GPUs vorgenommen. Janik, damals bei Intel tätig, begann mit der Entwicklung für Intel-GPUs im Jahre 2021. Einige Zeit lief es auch ganz gut.

Andrzej Janik ist der Hauptentwickler von „ZLUDA“ei.  CUDA für Nicht-Nvidia-GPUs | (Bild:  Yotube/Tech over Tea)
Andrzej Janik ist der Hauptentwickler von „ZLUDA“ei. CUDA für Nicht-Nvidia-GPUs |
(Bild: Yotube/Tech over Tea)

Als Intel das Projekt nicht weiterverfolgen wollte, wechselte Janik zu AMD, um ZLUDA für dessen GPUs anzupassen. Mit ZLUDA wollte AMD eine Brücke zu Nvidia schlagen, um den Einstieg von CUDA-Entwickler/inn/en in die AMD-Welt zu erleichtern. Viele scheuten ja AMDs Ökosystem aufgrund seiner vermeintlichen Komplexität.

Mit ZLUDA könnte AMD die bewährte Embrace-and-Extend-Strategie verfolgen – warum eigentlich nicht. Weniger Vendor-Lock-In, mehr Offenheit, mehr Engagement der Entwicklergemeinde, was könnte da schon schiefgehen? Doch die Zusammenarbeit mit AMD endete abrupt im vergangenen Jahr (2023), als das Unternehmen überraschend die Unterstützung einstellte. Jemand zog offenbar die Fäden im Hintergrund.

Im Februar 2024, nach Beendigung der Finanzierung durch AMD, hat Janik den ZLUDA-Code als ein Open-Source-Projekt auf GitHub veröffentlicht – wohlgemerkt in Übereinstimmung mit den Vertragsbedingungen von AMD. Dann aber ging die Hölle los.

Heftige Reaktionen

In Santa Clara liegen die Hauptquartiere von Nvidia und AMD nicht weit auseinander. Im März 2024 hat sich Nvidia dazu aufgerafft, die Endbenutzer-Lizenzvereinbarung (EULA) für CUDA im Klartext umzuformulieren. Die aktualisierte Version der EULA verbot nunmehr die Nutzung von Übersetzungsschichten in Verbindung mit CUDA-basierter Software auf Nicht-Nvidia-Plattformen. AMD hatte davon möglicherweise schon vorab Wind bekommen und wollte vermutlich den Zorn von NVIDIA nicht auf sich ziehen.

Im August 2024 platzte schließlich AMD der Kragen. Das Unternehmen forderte den Hauptentwickler von ZLUDA direkt auf, den Projektcode von Github zu entfernen, obwohl ihm zuvor für die Veröffentlichung ja AMDs Genehmigung vorlag. (Mit Nvidia hatte Janik er keinen direkten Kontakt.)

Der Haken an der Sache: Die betroffene Implementierung für AMD basierte auf dem „ROCm“-Software-Stack (Radeon Open Compute) des Anbieters. Um CUDA-Aufrufe in HIP (Heterogeneous Compute Interface for Portability) zu übersetzen, machte sich ZLUDA die „HIP“-SDK von AMD zu Nutze. Hier konnte AMD die Spielregeln diktieren. Aus Sicht von AMDs Unternehmensführung sei die vorherige Zustimmung nicht rechtsverbindlich gewesen.

Puff und weg!

Doch Janik wollte es immer noch nicht aufgeben. Stattdessen schickte er sich an, ZLUDA auf Basis des ursprünglichen Codes von Grund auf neu aufzubauen. Im Oktober 2024 hat das Projekt finanzielle Unterstützung von einem neuen, diesmal anonymen Sponsor erhalten. Janik macht weiter.

Der Fokus des Projekts verlagert sich nun darauf, KI- und ML-Software, die für CUDA-GPUs entwickelt wurde, auf GPUs verschiedener Chip-Hersteller zum Laufen zu bringen. Vorerst fokussiert sich Janik auf AMD-GPUs ab der „RDNA1“-Architektur. In Zukunft plant er, die Kompatibilität auf andere GPUs auszubauen.

ZLUDA bleibt quelloffen. Der geheimnisvolle Sponsor möchte nicht genannt werden. Alles klar?

NVIDIA, ((SpencerHuang.jpg)) Jensen Huangs Sohn Spencer arbeitet bei NVIDIA als Senior Product Manager.

(ID:50310765)