AMD und Gartner: Studien zur jetzigen und künftigen KI-Nutzung CPUs und ihre Beschleuniger für generative Künstliche Intelligenz

Von Ulrike Ostler 7 min Lesedauer

Anbieter zum Thema

Die breite Verfügbarkeit von generativen KI-Tools bringt viele Unternehmen zu Überlegungen, wie KI in ihre Fahrpläne für die digitale Transformation passt. Das rasante Entwicklungstempo bei den KI-Techniken ist allerdings für IT-Leiter eine Herausforderung aber auch Chance. Und es fehlt an allem: Obwohl 97 Prozent der mit KI vertraut sind, fehlt es vielen an Erfahrungen mit den neuesten KI-Anwendungen. Die Bereitschaft zum Investieren ist da, aber in welche Technik?

Die Beschleuniger-Serie „Instinct“ gehört zu den Komponenten im Rechner, die Anwendungen generativer Künstlicher Intelligenz ermöglichen. Viele Anwenderunternehmen werden einkaufen gehen - müssen. (Bild:  AMD)
Die Beschleuniger-Serie „Instinct“ gehört zu den Komponenten im Rechner, die Anwendungen generativer Künstlicher Intelligenz ermöglichen. Viele Anwenderunternehmen werden einkaufen gehen - müssen.
(Bild: AMD)

Nach einer Befragung des Prozessorherstellers AMD von 2.500 IT-Führungskräfte in den USA, Großbritannien, Deutschland, Frankreich und Japan geben mehr als die Hälfte (52 Prozent) an, dass sie noch keine Anwendungen zur Verarbeitung natürlicher Sprache verwenden, 47 Prozent verwenden keine bei der Gesichtserkennung und 36 Prozent keine in der Prozessautomatisierung.

Allerdings glauben fast sieben von zehn IT-Führungskräften, dass Technologien rund um Künstliche Intelligenz die Teams effizienter machen werden. Das reicht von effizienterem Arbeiten bis hin zu automatisierten Cyber-Sicherheitsanwendungen. Tatsächlich berichten 90 Prozent von den Unternehmen, die der Einführung von KI Priorität einräumen, dass sie bereits eine höhere Effizienz am Arbeitsplatz feststellen.

52 Prozent räumen aber zugleich ein, dass ihre Unternehmen nicht über die erforderliche IT-Infrastruktur verfügen und sie sind sich unsicher, ob sie KI rechtzeitig einführen können, da es ihnen an Implementierungsplänen und passender Hardware und Technologie fehlt.

AMD-Technik für KI-Anwendungen

Matthew Unangst, Senior Director, Commercial Client and Workstation bei AMD, kommentiert: „Als früher KI-Anwender hat man einen Vorteil. [….]Offene Software-Ökosysteme mit Hochleistungs-Hardware sind unerlässlich. Wir glauben an einen vielschichtigen Ansatz zur Nutzung von KI-IP über unser gesamtes Produktportfolio hinweg zu Gunsten unserer Partner und Kunden.”

KI findet am Arbeitsplatz und im Rechenzentrum statt. Für den ersten Fall hat AMD in diesem Jahr die ersten Prozessoren der „AMD Ryzen 7040“-Serie auf den Markt gebracht. Einige Modelle verfügen über eine „Ryzen AI Engine“ mit Unterstützung für „Windows Studio Effects“ sowie Ryzen KI-Entwickler-Tools. Diese böten Möglichkeiten, die derzeit auf anderen x86-Prozessoren nicht verfügbar seien, so der Hersteller, und ebneten den Weg für größere KI-Funktionen direkt auf Laptops. Denn eine KI-Engine für mobile PCs sei eine Ergänzung zur Cloud-basierten KI und für die Einführung von KI-Anwendungen am Arbeitsplatz unerlässlich:

Sie ermöglicht personalisiertes und sicheres Arbeiten für Mitarbeiter durch die lokale Ausführung von KI-Modellen.

  • Sie verbessert die Energie-Effizienz von Laptops, was zu einer höheren Produktivität und Konnektivität der Mitarbeiter führt.
  • Sie erhöht die gesamte Bandbreite für ein Unternehmen zur Ausführung von KI-Workloads, indem der Laptop fähig ist, Software der nächsten Generation auszuführen.

AMD-Technik für Rechenzentren

Im zweiten Fall adressiert AMD mit den „Epyc“-Prozessoren auch KI-Workloads in den Rechenzentren vor Ort. Durch die Aufrüstung eines Rechenzentrums auf die jüngsten Prozessoren könnten Kunden die Anzahl der benötigten Racks in ihrer bestehenden Infrastruktur um bis zu 70 Prozent reduzieren, so der Hersteller.

Für die die Rechen- und Speichereffizienz bieten, die für das Training großer Sprachmodelle und die Inferenz generativer KI-Workloads erforderlich ist, sind Beschleuniger, Akzeleratoren, unerlässlich. Vor Kurzem hat AMD Details seiner „Instinct MI300X“ bekannt gegeben.

MI300X basiert auf der „AMD CDNA 3“-Architektur und unterstützt bis zu 192 Gigabyte HBM3-Speicher. Mit dem großen Speicher des können Kunden große Sprachmodelle wie „Falcon-40“, ein 40B-Parameter-Modell, auf einen einzigen Akzelerator anpassen. Der MI300X wird ab dem 3. Quartal an wichtige Kunden ausgeliefert.

Mit Instinct

Die AMD Instinct-Plattform vereint acht MI300X-Beschleuniger in einem branchenüblichen Design vereint und eignet sich damit für KI-Inferenz und -Training. AMD Das Modell „Instinct MI300A“, der weltweit erste APU-Beschleuniger für HPC- und KI-Workloads, wird bereits jetzt an Kunden ausgeliefert.

Bei der Produktvorstellung, bei der auch die vierte Generation der Epyc-Prozessoren eine große Rolle spielte, waren AMD-Vertreter zusammen mit Führungskräften von Amazon Web Services (AWS), Citadel, Hugging Face, Meta, Microsoft Azure und Pytorch auf der Bühne, um die technischen Partnerschaften mit Branchenführern vorzustellen, die die nächste Generation von Hochleistungs-CPU- und KI-Beschleunigungssystemen auf den Markt bringen.

AMD-Vorständin und CEO Lisa Su sagte: „Wir konzentrieren uns voll und ganz darauf, den Einsatz von AMD-KI-Plattformen im Rechenzentrum zu beschleunigen, angeführt von der Einführung unserer Instinct MI300-Beschleuniger, die für später in diesem Jahr geplant ist, und dem wachsenden Ökosystem an unternehmensfähiger KI-Software, die für unsere Hardware optimiert ist.“

Die Kundschaft

Mit 128 „Zen 4c“-Kernen pro Sockel bieten die Hauptprozessoren die derzeit höchste vCPU-Dichte und sowie eine beeindruckende Energie-Effizienz.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Gemeinsam mit AWS präsentierte AMD eine Vorschau auf die nächste Generation der Amazon „Elastic Compute Cloud M7a“-Instanzen (Amazon EC2), die mithilfe von Epyc-Prozessoren der 4. Umgesetzt werden. Außerhalb der Veranstaltung kündigte Oracle Pläne an, neue „Oracle Computing Infrastructure E5“-Instanzen mit dieser CPU-Generation, die den Code-Namen „Bergamo“ getragen haben, zur Verfügung zu stellen.

Bei Meta unterstützen diese Prozessoren Hauptanwendungen wie „Instagram“ und „Whatsapp“ Unternehmensvertreter konnten Leistungssteigerungen mit AMD Epyc 97x4 Prozessoren der 4. Generation im Vergleich zur 3. Generation bei verschiedenen Arbeitslasten feststellen und gleichzeitig erhebliche TCO-Verbesserungen erzielen – eben durch die höhere Energie-Effizienz und Rechendichte.

Die Software

Doch egal, wie leistungsfähig CPUs und Beschleuniger sind, ohne Software ist das sinnlos. So hat AMD ergänzend zur Hardware mit dem „AMD ROCm“ ein Software-Ökosystem für Rechenzentrumsbeschleuniger beziehungsweise eine offene und fertige KI-Softwareplattform auf den Markt gebracht.

Vertreter der Pytorch Foundation gaben bekannt, wie sie den ROCm-Software-Stack vollständig in den Upstream zu bringen wollen und gaben die sofortige ‚Day Zero‘-Unterstützung für „Pytorch 2.0“mit dem ROCm-Release 5.4.2 auf allen AMD Instinct-Beschleunigern an. Diese Integration bietet Entwicklern eine breite Palette von KI-Modellen auf Basis von Pytorch, die mit AMD-Beschleunigern kompatibel und sofort einsatzbereit sind.

Hugging Face, eine offene Plattform für KI-Entwickler, will Tausende von Hugging Face-Modellen auf AMD-Plattformen optimieren, von AMD Instinct-Beschleunigern bis hin zu AMD Ryzen- und AMD Epyc-Prozessoren, „AMD Radeon“-GPUs sowie „Versal“- und „Alveo“-Adaptiv-Prozessoren.

Umsatzprognose für KI-Halbleiter, weltweit


2022

2023

2024

Umsatz in Millionen Dollar

44.220

53.445

67.148
Quelle: Gartner August 2023

Doch schlägt sich das auch in den Verkaufszahlen nieder? Laut der jüngsten Prognose von Gartner werden Halbleiter, die für Anwendungen im Bereich der Künstlichen Intelligenz (KI) entwickelt wurden, im Jahr 2023 eine Umsatzchance von 53,4 Milliarden Dollar für die Halbleiterindustrie haben. Dies entspricht einem Anstieg 20,9 Prozent gegenüber dem Vorjahr.

Alan Priestley, Vice President beim Marktforschungs- und Beratungsunternehmen Gartner, sagt: „Die Entwicklungen im Bereich der generativen KI und die zunehmende Nutzung einer Vielzahl von KI-basierten Anwendungen in Rechenzentren, Edge-Infrastrukturen und Endgeräten erfordern den Einsatz von Hochleistungs-Grafikprozessoren (GPUs) und optimierten Halbleiterbausteinen. Dies treibt die Produktion und den Einsatz von KI-Chips voran.“

Die Gartner-Zahlen sind nicht nach Herstellern aufgeschlüsselt. Insgesamt aber wächst der Umsatz mit KI-Halbleitern wird im Prognosezeitraum zweistellig wachsen und bis 2024 um 25,6 Prozent auf 67,1 Milliarden Dollar. Bis 2027 dürfte sich der Umsatz mit KI-Chips gegenüber 2023 mehr als verdoppeln und 119,4 Milliarden Dollar erreichen.

Wer braucht die neuen Halbleiter?

Denn es sind praktisch alle Branchen betroffen. Auf dem Markt für Unterhaltungselektronik schätzen die Analysten von Gartner, dass sich der Wert von KI-fähigen Anwendungsprozessoren bis Ende 2023 auf 1,2 Milliarden Dollar belaufen wird, gegenüber 558 Millionen Dollar im Jahr 2022.

Darüber hinaus werde der Bedarf an effizienten und optimierten Designs zur Unterstützung der kosteneffektiven Ausführung von KI-basierten Arbeitslasten wird eine Zunahme des Einsatzes von kundenspezifisch entwickelten KI-Chips beziehungsweise GPUs zur Folge haben. „In vielen Unternehmen werden kundenspezifische KI-Chips in großem Umfang die derzeit vorherrschende Chip-Architektur - diskrete GPUs - für eine breite Palette von KI-basierten Arbeitslasten ersetzen, insbesondere für solche, die auf generativen KI-Techniken basieren“, so Priestley.

Generative KI treibt auch die Nachfrage nach High-Performance-Computing-Systemen für die Entwicklung und den Einsatz an, wobei viele Anbieter von Hochleistungs-GPU-basierten Systemen und Netzwerkausrüstungen in nächster Zeit erhebliche Vorteile sehen. Langfristig rechnet Gartner mit einem verstärkten Einsatz von maßgeschneiderten KI-Chips, da die Hyperscaler nach effizienten und kostengünstigen Möglichkeiten zur Bereitstellung dieser Anwendungen suchen.

Artikelfiles und Artikellinks

(ID:49673299)