Fortschritte im 3D-Design AMD stellt neue Prozessoren für Rechenzentren vor
„Accelerated Computing“ wird als Synonym für KI-, HPC- oder allgemein schnelles Rechnen gebraucht – mit Computern, die neben CPUs auch Akzeleratoren, Beschleuniger wie GPUs, DPUs, FPGAs und IPUs verwenden. Am Montagabend hat die AMD-Chefin Lisa Su auf der Veranstaltung „Accelerated Data Center Premiere“ die jüngsten Erweiterungen der Rechenzentrums-Produktpalette vorgestellt.
Anbieter zum Thema

Der „Star“ unter den Produktvorstellungen ist der „weltweit schnellste HPC- und KI-Beschleuniger“, wie Su sagt, „AMD Instinct MI200“ gewesen. Außerdem hat sie einen Ausblick auf die „Epyc“-Prozessoren der 3. Generation mit „AMD 3D V“-Cache gegeben und die Datacenter-Roadmap für den Prozessorkern „Zen 4“, mitsamt Aussicht auf kündigte den neuen „Zen 4c“. Darüber hinaus sind einige der prominenten AMD-Kunden zu Wort gekommen: Ex-Facebook Meta, Microsoft Azure und das Oakridge National Laboratory.
Das US-Forschungsinstitut, das Supercomputer in Exascale-Dimensionen einsetzen will, setzt die Beschleuniger der AM DInstinct-MI200-Serie ein sowie die 3. Generation der Epyc-CPUs für den Supercomputer „Frontier“ ein, der im kommenden Jahr online gehen soll.
Die MI200-Serie basiert auf der „CDNA 2“-Architektur, die in erster Linie für anspruchsvolle wissenschaftliche Berechnungen und maschinelles Lernanwendungen konzipiert ist. Die Produktserie zielt damit auf Anwendungen, die von kompakten Einzelsystemen bis hin zu den größten Supercomputern mit offenen Programmiermodellen reichen. Sie bietet eine Technologie mit bis zu 880 Matrix Cores in der Version „AMD Instinct MI200 OAM“ und bietet volle Double-Precision-Rate und FP64-Matrix-Operationen für HPC-Workloads.
Die integrierte „Infinity Fabric“-Schnittstelle bezeichnet Su als eine der wichtigsten Innovationen in der CDNA-2“-Familie. Sie verbindet zwei Graphics Compute Die (GCD) innerhalb der AMD-GPUs „MI250“ oder „MI250X“ und liefert eine theoretische maximale bidirektionale Bandbreite von bis zu 400 GB/s zwischen den GCDs.
Die CDNA-2-Speichercontroller sind so skaliert, dass sie auf bis zu 128 Gigabyte HBM2e Speicherkapazität zugreifen und eine Bandbreite von 3,2 TB/s nutzen können. Außerdem hat AMD an der Kohärenz geschraubt, was die Zusammenarbeit mit dem Epyc-Prozessor der 3. Generation betrifft (siehe: Video). Neu erfunden ist die 3-D-Gehäusetechnologie, die die Architektur „zu den ersten Multi-Die-GPUs der Branche“ werden lässt.
Die kommenden CPUs
Die kommende Version des Epyc-Prozessors ist „AMD 3D V-Cache“, und sie wird im 1. Quartal 2022 auf den Markt kommen. Die Rechnerhersteller Cisco, Dell Technologies, Lenovo, HPE und Supermicro planen, Server mit diesen Prozessoren anzubieten.
Die Innovation steckt in den Gehäuseinnovationen, die eine kontinuierliche Skalierung der Prozessorleistung ermöglichen, um insbesondere die hohen Rechenanforderungen von HPC-Anwendungen erfüllen zu können, während traditionelle Ansätze zur Erfüllung die Vergrößerung der Chips und/oder die Verkleinerung der Logikschaltungen sind. Doch diese Ansätze haben ihre Grenzen. Das Mooresche Gesetz, das besagt, dass sich die Zahl der Transistoren in einem dichten integrierten Schaltkreis alle zwei Jahre verdoppelt, verlangsamt sich gerade dann, wenn die Nachfrage nach leistungsfähigeren Prozessoren steigt.
AMD antwortet auf diese Herausforderung mit seiner 3D-Chiplet-Technologie. AMD-Chefin Su hat in ihrer Keynote einen Ausblick auf den Einsatz der AMD-Packaging-Technologie im Rechenzentrum gegeben. Die erste CPU hat den Codenamen „Milan-X“ getragen. Nach ihren Angaben bietet das Design im Vergleich zum Vorgänger eine durchschnittliche Leistungssteigerung von 50 Prozent bei ausgesuchten technischen Datenverarbeitungsaufgaben.
Das 3D-Design
Die Idee: Chiplets ersetzen monolithische SoCs (System on a Chip) durch mehrere einfachere Bausteine, die in der Regel günstiger in der Herstellung sind. Diese einfacheren Bausteine können dann gemischt und angepasst werden, um einer eine Vielzahl von Anforderungen. Die zusätzliche Komplexität des Zusammenbaus mehrerer Blöcken zu einem einzigen System wird durch Flexibilität im Design „mehr als ausgeglichen“.
Die Epyc-Prozessoren der 2. Generation, die 2019 eingeführt worden sind, waren die Multi-Chip-Modul-Architektur (MCM). Diese MCM steigert die Leistung, indem sie verschiedene Prozessorknoten für CPU und E/A im selben Gehäuse unterbringt. Die 3. Generation, die Anfang dieses Jahres auf den Markt gekommen ist, nutzt dieselbe Architektur.
Neu ist der „3D V-Cache“. Damit adressiert AMD das Problem, dass sich beim Hinzufügen von Chiplets zu einem größeren SoC mehr Abstand zwischen den Komponenten ergibt, was die Latenzzeit erhöht. 3D V-Cache ist laut AMD die erste x86-CPU-Technologie mit echtem 3D-Die-Stacking. AMD nutzt dafür eine „TSMC 3D Fabric“ Technologie.
Der Meta-Kunde
Epyc-Prozessoren der 3. Generation mit AMD 3D V-Cache bieten die gleichen Fähigkeiten und Funktionen wie die Epix-CPUs ohne und sind durch ein BIOS-Upgrade sofort kompatibel. Das erlaubt eine einfache Einführung und Leistungssteigerung.
AMD gab bekannt, dass Meta das neueste große Hyperscale-Cloud-Unternehmen ist, das AMD EPYC-CPUs einsetzt. AMD und Meta arbeiteten gemeinsam an der Definition eines offenen, Cloud-Scale, Single-Socket-Servers, der auf Leistung und Energie-Effizienz ausgelegt ist und auf dem Epyc-Prozessor der 3. Generation. Weitere Details werden auf dem „Open Compute Global Summit“, der seit gestern läuft, diskutiert.
Zu den jüngsten prominenten Kunden von Epyc-Prozessoren gehören Meta und Microsoft Azure. Nach eigenen Angaben rechnet man bei Meta damit, im Jahr 2022 mehrere Milliarden Dollar für Rechenzentren, Server und Büros auszugeben. Das Unternehmen rechnet im kommenden Jahr mit Investitionsausgaben in Höhe von 29 bis 34 Milliarden Dollar; 19 Milliarden Dollar sind es in diesem Jahr.
Zu den Lieferanten gehört AMD. Gemeinsam arbeite man an der Definition eines offenen, Cloud-basierten Single-Socket-Servers, der auf Leistung und Energie-Effizienz ausgelegt ist. Angetrieben wird er wohl durch einen Epyc-Prozessor der dritten Generation. Weitere Details werden auf dem Open Compute Global Summit Ende dieser Woche diskutiert.
Vorschau live, bald weltweit verfügbar
Bei Microsoft Azure und dem HPC-Angebot per virtueller Maschinen unter Einsatz vom AMD-Technik ist man schon weiter. Dieses steht seit vorgestern mit Epyc 3D V-Cache in der Private Preview zur Verfügung. In den kommenden Wochen werden der Service auf breiter Basis eingeführt, hat die AMD-Präsidentin ankündigen können.
Um genau zu sein handelt es sich um virtuelle „Azure HBv3“-Maschinen. Laut Microsoft verbesserten die jüngsten Prozessoren die Leistung, Skalierungs- und Kosteneffizienz für eine Vielzahl von speicherabhängigen Arbeitslasten wie CFD, explizite Finite-Elemente-Analysen, Geowissenschaften, Wettersimulationen und RTL-Workflows erheblich.
Im Vergleich zur aktuellen HBv3-Serie mit den Epyc-v3-Prozessoren, die bereits die leistungsstärkste VM für HPC-Workloads in der Public Cloud sei, werden die Kunden eine bis zu:
- 80 Prozent höhere Leistung für CFD
- 60 Prozent höhere Leistung für EDA RTL
- 50 Prozent höhere Leistung für explizite FEA
- 19 Prozent höhere Leistung für Wettersimulationen erwarten dürfen, teilt Microsoft mit.
So will der Cloud-Anbieter alle VMs der HBv3-Serie weltweit in Kürze mit Milan-X-Prozessoren aufrüsten. Dieses Upgrade werde ohne zusätzliche Kosten über die bestehenden Preise für VMs der HBv3-Serie hinaus und ohne Änderungen an den Kunden-Workloads angeboten. Außerdem werde ea auch keine weiteren Änderungen an den VM-Größen der HBv3-Serie geben.
Auf der Roadmap
AMD-Präsidentin Su hat schließlich ein paar Details zu den kommenden Epyc-Prozessoren verraten, die die Codenamen „Genoa“ und „Bergamo“ tragen.
„Genoa" werde voraussichtlich der weltweit leistungsstärkste Prozessor für General Purpose Computing sein. Entwickelt wir er mit bis zu 96 „Zen 4“-Kernen, die in 5-Nanometer-Technologie gefertigt werden, und mit DDR5 und PCIe 5 die nächste Generation von Speicher- und E/A-Technologien unterstützen.
Außerdem soll die CPU auch CXL unterstützen, was erhebliche Speichererweiterungsmöglichkeiten für Rechenzentrumsanwendungen ermöglicht. Geplant ist, dass „Genoa“ bereits 2022 produziert und auf den Markt gebracht wird.
„Bergamo" soll eine CPU, die insbesondere Cloud-native Anwendungen unterstützt. Laut Su soll sie über 128 „Zen 4c“-Kerne verfügen. Diese Kerne sind softwarekompatibel mit „Zen 4“ konzipiert und optimiert, um Konfigurationen mit höherer Kernzahl für Cloud-native Workloads zu ermöglichen, die von einer maximalen Thread-Dichte profitieren.
Außerdem zielt das Kerndesign auf eine erhöhte Energie-Effizienz und verspricht „bahnbrechender Leistung pro Sockel“. Der Prozessor soll trotzdem die gleichen Software- und Sicherheitsfunktionen wie Genua haben und sockelkompatibel sein. Bergamo wird voraussichtlich in der ersten Hälfte des Jahres 2023 auf den Markt kommen.
(ID:47783626)