Suchen

Aufwind für RISC-Chips ARM befindet sich auf dem Vormarsch ins Datencenter

Autor / Redakteur: Anna Kobylinska und Filipe Martins* / Ulrike Ostler

Mit der wachsenden Ausbreitung von KI-Workloads in Infrastrukturstandorten zwischen Edge und Core wächst der Bedarf an Energie-effizienten, anpassungsfähigen Chip-Architekturen, die sich in jedem Szenario tapfer schlagen. Im Kontext der vielseitigen Anforderungen macht die RISC-Architektur von ARM derzeit von sich reden.

Firma zum Thema

Ampere Computing stellt auf der Bais von ARM-Design CPUs her, für die sich unter anderem Microsoft interessiert.
Ampere Computing stellt auf der Bais von ARM-Design CPUs her, für die sich unter anderem Microsoft interessiert.
(Bild: Ampere Computing)

Intel schien seit Jahrzehnten unbesiegbar. Selbst IBM konnte sich im Wettbewerb gegen den Platzhirsch nicht durchsetzen. Doch die uneingeschränkte Vorherrschaft im Datencenter stößt verstärkt auf unsichtbaren Widerstand.

Zum einen geht es um den Energiebedarf. Dann gibt es das Problem der (unzureichenden) Skalierbarkeit. Selbst die Anschaffungskosten von CPUs haben längst den Schmerzpunkt übertroffen. Der Markt ist reif für Alternativen zur Trägheit der CISC-Architektur von Intel.

Können denn RISC-Chips Abhilfe schaffen?

Wer nichts wagt, RISC-iert nichts

KI-Workloads wollen aus dem Kern-Datacenter hinaus und bis hin an die Edge heranwachsen. Intel-Chips in CISC-Architektur gelten als ein wenig zu sperrig, etwas zu energiehungrig und nicht anpassungsfähig genug. Die Gesetze der Physik haben sich gegen Intel verschworen.

Dem explodierenden Bedarf nach Rechenleistung tut das Ganze ja keinen Abbruch. Denn dem globalen Markt für Deep-Learning-Chipsätze soll ja gerade bis zum Jahre 2026 ein „sprunghaftes Wachstum“ bevorstehen, glauben unter anderem Analysten von Big Market Research. Aufstrebende Halbleiterschmieden wie auch der eine oder andere Server-Anbieter haben in diesem Leistungshunger eine Chance gewittert, mit querdenkerischer Innovationskraft zu punkten, um sich mit eigenen Chips und Systemen im Markt zu etablieren.

Auf dieser Welle reitet die ARM Limited, eine Halbleiter- und Softwareschmiede aus dem englischen Cambridge, und ihre Lizenznehmer. ARM entwickelt und lizensiert RISC-Chips mit einer beachtenswerten Energie-Effizienz und günstigen thermischen Eigenschaften.

Bisher allerdings kamen ARM-Chips vorrangig in konnektivitätsfreudigen IoT-Endgeräten wie Smartphones oder (5G-)Funktürmen zum Einsatz. Dieses Jahr hat ARM erstmals die Spitze der Top500-Liste der schnellsten Supercomputer der Welt erklettert: Im „Fugaku“ (aka Post-K Computer), dem schnellsten Supercomputer der Welt, geben ARM-Chips von Fujitsu den Takt vor. Fugaku ist 100 mal schneller als „K“ und 2,8 mal schneller als IBM Summit (siehe: den Bericht „Die Nr. 1 der Supercomputer, Von Petascale zu Exascale: Fujitsu Fugaku“).

Professor Dr. Christoph Lehner (links) und Professor Dr. Tilo Wettig (rechts) vor dem neuem Supercomputer der Universität Regensburg.
Professor Dr. Christoph Lehner (links) und Professor Dr. Tilo Wettig (rechts) vor dem neuem Supercomputer der Universität Regensburg.
(Bild: Christina Glaser/Universität Regensburg)

Den ersten ARM-basierten Fujitsu-Supercomputer in Deutschland hat die Universität Regensburg in Betrieb. Mit dem „QPACE4“-Projekt sind die Regensburger Wissenschaftler die ersten Nutzer der neuen „PrimeHPC FX700“ mit „Fujitsu A64FX“-CPUs in Europa.

Diese Energie-effizienten CPUs sind kompatibel mit „ARM v8.2-A SVE“, der aktuellsten Befehlssatzarchitektur für Hochleistungsserver von ARM. So ist es auch kein Wunder, dass das Interesse der Hyperscaler an ARM-Chips kürzlich einen neuen Höhepunkt erreicht.

Auf zu Hyperscale

AWS hat ARM als eine kosteneffiziente Alternative zu Intel und AMS für seine „EC2“-Instanzen entdeckt. Ein kaum bekanntes Schwesterunternehmen von AWS namens Annapurna Labs hat bereits die zweite Generation von ARM-Chips für Hyperscale-Server im Köcher: „Graviton2“.

Ein ARM-Chip der Amazon-Tochter Annapurna Labs in ARM-Architektur
Ein ARM-Chip der Amazon-Tochter Annapurna Labs in ARM-Architektur
(Bild: AWS)

Der Hyperscaler verlieh der neuen Hardwareplattform die Bezeichnung „AWS Nitro System“. AWS nutzt die ARM-Kerne „Neoverse N1“ in 64-Bit-Architektur in EC2-Instanzen vom „Typ M6g“ (Allzweck-Workloads), „C6g“ (HPC) und „R6g“ (speicherintensive Datenverarbeitung).

Die Instanzen sind in Europa seit Mai und Juni 2020 in Frankfurt und Irland verfügbar- in Irland seit Ende Juli auf Wunsch mit NVMe. Instanztypen mit Graviton2-Prozessoren bieten laut Amazon eine bis zu 40 Prozent bessere Preisleistung als ihre x86-basierten Alternativen in den „M5“-, „C5“- und „R5“-Familien. Damit hat der Einzug von ARM in Hyperscale-Rechenzentren offiziell begonnen.

Prompt sind auch Microsoft und Cloudflare aufgewacht und wollen sich die vielen Vorteile der ARM-Architektur nicht entgehen lassen. Insiderberichten zufolge hat „Azure“ den „Altra“-Prozessor des kalifornischen Startups Ampere Computing in seinen Servern bereits im Härtetest.

Ein „Cloud-natives“ Kraftpaket

Bei Ampere Altra handelt es sich um eine Cloud-native Familie von Prozessoren in 7nm-Technologie auf der Basis der Plattform ARM Neoverse N1. Der Ampere Altra stelle „einen bedeutenden Durchbruch in Bezug auf Leistung und Energie-Effizienz für die Hyperscale-Cloud- und Edge-Märkte“ dar, kommentiert Rene Haas, Präsident der IP Products Group bei ARM.

Ein ARM-Chip von Ampere Computing
Ein ARM-Chip von Ampere Computing
(Bild: Ampere Computing)

Ampere liefert seine 80-Kerne starken ARM-CPUs erst seit Februar dieses Jahres aus. Das Unternehmen adressiert mit dem Produkt sowohl Edge- als auch Cloud-Deployments. Mit „Altra Max“ möchte Ampere die Produktreihe um einen Cloud-nativen Prozessor mit 128 Kernen aufstocken. Die generelle Verfügbarkeit sei für das vierte Quartal geplant.

Zahlreiche Chip-Schmieden haben sich an ähnlichen Vorhaben bereits die Zähne ausgebissen. Das Start-up Calxeda ging pleite, Qualcomm gab auf und AMD ist beim Vermarkten von Opteron A1100 eingeschlafen.

Renee J. James ist die Gründerin von Ampere Computing.
Renee J. James ist die Gründerin von Ampere Computing.
(Bild: Ampere Computing)

Die neueste Generation von ARM-Hardware aus dem Hause Ampere Computing scheint dennoch auf rege Zustimmung zu stoßen. Denn der Drang zur höheren Energie-Effizienz, massiver Skalierbarkeit und universeller Anpassungsfähigkeit spitzt sich neulich nur zu. Das Halbleiter-Startup Ampere Computing (nicht zu verwechseln mit der „Ampere“-Chiparchitektur von Nvidia für „elastische“ Datencenter) wurde im Jahre 2017 von der ehemaligem Intel-Präsidentin, Renee J. James, gegründet.

Microsoft hat inzwischen OpenJDK, das quelloffene Java, nach Windows 10 auf ARM64 portiert. Dieser Schritt stellt eine wichtige Voraussetzung für die Entstehung von Microservices für ARM-Server dar und ist ein sicheres Zeichen dafür, dass es um die Integration der ARM-Plattform in Microsofts Technologieportfolio anscheinend ernst bestellt sein könnte.

RISC-Chips (ein Akronym für Reduced Instruction Set Computing architecture) wie jene von ARM zeichnen sich durch eine einfachere Konstruktion, niedrigeren Energieverbrauch, vorteilhafte thermische Eigenschaften und eine höhere Anpassungsfähigkeit im Vergleich zu einer CISC-Architektur (kurz Complex Instruction Set Computer) wie jener von Intel aus. RISC-Chips sind zu guter Letzt auch noch kostengünstiger in der Fertigung.

RISC mit Power

Doch ARM ist bei Weitem nicht die einzige RISC-Alternative zur Intels Dominanz im Rechenzentrum. Bei „IBM Power“ handelt es sich ebenfalls um eine RISC-Architektur, die zudem auch noch dem Serverraum auch wirklich entstammt.

IBM hat sein Patentportfolio im Rahmen der Openpower Foundation offengelegt. Chip-Designs, die ISA (Instruction Set Architecture) die Firm- und Software gingen in die Public-Domain über. Zu den Gründungsmitgliedern der Organisation zählten neben IBM unter anderem Google, Nvidia und Mellanox (seit April 2020 ist Mellanox Teil von Nvidia).

Die Openpower Foundation sollte das Innovationstempo beschleunigen. Seit April 2019 ist sie Teil der Linux Foundation und dümpelt nur so ziellos vor sich hin, während das Wachstum des nicht-quelloffenen ARM-Ökosystems offenbar keine Grenzen kennt.

Was passiert bei Intel?

Wie dem auch sei. Intel hat jeden Grund, sich wärmer anzuziehen. Die verzögerte (sprich: vermasselte) Umstellung auf den 7-Nanometer-Produktionsprozess wird der legendären Chip-Schmiede dabei sicherlich nicht helfen. In der Konzernzentrale rollen ja auch bereits Köpfe. Murthy Renduchintala, der Ex-Chief Engineering Officer bei Intel, hat zum 3. August das Schiff verlassen.

Die Intel-Partner sind anscheinend schon länger dabei, sich zusätzlich zu orientieren. HPE, Supermicro und Lenovo haben bereits ihre ersten ARM-CPUs im Produktportfolio.

Die unternehmensübergreifende „Inklusivität“ des Geschäftsmodells von ARM schafft Skaleneffekte – doch anders als im Falle von Intel gehen diese nicht zwangsweise mit dem Verzicht auf Agilität einher. Mit dem Wachstum des Ökosystems von ARM steigt der Wert des Technologieportfolios von ARM Limited für das Unternehmen, seine Nutzer und seine Partner (siehe: „Die Gerüchteküche brodelt: Wird Arm Teil von Nvidia?“).

Ergänzendes zum Thema
Das Fazit der Autoren

Die ersten Server-tauglichen ARM-CPUs versprechen eine massive Disruption sowohl an der Netzwerkkante wie auch im Kernrechenzentrum.

Die Energie-Effizienz ARM-basierter Systeme, die skalierbare Leistung und die niedrigeren Anschaffungskosten konvergieren zu erheblichen Wettbewerbsvorteilen für die Nutzer. Die universelle Anpassungsfähigkeit an unterschiedliche Betriebsbedingungen von der Edge bis zum Core-Datacenter schafft eine vereinheitlichte Laufzeitumgebung für Anwendungscode - eine wichtige Voraussetzung für die kosteneffiziente Ausführung zeitkritischer KI-Workloads. Der Trend hin zum allumfassenden, allgegenwärtigen Rechenzentrum könnte für viele IT-Betreiber bei der Wahl der CPU den Ausschlag geben.

* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).

(ID:46803441)