Suchen
Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Softwaredefiniertes Speichergewebe Was ist Gen-Z?

Autor / Redakteur: Anna Kobylinska und Fillipe Pereira Martins* / Ulrike Ostler

Mit „Gen-Z“ entsteht ein offener Standard für ein systemweites Interconnect für speichersemantischen Zugriff auf Speicherkomponenten und Geräte über eine Direktanbindung, dedizierte Switches oder Netzwerkgewebe. Das Projekt Gen-Z hat zum Ziel, ein dringend benötigtes Gleichgewicht zwischen der Leistung von Compute und der Performance von Arbeitsspeicher herzustellen.

Firmen zum Thema

Reges Interesse: Der Gen-Z-Stand auf der Supercomputing-Veranstaltung „SC19“ in Denver, Colorado, im November 2019.
Reges Interesse: Der Gen-Z-Stand auf der Supercomputing-Veranstaltung „SC19“ in Denver, Colorado, im November 2019.
(Bild: Gen-Z Consortium)

Das Gen-Z Interconnect trägt der Tatsache Rechnung, dass das Aufkommen von Hardwarebeschleunigern wie GPUs und FPGAs ganz neue Anforderungen an den Arbeitsspeicher stellt während die explodierende Datenflut der KI-Ära althergebrachte Systemarchitekturen in die Knie zwingt. Das führt bei speicherlastigen Workloads zwangsweise zur Überprovisionierung von Compute.

Flaschenhals Arbeitsspeicher

Für ein Unternehmen hängt der Wert seiner Daten davon ab, wie zeitnah sich daraus konkrete Erkenntnisse ableiten lassen. Zwischen dem explodierenden Datenvolumen und dem nachlassenden Wachstum der Compute-Leistung klafft jedoch seit Jahren eine Schere auf. Die Bedeutung der Datenanalyse in Echtzeit nimmt zu während sich die hierzu erforderliche Rechenleistung immer eindeutiger zum relevanten Flaschenhals mausert.

Der Technologie-Unterbau heutiger IT-Systeme sei das Resultat von „60 Jahren an Kompromissen“, glauben HPE-Forscher wie Dr. Kim Keeton, Distinguished Technologist bei Hewlett Packard Enterprise. Auch so Standards wie DDR-Speicher und PCI sollen ausgedient haben.

Leistungsengpässe: Multikern-CPU-Architekturen laufen de facto zunehmend „aus dem Speicher“.
Leistungsengpässe: Multikern-CPU-Architekturen laufen de facto zunehmend „aus dem Speicher“.
(Bild: Gen-Z Consortium)

In heutigen Computersystemen sind der Arbeitsspeicher und die Storage voneinander getrennt. 90 Prozent der Ressourcen eines Computersystems gingen „einfach nur darauf, Daten zwischen dem Arbeitsspeicher und dem permanenten Speicher hin und her zu schaufeln“, sagte HPE-Chef Antonio Neri in einer Keynote. Diese Verschwendung müsse endlich ein Ende finden.

Das Aus für Prozessor-zentrisches Computing

Während sich die Speicherkapazität pro CPU-Kern seit Jahren kaum geändert hat, nimmt die Bandbreite des Arbeitsspeichers pro CPU-Kern von Generation zu Generation sogar noch ab. „Wir sind an einem Punkt angelangt, an dem wir zwar Compute-Einheiten zu einem System hinzufügen, aber sie unmöglich mit Daten beliefern können“, “, sagt Michael Krause, VP und Fellow Engineer bei HPE und einer der Mitgründer des Gen-Z Konsortiums. „Wir möchten stattdessen in der Lage sein, eine sehr hohe Bandbreite bereitzustellen und eine sehr geringe Latenz zu gewährleisten und ein Gleichgewicht in unseren Computersystemen wiederherzustellen“.

Prozessor-zentrisches Computing müsse unbedingt einer von Grund auf neu konzipierten Systemarchitektur weichen. Ansätze wie „speichergetriebenes“ Computing von HPE und Experimentalarchitekturen wie „The Machine“ (siehe hierzu auch: „Flache Storage-Hierarchien und Memory-Pools treffen auf Gen-Z-Connectivity – Paradigmenwechsel angesagt: Memory-driven und/ oder In-Network-Computing“ sollen Abhilfe schaffen, doch sie benötigen neue Interconnects.

Bestehende Systemarchitekturen bieten keinerlei Möglichkeit, die verfügbaren Ressourcen bis in die Ebene der Speichersemantik zu disaggregieren. Jeder Versuch, eine solche Technologie zu implementieren, würde sich sofort auf die Bandbreite und Latenz der betreffenden Komponenten auswirken und die Vorteile zusammensetzbarer Infrastruktur schnell wieder zunichtemachen. Es wird eine völlig neue, Speicher-zentrische Architektur benötigt. Eine neue Systemarchitektur ist längst überfällig.

Native Semantik des Speichers

Gen-Z verwendet auf der physischen Ebene eine serielle Schnittstelle mit elektrischer (Kupfer) oder optischer (Glasfaser) Konnektivität, wahlweise symmetrisch oder asymmetrisch.

Die Semantik des Byte- und diejenige des blockadressierbaren Speichers unterscheiden sich wie Tag und Nacht voneinander. In der Vergangenheit war der Arbeitsspeicher, zum Beispiel DRAM, durch Volatilität gekennzeichnet während Storage-Medien, beispielsweise HDDs oder SDDs, durch Datenpersistenz trumpften. Das Aufkommen von SCM (Storage Class Memory) hat diese Trennung aufgehoben: SCM beherrscht die Semantik des Byte-adressierbaren Speichers, ohne jedoch auf die Datenpersistenz zu verzichten.

Mit dem Gen-Z-Interconnect soll jedes Gerät mit jedem anderen Gerät unter Verwendung derselben Anweisungen – also mit Hilfe derselben Semantik – kommunizieren können als ob es sich dabei um den eigenen lokalen Arbeitsspeicher des Systems handelte. Gen-Z bietet hierzu ein offenes und zudem auch noch lizenzfreies speichersemantisches Protokoll, welches nicht mehr dem Speicher-Controller der CPU unterliegt.

Verkürzte Latenzen

Durch den reduzierten Overhead sinkt auch die Latenz der Zugriffe. Im Hinblick auf den Datendurchsatz ist von mehr als 100 Gigabit pro Sekunde (GBp/s) und im Hinblick auf die Latenz von weniger als 100 Nanosekunden (ns) die Rede.

So lässt sich beispielsweise ein via Gen-Z angeschlossener Speicher in einer Prozessorspeicherverwaltungseinheit (MMU) abbilden. Jede Lade-, Speicher- oder Atomic-Operation eines Prozessors wird so transparent in eine Gen-Z-Lese-, Schreib- oder Atomic-Operation übersetzt und zur Zielspeicherkomponente transportiert.

In ähnlicher Weise unterstützt Gen-Z die Operationen „put“ und „get“ des Puffers und kann dadurch bis zu 232 Datenbytes zwischen Puffern verschiedener Komponenten ohne die Beteiligung des Prozessors hin und her schieben. Dies schafft Potenziale zur Vereinfachung von Hardwarearchitekturen im Rechenzentrum.

Schlüsselkomponente: Der Gen-Z-Switch, das Rückgrat des Gen-Z-Gewebes, verbindet Compute-Knoten mit Speicher-Pools via FPGA-Basierte Bridges; die Speicherkonfiguration verwaltet eine Applikation namens Fabric Manager unter Verwendung des Gen-Z-nativen Befehlssatzes.
Schlüsselkomponente: Der Gen-Z-Switch, das Rückgrat des Gen-Z-Gewebes, verbindet Compute-Knoten mit Speicher-Pools via FPGA-Basierte Bridges; die Speicherkonfiguration verwaltet eine Applikation namens Fabric Manager unter Verwendung des Gen-Z-nativen Befehlssatzes.
(Bild: Gen-Z Consortium)

Gen-Z soll speichersemantische Konnektivität innerhalb eines Compute-Knoten wie auch – via Switches im Gen-Z-Gewebe – zwischen Racks ermöglichen und sowohl im Kern-Datacenter als auch in Edge-Topologien und sogar im High Performance Computing (HPC) eine Rolle spielen. Der Weg über einen Gen-Z-Switch fügt zur Kommunikation jeweils eine Latenz von nur 30 Nanosekunden hinzu.

Gen-Z-Speicherserver könnten zum festen Bestandteil der Rechenzentrumslandschaft werden und datenzentrische Workloads wie Machine Learning (ML) oder Deep learning (DL) um zusätzliche Kapazitäten bedarfsgerecht erweitern.

Neue Interconnects für speicherzentrische Systemarchitekturen der Zukunft

Gen-Z entsteht unter der Schirmherrschaft einer Allianz führender Unternehmen der Computerindustrie, des Gen-Z-Konsortiums. Die Technologie ist offen und frei von Lizenzgebühren. Zu den treibenden Kräften hinter Gen-Z zählen AMD, ARM, Cray, Dell EMC, Google, HPE, Huawei, Lenovo, Microsoft, Samsung Semiconductors, Xilinx und andere. Intel ist nicht mit von der Partie.

Gen-Z galt seinerzeit als eine Kriegserklärung der IT-Branche gegen Intel und seine proprietären Interconnects. Der Chip-Riese aus dem kalifornischen Mountain View hat einen eigenen Weg eingeschlagen und entwickelt mit einem ebenfalls offenen Standard namens „Compute Express Link“ (CXL) eine Alternative zu Gen-Z mit latenzsensiblen Workloads im Visier. CXL macht konzeptionelle Anleihen am PCI-Stack und ist die kostengünstigere Alternative zu Gen-Z innerhalb eines Knoten. Viele Beobachter sehen CXL als Intels „Auffahrt auf die Gen-Z-Autobahn”. Doch diese Prognose hat sich noch nicht bewahrheitet.

Gen-Z entwickelt sich zum universellen Interconnect und ist Intel ein Dorn im Auge. CXL fokussiert auf die Konnektivität innerhalb eines Knoten und „spricht“ bisher nicht nativ mit Gen-Z. Beide Interconnects könnten dennoch dank Bridges in einem disaggregierten System miteinander koexistieren. Auch „Ultra Path Interconnect“ (UPI) von Intel braucht eine Bridge zu Gen-Z - und ist bereits als Proof-of-Concept verfügbar.

Nachgekartet: Gen-Z Memory Module (ZMM) von SMART Modular Technologies und IntelliProp bietet eine Bandbreite von bis zu 40 GBps mit einer Latenz von weniger als 400 ns beim Zugriff auf 96GB DRAM.
Nachgekartet: Gen-Z Memory Module (ZMM) von SMART Modular Technologies und IntelliProp bietet eine Bandbreite von bis zu 40 GBps mit einer Latenz von weniger als 400 ns beim Zugriff auf 96GB DRAM.
(Bild: Gen-Z Consortium)

Unter der Bezeichnung „CCIX“ reift auch noch ein anderer Standard für ein Speicher-Interconnect. CCIX steht für Cache Coherent Interconnect for Accelerators und bedeutet so viel wie Cache-kohärenter Interconnect für Beschleuniger. Mit diesem Standard können Prozessoren, die auf unterschiedlichen Befehlssatzarchitekturen basieren, die Vorteile der Cache-kohärenten Datenverarbeitung durch Systemkomponenten in Peer-zu-Peer-Topologien auf eine Reihe von Beschleunigungsgeräten ausweiten, darunter FPGAs, GPUs, Netzwerk-/Speicheradapter, intelligente Netzwerke und benutzerdefinierte ASICs.

Zu den treibenden Kräften dieses Standards zählen AMD, ARM, Fujitsu, Huawei, IBM, Mellanox, Qualcomm und Xilinx. Auch hier ist Intel bisher nicht vertreten.

Eine universelle Speicherschnittstelle?

Gen-Z verspricht Rechenzentren nicht „nur“ einen Leistungssprung mit neuer Hardware, eine verbesserte Energieeffizienz und eine höhere Branchenagilität, sondern nebenbei auch neue Möglichkeiten der Leistungsoptimierung der bereits bestehenden Infrastruktur-Altlasten.

Gen-Z-Hardwarekomponenten lassen sich in die bestehende Unternehmens-IT vollständig transparent einfügen; es sind hierzu weder Änderungen am Betriebssystem noch an der Middleware erforderlich. Der Standard nutzt allerdings neuartige modulare Stecker; zum Teil sollen sie mit bestehenden Anschlüssen und bestehender Verkabelung nutzbar sein. Das Interconnect soll vorerst zwischen verschiedenen Serverknoten vermitteln und auf einen Rack skalieren können.

Die ersten Systeme sind bereits im Kommen.

*Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).

(ID:46311433)