Mit offenen Karten spielen Wer möchte offene Hardware?
Anbieter zum Thema
Fortschritt durch offene Kollaboration braucht eine industrieweite Standardisierung – erst recht in so Sachen wie Hardware und Infrastruktur. Erst dann steht der RZ-Branche die ganze Welt offen. Zum Beispiel mit OCP. Hier geht es jetzt plötzlich in die Vollen.

Nachdem eine Reihe von Unternehmen die Vorteile von quelloffenen Hardwarestandards entdeckt hatte, sind die Umsätze mit OCP-Hardware (Open Compute Project) im vergangenen Jahr (2021) explodiert. Laut einer Studie des Forschungsunternehmens Omdia dürfte der Markt für (OCP)-Hardware im Jahr 2021 um 34% gewachsen sein (von 16,1 Milliarden US-Dollar Umsatz im Jahr 2020 auf 21,7 Milliarden US-Dollar im Jahr 2021). In den nächsten vier Jahren sollen sich die Umsätze mehr als verdoppeln. Bis zum Jahre 2025 erwarten die Analysten einen Gesamterlös in diesem Sektor in Höhe von 46 Milliarden US-Dollar.
Die Hauptabnehmer von OCP-Hardware sind aktuell Cloud-Hyperscaler mit einem Anteil im Wert von 15,4 Milliarden USD am Gesamtumsatz des Sektors in Höhe von 21,7 Milliarden Dollar. In diesen Zahlen nicht enthalten sind Käufe von Unternehmen aus dem Vorstand der OCP Foundation (darunter Facebook, Microsoft, Google und Rackspace Technology). In den nächsten vier Jahren dürften aber vor allem kleinere Cloud-Anbieter, Telkos und andere Großkonzerne auf OCP-Hardware für Rechenzentren setzen, so Vlad Galabov, Director of Cloud and Data Center Research bei Omdia und Mitautor der OCP-Studie von Omdia.
Cloud-Anbieter der zweiten Liga („Tier 2“) hätten ihre Ausgaben für OCP-Hardware im Jahre 2021 gegenüber dem Vorjahr ja bereits um astronomische 64% angehoben. Investitionen dieser RZ-Betreiber seien von 1,99 Milliarden US-Dollar im Jahr 2020 auf 3,2 Milliarden US-Dollar im Jahr 2021 angestiegen. Diese Ausgaben dürften laut Omdia bis 2025 auf 8,1 Milliarden US-Dollar weiterwachsen. Der Absatz von OCP-Hardware an Kommunikationsdienstleister stieg sogar um 76% auf 1,7 Milliarden US-Dollar an und werde sich bis 2025 voraussichtlich auf 6,6 Milliarden US-Dollar vervierfachen.
Unternehmen aus dem Einzel- und Großhandel sollen Omdias Prognose zufolge die eigenen Investitionen in OCP-Hardware im Prognosezeitraum sogar verfünffachen (von 204 Millionen Dollar im Jahr 2021 auf 1 Milliarde Dollar im Jahr 2025). Ebenso werde sich der Umsatz im Fertigungssektor in vier Jahren auf 1,2 Milliarden US-Dollar vervierfachen, während sich der Erlös von OCP-Anbietern aus Geschäften mit Finanzdienstleistern bis 2025 auf 1,3 Milliarden US-Dollar fast verdreifachen dürfte.
Das Gros dieser Umsätze würde sich laut Omdia mit Servern ereignen. Erst dürften auch die Verkäufe anderer OCP-Geräteklassen anziehen. Die Studie wurde Ende des Jahres 2021 auf dem OCP Global Summit im kalifornischen San Jose veröffentlicht.
OCP bricht auf, Neues zu wagen. Ende des Jahres 2021 hat die Organisation von seiner neuen Entwicklungsstrategie den Schleier gelüftet. Sie nennt sich „Hardware-Software Co-Design“.
„Hardware-Software Co-Design“ bei OCP
Das Open Compute Project zieht neuerdings neue Saiten auf. Bisher war das Projekt für seine Bemühungen bekannt, bewährte Konzepte aus der Welt quelloffener Softwareentwicklung auf den kollaborativen Entwurf von Hardware und Standards anzuwenden.
Die gemeinnützige Stiftung Open Compute Project Foundation, die das Projekt verantwortet, hatte Facebook gerufen. Sie entstand mit dem Ziel, herstellerneutrale Spezifikationen für eine Reihe von Rechenzentrumshardware zu entwickeln, von Servern und Netzwerk-Switches bis hin zu Stromversorgungs- und Kühlsystemen. Bis heute haben sich den gemeinsamen Bemühungen mehrere hundert Unternehmen angeschlossen. Heute ist Facebooks Mutterhaus Meta ein Platinum-Mitglied neben u.a. Asus, Rittal, Arista, Huawei, Microsoft, Vertiv, Schneider Electric und der Deutschen Telekom.
Am 14 April kündigte die Stiftung eine neue Strategie an: die kombinierte Entwicklung von Hardware und Software im Gleichschritt miteinander. Diese Strategie habe sich bereits in den jüngsten Beiträgen von Microsoft und Intel zur OCP-Spezifikation für die skalierbare E/A-Virtualisierung (SIOV) und eine neuer Zusammenarbeit mit dem SONiC-Projekt der Linux Foundation materialisiert.
Das Konzept von „Hardware–Software Co-Design“ adressiert die Entwicklung von Software, die eine genaue Kenntnis der Hardware voraussetzt, um die Performance zu maximieren und die Markteinführung jener Systeme zu beschleunigen, deren Gesamtleistung und der ökologische Fußabdruck in hohem Maße von der Interaktion zwischen Software und Hardware abhängen.
Das Konzept gewinnt an Bedeutung mit dem Aufkommen von anspruchsvollen Software-Workloads, die an das Silizium gehobene Ansprüche stellen, um ungeachtet ihres Hungers nach Performance der Spitzenklasse die Energiekosten und die Umweltbelastung irgendwie doch im Zaum zu halten. Um diese Quadratur des Kreises zu verwirklichen sei es aus Sicht des OCP erforderlich, die Systemsoftware oder Firmware mit tiefen Kenntnissen über die zugrunde liegende Hardware-Architektur zu entwickeln. Denn nur so ließen sich „tolerable“ technische Kompromisse entlang der Kosten-/Leistungskurve ausfindig machen.
Die praktische Umsetzung dieser Strategie illustrieren der jüngste Beitrag von Microsoft und Intel zur SIOV-Spezifikation (kurz für Scalable I/O Virtualization, also Skalierbare E/A-Virtualisierung) und die Arbeit der Open-Source-Gemeinde an SONiC, dem quelloffenen Netzwerkbetriebssystem von Microsoft.
Ein offenes Spiel in großen Maßstäben
Im März 2022 haben Intel und Microsoft die Spezifikation für Scalable I/O Virtualization (SIOV) in das Open Compute Project eingebracht, um ihre Weiterentwicklung als offenen Standard kollaborativ mit anderen voranzutreiben. Die Scalable I/O Virtualization-Spezifikation sei als „ein skalierbarer und flexibler Ansatz für die hardwaregestützte I/O-Virtualisierung“ konzipiert. Sie baut auf PCI Express und Compute Express Link (CXL) auf.
Die SIOV-Spezifikation ist eine Weiterentwicklung von SR-IOV (Single Root Input Output Virtualization). Sie hebt die Skalierungsbeschränkungen ihres Vorgängers auf, indem sie es Cloud-nativen Anwendungen in hunderten oder tausenden von virtuellen Maschinen und/oder Containern ermöglicht, einen Pool von E/A-Geräten mit dynamischer Zuweisung gemeinsam zu nutzen. Das OCP beabsichtigt, eine lebhafte Gemeinde rund um SIOV aufzubauen. Sie soll der Industrie als Katalysator für Innovationen in Silizium- und Cloud-Architekturen dienen.
Unter dem Namen SONiC ist aus der Initiative von Microsoft und in enger Zusammenarbeit mit dem OCP ein quelloffenes Netzwerkbetriebssystem auf Linux-Unterbau entstanden, das auf Switches mehrerer Hersteller und auf ASICs läuft. Es entkoppelt die Hardware und Software mit Hilfe einer Abstraktionsebene, dem sogenannten Switch Abstraction Interface (SAI). Das Kontrollgremium, die SONiC Foundation, hat sich im Jahre 2021 in die Linux Foundation eingegliedert. Dort soll das Projekt nach den OCP-Vorsätzen des „Hardware-Software Co-Designs“ weiterentwickelt werden.
OpenCAPI
Bei OpenCAPI handelt es sich um eine Spezifikation für datenzentrische Server-Architekturen. Sie bietet einen Pfad zur engeren Integration der Funktionen von fortschrittlichem Arbeitsspeicher, Hardwarebeschleunigern, Netzwerken, Storage und anderen Technologien mit Compute in einem Server. Durch die Annäherung der Rechenleistung und der Daten soll es möglich sein, Systemengpässe zu beseitigen und die Serverleistung erheblich zu verbessern.
Das OpenCAPI-Konsortium administriert die OpenCAPI-Spezifikation und das offene Ökosystem. Es zertifiziert Produkte für die Konformität mit der OpenCAPI Ready Specification (derzeit in der Version 3.0. Bisher können sich nur zwei Anbieter solcher Produkte rühmen: IBM mit POWER SYSTEMS IC922 und AC922 sowie Alpha Data mit den FPGAs ADM-PCIE-9V3/-9H3/-9H7 für rechenintensive Datencenteranwendungen.
Gen-Z
Gen-Z ist ein Interconnect auf Systemebene für speichersemantischen Zugriff auf Daten und Geräte über eine Direktanbindung, dedizierte Switches oder Netzwerkgewebe.
Gen-Z entsteht unter der Schirmherrschaft einer Allianz führender Unternehmen der Computerindustrie, die sich im Gen-Z-Konsortium zusammengeschlossen haben. Zu den treibenden Kräften hinter Gen-Z zählen AMD, ARM, Cray, Dell EMC, Google, HPE, Huawei, Lenovo, Microsoft, Samsung Semiconductors, Xilinx und andere. Intel ist nach wie vor nicht mit von der Partie. (Gen-Z galt seinerzeit als eine Kriegserklärung der IT-Branche gegen Intel und seine proprietären Interconnects.)
Engpässe altbackener Systemarchitekturen führen bei arbeitsspeicherlastigen Workloads zur Ressourcenverschwendung durch die Überprovisionierung von Compute. Das Gen-Z-Konsortium entwickelt ein offen standardisiertes softwaredefiniertes Speichergewebe. Die Organisation hat sich zum Ziel gesetzt, das Gleichgewicht zwischen der Leistung von Compute und der Performance von Arbeitsspeicher wiederherzustellen. Die Initiative trägt der Tatsache Rechnung, dass das Aufkommen von Hardwarebeschleunigern wie GPUs und FPGAs Leistungsanforderungen an den Arbeitsspeicher in einer ganz neuen Größenordnung stellt, während die explodierende Datenflut der KI-Ära althergebrachte Systemarchitekturen in die Knie zwingt (siehe dazu auch „Rechnen mit Speicherzellen“).
Bestehende Systemarchitekturen bieten keinerlei Möglichkeit, die verfügbaren Ressourcen bis in die Ebene der Speichersemantik zu disaggregieren. Jeder Versuch, eine solche Technologie zu implementieren, würde sich sofort auf die Bandbreite und Latenz der betreffenden Komponenten auswirken und die Vorteile zusammensetzbarer Infrastruktur schnell wieder zunichtemachen – daher das Interesse an neuartigen, Speicher-zentrischen Systemarchitekturen.
Die Semantik des byte- und diejenige des blockadressierbaren Speichers unterscheiden sich wie Tag und Nacht voneinander. In der Vergangenheit war der Arbeitsspeicher (etwa DRAM) ephemeral, während Storage-Medien (z.B. NVMe-SSDs) durch Datenpersistenz trumpften. Das Aufkommen von SCM (Storage Class Memory) hat diese Trennung aufgehoben: SCM-Speicher beherrschen die Semantik des byteadressierbaren Speichers, ohne jedoch auf die Datenpersistenz zu verzichten. Durch den reduzierten Overhead sinkt die Latenz der Zugriffe.
Mit dem Gen-Z-Interconnect soll jedes Gerät mit jedem anderen Gerät mit Hilfe derselben Anweisungen (also derselben Semantik) kommunizieren können – nicht viel anders als mit dem eigenen lokalen Arbeitsspeicher. Gen-Z bietet hierzu ein offenes und zudem auch noch lizenzfreies speichersemantisches Protokoll, welches nicht mehr dem Speicherkontroller der CPU unterliegt.
Gen-Z will zum Interconnect der Wahl für datenzentrische Workloads des kognitiven Computings aufsteigen.
Gen-Z will speichersemantische Konnektivität nicht nur innerhalb eines Compute-Knoten, sondern auch etwa (via Switches im Gen-Z-Gewebe) zwischen separaten Racks ermöglichen. Die Technologie verspricht eine nie dagewesene Leistung und Kostensenkungen, sowohl im Kern-RZ als auch in Edge-Topologien und in HPC. Mit Gen-Z sollen konvergente Infrastrukturen der Zukunft Disaggregation und Composability unter einen Hut bringen – selbstverständlich quelloffen.
Die Gen-Z-Technologie ist frei von Lizenzgebühren, auch so ein schöner Nebeneffekt von Open Source.
(ID:48967955)