Offenes Design für Datacenter-Hardware und -Racks Open19 Foundation versus Open Compute Project (OCP)
Der Markt für Datencenter-Hardware ist genauso lukrativ wie hart umkämpft. Doch anders als Hyperscale-Betreiber haben einzelne Rechenzentren branchenüblicher Größe kaum Einfluss auf die Produktentwicklung durch ihre Hardware-Lieferanten. Zwei Initiativen — das Open Compute Project (OCP) und Open19 — wollen Abhilfe schaffen, sind sich aber nicht einig, wie.
Anbieter zum Thema

Datencenter-Hardware sei zu teuer, zu umständlich in der Integration und zu wenig interoperabel, bemängeln Datacenter-Betreiber mit der Begründung, bei marktüblichen Lösungen bliebe stets ihre Agilität auf der Strecke. Im Gegensatz dazu können ja die Hyperscale-Datencenter aufgrund massiver Skaleneffekte ihre Hardware zumindest maßgeschneidert fertigen lassen — den anderen sei der Weg bisher aber versperrt. Die Großen ließen sich zudem bei ihrem Handwerk nur ungerne in die Karten schauen.
So die Kritik. Steht denn der Rest der Rechenzentrumsbranche auf verlorenem Posten?
Vor dem Hintergrund der allgemeinen Unzufriedenheit mit dem Status Quo in Sachen Hardware sind OCP und Open19 entstanden. Beide haben es sich zum Ziel gesetzt, das Problem durch quelloffene, interoperable Hardware-Architekturen zu lösen.
Eine höhere Interoperabilität dank quelloffener Hardware
Datencenter-Hardware existierte bisher in zwei Varianten:
- marktübliche Lösungen von großen Systemanbietern (Dell/EMC, HPE …), ihren kleineren Herausforderern (Boston Servers, Hyve Solutions, Penguin Computing, Schneider Electric und schließlich noch Baidu, Tencent beispielsweise) und von aufstrebenden Komponentenherstellern wie Wiwynn und Quanta (siehe: „Mit Open nach oben, Das Open Compute Project bei Quanta Cloud Technology“),
- proprietäre Datacenter-Hardware der ultra-effizienten Hyperscale-Rechenzentren auf der Basis top-geheimer Architekturen, zum Beispiel bei Amazon und bis zu seinem Beitritt zu OCP im März 2016 hielt sich auch Google über seine Designs bedeckt.
Unter der Federführung von Facebook entstand dann OCP, das Open Compute Project (siehe: „Datacenter-Design mit quelloffener Hardware für eine Lock-in-freie konvergente Infrastruktur – Wer kennt schon das Open Compute Project?“) in Zusammenarbeit mit Intel, Rackspace Hosting und Goldman Sachs. OCP hat eine Plattform für den Ideenaustausch zwischen Community-Mitgliedern geschaffen und einen Marktplatz für Hardware auf der Basis der eigenen Standards aus dem Boden gestampft.
Doch bei all seinen Erfolgen nahm OCP vorrangig die Bedürfnisse von Hyperscale-Datencenter ins Visier; kleinere Betreiber gingen trotz der vielen Innovationen und Standardisierungsinitiativen im Großen und Ganzen leer aus. Linkedin sah darin eine Chance, die Zügel an sich zu reißen, um einen breiteren Markt für interoperable Rechenzentrumslösungen mitzugestalten, und gründete in Zusammenarbeit mit Hewlett Packard Enterprise und VaporIO das Open19 Project (Open19 Foundation). Open19 hat sich zum Ziel gesetzt, den Betreibern kleiner und mittelgroßer Datencenter eine Hebelwirkung zu verschaffen, die sich mit der Marktmacht der Hyperscale-Anbieter vergleichen ließe.
Das Open Compute Project (OCP)
Wie gesagt: Das Design von Hardware für Hyperscale-Datacenter war lange Zeit ein streng gehütetes Geheimnis ihrer Betreiber. Dann kam Facebook mit der OCP-Initiative.
Die Liste der OCP-Mitglieder liest sich heute wie das „Who-is-Who“ der IKT-Branche: Apple, Dell, HPE, IBM, Intel, Nvidia, Microsoft, die Deutsche Telekom (im Übrigen ein Platinum-Sponsor), die Rittal GmbH & Co. KG (ein Gold-Sponsor). Google hat dem OCP sogar die eigene 48V-DC-Stromverteilungstechnologie beigesteuert, die lange Zeit als eines der am besten gehüteten Geheimnisse des Suchmaschinenriesen galt.
Der OCP-Gemeinde ist es erstaunlich gut gelungen, ein verstärktes Bewusstsein und gesteigertes Interesse an Lösungen für Datencenter-spezifische Produkte zu finden. Doch viele der Innovationen wurden durch den vergleichsweise engen Kreis von Unternehmen getragen, die im Bereich der Hyperscale-Datencenter unterwegs sind, und fanden bei breiteren Scharen von Anwendern kaum Zuspruch. Sind die benötigten Skaleneffekte nicht vorhanden, lösen sich viele Vorteile von OCP-Designs einfach in Nichts auf und so ist auch die Verbreitung in der Praxis entsprechend limitiert.
Das Open Compute Project schlägt sich mit drei Problemen herum, die einem breiteren Erfolg der Initiative bisher noch im Wege stehen:
- die Beiträge von OCP-Mitgliedern haben nicht zu einer Vereinheitlichung der Datencenter-Standards, sondern vielmehr zu einer Fragmentierung geführt,
- OCP-Spezifikationen an sich sind fragmentiert; sie beschreiben jeweils nur eine Teillösung im Rahmen eines größeren Problems,
- die Lieferkette von OCP-Anbietern ist nicht darauf ausgelegt, markttypische Datencenter zu beliefern.
OCP-Probleme
In der Praxis ist ein Lösungsansatz, der sich für Hyperscaler wie Facebook, Google oder Microsoft eignet, oft nicht auf kleinere Datencenter anwendbar. Zudem haben die OCP-Mitglieder nicht allgemein anwendbare, sondern in vielen Fällen ganz spezielle Lösungen zur OCP-Standardisierung eingereicht, zum Beispiel Racks in 21 Zoll, die sich ohne Anpassungen für 19 Zoll-Hardware nicht nutzen lassen).
Als Resultat daraus kam es zu einer Fragmentierung der Datencenter-Spezifikationen, mangelnder Effizienz in der Lieferkette und zur allgemeinen Verwirrung der IT-Käufer. Zum einen gibt es Hardware mit der Bezeichnung „OCP certified“ - hier hat der Hersteller die zugehörige IP an OCP übertragen -, zum anderen „OCP inspired“ - die einem Design zu Grunde liegende IP gehört nicht der OCP-Stiftung.
Es fehlt OCP eine Art roter Faden, der klar festlegen würde, was sich ein OCP-Design nennen darf und was nicht. Die OCP-Stiftung hat sich bemüht, mit einer Reihe von Standards diese und andere Fragen zu klären. Doch der derzeitige Standardisierungsprozess der OCP steckt noch in den Kinderschuhen; er ist derzeit schlicht nicht in der Lage, zuverlässige Metriken für den Erwerb von OCP-basierter Hardware zu liefern.
Daraus resultiert ein anderes Problem, nämlich die Tatsache, dass eine OCP-Spezifikation erfahrungsgemäß nur eine partielle Lösung einer größeren Aufgabenstellung beschreibt.
Die Bereitstellungslücke
Bereitstellungsmodelle für Open-Source-Initiativen im Softwarebereich sind offenbar nicht so leicht auf Hardware anzuwenden, da sich hier in der Praxis viele zusätzliche Komplikationen stellen. Die OCP-Stiftung kann zwar mit der einen oder anderen Spezifikation die Grundlagen liefern, doch es liegt immer noch an den jeweiligen Herstellern, diese in greifbare Produkte umzusetzen. Anders als im Falle von Software sind im Falle von Hardware nicht vorrangig die Anwender, sondern die jeweiligen Hersteller für die Komponentenbeschaffung, Fertigung und Logistik, Prüfung und Zertifizierung sowie die Wartung und den Support zuständig.
Für Datencenter-Betreiber, die traditionelle Zulieferer von Hardware und Hardware-Designs gewohnt sind, erfordert OCP trotz aller Standardisierungsbemühungen vor allem die Umstellung auf eine andere Art der Versorgungskette.
Praktisch jeder Anbieter von Server-Hardware, der etwas auf sich hält, nimmt auch für sich in Anspruch, ein OCP-basiertes Produktdesign entwickelt zu haben, nur liefert seine OCP-Hardware nicht in relevanten Stückzahlen aus. Diejenigen, die es geschafft haben, adressieren vorrangig Hyperscale- und HPC-Kunden, welche über eigene ausgewachsene Teams von Hardware-Ingenieuren verfügen, so dass sie ohne externen Support auskommen. Für die Mehrheit der Datencenter sind Modalitäten wie fehlende Garantie- und Serviceleistungen einfach nicht zumutbar.
Die Lieferkette von OCP-Dienstleistern ist schlicht und ergreifend nicht darauf ausgelegt, Mainstream-Datencenter-Betreiber zu beliefern.
Open19 und seine Vorzüge
Open19, vorgestellt im Juli 2016, entstand aus der Initiative von Linkedin; durch seine Übernahme des sozialen Netzwerks ist der OCP-Mitglied Microsoft de facto jetzt auch an Open19 beteiligt. Open19 verfolgt die Vision offener Server- und Rack-Technologie für das Datencenter der Zukunft.
Das Projekt hatte ursprünglich zum Ziel, für die eigenen Datencenter von Linkedin durch optimierte Designs zusätzliche Effizienzen herauszuarbeiten. Die Offenlegung der Spezifikationen hat eine Gemeinde gleichgesinnter Unternehmen hervorgerufen, welche nun mit der Hebelwirkung eines Hyperscale-Betreibers den Markt mitgestalten soll.
Open19 beabsichtigt, einen quelloffenen Standard — frei von Patentansprüchen und -gebühren Dritter — für Datencenter- und Edge-Computing-Lösungen in dem Formfaktor der 19-Zoll-EIA-Racks (Electronic Industry Alliance) zu etablieren — daher auch der Name: Open19. So soll die Anbieter-Basis zur Produktion von Open19-kompatiblen Servern breit aufgestellt werden. Open19 strebt niedrigere Kosten pro Rack, niedrigere Kosten pro Server, eine vereinfachte Integration und eine optimierte Leistungsauslastung an.
Auslöser: Nervige Installationsroutinen
Open19 definiert einen gemeinsamen Formfaktor sowie die Eckdaten der Stromversorgung und der Netzwerkkonnektivität für Server, Storage und andere Netzwerkausrüstung. Anders als OCP legt die Open19-Spezifikation weder das Design von Motherboards, noch die zulässigen Prozessortypen oder Netzwerkkarten fest.
Linkedin betreibt weltweit fünf eigene Datencenter mit einer Stellfläche von bis zu 150.000 Servern. Die Schwierigkeiten in der Integration neuer Systeme machten sich bei Linkedin schmerzhaft bemerkbar. Ein qualifizierter Techniker soll für die Bereitstellung eines neuen Racks mit 96 Servern bis zu acht Stunden Zeit gebraucht haben; mit modular aufgebauter Hardware nach den Spezifikationen von Open19 ist dieselbe Aufgabe in einer Stunde 20 Minuten erledigt.
Das wichtigste Geheimnis: Es ist nicht nötig, jeden Server-Knoten an das Netzwerk und die Stromversorgung anzuschließen; der Techniker schraubt den so genannten Brick-Käfig im Rack fest; die einzelnen Brick-Server gleiten dann einfach hinein und fertigt. Diese Art der Hardwarebereitstellung ist sowohl im Kernrechenzentrum als auch in Edge-Rechenzentren an der Netzwerkkante anwendbar.
Open-19-Eckdaten
Die Open19-Plattform basiert auf Standardbausteinen mit den folgenden Eckdaten:
- 19-Zoll-Rack mit 4 Pfosten nach dem EIA-Standard, der sich für Server, Storage und Netzwerke gleichermaßen eignet,
- Brick-Käfig in zwei Baugrößen mit 12 und 8 Rack-Einheiten (der Brick-Käfig (siehe: Abbildung 7) ist ein passives Blechelement, welches den Formfaktor festlegt und automatisch Snap-in-Öffnungen zum Einrasten von Kabeln bereitstellt); jede Rack-Einheit lässt sich für einen Brick (B), einen doppelten Brick (DB), und einen doppelten 2HE-Brick (Double High Brick, kurz: DHB) umbauen,
- Versorgungsregal für die 12-Volt-Stromverteilung, OTS-Leistungsmodule,
- optionale Batterie-Backup-Einheit (Battery Backup Unit, kurz: BBU),
- optionaler Top-of-Rack-Switch (ToR),
- Snap-on-Stromkabel/PCB-200-250 Watt pro Ziegel,
- Snap-on-Datenkabel bis zu 100 G pro Baustein.
Solange sich die Hersteller von Datacenter-Hardware an diese Spezifikationen halten, brauchen sie ihre Designs nicht offenzulegen.
Zu den besonderen Vorzügen der Architektur zählen:
- Reduktion von gemeinsamen Komponenten der Rack-Hardware, zum Beispiel Kabel, PDUs und Stecker) um 50 Prozent
- eine um den Faktor zwei bis drei beschleunigte Rack-Integration
- Gewährleistung von linearem Wachstum der Leistung und Bandbreite im Verhältnis zur Brick-Größe
- die Entstehung eines Ökosystems von Datencenter-Hardware, welches die Konsolidierung auf genormte Anforderungen ermöglicht und so Skaleneffekte durch höhere Produktionsvolumen standardisierter Hardware-Einheiten zu Tage fördert.
Als Norm gedacht
Die Open19-Norm ist als eine gemeinsame Richtschnur für Produktanbieter gedacht und will diese dazu anregen, im Rahmen der gemeinsamen Spezifikation zu innovieren. Dadurch, dass jede Open19-kompatible Hardware in jedes 19-Zoll-Rack passt und über ein effizientes Stromverteilungssystem verfügt, sind die Skaleneffekte größer.
Gleichzeitig fallen die Produktionskosten und die Time-to-Market niedriger aus. RZ-Betreiber sollen dank Open19 ihre Datencenter-Hardware viel einfacher über den Fachhandel beziehen und schneller integrieren können. Die resultierenden Einsparungen kommen nicht nur den größten, sondern auch mittleren und kleineren Rechenzentren zu Gute.
Microsofts neues Server-Design: „halbfertig“ im guten Sinne
Als Microsoft, ein Schwergewicht der Software-Industrie, 2014 der OCP-Stiftung beitrat, spielte das Unternehmen im Markt für Datencenter-Hardware noch kaum eine Rolle. Mit der Acquisition von Linkedin war Microsoft auch plötzlich bei der Open19 von der Partie — und damit mit beiden Füßen auf dem harten Boden der Realität potenziell brutaler Standards-Kriege.
Hersteller von Datencenter-Hardware der „alten Schule“ konzipieren ihre Lösungen hinter geschlossenen Türen in der selbstgefälligen Überzeugung, die Käufer würden eben ein solches schlüsselfertiges Produkt erwarten. Für grundlegende Verbesserungen ist es dann aber bei der Markteinführung zu spät.
Microsoft hat hingegen eingesehen, dass sich diese Arbeitsweise nicht bewahrheitet. Im Rahmen des Projektes „Olympus“ hat das Unternehmen die Designs seiner „Azure“-Server nach dem Vorbild von Open-Source-Software der OCP-Gemeinde in einem noch halbfertigen Zustand zur Diskussion vorgelegt. Nach dem Downloaden, Optimieren und Forken können auch andere Entwickler von Hardware das finale Design beeinflussen.
*Die Autoren
Das Autorenduo Filipe Pereira Martins und Anna Kobylinska arbeiten für McKinley Denali Inc. (USA).
(ID:45093515)