Open-Source-Hardware läuft live

Microsoft-Rechenzentren arbeiten nun im Open19-Design

| Autor: Ulrike Ostler

Nach und nach sollen alle Spezifikationen der Open19-Implementierung, wie sei bei Microsoft zum Einsatz kommt, veröffentlicht werden.
Nach und nach sollen alle Spezifikationen der Open19-Implementierung, wie sei bei Microsoft zum Einsatz kommt, veröffentlicht werden. (Bild: Open19 Foundation)

Vor zwei Jahren kündigte Linkedin ein „Open19“-Rack-und Server-Design an. Nun wird es in den Microsoft-eigenen Rechenzentren eingesetzt und die Spezifikationen veröffentlicht.

Im Gegensatz zu den Open-Source-Design vom Facebook 2011 initiierten Open Compute Project (OCP), das 21 Zoll-Schränke vorsieht, sollen die Standard-Server in Open19-Designs in 19-Zoll-Racks passen. Zugleich soll dieses Design es ermöglichen, die Kosten für Racks und die Verkabelung im Schrank um mehr als 50 Prozent senken, denn ein Bussystem soll sowohl die Vernetzung vereinfachen und den Aufwand für die Stromverteilung reduzieren.

Das Design wird unter einer Open-Source-Lizenz angeboten. Rittal zum Beispiel bietet bereits eigene Racks dieses Designs an.

Das Open19-Rack im Rittal-Look.
Das Open19-Rack im Rittal-Look. (Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Die vor zwei Jahren angekündigte Spezifikation sei nun serienreif, sagte Projektleiter Yuval Bachar auf dem Summit der Open19 Foundation vergangene Woche in San Jose. Die Stiftung wurde 2017 gegründet, um den Open-Source-Prozess zu steuern. „In den kommenden Wochen und Monaten planen wir, jeden Aspekt der Open19-Plattform - vom mechanischen bis zum elektrischen Design - zu öffnen, damit jeder ein innovatives und wettbewerbsfähiges Ökosystem aufbauen und schaffen kann.“

In dem Blog-Beitrag bedankt sich Bachar insbesondere bei folgenden Teams, die Tag und Nacht daran gearbeitet hätten, Open19 zu einem Erfolg zu machen: das Flex-Team, das Molex-Team, das Amphenol-Team, das Delta-Team, das Schneider-Electric-Team und „natürlich das erstaunliche Linkedin-Team“, das nicht aufgehört habe, bis eine erfolgreiche und qualitativ hochwertige Bereitstellung des Rechenzentrums erreicht war.

Ein Ziegel nach dem anderen

In einem Engineering-Blog betont Bachar zudem, dass Linkedin bisher zwar viel seiner Open-Source-Software mit der Open-Source-Community teile, doch sei es das erste Mal, dass auch Hardware-Spezifikationen an die Öffentlichkeit weitergegeben würde. Die Designs sollen sowohl in Megarechenzentren als auch in Edge-Datacenter zu verwenden sein.

So schlägt das Open19-Projekt Cassis (Bricks) vor, die Standard-Server-Motherboards aufnehmen können, die in Käfigen innerhalb eines normalen Racks installiert sind. Die Bausteine können eine Unit oder zwi Units hoch und entweder voll Breite einnehmen oder halbbreit sein. Strom- und Netzwerkverbindungen werden durch ein vereinfachtes System mit Steckverbindern getragen.

Zur CeBIT 2016 präsentierte Yuval Bachar auf dem Rittal-Stand die Verkabelung innerhalb eine Open19-Rack.
Zur CeBIT 2016 präsentierte Yuval Bachar auf dem Rittal-Stand die Verkabelung innerhalb eine Open19-Rack. (Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Die Stromversorgung wurde von jedem Server entfernt, um die Kosten zu senken, und die Gleichspannung wird mit 12 Volt aus einem Netzteilfach verteilt. Das Clip-On-Power-System gilt als sicherer als die Sammelschiene, die im Gleichstrom-Verteilersystem des Open Rack von OCP verwendet wird.

Open19 wird nicht mehr als Rivale zu „Open Rack“ präsentiert. So trat Linkedin in diesem Jahr dem OCP bei, deren europäischer Summit diese Woche in Amsterdam stattfand.

Die Elemente

Die einzelnen Open19-Gehäuse sind völlig passiv und in zwei Größen, zwölf und acht Höheneinheiten, erhältlich. Die Fächer können entweder volle oder halbbreite Bausteine aufnehmen. Dafür vorgesehen sind vier Formate mit Konnektivität von jeweils 50 Gigabit-Ethernet (GbE), die sich künftig auf 200 GbE ausbauen lässt. Unmanaged Systeme könne mit mindestens 200 Watt versorgt werden und für managed systems stehen mindestens 400 Watt zur Verfügung.

Bachar erläutert zur Microsoft-Implementierung: „Das Netzkabel ist so konzipiert, dass es bis zu 19,2 Kilowatt an zwei „Leaf-Zonen" liefert. Wir können 9,6 Kilowatt aufnehmen und zwei Leistungsstufen erstellen - eine für jedes verwaltete System von 200 Watt pro halbe Serverbreite auf einer Höheneinheit.“ Das Projekt habe Stromversorgungsstecker und -pins ausgewählt, die 400 Watt (35A/12V) pro Server verarbeiten: Das ermöglicht es einem energieverwalteten System, jeden Server mit halber Breite auf 400 Watt zu pushen. „Das bedeutet 800 Watt für die doppelte Breite und 1.600 Watt für ein 2HE-System auf voller Breite.“

Der aktuelle Top of Rack-Switch unterstützt bis zu 3,2 Terabyte. Das Design ist laut mit Bachar von verschiedenen Quellen erhältlich. Der ToR-Switch ist über Kabel, die 100 Gigabit pro Sekunde verarbeiten können, mit 48 Servern verbunden. Jeder Server erhält vier bidirektionale Kanäle mit einer Nennleistung von 50 Gigabit PSM4 (PSM4 = Parallel Single Mode 4-channel) ermöglicht, sich aber bis zu 200 Gigabit pro halbbreitem Server ausbauen lässt.

Das Power Shelf enthält die Stromversorgungsmodule der Hardware-Anbieter - obwohl jedes Power Shelf lieferantenspezifisch ist, werden bei Microsoft nur die Module eines einzigen Lieferanten verwendet. Das Shelf erlaubt bis zu 9,6 Kilowatt in einer redundanten 3+3-Konfiguration. Dieser lässt sich auf 15,5 Kilowatt erhöhen, um die Redundanz in einer 5+1-Konfiguration zu gewährleisten.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45524160 / Racks)