Hardwarezukunft - Silicon Photonics verschafft Fujitsu guten Vorsprung

Losgelöst ab 2015: Optische Leiter bringen Speicher auf Distanz

| Autor / Redakteur: Ariane Rüdiger / Ulrike Ostler

Jens-Peter Seick, Senior Vice President der Product Development Group von Fujitsu, entwickelt Server: „In fünf Jahren gibt es die ersten vollständig verteilten Serversysteme.“
Jens-Peter Seick, Senior Vice President der Product Development Group von Fujitsu, entwickelt Server: „In fünf Jahren gibt es die ersten vollständig verteilten Serversysteme.“ (Bild: Fujitsu)

Kupferübertragung auf der Server-Platine beschränkt die architektonischen Möglichkeiten. Eine Alternative sind optische Leiter. Ariane Rüdiger sprach für DataCenter-Insider mit Jens-Peter Seick, Senior Vice President der Product Development Group von Fujitsu, über das neue Konzept und seine Chancen.

Fujitsu präsentierte auf der CeBIT 2014 seine preisgekrönten Architektur „Silicon Photonics“.

Wo sehen Sie die Schwachpunkte der bisherigen Server-Architekturen?

Jens-Peter Seick: Silizium und Kupfer als Basismaterialien sind grundsätzlich unflexibel. Man kann damit keine neuen Aufbaukonzepte für Server realisieren, wie wir sie derzeit mit SDN (Software Defined Networking) Netzen oder SDS (Software Defined Storage) bei Speichertechnik sehen. Der Trend geht hier zu „Serverized Systems“, wo sich mit Hilfe von x86-Servern, dem offenen Betriebssystem Linux und einem offenen, hochskalierbaren Filesystem wie CEFS verteilte Speicherarchitekturen über mehrere Server hinweg aufbauen lassen.

Warum braucht man dafür unbedingt quelloffene Software?

Jens-Peter Seick: Man kann solche Lösungen natürlich auch proprietär realisieren, aber die Offenheit garantiert eine transparente Entwicklung, Integrierbarkeit über offene Schnittstellen und die Beachtung von Themen, die Hersteller bei proprietären Entwicklungen oft gar nicht auf dem Schirm haben. Gerade für Middleware wie Cloud Stacks, Orchestrierungslösungen oder Filesysteme bietet sich daher quelloffene Software an.

Ergänzendes zum Thema
 
Über Silicon Photonics

Wodurch begrenzt Kupfer bei Server-Hardware die Möglichkeit?

Jens-Peter Seick: Der prinzipielle Aufbau einer Server-Platine aus dem Komponenten CPU, Speicher und Ein-/Ausgabe ist sehr sinnvoll. Aber wegen der Kupferleitungen dürfen sich Speicher und I/O höchstens 40 Zentimeter von der CPU entfernt befinden, sonst entstehen intolerable Latenzen.

Verteilte Architekturen werden so unmöglich. Das haben wir mit Silicon Photonics geändert – die Technologie ist eine Revolution, an der vielerorts gearbeitet wird. Wir haben hier seit drei Jahren intensiv mit Intel kooperiert – unser Entwicklungsvorsprung dürfte bei bis zu anderthalb Jahren liegen.

Wie verändert Silicon Photonics das Server-Design?

Jens-Peter Seick: Mit Silicon Photonics werden Architekturen möglich, bei denen Ein-/Ausgabeeinheiten, Recheneinheiten und Speicher räumlich sehr viel weiter auseinanderstehen. Festplatten braucht man sowieso im Grunde nur noch für Aufgaben wie Persistenz oder Archivierung.

Immer mehr passiert im Hauptspeicher, wie SAP Hana demonstriert, und den könnte man getrennt von der CPU unterbringen. Das ist noch längst nicht alles: Sogar echtes Rechnen mit Licht wird irgendwann möglich werden – Lichtwellen addieren und subtrahieren sich ja bekanntlich, man kann also Rechenoperationen damit abbilden. Aber so weit sind wir noch nicht.

Wo liegt heute der prinzipielle Vorteil solcher verteilten Architekturen?

Jens-Peter Seick: Denken Sie zum Beispiel an GP GPU (General Purpose Graphical Processing Units, CPUs, eine besonders leistungsfähige Variante von Multicore-Systemen mit 40 bis 80 Cores enthalten (und zum Beispiel für aufwändige numerische Berechnungen verwendet werden, Anm. d. Aut.). Diese Systeme haben mit 1200 Watt pro Höheneinheit einen erheblich höheren Strombedarf pro Höheneinheit als übliche Server und erzeugen entsprechend mehr Abwärme, die das gesamte Rack aufheizt.

Bei einem Rack mit 40 Höheneinheiten käme man mit diesen Verarbeitungseinheiten auf über 40 Kilowatt Strombedarf. Das ist ein Mehrfaches der heutigen Leistungsdichte. Dieses Problem kann man entschärfen, wenn man diese Verarbeitungseinheiten separat in einem gekühlten Schrank unterbringt, die Ein-/Ausgabe in einer separaten Box, und dann beide mit Glasfaser verbindet.

Entsteht durch die Protokollumsetzung auf die Glasfaser nicht eine Latenz?

Jens-Peter Seick: Eben nicht! Denn wir übertragen auf der Faser 1:1 mit denselben Protokollen wie innerhalb des Systems, also zum Beispiel die Original-Verarbeitungs-Pipelines. Das heißt, wir können Systemkomponenten heute bis zu 30 Meter entfernt voneinander unterbringen.

"Silicon Photonics" ist eine gemeinsame Entwicklung von Intel und Fujitsu (siehe: Kasten)
"Silicon Photonics" ist eine gemeinsame Entwicklung von Intel und Fujitsu (siehe: Kasten) (Bild: Intel)

Theoretisch sind 300 Meter Distanz möglich. Unser erstes Produkt ist ein über Glasfaser verlängerter PCIe-Bus, der eine separate Box mit Dual-Hosted-PCIe-Ein-/Ausgabeeinheiten anbindet. Weil die PCIe-Chips auch Switches sind, können also so mehrere Server parallel dieselbe PCIe-Einheit nutzen.

Für welche Anwendungen ist das sinnvoll?

Jens-Peter Seick: Wichtige Anwendungen sind heute Hochverfügbarkeit und High-Performance Computing. Wird die I/O gemeinsam genutzt, kann man problemlos von einem auf den anderen Server umschalten, bei HPC geht es um die schon oben erwähnte Dichte und Leistungsfähigkeit der Verarbeitungseinheiten.

Wann kommen Ihre ersten Systeme auf den Markt und was werden sie kosten?

Jens-Peter Seick: Im November 2013 haben wir funktionsfähige Prototypen unserer glasfasergestützten PCIe-Anbindung gezeigt, jetzt geht es an die Umsetzung ins marktfähige Produkt. Wir werden das ab Anfang 2015 liefern können. Die Lösung wird für einen Vierwege-Server mit maximal 60 Kernen rund 25.000 Euro kosten.

Wie geht die Entwicklung weiter?

Jens-Peter Seick: Das hängt natürlich auch stark von der Prozessorentwicklung ab, also etwa von Intel. Ich schätze aber, dass wir in etwa fünf Jahren die ersten vollständig verteilten Serversysteme sehen werden. Dann stecken in einem Rack die CPUs aller Leistungsklassen, in einem anderen die Ein-/Ausgabe-Einheiten und in einem dritten die diversen Speichermedien.

Die Verbindung zwischen den drei Komponenten läuft über Glasfaser. Man wird in solchen Systemen ad hoc und aufgabenspezifisch die jeweils passenden Komponenten aus den drei Racks per Software zu dem gerade benötigten Servertyp zusammenschalten können. Es lassen sich dann also auch bei Servern flexible, softwarebasierende Strukturen wie bei Netzen oder Storage aufbauen.

Die Autorin:

Ariane Rüdiger ist freie Journalistin.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42668831 / Komponenten)