Technologie aus dem Supercomputing erreicht normale IT-Umgebungen Effiziente Netzwerke für das Rechenzentrum der Zukunft

Autor / Redakteur: Martin Roosen* / Ulrike Ostler

IT als Service funktioniert nur mit einem Software-gestützten Ansatz. Hier werden die Infrastruktur durch eine intelligente Software gesteuert, die Ressourcen automatisiert und effizient auf die Anforderungen der Anwendungen und Workloads.zugeschnitten Immer prominenter wird OpenStack: Funktionen und Services werden von der Hardware entkoppelt.

Firmen zum Thema

Ausschnitt aus dem 100-Gb/s-Infiniband-Director Switch CS7520 von Mellanox
Ausschnitt aus dem 100-Gb/s-Infiniband-Director Switch CS7520 von Mellanox
(Bild: Mellanox)

In modernen Netzwerken bedient man sich der gleichen Denkweise: offene Protokolle, zum Beispiel OpenFlow, gestatten Softwarepaketen Kontrolle und Zugang zu den Netzwerkresourcen wie Switches und Router – man spricht von Software Defined Networking (SDN). Hiermit werden netzwerkseitig on-demand Provisionierung, Load Balancing und Skalierbarkeit erreicht, um wiederum den Anforderungen der Workloads Rechnung zu tragen.

Infiniband als SDN-Vorreiter

Im Jahr 1999 wurde Infiniband (IB) als offener Standard aus zwei konkurrierenden Technologien (Next Generation I/O und Future I/O) abgeleitet – und schon damals wurde ein besonderes Augenmerk auf I/O gelegt. Das aber scheint sich in der heutigen Zeit tatsächlich zu bewähren. Entgegen seines Rufs als komplexe, exotische Technologie kann Infiniband doch als überraschend simpel und kostengünstig in der Implementierung bezeichnet werden.

Infiniband ausschließlich als Netzwerk zu betrachten und vornehmlich mit Ethernet und TCP/IP zu vergleichen, wäre falsch – handelt es sich doch vielmehr um eine Channel-artige Methode, effizienten Datenaustausch zwischen Applikationen zu ermöglichen. Hierunter fallen, beispielsweise Datenbank-Cluster, Interprozess-Kommunikation, Storage aber auch eine Unmenge anderer Anwendungern, bei denen Daten über Server-Grenzen hinweg bewegt werden.

Kein HPC ohne Infiniband und doch überraschend simpel

Höchstleistungsrechner (Supercomputer) wären ohne Infiniband in ihrer heutigen Ausprägung nicht denkbar. Kein Wunder also, dass man die Errungenschaften aus dem HPC, quasi die Formel-1 der IT, nun in kommerzielle Bereiche zu überführen bestrebt ist. Die zentrale Kontroll- und Management-Instanz in einer Infiniband Fabric ist übrigens der Subnet Manager.

Ergänzendes zum Thema
Das Fazit des Autors

Infiniband 100-Gb/s-Technologie ist mit dem laufenden Jahr 2015 serienreif geworden, Mellanox arbeitet mittlerweile am 200Gb/s High Data Rate (HDR) Interconnect, dessen kommerzielle Verfügbarkeit für Anfang 2017 geplant ist.

Und wenn die Berührungsängste mit Infiniband doch überwiegen, so gibt es mit VPI-fähigen Adaptern und Switches das Beste aus beiden Welten: Ethernet und Infiniband auf derselben Hardware; oder Gateways, die schnellen Storage auf IB-Basis an das herkömmliche Ethernet andocken.

Neben seiner Zielsetzung, Daten mit maximalem Durchsatz zu bewegen, werden hier Failover-Mechanismen, Load Balancing und die Isolierung von Single Points of Failure in einer Topologie ermöglicht. Während im Ethernet-Bereich jeder Switch eigene, autonome und unabhängige Entscheidungen hinsichtlich der Paketverarbeitung trifft, ist es im Infiniband der Subnet Manager, der eine ganzheitliche Sicht auf das Netzwerk einnimmt und ein Routing nach ganz klaren Performance-Gesichtspunkten anstrebt - SDN eben.

Artikelfiles und Artikellinks

(ID:43442191)