Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

„Unendliche Bandbreite“ für die Zukunft Was ist Infiniband?

Autor / Redakteur: M.A. Jürgen Höfling / Ulrike Ostler

Angesichts immer höherer Anforderungen bei Rechenleistung ist Cluster-Computing angesagt. Dadurch wächst der Bandbreitenhunger. Eine Chance für die „gute, alte“ Infiniband-Architektur, aus der Nische herauszukommen.

Firmen zum Thema

Infiniband: Ein Hauch von Unendlichkeit am Horizont der Datenübertragung
Infiniband: Ein Hauch von Unendlichkeit am Horizont der Datenübertragung
(Bild: Bild von Lisa Spence auf Pixabay)

Seit über zwanzig Jahren ist die Hardwareschnittstelle Infiniband am Markt. Bislang verharrte diese Technologie im Vergleich zu Ethernet oder (in geringerem Maße) Fibrechannel in der „HPC-Nische“ (HPC = High Performance Computing).

Mittlerweile bewegt sich aber einiges in der Szene und die alten Gewissheiten sind so gewiss nicht mehr. Zum einen weitet sich der HPC-Bereich immer mehr aus, so dass kaum noch von einer Nische gesprochen werden kann und zum anderen sind – nicht zuletzt aufgrund dieser Entwicklung - die Preise für Infiniband-Komponenten deutlich gesunken, sodass diese auch für eine breite Anwenderschicht interessant werden.

Infiniband – eher Bus- als Netzwerk-Architektur

Um die anspruchsvollen Rechenaufgaben der Gegenwart und näheren Zukunft zu lösen, ist „unendliche Übertragungsbandbreite“ (infinite bandwidth), die das Kunstwort „Infiniband“ verspricht, mehr als nötig. In der Tat ist zwar bei Infiniband die Unendlichkeit eher „Maulwerk“ als technische Realität (wie auch?), aber Übertragungsraten im Einzelkanal oder als Kanalbündel von mittlerweile bis zu 300 Gigabit pro Sekunde (Gbit/s) sowie Latenzzeiten unter 2 Mikrosekunden erzeugen zumindest einen Hauch von Unendlichkeit.

Außerhalb des Experimentalstatus steht Infiniband derzeit 10 GBit Ethernet beziehungsweise 8 bis 16 GBit Fibre Channel gegenüber. Mit dem Leistungsmerkmal RDMA (Remote Direct Memory Access) von Infiniband können im Bereich der Massenspeicher Daten direkt in den Hauptspeicher des Zielsystems geschrieben werden.

Der Netzwerkprotokoll-Stack entfällt, die CPU wird dadurch entlastet und zeitintensive Kopiervorgänge werden vermieden. Infiniband ist nicht so sehr eine Netzwerktechnologie als eher eine verlängerte Busstruktur, die vorwiegend im Bereich von Serverclustern, Server-Massenspeicher-Aggregaten sowie Rechenzentrum-Rechenzentrum-Verbindungen verwendet wird. Tatsächlich ist Infiniband ja auch aus einer Weiterentwicklung des PCIBus entstanden.

Anbieter von Infiniband-Baugruppen

Eine Infiniband-Infrastruktur besteht aus Server-Netzwerkkarte (Host-Channel-Adapter, HCA), Netzwerkkarten der Peripheriegeräte wie beispielsweise Massenspeichern (Target-Adapter) sowie aus Switches und Router. Dazwischen können Kupfer- oder Glasfaser-Kabel verlegt sein. Während Infiniband-Switches nur die Local ID auswerten, verwenden Infiniband-Router auch die Global ID, so dass sich Router auch für die Steuerung von größeren Netzen, die zum Beispiel aus mehreren Subnetzen bestehen, eignen.

Treiber für die Infniband-Netzwerkkarten sind für alle gängigen Betriebssysteme verfügbar, unter anderem für „Windows Server“ und Client-Versionen, alle großen Linux Distributionen sowie für die Virtualisierungs-Betriebssysteme „VMware ESXi“, „Microsoft Hyper-V“ und „Citrix Xen“.

Der wichtigste und umfassend sortierte Lieferant von Infiniband-Komponenten ist das Unternehmen Mellanox, seit April 2020 zu Nvidia gehörend. So ist beispielsweise auch die gerade auf den Markt gekommene siebte Generation der Nvidia-Infiniband-Architektur mit „NDR 400 GB/s“ und softwaredefiniertem Netzwerk, Remote-Direktspeicherzugriff (RDMA) und netzwerkinternem Computing aus dem Hause Mellanox.

Neben Mellanox bieten indes auch andere Hersteller Infiniband-Baugruppen an, einige unter ihrem Namen (Oracle/Sun, Cisco, Intel), andere namenlos in ihren jeweiligen Boxen.

Domäne von Infiniband ist und bleibt der Serverbereich

Mit der zunehmenden „Popularisierung“ von HPC-Aufgaben und den damit einhergehenden Preissenkungen für Infiniband-Baugruppen dürfte Infiniband in Zukunft eine stärkere Position gegenüber Ethernet, Fibre Channel oder proprietären Lösungen einnehmen. Die stärkere Ausbreitung wird aber weiterhin auf Serverräume und Server-Massenspeicher-Verbindungen beschränkt sein, im Client-Bereich ist Ethernet auch in Zukunft wohl ohne Alternative.

Wenn es auch denkbar ist, dass sich das „Nischenpflänzchen“ Infiniband aufgrund der genannten Argumente stärker verbreitet, werden Unternehmensnetze in der Regel auch noch weitere Netzwerk-Architekturen aufweisen. Über ein Frequenzteiler-Kabel bietet Infiniband Möglichkeiten, breitbandige Übergänge in eben diese Bereiche des Unternehmensnetzes zu schaffen.

(ID:47765746)