Netzwerkbeschleuniger für das Rechenzentrum Nvidia stellt DPU Bluefield-2(X) vor
Anbieter zum Thema
Die neue Nvidia-Produktfamilie von „Bluefield“-DPUs soll „jedem Rechenzentrum“ eine „bahnbrechende Netzwerk-, Speicher- und Sicherheitsleistung“ zuteilwerden lassen. Passend dazu hat der Hersteller eine neue Software für Rechenzentrumsinfrastruktur-on-a-Chip veröffentlicht: „DOCA“. In Zusammenarbeit mit VMware will das Unternehmen die Architektur der hybriden Cloud von Grund auf neu erfunden haben.

„Das Datencenter ist die neue Compute-Einheit“, sagt Jensen Huang, Gründer und CEO von Nvidia, in seiner Keynote auf der GPU Technology Conference zum Anlass der Vorstellung der dreijährigen Roadmap von Bluefield-DPUs (Data Processing Units). Die DPU ist die Recheneinheit im Herzen Software-programmierbarer SmartNICs aus dem Entwicklungslabor der Nvidia-Tochter Mellanox.
DPUs seien „ein wesentliches Element moderner und sicherer (Hardware-)beschleunigter Rechenzentren, in denen sich CPUs, GPUs und DPUs zu einer einzigen, vollständig programmierbaren und KI-fähigen Recheneinheit kombinieren“ ließen, so Huang. Sie sollen „ein bisher ungekanntes Maß an Sicherheit und Rechenleistung“ ermöglichen.
Datenzentrische Hardwarebeschleuniger für das softwaredefinierte Rechenzentrum
Das aktuelle DPU-Portfolio beinhaltet zwei PCIe-Lösungen: die „Bluefield-2“- und die „Bluefield-2X“-DPU.
Die 2er DPU vereint die Fähigkeiten von Nvidia SmartNICs aus der „Mellanox Connectx-6 Dx“-Reihe mit leistungsstarken „A72“-ARM-Kernen. Vollständig programmierbar, liefert das Technikwunder Datentransferraten in Höhe von 200 Gigabit pro Sekunde (2x 100 Gb/s Ethernet/Infiniband).
Es beschleunigt kritische Cyber-Sicherheits-, Netzwerk- und Storage-Aufgaben wie die Isolation, Root-Trust-Kryptografiefunktionen, Schlüsselverwaltung, RDMA/RoCE, „GPUDirect“, Speicherung elastischer Blöcke, De-Duplikation, Datenkomprimierung und viele andere. Eine einzelne Bluefield-2-DPU soll die CPU um Rechenaufgaben entlasten, welche die Rechenzeit von bis zu 125 CPU-Kernen verschlingen können.
Bluefield-2X-DPU bietet „alle wichtigen“ Funktionen einer Bluefield-2-DPU erweitert um die KI-Funktionen einer „Ampere“-GPU, die sich für Sicherheits-, Netzwerk- und Speicheraufgaben in Rechenzentren einspannen lassen. Dank der Tensor Cores in der dritten Generation kann die DPU mit Hilfe von Künstlicher Intelligenz Echtzeit-Sicherheitsanalysen durchführen, also etwa abnormalen Datenverkehr identifizieren, der auf den Diebstahl vertraulicher Daten hinweisen könnte, oder verschlüsselten Datenverkehr in Echtzeit durchforsten, böswilliger Aktivitäten in-Host erkennen und Cybermalware-Abwehr dynamisch orchestrieren und automatische Gegenmaßnahmen ergreifen.
Durch den Einsatz der DPUs sollen „wertvolle“ (sprich: teure Intel-)CPU-Kerne um Netzwerk-, Speicher- und Sicherheitszentrische Workloads entlastet und „für die Ausführung einer Vielzahl anderer Unternehmensanwendungen“ frei werden.
Das maßgeschneidert optimierte Bluefield-2-SoC nutzt acht „ARM Cortex-A72“-Kerne und zwei VLIW-Beschleuniger mit einem Connectx-6 DX-NIC für die eigentliche Konnektivität.
DOCA, eine Anwendungsumgebung für DPUs
Mit DOCA hat Nvidia eine Laufzeitumgebung zur Ausführung von Software-Anwendungen auf DPUs geschaffen.Das DOCA SDK soll es Entwicklern erlauben, auf der Basis DPU-beschleunigter Infrastrukturdienste eigene Anwendungen zu bauen.
Denselben bewährten Ansatz befolgt Nvidia mit Architekturmodell von „CUDA“ für GPU-beschleunigte Anwendungen. DOCA soll Entwicklern eine „umfassende, offene Plattform“ zum Erstellen softwaredefinierter, hardwarebeschleunigter Netzwerk-, Speicher-, Sicherheits- und Verwaltungsanwendungen für die BlueField-DPU-Familie bieten.
DOCA integriert sich vollständig mit dem hauseigenem Softwarekatalog NGC. Der Katalog stellt Drittanbietern eine „komfortable containerisierte Softwareumgebung“ zur Verfügung, damit sie für ihre Anwendungen „fortschrittliche datenzentrumsbeschleunigte DPU-Dienste“ nutzen und für Nvidia-Technologien Anwendungen entwickeln, zertifizieren und vertreiben könnten. Interessierte Entwickler und Softwarehäuser können sich für eine frühe Vorabversion der Plattform anmelden.
RZ-Infrastruktur in Hard- und Software
Moderne Unternehmens-Rechenzentren, softwaredefiniert und vollständig programmierbar, werden für hoch verteilte Anwendungs-Workloads in Cloud-, Core- und Edge-Umgebungen konzipiert. Dieser Ansatz bietet den Datacenter-Betreibern die Flexibilität und Agilität einer Cloud, geht jedoch zu Lasten von Compute-Ressourcen, indem es eine Mindestmenge von CPU-Kernen kontinuierlich auslastet und sie so den Geschäftsanwendungen entzieht.
Mit DOCA können Anwendungsentwickler und Nvidia-Technologiepartner Dienste bereitstellen, die sich auf DPUs ausführen lassen. Dadurch verwandelt sich die DPU in eine isolierte Dienstdomäne – eine Enklave – für Netzwerk-, Cybersicherheits-, Speicher- und Infrastrukturverwaltung.
Die DPU beschleunigt kritische Infrastrukturdienste in Rechenzentren auf Hardware-Ebene und kann gleichzeitig auf ihren programmierbaren ARM-Kernen fortgeschrittene und maßgeschneiderte Anwendungen der Steuerungsebene ausführen, zum Beispiel SDN-Controller in Software, verteilte Storage-Anwendungen oder Firewall-Agenten (siehe auch „Wird ARM ein Teil von Nvidia?“).
Führende globale Server-Hersteller, von Asus über Atos, Dell Technologies, Fujitsu, Gigabyte, H3C, Inspur, Lenovo, Quanta/QCT bis hin Supermicro haben bereits Pläne angekündigt,die Nvidia-DPUs in ihre Systeme zu integrieren. Im Rahmen von Project Monterey hat VMware auch bereits schon die Absicht bekundet, BlueField-2-DPUs in VMware Cloud Foundation zu unterstützen.
:quality(80)/images.vogel.de/vogelonline/bdb/1753000/1753026/original.jpg)
Neues von der VMworld 2020
VMware kündigt enge Partnerschaft mit Nvidia sowie Project Monterey an
Die IBM-Tochter Red Hat möchte Bluefield-2-DPUs in „Red Hat Enterprise Linux“ und „Openshift“ unterstützen. Das Red-Hat-Portfolio kommt in 95 Prozent aller Großkonzerne der globalen Fortune 500-Liste zum Einsatz.
Canonical hat den Support für Bluefield-2-DPUs und DOCA in seiner Linux-Plattform „Ubuntu“, dem in eigenen Worten des Anbieters „beliebtesten Betriebssystem unter den öffentlichen Clouds“, auch bereits angekündigt. Der israelische Cyber-Sicherheitsspezialist Check Point Software Technologies ist ebenfalls bereits dabei, Bluefield-2-DPUs in seine Technologien zu integrieren, auf die weltweit mehr als 100.000 Organisationen vertrauen.
Die „hardwarebeschleunigte“ Roadmap
Nvidia möchte die beiden Bluefield-2-DPUs an Endkunden im Laufe von 2021 ausliefern und bereits ein Jahr später mit der Nachfolgegeneration, Bluefield-3, nachkarten. Mit Bluefield-3 entsteht eine „aufgemotzte“ Version von Bluefield-2 mit separaten DPU- und DPU+GPU-Karten.
Doch erst in der darauffolgenden Generation der DPU, Codename Bluefield-4, kommt der Einfluss von Nvidia-Ingenieuren voll zur Geltung. Das Unternehmen avisiert hierbei eine einzige Hochleistungs-DPU, welche die Performance ihrer einfacheren Vorläufer deutlich übertreffen soll. Insgesamt sei von Bluefield-4 eine KI-Leistung von sagenhaften 400 „TOPS“ (kurz für: „Tensor Operations per Second“) zu erwarten.
Mit der kommerziellen Verfügbarkeit von Bluefield-4 rechnet das Unternehmen bereits im Jahre 2023.
Das Fazit der Autoren
Die DPU stellt den nächsten evolutionären Schritt auf dem Weg zu domänenspezifischen Beschleunigern für das softwaredefinierte Rechenzentrum dar.
* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).
(ID:46905180)