Suchen

Netzwerkbeschleuniger für das Rechenzentrum Nvidia stellt DPU Bluefield-2(X) vor

Autor / Redakteur: Anna Kobylinska und Filipe Martins* / Ulrike Ostler

Die neue Nvidia-Produktfamilie von „Bluefield“-DPUs soll „jedem Rechenzentrum“ eine „bahnbrechende Netzwerk-, Speicher- und Sicherheitsleistung“ zuteilwerden lassen. Passend dazu hat der Hersteller eine neue Software für Rechenzentrumsinfrastruktur-on-a-Chip veröffentlicht: „DOCA“. In Zusammenarbeit mit VMware will das Unternehmen die Architektur der hybriden Cloud von Grund auf neu erfunden haben.

Firmen zum Thema

NVIDIA BlueField-2X ist die erweiterte Edition der NVIDIA BlueField-2-DPU mit KI-Fähigkeiten einer GPU auf der Basis der Ampere-Architektur von NVIDIA.
NVIDIA BlueField-2X ist die erweiterte Edition der NVIDIA BlueField-2-DPU mit KI-Fähigkeiten einer GPU auf der Basis der Ampere-Architektur von NVIDIA.
(Bild: NVIDIA)

„Das Datencenter ist die neue Compute-Einheit“, sagt Jensen Huang, Gründer und CEO von Nvidia, in seiner Keynote auf der GPU Technology Conference zum Anlass der Vorstellung der dreijährigen Roadmap von Bluefield-DPUs (Data Processing Units). Die DPU ist die Recheneinheit im Herzen Software-programmierbarer SmartNICs aus dem Entwicklungslabor der Nvidia-Tochter Mellanox.

DPUs seien „ein wesentliches Element moderner und sicherer (Hardware-)beschleunigter Rechenzentren, in denen sich CPUs, GPUs und DPUs zu einer einzigen, vollständig programmierbaren und KI-fähigen Recheneinheit kombinieren“ ließen, so Huang. Sie sollen „ein bisher ungekanntes Maß an Sicherheit und Rechenleistung“ ermöglichen.

Datenzentrische Hardwarebeschleuniger für das softwaredefinierte Rechenzentrum

Das aktuelle DPU-Portfolio beinhaltet zwei PCIe-Lösungen: die „Bluefield-2“- und die „Bluefield-2X“-DPU.

Die 2er DPU vereint die Fähigkeiten von Nvidia SmartNICs aus der „Mellanox Connectx-6 Dx“-Reihe mit leistungsstarken „A72“-ARM-Kernen. Vollständig programmierbar, liefert das Technikwunder Datentransferraten in Höhe von 200 Gigabit pro Sekunde (2x 100 Gb/s Ethernet/Infiniband).

Es beschleunigt kritische Cyber-Sicherheits-, Netzwerk- und Storage-Aufgaben wie die Isolation, Root-Trust-Kryptografiefunktionen, Schlüsselverwaltung, RDMA/RoCE, „GPUDirect“, Speicherung elastischer Blöcke, De-Duplikation, Datenkomprimierung und viele andere. Eine einzelne Bluefield-2-DPU soll die CPU um Rechenaufgaben entlasten, welche die Rechenzeit von bis zu 125 CPU-Kernen verschlingen können.

Bluefield-2X-DPU bietet „alle wichtigen“ Funktionen einer Bluefield-2-DPU erweitert um die KI-Funktionen einer „Ampere“-GPU, die sich für Sicherheits-, Netzwerk- und Speicheraufgaben in Rechenzentren einspannen lassen. Dank der Tensor Cores in der dritten Generation kann die DPU mit Hilfe von Künstlicher Intelligenz Echtzeit-Sicherheitsanalysen durchführen, also etwa abnormalen Datenverkehr identifizieren, der auf den Diebstahl vertraulicher Daten hinweisen könnte, oder verschlüsselten Datenverkehr in Echtzeit durchforsten, böswilliger Aktivitäten in-Host erkennen und Cybermalware-Abwehr dynamisch orchestrieren und automatische Gegenmaßnahmen ergreifen.

Durch den Einsatz der DPUs sollen „wertvolle“ (sprich: teure Intel-)CPU-Kerne um Netzwerk-, Speicher- und Sicherheitszentrische Workloads entlastet und „für die Ausführung einer Vielzahl anderer Unternehmensanwendungen“ frei werden.

Das maßgeschneidert optimierte Bluefield-2-SoC nutzt acht „ARM Cortex-A72“-Kerne und zwei VLIW-Beschleuniger mit einem Connectx-6 DX-NIC für die eigentliche Konnektivität.

Die DOCA-Softwareebene bildet den Unterbau für Rechenzentrumsinfrastrukturanwendungen, die auf der DPU ausgeführt werden.
Die DOCA-Softwareebene bildet den Unterbau für Rechenzentrumsinfrastrukturanwendungen, die auf der DPU ausgeführt werden.
(Bild: NVIDIA)

DOCA, eine Anwendungsumgebung für DPUs

Mit DOCA hat Nvidia eine Laufzeitumgebung zur Ausführung von Software-Anwendungen auf DPUs geschaffen.Das DOCA SDK soll es Entwicklern erlauben, auf der Basis DPU-beschleunigter Infrastrukturdienste eigene Anwendungen zu bauen.

Denselben bewährten Ansatz befolgt Nvidia mit Architekturmodell von „CUDA“ für GPU-beschleunigte Anwendungen. DOCA soll Entwicklern eine „umfassende, offene Plattform“ zum Erstellen softwaredefinierter, hardwarebeschleunigter Netzwerk-, Speicher-, Sicherheits- und Verwaltungsanwendungen für die BlueField-DPU-Familie bieten.

DOCA integriert sich vollständig mit dem hauseigenem Softwarekatalog NGC. Der Katalog stellt Drittanbietern eine „komfortable containerisierte Softwareumgebung“ zur Verfügung, damit sie für ihre Anwendungen „fortschrittliche datenzentrumsbeschleunigte DPU-Dienste“ nutzen und für Nvidia-Technologien Anwendungen entwickeln, zertifizieren und vertreiben könnten. Interessierte Entwickler und Softwarehäuser können sich für eine frühe Vorabversion der Plattform anmelden.

RZ-Infrastruktur in Hard- und Software

Moderne Unternehmens-Rechenzentren, softwaredefiniert und vollständig programmierbar, werden für hoch verteilte Anwendungs-Workloads in Cloud-, Core- und Edge-Umgebungen konzipiert. Dieser Ansatz bietet den Datacenter-Betreibern die Flexibilität und Agilität einer Cloud, geht jedoch zu Lasten von Compute-Ressourcen, indem es eine Mindestmenge von CPU-Kernen kontinuierlich auslastet und sie so den Geschäftsanwendungen entzieht.

Mit DOCA können Anwendungsentwickler und Nvidia-Technologiepartner Dienste bereitstellen, die sich auf DPUs ausführen lassen. Dadurch verwandelt sich die DPU in eine isolierte Dienstdomäne – eine Enklave – für Netzwerk-, Cybersicherheits-, Speicher- und Infrastrukturverwaltung.

Die DPU beschleunigt kritische Infrastrukturdienste in Rechenzentren auf Hardware-Ebene und kann gleichzeitig auf ihren programmierbaren ARM-Kernen fortgeschrittene und maßgeschneiderte Anwendungen der Steuerungsebene ausführen, zum Beispiel SDN-Controller in Software, verteilte Storage-Anwendungen oder Firewall-Agenten (siehe auch „Wird ARM ein Teil von Nvidia?“).

Zwei Visionäre, ein Ziel: Pat Gelsinger, CEO von VMware, und Jensen Huang, CEO von NVIDIA, eröffnen die VMworld 2020 am 29. September 2020 mit einer gemeinsamen Ankündigung einer strategischen Partnerschaft.
Zwei Visionäre, ein Ziel: Pat Gelsinger, CEO von VMware, und Jensen Huang, CEO von NVIDIA, eröffnen die VMworld 2020 am 29. September 2020 mit einer gemeinsamen Ankündigung einer strategischen Partnerschaft.
(Bild: NVIDIA)

Führende globale Server-Hersteller, von Asus über Atos, Dell Technologies, Fujitsu, Gigabyte, H3C, Inspur, Lenovo, Quanta/QCT bis hin Supermicro haben bereits Pläne angekündigt,die Nvidia-DPUs in ihre Systeme zu integrieren. Im Rahmen von Project Monterey hat VMware auch bereits schon die Absicht bekundet, BlueField-2-DPUs in VMware Cloud Foundation zu unterstützen.

Die IBM-Tochter Red Hat möchte Bluefield-2-DPUs in „Red Hat Enterprise Linux“ und „Openshift“ unterstützen. Das Red-Hat-Portfolio kommt in 95 Prozent aller Großkonzerne der globalen Fortune 500-Liste zum Einsatz.

Canonical hat den Support für Bluefield-2-DPUs und DOCA in seiner Linux-Plattform „Ubuntu“, dem in eigenen Worten des Anbieters „beliebtesten Betriebssystem unter den öffentlichen Clouds“, auch bereits angekündigt. Der israelische Cyber-Sicherheitsspezialist Check Point Software Technologies ist ebenfalls bereits dabei, Bluefield-2-DPUs in seine Technologien zu integrieren, auf die weltweit mehr als 100.000 Organisationen vertrauen.

Die „hardwarebeschleunigte“ Roadmap

Nvidia möchte die beiden Bluefield-2-DPUs an Endkunden im Laufe von 2021 ausliefern und bereits ein Jahr später mit der Nachfolgegeneration, Bluefield-3, nachkarten. Mit Bluefield-3 entsteht eine „aufgemotzte“ Version von Bluefield-2 mit separaten DPU- und DPU+GPU-Karten.

Die DPU-Roadmap von Nvidia; nach den heutigen Plänen verfügt „Bluefield-4“ über das 600fache an Performance einer „Bluefield-2“-DPU.
Die DPU-Roadmap von Nvidia; nach den heutigen Plänen verfügt „Bluefield-4“ über das 600fache an Performance einer „Bluefield-2“-DPU.
(Bild: Nvidia)

Doch erst in der darauffolgenden Generation der DPU, Codename Bluefield-4, kommt der Einfluss von Nvidia-Ingenieuren voll zur Geltung. Das Unternehmen avisiert hierbei eine einzige Hochleistungs-DPU, welche die Performance ihrer einfacheren Vorläufer deutlich übertreffen soll. Insgesamt sei von Bluefield-4 eine KI-Leistung von sagenhaften 400 „TOPS“ (kurz für: „Tensor Operations per Second“) zu erwarten.

Mit der kommerziellen Verfügbarkeit von Bluefield-4 rechnet das Unternehmen bereits im Jahre 2023.

Das Fazit der Autoren

Die DPU stellt den nächsten evolutionären Schritt auf dem Weg zu domänenspezifischen Beschleunigern für das softwaredefinierte Rechenzentrum dar.

* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).

(ID:46905180)