Netzwerkbeschleuniger für das Rechenzentrum Nvidia stellt DPU Bluefield-2(X) vor

Von Anna Kobylinska und Filipe Martins* |

Anbieter zum Thema

Die neue Nvidia-Produktfamilie von „Bluefield“-DPUs soll „jedem Rechenzentrum“ eine „bahnbrechende Netzwerk-, Speicher- und Sicherheitsleistung“ zuteilwerden lassen. Passend dazu hat der Hersteller eine neue Software für Rechenzentrumsinfrastruktur-on-a-Chip veröffentlicht: „DOCA“. In Zusammenarbeit mit VMware will das Unternehmen die Architektur der hybriden Cloud von Grund auf neu erfunden haben.

NVIDIA BlueField-2X ist die erweiterte Edition der NVIDIA BlueField-2-DPU mit KI-Fähigkeiten einer GPU auf der Basis der Ampere-Architektur von NVIDIA.
NVIDIA BlueField-2X ist die erweiterte Edition der NVIDIA BlueField-2-DPU mit KI-Fähigkeiten einer GPU auf der Basis der Ampere-Architektur von NVIDIA.
(Bild: NVIDIA)

„Das Datencenter ist die neue Compute-Einheit“, sagt Jensen Huang, Gründer und CEO von Nvidia, in seiner Keynote auf der GPU Technology Conference zum Anlass der Vorstellung der dreijährigen Roadmap von Bluefield-DPUs (Data Processing Units). Die DPU ist die Recheneinheit im Herzen Software-programmierbarer SmartNICs aus dem Entwicklungslabor der Nvidia-Tochter Mellanox.

DPUs seien „ein wesentliches Element moderner und sicherer (Hardware-)beschleunigter Rechenzentren, in denen sich CPUs, GPUs und DPUs zu einer einzigen, vollständig programmierbaren und KI-fähigen Recheneinheit kombinieren“ ließen, so Huang. Sie sollen „ein bisher ungekanntes Maß an Sicherheit und Rechenleistung“ ermöglichen.

Datenzentrische Hardwarebeschleuniger für das softwaredefinierte Rechenzentrum

Das aktuelle DPU-Portfolio beinhaltet zwei PCIe-Lösungen: die „Bluefield-2“- und die „Bluefield-2X“-DPU.

Die 2er DPU vereint die Fähigkeiten von Nvidia SmartNICs aus der „Mellanox Connectx-6 Dx“-Reihe mit leistungsstarken „A72“-ARM-Kernen. Vollständig programmierbar, liefert das Technikwunder Datentransferraten in Höhe von 200 Gigabit pro Sekunde (2x 100 Gb/s Ethernet/Infiniband).

Es beschleunigt kritische Cyber-Sicherheits-, Netzwerk- und Storage-Aufgaben wie die Isolation, Root-Trust-Kryptografiefunktionen, Schlüsselverwaltung, RDMA/RoCE, „GPUDirect“, Speicherung elastischer Blöcke, De-Duplikation, Datenkomprimierung und viele andere. Eine einzelne Bluefield-2-DPU soll die CPU um Rechenaufgaben entlasten, welche die Rechenzeit von bis zu 125 CPU-Kernen verschlingen können.

Bluefield-2X-DPU bietet „alle wichtigen“ Funktionen einer Bluefield-2-DPU erweitert um die KI-Funktionen einer „Ampere“-GPU, die sich für Sicherheits-, Netzwerk- und Speicheraufgaben in Rechenzentren einspannen lassen. Dank der Tensor Cores in der dritten Generation kann die DPU mit Hilfe von Künstlicher Intelligenz Echtzeit-Sicherheitsanalysen durchführen, also etwa abnormalen Datenverkehr identifizieren, der auf den Diebstahl vertraulicher Daten hinweisen könnte, oder verschlüsselten Datenverkehr in Echtzeit durchforsten, böswilliger Aktivitäten in-Host erkennen und Cybermalware-Abwehr dynamisch orchestrieren und automatische Gegenmaßnahmen ergreifen.

Durch den Einsatz der DPUs sollen „wertvolle“ (sprich: teure Intel-)CPU-Kerne um Netzwerk-, Speicher- und Sicherheitszentrische Workloads entlastet und „für die Ausführung einer Vielzahl anderer Unternehmensanwendungen“ frei werden.

Das maßgeschneidert optimierte Bluefield-2-SoC nutzt acht „ARM Cortex-A72“-Kerne und zwei VLIW-Beschleuniger mit einem Connectx-6 DX-NIC für die eigentliche Konnektivität.

Die DOCA-Softwareebene bildet den Unterbau für Rechenzentrumsinfrastrukturanwendungen, die auf der DPU ausgeführt werden.
Die DOCA-Softwareebene bildet den Unterbau für Rechenzentrumsinfrastrukturanwendungen, die auf der DPU ausgeführt werden.
(Bild: NVIDIA)

DOCA, eine Anwendungsumgebung für DPUs

Mit DOCA hat Nvidia eine Laufzeitumgebung zur Ausführung von Software-Anwendungen auf DPUs geschaffen.Das DOCA SDK soll es Entwicklern erlauben, auf der Basis DPU-beschleunigter Infrastrukturdienste eigene Anwendungen zu bauen.

Denselben bewährten Ansatz befolgt Nvidia mit Architekturmodell von „CUDA“ für GPU-beschleunigte Anwendungen. DOCA soll Entwicklern eine „umfassende, offene Plattform“ zum Erstellen softwaredefinierter, hardwarebeschleunigter Netzwerk-, Speicher-, Sicherheits- und Verwaltungsanwendungen für die BlueField-DPU-Familie bieten.

DOCA integriert sich vollständig mit dem hauseigenem Softwarekatalog NGC. Der Katalog stellt Drittanbietern eine „komfortable containerisierte Softwareumgebung“ zur Verfügung, damit sie für ihre Anwendungen „fortschrittliche datenzentrumsbeschleunigte DPU-Dienste“ nutzen und für Nvidia-Technologien Anwendungen entwickeln, zertifizieren und vertreiben könnten. Interessierte Entwickler und Softwarehäuser können sich für eine frühe Vorabversion der Plattform anmelden.

RZ-Infrastruktur in Hard- und Software

Moderne Unternehmens-Rechenzentren, softwaredefiniert und vollständig programmierbar, werden für hoch verteilte Anwendungs-Workloads in Cloud-, Core- und Edge-Umgebungen konzipiert. Dieser Ansatz bietet den Datacenter-Betreibern die Flexibilität und Agilität einer Cloud, geht jedoch zu Lasten von Compute-Ressourcen, indem es eine Mindestmenge von CPU-Kernen kontinuierlich auslastet und sie so den Geschäftsanwendungen entzieht.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Mit DOCA können Anwendungsentwickler und Nvidia-Technologiepartner Dienste bereitstellen, die sich auf DPUs ausführen lassen. Dadurch verwandelt sich die DPU in eine isolierte Dienstdomäne – eine Enklave – für Netzwerk-, Cybersicherheits-, Speicher- und Infrastrukturverwaltung.

Die DPU beschleunigt kritische Infrastrukturdienste in Rechenzentren auf Hardware-Ebene und kann gleichzeitig auf ihren programmierbaren ARM-Kernen fortgeschrittene und maßgeschneiderte Anwendungen der Steuerungsebene ausführen, zum Beispiel SDN-Controller in Software, verteilte Storage-Anwendungen oder Firewall-Agenten (siehe auch „Wird ARM ein Teil von Nvidia?“).

Zwei Visionäre, ein Ziel: Pat Gelsinger, CEO von VMware, und Jensen Huang, CEO von NVIDIA, eröffnen die VMworld 2020 am 29. September 2020 mit einer gemeinsamen Ankündigung einer strategischen Partnerschaft.
Zwei Visionäre, ein Ziel: Pat Gelsinger, CEO von VMware, und Jensen Huang, CEO von NVIDIA, eröffnen die VMworld 2020 am 29. September 2020 mit einer gemeinsamen Ankündigung einer strategischen Partnerschaft.
(Bild: NVIDIA)

Führende globale Server-Hersteller, von Asus über Atos, Dell Technologies, Fujitsu, Gigabyte, H3C, Inspur, Lenovo, Quanta/QCT bis hin Supermicro haben bereits Pläne angekündigt,die Nvidia-DPUs in ihre Systeme zu integrieren. Im Rahmen von Project Monterey hat VMware auch bereits schon die Absicht bekundet, BlueField-2-DPUs in VMware Cloud Foundation zu unterstützen.

Die IBM-Tochter Red Hat möchte Bluefield-2-DPUs in „Red Hat Enterprise Linux“ und „Openshift“ unterstützen. Das Red-Hat-Portfolio kommt in 95 Prozent aller Großkonzerne der globalen Fortune 500-Liste zum Einsatz.

Canonical hat den Support für Bluefield-2-DPUs und DOCA in seiner Linux-Plattform „Ubuntu“, dem in eigenen Worten des Anbieters „beliebtesten Betriebssystem unter den öffentlichen Clouds“, auch bereits angekündigt. Der israelische Cyber-Sicherheitsspezialist Check Point Software Technologies ist ebenfalls bereits dabei, Bluefield-2-DPUs in seine Technologien zu integrieren, auf die weltweit mehr als 100.000 Organisationen vertrauen.

Die „hardwarebeschleunigte“ Roadmap

Nvidia möchte die beiden Bluefield-2-DPUs an Endkunden im Laufe von 2021 ausliefern und bereits ein Jahr später mit der Nachfolgegeneration, Bluefield-3, nachkarten. Mit Bluefield-3 entsteht eine „aufgemotzte“ Version von Bluefield-2 mit separaten DPU- und DPU+GPU-Karten.

Die DPU-Roadmap von Nvidia; nach den heutigen Plänen verfügt „Bluefield-4“ über das 600fache an Performance einer „Bluefield-2“-DPU.
Die DPU-Roadmap von Nvidia; nach den heutigen Plänen verfügt „Bluefield-4“ über das 600fache an Performance einer „Bluefield-2“-DPU.
(Bild: Nvidia)

Doch erst in der darauffolgenden Generation der DPU, Codename Bluefield-4, kommt der Einfluss von Nvidia-Ingenieuren voll zur Geltung. Das Unternehmen avisiert hierbei eine einzige Hochleistungs-DPU, welche die Performance ihrer einfacheren Vorläufer deutlich übertreffen soll. Insgesamt sei von Bluefield-4 eine KI-Leistung von sagenhaften 400 „TOPS“ (kurz für: „Tensor Operations per Second“) zu erwarten.

Mit der kommerziellen Verfügbarkeit von Bluefield-4 rechnet das Unternehmen bereits im Jahre 2023.

Das Fazit der Autoren

Die DPU stellt den nächsten evolutionären Schritt auf dem Weg zu domänenspezifischen Beschleunigern für das softwaredefinierte Rechenzentrum dar.

* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).

(ID:46905180)