Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Daten schneller analysieren Was ist eine DPU?

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler |

Lange waren Intel- oder AMD-Prozessoren das Maß der Dinge in Rechnern. Doch mit neuen Aufgaben kommen auch neue, aufgabenangepasste Prozessoren, zum Beispiel für die Datenanalyse oder, wie DPUs, DPU steht für Datenverarbeitungseinheit; englisch: Data Processing Unit, um ein ganzes Rechenzentrum abzubilden.

Anbieter zum Thema

Nvidias DPU versteht sich als Rechenzentrum auf dem Chip.
Nvidias DPU versteht sich als Rechenzentrum auf dem Chip.
(Bild: gemeinfre:i Gerd Altmann auf Pixabay / Pixabay )

Die bisherigen Prozessorarchitekturen sind für Aufgaben der Datenanalyse nur begrenzt geeignet. Oft sind ihre Zugriffswege nicht dafür dimensioniert, Daten in den heute üblichen und immer weiter wachsenden Mengen aus einem Speicher zu holen, mit Algorithmen der Künstlichen Intelligenz (KI) zu analysieren oder zu korrelieren und sie wieder zurückzuschieben.

Dafür verwendete man zunächst gern Nvidia-Grafikchips. Doch diese sind zwar deutlich stärker im Umgang mit großen Datenmengen, aber dennoch nicht optimal für die neue Aufgabe.

Außerdem wollte Nvidia mehr. Am besten gleich das ganze Rechenzentrum als Chip. Folgerichtig entwickelte Nvidia einen neuen Prozessortyp: die DPU (Digital Processing Unit).

Das Rechenzentrum auf dem Chip

DPUs sind laut Nvidia komplette Rechenzentren auf einem Chip (SoC, System on Chip). Ihr Kern ist eine programmierbare Multicore-CPU, meist auf ARM-Basis, die mit den übrigen Komponenten eng gekoppelt ist. Dazu kommen Hochleistungs-Kommunikationsschnittstellen, die Daten mit Leitungsgeschwindigkeit in für GPU oder CPU verständliche Formate übersetzen, sie verarbeiten und an GPUs oder CPUs übertragen.

Dritte Komponente sind programmierbare Beschleuniger, die die Leistung von Applikationen wie AI/ML, Sicherheit, TK und Storage verbessern. Das Ganze soll nach Vorstellung von Nvidia die Basis einer Cloud-Native Bare-Metal-Plattform werden, auf der die großen Cloud-Rechenzentren der Zukunft aufbauen. DPUs werden oft in intelligente Netzwerkcontroller (SmartNICs) eingebaut.

Die Nividia-DPU Bluefield-3

Die 2021 angekündigte DPU heißt „Bluefield-3“. Nvidia bewirbt sie als „programmierbare Rechenzentrumsinfrastruktur auf einem Chip“. Man kann damit softwaredefinierte und hardwarebeschleunigte IT-Infrastrukturen vom Cloud bis zur Edge aufbauen.

Nvidias aktuelle DPU-Generation „Bluefield-3“ erschließt neue Leistungshorizonte.
Nvidias aktuelle DPU-Generation „Bluefield-3“ erschließt neue Leistungshorizonte.
(Bild: Nvidia)

Die DPUs verlagern, beschleunigen und isolieren Funktionen wie Software Defined Networking (SDN), Storage, Sicherheit und Management. Eine Reihe spezialisierter und programmierbarer Beschleuniger sitzen im Ein- und Ausgabepfad. Konnektivitätsoptionen sind 400 Gigabit pro Sekunde (Gbit/s) Ethernet oder Infiniband.

Chiparchitekturen für superschnelle Datenanalyse

Wenig verwunderlich, beansprucht Nvidia, die einzig wahre DPU auf dem Markt zu haben. Tatsächlich bislang einmalig ist der Ansatz, gleich das gesamte Rechenzentrum auf einem Chip abzubilden und zu beschleunigen.

Doch es gibt sehr wohl andere Versuche, Daten mit Hilfe von Spezialprozessoren schneller zu verarbeiten, auch wenn es hier nicht um ein ganzes Rechenzentrum geht. Ein Beispiel ist Graphcore mit seiner IPU (Intelligent Processing Unit). Weitere Beispiele sind Googles TPUs, der „Huawei Ascend 910“ und viele mehr.

Besonders gespannt sein darf man auf diesbezügliche Neuigkeiten von Intel. Der Hersteller hat angekündigt, im Jahr 2022 eigene Beschleuniger auf den Markt zu bringen. Das wird auch höchste Zeit, will er nicht endgültig gegenüber Nvidia und anderen Mitspielern ins Hintertreffen bei Beschleunigern geraten.

(ID:47766003)