Beschleuniger als Bremser Drückt die Energiekosten im Datacenter: der Bluefield-2-Prozessor von Nvidia

Von M.A. Jürgen Höfling

Anbieter zum Thema

Dass Beschleuniger mittlerweile auch als (Energieverbrauchs-)Bremser wichtige Dienste leisten, macht Nvidia deutlich. Die neuen „Data Processing Units“ (DPU) „Bluefield-2“ machen viele Netzwerk-orientierten Operationen deutlich effizienter und tragen auf diese Weise zur Energie-Effizienz in den Rechenzentren bei.

Spart Energiekosten im Rechenzentrum: der Domänen-spezifiche Bluefield-2-Prozessor von Nvidia
Spart Energiekosten im Rechenzentrum: der Domänen-spezifiche Bluefield-2-Prozessor von Nvidia
(Bild: Nvidia)

In dem Whitepaper „DPU Power Efficiency, White Paper 2022“stellt Nvidia detailliert die Energie-Effizienz-Meriten seiner Bluefield-2-DPU anhand von Praxistests dar. Diese sind in Zusammenarbeit mit VMware, Ericsson und Red Hat entstanden.

Bei den Tests im Bereich von Virtualisierungs- sowie Netzwerk- und Sicherheitsoperationen konnte nach Angaben von Nvidia der Stromverbrauch von Servern mit den domänenspezifischen Spezialprozessoren BlueField-2 um bis zu 24 Prozent gesenkt werden. In einem Fall erbrachten die DPUs die 54-fache Leistung von CPUs.

„Die Beschleunigung der Datenverarbeitung mit DPUs für Netzwerk-, Sicherheits- und Speicheraufgaben ist einer der nächsten großen Schritte, um Rechenzentren energieeffizienter zu machen“, so der Originalton von Nvidia.

Beispiel VMware: Weniger Server für die gleiche Arbeitslast

Seit Freigabe der Software „vSphere 8“ im Herbst dieses Jahres hat Nvidia nach eigener Aussage zusammen mit VMware mehrere Testläufe durchgeführt, bei denen speziell die Energie-Effizienzeffekte der Bluefield-2-DPUs in verschiedenen Umgebungs-Konstellationen untersucht wurden.

Dabei lieferte Bluefield-2 beispielsweise beim Einsatz der „VMware vSphere Distributed Services Engine“ - einer Software, die Netzwerk- und Sicherheitsfunktionen mit Hilfe von DPUs auslagert und beschleunigt – auch dann eine höhere Leistung, wenn gleichzeitig 20 Prozent der CPU-Ressourcen für andere Zwecke freigegeben wurden.

Konkret bedeutet ein solches Ergebnis, dass die Benutzer weniger Server einsetzen können, um die gleiche Arbeitslast auszuführen, oder mehr Anwendungen auf den gleichen Servern ausführen können. Eine derartige Optimierung basiert technisch darauf, dass DPUs über spezielle Hardware-Engines mit direktem Zugriff auf die Netzwerk-Pipeline verfügen und daher in der Regel Energie-effizienter eingesetzt werden können als Standard-Server-CPUs.

Mehr noch: Selbst wenn eine Netzwerkaufgabe nicht durch domänenspezifisches Silizium beschleunigt werden kann, sind die DPU-Cores generell so auslegt, dass sie softwaredefinierte Netzwerke (SDN), Telemetrie, Deep Packet Inspection und andere ähnlich strukturierte Netzwerkaufgaben effizienter als die Server-CPU durchführen.

Beispiel Ericsson: Energiekosten um fast 2 Millionen Dollar gesenkt

Enormes Sparpotenzial in Sachen Energieverbrauch hat auch der Telekommunikationsanbieter Ericsson in mehreren Szenarien offengelegt, in denen die verbrauchsdämpfende Wirkung der DPUs im Rahmen der so genannten User-Plane-Funktion (UPF) für 5-G-Netzwerke untersucht wurde. Diese Funktion ist für das schnelle Routing und die Weiterleitung sowie die gleichzeitige Prüfung und die QoS-Behandlung der Datenpakete zuständig, alles sehr rechenintensive und sicherheitskritische Aufgaben.

Die Spezialisten von Ericsson testeten UPF auf Servern, bei denen einmal die damit einhergehenden Netzwerkaufgaben auf der Server-CPU belassen wurden und einmal auf eine „ConnectX-6 Dx SmartNIC.4“ von Nvidia ausgelagert wurden. Zusätzlich wurde auch noch getestet, wie sich „Teil-Stilllegungen“ der CPU beziehungsweise Frequenzskalierungen der CPU – das heißt Frequenzanpassungen je nach Arbeitslast – auf den Stromverbrauch auswirken.

Es zeigte sich, dass CPU-Teil-Stilllegungen („Mikroschlafphasen“) und Frequenzskalierung bei geringerer Arbeitslast zu erheblichen Energie-Einsparungen führten, wohingegen bei hoher Arbeitslast eindeutig der Einsatz der DPU das Einsparpotenzial am besten ausschöpfte.

Bei einem voll ausgelasteten Netzwerk sank der Energieverbrauch um 24 Prozent, von 190 auf 145 Watt. Allein durch diese DPU-Anwendung könnten die Stromkosten eines großen Rechenzentrums über drei Jahre um fast 2 Millionen Dollar reduziert werden.

Beispiel Red Hat: 70 Prozent weniger Overhead, 54-mal mehr Leistung

Noch deutlicher zugunsten der DPUs fielen die Ergebnisse bei Tests mit der Container-Verwaltungsplattform „Openshift“ von Red Hat aus. In diesen Tests übernahmen die Bluefield-2 DPUs die Virtualisierungs-, Verschlüsselungs- und Netzwerkaufgaben, die für die Verwaltung dieser portablen Anwendungs- und Codepakete erforderlich sind.

Dabei reduzierten die domänenspezifischen Spezialprozessoren die Netzwerkanforderungen an die CPUs um 70 Prozent, so dass diese für die Ausführung anderer Anwendungen zur Verfügung standen. Darüber hinaus beschleunigten sie die Netzwerkaufgaben um das 54-fache.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Der Test zeigte, dass Rechenzentren in Netzwerken, in denen beispielsweise der Security-Algorithmus IPsec auf DPUs läuft, die Leistung verbessern und gleichzeitig den Stromverbrauch um 21 Prozent für Server und 34 Prozent für Clients senken können. Für große Rechenzentren könnte dies über einen Zeitraum von drei Jahren zu Einsparungen von fast 9 Millionen Dollar bei den Stromrechnungen führen.

Einsparungen bei Investitions- und Betriebskosten

Als Fazit der Tests macht Nvidia die folgende Rechnung auf: Durch Beschleunigung einerseits und die Entlastung der Standard-Server-CPUs andererseits ergeben sich weniger Investitionskosten durch den geringeren Bedarf an Servern und durch die geringere Zahl der Server sinken gleichzeitig der Stromverbrauch und damit die Betriebskosten.

Durch diese beiden Effekte ergeben sich laut Nvidia Einsparungen von 26 Millionen Dollar über drei Jahre in einem großen Rechenzentrum mit 10.000 Servern. Sicher wird jeder Anwender seine eigene Rechnung im Rahmen seiner spezifischen Server-Konfigurationen und Arbeitslasten erstellen müssen. Vergessen werden darf dabei nicht, dass die Kosten der DPUs selbst einfließen müssen.

(ID:48733162)