Innovation im offenen Rechenzentrum Nvidia öffnet die Data Processing Unit Software Doca in einem Open-Source-Projekt

Von Ulrike Ostler |

Anbieter zum Thema

Nvidia ist seit gestern Gründungsmitglied des „Open Programmable Infrastructure“ (OPI)-Projekts der Linux Foundation. Unter anderem stellt der Spezialist in Sachen ‚accelerated computing‘seine „Doca“-Networking Software APIs zur Verfügung. Das soll die Innovationen im Rechenzentrum voranbringen.

Nach Nvidia-Maßstäben wurde “Doca“ schon immer auf einem offenen Fundament aufgebaut. Jetzt öffnet der Herstller die APIs für die Doca-Bibliotheken und plant, Unterstützung aus dem „OPI“-Projekt der Linux Foundation hinzuzufügen.
Nach Nvidia-Maßstäben wurde “Doca“ schon immer auf einem offenen Fundament aufgebaut. Jetzt öffnet der Herstller die APIs für die Doca-Bibliotheken und plant, Unterstützung aus dem „OPI“-Projekt der Linux Foundation hinzuzufügen.
(Bild: Nvidia)

In anderen Bereichen ist Open Source im Rechenzentrum längst Realität. Die Unternehmen setzen auf offene Rechenzentrumsstandards wie die von OCP oder der CNCF. Sie wollen Anwendungen, Dienste und Technik, die sich leicht in anderen Lösungen integrieren lassen, um ein vereinfachtes, kostengünstiges und nachhaltiges Management zu ermöglichen.

Nach Überzeugung von Nvidia und der Linux Foundation wird der Übergang zu einem offenem Doca dazu beitragen, ein breites und lebendiges DPU-Ökosystem zu entwickeln und eine beispiellose Transformation des Rechenzentrums vorantreiben. Das OPI-Projekt zielt darauf ab, ein Community-getriebenes, standardbasiertes, offenes Ökosystem für die Beschleunigung von Netzwerken und anderen Infrastrukturaufgaben im Rechenzentrum mithilfe von DPUs zu schaffen.

Die Vorarbeit für das „OPI“-Projekt der Linux Foundatiion kann sich sehen lassen.
Die Vorarbeit für das „OPI“-Projekt der Linux Foundatiion kann sich sehen lassen.
(Bild: Nvidia)

Doca umfasst Treiber, Bibliotheken, Dienste, Dokumentation, Beispielanwendungen und Verwaltungswerkzeuge, die der Entwicklung und Performance von Anwendungen dienen. Die Technik ermöglicht Flexibilität und Portabilität für „Bluefield“-Anwendungen. Bluefield bezeichnet die Nvidia-DPU. Die Anwendungen sind mit Treibern oder Low-Level-Bibliotheken wie DPDK, SPDK, Open vSwitch oder Open SSL geschrieben.

In ihrem Blog schreibt Ami Badani, Vice President of Marketing bei Nvidia: „Wir planen, unsere Unterstützung fortzusetzen“, und weiter: „Als Teil von OPI werden Entwickler in der Lage sein, eine gemeinsame Programmierschicht zu erstellen, um viele dieser offenen Treiber und Bibliotheken mit DPU-Beschleunigung zu unterstützen.“

Die APIs der Doca-Bibliotheken sind bereits öffentlich verfügbar und für Entwickler dokumentiert. Die offene Lizenzierung dieser APIs soll aber sicherstellen, dass Anwendungen, die mit Doca entwickelt werden, Bluefield-DPUs ebenso unterstützen wie die anderer Anbieter.

Die Verbreitung von DPUs steigt

KI, Container und 'composable‘ Infrastrukturen werden für Unternehmens- und Cloud-Rechenzentren immer wichtiger. Dies fördert den Einsatz von DPUs in Servern, um softwaredefinierte, hardwarebeschleunigte Netzwerke, Ost-West-Verkehr und Zero-Trust-Sicherheit zu unterstützen. Denn nur durch den Einsatz von Akzeleratoren wie DPUs, etwa Bluefield könnten Rechenzentrums-Workloads, einschließlich Netzwerk-, Speicher-, Sicherheits- und DevOps-Management, entlastet, beschleunigt und isoliert werden, so Badani.

Sie betont, dass Open Source kein fremdes Terrain ist, auf das sich Nvidia begibt: „Wir leisten häufig Beiträge zu Open-Source- und Open-Lizenz-Projekten und -Software“ und zählt auf: „wie dem Linux-Kernel, DPDK, SPDK, NVMe over Fabrics, FreeBSD, Apache Spark, Free Range Routing, SONiC, Open Compute Project“ sowie weiteren Bereichen „Netzwerk, Virtualisierung, Container, KI, Data Science und Datenverschlüsselung“.

Nvidia gehöre häufig zu den drei wichtigsten Code-Beiträgern bei vielen Linux- und DPDK-Versionen. „Und wir haben schon immer eine Open-Source-Version unserer Netzwerktreiber in den Linux-Kernel integriert.“

eBook: Wie viel Open Source darf es denn sein?

Wie viel Open Source darf es denn sein?
eBook: Wie viel Open Source darf es denn sein?

Open Source ist nahezu allgegenwärtig. So laufen 98 Prozent aller Cloud-nativen Anwendungen unter der Haube bereits mithilfe von Open Source. Auch hardwareseitig tut sich 'was. Dennoch tun sich Unternehmen schwer im Umgang mit quelloffener Software. Tatsächlich geht der Einsatz auch mit gewissen Risiken einher. So bringt der Einsatz von quelloffenem Code in Komponenten des Software-Stacks der Anwendungs-, Betriebssystem- und Infrastrukturebene erhebliche Supply-Chain-Verwundbarkeiten und Compliance-Fallstricke des Lizenz-Managements mit sich.

In folgenden Kapiteln setzen sich die Autoren Anna Kobylinska und Filipe Martins mit dem Für und Wider auseinander:

  • Storage-Metamorphose mit Open Source und das Vertrauen in Daten
  • Quelloffen von Edge bis Core
  • Standardisierungen bei Open Source


    Artikelfiles und Artikellinks

    (ID:48422977)

  • Jetzt Newsletter abonnieren

    Täglich die wichtigsten Infos zu RZ- und Server-Technik

    Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

    Aufklappen für Details zu Ihrer Einwilligung