Co-Locator kündigt vollständig gemanagten Service an Supercomputing per Nvidia DGX AI macht bei Equinix Karriere

Quelle: Pressemitteilung Equinix/ Nvidia 2 min Lesedauer

Anbieter zum Thema

Supercomputer sind teuer und hochkomplex. Das verhindert eine breite Anwendung. Co-Location-Anbieter Equinix will seinen Kunden nun eine schlüsselfertige Private Cloud für Supercomputing auf der Basis von „Nvidia DGX Superpods“ anbieten.

Ein Gang im Serverraum, an den Seiten ausschließlich „DGX“-Systeme von Nividia (Bild:  Nvidia)
Ein Gang im Serverraum, an den Seiten ausschließlich „DGX“-Systeme von Nividia
(Bild: Nvidia)

Jetzt also nicht nur als Service aus den Public Clouds der Hyperscaler, sondern auch als Privatvariante von Equinix: Supercomputer als Service - denn es handelt sich bei dem Equinix-Einstieg in das Business um einen vollständig verwalteten privaten Cloud-Service, der es Unternehmen ermöglicht, ihre eigene Infrastruktur (auf Nvidia basierend) für den Aufbau und Betrieb eigener generativer KI-Modelle zu erwerben und zu verwalten.

Es gibt drei hevorstechende Vorteile bei dem Supercomputing-Angebot von Equinix und Nvidia, so die Partner. (Bild:  Equinix)
Es gibt drei hevorstechende Vorteile bei dem Supercomputing-Angebot von Equinix und Nvidia, so die Partner.
(Bild: Equinix)

Nach Unternehmensangaben ist der Dienst ist ab sofort verfügbar und umfasst DGX Systeme, Netzwerke sowie die AI Enterprise Software-Plattform von Nvidia. Equinix vermarktet die Infrastruktur in wichtigen Rechenzentren, die für „International Business Exchange“ (IBX) ausgestattet sind. Außerdem Das schließt das Equinix-Angebot Support-und Sicherheitsoptionen ein, Zugriff auf die IBX Rechenzentrumsexperten von Equinix und Zugang zu den Nvidia- AI-Experten.

Charles Meyers, Präsident und CEO von Equinix, sagt: „Um das unglaubliche Potenzial der generativen KI nutzen zu können, benötigen Unternehmen eine anpassungsfähige, skalierbare hybride Infrastruktur in ihren lokalen Märkten, etwa um ihre eigenen Daten nutzbar zu machen. Unser neuer Service bietet Kunden eine schnelle und kostengünstige Möglichkeit […]."

Skalierbarer Service

Jensen Huang, Gründer und CEO von Nvidia, bekräftigt: „Generative KI transformiert jede Branche. Jetzt können Unternehmen KI-Supercomputing und -Software von uns nutzen, gepaart mit der operativen Effizienz des Equinix-Managements in Hunderten von Rechenzentren weltweit."

Das „DGX“-Angebot von Equinix soll über nahezu 250 Rechenzentren in Nordamerika, Südamerika, Europa, Asien und Afrika anegboten werden. (Bild:  Equinix)
Das „DGX“-Angebot von Equinix soll über nahezu 250 Rechenzentren in Nordamerika, Südamerika, Europa, Asien und Afrika anegboten werden.
(Bild: Equinix)

In dieser Zugriffsmöglichkeit auch das Potenzial die Infrastruktur zu skalieren, um die KI-Leistung zu erreichen, die für die Entwicklung und Ausführung umfangreicher Modelle erforderlich ist. Die ersten Unternehmen, die den Service nutzen, kommen aus den Bereichen Biopharma, Finanzdienstleistungen, Software, Automotive und Einzelhandel. Allen ist gemeinsam, dass sie KI-Kompetenzzentren aufbauen, um eine strategische eine Grundlage für eine breite Palette von sich schnell entwickelnden LLM-Anwendungsfällen zu schaffen.

Dazu gehört insbesondere die Beschleunigung der Markteinführung neuer Medikamente, die Entwicklung von ‚KI-Copiloten‘ für Kundendienstmitarbeiter und die Entwicklung virtueller Produktivitätsassistenten.

Der Zugang

Der nun anlaufende AI-Supercomputing-Service von Equinix und Nvidia ermöglicht es Kunden, ihre KI-Infrastruktur in unmittelbarer Nähe zu ihren Daten zu betreiben. Der Service bietet einen privaten Hochgeschwindigkeitsnetzwerkzugang zu globalen Netzwerkdienstleistern und ermöglicht schnellen generativen KI-Informationsabruf über Unternehmens-Weitverkehrsnetze. Darüber hinaus bietet er private Verbindungen mit hoher Bandbreite zu Cloud-Diensten und Unternehmensdienstleistern um KI-Workloads zu erleichtern und gleichzeitig die Anforderungen an Datensicherheit und Compliance zu erfüllen.

Mit dem Service können Kunden auch auf die AI Enterprise Software von Nvidia zugreifen. Dazu gehören auch die vortrainierten Modelle, optimierte Frameworks und Software-Bibliotheken - wie „Nemo“ Framework zur Erstellung von LLMs, „Rapids“für die Data Scientists, „Clara“ für das Gesundheitswesen und „TensorRT“-LLM für die Leistungsoptimierung von großen Sprachmodellen.

(ID:49884870)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung