Suchen

Daten-Management von Netapp und GPU-Computer von Nvidia Neue KI-Architektur soll Deep Learning optimieren

| Redakteur: Reinhold Schäfer

Netapp, Spezialist für Daten-Management in der Hybrid Cloud, hat zusammen mit Nvidia die „Netapp Ontap AI Proven Architecture“ vorgestellt. Sie basiert auf „Nvidia-DGX“-Supercomputern und dem Cloud-integrierbaren Speicher All-Flash-Storage „Netapp AFF A800“.

Firmen zum Thema

Der Nvidia-DGX-1-Supercomputer stellt das Herz von Ontap AI dar.
Der Nvidia-DGX-1-Supercomputer stellt das Herz von Ontap AI dar.
(Bild: Nvidia )

Die Architektur vereinfache und beschleunige den Weg von Daten zwischen dem Entstehungsort, dem Rechenzentrum und der Cloud und mache diese Pipeline skalierbar. Die Anwender können durch den Einsatz der Lösung KI- oder Deep-Learning-Projekte optimieren. So könnten sie für ihr Unternehmen einen geschäftlichen Mehrwert schaffen. Dabei stellt der Nvidia-DGX-1-Supercomputer das Herz von Ontap AI dar.

Essenziell für erfolgreiche KI-Projekte sei ein umfassendes Daten-Management. Die erforderlichen Daten müssen vollständig, aktuell und zugänglich sein. Obwohl viele Unternehmen neue KI-Plattformen, -Tools und -Verfahren einführen, haben die meisten keine Kontrolle über ihre verteilte Speicherlandschaft. Darunter leidet die Verfügbarkeit der Daten und der Erfolg von KI-Projekten. Eine lückenlose Kontrolle und Sichtbarkeit der Daten zwischen ihrem Entstehungsort, dem Rechenzentrum und der Cloud seien dabei ein nicht zu unterschätzender Faktor bei der Umsetzung und dem langfristigen Erfolg von KI-Vorhaben.

Eine Datenpipeline zwischen RZ und Cloud

Vor allem Großunternehmen setzen, laut Netapp auf künstliche Intelligenz, um reale Probleme zu lösen. Jedoch seien KI-Modelle und -Workloads nicht einfach zu implementieren. Die Lösung Netapp Ontap AI Proven Architecture soll Anwendern helfen, Geschäftsergebnisse durch KI schneller zu erreichen und Hindernisse bei der Implementierung zu überwinden.

Die Integration der Data Fabric ermögliche es Anwendern von Ontap AI, eine nahtlose Datenpipeline zu erstellen. In dieser können Daten frei fließen – von ihrem Entstehungsort in das Rechenzentrum oder in die Cloud, heißt es. Integriert seien verschiedene, dynamische und verteilte Datenquellen.

Diese werden kontrolliert und geschützt, heißt es weiter. Die hohe Rechenleistung von Ontap AI dämme Leistungsengpässe ein. Anwender könnten so sicher und unterbrechungsfrei auf all ihre Daten zugreifen – egal aus welcher Quelle diese stammen und unabhängig vom Datenformat.

Hinweis:Der Artikel erschien im Original zunächst auf dem Partner-PortalMaschinen Markt

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 45450855)