Ratzfaz KI - von Server bis Cloud-Feeling Time to Value mit AI - schnell zu schneller Infrastruktur mit Nvidia AI Computing by HPE

Von Ulrike Ostler 6 min Lesedauer

Anbieter zum Thema

„Wir haben kein Referenz-Modell gebaut“, wehrt Manuvier Das, Vice President Enterprise Computing, schon vorsorglich ab, vor der eigentlichen HPE-Konferenz „Discover“, die seit gestern läuft, bei einem Briefing für Journalisten. gemeint ist: „Wir haben echte Produkte und Services“ und bezieht sich auf die wohl bedeutendste Ankündigung auf der Konferenz, nämlich die Zusammenarbeit mit Nvidia.

Auf der Veranstaltung „HPE Discover“, die derzeit in Las Vegas stattfindet, haben Hewlett-Packard Enterprise und Nvidia zahlreiche Früchte ihrer Zusammenarbeit bekannt gegeben. (Bild:  HPE)
Auf der Veranstaltung „HPE Discover“, die derzeit in Las Vegas stattfindet, haben Hewlett-Packard Enterprise und Nvidia zahlreiche Früchte ihrer Zusammenarbeit bekannt gegeben.
(Bild: HPE)

Der Kundschaft soll zwecks generativer Künstlicher Intelligenz (KI), kurz: GenAI, auf die Sprünge geholfen werden. Hewlett Packard Enterprise (HPE) und Nvidia haben gestern „Nvidia AI Computing by HPE" angekündigt, ein Portfolio gemeinsam entwickelter KI-Angebote und gemeinsamer Go-to-Market-Integrationen. Diese sollen es den Kunden ermöglichen, die Einführung generativer KI zu beschleunigen.

Die Zusammenarbeit von Nvidia und HPE umfasst diverse Schichten und Angebote. (Bild:  HPE)
Die Zusammenarbeit von Nvidia und HPE umfasst diverse Schichten und Angebote.
(Bild: HPE)

Um das immense Potenzial der generativen KI im Unternehmen freizusetzen, hätten HPE und Nvidia gemeinsam eine schlüsselfertige Private Cloud für KI entwickelt, die es Unternehmen ermögliche, ihre Ressourcen auf die Entwicklung neuer KI-Anwendungsfälle zu konzentrieren, die die Produktivität steigern und neue Umsatzströme erschließen können, so HPE-Chef Antonio Neri in seiner gestrigen Eröffnungs-Keynote.

Als Grund nennt er: „Generative KI birgt ein immenses Potenzial für die Transformation von Unternehmen, aber die Komplexität fragmentierter KI-Technologien birgt zu viele Risiken und Barrieren, die eine groß angelegte Einführung in Unternehmen behindern und das wertvollste Gut eines Unternehmens - seine geschützten Daten - gefährden können.“

Die wichtigsten Ankündigungen von Hewlett-Pakard Enterprise auf der Konferenz „HPE Discover 2024“ in der Übersicht. (Bild:  HPE)
Die wichtigsten Ankündigungen von Hewlett-Pakard Enterprise auf der Konferenz „HPE Discover 2024“ in der Übersicht.
(Bild: HPE)

Un Nvidia-Boss Jensen Huang fügt an: „Noch nie zuvor haben Nvidia und HPE ihre Techniken so tief integriert und den gesamten Nvidia KI-Computing-Stack mit der Private-Cloud-Technologie von HPE kombiniert, um Unternehmenskunden und KI-Experten mit der fortschrittlichsten Computing-Infrastruktur und den modernsten Services auszustatten und die Grenzen der KI zu erweitern.“

Die Produkte und Services

Zu den wichtigsten Angeboten des Portfolios zählt HPE „Private Cloud AI“. Hier verspricht der Anbieter die bisher tiefste Integration von „Nvidia AI Computing“, Networking und Software mit HPE AI Storage, Compute und der „HPE Greenlake Cloud“.

Das Private-Cloud-Portfolio auf der Basis von Nvidia- und HPE-Technik. (Bild:  HPE)
Das Private-Cloud-Portfolio auf der Basis von Nvidia- und HPE-Technik.
(Bild: HPE)

Das Angebot ermögliche es Unternehmen jeder Größe, einen Energie-effizienten und doch schnellen sowie flexiblen Weg für die nachhaltige Entwicklung und Bereitstellung generativer KI-Anwendungen zu finden, so die Partnerunternehmen. Es enthält:

  • Unterstützung für Inferenz-, Feinabstimmungs- und RAG-KI-Workloads, die unternehmenseigene Daten nutzen.
  • Unternehmenskontrolle für Datenschutz, Sicherheit, Transparenz und Governance-Anforderungen.
  • Cloud-Erfahrung mit ITOps- und AIOps-Funktionen zur Steigerung der Produktivität.
  • Einen schneller Weg zur flexiblen Nutzung, um zukünftige KI-Möglichkeiten und Wachstum zu erfüllen.
  • einen kuratierter KI- und Daten-Software-Stack in der HPE Private Cloud AI

Die Grundlage des KI- und Daten-Software-Stacks beginnt mit der „Nvidia AI Enterprise“ Software-Plattform, die „Nvidia NIM“ Inferenz-Microservices enthält. NIM, auf der diesjährigen „GTC“-Konferenz von Nvidia angekündigt, ist quasi eine Runtime, die ein Modell hostet.

„Opsramp AI Copilot“ bietet Assistenz im IT-Betrieb; das Tool soll helfen, die Arbeitslast zu bewältigen, zu verteilen und insgesamt so die Effienz der IT zu erhöhen. (Bild:  HPE)
„Opsramp AI Copilot“ bietet Assistenz im IT-Betrieb; das Tool soll helfen, die Arbeitslast zu bewältigen, zu verteilen und insgesamt so die Effienz der IT zu erhöhen.
(Bild: HPE)

Die Software ist Bestandteil von Nvidia AI Enterprise und bietet benutzerfreundliche Microservices für die optimierte Inferenzierung von KI-Modellen, was einen reibungslosen Übergang vom Prototyp zum sicheren Einsatz von KI-Modellen in einer Vielzahl von Anwendungsfällen ermöglichen soll. Als „NIM-Factory“ übernimmt die Software konstant das Tuning und die Optimierung der KI-Konfigurationen. Anwender bekommen also Stat-of-the Art-Services ohne sich um Updates kümmern zu müssen.

Die Steuerebene

Ergänzend zu Nvidia AI Enterprise und Nvidia NIM bietet die „HPE AI Essentials“ Software einen einsatzbereiten Satz kuratierter KI- und Datenfundament-Tools mit einer einheitlichen Steuerebene, die anpassungsfähige Implementierungen, fortlaufenden Unternehmens-Support und vertrauenswürdige KI-Services wie Daten- und Modellkonformität sowie erweiterbare Funktionen bieten sollen. Denn die KI-Pipelines können damit, laut Anbieter, während des gesamten KI-Lebenszyklus konform, erklärbar und reproduzierbar sein.

Der integrierte KI-Infrastruktur-Stack aus HPE- und Nvidia-Technik-Mix(Bild:  HPE)
Der integrierte KI-Infrastruktur-Stack aus HPE- und Nvidia-Technik-Mix
(Bild: HPE)

Der zugehörige integrierten KI-Infrastruktur-Stack besteht aus „Nvidia Spectrum-X“ Ethernet, „HPE Greenlake für File Storage“ und „HPE Proliant“-Server mit Unterstützung für „Nvidia L40S“, „Nvidia H100 NVL“, „Tensor Core“ GPUs und die „Nvidia GH200 NVL2“-Plattform.

Cloud-Erfahrung durch HPE Greenlake Cloud

HPE Private Cloud AI bietet ein Self-Service-Cloud-Erlebnis, das durch HPE Greenlake Cloud ermöglicht wird. Das erlaubt eine einzige, plattformbasierte Steuerungsebene bieten die Services Verwaltbarkeit und Beobachtbarkeit, um Endpunkte, Arbeitslasten und Daten in hybriden Umgebungen zu automatisieren, zu orchestrieren und zu verwalten. Dazu gehören auch Nachhaltigkeitsmetriken für Workloads und Endpunkte.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Dahinter steckt „Opsramp AI Copilot“, eine Software, die den IT-Betrieb bei der Verbesserung der Arbeitslast und der IT-Effizienz unterstützen soll. Sie ist in HPE Greenlake Cloud integriert, um Beobachtbarkeit und AIOps für alle HPE-Produkte und -Services zu bieten.

Opsramp bietet jetzt Observability für den gesamten „Nvidia Accelerated Computing Stack“, einschließlich NIM und AI Software, Nvidia Tensor Core GPUs und AI Clusters sowie „Nvidia Quantum Infiniband“ und „Nvidia Spectrum“ Ethernet Switches. IT-Administratoren erhalten Einblicke, um Anomalien zu erkennen und ihre KI-Infrastruktur und Workloads in hybriden Multi-Cloud-Umgebungen zu überwachen.

„Opsramp“ ist nun in „HPE Greenlake“ enthalten.(Bild:  HPE)
„Opsramp“ ist nun in „HPE Greenlake“ enthalten.
(Bild: HPE)

Der „Opsramp Operations Copilot“ wiederum nutzt die beschleunigte Rechenplattform von Nvidia, um große Datensätze zu analysieren und mit einem dialogfähigen Assistenten Erkenntnisse zu gewinnen, die die Produktivität des Betriebsmanagements steigern. Opsramp wird auch mit „Crowdstrike“-APIs integriert, so dass Kunden eine einheitliche Service-Map-Ansicht der Endpunktsicherheit über ihre gesamte Infrastruktur und Anwendungen hinweg sehen können.

Unterstützung haben bereits Deloitte, HCLTech, Infosys, TCS und Wipro zugesichert. Die Unternehmen das Portfolio von Nvidia AI Computing by HPE und die HPE Private Cloud AI als Teil ihrer strategischen KI-Lösungen und -Services auf.

Die Hardware

Laut des Martforschungsunternehmens Gartner lag der Anteil von HPE an den weltweiten Serverlieferungen im 1. Quartal 24 bei 6,60 Prozent. Dies entspricht einem Rückgang von 0,5 Prozent gegenüber dem 1. Quartal 23. Das sich das nun in eine positive Entwicklung verkehrt, dafür sollen auch die neuen mit Beschleunigern bestückten Rechner sorgen.

Nach Angaben der Analysten der Dell'Oro Group („Data Center IT Capex Quarterly Report 1Q 2024“) entfällt die Hälfte des Serverumsatzes im 1. Quartal 2024 auf auf beschleunigte Server. Und die Nachfrage nach KI-Servern steige sowohl in der Cloud als auch in Unternehmen.Die Prognose für accelerted Serverliegt bei mehr als 80 Prozent Wachstum. Baron Fung, Senior Research Director bei der Dell'Oro Group, hält fest: „Die weltweiten Investitionen in Rechenzentren verzeichneten das erste zweistellige Wachstum seit fünf Quartalen.“

Die Hyperscale-Cloud-Service-Provider in den USA und China haben im ersten Vierteljahr eine Gesamtwachstumsrate von mehr als 40 Prozent erleben dürfen, da die Investitionen in KI-Infrastrukturen weiterhin eine starke Wachstumsdynamik aufwiesen. Ferner gebe es In der Zwischenzeit es Optimismus für eine leichte Verbesserung der Aussichten für die IT-Ausgaben von Unternehmen zusammen mit einer Erholung des Marktes für Allzweck-Server im Laufe dieses Jahres, da die Endnutzer die überfälligen Server durch die neuesten CPU-Plattformen von Intel und AMD ersetzten.

HPE will die Rechnerausstattung mit Beschleunigern, die im Betrieb viel Energie benötigt, wenigstens zum Teil kompensieren und verstärkt auf direkte Servver- beziehungsweise Chip-Kühlung setzen. (Bild:  HPE)
HPE will die Rechnerausstattung mit Beschleunigern, die im Betrieb viel Energie benötigt, wenigstens zum Teil kompensieren und verstärkt auf direkte Servver- beziehungsweise Chip-Kühlung setzen.
(Bild: HPE)

Die Dell'Oro-Analysten rechnen damit das die Umsätze mit Servern und Speichersystemen in diesem Jahr um mehr als 30 Prozent steigen werden, während die Umsätze mit Netzwerken und physischer Infrastruktur voraussichtlich im einstelligen Bereich wachsen.

Sie stellen fest, dass im ersten Quartal Dell Technologies alle OEMs bei den Serverumsätzen angeführt hat, gefolgt von HPE und Supermicro. Auf beschleunigte Server entfielen in diesem Quartal schätzungsweise 27 Prozent des OEM-Serverumsatzes.

Anbieter von White-Box-Servern haben im Jahresvergleich 11 Prozentpunkte an Umsatzanteil gegenüber den OEMs, da Hyperscaler verstärkt Server mit Grafikprozessoren und kundenspezifischen Beschleunigern einsetzen.

Nicht alle Servermodelle von HPE können die Kunden mit Flüssigkühlung bekommen; die hier dargestellten aber schon. (Bild:  HPE)
Nicht alle Servermodelle von HPE können die Kunden mit Flüssigkühlung bekommen; die hier dargestellten aber schon.
(Bild: HPE)

So gehören zur Nvidia-HPE-Kooperation auch Servermodelle mit GPUs, CPUs und Superchips von Nvidia:

  • Das Modell „HPE Cray XD670“ unterstützt acht „Nvidia H200 NVL Tensor Core“ GPUs und eignet sich damit insbesondere für LLM-Entwickler.
  • Der Server „HPE Proliant DL384 Gen12“ mit „Nvidia GH200 NVL2“ ist für LLM-Kunden, die größere Modelle oder RAG verwenden.
  • Die Ausstattung des Servers „HPE Proliant DL380a Gen12“ mit bis zu acht Nvidia H200 NVL Tensor
  • Core-GPUs ist für LLM-Anwender gedacht, die nach Flexibilität bei der Skalierung ihrer GenAI-Workloads suchen.

Außerdem werde die HPE-Hardware rechtzeitig auf den Markt kommen, um den Prozessor „GB200 NVL72 / NVL2“ sowie die „Nvidia Blackwell“- GPUs zu unterstützen sowie „Nvidia Rubin“ und „Nvidia Vera“-Architekturen zu unterstützen.

Flüssigkühlung hat auch bei HPE verschiedene Ausprägunen. (Bild:  HPE)
Flüssigkühlung hat auch bei HPE verschiedene Ausprägunen.
(Bild: HPE)

HPE Greenlake for File Storage hat die „Nvidia DGX BasePpod“- Zertifizierung und die „Nvidia OVX“ Speichervalidierung erhalten und bietet Kunden damit eine Enterprise File Storage zur Beschleunigung von KI, GenAI und GPU-intensiven Workloads im großen Maßstab an. Auch hier heißt es: „HPE wird bei den kommenden Nvidia Referenzarchitektur-Speicherzertifizierungsprogrammen rechtzeitig auf dem Markt sein.“

(ID:50069553)