„Wir haben kein Referenz-Modell gebaut“, wehrt Manuvier Das, Vice President Enterprise Computing, schon vorsorglich ab, vor der eigentlichen HPE-Konferenz „Discover“, die seit gestern läuft, bei einem Briefing für Journalisten. gemeint ist: „Wir haben echte Produkte und Services“ und bezieht sich auf die wohl bedeutendste Ankündigung auf der Konferenz, nämlich die Zusammenarbeit mit Nvidia.
Auf der Veranstaltung „HPE Discover“, die derzeit in Las Vegas stattfindet, haben Hewlett-Packard Enterprise und Nvidia zahlreiche Früchte ihrer Zusammenarbeit bekannt gegeben.
(Bild: HPE)
Der Kundschaft soll zwecks generativer Künstlicher Intelligenz (KI), kurz: GenAI, auf die Sprünge geholfen werden. Hewlett Packard Enterprise (HPE) und Nvidia haben gestern „Nvidia AI Computing by HPE" angekündigt, ein Portfolio gemeinsam entwickelter KI-Angebote und gemeinsamer Go-to-Market-Integrationen. Diese sollen es den Kunden ermöglichen, die Einführung generativer KI zu beschleunigen.
Die Zusammenarbeit von Nvidia und HPE umfasst diverse Schichten und Angebote.
(Bild: HPE)
Um das immense Potenzial der generativen KI im Unternehmen freizusetzen, hätten HPE und Nvidia gemeinsam eine schlüsselfertige Private Cloud für KI entwickelt, die es Unternehmen ermögliche, ihre Ressourcen auf die Entwicklung neuer KI-Anwendungsfälle zu konzentrieren, die die Produktivität steigern und neue Umsatzströme erschließen können, so HPE-Chef Antonio Neri in seiner gestrigen Eröffnungs-Keynote.
Als Grund nennt er: „Generative KI birgt ein immenses Potenzial für die Transformation von Unternehmen, aber die Komplexität fragmentierter KI-Technologien birgt zu viele Risiken und Barrieren, die eine groß angelegte Einführung in Unternehmen behindern und das wertvollste Gut eines Unternehmens - seine geschützten Daten - gefährden können.“
Die wichtigsten Ankündigungen von Hewlett-Pakard Enterprise auf der Konferenz „HPE Discover 2024“ in der Übersicht.
(Bild: HPE)
Un Nvidia-Boss Jensen Huang fügt an: „Noch nie zuvor haben Nvidia und HPE ihre Techniken so tief integriert und den gesamten Nvidia KI-Computing-Stack mit der Private-Cloud-Technologie von HPE kombiniert, um Unternehmenskunden und KI-Experten mit der fortschrittlichsten Computing-Infrastruktur und den modernsten Services auszustatten und die Grenzen der KI zu erweitern.“
Die Produkte und Services
Zu den wichtigsten Angeboten des Portfolios zählt HPE „Private Cloud AI“. Hier verspricht der Anbieter die bisher tiefste Integration von „Nvidia AI Computing“, Networking und Software mit HPE AI Storage, Compute und der „HPE Greenlake Cloud“.
Das Private-Cloud-Portfolio auf der Basis von Nvidia- und HPE-Technik.
(Bild: HPE)
Das Angebot ermögliche es Unternehmen jeder Größe, einen Energie-effizienten und doch schnellen sowie flexiblen Weg für die nachhaltige Entwicklung und Bereitstellung generativer KI-Anwendungen zu finden, so die Partnerunternehmen. Es enthält:
Unterstützung für Inferenz-, Feinabstimmungs- und RAG-KI-Workloads, die unternehmenseigene Daten nutzen.
Unternehmenskontrolle für Datenschutz, Sicherheit, Transparenz und Governance-Anforderungen.
Cloud-Erfahrung mit ITOps- und AIOps-Funktionen zur Steigerung der Produktivität.
Einen schneller Weg zur flexiblen Nutzung, um zukünftige KI-Möglichkeiten und Wachstum zu erfüllen.
einen kuratierter KI- und Daten-Software-Stack in der HPE Private Cloud AI
Die Grundlage des KI- und Daten-Software-Stacks beginnt mit der „Nvidia AI Enterprise“ Software-Plattform, die „Nvidia NIM“ Inferenz-Microservices enthält. NIM, auf der diesjährigen „GTC“-Konferenz von Nvidia angekündigt, ist quasi eine Runtime, die ein Modell hostet.
„Opsramp AI Copilot“ bietet Assistenz im IT-Betrieb; das Tool soll helfen, die Arbeitslast zu bewältigen, zu verteilen und insgesamt so die Effienz der IT zu erhöhen.
(Bild: HPE)
Die Software ist Bestandteil von Nvidia AI Enterprise und bietet benutzerfreundliche Microservices für die optimierte Inferenzierung von KI-Modellen, was einen reibungslosen Übergang vom Prototyp zum sicheren Einsatz von KI-Modellen in einer Vielzahl von Anwendungsfällen ermöglichen soll. Als „NIM-Factory“ übernimmt die Software konstant das Tuning und die Optimierung der KI-Konfigurationen. Anwender bekommen also Stat-of-the Art-Services ohne sich um Updates kümmern zu müssen.
Die Steuerebene
Ergänzend zu Nvidia AI Enterprise und Nvidia NIM bietet die „HPE AI Essentials“ Software einen einsatzbereiten Satz kuratierter KI- und Datenfundament-Tools mit einer einheitlichen Steuerebene, die anpassungsfähige Implementierungen, fortlaufenden Unternehmens-Support und vertrauenswürdige KI-Services wie Daten- und Modellkonformität sowie erweiterbare Funktionen bieten sollen. Denn die KI-Pipelines können damit, laut Anbieter, während des gesamten KI-Lebenszyklus konform, erklärbar und reproduzierbar sein.
Der integrierte KI-Infrastruktur-Stack aus HPE- und Nvidia-Technik-Mix
(Bild: HPE)
Der zugehörige integrierten KI-Infrastruktur-Stack besteht aus „Nvidia Spectrum-X“ Ethernet, „HPE Greenlake für File Storage“ und „HPE Proliant“-Server mit Unterstützung für „Nvidia L40S“, „Nvidia H100 NVL“, „Tensor Core“ GPUs und die „Nvidia GH200 NVL2“-Plattform.
Cloud-Erfahrung durch HPE Greenlake Cloud
HPE Private Cloud AI bietet ein Self-Service-Cloud-Erlebnis, das durch HPE Greenlake Cloud ermöglicht wird. Das erlaubt eine einzige, plattformbasierte Steuerungsebene bieten die Services Verwaltbarkeit und Beobachtbarkeit, um Endpunkte, Arbeitslasten und Daten in hybriden Umgebungen zu automatisieren, zu orchestrieren und zu verwalten. Dazu gehören auch Nachhaltigkeitsmetriken für Workloads und Endpunkte.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Dahinter steckt „Opsramp AI Copilot“, eine Software, die den IT-Betrieb bei der Verbesserung der Arbeitslast und der IT-Effizienz unterstützen soll. Sie ist in HPE Greenlake Cloud integriert, um Beobachtbarkeit und AIOps für alle HPE-Produkte und -Services zu bieten.
Opsramp bietet jetzt Observability für den gesamten „Nvidia Accelerated Computing Stack“, einschließlich NIM und AI Software, Nvidia Tensor Core GPUs und AI Clusters sowie „Nvidia Quantum Infiniband“ und „Nvidia Spectrum“ Ethernet Switches. IT-Administratoren erhalten Einblicke, um Anomalien zu erkennen und ihre KI-Infrastruktur und Workloads in hybriden Multi-Cloud-Umgebungen zu überwachen.
„Opsramp“ ist nun in „HPE Greenlake“ enthalten.
(Bild: HPE)
Der „Opsramp Operations Copilot“ wiederum nutzt die beschleunigte Rechenplattform von Nvidia, um große Datensätze zu analysieren und mit einem dialogfähigen Assistenten Erkenntnisse zu gewinnen, die die Produktivität des Betriebsmanagements steigern. Opsramp wird auch mit „Crowdstrike“-APIs integriert, so dass Kunden eine einheitliche Service-Map-Ansicht der Endpunktsicherheit über ihre gesamte Infrastruktur und Anwendungen hinweg sehen können.
Unterstützung haben bereits Deloitte, HCLTech, Infosys, TCS und Wipro zugesichert. Die Unternehmen das Portfolio von Nvidia AI Computing by HPE und die HPE Private Cloud AI als Teil ihrer strategischen KI-Lösungen und -Services auf.
Die Hardware
Laut des Martforschungsunternehmens Gartner lag der Anteil von HPE an den weltweiten Serverlieferungen im 1. Quartal 24 bei 6,60 Prozent. Dies entspricht einem Rückgang von 0,5 Prozent gegenüber dem 1. Quartal 23. Das sich das nun in eine positive Entwicklung verkehrt, dafür sollen auch die neuen mit Beschleunigern bestückten Rechner sorgen.
Nach Angaben der Analysten der Dell'Oro Group („Data Center IT Capex Quarterly Report 1Q 2024“) entfällt die Hälfte des Serverumsatzes im 1. Quartal 2024 auf auf beschleunigte Server. Und die Nachfrage nach KI-Servern steige sowohl in der Cloud als auch in Unternehmen.Die Prognose für accelerted Serverliegt bei mehr als 80 Prozent Wachstum. Baron Fung, Senior Research Director bei der Dell'Oro Group, hält fest: „Die weltweiten Investitionen in Rechenzentren verzeichneten das erste zweistellige Wachstum seit fünf Quartalen.“
Die Hyperscale-Cloud-Service-Provider in den USA und China haben im ersten Vierteljahr eine Gesamtwachstumsrate von mehr als 40 Prozent erleben dürfen, da die Investitionen in KI-Infrastrukturen weiterhin eine starke Wachstumsdynamik aufwiesen. Ferner gebe es In der Zwischenzeit es Optimismus für eine leichte Verbesserung der Aussichten für die IT-Ausgaben von Unternehmen zusammen mit einer Erholung des Marktes für Allzweck-Server im Laufe dieses Jahres, da die Endnutzer die überfälligen Server durch die neuesten CPU-Plattformen von Intel und AMD ersetzten.
HPE will die Rechnerausstattung mit Beschleunigern, die im Betrieb viel Energie benötigt, wenigstens zum Teil kompensieren und verstärkt auf direkte Servver- beziehungsweise Chip-Kühlung setzen.
(Bild: HPE)
Die Dell'Oro-Analysten rechnen damit das die Umsätze mit Servern und Speichersystemen in diesem Jahr um mehr als 30 Prozent steigen werden, während die Umsätze mit Netzwerken und physischer Infrastruktur voraussichtlich im einstelligen Bereich wachsen.
Sie stellen fest, dass im ersten Quartal Dell Technologies alle OEMs bei den Serverumsätzen angeführt hat, gefolgt von HPE und Supermicro. Auf beschleunigte Server entfielen in diesem Quartal schätzungsweise 27 Prozent des OEM-Serverumsatzes.
Anbieter von White-Box-Servern haben im Jahresvergleich 11 Prozentpunkte an Umsatzanteil gegenüber den OEMs, da Hyperscaler verstärkt Server mit Grafikprozessoren und kundenspezifischen Beschleunigern einsetzen.
Nicht alle Servermodelle von HPE können die Kunden mit Flüssigkühlung bekommen; die hier dargestellten aber schon.
(Bild: HPE)
So gehören zur Nvidia-HPE-Kooperation auch Servermodelle mit GPUs, CPUs und Superchips von Nvidia:
Das Modell „HPE Cray XD670“ unterstützt acht „Nvidia H200 NVL Tensor Core“ GPUs und eignet sich damit insbesondere für LLM-Entwickler.
Der Server „HPE Proliant DL384 Gen12“ mit „Nvidia GH200 NVL2“ ist für LLM-Kunden, die größere Modelle oder RAG verwenden.
Die Ausstattung des Servers „HPE Proliant DL380a Gen12“ mit bis zu acht Nvidia H200 NVL Tensor
Core-GPUs ist für LLM-Anwender gedacht, die nach Flexibilität bei der Skalierung ihrer GenAI-Workloads suchen.
Außerdem werde die HPE-Hardware rechtzeitig auf den Markt kommen, um den Prozessor „GB200 NVL72 / NVL2“ sowie die „Nvidia Blackwell“- GPUs zu unterstützen sowie „Nvidia Rubin“ und „Nvidia Vera“-Architekturen zu unterstützen.
Flüssigkühlung hat auch bei HPE verschiedene Ausprägunen.
(Bild: HPE)
HPE Greenlake for File Storage hat die „Nvidia DGX BasePpod“- Zertifizierung und die „Nvidia OVX“ Speichervalidierung erhalten und bietet Kunden damit eine Enterprise File Storage zur Beschleunigung von KI, GenAI und GPU-intensiven Workloads im großen Maßstab an. Auch hier heißt es: „HPE wird bei den kommenden Nvidia Referenzarchitektur-Speicherzertifizierungsprogrammen rechtzeitig auf dem Markt sein.“