Nachlese zur Dell Technologies World Um-, auf- oder ausgesetzt? KI, Multi­cloud und Nach­haltigkeit bei Dell

Von Ulrike Ostler Lesedauer: 10 min |

Anbieter zum Thema

Wie Michael Dell auf der im Mai stattgefundenen „Dell Technologies World“ (DTW) in Las Vegas seinen Zuhörern mitgeteilt hat, bestimmen drei Schlagworte die Technikentwicklung, insbesondere bei seinem Unternehmen - nein, es habe schon seit jeher alle Produkte daran ausgerichtet: Multicloud, Nachhaltigkeit und Künstliche Intelligenz. Das aber stimmt so nicht ganz.

Gut besucht war die „Dell Technologies World 2023“. Was an Themen zur Sprache kam, bestimmt die Ausrichtung des Tech-Konzern in den kommenden Jahren.
Gut besucht war die „Dell Technologies World 2023“. Was an Themen zur Sprache kam, bestimmt die Ausrichtung des Tech-Konzern in den kommenden Jahren.
(Bild: Dell Technologies)

Nvidia-Chef Jensen Huang spricht von dem „iPhone-Moment der KI“, wenn er über das Erscheinen des OpenAI-Produkts „ChatGPT“ spricht. Denn zwar hat es Modelle, Algorithmen, neuronale Netze und Produkte für Künstliche Intelligenz im Allgemeinen und Machine Learning im Besonderen bereits vorab gegeben, aber hauptsächlich gehörten KI-Trainings und Inferenz-Systeme in den Sprachschatz von Eingeweihten, von Data-Scientists, High-Performance-Computing-Nerds, Science-Fiction-Autoren und vielleicht noch Stammtisch-Experten und Verschwörungstheoretikern, die genau wussten, dass die selbstfahrenden Autos nichts taugen.

Auch bei Dell Technologies gehörte bis zum Erscheinen von „Chat Generative Pre-trained Transformer“, wie ChatGPT ausgeschrieben heißt, auf dem Markt zwar nicht in das Reich von Fabelwesen aber doch in eine Art Robinson-Crusoe-Insel, existent, abgeschieden und noch zu entdecken. Und nun?

Bildergalerie
Bildergalerie mit 15 Bildern

Da OpenAI keine offiziellen Zahlen dazu herausgibt, können Analysten nur vermuten, wie viele Parameter ChatGPT verwendet. Man scheint sich auf Folgendes mehr oder minder verständigt zu haben: In der Version „GPT 3.5“ soll das Sprachmodell mit über 175 Milliarden Parameter und 800 Gigabyte an Speicherkapazität hantiert haben.

Staunen und ein Kloß im Hals: ChatGPT

Die Nachfolgeversion „GPT-4“ arbeite bereits mit bis zu 100 Billionen Parametern, so die Spekulationen. Gesicherter ist die Information, dass ungefähr fünf Jahre Entwicklungszeit notwendig waren, um das Modell auf „Microsoft Azure“ zum Fliegen zu bringen - die Open-Source-Inferencing-Engine „Open Neural Network Exchange Runtime“ (ONNX Runtime) führt heute mehr als eine Billion Inferenzen pro Tag aus, und Zehntausende von GPUs.

Die Kosten, die anfallen, um ChatGPT laufen zu lassen, belaufen sich auf 500.000 Dollar pro Tag (so Microsoft) oder auch 700.000 Dollar pro Tag, wie Semi-Analysis errechnet hat. Das Training von Chat GPT soll rund 1,287 Gigawattstunden verschlungen haben, etwa so viel wie 120 US-Haushalte im Jahr 2021 benötigt haben, etwa 502 Tonnen an Kohlenstoffemissionen, so viel wie wiederum 110 US-Fahrzeuge pro Jahr erzeugen.

Angesichts des gigantischen Aufwands, den OpenAI, Microsoft und Nvidia in die Infrastruktur hinter ChatGPT stecken, darf man schon einmal fragen, was Dell Technologies seinen Kunden anbietet, um mithalten zu können. Tatsächlich sind sich die Analysten einig, dass weltweit nur etwa eine Handvoll Unternehmen sich eine solche Infrastruktur erlauben können. Darüber hinaus sorgen unzählige Privatanwender, Tool-Hersteller, die das Sprachmodell in die eigene Software integrieren, Programmierer und Unternehmen die entweder die OpenAI-Software direkt nutzen oder auch indirekt über ihre Werkzeuglieferanten, dass das Modell dauerhaft trainiert wird.

Die Infrastruktur

Schreitet die Entwicklung ähnlich fort, wie einst der Suchmaschinen-Markt, bleibt zwar nicht ausschließlich ChatGPT übrig, aber wenige Techniken, die einen Markt komplett beherrschen. Nicht umsonst heißt es flapsig: „Was in Google nicht zu finden ist, existiert auch nicht“, weil diese Suchmaschine den Markt eindeutig dominiert. Google lässt sich die Platzierung in der Suchmaschine bezahlen; was werden OpenAI oder auch eine Konkurrenztechnik dafür nehmen, dass eine Quelle in die Auswertung aufgenommen wird oder dafür welche Wahrheit stimmt – die eines Diktators oder die einer Non-Profit-Organisation?

Der nächste große Schritt bezüglich generativer KI ist nach einhelliger Meinung der Analysten, die auf der Dell Technologies World vertreten waren, die Verbindung verschiedener Quellen, also etwa Text und Bildinformationen. Die Antwort auf die Rieseninfrastrukturen von ChatGPT oder „Bard“ sind nach Aussagen des Dell-Top-Managements Modelle, die ausschließlich mit unternehmenseigenen oder zumindest unternehmensrelevaten Daten gefüttert werden oder auch generative KI auf lokalen Servern. Außerdem mache auch die Open-Source-Welt rasante Fortschritte.

Zu den Neuerungen, die der Veranstalter in petto hatte, ist das Projekt „Helix“ (siehe: Kasten). Zu dessen Vorstellung sprach Nvidia-Chef Huang per Video zu den DTW-Teilnehmern. Es soll 'Validated Designs' bieten, mit denen Unternehmen vertrauenswürdige generative KI-Modelle entwickeln und bereitstellen können. Das Angebot von Dell Technologies und Nvidia beinhaltet Funktionen für die Datensicherheit on-premises betriebener generativer KI-Anwendungen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Das Projekt Helix

„Helix“soll den kompletten Lebenszyklus generativer KI abbilden – von der Provisionierung der Infrastruktur, der Modellierung, dem Training, der Feinabstimmung, der Anwendungsentwicklung und -bereitstellung bis hin zur Bereitstellung der Inferenz und der Rationalisierung der Ergebnisse. Zugleich böten validierte Designs den Unternehmen die Möglichkeit, schnell und einfach eine On-premises-Infrastruktur für generative KI in dem für sie passenden Umfang aufzubauen - ohne den Datenschutz zu vernachlässigen, werben die Partner Nvidia und Dell Technologies.

Dabei wird die Infrastruktur und Software von Dell Technologies mit der technischen Expertise von Nvidia durch vorgefertigte Tools vereint. Dell Technologies stellt im Zuge von Project Helix eine getestete Kombination aus optimierter Hard- und Software bereit, die das Deployment generativer KI in Unternehmen vereinfacht. Die Systeme helfen überdies, schneller maßgeschneiderte KI-Anwendungen bereitzustellen, die auf Basis geschäftsinterner Daten zuverlässige Entscheidungen treffen. Unternehmen können auf diese Weise ihr Geschäft ausbauen und skalieren.

Die Bestandteile

Die Grundlage bilden „Poweredge-Server“ von Dell Technologies wie das Modell „XE9680“ und „R760xa“. Darin stecken „H100 Tensor Core“-GPUs sowie Netzwerkkomponenten von Nvidia. Unternehmen können diese Infrastruktur optional in Verbindung mit Speichern für unstrukturierte Daten nutzen, etwa „Dell Powerscale“ oder „Dell ECS Enterprise Object Storage“.

Die Designs aus dem Projekt Helix enthalten auch die Enterprise-Funktionen der Server- und Storage-Software von Dell Technologies sowie die Observability-Kapazitäten von „Dell CloudIQ“ und die Nutzer erhalten Zugriff auf „Nvidia AI Enterprise“. Die Software-Suite enthält unter anderem mehr als 100 Frameworks und vorab trainierte KI-Modelle. Auch Entwicklungs-Tools wie das Large-Language-Model-Framework „Nemo“ sowie die Software „Nemo Guardrails“ für das Erstellen sicherer und aktueller Chatbots, die auf generativer KI basieren (siehe: „Das Open-Source-Toolkit Nemo Guardrails; Leitplanken bringen Trust und Security in LLM-basierte Konversationssysteme“).

Die Validated Designs, die auf der Initiative Project Helix basieren, stehen seit Juli 2023 über die üblichen Kanäle sowie als flexible Apex-Nutzungsoptionen bereit.

Jeff Clarke, Vice Chairman und Co-Chief Operating Officer von Dell Technologies, äußerte: „Mit einer hoch skalierbaren und effizienten Infrastruktur schaffen Unternehmen eine neue Welle generativer KI-Lösungen, die erhebliches Disruptionspotenzial aufweisen.“ Dass weltumspannende, von jedem nutzbare generative Modelle und mehr oder minder lokale KI-Inseln Äpfel und Birnen sind, negiert er.

Multicloud bei Dell

Multicloud-Unterstützung aus dem Hause Dell ist spätestens seit der vergangenen DTW mit der Markenbezeichnung „Apex“ verknüpft. Doch war zuvor Apex als Synonym für "das Beste aus zwei Welten" - Cloud-artige Bereitstellung von Infrastruktur für das eigene Rechenzentrum beziehungsweise die eigene Site im Co-Location-Rechenzentrum, platziert, heißt es nun: „Dell Apex Cloud Platforms“ (ab der zweiten Jahreshälfte 2023 weltweit verfügbar) dehnen die Betriebsumgebungen von Public Clouds nahtlos auf die On-premises-Infrastruktur von Dell Technologies aus".

Das aktuelle „Apex“-Angebot von Dell Technologies
Das aktuelle „Apex“-Angebot von Dell Technologies
(Bild: Dell Technologies)

Einher gehen Erweiterungen des Bereitstellungsmodells:

  • Dell Apex Storage for Public Cloud“ bringt die File- und Block-Storage-Software von Dell Technologies (siehe: Kasten) in öffentliche Clouds. Varun Chhabra, Senoir Vice President Marketing ISG, sagt dazu: Bis jetzt haben Partner und Kunden Appliances gebaut, jetzt bauen sie einen Storage-Layer über alle Plattformen hinweg.“
  • Die Software „Dell Apex Navigator“ - für Multicloud Storage (zunächst in den USA und voraussichtlich in der zweiten Jahreshälfte 2023 weltweit verfügbar) und für Kubernetes (ab der zweiten Jahreshälfte weltweit verfügbar) - soll die Datenmobilität, Storage selbst und Container-Management in Multicloud-Umgebungen vereinfachen.
    Das Multicloud-SaaS-Angebot zentralisiere und vereinfache das Management von Apex Block und File Storage und sorge dabei gleichzeitig für mehr Sicherheit. Konfiguration soll unkompliziert sein, die Bereitstellung automatisiert.
    Das Kubernetes-Storage-Management mit Dell-Container-Storage-Modulen, die sich einfach bereitstellen und verwalten lassen, bringt das SaaS-Angebot Datenservices wie Datenreplikation und Anwendungsmobilität zum Kunden.
  • „Dell Apex Compute“ und „Dell Apex PC-as-a-Service“ (vorher VDI) hilft Unternehmen, den IT-Betrieb zu vereinfachen, Infrastruktur schneller bereitzustellen und die Kosten zu kontrollieren; beides ist sofort verfügbar.
  • Dell Technologies und Databricks verbinden On-premises-Objektspeicher mit der „Lakehouse“-Plattform in der Public Cloud für bessere Datenanalysen (steht zur Verfügung)
  • „Dell Apex Cloud Platform for Microsoft Azure“
  • „Dell Apex Cloud Platform for Red Hat Openshift“
  • „Dell Apex Cloud Platform for VMware“

Storage-Software in öffentliche Clouds

Nach eigenen Angaben löst Dell Technologies das Versprechen von „Project Alpine“ ein und bringt seine Storage-Software in Public Clouds. Dazu kommt ein einheitlicher Ansatz für Dell Cloud Storage und Kubernetes-Management.

Zu den Storage-Angbeoten gehören nun „Dell Apex Block Storage for Amazon Web Services“, und für „Microsoft Azure“ sowie „Dell Apex File Storage for AWS “. Unternehmen könnten nun die Performance, Skalierbarkeit und Cyber-Resilienz der Storage-Produkte von Dell Technologies mit der Wirtschaftlichkeit und den Services der Public Cloud wie Analytik und KI kombinieren und dabei von der Datenmobilität zwischen On-premises-Storage und Public Clouds sowie einer konsistenten Verwaltung profitieren. Laut Dell Technologies ist ein Refactoring von Anwendungen und neue Mitarbeiterschulungen sind durch diesen Ansatz nicht erforderlich.

Dabei können Apex Block Storage die Leistung und Kapazität für geschäftskritische Workloads durch eine besondere Scale-Out-Architektur schnell erweitern. Und die Verteilung der Daten über mehrere Verfügbarkeitszonen hinweg gewährleiste erhöhte Ausfallsicherheit.

File Storage im Apex-Portfolio biete Enterprise-Performance und -Kapazitäten in der Public Cloud, so dass eine breite Palette leistungsintensiver Workloads unterstützt werden könnten, darunter KI, Machine Learning und Life Sciences.

Eine Parole, die häufig auf der DTW zitiert wurde, lautet: „Noch nie war in der Informationstechnik so wenig Technologie wie jetzt“. Was sagen Analysten zu dieser Entwicklung? IDC-Analyst Matthew Eastwood war auf der DTW zugegen. Er erinnert daran: „Dell Technologies hat erst vor zweieinhalb Jahren das Projekt Apex aufgesetzt; HPE sein Projekt 'Greenlake' vor vier Jahren.“ Naturgemäß müsse Dell Technologies einiges aufholen, aber das Unternehmen mache seine Sache gut, habe aber auch gute Voraussetzungen.

Mathew Eastwood
ist Senior Vice President, Enterprise Infrastructure, Cloud, Telecom, Security, Developers, Channels and Enabling Technology beim Marktforschungs- und Beratungsunternehmen IDC.

Bildquelle: IDC

So seien die Techniken für Hybrid Cloud und Hyper Converged Infrastructure (HCI) etabliert und Dell Technologies binde seine Partner von Beginn an besser ein als es HPE getan hatte. Als nicht zu unterschätzender Faktor setzt Eastwood hinzu, zähle, dass das Unternehmen bereits gut funktionierende Financial Services biete. Das erleichtere den Kunden einen Wechsel beziehungsweise die Erweiterung zu den technischen Services.

Zusammenfassend kommentiert er: „Noch befindet sich Apex in einem sehr frühen Stadium. Das heißt: Es sind noch längst nicht alle Probleme gelöst, etwa in der Zusammenarbeit mit den Partnern, aber Dell Technologies befindet sich auf einem guten Weg.“

Die Nachhaltigkeit

Ein Dienst, der in Apex - wie auch in Greenlake fehlt, ist der einer Nachhaltigkeitsbewertung der eingesetzten Technik und Services. Doch SVP Chhabra ist sich sicher: „Das kommt.“ Bei HPE Greenlake gibt es zumindest eine diesbezügliche Bewertung des Stromverbrauch in den Endgeräten.

Cassandra Garber
verfügt über mehr als 20 Jahre Erfahrung im Aufbau und in der Leitung von globalen, unternehmensweiten Nachhaltigkeits-, ESG-, Marketing- und Kommunikationsprogrammen und -teams in einer Vielzahl von Branchen für Unternehmen mit einem Umsatz von über 30 Milliarden Dollar. Derzeit ist sie Vice President für Corporate Sustainability und ESG und beaufsichtigt die Teams und Aktivitäten, die für die globale Nachhaltigkeit, ESG-Strategie und -Operationen sowie die Spenden- und sozialen Innovationsprogramme von Dell verantwortlich sind.

Bildquelle: Dell Technologies

Cassandra Garber ist bei Dell Technologies Vice President ESG, ist derzeit heftigst beschäftigt mit dem ESG Reporting und mit Scope 3, also der Klärung, welche Nachhaltigkeitskriterien die Lieferanten erfüllen. (Welche Fortschritte der Technikkonzern hierbei erzielt, lässt sich in dem gerade erschienenen „ESG-Report 2023“ nachlesen.). Garber erzählt, dass sie schon seit Jahren mit Nachhaltigkeitsthemen beschäftigt sei, aber erst seit Kurzem könne sie sich vor Anfragen und Ausgaben aus anderen Abteilungen kaum retten.

Eines der Probleme bestehe darin, dass die Datenerhebung sowie die Auswertung neu seien, etwa im Vergleich zur Erfassung von Finanzdaten zur Erstellung einer Bilanz. Irgendwann jedoch, hofft sie, werde die Erfassung und die Analyse so selbstverständlich wie das jetzt beim Finanzbericht sei. Allerdings gehört es mit zur Problematik, dass es weltweit unterschiedliche Regeln und Gesetze gibt.

In Deutschland existiert etwa ein Lieferkettengesetz und eventuell bald ein Energie-Effizienzgesetz sowie eine EU-Richtlinie zur Nachhaltigkeitsberichterstattung (CSRD), die seit diesem Jahr eine Reporting-Pflicht für Unternehmen ist, die mehr als 250 Mitarbeitende und /oder über 40 Millionen Umsatz und/oder mehr als 20 Millionen Bilanzsumme – jedenfalls zwei dieser Kriterien müssen erfüllt sein - haben sowie für kapitalmarktorientierte Unternehmen. Dementsprechend gibt es auch keine Institution, die (weltweit) unabhängig prüfen könnte, wie weit es mit der Glaubwürdigkeit und Wahrhaftigkeit der getroffenen Aussagen her ist.

Wasserkühlung und Datacenter-Module

Dell Technologies tut einiges dafür, dass von der Verpackung bis zu den in den Servern verbauten Materialien und dem Stromverbrauch die Umweltverträglichkeit erhöht wird (siehe auch die Webinare: „Effizientes Rechenzentrum: Mit Innovation zum Klimaschutz; Energieeffizienzgesetz: Potenziale erkennen und nutzen“ und „Mehr Nachhaltigkeit im Rechenzentrum; Erneuerung, Austausch und Recycling für eine moderne IT-Umgebung“)

Angesichts der im Raum stehenden Forderung im kommenden Energie-Effizienzgesetz zur Nutzung der in Rechenzentren entstehenden überschüssigen Wärme, des steigenden Energiebedarfs in einzelnen Systemen, dürfte sich die Nachfrage nach wassergekühlten Rechnern erhöhen. Co-Chief Operating Officer Clarke hält fest: „Wir haben wassergekühlte Systeme.“ Er setzt aber auch hinzu: „Wir sind wirklich richtig gut bei luftgekühlten Systemen.“

In der Ausstellung zur DTW gab es beides zu sehen unter anderem neue mit Nvidia-GPUs bestückte Systeme und in Verbindung mit dem „Modular Data Center“. Diese Rechenzentrumseinheit hat Dell Technologies entwickelt. Sie lässt sich aber mit Komponenten von Partnern wie Schneider Electric, Cool IT und Vertiv flexibel bestücken. Es gibt Ausführungen die Cold-Plate-gekühlte Systeme und In-Row-Cooling zulassen, mit einer Platte, die Erschütterungen ausgleicht .... und die Module lassen sich zu einem größeren Rechenzentrum kombinieren.

Das „Dell Micro 815 Modular Data Center“ etwa stellt bis drei Racks mit Geräten in den Umgebungen mit Temperaturen von -40 bis +50 Grad bereit, sofern genügend Strom lieferbar ist. Diese Ausführung, die auch auf der DTW zu sehen war, hat eine direkte Flüssigkeitskühlung implementiert, was die Systemkapazität und -leistung erhöht. Nach Dell-Angaben senkt die Kühltechnik den Energieverbrauch um bis zu 40 bis 50 Prozent. Auf Kundenwunsch werden aber auch Tauchkühlung und Luftkühlung angeboten.

Artikelfiles und Artikellinks

(ID:49605492)