Suchen

HPE Discover More Greenlake im Zentrum

| Autor: Klaus Länger

Von der Edge über das Datacenter bis in die Cloud: Bei HPE soll mit „Greenlake“ alles zum Service werden. Auf der HPE-Veranstaltung „Discover More“ in München stellte der Hersteller mit Greenlake Central einen zentrale Management-Service für die komplette Hybrid-IT-Umgebung vor.

Firma zum Thema

Greenlake ist derzeit für HPE eines der wichtigsten Themen. Entsprechend viel Raum nahm das Vertriebsmodell bei der Discover More in München ein.
Greenlake ist derzeit für HPE eines der wichtigsten Themen. Entsprechend viel Raum nahm das Vertriebsmodell bei der Discover More in München ein.
(Bild: Vogel IT-Medien)

Die Vorteile der Cloud hinsichtlich Flexibilität und verbrauchsbasierter Abrechnung soll HPE Greenlake für die Rechenzentren der Kunden ermöglichen, das laut dem Hersteller in Sachen Performance und Compliance immer noch die erste Wahl ist. Gleichzeitig soll Greenlake Unternehmen den Weg in die Hybrid-Multi-Cloud ebnen, so sie ihn gehen wollen und es für sie sinnvoll ist.

Mit „Greenlake Central“ wird es durch eine zentrale Management-Plattform für die Multi-Hybrid-Cloud erweitert. „HPE Greenlake Central ist eine transformative Plattform, die das Spielfeld in der Hybrid-IT verändert”, sagt dazu Antonio Neri, CEO von HPE. „Der CIO kann jetzt als strategischer Service-Broker agieren, und jeder profitiert von einer konsistenten Cloud-Erfahrung, die zu geringeren Kosten und Risiken sowie zu einer größeren Auswahl, Kontrolle, Einfachheit und Geschwindigkeit führt.” Für den Hersteller ist der Start der Management-Plattform ein weiterer Puzzlestein in der Strategie, bis 2022 das komplette Portfolio als Service anzubieten.

Bildergalerie

Greenlake Central als Management-Plattform

Greenlake Central ist eine als Service vorgestellte Software-Plattform, die aus mehreren Elementen besteht und unterschiedliche Aufgaben erfüllt. Für den CIO eines Unternehmens stellt der Service in einem Dashboard gesammelte Informationen über die Auslastung, die Kosten sowie die Sicherheitsprobleme und die Compliance der gesamten, über Greenlake genutzten Hybrid-IT-Infrastruktur zusammen.

Der CFO bekommt durch interaktive Diagramme eine detaillierten Einblick in die auflaufenden Kosten für die On-Premises oder in der Cloud verwendeten Ressourcen und kann so Budgetüberschreitungen schnell erkennen. Beispielweise wird vor übermäßiger oder unzureichender Nutzung von IT-Ressourcen gewarnt, sowohl lokal als auch in der Cloud. Auch werden so „verwaiste” VMs oder überdimensionierte Public-Cloud-Instanzen identifiziert.

Die IT-Abteilung oder ein betreuendes Systemhaus können über das Dashboard Workloads und virtuelle Maschinen ausrollen und verwalten. Zudem erhalten sie Warnungen bei Fehlern, Sicherheitsrisiken und Compliance-Problemen. Die werden über über eine Sammlung von Regeln erkannt, die für Audits genutzt werden. Für das Erstellen von Regeln sind keine speziellen IT-Kentnisse erforderlich. Diese Aufgabe kann also beispielsweise von der Rechtsabteilung oder externen Juristen erledigt werden.

Für DevOps ist Greenlake Central eine Pay-per-use-Plattform, über die sie schnell und einfach Applikationen in der Hybrid-Cloud ausrollen können, ohne sich um die darunterliegende Infrastruktur kümmern zu müssen. Den Anwendern wird schließlich ein Marktplatz geboten, über den sie Applikationen in der hybriden Cloud unkompliziert testen und ordern können. Neben der Private Cloud können derzeit Ressourcen auf AWS und Microsoft Azure verwaltet werden.

Im Prinzip soll mit Greenlake und Greenlake Central das Public-Cloud-Modell auf das eigene Rechenzentrum der Kunden übertragen werden: Sie müssen sich nicht mehr um die konkrete Hardware kümmern, sondern geben nur noch die Workloads und ihre Anforderungen an die Verfügbarkeit vor.

Für das Netzwerk-Management aus der Cloud bietet HPE schon seit einigen Jahren „Aruba Central“ an. Etwa 40.000 Kunden nutzen die Plattform bereits, so Ulrich Seibold, Channel-Chef bei HPE. Mit der wachsenden Verbreitung von Industrial IoT erwartet er hier noch einen deutlichen Zuwachs.

Den verzeichnet seine Firma auch mit Greenlake. Fast 40 Prozent betrug das Plus im Fiskaljahr 2019. Laut Seibold können die Partner in Deutschland mit Greenlake in erheblichem Umfang neue Kunden ansprechen. Bisher kommen diese ausschließlich aus dem Enterprise-Umfeld. Aktuell erweitert der Hersteller das Vertriebs- und Servicemodell auch in Richtung Mittelstand, also für Kunden mit 100 bis 500 IT-Arbeitsplätzen. Hier soll weiterhin die Distribution als Schnittstelle zu den Partnern agieren.

Greenlake für den Mittelstand

Das Pilotprojekt für Greenlake im Mittelstand hat HPE gemeinsam mit dem Systemhaus Bizteam verwirklicht. Viele Mittelstandskunden hätten immer noch Vorbehalte gegenüber der Public Cloud, erklärt Anton Braun, Geschäftsführer des Systemhauses, seien aber an den Vorteilen einer verbrauchsbasierten IT-Lösung interessiert. Für den Kunden in dem Projekt, eine mittelständische Klinik, sei Greenlake ideal, da hier durch die fortschreitende Digitalisierung im Gesundheitswesen ein massiv wachsender Storage-Bedarf erwartet werde, dessen Ausmaß sich aber nicht prognostizieren lasse.

Da aus Datenschutzgründen der Weg in die Public Cloud nicht gangbar ist, ermöglicht Greenlake ein flexibles Storage, die sich an den tatsächlichen Bedarf anpassen lässt, so Braun. Für Bizteam und den Kunden sei wichtig gewesen, dass das Systemhaus weiterhin den Service gewährleistet, was HPE mit Greenlake für den Mittelstand ermöglicht.

Anton Braun, Geschäftsführer von Bizteam (li.) mit seinem Mitarbeiter Michael Gailitzdörfer (mi.) und Sascha Burmühl (re.), der das Pilotprojekt seitens HPE betreut hat.
Anton Braun, Geschäftsführer von Bizteam (li.) mit seinem Mitarbeiter Michael Gailitzdörfer (mi.) und Sascha Burmühl (re.), der das Pilotprojekt seitens HPE betreut hat.
(Bild: Vogel IT-Medien)

HPE Container Platform: Für cloudnative und monolithische Applikationen

Kubernetes ist gerade die angesagteste Technologie für die Container-Orchestrierung. Sie dient daher auch als Basis für die Container Platform von HPE, allerdings im Kombination mit Software der in diesem Jahr übernommenen Firmen Blue Data und Mapr. Die HPE-Lösung soll Container nicht nur aus VMs oder Cloud-Instanzen, sondern auch direkt auf Bare-Metal-Servern ausführen und so Kosten sparen und die Komplexitiät vermindern.

Generell verspricht HPE mit Blue Data ein deutlich einfacheres und schnelleres Ausrollen von Applikationen in Containern als mit einer reinen Kubernetes-Lösung. Zusätzlich sollen sich bestehende Applikationen auf Basis von Java, PHP oder .Net mit Hilfe der Data Fabric von Mapr für persistenten Storage einfach in Container packen lassen.

Die HPE Container Plattform wird als Subskription vertrieben. Sie ist im Rechenzentrum oder Edge-Umgebungen nicht auf HPE-Hardware beschränkt, und sie soll die Public Clouds aller relevanten Anbieter unterstützen.

Die Container-Plattform von HPE soll die Einrichtung und Verwaltung von Containern erheblich vereinfachen und beschleunigen.
Die Container-Plattform von HPE soll die Einrichtung und Verwaltung von Containern erheblich vereinfachen und beschleunigen.
(Bild: HPE)

Demenzforschung mit Memory-Driven Computing

Mit Memory-Driven Computing engagiert sich HPE selbst in der medizinischen Forschung. Auf der Discover More präsentierte der Hersteller ein Projekt, in dem er mit dem Deutschen Zentrum für Neurodegenerative Erkrankungen in der Helmholtz-Gemeinschaft (DZNE) kooperiert (siehe Kasten: „Lebensrettung per Memory-driven Computing bei Jungla und DZDE“. Der Forschungsverbund mit bundesweit zehn Standorten arbeitet eng mit Universtäten und Universitätskliniken zusammen.

Einer der Schwerpunkte das DZNE ist die Demenzforschung, bei der ein „Superdome Flex“ von HPE zum Einsatz kommt. Der Hochleistungsrechner nutzt Konzepte, die HPE für das Architekturprojekt „The Machine” entwickelt hat. Dieser massiv parallele ARM-Computer mit einem sehr großen nichtflüchtigen Speicherpool aus Memristoren war ursprünglich als als Produkt geplant, ließ sich dann aber aus technischen Gründen nicht realisieren.

Seitdem wird „The Machine” als Forschungsprojekt weitergeführt. Der Superdome Flex basiert zwar auf „Intel-Xeon“-Prozessoren, nutzt aber eine Kombination von DRAM und HPE Persistentem Speicher, um In-Memory-Computing-Anwendungen insgesamt 160 Terabyte Arbeitsspeicher zur Verfügung zu stellen. Dieser riesige Speicher wird in dem Projekt genutzt, um Daten aus Genom-Analysen deutlich schneller vergleichen zu können, als das bisher möglich war. In einem weiteren Schritt werden auch Daten aus anderen Quellen wie etwa bildgebenden Verfahren mit in den Datenbestand integriert, um sie für Analysen schnell zugänglich zu machen.

Artikelfiles und Artikellinks

(ID:46291735)

Über den Autor

 Klaus Länger

Klaus Länger

Redakteur