Suchen

Das Wichtigste von der HPE Discover Ecke trifft Datacenter-IT: HPE investiert und verdient kräftig

| Autor: Ulrike Ostler

HPE soll eine Innovations-Company sein, so Chef Antonio Neri kürzlich auf der hauseigenen Kongressmesse „HPE Discover“ in Madrid. Möglicher Kritik an Um- und Abbau der vergangenen Jahre setzt er hinzu: „Wir haben uns zu dem Unternehmen entwickelt, das wir sein wollen“. Die Stichworte, unter denen das Unternehmen einen Fußabdruck hinterlassen will, sind Edge-, Hybrid-Cloud- und Data-driven-Computing mitsamt entsprechender Dienstleistungen.

Firmen zum Thema

Antonio Neri, HPE-President und CEO, erläutert auf der hauseigenen Kongressmesse „HPE Discover“ in Madrid, an welchen Bereichen und Trends, sich die Company in den kommenden Jahren ausrichtet.
Antonio Neri, HPE-President und CEO, erläutert auf der hauseigenen Kongressmesse „HPE Discover“ in Madrid, an welchen Bereichen und Trends, sich die Company in den kommenden Jahren ausrichtet.
(Bild: HPE)

Die stärkste Aufmerksamkeit verlieh HPE auf der Veranstaltung dem Edge-Computing. Rund 4 Milliarden Dollar will HPE innerhalb von vier Jahren in seine Edge-Strategie investieren - beziehungsweise in den Bereich „OT“, für Operational Technology, in Abgrenzung zu „IT“ – Information Technology beziehungsweise in die zunehmende Konvergenz beider Unternehmensdisziplinen. HPE-President und-CEO Neri macht klar: Edge sei nicht das Rechenzentrum, sondern finde dort statt, wo die Musik spielt – in den Fabriken, im geschäftlichen und gesellschaftlichen Leben.

Die HPE-Finanzen im Jahresvergleich; das Finanzjahr endete am 31.Oktober 2018.
Die HPE-Finanzen im Jahresvergleich; das Finanzjahr endete am 31.Oktober 2018.
(Bild: HPE)

Ergänzendes zum Thema
Kasten HPE-Finanzen 2018

Ende Oktober 2018 endete für HPE das Geschäftsjahr. Im Ergebnis konnte der Konzern rund 30,9 Milliarden Dollar Nettoumsatz verbuchen, das entspricht einem Plus von 7 Prozent gegenüber dem Geschäftsjahr 2017, währungsbereinigt 5 Prozent.

Im Geschäftsjahr 2018 lag der Gewinn je Aktie einschließlich aller Umtauschrechte nach GAAP bei 1,23 Dollar und damit unter dem zuvor genannten Ausblick von 1,85 bis 1,90 Dollar pro Aktie, der hauptsächlich auf die Auswirkungen der Transformationskosten, Abschreibungen auf immaterielle Vermögenswerte, eine Anpassung des Gewinns aus Beteiligungen, der US-Steuerreform, Steuerfreistellungsanpassungen und Einkommensteuerwertberichtigungen zurückzuführen ist.

Entsprechend lag der Non-GAAP-Nettogewinn pro Aktie mit 1,56 Dollar über dem zuvor genannten Ausblick von 1,50 bis 1,55 Dollar pro Aktie und um 63 Prozent über dem Nettogewinn pro Aktie aus fortgeführten Geschäften des Vorjahreszeitraums.

HPE verdient außerhalb den USA gut. Stärkster Absatzmarkt nach den Vereinigten Staaten ist Europa.
HPE verdient außerhalb den USA gut. Stärkster Absatzmarkt nach den Vereinigten Staaten ist Europa.
( Bild: HPE )

Antonio Neri, President und CEO von HPE, kommentiert. „Wir haben uns dadurch hervorgetan, dass wir unseren Kunden differenzierte neue Fähigkeiten zur Verfügung gestellt haben, die ein deutliches Umsatzwachstum bei gleichzeitiger Margenausweitung ermöglichten, was zu einem starken Cashflow und zu Aktionärsrenditen führte. Da wir mein erstes Geschäftsjahr als CEO abschließen, bin ich unglaublich stolz darauf, wo wir am Markt stehen und auf unsere Innovationskultur. Im Jahr 2019 bin ich sehr zuversichtlich, dass unser erfahrenes globales Team und unsere bewährte Strategie das, was für unsere Kunden als nächstes kommt, von Edge zu Cloud beschleunigen werden.“

HPE-Chef Antonio Neri veweist besonders gerne auf den Chashflow, der im Jahresvergleich gestiegen ist. Allerdings hat HPE jede Menge Leute entlassen.
HPE-Chef Antonio Neri veweist besonders gerne auf den Chashflow, der im Jahresvergleich gestiegen ist. Allerdings hat HPE jede Menge Leute entlassen.
( Bild: HPE )

Interessant sind auch die Ergebnisse, die auf einzelne Segmente ausgewiesen sind. Der Umsatz im Bereich Intelligent Edge betrug 814 Millionen Dollar. Das entspricht einem Plus von 17 Prozent gegenüber dem Vorjahr und 15 Prozent währungsbereinigt, mit einer operativen Marge von 10,1 Prozent. Der Umsatz von HPE Aruba-Produkten stieg um 17 Prozent, währungsbereinigt um 15 Prozent und der Umsatz von HPE Aruba Services um 16 Prozent, währungsbereinigt ebenfalls um 16 Prozent.

  • Der Hybrid-IT-Umsatz betrug 6,4 Milliarden Dollar, ein Plus von 5 Prozent gegenüber dem Vorjahr und ein währungsbereinigtes Plus von 4 Prozent bei einer operativen Marge von 11,9 Prozent.
  • Der Rechnerumsatz stieg um 9 Prozent, währungsbereinigt um 7 Prozent,
  • der Speicherumsatz um 6 Prozent, währungsbereinigt um 4 Prozent,
  • der Umsatz von Datacenter-Networking um 2 Prozent, währungsbereinigt um 1 Prozent.

Der Umsatz von HPE Pointnext stieg um 3 Prozent und währungsbereinigt um 3 Prozent. Der Ertrag aus dem Finanzdienstleistungssektor betrug 939 Millionen Dollar, ein Rückgang von 7 Prozent gegenüber dem Vorjahr und ein währungsbereinigter Rückgang von 5 Prozent. Das Nettoportfoliovermögen blieb gegenüber dem Vorjahr unverändert und das Finanzierungsvolumen stieg um 8 Prozent gegenüber dem Vorjahr. Das Unternehmen erzielte eine operative Marge von 7,8 Prozent.

Allerdings kann der Netzwerkrand, können die Endgeräte nur so intelligent sein, wie die zugehörige Infrastruktur und die lokale Analysesoftware, die in jeder Sekunde, ja Milli- oder gar Mikrosekunde Daten aufnimmt. „Jetzt geht es darum“, so Neri, „die OT-Daten in die IT einfließen zu lassen.“ Sich hier zu positionieren sei eine riesige Chance für HPE, immerhin sei die intelligente Edge ein Geschäft mit einem 100 Milliarden-Potenzial.

Wie viel Intelligenz braucht es in der Edge?

Laut dem Gartner-Report „Top 10 Strategic Technology Trends for 2018: Cloud to the Edge“ von den Analysten David Cearley und Bob Gill et al. vom 8. März 2018 werden im Jahr 2022 drei Viertel aller Unternehmensdaten außerhalb des Rechenzentrums oder der Cloud erzeugt und verarbeitet werden. Heute seien es lediglich 10 Prozent.

´Intelligent Edge` ist ursprünglich ein von HPE-Zukauf Aruba geprägter Begriff. Jetzt wird er erweitert auf Orte, an denen „Aktionen“ stattfinden: Zuhause, mobiles Device, Baustelle, Produktionsanlage oder auch Formel 1 und Ryders Cup. Denn wer Sensordaten-Analysen für die Echtzeit-Steuerung nutzen möchte, muss die Daten direkt dort verarbeiten, wo sie entstehen. Der Datentransfer an ein entferntes Rechenzentrum oder gar in eine Cloud kostet zu viel Zeit, überlastet das Netzwerk und verursacht hohe Kosten.

Einer der Vorzeige-Anwender für HPE: Das Team von Mercedes AMG Petronas Motorsport. Aus der Bühne (v.l.): Antonio Neri (HPE-Chef), Toto Wolff, CEO des Rennsportteams, und Lewis Hamilton, amtierender Formel-1-Weltmeiser.
Einer der Vorzeige-Anwender für HPE: Das Team von Mercedes AMG Petronas Motorsport. Aus der Bühne (v.l.): Antonio Neri (HPE-Chef), Toto Wolff, CEO des Rennsportteams, und Lewis Hamilton, amtierender Formel-1-Weltmeiser.
(Bild: HPE)

Die HPE-Produktlinie, mit der sich Bereitstellung und Betrieb von integrierten Systemen vereinfachen sollen, Unternehmen ihre industriellen Sensoren und Steuerungen mit Informationstechnik (IT) verknüpfen können, um Prozesse zu analysieren, zu steuern und zu automatisieren, sind unter der Marke „Edgeline“ subsummiert.

Auf der Grundlage der „offenen Edge-Plattform“ lassen sich eine Vielzahl von industriellen Systemen und IT-Anwendungen miteinander verknüpfen – von der Feldebene bis zur Unternehmensebene und vom Netzwerkrand bis zur Cloud. „Offen heißt hier übrigens nicht quelloffen, wenngleich die Software einige Open-Source-Techniken integriert, sondern offene Schnittstellen für die Integration von Produkten Dritter.

Die Appliance Edgeline EL 300

Auf der HPE Discover hat HPE Erweiterungen seiner HPE Edgeline Converged Edge Systems vorgestellt. Die Appliances „Edgeline EL 1000“ und „Edgline EL 4000“ werden nun ergänzt um HPE „Edgeline EL300 Converged Edge System“. Es ist mit der Möglichkeit kabelgebundener und drahtlosen Verbindungen für eine Vielzahl von industriellen Anwendungen geeignet, doch insbesondere gedacht als Embedded System in Produktionsmaschinen und Gebäude-Infrastrukturen.

[Link: HPE Edgeline Converged Edge Systems]

Das System ist ein lüfterloses und energiesparendes System, das mit Intel-Prozessoren „Core-i5“, mit bis zu 32 Gigabyte Arbeitsspeicher und 3 Terabyte Festplattenspeicher ausgestattet ist. Es unterstützt die Vision Processing Units „Movidius Myriad X“ von Intel, um Video-Analysen und KI-Steuerung zu ermöglichen.

Das HPE-Gerät „Edgeline EL 300“ ist gedacht für den Einsatz am Netzwerkrand, der Edge.
Das HPE-Gerät „Edgeline EL 300“ ist gedacht für den Einsatz am Netzwerkrand, der Edge.
(Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Um gegen Erschütterungen, Vibrationen, Feuchtigkeit und Staub gewappnet zu sein, wurde das System nach IP50 und MIL-SPEC zertifiziert und kann bei Außentemperaturen zwischen -30 und +70 Grad betrieben werden. Damit lässt sich HPE Edgeline EL300 besonders gut integrieren.

Wie auch bei den leistungsstärkeren Edgline-Appliances funktionieren „OT Link“ und das Edgeline-System-Management. Es ist ab sofort weltweit verfügbar. Listenpreise beginnen bei 2.532 Dollar.

Ein weiterer Formfaktor der Edgeline-Appliances für die Edge.
Ein weiterer Formfaktor der Edgeline-Appliances für die Edge.
(Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Die Bereitstellung von IoT- und cyber-physischen Systemen

Laut HPE ist die Bereitstellung von IoT- und cyber-physischen Systemen bislang noch ein arbeitsintensives Unterfangen. Das Zusammenspiel von OT-Netzwerken, Steuerungssystemen und Datenflüssen mit Treibern, Middleware und IT-Anwendungen müsse manuell programmiert werden. Die HPE Edgeline OT Link Plattform: soll das Zusammenspiel von OT- und IT-Systemen am Netzwerkrand (Edge) automatisieren und damit eine intelligente und autonome Steuerung von industriellen Prozessen ermöglichen.

Das HPE-Angebot von Edgline-Appliances soll für die Anwender ein Rundum-Sorglos-Paket sein.
Das HPE-Angebot von Edgline-Appliances soll für die Anwender ein Rundum-Sorglos-Paket sein.
(Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Anders ausgedrückt handelt es sich um eine Art Middleware, mit deren Hilfe sich Daten verschiedendster Art normalisieren und somit gemeinhin nutzbar machen lassen. Dazu gehört:

  • HPE Edgeline OT Link Plattform Software, eine Workflow-Engine und ein Anwendungskatalog, die es Kunden ermöglichen, Komponenten, Daten und Anwendungen über eine grafische Benutzeroberfläche zu orchestrieren. Die Plattform integriert ein Ökosystem von Cloud- und Rechenzentrums-Anwendungen – unter anderem von AWS, Google, Microsoft, SAP und GE – um Erkenntnisse vom Netzwerkrand für das ganze Unternehmen und die Lieferkette verfügbar zu machen.
  • HPE Edgeline OT Link Certified Modules, von HPE entwickelte Adapter, die an eine Vielzahl von industriellen Systemen angeschlossen werden können und eine bi-direktionale und deterministische Steuerung und Kommunikation ermöglichen. Dazu gehören unter anderem High Speed Digital Input/Output, CAN-Bus, Modbus und Profinet. Zudem stehen Programmierschnittstellen und Software Development Kits zur Verfügung, um die Entwicklung von OT-Link-Modulen durch Dritte zu erleichtern. OT Link wird zudem FPGA-Module (etwa von National Instuments" integrieren, um Kunden maximale Flexibilität zu geben, alle möglichen industriellen Input/Output-Geräte anzuschließen.

In den Edgeline-Systemen steckt unter anderem Keysight-Know-How; Christopher Cain, Vice President und General Manager für Electronic Industrial Products bei Keysight Technologies, sagt über die HPE-Ankündigung: „Wir sind begeistert vom Potenzial der HPE Edgeline OT Link Platform. Um die bestmögliche Leistung für die IoT-Lösungen unserer Kunden sicherzustellen, bewerten wir ihre Sicherheit und Konnektivität nach neuesten Standards mithilfe unserer 5G- und IoT-Testsysteme. Die Integration mit HPEs Edgeline-Systemen sorgt dabei für hohen Durchsatz bei der Messdaten-Verarbeitung und ermöglicht Echtzeit-Steuerung – und das mit höchsten Qualitäts-Standards.“

Auch die HPE Edgeline OT Link Certified Modules sind ab sofort weltweit verfügbar. Listenpreise beginnen bei 189 Dollar.

Das System-Management am Edge

Mit „HPE Edgeline Integrated System Manager“, der auch bereits zur Verfügung steht, bietet HPE ein System-managment an, das direkt in die HPE Edgeline Converged Edge Systems integriert ist. Sie sollen für Verfügbarkeit und Sicherheit von Systemen sicherstellen, die an entlegenen Orten laufen, rauen Umweltbedingungen ausgesetzt sind und eine eingeschränkte Netzwerk-Verbindung haben. Das „EL300“-Gerät verfügt somit über eine kostenfreie Software-Lizenz.

Die Software ermöglicht Provisionierung per Mausklick, kontinuierliches System-Health-Management und Fernwartung – auch bei unregelmäßiger Netzwerk-Verbindung. Zu den Sicherheitsfunktionen gehört, dass beispielsweise Änderungen an Boot-Dateien verhindert werden und die Edge-Systeme sich bei Sicherheitsvorfällen deaktivieren lassen.

Mit der zugehörigen Software „HPE Edgeline Infrastructure Manager“, die auch seit der Veranstaltung weltweit verfügbar ist, lassen sich Tausende von HPE Edgeline Converged Edge Systems aus der Ferne steuern. Listenpreise beginnen bei 499 Dollar.

Der „HPE Edgeline Workload Orchestrator“ verfügt über ein zentrales Repository containerisierter Analytics-, KI-, Geschäfts- und IoT-Anwendungen, die an die HPE Edgeline Converged Edge Systems am Netzwerkrand übertragen werden. HPE Edgeline OT Link Plattform und HPE Edgeline OT Link Workload Orchestrator werden im Laufe des ersten Quartals 2019 verfügbar sein.

HPE Edgeline Field Application Engineering Services, bereitgestellt von „HPE Pointnext“, unterstützen Unternehmen dabei, ihre IoT- und cyber-physischen Systeme zu planen, aufzubauen, anzupassen und zu betreiben. Die Einführung der neuen Lösungen wird unterstützt durch HPE Edgeline Field Application Engineering Services von HPEs Service-Organisation HPE Pointnext. Sie hilft Kunden bei Planung, Bereitstellung und Betrieb von IoT-, Edge- und cyber-physischen Systemen.

HPE Pointnext unterstützt Kunden zudem bei der Entwicklung industrieller Datenerfassungs-, Netzwerk- und Steuerungskomponenten für die HPE Edgeline OT Link Plattform. Zudem bietet die Organisation auch eine schlüsselfertige Bereitstellung mit Betrieb vor Ort. Zudem wird das HPE Edgeline EL300 Converged Edge System über „HPE Green Lake Flex Capacity“ verfügbar sein – damit zahlen Anwender nur für die Leistung, die sie tatsächlich nutzen, vergleichbar mit Cloud-Bezahlmodellen.

Edgeline Field Application Services sind ab sofort weltweit verfügbar.

Von der IT- in die OT-Welt

Auch wenn HPE-Manager nicht müde werden zu betonen, dass es diese umfassende Form von Sicherheits- und Administrationsmöglichkeiten in der Welt operativer Technik noch nicht gebe, stößt HPE in keinen freien Raum intelligenter Systeme vor. Jahrzehnte haben etwa Anbieter von embedded Systemen an Möglichkeiten der Echtzeitverarbeitung und Kommunikation gefeilt und sich, oftmals branchenspezifische" Ökosysteme in technischer und wirtschaftlicher Hinsicht geschaffen.

IT-Unternehmen wie HPE müssen sich auf andere Ansprechpartner in den Unternehmen gefasst machen, benötigen deshalb dringend neue Vertriebsmitarbeiter und dingend neue Technologiepartnerschaften. Die Mitarbeiterzahl, gerade unter Verlust des Renomees abgebaut, dürfte sich rasant schnell wieder aufbauen. Ist eine erneute Spaltung des Konzerns schon angelegt?

HPE-Chef Neri west das weit von sich und stattdessen auf die neuen Partnerschaften mit ABB und Siemens sowie auf Channel-Partner, die zumeist vertikal aufgestellt sein und deshalb das notwendige Branchenwissen mitbrächten. Rund 70 Prozent des Umsatzes mit HPE-Technik genierten die 120.000 HPE-Partner weltweit, so Neri.

Er kündigt zudem an, dass HPE in den kommenden zwei Jahren eine Rendite auf die Investition in das Edgeline-Geschäft sehen werde. (Zu den Finanzzahlen: siehe Kasten)

Data-Driven Computing

Das Thema hat viele Facetten. Letztlich geht es darum, das Speichern intelligenter und schneller zu machen, vor allem um durch Memory-driven Computing mehr Echtzeit-Anwendungen zu ermöglichen und zugleich einen schnellen Zugriff auf vermeintlich erkaltete oder zumindest kältere Daten zu erlauben, ohne dass die Kosten explodieren. Neben Produktankündigungen gab es daher auf der HPE Discover auch Einblicke in die Arbeit des Labors, die weit in die Zukunft reichen.

Doch schon heute erlaubten Neuerungen bei künstlicher Intelligenz (KI) und Memory-Driven Flash genauere und doppelt so schnelle Ergebnisse aus Unternehmensdaten, so HPE. Dazu beitragen sollen im Wesentlichen

  • „HPE Memory-Driven Flash“, eine neue Speicherklasse für Unternehmen auf der Grundlage von „Storage Class Memory“ (SCM) und NVM Express (NVMe)
  • Neue Funktionen der Plattform „Artificial Intelligence for Operations“ (AIOps) von „HPE Infosight“ für eine sich selbst optimierende IT sowie die
  • Intensivierung der Partnerschaft mit Cohesity für sekundäre Workloads, um den Weg der Unternehmen in die Hybrid Cloud zu beschleunigen

Marty Lans, HPE Senior Director, Storage and Partner Ecosystems Engineering, sagt: „Für uns ist der HPE-Cohesity-Deall eine große Sache.“ Er fügt aber auch hinzu: „Wir gehören zu einem der derzeit am schnellsten wachsenden Unternehmen. “
Marty Lans, HPE Senior Director, Storage and Partner Ecosystems Engineering, sagt: „Für uns ist der HPE-Cohesity-Deall eine große Sache.“ Er fügt aber auch hinzu: „Wir gehören zu einem der derzeit am schnellsten wachsenden Unternehmen. “
(Bild: Ulrike Ostler/ Vogel IT-Medien GmbH)

Daten in Arbeitsspeicher-Geschwindigkeit

HPE Memory-Driven Flash ist eine neue Speicherklasse auf der Grundlage von SCM und NVMe, die die Leistung von „HPE 3PAR“ und „HPE Nimble Storage“ verbessert. Sie soll bis zu doppelt so geringe Latenzzeiten bieten und bis zu 50 Prozent schneller sein als All-Flash-Arrays mit NVMe-Solid-State-Laufwerk. Die in HPE 3PAR und HPE Nimble Storage eingebaute Intelligenz optimiert SCM, um Echtzeit-Verarbeitung für Latenz-empfindliche Applikationen und gemischte Workloads wie KI, Machine Learning oder Hochgeschwindigkeits-Transaktionen zu ermöglichen.

Ergänzendes zum Thema
Lebensrettung per Memory-driven Computing bei Jungla und DZDE

Das Startup Jungla ist bekannt für Biotechnologie und künstliche Intelligenz (KI). Unternehmensziel ist es, eine personalisierte medizinische Versorgung von Patienten in Echtzeit zu ermöglichen. De Memory-Driven Computing Sandbox von HPE soll helfen, die Klarheit und den Nutzen klinischer genetischer und genomischer Tests zu beschleunigen.

Carlos Araya, CEO von Jungla, Kirk Bresniker von Juniper und Professor Joachim Schulze vom DZNE bei der HPE Discover 2018 in Madrid.
Carlos Araya, CEO von Jungla, Kirk Bresniker von Juniper und Professor Joachim Schulze vom DZNE bei der HPE Discover 2018 in Madrid.
( Bild: Ulrike Ostler/Vogel IT-Medien GmbH )

Die Entschlüsselung des ersten menschlichen Genoms erforderte 2,7 Milliarden Dollar und dauerte 15 Jahre. Bemerkenswerte Fortschritte in der Sequenzierungstechnologie haben die Kosten für die Genomsequenzierung auf weniger als 1.000 Dollar gesenkt, wodurch persönliche Genome Realität werden und ein Weg für einen erschwinglichen, gerechten globalen Zugang eröffnet wird.

Laut Carlos Araya, CEO der Jungla Inc. bieten diese Daten das Potenzial, Einblicke und umsetzbare Hinweise aus patientengenomischen Daten in klinischen Umgebungen zu gewinnen. Das sei ein entscheidender Schritt, um das Versprechen einer erschwinglichen, auf die Bedürfnisse eines einzelnen Patienten zugeschnittenen Gesundheitsversorgung zu realisieren: die Präzisionsmedizin. Es erlaube Forschern, die Antwort auf Fragen wie diese zu bestimmen:

  • Was ist der Zusammenhang zwischen den drei Milliarden Basenpaaren, die das menschliche Genom und das menschliche Wohlbefinden umfassen?
  • Wie beeinflusst die Variation des Genoms die Wahrscheinlichkeit, dass ein Patient Krebs oder eine Herzkrankheit entwickelt?

Doch tatsächlich stellt die genetische Einzigartigkeit des Menschen die klinische Versorgung vor große Herausforderungen. Selbst in den Teilen des Genoms, deren Krankheitsrelevanz gut etabliert ist, sind weniger als ein Prozent der genetischen Varianten in der Bevölkerung klinisch verstanden.

Bestehende Prozesse und Standards zur Interpretation dieser Informationen in klinischen Labors sind stark von der manuellen Mustererkennung und -korrelation abhängig. Diese Barriere verlangsamt die medizinische Forschung und begrenzt die Skalierbarkeit, den Nutzen und die Integration genomischer Informationen in klinische Arbeitsabläufe für die Echtzeit-Patientendiagnose und -verwaltung.

Wofüer braucht es Memory-Driven Computing?

Araya sagt: „Wir sind fest davon überzeugt, dass wir, um den Wert genomischer Daten zu erkennen, über Veränderungen in der Sequenz des Genoms eines Patienten und in den Veränderungen, die auf die molekulare und zelluläre Funktion zurückzuführen sind,hinausblicken müssen. Um dies zu erreichen, haben wir computergestützte und experimentelle Systeme entwickelt, die den klinischen Teams beispiellose Einblicke ermöglichen. Dies hat zu einer massiven Zunahme der Datenmenge und der Prozesse zur Generierung und Analyse geführt.“

Die „Jungla Molecular Evidence Platform“ (MEP) modelliert die Auswirkungen von Varianten auf biologische Systeme im Maßstab und übersetzt die Erkenntnisse in die klinische Praxis. Diese integrierte Plattform bietet Patienten und Leistungserbringern eine genaue, klare und transparente Unterstützung bei der Interpretation von Ergebnissen in genetischen und genomischen Tests. Mit der Weiterentwicklung des MEP integriert Jungla zunehmend detailliertere, mechanistische Ansätze - darunter hochauflösende molekulare Analysen -, die zeigen können, wie Variationen im Genom Zellen verändern, wie DNA-Schäden, die zu Krebs führen können.

250-fache Geschwindigkeit

Um die Vision von Jungla für die Entwicklung einer genomischen Insights Engine zum Leben zu erwecken, lud HPE einen der riesigen Datensätze von Jungla auf seine 48 Terabyte „Memory-Driven Computing Sandbox“, eine im Juni 2018 eingeführte Betriebs- und Entwicklungsumgebung für Kunden. Damit kann Jungla's MEP im Vergleich zu herkömmlicher Hardware etwa 250-fache Geschwindigkeit bei hochauflösenden Molekularanalysen erzielen.

Die komplette Genomsequenz eines Patienten - die Hunderttausende von Varianten aus Tausenden von Genen beschreibt - entspricht etwa fünf Gigabyte an Informationen; die detaillierten Daten aus den Workflows von Jungla können jedoch die Verarbeitung von mehr als 40 Terabyte an Informationen für ein einzelnes Gen erfordern.

Ganz klar benötigt nicht jede Analyse diese Geschwindigkeit. „Doch manchmal ist das Zeitfenster, das Ärzte für lebenserhaltende Maßnahmen zur Verfügung haben, denkbar knapp“, sagt Jungla. „Auf diese Reaktionsgeschwindigkiet arbeiten wir hin.“

Im Kampf gegen Demenz

Neben der Zusammenarbeit mit Jungla arbeitet das Team des HPE mit Forschern der Biowissenschaften und der klinischen Medizin des „Living Heart Project“ und des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) zusammen. Professor Joachim Schultze, Direktor der „Pricice Platform for Single Cell Genomics and Epigenomics“ beim DZNE und der Universität Bonn, sagt: „Präzisionsmedizin wird ohne modernste Recheninfrastrukturen nicht möglich sein". Für mich scheint Memory-Driven Computing das ideale Rechen-Ökosystem für diese enorme Aufgabe zu sein“, und ersetzt hinzu: „HPE“ bietet als einziger IT-Hersteller ein solches System an.

Kirk Bresniker, Vice President, HPE Fellow und Chefarchitekt für Memory-Driven Computing, erläutert, welchen revolutionären Weg die technik eröffnet: „In einem traditionellen Umfeld beginnen die Forscher mit einem einfachen Modell und erhöhen die Komplexität, um dem Beobachteten gerecht zu werden. Wenn etwas beobachtet wird, was das Modell nicht erklären kann, wird das Modell oft weggeworfen.“

Die neuen Möglichkeiten stellen das Vorgehen auf den Kopf: Bresniker: „Aber was wäre, wenn ein Forscher auf der grundlegendsten Ebene beginnen und Modellierungsebenen aufbauen könnte, indem er die Atome zu Molekülen zusammenfügt, Moleküle zu Strukturen zusammenfügt und dann in Zellen, Organen, Organismen und Ökosystemen einbaut. Jetzt können Forscher das Unsichtbare visualisieren. Sie können ein klares Vorher-Nachher-Bild aufnehmen, was in der Wissenschaft entscheidend ist.“

Weitergedacht: Tech Impact 2030

Schon Anfang dieses Jahres kündigten HPE und das World Economic Forum die Herausforderung an, bis 2030 „Hilfe bei der Lösung des Welthungers" zu leisten, inspiriert von den Ergebnissen der 1.400 Hektar großen Forschungsanlage der Purdue University und ihrer Anwendung der Präzisionslandwirtschaft zur Steigerung der Ernteerträge bei gleichzeitiger drastischer Ressourcenschonung. Durch die Nutzung riesiger Datenmengen, die von verbundenen Plattformen und Geräten gesammelt und am Rande verarbeitet werden, liefert HPE schnelle Erkenntnisse, die den Landwirten schnellere Entscheidungen ermöglichen.

In den nächsten Monaten werden HPE und das Forum zusätzliche Herausforderungen in Schlüsselindustrien wie Finanzdienstleistungen, Transport und Produktion schaffen. Jede Herausforderung wird ein soziales, wirtschaftliches oder ökologisches Problem darstellen, das angegangen werden könnte, indem Experten einberufen und bestehende und innovative Technologien auf störende Weise eingesetzt werden.

Zu den Anwendern gehören das Biotech-Startup Jungla sowie das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE), wie Alzheimer (siehe: Kasten 2) . HPE Memory-Driven Flash wird den Wandel der IT hin zu Memory-Driven-Architekturen vorantreiben. Letztlich ist an einen Pool an Hardware-Komponenten gedacht, von Memristoren bis zu FPGAs, GPUs, Asics, Photonics …, die je nach Workload adressierbar und gruppierbar sind (siehe Artikel „Aus den HP-Labs - Computing im Futur, Die „praktikablen“ Alternativen zum Quantencomputer“).

Ab Dezember 2018 wird HPE Memory-Driven Flash als Upgrade für HPE 3PAR verfügbar sein, im Laufe des Jahres 2019 dann auch für HPE Nimble Storage.

Alle Memory-Storage-Ankündigungen auf einen Blick.
Alle Memory-Storage-Ankündigungen auf einen Blick.
(Bild: HPE)

KI in der Storage-Optimierung

HPE Infosight nutzt künstliche Intelligenz, um den Aufwand für die Verwaltung der Infrastruktur so gering wie möglich zu halten. Sie hilft, Probleme vorherzusagen und zu verhindern und schafft außerdem die Grundlage für eine kontextbezogene Datenverwaltung. HPE Infosight kann laut HPE durch eine sich selbst verwaltende Infrastruktur und sich selbst optimierende IT die Betriebskosten um bis zu 79 Prozent reduzieren.

Jetzt erweitert HPE die Infosight-Funktionen um das Workload-Management mit den nachfolgenden Machine-Learning-Funktionen, die das Risiko und den manuellen Aufwand bei der Planung neuer Workloads verringern:

  • Cross-Stack-Empfehlungen für HPE Nimble Storage erweitern die „Recommendation Engine von HPE Infosight auf die Virtualisierungs-Ebene. Damit geht die Technik laut HPE geht weiter als die Predicitive-Analytics-Werkzeuge anderer Hersteller, indem KI-basierte Empfehlungen für die komplette IT-Infrastruktur gegeben werden, um die IT-Umgebungen zu optimieren und den besten Speicherort für die Daten zu identifizieren.
  • Ein KI-gesteuerter Ressourcenplaner hilft bei der Optimierung der Workload-Zuteilung auf Grundlage der verfügbaren Ressourcen.
  • Selbstdiagnose mithilfe von maschinellem Lernen beschleunigt die Behebung von Leistungsengpässen von 3PAR-Speichersystemen. Diese Funktion wird ausschließlich für Systeme in Kundenrechenzentren bereitgestellt und macht HPE Infosight damit auch an Standorten verfügbar, die nur begrenzten Zugriff auf die Cloud haben.

Portfolio-Erweiterungen

Außerdem gibt es folgende Erweiterungen des HPE-Storage-Portfolios:

  • Peer-Persistence-Software für HPE Nimble Storage: Sie bietet einfache, ständige Verfügbarkeit durch synchrone Replikation über mehrere Standorte hinweg mit automatischem Failover. Die Software ist für HPE Nimble Storage kostenlos verfügbar.
  • In Partnerschaft mit Cohesity kombiniert HPE die Cohesity-Software mit den eigenen Big-Data- und Speicher-Infrastrukturen und Services. Eine erweiterte Reseller-Vereinbarung, die HPE Apollo und HPE-DL-380-Server umfasst, ermöglicht es Kunden, ihr Backup und ihre Sekundärdaten in einer hybriden Cloud zu konsolidieren.
  • Die Verfügbarkeit der 10. Generation der Plattform „HPE Apollo 4200“ ist optimiert für Big-Data-Analysen und Software-basierte Scale-Out-Datenspeicherlösungen sowie andere Datenspeicher-zentrierte Workloads.
  • Intelligente Speicher As-a-Service. HPE verwaltet heute Kundendaten im Umfang von etwa 500 Petabyte im Rahmen des Storage-as-a-Service-Modells von „HPE Green Lake Flex Capacity“ auf der Basis eines Pay-per-Use-Modells im Kundenrechenzentrum. Das Backup-Angebot wird nun um die Daten-Management-Software von Veeam ergänzt.

Die Composable Infrastructure für eine hybride Cloud

Um zu verstehen, was HPE mit der „Composable Cloud“ meinen könnte, die auf der Veranstaltung vorgestellt wurde, ist eine Aussage vorwegzuschicken, die gleich mehrere HPE-Manager in verschiedenen Variationen wiederholten: „Cloud ist nicht das Ziel, sondern eine Erfahrung“. Die IT kommt für Anwender und mehr denn je auch für die Administratoren als Service daher. Die einzelnen Bestandteile einer IT-Infrastruktur sind kombinierbar und per Code ansprechbar: also „composable“, um unterschiedliche Workloads jeweils optimiert bedienen zu können.

Das Konzept einer Composable infrastructure hatte HPE bereits vor drei Jahren vorgestellt und zunächst in dem Server „Synergy“ umgesetzt. Heute stehe dieses Systeme für die „ultimative private cloud“, so Phil Davis, President Hybrid IT bei HPE. Mehr als 2200 Kunden setzten es ein und Synergy werde die erste Technik sein, die schon bald die Milliarde-Grenze bezüglich Umsatz sprengen werde.

Nun stellt das Unternehmen eine „Composable Cloud-Plattform“ vor sowie die „HPE Simplivity mit Composable Fabric“. Die Composable Cloud Plattform soll mit offenen Schnittstellen ausgestattet sein und einen Hybrid-Betrieb ermöglichen. Mithilfe des integrierten Software-Stack können Unternehmen auf Public und Private Clouds zugreifen. Das Versprechen dabei: Sie sollen dabei von derselben Geschwindigkeit, Effizienz und Wirtschaftlichkeit profitieren, die sie von Public-Cloud-Anbietern gewohnt sind.

Auch hier spielt HPE Infosight eine wesentliche Rolle, KI-gesteuerter Betrieb, die neuen Speicherfunktionen und ein Fabric-Netzwerk, das speziell für diese Composable-Umgebungen entwickelt wurde. Zur Auswahl an IT-Infrastrukturbausteinen befinden sich erstmals auch Rack-Server: „HPE Composable Cloud for ProLiant DL“ sowie „HPE Composable Cloud for Synergy“.

Das Fabric-Netzwerk wird von „HPE Oneview“ als Ressource verwaltet. Das kann die Netzwerk-Infrastruktur massiv vereinfachen, somit die Kosten senken und die operative Effizienz verbessern.

Die Composable Fabric im gesamten Datacenter

Ursprünglich wurde Composable Fabric als Teil von HPE Synergy angekündigt, doch jetzt ist die Plattform für das gesamte Rechenzentrum verfügbar. Si soll es Unternehmen IT-Abteilungen ermöglichen, auch ohne spezifisches Netzwerk-Know-how wie ein Hyperscaler zu agieren. Denn die Composable-Fabric-Funktion auf dem HPE-Proliant-DL-Server macht die Vernetzung von Rechenzentren wesentlich einfacher, weil sie das Netzwerk selbst konfiguriert und ein dynamisches Workload Balancing ermöglicht. Damit erhöht sie die Leistung und reduziert laut HPE die Überprovisionierung um bis zu 70 Prozent.

Eine der Voraussetzungen, die jegliche IT als Service ermöglichen sollen in hybrigen Umgebungen ist für HPE die „Composable Infrastrcture “, deren Möglicheikeiten das Unternehmen durch neue Funktionen erweitert hat; nun gibt es das Prinzip der Zusammensetzbarkeit der Ressourcen auf Rack-Ebene und mithilfe von „Onesphere“ auf Cloud-Ebene.
Eine der Voraussetzungen, die jegliche IT als Service ermöglichen sollen in hybrigen Umgebungen ist für HPE die „Composable Infrastrcture “, deren Möglicheikeiten das Unternehmen durch neue Funktionen erweitert hat; nun gibt es das Prinzip der Zusammensetzbarkeit der Ressourcen auf Rack-Ebene und mithilfe von „Onesphere“ auf Cloud-Ebene.
(Bild: HPE)

Mit HPE Composable Cloud for Proliant DL können IT-Administratoren ihre Infrastruktur in Echtzeit skalieren, ohne über spezielle Netzwerkkenntnisse zu verfügen. Sie können Clouds und Workloads in Minutenschnelle kombinieren und die Nutzung und die Kosten von lokalen und Public-Cloud-Ressourcen einheitlich verwalten. Die Lösung ist optimiert für Cloud-native Workloads und Rack-Scale-Umgebungen mit Template-basierter Automation. Sie vereinfacht die Bereitstellung von Cloud-Stacks und automatisiert den Lebenszyklus, wobei sie zunächst „Red Hat OpenShift“ und VMware unterstützt.

Die Lösung integriert Schlüsselkomponenten aus HPEs Software-Portfolio:

  • Eingebaute künstliche Intelligenz der Infosight-Software mit Predictive Analytics und kontinuierlichem Lernen zur Optimierung der Umgebung
  • Software-definiertes Infrastruktur-Management und Workflow-Automatisierung mit HPE Oneview, so dass die IT-Abteilung innerhalb weniger Minuten private Clouds aufsetzen und skalieren kann
  • APIs und ein umfangreiches Partner-Ökosystem, das es Unternehmen ermöglicht, eine große Zahl von Anwendungen, Containern, Cloud-Stacks und Werkzeugen einfach zu integrieren
  • HPE Onesphere, eine SaaS-Management-Lösung für hybride Clouds, bietet Kosten- und Nutzungstransparenz sowie Compliance für sämtliche Clouds der Kunden. Neue Funktionen für HPE Onesphere ermöglichen es Unternehmen zudem, Bare-Metal-Ressourcen als Service automatisch bereitzustellen. Allerdings ist HPE Onesphere aktuell nur in den Vereinigten Staaten, Großbritannien und Irland verfügbar. Im Laufe des nächsten Jahres soll das Angebot auf weitere Länder ausgeweitet werden.

HPE Composable Cloud für Proliant-DL-Rack-Server wird im Laufe des ersten Quartals 2019 zunächst in den USA, Großbritannien, Irland, Frankreich, Australien und Deutschland verfügbar sein.

HPE Composable Cloud for Synergy

HPE Composable Cloud for Synergy bietet die notwendige Flexibilität und Leistung, um jeden Workload in einer privaten oder hybriden Cloud-Umgebung zuverlässig zu betreiben. Die Plattform bietet eine einfache, automatisierte Verwaltung und unterstützt sowohl Workloads wie SAP und Oracle als auch Cloud-native Anwendungen oder gemischte Workloads.

Die modulare Architektur von HPE Synergy bietet zudem ein hohes Maß an Flexibilität durch eine große Auswahl an Netzwerkverbindungen und Speicheroptionen. Darüber hinaus ist der „HPE Synergy Image Streamer“ eine Plattform, um die DevOps-Prozesse der Kunden zu beschleunigen. Damit kann die IT-Abteilung sehr schnell neue Infrastrukturen mit einer Vielzahl von Tools wie Chef, Ansible, Puppet und VMW bereitstellen.

Mit der Unterstützung und der Expertise von HPE Pointnext Advisory und Professional Services können Kunden die für sie richtige Mischung aus IT-Umgebungen für ihre hybriden Clouds bestimmen. Mit den flexiblen Verbrauchsmodellen von HPE Green Lake und HPE Financial Services können sie zudem Kosten sparen.

Das hyperkonvergente System mit Composable Fabric

Zusätzlich erweitert HPE auch sein hyperkonvergentes System HPE Simplivity mit Composable Fabric. Somt werden softwaredefinierte Netzwerke integriert und die Leistungs- und Management-Anforderungen verteilter Anwendungen verbessert. Nach HPE-Angaben handelt es sich um ein hyperkonvergentes Angebot, das entwickelt wurde, um Server, Storage und Netzwerke Ende-zu-Ende zu automatisieren – verwaltet über eine einzige Benutzeroberfläche. Daraus ergeben sich folgende Vorteile für die IT:

  • Vereinfachung: Einfache und automatisierte Betriebsabläufe über eine einzige Benutzeroberfläche machen spezielle Fachkenntnisse für die Netzwerk- und Speicherverwaltung überflüssig. Damit können VM-Administratoren autonom handeln.
  • Skalierbarkeit: Durch die Bündelung von Netzwerkressourcen und die Skalierung innerhalb und zwischen den Racks können Unternehmen DevOps beschleunigen, ohne den Betrieb zu stören.
  • Leistung: Die neue Composable Fabric strafft die die Verbindung zwischen Netzwerken und Workloads und macht es damit einfacher, die Workloads innerhalb der Infrastruktur optimal zu verteilen.
  • Kosten: Die Mesh-Struktur der Composable Fabric ist kosteneffizienter als alternative Architekturen.

HPE Simplivity mit Composable Fabric wird noch im Dezember 2018 in den USA, Großbritannien, Irland, Frankreich, Australien und Deutschland verfügbar sein.

(ID:45646044)

Über den Autor

 Ulrike Ostler

Ulrike Ostler

Chefredakteurin, DataCenter-Insider