Wenn Storage, Networking und Compute zusammenwachsen sollen

Das konvergente Datacenter ist kein Selbstläufer

| Autor / Redakteur: Bernd Reder / Ulrike Ostler

So mancher Anwender zeigt sich erstaunlich resistent gegenüber den Kosten-, und Zeiteinsparungsversprechen der Hersteller, die konvergente und hyperkonvergente Systeme für Rechenzentren begleiten. Berechtigt oder unberechtigt?
So mancher Anwender zeigt sich erstaunlich resistent gegenüber den Kosten-, und Zeiteinsparungsversprechen der Hersteller, die konvergente und hyperkonvergente Systeme für Rechenzentren begleiten. Berechtigt oder unberechtigt? (Bild: gemeinfrei - NiceChild90/Pixabay / CC0)

Alles konvergent im Rechenzentrum. Wenn es denn so einfach wäre. Nutzer sehen zwar die Vorteile von Converged- und Hyperconverged-Systemen. Mit der Umsetzung entsprechender Projekte tun sich jedoch etliche Betreiber von Datacentern schwer.

Betrachtet man die Marktentwicklung bei Hyperkonvergenz-Systemen für Rechenzentren, ist auf den ersten Blick alles gut. So geht das Marktforschungshaus Gartner davon aus, dass alleine der weltweite Umsatz mit hyperkonvergenten integrierten Lösungen (HCIS) 2018 bei etwa 4 Milliarden Dollar liegt. Bis 2021 soll er die Marke von 11 Milliarden Dollar erreichen.

Die Umsatzverteilung bei integrierten und converged Systemen: Lösungen für eine Hyperconverged Infrastructure (HCIS) sind noch eine junge Sparte, weisen aber laut Gartner Zuwachsraten von 48 Prozent auf.
Die Umsatzverteilung bei integrierten und converged Systemen: Lösungen für eine Hyperconverged Infrastructure (HCIS) sind noch eine junge Sparte, weisen aber laut Gartner Zuwachsraten von 48 Prozent auf. (Bild: Gartner)

Unberücksichtigt sind bei diesen Zahle die Umsätze mit integrierten Infrastruktur-Systemen, die Server, Storage und Netzwerk-Hardware mit einer Management-Software kombinieren. Gleiches gilt für integrierte Referenzarchitekturen und Plattformen.

Doch offenkundig müssen die Anbieter noch in erheblichem Maße Überzeugungsarbeit leisten und ihre Lösungen optimieren, um ihre Kunden zu zufriedenzustellen. So ergab eine Studie des Online-Portals „SDxCentral“, dass ein beträchtlicher Teil der IT-Abteilungen davor zurückschreckt, in ihren Rechenzentren konvergente und hyperkonvergente Systeme zu implementieren.

Etliche Nutzer zögern

Das hat mehrere Ursachen. Sie reichen von unzureichenden Informationen über die unterschiedlichen Ansätze und Produkte (19 Prozent) über zu kleine IT-Budgets (ebenfalls 19 Prozent) bis hin zu Zweifeln darüber, welche Vorteile eine solche Infrastruktur eigentlich bringt.

Hinzu kommen Bedenken, was die Tragfähigkeit der Technik hinter Convergence respektive Hyperconvergence betrifft. Ein Zehntel der IT-Fachleute bemängelt eine unzureichende Integration der Bestandteile solcher Systeme. Etwa ebenso viele sind exakt der gegenteiligen Meinung: Ihnen ist der Ansatz eines „Converged Datacenter“ nicht modular genug. Deshalb sei es schwierig, bei Bedarf sukzessive Server-Kapazitäten sowie Storage- und Netzwerk-Komponenten hinzuzufügen. Vielmehr sind Nutzer gezwungen, das Komplettpaket zu erweitern, auch dann, wenn sie beispielsweise keine weiteren Server-Kapazitäten benötigen.

Ein Drittel verweigert ein Converged Datacenter

Allerdings sieht die Bilanz unter dem Strich nicht gar so düster aus. SDxCentral zufolgen setzen immerhin bereits 40 Prozent der befragten Unternehmen bereits Converged-Lösungen in ihrem Rechenzentrum ein. Darin eingeschlossen sich jedoch auch erste Gehversuche mit entsprechenden Systemen. An die 30 Prozent planen die Implementierung im laufenden Jahr.

Die Gründe, weshalb Unternehmen auf die Implementierung von konvergenten Lösungen für das Rechenzentrum verzichten.
Die Gründe, weshalb Unternehmen auf die Implementierung von konvergenten Lösungen für das Rechenzentrum verzichten. (Bild: SDxCentral)

Allerdings sind da noch die 32 Prozent, die für Konvergenz auf absehbare Zeit keine Chance in ihrem Rechenzentrum sehen. Dazu zählen zum einen Unternehmen, die weder das Geld noch das Know-how haben, um eine solche Infrastruktur einzurichten. Doch auch IT-Abteilungen, die über solche Ressourcen verfügen, gehen nach einer aktuellen Untersuchung des Beratungshauses Gartner vorsichtig an das Thema Konvergenz beziehungsweise Hyperkonvergenz heran.

Integrierte Systeme oder klassischer Ansatz

Gartner-Analyst John MacArthur zufolge setzt ein Großteil der Nutzer bei geschäftskritischen Applikationen auf einen konventionellen Ansatz – mit einer Tier-3-Rechenzentrumsarchitektur. Sie bietet nach Maßgabe des Uptime-Instituts, das diese Nomenklatur entwickelt hat, eine Verfügbarkeit von 99,98 Prozent. Das entspricht einer Ausfallzeit von 1,6 Stunden im Jahr. Nur 20 Prozent der geschäftskritischen Anwendungen werden dagegen laut Gartner bis 2020 auf eine hyperkonvergente Infrastruktur portiert.

Allerdings machen nach Erfahrungen von Gartner etliche Anwender einen Zwischenschritt - über integrierte Systeme. Sie bestehen aus Komponenten, die vom Anbieter aufeinander abgestimmt und getestet wurden. Dazu zählen Server-, Storage- und Netzwerkmodule sowie die entsprechende Software für Betrieb und Management des Systems. Der Nutzer erhält somit eine schlüsselfertige Lösung für das Rechenzentrum.

Erster Schritt: Integrierte Systeme

Solche Integrated Systems sind in mehreren Spielarten verfügbar, etwa als zertifizierte, integrierte Referenzsysteme und als entsprechende Plattformen. Referenzsysteme werden meist „nur“ zusammen mit Management-Tools ausgeliefert. Dagegen enthalten integrierte Plattformen Software-Pakete, die auf die Anforderungen des Nutzers zugeschnitten sind.

Hinzu kommen Engineering- und Support-Dienstleistungen des Herstellers oder eines seiner Vertriebspartner, etwa eines Systemhauses. Integrierte Plattformen sind deshalb insbesondere für mittelständische Unternehmen interessant, die über eine relativ kleine IT-Abteilungen verfügen.

Im zweiten Schritt verlagern Unternehmen nach den Erfahrungen von Gartner und SDxCentral Standard-Workloads auf hyperkonvergente Systeme. Zu den führenden Anbietern solcher Lösungen zählen laut Gartner Nutanix, Dell EMC, Cisco und HPE. Hinzu kommen in der Rolle der Herausforderer Anbieter wie Pivot3, Datacore und Fujitsu.

Schritt zwei: Workloads testweise auf HCI verlagern

Ein Beispiel eines hyperkonvergenten integrierten Systems ist das „HPE Synergy 12000 Frame“. Es besteht aus Servern wie dem „HPE 660 Gen10“, Storage-Modulen und Netzwerk-Komponenten (Fabric). Zudem hat HPE eine Kühlung implementiert. Management- und Datennetz sind voneinander getrennt, um die Effizienz zu erhöhen.

Zu den Besonderheiten der "Composable Infrastructure", so HPEs Bezeichnung für die Synergy-Linie, zählt, dass sich Storage- und Server-Leistung unabhängig voneinander erweitern lassen. Bei einer herkömmlichen HCI (Hyperconverged Infrastructure) läuft dies parallel. Exakt dies ist einer der Punkte, den die Teilnehmer an der Studie von SDxCentral monierten: den Mangel an Flexibilität beim Ausbau oder auch Zurückfahren einer HCI, wenn die Geschäftsanforderungen dies notwendig machen.

Ein Trend bei hyperkonvergenten Systemen ist, dass Hersteller Systeme für unterschiedliche Einsatzgebiete anbieten. So stellt Fujitsu spezielle Ausgaben seines Integrated System „Primeflex“ für „VMware Evo:Rail“, „Hadoop“ und „VMware Cloud Foundation“ bereit. Mit solchen Systemen lassen sich zumindest nach Angaben der Hersteller im Vergleich zu einer Tier-3-Architektur die Gesamtkosten eines Rechenzentrums um bis zu 45 Prozent reduzieren.

Support aus einer Hand

Ein Faktor, der auch – und gerade – bei Hyperconverged-Systemen eine Rolle spielt, ist der Support durch den Hersteller. Auf den ersten Blick mag es erscheinen, dass eine integrierte HCI aus der Hand eines Anbieters pflegeleichter ist als eine konventionelle Rechenzentrumsarchitektur mit Systemen unterschiedlicher Hersteller. Doch das kann sich als Trugschluss erweisen, so Gartner-Spezialist John MacArthur.

Er verweist darauf, dass auch eine HCI-Lösung durchaus aus Komponenten unterschiedlicher Herkunft bestehen kann. Nur wenige Anbieter von HCI-Systemen stellen alle Bestandteile selbst her: Speichersysteme, Server, Netzwerk-Fabrics, Switches und die Virtualisierungssoftware. Hier gelte es für den Nutzer, dem Support des Anbieters „auf den Zahn zu fühlen“. Speziell Nutzer von HCI-Appliances seien nicht gewillt, sich mit den Support-Abteilungen mehrerer Firmen auseinanderzusetzen, die einzelne Bestandteile des Systems bereitgestellt hätten.

Die Interoperabilität und Performance zählen zu Problempunkten, die bei der Implementierung von Converged- und Hyperconverged-Infrastrukturen am häufigsten auftreten.
Die Interoperabilität und Performance zählen zu Problempunkten, die bei der Implementierung von Converged- und Hyperconverged-Infrastrukturen am häufigsten auftreten. (Bild: SDxCentral)

Weitere Option: die Cloud

Aus Sicht von Gartner sind auch konvergente Infrastrukturen im Datacenter für einen Teil der Unternehmen nur ein Zwischenschritt. Sie wollen Workloads letztlich in Cloud-Umgebungen verlagern. Dadurch verlieren spezielle Hardware-Appliances für ein Converged Datacenter an Attraktivität.

Diese Tendenz ruft neue Anbieter im Bereich HCI auf den Plan. Dazu zählen Cloud-Service-Provider wie Microsoft. Mit Azure und Azure Stack bietet Microsoft Unternehmen die Möglichkeit, eine Hybrid-Cloud-Umgebung auf Basis der Microsoft-Cloud aufzubauen. Zwar ist auch bei Azure Stack eine Appliance die Basis, etwa von Dell EMC, Lenovo und HPE. Der Charme des Ansatzes besteht jedoch darin, Nutzern den Weg in die Public-Cloud von Microsoft zu ebnen.

Mit der Azure-Stack-Appliance sind Unternehmen in der Lage, eine private Cloud auf Basis von Azure im eigenen Rechenzentrum einzurichten. Diese lässt sich bei Bedarf zu einer Hybrid-Cloud erweitern. Eine ähnliche Strategie verfolgen im übrigen auch VMware und Nutanix.

Erfahrungen von Nutzern

Doch bevor es in Richtung Cloud geht, müssen sich Anbieter und User mit den Herausforderungen auseinandersetzen, die Converged- und Hyperconverged-Lösungen für Rechenzentren bereithalten. So hatten laut der Studie von SDxCentral mehr als 40 Prozent der Unternehmen, die solche Systeme implementierten, mit Interoperabilitätsproblemen zu kämpfen. Jeweils mehr als 30 Prozent verzeichneten eine unzureichende Performance und Schwierigkeiten mit dem Management der Infrastruktur. Dies sind Indikatoren dafür, dass Konvergenz / Hyperkonvergenz im Rechenzentrum kein „Selbstläufer“ ist, wie dies manche Anbieter behaupten.

Allerdings führt letztlich kein Weg an einer Flexibilisierung des Rechenzentrums vorbei. Alleine die Digitalisierung erfordert dies. Das bestätigen auch die Unternehmen, die bereits ein Converged Datacenter eingerichtet haben. Als Vorteile führten sie die höhere Effizienz und die Möglichkeit an, schneller neue IT-Dienste und die entsprechenden Ressourcen bereitzustellen. Auch die bessere Skalierbarkeit und der Wunsch, IT-Prozesse weitgehend zu automatisieren, werden als wichtige Faktoren genannt.

* Bernd Reder ist freier Autor und lebt in München.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45172498 / SDDC- Fujitsu Content-Hub)

Weitere Informationen erhalten Sie in folgenden Themenbereichen:

Themenspecial: SDDC Themenbereich: Big Data Analytics Themenbereich: Data Management