Skalierung ohne Ende!

Was ist ein Hyperscaler?

| Autor / Redakteur: Otto Geißler / Ulrike Ostler

Hyperscaler sind nicht immer eine preiswerte Lösung, um anspruchsvolle Aufgaben zu realisieren.
Hyperscaler sind nicht immer eine preiswerte Lösung, um anspruchsvolle Aufgaben zu realisieren. (Bild: © djama - stock.adob.com)

Hyperscaler sind Systeme, die durch Cloud-Computing entstehen, indem sie durch Tausende oder gegebenenfalls Millionen von Servern in einem Netzwerk (Grid Computing) verbunden und erweiterbar sind. Damit ist ein Netzwerk von Big Data gemeint, das hohe Zugriffe und fluktuierende Nutzung gleichermaßen ausgleichen kann.

Mit Hyperscalern soll eine massive Skalierung erzielt werden, die meist für Big Data oder Cloud Computing erforderlich ist. Solche Hyperscale-Infrastrukturen zielen auf eine horizontale Skalierbarkeit ab, mit der ein Maximum an Leistung, Durchsatz und Redundanz aufgebaut werden kann. Gleichzeitig sorgen sie für Fehlertoleranzen und einer Hochverfügbarkeit.

So sind Hyperscale-Server im Grunde das Gegenteil einer Virtualisierung. Während es sich bei den Hyperscale-Servern um jeweils sehr kleine einfache Systeme handelt, die auf einen bestimmten Zweck genau abstimmt sind, dreht es sich bei der Virtualisierung um einen eher großen physischen Server, auf dem eine Vielzahl unterschiedlicher virtueller Maschinen laufen, die ein sehr breites Anwendungsspektrum abdecken.

Einfache Server-Strukturen

Die Server sollen für den Hyperscale-Bereich idealerweise so einfach wie möglich strukturiert sein, damit sie je nach Bedarf schnell skalierbar sind. Darüber hinaus ist eine Software-basierte einfache Verwaltung mit schnellen Updates von Bedeutung. Dazu gehört aber auch eine hohe Server-Dichte bei gleichzeitig geringem Energieverbrauch, geringem Platzbedarf und einer optimale Kühlung.

Vermieden werden sollten teure Management-Tools, redundante Hardwarestrukturen, Enterprise-Speichertechnologien und ältere Vorgängersysteme. Vor allem sollten die Bereiche Server, Storage und Networking für die jeweiligen Anforderungen wie zum Beispiel Datenanalyse oder Web-Serving optimiert werden. Wobei der Aufbau separater Architekturen für spezielle Aufgaben weder hinsichtlich der Bewertung der Investitionskosten (CapEx), der Betriebskosten (OpEx) oder anderer ähnlicher Koeffizienten wirtschaftlich effizient ist.

Zu den großen Hyperscalern gehören im Allgemeinen die vier großen Cloud-Anbieter IBM, Amazon, Microsoft und Google. Damit sind die Produkte Amazon Web Services (AWS), Microsoft Azure und die Google Cloud Platform gemeint, die zusammen rund 75 Prozent des Gesamtmarktes bei Public-Cloud-Angeboten abdecken. Große Organisationen und Unternehmen beauftragen häufig die Dienste von mehr als einem Public-Cloud-Anbieter.

Historie der Hyperscaler

Ein Pionier dieser Hyperscaler ist der Handelskonzern Amazon mit seinen AWS, die im Jahre 2006 als Tochterunternehmen an den Markt gingen. Dies geschah, weil der Internethändler einerseits die hauseigenen, global verteilten Data Center besser auslasten und damit auch noch Umsatz generieren wollte. Mittlerweile bietet AWS über 90 Services aus dem Bereich Big Data, Datenverarbeitung und –speicherung, Internet of Things (IoT), künstliche Intelligenz (KI) und Virtual Desktop Infrastructure (VDI). Die AWS-Cloud setzt sich mit steigender Tendenz aus über 40 Verfügbarkeitszonen in über 15 Regionen zusammen. Die genaue Zahl der Data Center wird von AWS nicht publiziert. Aktuell ist AWS der weltweite Marktführer unter den Hyperscalern und hält einen Marktanteil von rund 40 Prozent.

Was spricht für Hyperscale-Computing?

Hyperscale-Lösungen bieten für Organisationen und Unternehmen oftmals die ideale oder auch einzige Möglichkeit zur Realisierung von definierten Unternehmenszielen wie zum Beispiel das Angebot von Services für das Cloud-Computing. So sind Hyperscaler in der Regel auch die preiswerteste Lösung, um anspruchsvolle Aufgaben zu realisieren. Durch ihre Skalierbarkeit und Computing-Dichte kann sich eine Hyperscale-Lösung von der ökonomischen Perspektive aus gesehen für ein Big-Data-Analyseprojekt am besten qualifizieren.

Denn der Nutzer erhält zu wägbaren Kosten eine extrem flexible und anpassungsfähige Infrastruktur, die sich wegen ihrer dezentralen Struktur sowohl hinsichtlich der Kapazität als auch für spezielle Workloads jederzeit erweitern lässt. Der niedrige Koeffizient der Total Cost of Ownership (TCO) ergibt sich daraus, dass Hyperscale-Data Center häufig mit kostengünstigen Standardkomponenten ausgestattet sind und auf Grund der Infrastrukturen für große Datenvolumina nicht mehr Platz, Klimatechnik oder Strom erforderlich ist.

Sofern ein Anwender Cloud-Services von mehr als einem Hyperscaler in Anspruch nimmt, vermeidet die klassische Abhängigkeit von einem einzelnen Anbieter. Gleichzeitig vergrößert er nochmals die ohnehin schon sehr hohe Skalierbarkeit. Zudem können Unternehmen bei einer Anbindung an mehrere Hyperscaler je nach Bedarf den für sie ideal passenden Cloud-Service auswählen. Auf diese Weise bleiben Unternehmen extrem flexibel, um auf sich ändernde Marktkonstellationen schnell und kosteneffizient reagieren zu können.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45179305 / Definitionen)