Technik, die überlebt und das Überleben von Datacenter sichert Das eigene Rechenzentrum als Bestandteil der Cloud

Von Anna Kobylinska und Filipe Martins* Lesedauer: 9 min |

Anbieter zum Thema

Die Cloud ist weder ein Ort noch strikt ein bloßes Betriebsmodell: Sie ist vielmehr eine Denkweise mit enormen IT-architektonischen Implikationen. Sie hat das Zeug dazu, verteilte IT-Infrastrukturen unter einen Hut zu bringen und gemeinsam zu orchestrieren. Da will jede/r mit dabei sein.

Mit welchen Techniken und Technologien wird das eigene Rechenzentrum zum Bestandteil einer (Multi-)Cloud-Infrastruktur?
Mit welchen Techniken und Technologien wird das eigene Rechenzentrum zum Bestandteil einer (Multi-)Cloud-Infrastruktur?
(Bild: frei lizenziert: cliff1126, KI-generiert / Pixabay)

Analysten von Gartner zufolge steht der Datacenter-Branche eine signifikante Verschiebung in der Verwaltung von Infrastrukturen bevor. Bis zum Jahre 2027 sollen rund 35 Prozent dieser Infrastrukturen von einer Cloud-basierten Steuerungsebene heraus verwaltet werden, im Vergleich zu weniger als 10 Prozent im Jahr 2022. Diese Entwicklung spiegelt den wachsenden Trend zur Cloudifizierung und Automatisierung in der IT-Branche wider.

Die Vorteile einer Cloud-basierten Steuerungsebene sind vielfältig. Sie bietet eine zentralisierte, skalierbare und flexible Plattform für das Management von Ressourcen, die sich von Kern-Rechenzentren bis hin zur Edge erstrecken. Mit dieser Schlüsseltechnologie können Unternehmen ihre Betriebskosten senken, die Effizienz steigern und schneller auf Marktveränderungen reagieren.

Die „Cloudifizierung“ von IT-Infrastrukturen wird unter anderem auch durch die zunehmende Komplexität der IT-Landschaften getrieben. (Siehe hierzu auch: Loki und StarlingX: Der Kanon für „cloudifizierte“ Infrastrukturen).

IoT und KI

Mit der zunehmenden Ausbreitung von IoT-Anwendungen wächst sowohl die Bedeutung von KI und ML als auch die Notwendigkeit für die Datenanalyse in Echtzeit; das Management der resultierenden verteilten Umgebung ruft mit seinen vielfältigen Herausforderungen eine zentralisierte Steuerungsebene auf den Plan. Sie schafft Übersicht und bietet mehr Kontrolle über die gesamte Infrastruktur, was die Implementierung von Sicherheits- und Compliance-Richtlinien erleichtert.

In diesem Kontext gilt die Übernahme einer Cloud-basierten Steuerungsebene als eine Schlüsselentscheidung, die verteilte Infrastrukturen zu einer einzigen Einheit verbindet und dem Rechenzentrum den Weg in die Zukunft ebnet. (Siehe hierzu auch das eBook, „Das Rechenzentrum zwischen Cloud und Edge“).

Rechenzentren schrumpfen vor Ort und migrieren stattdessen zu plattformbasierten Co-Location-Anbietern hinaus. Die Cloudifizierung der Unternehmens-IT kann in Kombination mit neuen As-a-Service-Modellen für die physische Infrastruktur eine Cloud-ähnliche Service-Orientierung und neue Modelle der Monetarisierung der Infrastruktur vor Ort bringen.

Gartner empfiehlt I&O-Fachleuten, sich auf den Aufbau Cloud-nativer Infrastrukturen innerhalb ihres Rechenzentrums zu fokussieren, die Migration von Arbeitslasten von eigenen Einrichtungen zu Co-Location-Einrichtungen zu meistern, zur „cloudifizierten“ Edge hinauszuwachsen und die Einführung von As-a-Service-Modellen für die physische Infrastruktur ins Visier zu nehmen.

Edge-Clouds auf dem Vormarsch

Cloud-Infrastrukturen erstrecken sich weit über das traditionelle Kernrechenzentrum hinaus, neuerdings bis an die Edge. Die Infrastrukturen eines Kern-Datacenter verdanken ihre Skalierbarkeit einem leistungsstarken Konnektivitätsgewebe und fortgeschrittenen Virtualisierungstechnologien, die eine effiziente Ressourcennutzung ermöglichen. Sie fungieren als zentrale Knotenpunkte der Datenverarbeitung und -speicherung in einer Topologie, in der ein Teil der Rechenaufgaben näher an den Ort der Datenerzeugung oder des Datenverbrauchs verlagert wird: an die Edge.

Mit dem Aufkommen der Notwendigkeit, Daten aus verteilter Sensorik nicht nur näher am Entstehungsort, sondern nahezu unfehlbar mit garantierter Latenz zu verarbeiten, gewinnt die Cloudifizierung der Edge an Bedeutung. Insofern erweitern Edge-Clouds das Cloud-Computing-Modell auf Edge-Infrastrukturen. Im Gegensatz zu zentralisierten Cloud-Rechenzentren, die mit einem erheblichen Fußabdruck in der Ferne trumpfen, stellen Edge-Clouds ihre beschränkten Ressourcen in Form als Cloud-Dienste in der unmittelbaren Nähe der Endgeräte und Datenverbraucher bereit.

eBook: Das Rechenzentrum zwischen Cloud und Edge - Wie verteile ich mein Enterprise?

RZ zwischen Cloud und Edge
eBook: RZ zwischen Cloud und Edge

Mit einer prognostizierten Vernetzung von 150 Milliarden Geräten bis zum Jahr 2025 stehen Unternehmen vor der Herausforderung, Daten nahezu in Echtzeit zu verarbeiten. Diese Veränderung verlangt eine Neuausrichtung in der Art und Weise, wie wir Technologien nutzen und Daten verwalten.
Unternehmen müssen diesen Wandel gestalten. Denn die Verarbeitung von Daten direkt an der Netzwerkkante kann den Wert ihrer Daten maximieren und Entscheidungen in Echtzeit beeinflussen.

So lauten die Kapitel des eBooks:

  • Geschickte Umverteilung von Compute-Ressourcen
  • SD-WAN: Konnektivität zwischen verteilten Standorten
  • Mit Co-Location zu mehr Nachhaltigkeit
  • SASE: die Konvergenz von Konnektivität und Sicherheit
  • Cloud und Edge: Mit dem passenden Mix die Zukunft erfolgreich meistern

>>> eBook „Das Rechenzentrum zwischen Cloud und Edge“ zum Download

Die Cloudifizierung verteilter IT-Infrastrukturen geht mit einer verstärkten Virtualisierung einher.

Da Rechenressourcen überall platziert werden können, muss softwaredefinierte Konnektivität her, das so genannte SDN (Software-Defined Networking), um den Netzwerkverkehr in Clustern virtueller Maschinen und Containern zu optimieren. Diese Notwendigkeit hat eine Verschiebung von der traditionellen Drei-Schicht-Switch-Architektur mit einem Nord-Süd-Datenverkehrsmuster zu neueren Leaf-Spine-Switch-Fabric-Architekturen nach sich gezogen, die den Ost-West-Verkehr ermöglichen und niedrigere Latenzzeiten fördern.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Cloudifizierte Konnektivität: von Spine-Leaf zu Super-Spine

Das Aufkommen verteilter und containerisierter (also portabler) Arbeitslasten mit Appetit auf Daten hat den Wechsel von der traditionellen dreischichtigen Switch-Architektur im Nord-Süd-Datenverkehrsmuster zu Cloud-freundlichen zweischichtigen Fabric-Architekturen im Leaf-Spine-Modell erzwungen. In einer Leaf-Spine-Architektur ist jeder Leaf-Switch mit jedem Spine-Switch verbunden. Dies reduziert die Anzahl der Hops, die der Ost-West-Verkehr zwischen virtualisierten Servern durchqueren muss, was sich in einer deutlich geringeren Latenz widerspiegelt. Gleichzeitig steigt die Redundanz und Widerstandsfähigkeit des Netzwerks.

In der Super-Spine-Architektur glänzt durch modulare Erweiterbarkeit.
In der Super-Spine-Architektur glänzt durch modulare Erweiterbarkeit.
(Bild: Siemon)

Große Cloud-Rechenzentren verbinden mehrere Spine-Leaf-Netzwerke über Spine-Switches der zweiten Ebene miteinander. Diese so genannte Super-Spine-Architektur kann separate Funktionsbereiche (manchmal als Pods oder Halls bezeichnet) wie auch mehrere verteilte Rechenzentrumsstandorte über Datenzentren-Interconnects (DCIs) miteinander verbinden.

Die Superspine-Architektur fördert die Kommunikation zwischen den Arbeitslasten in den so verschalteten verteilten Datacenter-Infrastrukturen, was den Bedarf an Bandbreite in diesen Umgebungen weiter in die Höhe treibt. Da sich jedes angebundene Netzwerk mit geringem Aufwand replizieren lässt, ist die Super-Spine-Architektur dank dieser Modularität und der schnellen Inbetriebnahme auch noch hoch skalierbar. Dies begünstigt das Wachstum jener Betreiber, die ihre Rechenzentren auf diese Art und Weise „cloudifiziert“ haben.

In einer Spine-Leaf-Architektur ist jeder Leaf-Switch mit jedem Spine-Switch verbunden, um die Anzahl der Hops (den Verbindungen zwischen Switches) zu minimieren, die der Datenverkehr zwischen virtualisierten Servern durchqueren muss. Dies verringert die Latenz erheblich und bietet gleichzeitig ein höheres Maß an Redundanz wie hier in der Abbildung, wo Server A mit Server B „reden“ muss
In einer Spine-Leaf-Architektur ist jeder Leaf-Switch mit jedem Spine-Switch verbunden, um die Anzahl der Hops (den Verbindungen zwischen Switches) zu minimieren, die der Datenverkehr zwischen virtualisierten Servern durchqueren muss. Dies verringert die Latenz erheblich und bietet gleichzeitig ein höheres Maß an Redundanz wie hier in der Abbildung, wo Server A mit Server B „reden“ muss
(Bild: Siemon)

Dieselbe Superspine-Architektur bewährt sich auch außerhalb des Kern-Datacenter: an der Edge.

Um aufkommende Echtzeit-lastige, latenzempfindliche, cloud-native Anwendungen zu unterstützen, müssen Edge-Rechenzentren blitzschnell, wie Pilze aus dem Boden sprießen können: in der Nähe von Endgeräten und -Benutzern an Kundenstandorten der Industrie 4.0, an Mobilfunk-Zugriffspunkten, in Büros, in regionalen Co-Location-Rechenzentren und wo auch immer sonst es Bedarf gibt.

Diese Edge-Rechenzentren müssen miteinander vernetzt sein, um Daten auszutauschen. Da sich jedes vernetzte Netzwerk in einer Superspine-Architektur modular replizieren lässt, hat diese Architektur mit ihrer blitzschnellen Inbetriebnahme den Vorteil massiver Skalierbarkeit – nahezu im Gleichschritt mit der explosionsartigen Nachfrage nach cloudbasierten Diensten an der Edge. Dieses dynamische Wachstum von Edge-Computing treibt auch nebenbei den Bedarf nach 400 Gigabit starker Konnektivität voran, um aggregierte Daten „nach Hause zu schicken“, ob an das traditionelle oder an das „cloudifizierte“ Kern-Datacenter.

Auf und davon: „Cloudifizierte“ Konnektivität mit 400G und darüber hinaus

Während viele Unternehmensrechenzentren gerade erst anfangen, 100 Gigabit-Geschwindigkeiten für ihre Switch-Uplinks zu implementieren, sind die Industriestandards und aktiven Geräte für 400 Gigabit-Anwendungen bereits auf dem Markt. Auf diese Technologien stürzen sich vor allem die großen Cloud-Hyperscaler wie Google, Microsoft oder Facebook, die auch die technologische Entwicklung vorantreiben. Diese Unternehmen arbeiten bereits an Geschwindigkeiten von bis zu 800 Gigabit und entwickeln Faseroptiktechnologien für zukünftige Geschwindigkeiten von 1,6 und 3,2 Terabit, die – wohl oder übel – den Markt für alle anderen mitgestalten werden.

Den Bedarf an höherer Bandbreite treibt eine Reihe von Faktoren an. Die globale Digitalisierung und der damit verbundene Anstieg des Datenverkehrs, Cloud-native Anwendungen mit datenhungrigen Technologien wie Virtual Reality (VR), Internet der Dinge (IoT), Künstliche Intelligenz (KI) und Maschinelles Lernen (ML), setzen zwingend höhere Bandbreiten und niedrigere Latenzzeiten voraus.

Mit Blick auf künftige Anforderungen und die bereits absehbaren Standards für Konnektivität der Zukunft müssen auch aspirierende Cloud-Betreiber bereits heute die verfügbaren Upgrade-Pfade unter die Lupe nehmen und auch mal „über den Tellerrand“ von 400G hinausgucken. Denn ihre heutigen Entscheidungen werden ihre künftigen Freiheitsgrade fördern oder wesentlich hindern. Auch andersherum wird ein Schuh draus: Zukunftssichere Cloud-artige Konnektivität kann Flexibilität schaffen.

Software-Defined und mit vielen Blättern

In Bezug auf die Architektur der Konnektivität findet gerade eine Flexibilisierung statt: der Wandel von der traditionellen Drei-Tier-Architektur zu Leaf-Spine-Architekturen. Mit dem Aufkommen von Edge-Clouds hält jetzt die modulare Super-Spine-Architektur in verteilte Infrastrukturen Einzug: Sie flexibilisiert das Edge-Computing und „cloudifiziert“ das Kernrechenzentrum im Turbo-Modus.

Groß angelegte Umrüstungen der Konnektivität sind für Rechenzentren nichts Neues. Ein wesentlicher Aspekt von Netzwerk-Upgrades ist bekannterweise die Wahl der Fasertypen. Singlemode-Fasern bieten in der Regel mehr Flexibilität für zukünftige Upgrades auf höhere Geschwindigkeiten und längere Distanzen, können jedoch anfangs teurer sein. Multimode-Fasern sind oft kostengünstiger für kürzere Distanzen, könnten aber bei zukünftigen Upgrades auf höhere Geschwindigkeiten Einschränkungen mit sich bringen.

Unternehmensrechenzentren und Cloud-Rechenzentren befolgen derzeit bei der Aufrüstung ihrer Netze sehr unterschiedliche Pfade, beobachtet Gary Bernstein, ein Global Data Center Specialist bei Simeon. Er argumentiert, dass sich die beiden Arten von Rechenzentren in den vergangenen Jahren sehr stark „auseinandergelebt“ hätten und man könne sie folglich nicht mehr über einen Kamm scheren. Deswegen gibt es für die Umstellung auf 400/800G bisher auch kein Universalrezept.

Während Unternehmensrechenzentren gerade erst damit beginnen, 100-Gigabit-Geschwindigkeiten für Uplinks zu übernehmen, sind die Hyperscaler bereits bei 400 Gigabit und 800 Gigabit angekommen und tüfteln auch schon an optischen Fasern, die künftig 1,6 und 3,2 Terabit ermöglichen dürften. Die Industriestandards sind nicht weit hinterher.

Cloud-Rechenzentren „fahren“ in ihrer „Optik“ vorzugsweise eingleisig: hauptsächlich auf Einmodenfasern (Singlemode). Im Gegensatz dazu setzen Unternehmensrechenzentren mit ihren geringeren Bandbreitenanforderungen überwiegend auf Multimode-Fasern, da diese für kürzere Distanzen und geringere Bandbreitenanforderungen ausreichen.

Mit den richtigen Transceiver-Modulen kommt man über mehrere Spuren auf die gewünschten Geschwindigkeiten.
Mit den richtigen Transceiver-Modulen kommt man über mehrere Spuren auf die gewünschten Geschwindigkeiten.
(Bild: Simeon)

Multimode-Fasern sind in der Regel kostengünstiger in der Anschaffung und einfacher zu installieren, da sie weniger empfindlich gegenüber Einkopplungsfehlern sind und kostengünstigere LEDs (Leuchtdioden) oder VCSELs (Vertical-Cavity Surface-Emitting Lasers) für die Signalübertragung verwenden können. Laut Bernstein könnte dieser Trend jedoch kippen.

Mit der Entwicklung der 400GBASE-SR4 Parallel-Optik-Anwendung, die auf 8-Faser-Multimode-Fasern setzt, könnte Multimode für Unternehmen wieder attraktiver werden, da diese Technologie die Notwendigkeit für teurere SWDM-Technologien und OM5-Multimode-Fasern eliminiert. Für Organisationen, die eine hohe Flexibilität und zukünftige Upgradefähigkeit schätzen, ist es ratsam, diese Faktoren sorgfältig zu berücksichtigen, wenn sie Entscheidungen über ihre aktuelle 400G-Strategie treffen.

PAM4

Auf der technologischen Seite gibt es mehrere Fortschritte, die höhere Geschwindigkeiten ermöglichen. Dazu gehört das PAM4-Signalschema, das eine effizientere Datenübertragung ermöglicht. Einen solchen bedeutenden Fortschritt stellt die Entwicklung des Vierpegel-Pulsamplitudenmodulations-Schemas (PAM4) dar.

PAM4 unterstützt die doppelte Bitrate im Vergleich zu NRZ (Nicht-Rückkehr-zu-Null, Engl. non-return-to-zero) und ermöglicht so satte 25, 50 und 100 Gbps pro Spur. Dies schafft einen effizienteren Migrationspfad – konkret 25-zu-50-zu-100-zu-200-zu-400-zu-800 Gigabit – und reduziert den „Overkill“ der sonst erforderlichen Infrastruktur.

So erfordert beispielsweise eine gerade einmal 40-Gigabit starke 40GBASE-SR4-Implementierung unter Verwendung von NRZ-Encoding satte acht Fasern. Vier von diesen Fasern übertragen Daten mit einer Geschwindigkeit von jeweils 10 Gbps, während die verbleibenden vier Fasern Daten mit derselben Geschwindigkeit empfangen. Im Gegensatz dazu bringt es die PAM4-Signalübertragung mit wahlweise 50 Gbps oder 100 Gbps pro Spur über ebenfalls 8 Fasern auf bemerkenswerte 200 Gigabit oder 400 Gigabit.

Dank steckbarer Transceiver-Module

Auch die Transceiver-Technik ist nicht stehen geblieben. Der Sprung von steckbaren Transceiver-Modulen mit der NRZ-Signalübertragung brachte es von einer Geschwindigkeit von 10 Gb/s pro Spur auf 50 Gb/s pro Spur mit PAM4. Die neuesten steckbaren Transceiver-Module QSFP-DD und OSFP sind 8-spurige 50 Gb/s-Module, die vor 400 Gigabit keinen Halt machen.

Der Markt kann mittlerweile mit mehreren Transceivern für verschiedene Anwendungen mit Multimode- und Singlemode-Technologien auf Basis der QSFP-DD- und OSFP-Bauformen auftrumpfen. Diese steckbaren Transceiver-Module mit Faserverkabelung und -verbindung bieten die Flexibilität unterschiedlicher Übertragungsgeschwindigkeiten und mit Freiheitsgraden hinsichtlich der Weiterverwendung vorhandener Hardware.

Doch damit nicht genug. Nicht zuletzt sind ja auch die Kosten für Singlemode-Optiken aufgrund der hohen Nachfrage der Hyperscaler auf Talfahrt, was sie zu einer kosteneffektiven Lösung auch für Betreiber mit kleineren Skaleneffekten macht.Die IEEE Beyond 400 Gb/s Ethernet Study Group feilt ja auch bereits an Standards für 800 Gigabit/s, 1,6 Terabit/s und 3,2 Terabit/s.

*Das Autorenduo

Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA). Das Fazit der beiden lautet: „Wer auf lange Sicht auf Flexibilität einen hohen Wert legt, muss die Entscheidung über künftige Upgrade-Pfade zu Standards wie 800G, 1,6T und 3,2T bei aktuellen Upgrades vorausschauend schon mal im Blick behalten. Denn die Entscheidungen in Bezug auf den Migrationspfad zu 400G legen schon heute die künftigen Upgrade-Pfade fest.“

(ID:49697559)