Verteilen ist austeilen (Ver)teile und (be)herrsche: Das verteilte Enterprise

Von Filipe Martins und Anna Kobylinska 8 min Lesedauer

Anbieter zum Thema

Digitaltransformierte Geschäftsprozesse brauchen datengetriebene Entscheidungen nahezu in Echtzeit. Dieser Bedarf nach latenzfreier Agilität begünstigt eine verteilte Anwendungsbereitstellung. Dabei lautet die Devise: Dort rechnen, wo man Zeit gewinnt. Schön, aber wie soll das gehen? Wie verteilt man ein Enterprise?

Das verteilte Enterprise ist erstrebenswert, aber keineswegs ohne Tücken.(Bild:  Bethany Drouin /  Pixabay)
Das verteilte Enterprise ist erstrebenswert, aber keineswegs ohne Tücken.
(Bild: Bethany Drouin / Pixabay)

Die digitale Transformation zwingt Unternehmen dazu, sich breiter aufzustellen, stärker zu verteilen und „weiter an den Rand zu verlagern“, so das Analystenhaus Gartner. Schätzungen von HPE zufolge dürften bis zum Jahr 2025 rund 150 Milliarden Endgeräte mit einem Netzwerk verbunden sein.

Zum Vergleich: Im Juni 2022 war noch von erst rund 50 Milliarden verbundener Endgeräte die Rede. Diese Edge-Endpunkte erzeugen mit ihrer Sensorik verwertungsfähige Daten, deren Geschäftswert mit der Zeit abnimmt.

„Daten an der Netzwerkkante, die nicht latenzsensibel sind, können zur Verarbeitung [zum Beispiel] in die Public Cloud verschoben werden“, beobachtet Fidelma Russo, CTO bei HPE, und fügt dann gleich Einwände hinzu mit den Worten: „Aber in vielen Fällen werden diese Daten ihren Wert verlieren, wenn Sie diese zuerst bewegen und dann verarbeiten“, weil die Handlung auf der Grundlage dieser Daten geradezu in Echtzeit erfolgen müsse. Um den Geschäftswert dieser Daten zu maximieren, sei es zwingend erforderlich, Compute-Ressourcen für diese Daten direkt an der Netzwerkkante bereitzustellen.

Die Entwicklung an der Netzwerkkante

„Sensoren werden kontinuierlich sensibler und es gibt ja auch noch immer mehr davon“, beobachtet Eng Lim Goh, TO für High-Performance Computing und Künstliche Intelligenz bei HPE, und schlussfolgert: „Das bedeutet, dass sie mehr Daten generieren als je zuvor.“ Aber die Kosten für die Bandbreite würden bei weitem nicht im gleichen Maße abnehmen, sodass es sehr teuer werde, all diese Daten ins Rechenzentrum zurückzuführen, argumentiert er.

Die Verarbeitung aller Edge-Daten in einem zentralen Rechenzentrum oder in der Cloud sei teuer, bestätigt Partha Narasimhan, CTO bei Aruba Networks, einem Unternehmen von HPE und einem der führenden Anbieter von Technologien für den Zugriff auf Netzwerke der nächsten Generation. Viele Unternehmen würden daher diese Daten einfach fallen lassen und nichts damit anfangen.

Wer jedoch in der Lage sei, diese Daten an der Quelle zu verarbeiten, könne die Kosten erheblich reduzieren und mehr Anwendungsfälle dafür finden. Es ginge hierbei darum, ein Cloud-ähnliches Erlebnis an die Netzwerkkante zu bringen und neue Dienste mit geringer Latenzzeit wie Augmented und Virtual Reality zu ermöglichen, resümiert sie.

Das Thema bei HPE

HPE baut die eigenen Server schon länger unter Einbeziehung von Edge-KI. „In unserer Fabrik in der Tschechischen Republik führt das System in weniger als 90 Sekunden achtzig visuelle Überprüfungen einer Hauptplatine durch“, freut sich Lin Nease, HPE Fellow und Chief Technologist für das Internet der Dinge in der Beratungs- und Servicegruppe von HPE. Früher wurden diese Komponenten von Menschen untersucht; gelegentliche Schnitzer ließen sich so nicht vermeiden. Mit KI sei die Anzahl der Qualitätskontrollprobleme „dramatisch gesunken“. Liefe die Mustererkennung stattdessen in der Cloud, würde eine solche Inspektion wahrscheinlich 10 Minuten oder länger dauern.

Die Edge als ein Compute-Standort nimmt an Bedeutung zu. Bis zum Jahre 2025 dürfte mehr als die Hälfte der Daten, die Unternehmen verwalten müssen, außerhalb des Rechenzentrums oder der Cloud entstehen und auch außerhalb dieser IT-Umgebungen genutzt werden, schätzen die Analysten von Gartner. Von den rund 175 Zettabytes an Daten, die vernetzte Edge-Geräte im Jahre 2025 weltweit erzeugen dürften, müssten rund 30% in Echtzeit verarbeitet werden, schätzt HPE.

An der Netzwerkkante sind die Daten echtzeitfähig, aber geografisch verstreut. Mit dem Anstieg der Bedeutung der Edge wächst daher der Bedarf an verteilter Konnektivität. Sie soll die Entstehung von Silos unterdrücken und die Verwertung der resultierenden Erkenntnisse ermöglichen, ohne die Rohdaten bewegen zu müssen. Ein Teil der Compute-Ressourcen muss sich hierzu an die Netzwerkkante verlagern. Sobald die Daten [über die Netzwerkkante] verstreut aufbewahrt und ausgewertet würden, seien „wirklich, wirklich robuste Software- und Hardware-Stacks“ vonnöten, um die Komplexität dieser Architektur zu überwinden, warnt Russo. An einer Data-Fabric führe aus ihrer Sicht kein Weg vorbei.

Das allumfassende Rechenzentrum

Das verstärkte Aufkommen von IoT verändert die Realitäten des IT-Betriebs. Denn mit ihm steigt die Menge der zu bewältigenden Rohdaten, der Bedarf an anwendungsfallgerechter Konnektivität und die Belastung durch Cyber-Bedrohungen direkt an der Netzwerkkante. Führungskräfte in Unternehmen, die für die Bereitstellung und Verwaltung der IT-Infrastruktur und -Betriebsprozesse verantwortlich sind, müssen ihre Organisationen entsprechend den neuen Anforderungen um- und aufrüsten, um den Geschäftswert dieser Daten zu maximieren, die Kosten im Zaum zu halten und die Risiken in den Griff zu bekommen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das Vorhandensein von IT-Infrastrukturen konnte in der Vergangenheit den Standort der Anwendungsbereitstellung bestimmen. Diesen Luxus haben die IT/OT-Verantwortlichen in digital-transformierten Unternehmen schon lange nicht mehr. Sie müssen ihre Infrastrukturentscheidungen vielmehr nach geschäftlichen Prioritäten an jene Standorte (um)verteilen, wo ganz konkrete Arbeitslasten hingehören, damit der Effizienz der Wertschöpfung nichts mehr im Wege steht. Gartner-Analysten bringen diese Wende mit den folgenden Worten auf den Punkt: „Ihr Rechenzentrum ist nicht mehr durch Mauern eingegrenzt.“

In diesem Sinne sind Rechenzentrumsfunktionen nicht an einem zentralen physischen Standort festgenagelt, weil es dort gerade freie Rechenleistung gibt, sondern verbrauchen Datacenter-Kapazitäten in Clouds, Colocation-Einrichtungen und an Edge-Standorten, sodass sie komplexe Geschäftsanforderungen am besten unterstützen können. Es hat sich alles umgedreht.

Dieser Artikel entstammt dem eBook „Das Rechenzentrum zwischen Cloud und Edge“, das die Redaktion allen Lesern kostenfrei zum Download zur Verfügung stellt.

eBook: Das Rechenzentrum zwischen Cloud und Edge

Das Rechenzentrum zwischen Cloud und Edge
eBook: Das Rechenzentrum zwischen Cloud und Edge

Die digitale Transformation verlagert den Fokus auf den Netzwerkrand. Bis 2025 könnten 150 Milliarden Endgeräte vernetzt sein, wodurch Echtzeit-Datenverarbeitung an Bedeutung gewinnt.

Mit einer prognostizierten Vernetzung von 150 Milliarden Geräten bis zum Jahr 2025 stehen Unternehmen vor der Herausforderung, Daten nahezu in Echtzeit zu verarbeiten. Diese Veränderung verlangt eine Neuausrichtung in der Art und Weise, wie wir Technologien nutzen und Daten verwalten.

Seien Sie gerüstet für die Zukunft der digitalen Transformation und bleiben Sie informiert über die neuesten Entwicklungen und Strategien.


>>> eBook „Das Rechenzentrum zwischen Cloud und Edge“ zum Download

Um den Anforderungen des digitaltransformierten Tagesgeschäfts gerecht zu werden, bedarf es einer verteilten, hybriden „cloudifizierten“ Unternehmens-IT mit einer ebenfalls verteilten, intelligenten und anpassungsfähigen Edge. Dieses Gewebe aus äußersten Stütz- und Zugangspunkten der Unternehmens-IT muss in der Lage sein, schnell neue Benutzer aufzunehmen, neue Geräte hinzuzufügen und neue Anwendungen bereitzustellen.

Auf allen Hochzeiten tanzen

Eine derart elastische Edge hat eine enorme Komplexität. Sie ist entsprechend schwierig in der Verwaltung. Clients können mit ihr einen Verbindungsaufbau von einer Vielzahl unterschiedlicher Standorte heraus initiieren: von einem Filial- oder Bürogebäude, einem Homeoffice, einer Produktionshalle, einem Warenhaus, einem logistischen Knotenpunkt oder von wo auch immer sonst. Auch die Vielfalt des eingesetzten Geräteparks hat seitens der Edge-Clients sprunghaft zugenommen.

Einigen Organisationen schwebt ein offenes Edge-Netzwerkgewebe vor, ein sogenanntes Open Grid. Die Schaffung eines solchen offenen, interoperablen und dezentralen Netzwerk- und Cloud-Ökosystems strebt unter anderem die Open Grid Alliance an, ein Zusammenschluss von Infrastrukturanbietern, der sich der Entwicklung von Standards und Frameworks verschrieben hat mit dem Ziel, eine nahtlose Integration und Zusammenarbeit von Edge-Ressourcen, Cloud-Diensten und anderen Komponenten der Netzwerkkante zu ermöglichen.

Das Open Grid bezieht sich auf eine Vision eines zukünftigen Internet- und Cloud-Ökosystems, welches verteilte Edge-Ressourcen – darunter Hardware, Software, Konnektivität und sonstige Infrastruktur – für eine nahtlose Zusammenarbeit in die Pflicht nimmt, um das verteilte Enterprise zu unterstützen.

Edge to Edge: Kinetic Grid von Vapor IO bringt Cloud- und CDN-Dienste an den Rand des Unternehmensgeländes mit nahegelegenen Konnektivitätsdiensten über die letzte Meile. Die Installation eines Mini-Rechenzentrums braucht nur sechs Stunden.(Bild:  Vapor IO)
Edge to Edge: Kinetic Grid von Vapor IO bringt Cloud- und CDN-Dienste an den Rand des Unternehmensgeländes mit nahegelegenen Konnektivitätsdiensten über die letzte Meile. Die Installation eines Mini-Rechenzentrums braucht nur sechs Stunden.
(Bild: Vapor IO)

Das Open-Grid soll von der Netzwerkkante hinauswachsen und alle erforderlichen Komponenten für die nächste Generation von Anwendungen mitbringen, um die Bereitstellung von Multicloud-, Hybrid-Cloud-, Near-Premises- und On-Premises-Diensten über austauschbare Ressourcen SLA-konform zu unterstützen. Die weltweit erste Implementierung dieser Vision hat die texanische Vapor IO in Zusammenarbeit mit dem Netzwerkanbieter Zayo entwickelt: die Edge-Computing-Plattform Kinetic Grid, ein Netzwerkgewebe und ein verteiltes Ökosystem von Edge-Colocation-Diensten. Kinetic Grid bringt Cloud- und CDN-Dienste an den Rand des Unternehmensgeländes mit nahe-gelegenen Konnektivitätsdiensten über die letzte Meile – Cloud-agnostisch und netzbetreiberneutral.

Die Plattform minimiert den Datenverkehr zwischen Edge-Standorten und dem Kernrechenzentrum, indem sie die Arbeitslasten über ein Multi-Cloud-Netzwerkgewebe latenzfreundlich dahin umverteilt, wo die Daten entstehen. Der Kinetic Grid liegt die Telco Cloud von VMware zu Grunde. Das System priorisiert Anwendungen im Einklang mit ihren Latenzanforderungen, umschifft Infrastrukturausfälle und kann nebenbei auch noch Datensouveränität gewährleisten.

Vapor IO baut seine Edge-Computing-Plattform Kinetic Grid in Europa in Partnerschaft mit dem spanischen Telekommunikationsunternehmen Cellnex Telecom aus. Cellnex wird die Plattform in seinem Glasfasernetzwerk in Barcelona aufstellen und mit Vapors bestehendem Grid in den USA verbinden. Danach will Vapor IO noch an anderen Standorten in Europa expandieren.

Herausforderungen der Umverteilung

Auf die IT- und OT-Verantwortlichen kommen im Zusammenhang mit dieser Umverteilung neue Herausforderungen zu, darunter:

  • Hybride Bereitstellung von Kern-Diensten:
    Unternehmen wollen einen Teil ihrer Workloads sowohl in der Cloud als auch im Rechenzentrum vor Ort betreiben können, um die Kontrolle über ihre Daten und Anwendungen zu behalten und dennoch flexibel und agil neue Marktchancen wahrnehmen zu können.
  • Verteilte Konnektivität:
    Die Vernetzung der vielen IT- und OT-Standorte eines verteilten Unternehmens benötigt hochleistungsfähige Netzwerkinfrastrukturen vom Kern-Rechenzentrum bis an die Edge.
  • Edge-to-Core-Integration:
    Die Bereitstellung von Rechenleistung und Anwendungen an der Netzwerkkante bedarf einer sicheren und kohärenten Integration mit den Kern-Diensten des Unternehmens, um die Latenzzeiten der Entscheidungsfindung zu reduzieren und die Betriebskosten im Zaum zu halten.
  • Verteilte Sicherheit, Datenschutz und Datensouveränität:
    Ein verteiltes Enterprise muss neuartigen Bedrohungen Stand halten und anspruchsvolle Compliance-Anforderungen erfüllen.
  • Umfassende Verwaltung und Orchestrierung:
    Verteilte IT-Ressourcen müssen ungeachtet ihrer komplexen Zusammensetzung einer zentral koordinierten, automatisierten Verwaltung unterliegen.

Verteilte Organisationen zählen zu den Vorreitern der digitalen Transformation, urteilt das Analystenhaus IDC. Laut einer Studie von IDC erzielen eben jene Unternehmen, die über fortgeschrittene vernetzte Infrastrukturen verfügen, die besten Geschäftsergebnisse.

Diese verteilten Organisationen würden die Nachzügler der verteilten Konnektivität unter ihren Mitbewerbern in allen untersuchten geschäftlichen Leistungskennzahlen (KPIs) übertreffen: vom Umsatzwachstum über die Kundenzufriedenheit, Mitarbeiterproduktivität bis hin zur Time-to-Market – zum Teil sogar um das Mehrfache. Mit anderen Worten: Verteilte Infrastrukturen scheinen förderlich für das Geschäft zu sein.

Fazit

In dem neuen hybriden Modell eines verteilten Enterprise drehen sich die Investitionsentscheidungen nicht mehr zwangsweise um das Aufrüsten eines lokalen Rechenzentrums mit neuer Technik. Wie sich die Nervenfasern aus dem Gehirn eines Lebewesens ins periphere Nervensystem ausbreiten, will jetzt die Unternehmens-IT aus dem Rechenzentrum ausbrechen und bis an die Edge hinauswachsen. Verteilt soll das digitalisierte Unternehmen zu neuer Dynamik und Effizienz erwachen und sein Wertschöpfungspotenzial aufs Neue entfalten. In diesem Sinne entwickeln die Vorreiter dieser Transformation ihre Infrastruktur. Verteilte Infrastrukturen sind förderlich für das Geschäft.

(ID:49840555)