Digitaltransformierte Geschäftsprozesse brauchen datengetriebene Entscheidungen nahezu in Echtzeit. Dieser Bedarf nach latenzfreier Agilität begünstigt eine verteilte Anwendungsbereitstellung. Dabei lautet die Devise: Dort rechnen, wo man Zeit gewinnt. Schön, aber wie soll das gehen? Wie verteilt man ein Enterprise?
Das verteilte Enterprise ist erstrebenswert, aber keineswegs ohne Tücken.
Die digitale Transformation zwingt Unternehmen dazu, sich breiter aufzustellen, stärker zu verteilen und „weiter an den Rand zu verlagern“, so das Analystenhaus Gartner. Schätzungen von HPE zufolge dürften bis zum Jahr 2025 rund 150 Milliarden Endgeräte mit einem Netzwerk verbunden sein.
Zum Vergleich: Im Juni 2022 war noch von erst rund 50 Milliarden verbundener Endgeräte die Rede. Diese Edge-Endpunkte erzeugen mit ihrer Sensorik verwertungsfähige Daten, deren Geschäftswert mit der Zeit abnimmt.
„Daten an der Netzwerkkante, die nicht latenzsensibel sind, können zur Verarbeitung [zum Beispiel] in die Public Cloud verschoben werden“, beobachtet Fidelma Russo, CTO bei HPE, und fügt dann gleich Einwände hinzu mit den Worten: „Aber in vielen Fällen werden diese Daten ihren Wert verlieren, wenn Sie diese zuerst bewegen und dann verarbeiten“, weil die Handlung auf der Grundlage dieser Daten geradezu in Echtzeit erfolgen müsse. Um den Geschäftswert dieser Daten zu maximieren, sei es zwingend erforderlich, Compute-Ressourcen für diese Daten direkt an der Netzwerkkante bereitzustellen.
Die Entwicklung an der Netzwerkkante
„Sensoren werden kontinuierlich sensibler und es gibt ja auch noch immer mehr davon“, beobachtet Eng Lim Goh, TO für High-Performance Computing und Künstliche Intelligenz bei HPE, und schlussfolgert: „Das bedeutet, dass sie mehr Daten generieren als je zuvor.“ Aber die Kosten für die Bandbreite würden bei weitem nicht im gleichen Maße abnehmen, sodass es sehr teuer werde, all diese Daten ins Rechenzentrum zurückzuführen, argumentiert er.
Die Verarbeitung aller Edge-Daten in einem zentralen Rechenzentrum oder in der Cloud sei teuer, bestätigt Partha Narasimhan, CTO bei Aruba Networks, einem Unternehmen von HPE und einem der führenden Anbieter von Technologien für den Zugriff auf Netzwerke der nächsten Generation. Viele Unternehmen würden daher diese Daten einfach fallen lassen und nichts damit anfangen.
Wer jedoch in der Lage sei, diese Daten an der Quelle zu verarbeiten, könne die Kosten erheblich reduzieren und mehr Anwendungsfälle dafür finden. Es ginge hierbei darum, ein Cloud-ähnliches Erlebnis an die Netzwerkkante zu bringen und neue Dienste mit geringer Latenzzeit wie Augmented und Virtual Reality zu ermöglichen, resümiert sie.
Das Thema bei HPE
HPE baut die eigenen Server schon länger unter Einbeziehung von Edge-KI. „In unserer Fabrik in der Tschechischen Republik führt das System in weniger als 90 Sekunden achtzig visuelle Überprüfungen einer Hauptplatine durch“, freut sich Lin Nease, HPE Fellow und Chief Technologist für das Internet der Dinge in der Beratungs- und Servicegruppe von HPE. Früher wurden diese Komponenten von Menschen untersucht; gelegentliche Schnitzer ließen sich so nicht vermeiden. Mit KI sei die Anzahl der Qualitätskontrollprobleme „dramatisch gesunken“. Liefe die Mustererkennung stattdessen in der Cloud, würde eine solche Inspektion wahrscheinlich 10 Minuten oder länger dauern.
Die Edge als ein Compute-Standort nimmt an Bedeutung zu. Bis zum Jahre 2025 dürfte mehr als die Hälfte der Daten, die Unternehmen verwalten müssen, außerhalb des Rechenzentrums oder der Cloud entstehen und auch außerhalb dieser IT-Umgebungen genutzt werden, schätzen die Analysten von Gartner. Von den rund 175 Zettabytes an Daten, die vernetzte Edge-Geräte im Jahre 2025 weltweit erzeugen dürften, müssten rund 30% in Echtzeit verarbeitet werden, schätzt HPE.
An der Netzwerkkante sind die Daten echtzeitfähig, aber geografisch verstreut. Mit dem Anstieg der Bedeutung der Edge wächst daher der Bedarf an verteilter Konnektivität. Sie soll die Entstehung von Silos unterdrücken und die Verwertung der resultierenden Erkenntnisse ermöglichen, ohne die Rohdaten bewegen zu müssen. Ein Teil der Compute-Ressourcen muss sich hierzu an die Netzwerkkante verlagern. Sobald die Daten [über die Netzwerkkante] verstreut aufbewahrt und ausgewertet würden, seien „wirklich, wirklich robuste Software- und Hardware-Stacks“ vonnöten, um die Komplexität dieser Architektur zu überwinden, warnt Russo. An einer Data-Fabric führe aus ihrer Sicht kein Weg vorbei.
Das allumfassende Rechenzentrum
Das verstärkte Aufkommen von IoT verändert die Realitäten des IT-Betriebs. Denn mit ihm steigt die Menge der zu bewältigenden Rohdaten, der Bedarf an anwendungsfallgerechter Konnektivität und die Belastung durch Cyber-Bedrohungen direkt an der Netzwerkkante. Führungskräfte in Unternehmen, die für die Bereitstellung und Verwaltung der IT-Infrastruktur und -Betriebsprozesse verantwortlich sind, müssen ihre Organisationen entsprechend den neuen Anforderungen um- und aufrüsten, um den Geschäftswert dieser Daten zu maximieren, die Kosten im Zaum zu halten und die Risiken in den Griff zu bekommen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das Vorhandensein von IT-Infrastrukturen konnte in der Vergangenheit den Standort der Anwendungsbereitstellung bestimmen. Diesen Luxus haben die IT/OT-Verantwortlichen in digital-transformierten Unternehmen schon lange nicht mehr. Sie müssen ihre Infrastrukturentscheidungen vielmehr nach geschäftlichen Prioritäten an jene Standorte (um)verteilen, wo ganz konkrete Arbeitslasten hingehören, damit der Effizienz der Wertschöpfung nichts mehr im Wege steht. Gartner-Analysten bringen diese Wende mit den folgenden Worten auf den Punkt: „Ihr Rechenzentrum ist nicht mehr durch Mauern eingegrenzt.“
In diesem Sinne sind Rechenzentrumsfunktionen nicht an einem zentralen physischen Standort festgenagelt, weil es dort gerade freie Rechenleistung gibt, sondern verbrauchen Datacenter-Kapazitäten in Clouds, Colocation-Einrichtungen und an Edge-Standorten, sodass sie komplexe Geschäftsanforderungen am besten unterstützen können. Es hat sich alles umgedreht.
Die digitale Transformation verlagert den Fokus auf den Netzwerkrand. Bis 2025 könnten 150 Milliarden Endgeräte vernetzt sein, wodurch Echtzeit-Datenverarbeitung an Bedeutung gewinnt.
Mit einer prognostizierten Vernetzung von 150 Milliarden Geräten bis zum Jahr 2025 stehen Unternehmen vor der Herausforderung, Daten nahezu in Echtzeit zu verarbeiten. Diese Veränderung verlangt eine Neuausrichtung in der Art und Weise, wie wir Technologien nutzen und Daten verwalten.
Seien Sie gerüstet für die Zukunft der digitalen Transformation und bleiben Sie informiert über die neuesten Entwicklungen und Strategien.
Um den Anforderungen des digitaltransformierten Tagesgeschäfts gerecht zu werden, bedarf es einer verteilten, hybriden „cloudifizierten“ Unternehmens-IT mit einer ebenfalls verteilten, intelligenten und anpassungsfähigen Edge. Dieses Gewebe aus äußersten Stütz- und Zugangspunkten der Unternehmens-IT muss in der Lage sein, schnell neue Benutzer aufzunehmen, neue Geräte hinzuzufügen und neue Anwendungen bereitzustellen.
Auf allen Hochzeiten tanzen
Eine derart elastische Edge hat eine enorme Komplexität. Sie ist entsprechend schwierig in der Verwaltung. Clients können mit ihr einen Verbindungsaufbau von einer Vielzahl unterschiedlicher Standorte heraus initiieren: von einem Filial- oder Bürogebäude, einem Homeoffice, einer Produktionshalle, einem Warenhaus, einem logistischen Knotenpunkt oder von wo auch immer sonst. Auch die Vielfalt des eingesetzten Geräteparks hat seitens der Edge-Clients sprunghaft zugenommen.
Einigen Organisationen schwebt ein offenes Edge-Netzwerkgewebe vor, ein sogenanntes Open Grid. Die Schaffung eines solchen offenen, interoperablen und dezentralen Netzwerk- und Cloud-Ökosystems strebt unter anderem die Open Grid Alliance an, ein Zusammenschluss von Infrastrukturanbietern, der sich der Entwicklung von Standards und Frameworks verschrieben hat mit dem Ziel, eine nahtlose Integration und Zusammenarbeit von Edge-Ressourcen, Cloud-Diensten und anderen Komponenten der Netzwerkkante zu ermöglichen.
Das Open Grid bezieht sich auf eine Vision eines zukünftigen Internet- und Cloud-Ökosystems, welches verteilte Edge-Ressourcen – darunter Hardware, Software, Konnektivität und sonstige Infrastruktur – für eine nahtlose Zusammenarbeit in die Pflicht nimmt, um das verteilte Enterprise zu unterstützen.
Edge to Edge: Kinetic Grid von Vapor IO bringt Cloud- und CDN-Dienste an den Rand des Unternehmensgeländes mit nahegelegenen Konnektivitätsdiensten über die letzte Meile. Die Installation eines Mini-Rechenzentrums braucht nur sechs Stunden.
(Bild: Vapor IO)
Das Open-Grid soll von der Netzwerkkante hinauswachsen und alle erforderlichen Komponenten für die nächste Generation von Anwendungen mitbringen, um die Bereitstellung von Multicloud-, Hybrid-Cloud-, Near-Premises- und On-Premises-Diensten über austauschbare Ressourcen SLA-konform zu unterstützen. Die weltweit erste Implementierung dieser Vision hat die texanische Vapor IO in Zusammenarbeit mit dem Netzwerkanbieter Zayo entwickelt: die Edge-Computing-Plattform Kinetic Grid, ein Netzwerkgewebe und ein verteiltes Ökosystem von Edge-Colocation-Diensten. Kinetic Grid bringt Cloud- und CDN-Dienste an den Rand des Unternehmensgeländes mit nahe-gelegenen Konnektivitätsdiensten über die letzte Meile – Cloud-agnostisch und netzbetreiberneutral.
Die Plattform minimiert den Datenverkehr zwischen Edge-Standorten und dem Kernrechenzentrum, indem sie die Arbeitslasten über ein Multi-Cloud-Netzwerkgewebe latenzfreundlich dahin umverteilt, wo die Daten entstehen. Der Kinetic Grid liegt die Telco Cloud von VMware zu Grunde. Das System priorisiert Anwendungen im Einklang mit ihren Latenzanforderungen, umschifft Infrastrukturausfälle und kann nebenbei auch noch Datensouveränität gewährleisten.
Vapor IO baut seine Edge-Computing-Plattform Kinetic Grid in Europa in Partnerschaft mit dem spanischen Telekommunikationsunternehmen Cellnex Telecom aus. Cellnex wird die Plattform in seinem Glasfasernetzwerk in Barcelona aufstellen und mit Vapors bestehendem Grid in den USA verbinden. Danach will Vapor IO noch an anderen Standorten in Europa expandieren.
Herausforderungen der Umverteilung
Auf die IT- und OT-Verantwortlichen kommen im Zusammenhang mit dieser Umverteilung neue Herausforderungen zu, darunter:
Hybride Bereitstellung von Kern-Diensten: Unternehmen wollen einen Teil ihrer Workloads sowohl in der Cloud als auch im Rechenzentrum vor Ort betreiben können, um die Kontrolle über ihre Daten und Anwendungen zu behalten und dennoch flexibel und agil neue Marktchancen wahrnehmen zu können.
Verteilte Konnektivität: Die Vernetzung der vielen IT- und OT-Standorte eines verteilten Unternehmens benötigt hochleistungsfähige Netzwerkinfrastrukturen vom Kern-Rechenzentrum bis an die Edge.
Edge-to-Core-Integration: Die Bereitstellung von Rechenleistung und Anwendungen an der Netzwerkkante bedarf einer sicheren und kohärenten Integration mit den Kern-Diensten des Unternehmens, um die Latenzzeiten der Entscheidungsfindung zu reduzieren und die Betriebskosten im Zaum zu halten.
Verteilte Sicherheit, Datenschutz und Datensouveränität: Ein verteiltes Enterprise muss neuartigen Bedrohungen Stand halten und anspruchsvolle Compliance-Anforderungen erfüllen.
Umfassende Verwaltung und Orchestrierung: Verteilte IT-Ressourcen müssen ungeachtet ihrer komplexen Zusammensetzung einer zentral koordinierten, automatisierten Verwaltung unterliegen.
Verteilte Organisationen zählen zu den Vorreitern der digitalen Transformation, urteilt das Analystenhaus IDC. Laut einer Studie von IDC erzielen eben jene Unternehmen, die über fortgeschrittene vernetzte Infrastrukturen verfügen, die besten Geschäftsergebnisse.
Diese verteilten Organisationen würden die Nachzügler der verteilten Konnektivität unter ihren Mitbewerbern in allen untersuchten geschäftlichen Leistungskennzahlen (KPIs) übertreffen: vom Umsatzwachstum über die Kundenzufriedenheit, Mitarbeiterproduktivität bis hin zur Time-to-Market – zum Teil sogar um das Mehrfache. Mit anderen Worten: Verteilte Infrastrukturen scheinen förderlich für das Geschäft zu sein.
Fazit
In dem neuen hybriden Modell eines verteilten Enterprise drehen sich die Investitionsentscheidungen nicht mehr zwangsweise um das Aufrüsten eines lokalen Rechenzentrums mit neuer Technik. Wie sich die Nervenfasern aus dem Gehirn eines Lebewesens ins periphere Nervensystem ausbreiten, will jetzt die Unternehmens-IT aus dem Rechenzentrum ausbrechen und bis an die Edge hinauswachsen. Verteilt soll das digitalisierte Unternehmen zu neuer Dynamik und Effizienz erwachen und sein Wertschöpfungspotenzial aufs Neue entfalten. In diesem Sinne entwickeln die Vorreiter dieser Transformation ihre Infrastruktur. Verteilte Infrastrukturen sind förderlich für das Geschäft.