Maverick Research: The Edge Will Eat the Cloud

Appetit auf Cloud? Der Fressfeind Edge-Computing

| Autor: Ulrike Ostler

Edge ist da, wo physische auf die digitale Welt trifft.
Edge ist da, wo physische auf die digitale Welt trifft. (Bild: Gartner)

Schon der Report-Titel von Gartner-Maverick-Analyst Thomas J. Bittman rüttelt auf: „The Edge Will Eat the Cloud“. Edge-Computing wird zu einer großen Herausforderung für Unternehmen sowie für Anbieter von Cloud- und Rechenzentrumsdiensten. Datacenter-Betreiber Equninix hat nun den Report einer breiteren Öffentlichkeit zugänglich gemacht. Was also steht ´drin?

Maverick Research ist bekannt für unkonventionelles Denken und ungewöhnliche Ratschläge. Im vergangenen September veröffentliche Analyst Bittman seine Thesen zum Verhältnis von Edge-Computing und Cloud. Auslöser ist das IoT-Wachstum (siehe: Kasten) und der Trend zu immersiveren, intuitiveren und interaktiven Benutzeroberflächen; denn diese Faktoren werden in den kommenden vier, fünf Jahren den Schwerpunkt der Datenproduktion und -verarbeitung weg von zentralen Rechenzentren hin an den „Rand“ verlagern.

Vor allem hierzulande sind viele IT-Berater noch damit beschäftigt, die Unternehmens-IT in die Cloud (nicht die in eigenen Rechenzentren) zu jagen. Somit widerspricht Maverick Research den vorherrschenden Ansichten über die Zukunft des Cloud Computing, und stellt die Topologie von Computing-Architekturen und mehr noch die Art und Weise in Frage wie Anwendungen auf den Weg zum digitalen Geschäft angepasst werden sollten.

Somit lautet die Hauptthese: Das Wachstum von Mega-Rechenzentren wird gebremst, Computer und Speicher verlagern sich wegen des Internet der Dinge und neuer Benutzer-/Maschinenschnittstellen an den (Netzwerk-) Rand. Dazu gesellen sich folgende Hauptpunkte:

  • Die schiere Datenmenge, die durch „Dinge“, Maschinen und Services, generiert wird, die Notwendigkeit, lokal zu interagieren und von Echtzeitanalysen werden die Datenverarbeitung näher zu den Dingen bringen und damit an den Rand drängen.
  • Immersive Technologien und Echtzeit-Schnittstellen erfordern eine geringe Latenzzeit und werden das Computing-Paradigma umkehren, Computer und Daten rücken insofern näher an die Benutzer.
  • Die Rolle der zentralisierten Cloud wird sich in Richtung Koordination, Aggregation, Archivierung, Back-End-Maschinenlernen und traditionelle Back-Office-Verarbeitung verlagern.
  • Dabei entsteht eine Zangenbewegung: Cloud-Provider dehnen ihre Techniken und Strategien in Richtung Edge-Computing aus. Zugleich wird die Entwicklung am Edge stärker von den Technologien und Techniken getrieben, die vor Ort bereits physisch etabliert sind.

Die hauptsächlichen Empfehlungen an alle Unternehmen:

  • Entwickeln Sie bis 2020 eine Edge-Computing-Strategie und planen Sie bis 2022 den Einsatz von Edge-Computing-Lösungen.
  • Identifizieren Sie zunächst die Technologien, Anwendungsarchitekturen und -topologien (einschließlich des Randes), die auf kleinere aber stark im Fluss befindliche Geschäftsprozesse gemünzt sind.
  • Planen Sie für die Zukunft massive Investitionen in Benutzeroberflächen, um die Interaktion zwischen Unternehmen, Kunden und Mitarbeitern dynamischer und intuitiver zu gestalten.
  • Entwickeln Sie Strategien für zukünftige Anwendungen, die Latenz, Standort, Verteilbarkeit und Autonomie berücksichtigen, und bestimmen Sie die Platzierung am Rand, in der Wolke und dazwischen.
Ergänzendes zum Thema
 
Zahlen aus dem Vodafone IoT Barometer 2017/18

Was passiert?

Hier listet der Report die grundlegenden Annahmen auf, die den Überlegungen zugrunde liegen.

  • Vierzig Prozent der Großunternehmen werden Prinzipien des Edge-Computing in ihre 2021er Projekte integrieren; im vergangenen Jahr waren es noch weniger als 1 Prozent.
  • IoT und intuitive, interaktive Benutzeroberflächen werden ein Drittel der großen Unternehmen dazu bringen, bis 2021 Edge-Standorte zu bauen oder etwa im Co-Location zu nutzen.
  • Bis 2021 werden Latenz- und/oder Bandbreitenanforderungen für 30 Prozent der Workload-Bereitstellungen zu kritischen Faktoren.
  • „Die IT-Architektur wird auf den Kopf gestellt“, heißt es im Report und weiter: „Die Digitalisierung Business verwischt die Grenze zwischen der digitalen und der physischen Welt immer mehr - aber dieses ´Verwischen“ findet zumeist im Edge statt.

Denn Cloud Computing allein kann den Anforderungen nicht gerecht werden: Selbst im Hyperscale-Umfeld ist ein zentrales Wachstum, das den Bedarf von Milliarden „Dingen“ decken könnte, unmöglich. „Cloud Computing hat Zugang zu massiver zentralisierter Rechen- und Speicherleistung verschafft. Aber es bietet nicht die Agilität und physische und digitale Konvergenz, die man am Rande des Geschehens benötigt. Die ´Wolke` ist zu weit entfernt. […] Und Compute geht immer zu den Daten.“

Das bedeutet aber auch, dass das „zentralisierte Cloud-Computing“ sich ändern wird. Die künftige Rolle spielt im Backend, als ein wichtiger Bestandteil des digitalen Geschäfts. Insbesondere in der Koordination, Aggregation, Archivierung und dem maschinellen Lernen aber wird die Cloud in den Hintergrund gedrängt. Wachstum und Chancen durch den Einsatz von IT findet im Edge, vor Ort statt.

Denn: Standort und Datenverteilung sind für ein gutes Management entscheidend. Umgekehrt werden Unternehmen und Anbieter, die sich nicht auf neue Anforderungen konzentrieren, nicht mehr wettbewerbsfähig sein. Edge frisst Cloud.

Was ist „Edge“?

Edge ist dort, wo Dinge und Menschen verbunden werden und mithilfe eines Kommunikationsnetzes mit der digitalen Welt verschmelzen. (siehe: Abbildung 1). Heute ist das ein Smartphone, ein Router, eine Spielkonsole, eine Set-Top-Box, ein Mobilfunkmast, ein „Amazon Echo“, ein Laptop, ein Mikro-Rechenzentrum oder die Intelligenz, die in ein Auto eingebettet ist.

Edge Computing sind Verarbeitung, Speicherung sowie Dienste für Dinge und Menschen, die physisch nah sind. Edge-Services werden durch Software bereitgestellt, die auf einer Vielzahl von Hardware laufen kann und für viele Anwendungsfälle taugt. Möglich ist eine Hierarchie von Rechendiensten, vom Rand bis zu den zentralen Datacenter geliefert.

Groß frisst klein: Die IT-Evolution
Groß frisst klein: Die IT-Evolution (Bild: Gartner)

Die Entwicklung

  • Anfang der 1980er Jahre: PCs (mit Servern) begannen Mainframes und Terminals zu verdrängen und zogen Computing an den Rand.
  • Mitte der 2000er Jahre: Intelligente mobile Geräte (und Anwendungen) begannen, PCs zu verdrängen Apps entstanden und ermöglichten noch mehr Edge-Computing.
  • Ende der 2000er Jahre: Cloud begann mit dem Verschlucken von Unternehmensrechenzentren, Es begann zugleich eine Zentralisierung der Daten und Compute -Power in Mega-Rechenzentren.
  • Anfang der 2010er Jahre: Es entstand eine völlig neue Klasse von „Nutzern“. Diese „Dinge“ sind Nettodatenproduzenten, nicht nur Konsumenten.
  • Anfang der 2020er Jahre: Die Mensch-Maschine-Schnittstelle wird noch multimodaler, interaktiver, umgebungssensitiver, kontextgebundener und intuitiver sein.

Ja, aber:

Mainframes verschwanden nicht gänzlich, als PCs und Server auftauchten – Doch sie wurden weniger dominant. PCs gingen nicht weg, als mobile Geräte auftauchten, aber die PC-Verkäufe erreichten ihren Höhepunkt etwa im Jahr 2011 und sind seitdem im Großen und Ganzen rückläufig. Die Cloud wird nicht verschwinden, wenn vernetzte Dinge zur Norm werden. Doch es ereilt sie dasselbe Schicksal: Die Cloud wird einfach weniger dominant und nur ein Teil einer breiteren IT-Architektur.

Und was läuft nun falsch für die Cloud?

Cloud ist ein Computing-Stil - Selbstbedienung, automatisiert. Allerdings geht es beim Cloud Computing und der Storage-Zentralisierung in Mega-Rechenzentren heute vor allem um Größenvorteile, massive Skalierung und Back-End-Verarbeitung. Dies ist ideal, wenn Daten - und deren Berechnung - zentralisiert werden können.

Die heutige Cloud löste ein großes Problem - die Erhöhung der flexiblen Zugänglichkeit von Computing und Storage für Unternehmen, insbesondere für das Backoffice. Aber das Front-Office blieb ein Browser oder eine App, die mit weit entfernten Rechenzentren mit diskreten Anfragen und Antworten sprach.

Content-Delivery-Netzwerke (CDNs) sind entstanden, um den Daten-Chache näher an den Anwender zu bringen - aber das Paradigma besteht nach wie vor darin, Daten in eine Richtung zu streamen, von der Mitte bis zum Rand. Die Explosion IoT wird den Wert noch mehr in Richtung Agilität verschieben und dorthin, wo Anwendungen viel unmittelbarer und interaktiver sein müssen, wo Verzögerungen inakzeptabel sind und wo der Großteil der Daten produziert wird und wo letztlich analysiert und konsumiert werden muss.

Somit gibt es fünf Hauptprobleme, die es zu überwinden gilt: Latenz, Bandbreite, Autonomie, Privatsphäre und Sicherheit.

Das Latenzproblem

Die Rechenleistung hat sich in den vergangenen Jahrzehnten um das Tausendfache verbessert. Auch die Netzwerkbandbreite hat seit seit 56 Kbps Einwahlleitungen einen weiten Weg zurückgelegt. Das Problem ist die Netzwerklatenz.

Darunter ist ein begrenzender Faktor zu verstehen, der sich aus Entfernung, Übertragungsmedium, Anzahl der Netzwerk-Hops und -Router, des Protokolls und vor allem der Lichtgeschwindigkeit zu verstehen. Wenn es möglich wäre San Francisco nach New York City und zurück auf einem Glasfaserkabel zu senden, ohne Router, Repeater oder verarbeitende Komponenten, würde es dennoch 42 Millisekunden (ms) dauern.

Und Millisekunden zählen:

  • Über den Online-Handel sagte der Amazon-Pionier Greg Linden 2006: „Jede 100 ms Verzögerung kostet 1 Prozent des Umsatzes“, zitiert Analyst Bittman.
  • Ein Experiment von Google-VP Marissa Mayer im Jahr 2006 zur Online-Suche ergab, dass eine zusätzliche Verzögerung von 500 ms bei den Suchergebnissen einen Rückgang von 20 Prozent bei Traffic und Einnahmen verursachte.
  • Bittman verweist auf die Tabb Group: „... der Wert der Zeit für ein Trading Desk ist entschieden nichtlinear... wenn die elektronische Handelsplattform eines Brokers 5 ms hinter der Konkurrenz liegt, könnte sie mindestens 1 Prozent ihres Flow verlieren; das sind 4 Millionen Dollar Umsatz pro Millisekunde. Bis zu 10 ms Latenzzeit können zu einem Umsatzrückgang von 10 Prozent führen. Von da an wird es noch schlimmer.“
  • Für ein selbstfahrendes Auto, das 120 Kilometer pro Stunde fährt, entsprechen 100 ms etwa 3,3 Meter. Aber wenn es zwei selbstfahrende Autos sind oder zwei Dutzend, die alle zum selben Ort fahren, dann sind 100 ms eine Ewigkeit.

Doch selbst für Menschen sind Millisekunden entscheidend. Bei Verwendung von Virtual-Reality-Brillen ist eine Verzögerung von mehr als fünf bis zehn Millisekunden von der Kopfbewegung bis zur Blickbewegung spürbar und kann zu Reisekrankheit führen.

Was passiert mit "der Cloud"?

Die Ausführungen zur Bandbreite und Autonomie von Anwendungen, Services und „Dingen“ sowie zu Security und Datenschutz entsprechen dem, was häufig auf Datacenter-Insider Erwähnung findet. Es bleibt die Frage, was mit zentralen Cloud-Angeboten wird, wenn sich das Edge-Computing auswächst.

  • Koordination: Cloud Computing verfügt über die derzeit fortschrittlichsten Techniken für automatisiertes Provisioning und Remote Management. Diese Technologien werden in Zukunft auch für das Edge-Computing genutzt beziehungsweise darauf ausgedehnt.
  • Aggregation: Zusammenfassen mehrerer Edges, zum Beispiel Daten und Ergebnisse aus allen Außenstellen eines Unternehmens.
  • Archivierung: Aufzeichnung von Daten und Protokollen aus den Edge-Anwendungen zur Archivierung oder späteren Verarbeitung.
  • Maschinelles Lernen: Während maschinelles Lernen und Trainieren vor Ort stattfindet, könnten längerfristige Lern-, Analyse- und Trainingsmodelle in einer zentralen Cloud ausgearbeitet und ausgeübt werden.
  • Traditionelle Back-Office-Verarbeitung: Wo Echtzeitverarbeitung unkritisch ist und Skalierbarkeit mehr zählt als Agilität, übernimmt die zentrale Cloud diese Aufgabe.
  • Fallback Edge: Wo es kein intelligenteres, autonomes Edge-Computing gibt, wandern diese Aufgaben in die Cloud. Anwender nehmen in Kauf, dass die Verarbeitung hier weniger effizient, weniger agil und weniger interaktiv ist.

Allerdings gilt: Wenn die Bedeutung des Edge-Computing wächst, wird es einen deutlich spürbaren Unterschied zwischen den Unternehmen geben, die Edge-Computing ermöglichen können und solchen, die auf remote Verbindungen zu einem zentralen Rechenzentrum angewiesen sind.

Wen betrifft das Edge-Computing?

Welche Unternehmen, welche Branchen bauen wie Edge-Computing auf? Der Maverick-Report listet Folgendes auf.

  • Im Heim: Spielkonsolen, Kabel-Set-Top-Boxen, Großgeräte, Wi-Fi-Router, Heim-PCs, intelligente Assistenten
  • Bei mobilen Endgeräten: Smartphones, 5G-Mini-Türme
  • Bei Unterhaltungsstätten wie Theater und Vergnügungsparks: Mikrorechenzentren, Edge-Server, Campus Wi-Fi
  • In der Transportbranche: Hier geht es etwa um Prozessoren in Autos und Flugzeugen
  • In den Städten: Hier werden 5G-Minitürme zu sehen sein und intelligente Ampeln
  • An den Arbeitsplätzen: Campus Wi-Fi Router, Enterprise-Rechenzentren
  • In der Produktion: Mikro-Rechenzentren, Edge-Server
  • Beim Militär: Mobile Micro-Datacenter (Cloudlets)

Mit anderen Worten: Es gibt fast keine Branche, die nicht betroffen ist. So gehören zu den verschiedenen Akteuren in erster Linie die Unternehmens-IT, Spiele-Anbieter, Telcos- und Kabelbetreiber, Smartphone-Hersteller und Anbieter von Consumer-Elektronik.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45165478 / Virtualisierung)