Suchen

Gartner-Report „Exploring the Edge: 12 Frontiers of Edge Computing“ Vom Daten-Center zu Daten-Tröpfchen

| Autor / Redakteur: M.A. Jürgen Höfling / Ulrike Ostler

Der Gartner-Report zum Edge-Computing „Exploring the Edge: 12 Frontiers of Edge Computing“ arbeitet gemeinsame Elemente verschiedener Anwendungsszenarien heraus und diskutiert die geänderte Datacenter-Welt, die durch die neuen Workloads mit ihren riesigen Datenvolumina erforderlich wird. Hier die wichtigsten Punkte.

Firmen zum Thema

„Mit Edge-Computing steht auch die herkömmliche Rechenzentrumsarchitektur im Feuer“
„Mit Edge-Computing steht auch die herkömmliche Rechenzentrumsarchitektur im Feuer“
(Bild: Clarissa Strömer / pixelio.de)

Anwendungen im IoT-Bereich (selbstfahrende Autos, Digitale Fabrik, Smart Home und viels mehr) benötigen aufgrund der dabei generierten gigantischen Daten-Mengen Verarbeitungs-Kapazitäten nahe an den Sensoren (Edge). Edge Computing ergänzt die Verarbeitungskapazitäten der Rechenzentren (heute normalerweise in der Cloud) direkt an den Devices.

In der Regel wird noch eine weitere Computing-Stufe benötigt, die die Kommunikation zwischen Cloud und Edge strukturiert und steuert: Wo wird was verarbeitet? Wo wird was gespeichert? Wann müssen welche Daten in welcher Form aggregiert werden? Für diese Vermittlungsstufe wird mittlerweile der Begriff Fog-Computing verwendet.

Der Analyst Thomas Bittman geht in dem Report davon aus, dass im Jahr 2021 mehr als 50 Prozent der Großunternehmen - gegenüber 5 Prozent im Jahr 2019 - wenigstens einen Anwendungsfall haben, um eine IoT-nahe Workload oder eine Workload, in der virtuellen und reale Elemente zusammenspielen („immersive experiences“) zu betreiben. Und noch zwei Jahre später prognostiziert der Gartner-Mann, dass 50 Prozent der Großunternehmen wenigstens sechs Edge-Computing-Use Cases für IoT- und „Immersions-Szenarien“ am Laufen haben.

Die Gemeinsamkeiten der Use Cases benötigen die Aufmerksamkeit

Angesichts dieses bevorstehenden Entwicklungsschubs beim Edge-Computing plädiert Gartner für eine Abkehr vom derzeit vorherrschenden Ad-hoc-Ansatz - „90 Prozent der Unternehmen fokussieren sich zu sehr auf die spezifischen Rahmenbedingungen des Edge-Use-Case, den sie gerade umsetzen“, sagt er - und stattdessen für einen über mehrere Jahre angelegten proaktiven Ansatz, der die Gemeinsamkeiten verschiedener Anwendungsszenarien In den Blick nimmt.

Anwendungsszenarien für Edge-Computing unterteilt Gartner in zwölf Kategorien, die in einem Dreieck situiert sind, das ein Interaktionsschema von Menschen, Geschäften und Dingen abbildet.
Anwendungsszenarien für Edge-Computing unterteilt Gartner in zwölf Kategorien, die in einem Dreieck situiert sind, das ein Interaktionsschema von Menschen, Geschäften und Dingen abbildet.
(Bild: Gartner: „Exploring the Edge: 12 Frontiers of Edge Computing“ (Mai 2019))

Gartner leistet dafür Hilfestellung, indem man die möglichen Anwendungsszenarien für Edge-Computing in zwölf Kategorien unterteilt, die in einem Dreieck situiert sind, das ein Interaktionsschema von Menschen, Geschäften und Dingen abbildet (siehe: Abbildung). Die Analysten sind der Meinung, dass dieses Schema den IT-Verantwortlichen für IT-Infrastruktur und IT-Betrieb dabei hilft, geschäftliche Chancen systematisch zu erkennen und dabei eine sinnvolle Edge-Computing-Architektur aufzubauen, die deutlich mehr Wert hat als eine Vorgehensweise, die mit jedem neuen Use Case ständig das Rad neu erfindet.

Das Analystenhaus hat auf der Basis seiner Kundenbefragungen vier Parameter („Imperative“) identifiziert, die Unternehmen in Richtung Edge-Computing zwingen (siehe: Abbildung unten):

  • Latenz /deterministische Umgebungsbedingen,
  • Vermeidung von Bandbreiten-Engpässen
  • Autonome Entscheidungsmöglichkeiten vor Ort, wenn
    die Verbindung zum Rechenzentrum nicht zur Verfügung steht
    Etablierung von speziellen Datenschutz- und Sicherheitsmaßnahmen, da die Daten am Edge zunehmend kritischer in puncto Sicherheit und
  • Schutz der Privatsphäre werden (Gesundheitsdaten, biometrische Daten, kritische Maschinendaten in der digitalen Fabrik)

Innerhalb der genannten Kategorien sind die verschiedenen Anwendungsfälle durch jeweils verschiedene „Imperative“ definiert. So mag es beispielsweise eine Automatisierungslösung geben, bei der eine riesige Flut von Kamera- und Sensordaten vor Ort gefiltert und vorverarbeitet werden muss, um Bandbreite zu sparen, während eine andere Automatisierungslösung mehr Autonomie direkt am Sensor und superschnelle Echtzeitreaktionen benötigt.

Gartner hat vier Parameter („Imperative“) identifiziert, die Unternehmen in Richtung Edge-Computing zwingen.
Gartner hat vier Parameter („Imperative“) identifiziert, die Unternehmen in Richtung Edge-Computing zwingen.
(Bild: Gartne: „Exploring the Edge: 12 Frontiers of Edge Computing“ (Mai 2019))

Edge-Computing erweitert User-Optionen

Der Report stellt eine große Menge an Anwendungsszenarien für Edge-Computing und die darin jeweils enthaltenen Mensch-Maschine-Business-Interaktionen recht anschaulich dar und macht deutlich, inwiefern Edge-Computing auch die Steuerungs- und Einflussnahme-Möglichkeiten der einzelnen Nutzer erweitert. So erhalten Nutzer mit Edge-Computing beispielsweise oft die Möglichkeit, selbst zu entscheiden, wo bestimmte Daten gespeichert werden und wie diese genutzt werden.

Freilich können mit diesen erweiterten Möglichkeiten auch neue Sicherheitsprobleme entstehen, die ihrerseits wieder eingehegt werden müssen. Gartner-Analyst Bittman sieht Edge-Computing auch in der Tradition der „Content Delivery Networks“. Diese würden dadurch „dreidimensionaler“: Inhalte könnten direkt von den zentralen Rechenzentren, Content Delivery Networks oder auch Mikrorechenzentren an die Nutzer vor Ort geliefert und nutzten dann lokale Signale, die anzeigen, wann und wo diese Inhalte verwendet werden.

Effizientes Daten-Management entscheidend für den Erfolg von Edge-Computing

Der Report hat zwar nicht in der Hauptsache den Zusammenhang von Datacenter-Architektur und Edge-Computing zum Thema, aber erwähnt an verschiedenen Punkten immer wieder diesen Konnex. Schließlich liegt es auf der Hand, dass es sich bei dem Zusammenwirken von klassischen Rechenzentren, Fog-Steuerungszentren (Minirechenzentren??) und Edge-Verarbeitung nicht um eine lose Aneinanderreihung von verschiedenen Einheiten handeln kann, sondern dass jedes Element jeweils auf das andere auch einwirkt und es sukzessive verändert, sozusagen: Wandel durch Annäherung.

Je softwarebasierter die einzelnen Einheiten dabei sind, desto besser dürften sie für diesen Wandel jeweils geeignet sein. „In vielerlei Hinsicht kombiniert Edge-Computing-Management die Data-Center-Verwaltung mit den Skalierungsmöglichkeiten, die Mobile Device Management bietet“, schreibt Gartner-Analyst Bittman und zieht folgendes Resümee: „Edge-Computing wird Datenzentren und Datenseen in viele einzelne Daten-Tröpfchen verwandeln, die jeweils verwaltet, archiviert, aggregiert, weiter analysiert und nach Gebrauch unter Umständen auch gelöscht werden. Insofern ist effizientes Daten-Management ganz entscheidend für den Erfolg oder auch den Misserfolg für den Aufbau von Edge-Computing.“

Hinweis: Den Gartner-Report „Exploring the Edge: 12 Frontiers of Edge Computing“ bietet Equinix zum Download an.

* Jürgen Höfling ist freier Autor und lebt in München.

Artikelfiles und Artikellinks

(ID:46337124)

Über den Autor