Neue Arbeitsgruppe veröffentlicht ein einführendes Whitepaper

OpenStack steigt ins Edge Computing ein

| Autor: Ludger Schmitz

Nach dem Vorbild der Natur versorgt das Edge sich teilweise selbst und dient dem Kern.
Nach dem Vorbild der Natur versorgt das Edge sich teilweise selbst und dient dem Kern. (Bild: / Ludger Schmitz / CC BY 3.0)

Virtualisierung und Cloud Computing geschehen immer unter Kontrolle einer zentralen IT. Diese Konzepte überträgt Edge Computing auf dezentrale IT-Strukturen. Ein Thema für die Private Cloud, und folglich schaltet sich die OpenStack Foundation ein.

Sehr viele Zeitgenossen verbinden mit Edge Computing nicht mehr als Internet of Things. Es geht in Wirklichkeit sogar um mehr als alles, was nur am Rande des Horizonts einer zentralen IT-Administration passiert, in den entlegenen Ecken eines Netzwerks. Dazu gehört auch ziemlich viel eines Wide Area Networks (WAN), in dem zum Beispiel Filialen eines Unternehmens mit begrenzter IT-Leistung und nicht zuverlässigen Netzverbindungen arbeiten.

Eigentlich ließe sich das Konzept des Cloud Computings, Ressourcen nach Bedarf zur Verfügung zu stellen, im Prinzip eine Service-Orientierung, auch für Unternehmen mit einer ausgeprägt dezentalen IT anwenden. Dies wäre nur eine Ausweitung der Private Cloud bis an die Ränder eines Firmennetzes.

Zum ersten Brainstorming kamen mehr Interessenten als erwartet

Mit diesem Grundgedanken lud die OpenStack Foundation (OSF) zu einem zweitägigen OpenStack-Workshop im September letzten Jahres. Zu dem kamen – zur Überraschung des Open-Source-Projekts – gleich mehr als 200 Anwender und Entwickler. Sie gründeten eine Arbeitsgruppe „OpenStack Edge Computing“ und beschlossen, zuerst ein Whitepaper zu verfassen, das den Rahmen und anhand der ersten Projekte Anwendungsszenarien beschreiben sollte. Dieses Whitepaper hat die Arbeitsgruppe kürzlich vorgelegt; hier kostenloser PDF-Download ohne Registrierung.

Nach dem Whitepaper ist Edge Computing im breitesten Sinne die Möglichkeit, „Cloud-Möglichkeiten und eine IT-Service-Umgebung am Rand eines Netzes“ nutzbar zu machen. „Das Ziel besteht darin, Rechner, Speicher und Bandbreite viel näher zu den Datenquellen und/oder den Endanwendern bereitzustellen.“ Dabei besteht vor allem das Problem instabiler Bandbreiten und hoher Latenz im Netz.

Es geht um mehr als IoT-Devices

Zwar gibt es proprietäre und Open-Source-Lösungen für ein „Device Edge“, aber die beziehen sich eben auf IoT-Geräte oder Systeme für Network Function Virtualisierung (NFV). Die OSF-Arbeitsgruppe hat mehr vor Augen: „Zunehmend benötigen Anwendungen die Einsatzflexibilität einer Cloud im Edge, obwohl die Tools und Architekturen, die zum Aufbau verteilter Edge-Infrastrukturen nötig sind, noch in ihren Anfängen stecken.“

Für die Arbeitsgruppe ist Edge Computing nicht begrenzt auf Devices mit sehr beschränkten Möglichkeiten wie beispielsweise Sensoren im Internet of Things. Es ist auch nicht beschränkt auf spezielle Umgebungen wie denen von Telekommunikationsumgebungen, die aus der Ferne Netzwerkgeräte und Sender steuern. Es geht auch darüber hinaus, dass Handelsniederlassungen oder Versicherungsbüros nach Feierabend Daten mit der Zentrale austauschen. Es geht vielmehr darum, Applikationen und Services dahin zu verlegen, wo die Workloads gerade gebraucht werden.

Latenzen, Bandbreiten und noch mehr Probleme

Dazu ist es nötig Latenzzeiten und Bandbreitenbeschränkungen zu verringern. Das ist nur möglich, so das Whitepaper, wenn die Workloads näher an den Endusern und Datenquellen laufen. Das verlangt nicht einfach nur mehr Power an den Rändern des Netzes. Nötig sind weitere Faktoren: Die Infrastruktur muss konsistent und standardisiert, ihr Management automatisiert sein. Es braucht Pläne zur Umgehung von Hardware-Ausfällen, also ein fehlertolerantes Design für eine „zero touch infrastructure“. Angelernte Mitarbeiter sollten vor Ort in der Lage sein, Geräte zu ersetzen, statt spezielle Techniker von Service-Points aus loszuschicken. In etlichen Fällen wird man das physikalische Design der Geräte überdenken müssen, weil es Stromschwankungen, Verschmutzungen, Feuchtigkeit und Vibrationen gibt.

Mehr Anwendungsszenarien als auf den ersten Blick

Die OSF-Arbeitsgruppe hat in ihrem Whitepaper verschiedene Anwendungsszenarien („Use Cases“) beschrieben. Das bekannteste ist Internet of Things: Massenhaft Daten von ihren Quellen an eine zentrale IT zu schicken ist kontraproduktiv. Es braucht vielmehr dazwischen Instanzen, wo bereits eine Vorverarbeitung und Filterung stattfindet. In Sachen Sicherheit schafft Edge Computing neue Angriffsmöglichkeiten. Es wäre nicht nur notwendig, sondern würde eher positiv wirken, Sicherheitsbarrieren schon vor der zentralen IT aufzubauen.

Schon in der Anlage der Edge-Cloud-Strukturen ließen sich Compliance-Anforderungen berücksichtigen und Datenströme begrenzen. Network Function Virtualization könnte ein Layer auf einer Edge-Infrastruktur sein. Echtzeit-Anwendungen, zum Beispiel in Autos, sind wegen Latenzen nur mit Edge Computing realisierbar. Massive Anwendungen wie Virtual Reality oder 360-Grad-Imaging in der Medizin vertragen sich nicht mit Netzwerk-Peaks.

Vernünftiges Edge Computing erhöht die Effizienz von Netzen. Viele Anwendungen benötigen nicht viel Rechenpower vor Ort, strapazieren aber die Bandbreite. So sind bei der Videoüberwachung 90 Prozent der Daten irrelevant und könnten ausgefiltert werden. Andere Umgebungen hängen an strapazierten oder nicht zuverlässigen Netzen; hier ließe sich durch halbautonome Systeme vor Ort ihre Funktion sichern. Schließlich kann Edge Computing zum Beispiel dafür sorgen, dass persönliche Daten (zum Beispiel Patientendaten) automatisch anonymisiert und verschlüsselt werden, bevor sie ins Netz fließen.

Viele neue Anforderungen

Die Working Group hatte schon eingangs festgestellt, dass eine Edge Computing Cloud hinsichtlich ihrer Hardware und ihrer Services fehlertolerant sein muss. Es braucht, möglichst auch noch automatisiert, Management-Systeme für diese Umgebungen, in denen Infrastructure as a Service diffiziler ist als im normalen Cloud Computing.

Daraus ergäben sich einige absehbare Anforderungen. Nötig sind Management-Tools für virtuelle Maschinen, Container und Bare Metal, für Images von Template-Files, für Network, Storage und schließlich die Administration des Ganzen. Damit nicht genug: Man müsse noch Schwierigkeiten aus dem Weg räumen, unter anderem bei der Adressierung von Storage-Latenzen in WAN-Umgebungen, der Sicherheit an Edge-Punkten, der Überwachung der Ressourcennutzung, bei Orchestrierungs-Tools und beim Verbund mehrerer Edge-Plattformen („Cloud-of-Clouds“).

Ungeklärt sei die Synchronisierung bei Netzunterbrechungen und die Netzwerkpartitionierung bei anfälliger Konnektivität. Es brauche Lösungen für das Lifecycle-Management von Edge Applikationen und für die Steuerung des Ressourcenbedarfs, weil nicht alle Applikationen im gleichen Moment dieselben Anforderungen haben. Gesucht ist, last not least, ein Konzept, um bei Bedarf (z.B. Ausfällen) Ressourcen von benachbarten Edge-Punkten abzweigen zu können.

Appell zur Mitarbeit

Die Arbeitsgruppe sieht sich selbst am Anfang ihrer Initiative. „Wir wissen, dass die Fähigkeit von OpenStack, Cloud Edge Computing zu unterstützen, unausgereift ist.“ Edge Computing solle nicht beschränkt sein auf die Komponenten und Architekturen von OpenStack. „Aber es gibt einige Gründe, dass OpenStack besonders attraktiv als Plattform für Cloud Edge Computing ist.“

Die Edge Computing Group bittet um Mitarbeit: „We recognize that there is work to be done to achieve our goals of creating the tools to meet these new requirements. We welcome and encourage the entire open source community to join in the opportunity to define and develop cloud edge computing.“ Das zeigt: Hier geht es zunächst einmal um die Arbeit an den Grundlagen.

* Ludger Schmitz ist freiberuflicher Journalist in Kelheim.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45193237 / Private Cloud)