Dezentrale Datenverarbeitung Wie die NASA zur Mondlandung auf Edge Computing setzte

Redakteur: Dr. Stefan Riedl

Auch wenn „Edge Computing“ als moderner technologischer Ansatz in Abgrenzung zu Cloud und Core (Rechenzentrum) wahrgenommen wird, ist es letzten Endes ein Prinzip, das bereits in der Apollo-Mission angewandt wurde.

Firmen zum Thema

Auch die Board-Rechner der ersten Apollo-Mondlandung setzten auf Edge Computing.
Auch die Board-Rechner der ersten Apollo-Mondlandung setzten auf Edge Computing.
(Bild: merlin74 - stock.adobe.com)

Edge Computing hat sich zunehmend zu ­einem wichtigen Teil der IT entwickelt. Der CTO von Suse, Gerald Pfeifer, formuliert den Stellenwert folgendermaßen: „Edge ist nicht mehr eine Nische, um die sich andere kümmern, sondern eine dritte vollwertige Modalität neben dem Rechenzentrum, also dem Core, und der Cloud.“

Im Vergleich zu Core und Cloud lasse sich Edge jedoch schwerer definitorisch festnageln oder einschränken, außer dass es eben keiner der beiden anderen Fälle (Core oder Cloud) ist. Supermarktkassen fallen unter die Edge-Begrifflichkeit, genauso wie Messanlagen, Handys, oder Autos mit IT an Bord sowie Flugzeuge.

Rückblickend war vieles „Edge“

So war im Grunde vieles rückblickend „Edge“, auch wenn es diese Begrifflichkeit damals noch nicht gab. Pfeifer taxiert, dass es Edge Computing schon seit über 50 Jahren gibt. „Ich würde auch die Board-Rechner der ersten Apollo-Mondlandung dazu zählen, noch bevor es das Internet als ­solches gab und wo die Kommunikation über Funk erfolgte, oder Point-of-Sales-Umgebungen im Handel“, so der CTO.

Der Unterschied im zeitlichen Verlauf zeichnet sich dadurch aus, dass Edge-Lösungen ­ursprünglich meist „handgeschnitzt“ und sehr spezifisch, oft auch recht statisch ­waren. Heute hingegen sei Standardisierung beziehungsweise Wiederverwendung genauso in das Technikumfeld eingekehrt, wie die steigenden Anforderungen durch kurze Entwicklungszyklen.

Datenverarbeitung am Rande des Netzwerks

Letztendlich geht es beim Edge Computing um die dezentrale Datenverarbeitung am Rand des Netzwerks, bei dem nur Ergebnisse weitergeleitet werden. Dem gegenüber steht der Trend, dass Unternehmen zunehmend darauf setzen, unverarbeitete Rohdaten abzuspeichern, weil man beim Erfassen der Daten teilweise noch gar nicht absehen kann, welche Erkenntnisse später durch Data-, beziehungsweise Predictive Analytics gewonnen werden können.

Die Herangehensweise vor dem Hintergrund dieses Spannungsfeldes hängt laut Pfeifer stark vom jeweiligen Anwendungszweck und der verfügbaren Infrastruktur ab. Es stellen sich Fragen wie:

  • Handelt es sich um personenbezogene Daten, und wie sieht es um die daraus resultierenden Verpflichtungen (Stichwort DSGVO/ GDPR) aus?
  • Wie viele Daten fallen an, und steht ausreichend Bandbreite beziehungsweise lokaler Zwischenspeicher zur Verfügung?
  • Welcher Mehrwert wird angestrebt, und in welchem Verhältnis steht dieser zum Mehraufwand und den Mehrkosten?

Datenerfassung, -Transport und -Speicherung

Laut dem Suse-CTO ist es heute immens einfach, geradezu beliebig große Datenmengen zu erfassen und zu generieren. „Neben der initialen Verarbeitung sind Transport und Speicherung jedoch nach wie vor ein Thema. Ich erwarte, dass das auf abseh­bare Zeit so bleiben wird,“ so der Linux-Profi.

Die Entwicklung von Edge Computing im Lauf der Zeit skizziert Pfeifer dahingehend, dass Edge früher teils abgetrennter und ­statischer war, „meist durch dünne Verbindungen angeschlossen, recht spezialisiert und getrennt von anderer Infrastruktur behandelt“. Im Gegensatz dazu sei heutzutage deutlich mehr Dynamik und Vernetzung an der Tagesordnung. „Lösungen spannen sich über Edge, Rechenzentren und Cloud. Daten werden fleißig ausgetauscht, Lösungen agil erschaffen und weiterentwickelt und einzelne Anwendungen verteilt.“

Container und Kubernetes

Es ist von Vorteil, erläutert der Technik-Experte, wenn sich Umgebungen ähnlich sind, oder gar (aus Sicht der Entwickler und Betreiber) identisch oder zumindest kompatibel. „Moderne Ansätze wie Container als Bausteine und Kubernetes als flexible Plattformen bieten sich hier an. Dabei wird ein Kubernetes-Cluster n meinem Mietwagen wohl anders aussehen als jener, auf dem mein ERP-System oder Webshop läuft, sich aber ähnlich ­anfühlen.“

Ergänzendes zum Thema
Rancher Container Management

Suse liefert Bausteine für Edge-Computing-Architekturen und kauft in diesem Zusammenhang kräftig zu. Der Kauf von Rancher Labs sei in diesem Zusammenhang zentral, einem Anbieter von Lösungen für Enterprise Kubernetes Management. Die „Rancher Container Management Plattform“ dahinter arbeitet seit Kurzem mit dem Tool „Longhorn 1.1“.

Mit der allgemeinen Verfügbarkeit von Longhorn seit Juni 2020 gewann das Werkzeug im Umfeld von Kubernetes und Storage an Bedeutung. Die neue Version ermöglicht Rancher-Anwendern nämlich die Nutzung einer Kubernetes-nativen Speicherlösung auf eingeschränkter Hardware in Edge-Umgebungen.

Pfeifer vergleicht das mit dem Unterschied zwischen einem Kompaktauto und einem Sattelschlepper, die ja auch andere Charakteristika haben, wobei die Funktion der Pedale, des Auto­radios oder der Verkehrsregeln sich aber stark ähneln oder identisch sind. Das ­erlaubt es, lokal oder in Clouds zu entwickeln und vorab zu testen, Funktionen dorthin zu schieben, wo die meisten ­Daten anliegen, oder Geräte an der Edge autonomer zu gestalten.

Zusammenspiel von Edge, Core und Cloud

Edge, Core und Cloud stehen nicht unabhängig voneinander, sondern in einer ­Dynamik in Austausch und Zusammenarbeit. Auf der technischen Seite bedeutet das, dass Themen wie Orchestrierung, Hochverfügbarkeit, Daten- und Systemsicherheit quer durch dieses Ensemble Edge, Core und Cloud abgedeckt werden müssen. „Ich erwarte, dass wir hier rote Fäden sehen: Kubernetes wird auch an der Edge zum De-Facto-Standard werden, nicht zuletzt über spezialisierte, schlankere Distributionen wie K3s. Linux wird weiterhin proprietäre Insellösungen ersetzen“, ist Pfeifer überzeugt.

Artikelfiles und Artikellinks

(ID:47150196)