Dezentrale Datenverarbeitung Wie die NASA zur Mondlandung auf Edge Computing setzte
Auch wenn „Edge Computing“ als moderner technologischer Ansatz in Abgrenzung zu Cloud und Core (Rechenzentrum) wahrgenommen wird, ist es letzten Endes ein Prinzip, das bereits in der Apollo-Mission angewandt wurde.
Anbieter zum Thema

Edge Computing hat sich zunehmend zu einem wichtigen Teil der IT entwickelt. Der CTO von Suse, Gerald Pfeifer, formuliert den Stellenwert folgendermaßen: „Edge ist nicht mehr eine Nische, um die sich andere kümmern, sondern eine dritte vollwertige Modalität neben dem Rechenzentrum, also dem Core, und der Cloud.“
Im Vergleich zu Core und Cloud lasse sich Edge jedoch schwerer definitorisch festnageln oder einschränken, außer dass es eben keiner der beiden anderen Fälle (Core oder Cloud) ist. Supermarktkassen fallen unter die Edge-Begrifflichkeit, genauso wie Messanlagen, Handys, oder Autos mit IT an Bord sowie Flugzeuge.
:quality(80)/images.vogel.de/vogelonline/bdb/1624700/1624712/original.jpg)
Eco-Diskussion um einen schwammigen Begriff
Definieren Sie Edge Datacenter!
Rückblickend war vieles „Edge“
So war im Grunde vieles rückblickend „Edge“, auch wenn es diese Begrifflichkeit damals noch nicht gab. Pfeifer taxiert, dass es Edge Computing schon seit über 50 Jahren gibt. „Ich würde auch die Board-Rechner der ersten Apollo-Mondlandung dazu zählen, noch bevor es das Internet als solches gab und wo die Kommunikation über Funk erfolgte, oder Point-of-Sales-Umgebungen im Handel“, so der CTO.
Der Unterschied im zeitlichen Verlauf zeichnet sich dadurch aus, dass Edge-Lösungen ursprünglich meist „handgeschnitzt“ und sehr spezifisch, oft auch recht statisch waren. Heute hingegen sei Standardisierung beziehungsweise Wiederverwendung genauso in das Technikumfeld eingekehrt, wie die steigenden Anforderungen durch kurze Entwicklungszyklen.
Datenverarbeitung am Rande des Netzwerks
Letztendlich geht es beim Edge Computing um die dezentrale Datenverarbeitung am Rand des Netzwerks, bei dem nur Ergebnisse weitergeleitet werden. Dem gegenüber steht der Trend, dass Unternehmen zunehmend darauf setzen, unverarbeitete Rohdaten abzuspeichern, weil man beim Erfassen der Daten teilweise noch gar nicht absehen kann, welche Erkenntnisse später durch Data-, beziehungsweise Predictive Analytics gewonnen werden können.
Die Herangehensweise vor dem Hintergrund dieses Spannungsfeldes hängt laut Pfeifer stark vom jeweiligen Anwendungszweck und der verfügbaren Infrastruktur ab. Es stellen sich Fragen wie:
- Handelt es sich um personenbezogene Daten, und wie sieht es um die daraus resultierenden Verpflichtungen (Stichwort DSGVO/ GDPR) aus?
- Wie viele Daten fallen an, und steht ausreichend Bandbreite beziehungsweise lokaler Zwischenspeicher zur Verfügung?
- Welcher Mehrwert wird angestrebt, und in welchem Verhältnis steht dieser zum Mehraufwand und den Mehrkosten?
Datenerfassung, -Transport und -Speicherung
Laut dem Suse-CTO ist es heute immens einfach, geradezu beliebig große Datenmengen zu erfassen und zu generieren. „Neben der initialen Verarbeitung sind Transport und Speicherung jedoch nach wie vor ein Thema. Ich erwarte, dass das auf absehbare Zeit so bleiben wird,“ so der Linux-Profi.
Die Entwicklung von Edge Computing im Lauf der Zeit skizziert Pfeifer dahingehend, dass Edge früher teils abgetrennter und statischer war, „meist durch dünne Verbindungen angeschlossen, recht spezialisiert und getrennt von anderer Infrastruktur behandelt“. Im Gegensatz dazu sei heutzutage deutlich mehr Dynamik und Vernetzung an der Tagesordnung. „Lösungen spannen sich über Edge, Rechenzentren und Cloud. Daten werden fleißig ausgetauscht, Lösungen agil erschaffen und weiterentwickelt und einzelne Anwendungen verteilt.“
Container und Kubernetes
Es ist von Vorteil, erläutert der Technik-Experte, wenn sich Umgebungen ähnlich sind, oder gar (aus Sicht der Entwickler und Betreiber) identisch oder zumindest kompatibel. „Moderne Ansätze wie Container als Bausteine und Kubernetes als flexible Plattformen bieten sich hier an. Dabei wird ein Kubernetes-Cluster n meinem Mietwagen wohl anders aussehen als jener, auf dem mein ERP-System oder Webshop läuft, sich aber ähnlich anfühlen.“
:quality(80)/images.vogel.de/vogelonline/bdb/1789200/1789229/original.jpg)
Longhorn für DevOps-Teams
Kubernetes-natives Speichern für Edge-Implementierungen
:quality(80)/images.vogel.de/vogelonline/bdb/1723600/1723641/original.jpg)
Fusion im Enterprise Kubernetes Management
Suse übernimmt Rancher Labs
Pfeifer vergleicht das mit dem Unterschied zwischen einem Kompaktauto und einem Sattelschlepper, die ja auch andere Charakteristika haben, wobei die Funktion der Pedale, des Autoradios oder der Verkehrsregeln sich aber stark ähneln oder identisch sind. Das erlaubt es, lokal oder in Clouds zu entwickeln und vorab zu testen, Funktionen dorthin zu schieben, wo die meisten Daten anliegen, oder Geräte an der Edge autonomer zu gestalten.
Zusammenspiel von Edge, Core und Cloud
Edge, Core und Cloud stehen nicht unabhängig voneinander, sondern in einer Dynamik in Austausch und Zusammenarbeit. Auf der technischen Seite bedeutet das, dass Themen wie Orchestrierung, Hochverfügbarkeit, Daten- und Systemsicherheit quer durch dieses Ensemble Edge, Core und Cloud abgedeckt werden müssen. „Ich erwarte, dass wir hier rote Fäden sehen: Kubernetes wird auch an der Edge zum De-Facto-Standard werden, nicht zuletzt über spezialisierte, schlankere Distributionen wie K3s. Linux wird weiterhin proprietäre Insellösungen ersetzen“, ist Pfeifer überzeugt.
Artikelfiles und Artikellinks
(ID:47150196)