IoT braucht lokale Rechenzentren Vertiv legt 4 Edge-Computing-Archetypen fest
Noch vor einem Jahr wussten selbst Branchen-Insider nichts mit dem Begriff „Edge-Computing“ anzufangen. Doch nun gehört das Phänomen genau unter diesen zu den am meisten diskutierten. Das Internet der Dinge (IoT) im Bunde mit 5 G und Künstlicher Intelligenz (KI) sind schuld und erfordern unter anderem Datacenter, die sich möglichst nah am Entstehungs- sowie Gebrauchsort der Daten befinden. Vertiv definierte nun vier Edge-Computing-Archetypen und stellte diese auf seiner europäischen Hausmesse vor.
Anbieter zum Thema

Der Definition von vier Archetypen ging ein Forschungsbericht voraus, den die Marktforscher 541 Reserach für Vertiv, ehemals Emerson Network Power, erstellt hat. Experten von Vertiv für Edge Computing haben gemeinsam mit diesen über 100 Anwendungsfälle identifiziert. Anschließend wurden jene 24 davon genauer untersucht, die unter Berücksichtigung der Prognosen zu Wachstum, Kritikalität und finanziellen Auswirkungen den größten Einfluss auf Unternehmen und Endanwender haben.
Dazu gehört es einfach, sich vor Augen zu führen, wie stark das Datenwachstum und der gleichzeitig zunehmende Bedarf an Echtzeitauswertungen eigentlich ist. Laut dem „Cisco Visual Networking Index“ betrug der weltweite Datenverkehr 2016 etwa 1,2 Zettabyte. Bis 2021 soll sich dieser Wert verdreifachen und damit 3,3 Zettabyte erreichen.
Auch der Datenverkehr steigt dadurch massiv: Laut Cisco soll die Anzahl der mit IP-Netzwerken verbundenen Geräte bis 2021 das Dreifache der Weltbevölkerung betragen – dies wären über 23 Milliarden vernetzte Geräte innerhalb von nur drei Jahren.
Die maßgebenden Faktoren
Andere Unternehmen gehen von ähnlichen Werten aus: Gartner-Analysten rechnen bis 2020 mit 20,8 Milliarden vernetzten Geräten, IDC mit 28,1 Milliarden und IHS Markit mit 30,7 Milliarden. So soll sich der mobile Datenverkehr bereits bis 2021 versiebenfachen und damit doppelt so schnell anwachsen wie der IP-Festnetzdatenverkehr.
Grob geschätzt lasst sich darüber hinaus schätzen, dass sich der Datenverkehr durch 5 G, also die kommende Generation des Funknetzes, vertausendfachen wird. Generiert werden die Daten am Netzwerkrand durch Enduser-Devices, mit denen sich per Streaming Filme und Live-Events verfolgen lassen – im Jahr 2016 machten Video-Inhalte 73 Prozent des gesamten Datenverkehrs aus, diese Zahl soll bis 2021 auf 82 Prozent steigen, da Video-Streaming und Virtual Reality zunehmen - und durch Sensoren aller Art für Temperatur- Geschwindigkeits- und Feuchtigkeitsmessungen beispielsweise.
Ein Beispiel ist die Einrichtung von IoT-Netzen intelligenter Häuser, Gebäude, Fabriken und Städte. Die Studie von 451 Research und Vertiv ergab: Obwohl nur 33 Prozent der 700 befragten Unternehmen IoT bereits weitreichend einsetzen, gaben 56 Prozent an, dass mindestens 25 Prozent ihrer IT-Kapazitäten IoT-kompatibel seien. Außerdem: Auch wenn IoT noch in den Kinderschuhen stecke, hätten Unternehmen bereits jetzt Probleme, die Datenmengen zu bewältigen.
Vom Buzzword-Bingo bis zur Realität
Laut IHS Markit, wird allein der Markt an Internet-fähigen Heimgeräten von über 100 Millionen Einheiten 2017 auf rund 600 Millionen Einheiten im Jahr 2021 anwachsen. Was smarte Fabriken, Fahrzeuge, Flugzeuge und Städte an Daten generieren werden, wenn erst einmal die Pizza per Drohne ins Haus kommt, sprengt ohnehin jegliche Vorstellungskraft.
Jedenfalls müssen sich ITler und Datacenter-Planer und -Betreiber und Rechenzentrumsdienste-Betreiber an neue Begriffe gewöhnen: Mist, Edge, Fog und Cloud Computing definiert nicht nur die Art der Anwendung, der Devives, des Eigentümertums, den Wert der Daten und die damit zusammenhängende Sicherheit, sondern auch den Transport und die Speicherung sowie den Bedarf an Geschwindigkeit.
Mist, zu deutsch: Dunst, befinden sich die Endgeräte, die Handys Smartphones, die Sensoren. Hier werden die Daten generiert oder genutzt. Ein Sensor überwachung aller erdenklichen Vorgänge von der Prüfung des Betriebszustands einer Lampe, über die Steuerung des Türzugangs bis hin zur Regelung der Raumtemperatur. Der Endpunkt zur Verarbeitung kann einfach ein PC oder Tablet sein, auf den oder das der Anwender Videos streamt, oder ein Mikroprozessor in einem Auto, Roboter oder Wearable. Die Komponenten sind anwendungsabhängig und werden üblicherweise vom Hersteller entwickelt oder in anderen Geräten nachgerüstet.
Im Edge finden die ersten Entscheidungen , und zwar lokal, statt. Temperatursensoren etwa, die zur Sicherstellung einen Kühlkette im Lebensmittelhandel dienen senden stets, doch die Daten sind vielleicht zu 96 Prozent irrelevant. Entscheidend sind die vier Prozent Abweichungen, die erkannt werden und eventuell zu weiteren Aktionen führen müssen. Rechenaufgaben, die hier anfallen sind Caching, Buffering und erste Analysen, Filtern ….
Die lokalen Datenknotenpunkt ermöglichen in der Nähe der Quelle die Speicherung und Verarbeitung von Daten. In manchen Fällen kann es sich beim lokalen Knotenpunkt um ein freistehendes Rechenzentrum handeln. Meist handelt es sich um ein Rack- oder reihenbasiertes System mit einer Kapazität von 30–300 Kilowatt in einem integrierten Gehäuse, das in jeder Umgebung installiert werden kann.
Rechenknoten an der Ecke
Auf der Fog-Computing-Ebene, Fog = dichter Nebel, wird die Spreu vom Weizen getrennt, findet allgemein gesprochen Deduktion statt. Cloud-Computing ist naturgemäß ebenfalls nicht heterogen; auf der Vertiv-Konferenz hieß es: Die großen werden noch größer.
:quality(80)/images.vogel.de/vogelonline/bdb/1363200/1363235/original.jpg)
Cloud in Zeiten von Industrie 4.0
Fog Computing beflügelt Co-Location- und Housing
Für Vertiv als Rechenzentrumsausstatter-, -planer und Management-Partner ist naturgemäß das neue Feld der Edge-Knoten interessant. Grand Valley Research prognostiziert zwischen 2018 und 2025 eine jährliche Wachstumsrate von 41 Prozent für das Edge Computing. Giordano Albertazzi, President EMEA bei Vertiv, sagt: „Edge Computing birgt enorme Chancen, aber auch eine ungeheure Komplexität.“ Die Archetypen seien ein erster Versuch, Struktur hineinzubringen. Sie unterscheiden sich im Wesentlichen nach Datenintensität, wie kritisch Latenzen für die Anwender sind, ob eine möglichst latenzfreie Machine-to-Machine-Kommunikation-involviert ist oder lebenswichtige Maßnahmen davon abhängen.
Der datenintensive Archetyp
Dazu zählen Anwendungsfälle, bei denen aufgrund des hohen Datenvolumens, fehlender Bandbreiten oder hoher Kosten die Daten nicht direkt über das Netzwerk in die Cloud oder von der Cloud zum jeweiligen Nutzungsort transferiert werden können. Dazu gehören beispielsweise Smart Cities, Smart Factories, Smart Homes oder Buildings, die Bereitstellung von HD-Inhalten, Hochleistungsrechner, eingeschränkte Konnektivität, Virtual Reality und die Digitalisierung in der Öl- und Gasbranche.
Das bekannteste Beispiel ist die Bereitstellung von HD-Inhalten, wo große Anbieter wie Amazon und Netflix aktiv mit Co-Location-Anbietern zusammenarbeiten, um die Netzwerke für ihre Datenbereitstellung zu erweitern. Kosten und Latenzzeiten werden durch die geografische Nähe der Nutzer zum Co-Location-Anbieter gesenkt.
Der latenzsensibler Archetyp für die menschliche Interaktion
Zu diesem Archetyp zählen Anwendungsfälle, in denen Services zur Inanspruchnahme durch den Menschen optimiert werden und wo Geschwindigkeit entscheidend ist. Verzögerungen bei der Bereitstellung von Daten beeinträchtigen die Nutzerzufriedenheit und verringern damit potenziell den Umsatz und die Rentabilität des Anbieters. Zu den Anwendungsfällen zählen Beispiele wie der Einzelhandel (Smart Retail), Augmented Reality, Website-Optimierung und die Verarbeitung von Sprachbefehlen.
Das Beispiel dazu liefern Google und Yahoo. Bei Google fanden Analysten heraus, dass eine Verzögerung der Page Response Time von 500 Millisekunden den Website-Verkehrs um 20 Prozent verringert, während Yahoo festgestellt hat, dass eine Verzögerung von 400 Millisekunden zu fünf bis neun Prozent weniger Website-Traffic führt.
Amazon hat wiederum festgestellt, dass eine Verzögerung der Zahlungsverarbeitung von 10 Millisekunden einen Umsatzrückgang von einem Prozent zur Folge hat. Eine zentralisierte Kennwortauthentifizierung dauere durchschnittlich sieben Sekunden. Die Umstellung auf lokale Verarbeitung verkürzte die Dauer auf 600 Millisekunden – eine Verbesserung um 6.400 Millisekunden, wobei 100 Millisekunden potenziell eine Umsatzsteigerung von einem Prozent erzielen.
Der latenzsensibler Archetyp in der M2M-Kommunikation
Geschwindigkeit ist auch für diesen Archetyp ausschlaggebend, zu dem der Arbitragemarkt, intelligente Stromnetze und Sicherheitsanwendungen, Echtzeitanalysen, die Verteilung von Content mit geringer Latenz und Simulationen im Verteidigungswesen gehören. Da Maschinen Daten bedeutend schneller verarbeiten können als Menschen, sind die Auswirkungen einer verzögerten Bereitstellung höher als beim menschlich latenzsensiblen Archetyp.
Beispielsweise können durch Verzögerungen im Rohstoff- und Aktienhandel, wo innerhalb von Sekundenbruchteilen Preisschwankungen entstehen, aus potenziellen Gewinnen noch Verluste werden. Laut einer Studie der Tabb Group kann ein Broker bis zu 4 Millionen Dollar verlieren wenn seine Trading-Plattform nur 5 Millisekunden hinter der Konkurrenz liegt.
Überlebenswichtiger Archetyp
Dieser Archetyp umfasst Anwendungsfälle, die sich direkt auf die menschliche Gesundheit und Sicherheit auswirken. Daher sind hier Geschwindigkeit und Zuverlässigkeit ein absolutes Muss. Zu den Anwendungsfällen zählen intelligente Transportsysteme, die Digitalisierung im Gesundheitswesen, vernetzte/autonome Fahrzeuge, autonome Roboter und Drohnen. Autonomen Fahrzeugen etwa müssen zum sicheren Betrieb aktuelle Daten vorliegen, ebenso wie auch Drohnen, die im E-Commerce oder zur Paketauslieferung eingesetzt werden.
Die Archetypen haben Auswirkungen auf die Kriterien, die ein Rechenzentrum definieren, etwa Verfügbarkeitsklasse, Sicherheitsstandards, Entfernungen und unter Umständen sogar Größe.
Bandbreite | Latenz | Verfügbarkeit | Sicherheit | |
---|---|---|---|---|
Archetyp 1: Der datenintensive | Hoch | Mittel | Hoch | Mittel |
Archetyp 2: Der menschlich-latenzsensible | Mittel | Hoch | Mittel | Mittel |
Archetyp 3: M2M-latenzsensibel | Mittel | Hoch | Hoch | Hoch |
Archetyp 4: überlebenswichtig | Mittel | Hoch | Hoch | Hoch |
Jeder Archetyp – mit Ausnahme des überlebenswichtigen Archetyps – kann je nach Anwendung in einem lokalen Datenknotenpunkt angeordnet werden. Diese Rack- oder reihenbasierten Gehäusesysteme vereinen in der Auffassung der Studienmacher Kommunikation, Rechenleistung und Speicherkapazität mit entsprechenden Vorrichtungen für Leistungsschutz, Umgebungsregulierung und physische Sicherheit.
Für Archetypen, bei denen es auf hohe Verfügbarkeit ankommt, etwa Machine-2-Machine-latenzsensible oder überlebenswichtige Anwendungen, sollte der lokale Knotenpunkt über eine redundante Reservestromversorgung verfügen sowie über Möglichkeiten zur Fernverwaltung und -überwachung. In vielen Anwendungsfällen sind außerdem Datenverschlüsselung und andere Sicherheitsmerkmale im lokalen Knotenpunkt erforderlich.
Bei allen Archetypen mit Ausnahme des überlebenswichtigen Archetyps kann der städtische und/ oder regionale Knotenpunkt dazu genutzt werden, die Anwendungsfälle abhängig von den Datenübertragungskosten, der durch den 5G-Standard verfügbaren Bandbreite und der Latenz zum Standort des physischen Rechenzentrums zu unterstützen. Der städtische Knotenpunkt greift zur Bereitstellung von Rechen- und Infrastrukturkapazitäten auf bestehende Telekommunikationsinfrastrukturen zurück.
Artikelfiles und Artikellinks
(ID:45257173)