Dezentralisierte Datenspeicherung Edge-Storage – KI am Netzwerkrand

Ein Gastbeitrag von Elena Simon* 4 min Lesedauer

Anbieter zum Thema

Die weltweit erzeugte Datenmenge soll sich laut IDC bis 2027 fast verdoppeln – von rund 150 auf über 280 Zettabyte. Der Großteil davon fällt in Unternehmen an. Um diese Daten nutzbar zu machen, sind effiziente Speicherlösungen nötig. Gerade für Künstliche Intelligenz (KI), Machine Learning (ML) und das Internet of Things (IoT) bietet sich dabei Edge-Storage als Lösung an.

Bei „AI Inference at the Edge“ werden KI-Hardware, Storage und weitere Edge-Services am Netzwerkrand verzahnt.(Bild:  ©Just_Super, Getty Images Signature via Canva.com)
Bei „AI Inference at the Edge“ werden KI-Hardware, Storage und weitere Edge-Services am Netzwerkrand verzahnt.
(Bild: ©Just_Super, Getty Images Signature via Canva.com)

Herkömmliche Speichersysteme befinden sich in der Regel in zentralisierten Umgebungen, weit entfernt von Endbenutzern und auf Speicherfunktionen angewiesenen Subsystemen. Bei Edge-Storage liegen die Daten dagegen am Rand des Netzwerks vor, wie der Name schon verrät. Das verkürzt die Zugriffswege und -zeiten deutlich, sodass die Daten schneller und einfacher zur Verfügung stehen.

Angesichts der explodierenden Datenmengen stoßen zentralisierte Speichermodelle in Sachen Skalierung und Datendurchsatz inzwischen an ihre Grenzen. Hier hilft es, die Speicherpunkte zu dezentralisieren und an den Rand des Netzwerks zu verlagern. Das minimiert die Wege zwischen der Erzeugung der Daten am Endpunkt und deren Speicherort und beschleunigt so deutlich den Datentransfer und Informationsaustausch.

Allerdings reagiert die Edge-Speicherung etwas empfindlicher auf Netzwerkprobleme, daher müssen Unternehmen eine umso stabilere, robuste Internetverbindung bereitstellen. Auch die Security steht bei der Umstellung neu auf dem Prüfstein. Der Schutz kann einerseits direkt am Endgerät erfolgen und benötigt dadurch weniger Leistung als große zentrale Systeme. Andererseits ist die schiere Menge der zu sichernden Endpunkte enorm hoch, was die Angriffsfläche vergrößert. Unter Umständen müssen Unternehmen daher mehr in die Sicherheit ihrer Speichersystemen investieren, um hier widerstandsfähig gegenüber Angriffen zu bleiben.

Jetzt speichern, später erledigen

Ursprünglich wurde Edge-Storage verwendet, um große Datenmengen so schnell wie möglich zu speichern und alles andere später zu erledigen, insbesondere wenn es um die Datenverarbeitung und den Datentransfer zu anderen Einrichtungen geht. Heutzutage haben moderne Edge-Storage-Lösungen die Latenzzeiten sowohl in Bezug auf das Netzwerk als auch auf den Datendurchsatz deutlich verringert, vor allem, weil sie noch näher an den Endnutzern sind. Auch die neuesten Fortschritte bei Speichersystemen wie NVMe ebnen den Weg für fortschrittlichere Workloads und schnellere KI-Anwendungen.

Doch egal, wo sich der Speicher befindet, er ist immer noch genau das: Speicher. Und Unternehmen nutzen Edge-Storage für alle möglichen Anwendungsfälle. Einige benötigen etwa eine schnelle und zuverlässige Möglichkeit, um große Datenmengen zu speichern, andere benötigen aus Leistungs- und Compliance-Gründen fortschrittliche Datenreplikations- und Redundanzsysteme. Edge-Storage ermöglicht beides.

Kurze Wege für schnelle Reaktionen

Das Datenspeichern am Netzwerkrand ist jedoch nur ein Teil des Ganzen. Insgesamt liegt beim Edge-Computing ein wichtiger Teil der Infrastruktur so nahe wie möglich am Datenerzeuger. Dadurch haben die Daten kurze Wege, und die Übertragungen weisen entsprechend niedrige Latenzen auf. Zudem sinkt durch diesen Aufbau die notwendige Bandbreite, da die Datenverarbeitung direkt auf dem Endgerät oder naheliegenden Edge-Gateways erfolgt. Das reduziert deutlich die Datenübertragung zu zentralen Rechenzentren – und senkt damit einhergehend die Betriebskosten.

Aufgrund dieser Eigenheiten eignet sich Edge-Computing besonders für Anwendungen, bei denen einerseits niedrige Latenzen essenziell sind und andererseits ausreichend Rechenleistung zur Verfügung steht, um die Workloads direkt am Endpunkt zu verarbeiten.

Neues Paradigma: Inference at the Edge

Der natürliche Lebensraum von Edge-Computing – und damit auch Edge-Storage – ist die Cloud. Fast alle heutigen Edge-Storage-Lösungen sind aus Cloud-Umgebungen hervorgegangen, sprich sie sind Cloud-nativ und können problemlos in andere Cloud-Workloads integriert werden, was etwa die Markteinführungszeiten verkürzt.

AI Inference at the Edge ist ein neues Cloud-basiertes Paradigma, bei dem die KI-Hardware zusammen mit Speicher und anderen Edge-Services am Rande des Netzwerks angesiedelt ist. Die enge Verzahnung mit anderen Edge-Services schafft neue Möglichkeiten für KI-gestützte Anwendungen: Sie können nun direkt am Edge Entscheidungen in Echtzeit treffen, ohne auf zentrale Stellen für die KI-Inferenzarbeit angewiesen zu sein.

Dies wird sich dramatisch positiv auf Edge-basierte Anwendungen auswirken, da es nicht nur möglich ist, am Edge zu speichern, sondern die KI gleichzeitig am selben Ort mit diesen Daten arbeiten kann. Das verkürzt die Datenumlaufzeiten erheblich und ermöglicht völlig neue Anwendungsfälle. Dank dieser Entwicklung werden wir in den kommenden Jahren mit sehr hoher Wahrscheinlichkeit einen rasanten Anstieg neuer Anwendungen erleben.

Gekommen, um zu bleiben

Künstliche Intelligenz ist gekommen, um zu bleiben. Und auch Edge-Storage hat sich als praktikable Option für viele Anwendungsfälle und Arbeitslasten etabliert. In Zukunft werden immer mehr Unternehmen die Edge-basierte Infrastruktur als Basis für maschinelles Lernen und KI am Netzwerkrand nutzbar machen. In Kombination mit noch schnelleren Speicher-Engines, die die Latenzzeiten über den gesamten Stack hinweg weiter senken, wird dies eine neue Ära von Echtzeitanwendungen einläuten. Diese Anwendungen sind viel näher am Endbenutzer und bieten fast sofort einen Mehrwert, ohne dabei das Budget zu sprengen. Unternehmen sollten diese Technologie auf jeden Fall im Auge behalten, um wettbewerbsfähig zu bleiben.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Elena Simon. General Manager DACH bei Gcore.(Bild:  Gcore)
Elena Simon. General Manager DACH bei Gcore.
(Bild: Gcore)

* Die Autorin: Elena Simon ist General Manager DACH bei Gcore, einem Anbieter von Public Cloud und Edge Computing, KI, Content Delivery (CDN), Hosting und Security-Lösungen. Neben dem Studium der Wirtschaftsinformatik an der TU Braunschweig machte sie Tanzkarriere und trat bei der Weltmeisterschaft 2004/2005 an. Mit Diplom und Medaille kam sie 2007 in die Tech-Branche. Nach Stationen bei einem Telecom-Anbieter und einem Spieleentwickler stieg sie 2014 bei Gcore als Business Development Manager ein und leitet dort inzwischen das DACH-Geschäft. Elena tanzt immer noch leidenschaftlich und legt auch bei Kunden- wie Mitarbeiterführung viel Wert auf Harmonie.

(ID:50038894)