Die weltweit erzeugte Datenmenge soll sich laut IDC bis 2027 fast verdoppeln – von rund 150 auf über 280 Zettabyte. Der Großteil davon fällt in Unternehmen an. Um diese Daten nutzbar zu machen, sind effiziente Speicherlösungen nötig. Gerade für Künstliche Intelligenz (KI), Machine Learning (ML) und das Internet of Things (IoT) bietet sich dabei Edge-Storage als Lösung an.
Bei „AI Inference at the Edge“ werden KI-Hardware, Storage und weitere Edge-Services am Netzwerkrand verzahnt.
Herkömmliche Speichersysteme befinden sich in der Regel in zentralisierten Umgebungen, weit entfernt von Endbenutzern und auf Speicherfunktionen angewiesenen Subsystemen. Bei Edge-Storage liegen die Daten dagegen am Rand des Netzwerks vor, wie der Name schon verrät. Das verkürzt die Zugriffswege und -zeiten deutlich, sodass die Daten schneller und einfacher zur Verfügung stehen.
Angesichts der explodierenden Datenmengen stoßen zentralisierte Speichermodelle in Sachen Skalierung und Datendurchsatz inzwischen an ihre Grenzen. Hier hilft es, die Speicherpunkte zu dezentralisieren und an den Rand des Netzwerks zu verlagern. Das minimiert die Wege zwischen der Erzeugung der Daten am Endpunkt und deren Speicherort und beschleunigt so deutlich den Datentransfer und Informationsaustausch.
Allerdings reagiert die Edge-Speicherung etwas empfindlicher auf Netzwerkprobleme, daher müssen Unternehmen eine umso stabilere, robuste Internetverbindung bereitstellen. Auch die Security steht bei der Umstellung neu auf dem Prüfstein. Der Schutz kann einerseits direkt am Endgerät erfolgen und benötigt dadurch weniger Leistung als große zentrale Systeme. Andererseits ist die schiere Menge der zu sichernden Endpunkte enorm hoch, was die Angriffsfläche vergrößert. Unter Umständen müssen Unternehmen daher mehr in die Sicherheit ihrer Speichersystemen investieren, um hier widerstandsfähig gegenüber Angriffen zu bleiben.
Jetzt speichern, später erledigen
Ursprünglich wurde Edge-Storage verwendet, um große Datenmengen so schnell wie möglich zu speichern und alles andere später zu erledigen, insbesondere wenn es um die Datenverarbeitung und den Datentransfer zu anderen Einrichtungen geht. Heutzutage haben moderne Edge-Storage-Lösungen die Latenzzeiten sowohl in Bezug auf das Netzwerk als auch auf den Datendurchsatz deutlich verringert, vor allem, weil sie noch näher an den Endnutzern sind. Auch die neuesten Fortschritte bei Speichersystemen wie NVMe ebnen den Weg für fortschrittlichere Workloads und schnellere KI-Anwendungen.
Doch egal, wo sich der Speicher befindet, er ist immer noch genau das: Speicher. Und Unternehmen nutzen Edge-Storage für alle möglichen Anwendungsfälle. Einige benötigen etwa eine schnelle und zuverlässige Möglichkeit, um große Datenmengen zu speichern, andere benötigen aus Leistungs- und Compliance-Gründen fortschrittliche Datenreplikations- und Redundanzsysteme. Edge-Storage ermöglicht beides.
Kurze Wege für schnelle Reaktionen
Das Datenspeichern am Netzwerkrand ist jedoch nur ein Teil des Ganzen. Insgesamt liegt beim Edge-Computing ein wichtiger Teil der Infrastruktur so nahe wie möglich am Datenerzeuger. Dadurch haben die Daten kurze Wege, und die Übertragungen weisen entsprechend niedrige Latenzen auf. Zudem sinkt durch diesen Aufbau die notwendige Bandbreite, da die Datenverarbeitung direkt auf dem Endgerät oder naheliegenden Edge-Gateways erfolgt. Das reduziert deutlich die Datenübertragung zu zentralen Rechenzentren – und senkt damit einhergehend die Betriebskosten.
Aufgrund dieser Eigenheiten eignet sich Edge-Computing besonders für Anwendungen, bei denen einerseits niedrige Latenzen essenziell sind und andererseits ausreichend Rechenleistung zur Verfügung steht, um die Workloads direkt am Endpunkt zu verarbeiten.
Neues Paradigma: Inference at the Edge
Der natürliche Lebensraum von Edge-Computing – und damit auch Edge-Storage – ist die Cloud. Fast alle heutigen Edge-Storage-Lösungen sind aus Cloud-Umgebungen hervorgegangen, sprich sie sind Cloud-nativ und können problemlos in andere Cloud-Workloads integriert werden, was etwa die Markteinführungszeiten verkürzt.
AI Inference at the Edge ist ein neues Cloud-basiertes Paradigma, bei dem die KI-Hardware zusammen mit Speicher und anderen Edge-Services am Rande des Netzwerks angesiedelt ist. Die enge Verzahnung mit anderen Edge-Services schafft neue Möglichkeiten für KI-gestützte Anwendungen: Sie können nun direkt am Edge Entscheidungen in Echtzeit treffen, ohne auf zentrale Stellen für die KI-Inferenzarbeit angewiesen zu sein.
Dies wird sich dramatisch positiv auf Edge-basierte Anwendungen auswirken, da es nicht nur möglich ist, am Edge zu speichern, sondern die KI gleichzeitig am selben Ort mit diesen Daten arbeiten kann. Das verkürzt die Datenumlaufzeiten erheblich und ermöglicht völlig neue Anwendungsfälle. Dank dieser Entwicklung werden wir in den kommenden Jahren mit sehr hoher Wahrscheinlichkeit einen rasanten Anstieg neuer Anwendungen erleben.
Gekommen, um zu bleiben
Künstliche Intelligenz ist gekommen, um zu bleiben. Und auch Edge-Storage hat sich als praktikable Option für viele Anwendungsfälle und Arbeitslasten etabliert. In Zukunft werden immer mehr Unternehmen die Edge-basierte Infrastruktur als Basis für maschinelles Lernen und KI am Netzwerkrand nutzbar machen. In Kombination mit noch schnelleren Speicher-Engines, die die Latenzzeiten über den gesamten Stack hinweg weiter senken, wird dies eine neue Ära von Echtzeitanwendungen einläuten. Diese Anwendungen sind viel näher am Endbenutzer und bieten fast sofort einen Mehrwert, ohne dabei das Budget zu sprengen. Unternehmen sollten diese Technologie auf jeden Fall im Auge behalten, um wettbewerbsfähig zu bleiben.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Elena Simon. General Manager DACH bei Gcore.
(Bild: Gcore)
* Die Autorin: Elena Simon ist General Manager DACH bei Gcore, einem Anbieter von Public Cloud und Edge Computing, KI, Content Delivery (CDN), Hosting und Security-Lösungen. Neben dem Studium der Wirtschaftsinformatik an der TU Braunschweig machte sie Tanzkarriere und trat bei der Weltmeisterschaft 2004/2005 an. Mit Diplom und Medaille kam sie 2007 in die Tech-Branche. Nach Stationen bei einem Telecom-Anbieter und einem Spieleentwickler stieg sie 2014 bei Gcore als Business Development Manager ein und leitet dort inzwischen das DACH-Geschäft. Elena tanzt immer noch leidenschaftlich und legt auch bei Kunden- wie Mitarbeiterführung viel Wert auf Harmonie.