Daten alleine stellen für ein Unternehmen noch keinen Wert dar – sondern verursachen im ersten Schritt vor allem Kosten für ihre Speicherung und die zugehörige Infrastruktur. Um aus einer zunehmend nahezu unerschöpflichen Datensammlung (Big Data) das Optimum herauszuholen (sie also in Smart Data zu verwandeln), sind intelligente Ansätze und Methoden erforderlich. Klar ist aber auch, dass dieses schlaue Verarbeiten von Daten die passende Hardware erfordert.
Um KI nutzen zu können, sind entsprechende Storage-Systeme grundlegend notwendig.
Die erste Frage in diesem Kontext beschäftigt sich mit der richtigen Aufbewahrung der Daten. Gerade dem optimalen Bereitstellen der Daten – sei es im Rechenzentrum oder in der Cloud – kommt eine entscheidende Rolle bei. Damit lassen sich die Daten sowohl zentral als auch dezentral auswerten und nutzen.
Datenspeicherung: eine Mixtur aus On- und Off-Premises-Storage
Hierfür werden „S3“- und andere Speicherplattformen genutzt, die sowohl On- als auch Off-Premises verfügbar sind. So lassen sich die dort befindlichen kalte Daten auf leistungsfähige Rechnersysteme transferieren, um sie bei Bedarf zu analysieren und zu verwerten. Damit können intelligente Speichersysteme aufgebaut werden, und das mithilfe von Tiered-Storage-Management-Software.
So oder so sollte das Ziel stets sein, sich weniger Gedanken um den Speicherort, sondern eher um die Speicherart zu machen. Hierbei kann eine ausgefeilte Hybrid-Cloud-Strategie helfen, die richtigen Antworten auf Storage-Fragen zu finden.
Kalte und heiße Daten richtig speichern
Vor dem ersten Schritt sollte klar sein, um welche Daten es sich primär handelt und wie man diese speichern will. Hiervon hängen die Qualität und die Quantität der notwendigen Anschaffungen ab. Da sind zum einen die kalten Daten (Cold Data) zu nennen, die vorzugsweise in ein Langzeitarchiv überführt werden können. Hier spielt das Magnetband nach wie vor eine wichtige Rolle, da es widerstandsfähig ist und ein sehr gutes Preis-Leistungs-Verhältnis bietet. Aber auch Block-Storage-Systeme sind hierfür eine gute Wahl.
Im Gegensatz dazu sind für das schnelle Auswerten von Hot Data leistungsfähige Systeme erforderlich, die zunehmend von der NVMe-Protokolltechnik profitieren. Damit gelangen Daten blitzschnell auf die Maschine, auf der die Daten analysiert und verarbeitet werden sollen. Aus dieser Kombination von kalten und heißen Daten-Quellen ergibt sich ein Konstrukt, das für die KI-gestützte Analyse und Verarbeitung von großen Datenmengen erforderlich ist.
Wichtig bei diesen Überlegungen ist vor allem das passende Vorsortieren der Daten. Denn nur eine Priorisierung der vorhandenen Datensätze führt zum gewünschten Ziel. So kann es beispielsweise sinnvoll sein, anstatt der puren Webseiten-Impressionen die besuchten Webseiten anhand bestimmter Kriterien zu sortieren und auszuwerten.
Prozessoptimierung
So kann das Korrelieren vorhandener Daten für eine erste Vorauswahl von entscheidender Bedeutung sein. Damit lassen sich Prozesse in großem und kleinerem Maßstab optimieren, und das vollautomatisiert und zur Laufzeit der zugehörigen Vorgänge. Hiermit lassen sich beispielsweise Lieferengpässe ausgleichen und abfangen – gerade in der aktuellen Pandemie ein wichtiges Thema.
Im Kontext von NVMe-tauglichen Speichersystemen sei das neue „Thinksystem DM5100F“ erwähnt. Es stellt eine Weiterentwicklung im Midrange-Bereich dar, das auf Ende-zu-Ende-Verbindungen und die NVMe-Technik setzt. Damit bekommen gerade mittelständische Unternehmen eine technische Ausstattung an die Hand, die mithilfe von KI und ausgefeilten Analysemethoden große Datenmengen auswerten und optimal nutzen können.
Die Netzwerkinfrastruktur muss mit der Datenverarbeitung Schritt halten
Spricht man über kalte und heiße Daten, kommt der Bewertung der passenden Netzwerktopologie ebenfalls eine wichtige Bedeutung bei. So stellt in Ethernet-Umgebungen die 25-Gbit-Variante fast schon einen Standard dar, der mehr und mehr zum Einsatz kommt. Zudem ist ein Trend in Richtung 100 Gigabit (Gbit) zu beobachten, was angesichts der enormen Datenmengen den nächsten logischen Schritt bei der Ethernet-Infrastruktur bedeutet.
Gleichzeitig spielt die Fibre-Channel-Technik vor allem im Block-Storage-Umfeld nach wie vor eine wichtige Rolle, wie das zum Beispiel bei SAN-Installationen der Fall ist. Das lässt sich alleine schon daran erkennen, dass der FC-Standard nach wie vor weiterentwickelt wird. Aktuell sind 32 Gbit pro Sekunde das Maß der Dinge, jedoch stehen schon die ersten 64-Gbit-Storage-Systeme kurz vor Verkaufsstart.
Zu beachten ist hierbei, dass erste Hersteller bereits die Produktion ihrer 16-Gbit-FC-Speicherkomponenten eingestellt haben. Damit ist es möglicherweise ratsam, die fünfte Generation (32 Gbit) zu überspringen und direkt bei der 64-Gbit-Variante einzusteigen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die lokale Storage-Landschaft in die Hybrid-Cloud überführen
Für den flexiblen Zugriff auf Hybrid-Cloud-Daten steht auf Storage-Systemen wie dem Lenovo Thinksystem DM5100F die Daten-Management-Software „Netapp Ontap“ zur Verfügung. Damit lässt sich unter anderem die Datenverfügbarkeit erheblich verbessern. Dies geschieht sogar auf Anwendungsebene, indem den vorhandenen Applikationen Prioritäten zugewiesen werden. Damit lässt sich bestimmen, welche Apps im Desaster-Fall „am Leben“ erhalten werden – und welche nicht. Zudem bietet Ontap in der aktuellen Version 9.8 erweiterte Snapshot-Möglichkeiten, womit sich lokale Storage-Systeme mit Cloud-Umgebungen wie S3 oder AWS synchronisieren lassen.
Dank Künstlicher Intelligenz und Analytics-Methoden schlaue Daten generieren
Die zunehmend riesigen Datenmengen erfordern neue Methoden, wenn es um die bestmögliche Auswertung derselben geht. Hierfür kommt schon eine ganze Weile Künstliche Intelligenz zum Einsatz, deren hochentwickelten Algorithmen für ein optimales Bereitstellen der vorhandenen Daten sorgen. Hierfür kommen allerlei Ansätze und Lösungen zum Einsatz, die auf das Verarbeiten und Analysieren großer Datenmengen spezialisiert sind.
Dazu gehören Technologien wie „Apache Hadoop“ und „Spark“, die auf Hochleistungsmaschinen ihre Arbeit erledigen. Zudem ist die Wahl des passenden Datenbanksystems von Bedeutung. Hier stehen mit „Microsoft SQL Server“ Big Data Cluster, „IBM Db2 Warehouse“ und diversen SAP-Lösungen leistungsfähige Tools zur Verfügung. Aber auch speziell entwickelte Lösungen wie „IBM Watson Studio“ und „Lenovo Intelligent Computing Orchestrator“ (Lico) holen auf KI-Basis das Beste aus den vorhandenen Daten heraus.
Interessant in diesem Kontext ist zudem das Software-Tool „TIM“ (Thinksystem Intelligent Monitoring) in der Version 2.0. Damit lassen sich auf KI-Basis Storage-Systeme verwalten und monitoren. So stellt TIM selbstständig Speicherengpässe oder Fehlkonfigurationen fest und kann so helfen, diese automatisiert zu beheben.
Sven Nimmich, Storage Solutions Evangelist bei der Lenovo Data Center Group.
(Bild: Lenovo)
Aber auch das Überprüfen der aktuellen Firmware gehört zu den Aufgaben von TIM. Damit werden IT-Admins von Routineaufgaben entlastet. Da es sich um eine Cloud-basierte Lösung handelt, können sowohl die Unternehmen selbst als auch Channelpartner die Software für ihre Zwecke nutzen.
*Der Autor: Sven Nimmich, Storage Solutions Evangelist bei der Lenovo Data Center Group