Die passende Speicher-Hardware Welche Infrastruktur für welche Daten?

Von Sven Nimmich* |

Anbieter zum Thema

Daten alleine stellen für ein Unternehmen noch keinen Wert dar – sondern verursachen im ersten Schritt vor allem Kosten für ihre Speicherung und die zugehörige Infrastruktur. Um aus einer zunehmend nahezu unerschöpflichen Datensammlung (Big Data) das Optimum herauszuholen (sie also in Smart Data zu verwandeln), sind intelligente Ansätze und Methoden erforderlich. Klar ist aber auch, dass dieses schlaue Verarbeiten von Daten die passende Hardware erfordert.

Um KI nutzen zu können, sind entsprechende Storage-Systeme grundlegend notwendig.
Um KI nutzen zu können, sind entsprechende Storage-Systeme grundlegend notwendig.
(Bild: gemeinfrei / Pixabay)

Die erste Frage in diesem Kontext beschäftigt sich mit der richtigen Aufbewahrung der Daten. Gerade dem optimalen Bereitstellen der Daten – sei es im Rechenzentrum oder in der Cloud – kommt eine entscheidende Rolle bei. Damit lassen sich die Daten sowohl zentral als auch dezentral auswerten und nutzen.

Datenspeicherung: eine Mixtur aus On- und Off-Premises-Storage

Hierfür werden „S3“- und andere Speicherplattformen genutzt, die sowohl On- als auch Off-Premises verfügbar sind. So lassen sich die dort befindlichen kalte Daten auf leistungsfähige Rechnersysteme transferieren, um sie bei Bedarf zu analysieren und zu verwerten. Damit können intelligente Speichersysteme aufgebaut werden, und das mithilfe von Tiered-Storage-Management-Software.

So oder so sollte das Ziel stets sein, sich weniger Gedanken um den Speicherort, sondern eher um die Speicherart zu machen. Hierbei kann eine ausgefeilte Hybrid-Cloud-Strategie helfen, die richtigen Antworten auf Storage-Fragen zu finden.

Kalte und heiße Daten richtig speichern

Vor dem ersten Schritt sollte klar sein, um welche Daten es sich primär handelt und wie man diese speichern will. Hiervon hängen die Qualität und die Quantität der notwendigen Anschaffungen ab. Da sind zum einen die kalten Daten (Cold Data) zu nennen, die vorzugsweise in ein Langzeitarchiv überführt werden können. Hier spielt das Magnetband nach wie vor eine wichtige Rolle, da es widerstandsfähig ist und ein sehr gutes Preis-Leistungs-Verhältnis bietet. Aber auch Block-Storage-Systeme sind hierfür eine gute Wahl.

Im Gegensatz dazu sind für das schnelle Auswerten von Hot Data leistungsfähige Systeme erforderlich, die zunehmend von der NVMe-Protokolltechnik profitieren. Damit gelangen Daten blitzschnell auf die Maschine, auf der die Daten analysiert und verarbeitet werden sollen. Aus dieser Kombination von kalten und heißen Daten-Quellen ergibt sich ein Konstrukt, das für die KI-gestützte Analyse und Verarbeitung von großen Datenmengen erforderlich ist.

Wichtig bei diesen Überlegungen ist vor allem das passende Vorsortieren der Daten. Denn nur eine Priorisierung der vorhandenen Datensätze führt zum gewünschten Ziel. So kann es beispielsweise sinnvoll sein, anstatt der puren Webseiten-Impressionen die besuchten Webseiten anhand bestimmter Kriterien zu sortieren und auszuwerten.

Prozessoptimierung

So kann das Korrelieren vorhandener Daten für eine erste Vorauswahl von entscheidender Bedeutung sein. Damit lassen sich Prozesse in großem und kleinerem Maßstab optimieren, und das vollautomatisiert und zur Laufzeit der zugehörigen Vorgänge. Hiermit lassen sich beispielsweise Lieferengpässe ausgleichen und abfangen – gerade in der aktuellen Pandemie ein wichtiges Thema.

Im Kontext von NVMe-tauglichen Speichersystemen sei das neue „Thinksystem DM5100F“ erwähnt. Es stellt eine Weiterentwicklung im Midrange-Bereich dar, das auf Ende-zu-Ende-Verbindungen und die NVMe-Technik setzt. Damit bekommen gerade mittelständische Unternehmen eine technische Ausstattung an die Hand, die mithilfe von KI und ausgefeilten Analysemethoden große Datenmengen auswerten und optimal nutzen können.

Die Netzwerkinfrastruktur muss mit der Datenverarbeitung Schritt halten

Spricht man über kalte und heiße Daten, kommt der Bewertung der passenden Netzwerktopologie ebenfalls eine wichtige Bedeutung bei. So stellt in Ethernet-Umgebungen die 25-Gbit-Variante fast schon einen Standard dar, der mehr und mehr zum Einsatz kommt. Zudem ist ein Trend in Richtung 100 Gigabit (Gbit) zu beobachten, was angesichts der enormen Datenmengen den nächsten logischen Schritt bei der Ethernet-Infrastruktur bedeutet.

Gleichzeitig spielt die Fibre-Channel-Technik vor allem im Block-Storage-Umfeld nach wie vor eine wichtige Rolle, wie das zum Beispiel bei SAN-Installationen der Fall ist. Das lässt sich alleine schon daran erkennen, dass der FC-Standard nach wie vor weiterentwickelt wird. Aktuell sind 32 Gbit pro Sekunde das Maß der Dinge, jedoch stehen schon die ersten 64-Gbit-Storage-Systeme kurz vor Verkaufsstart.

Zu beachten ist hierbei, dass erste Hersteller bereits die Produktion ihrer 16-Gbit-FC-Speicherkomponenten eingestellt haben. Damit ist es möglicherweise ratsam, die fünfte Generation (32 Gbit) zu überspringen und direkt bei der 64-Gbit-Variante einzusteigen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Die lokale Storage-Landschaft in die Hybrid-Cloud überführen

Für den flexiblen Zugriff auf Hybrid-Cloud-Daten steht auf Storage-Systemen wie dem Lenovo Thinksystem DM5100F die Daten-Management-Software „Netapp Ontap“ zur Verfügung. Damit lässt sich unter anderem die Datenverfügbarkeit erheblich verbessern. Dies geschieht sogar auf Anwendungsebene, indem den vorhandenen Applikationen Prioritäten zugewiesen werden. Damit lässt sich bestimmen, welche Apps im Desaster-Fall „am Leben“ erhalten werden – und welche nicht. Zudem bietet Ontap in der aktuellen Version 9.8 erweiterte Snapshot-Möglichkeiten, womit sich lokale Storage-Systeme mit Cloud-Umgebungen wie S3 oder AWS synchronisieren lassen.

Dank Künstlicher Intelligenz und Analytics-Methoden schlaue Daten generieren

Die zunehmend riesigen Datenmengen erfordern neue Methoden, wenn es um die bestmögliche Auswertung derselben geht. Hierfür kommt schon eine ganze Weile Künstliche Intelligenz zum Einsatz, deren hochentwickelten Algorithmen für ein optimales Bereitstellen der vorhandenen Daten sorgen. Hierfür kommen allerlei Ansätze und Lösungen zum Einsatz, die auf das Verarbeiten und Analysieren großer Datenmengen spezialisiert sind.

Dazu gehören Technologien wie „Apache Hadoop“ und „Spark“, die auf Hochleistungsmaschinen ihre Arbeit erledigen. Zudem ist die Wahl des passenden Datenbanksystems von Bedeutung. Hier stehen mit „Microsoft SQL Server“ Big Data Cluster, „IBM Db2 Warehouse“ und diversen SAP-Lösungen leistungsfähige Tools zur Verfügung. Aber auch speziell entwickelte Lösungen wie „IBM Watson Studio“ und „Lenovo Intelligent Computing Orchestrator“ (Lico) holen auf KI-Basis das Beste aus den vorhandenen Daten heraus.

Interessant in diesem Kontext ist zudem das Software-Tool „TIM“ (Thinksystem Intelligent Monitoring) in der Version 2.0. Damit lassen sich auf KI-Basis Storage-Systeme verwalten und monitoren. So stellt TIM selbstständig Speicherengpässe oder Fehlkonfigurationen fest und kann so helfen, diese automatisiert zu beheben.

Sven Nimmich, Storage Solutions Evangelist bei der Lenovo Data Center Group.
Sven Nimmich, Storage Solutions Evangelist bei der Lenovo Data Center Group.
(Bild: Lenovo)

Aber auch das Überprüfen der aktuellen Firmware gehört zu den Aufgaben von TIM. Damit werden IT-Admins von Routineaufgaben entlastet. Da es sich um eine Cloud-basierte Lösung handelt, können sowohl die Unternehmen selbst als auch Channelpartner die Software für ihre Zwecke nutzen.

*Der Autor: Sven Nimmich, Storage Solutions Evangelist bei der Lenovo Data Center Group

Artikelfiles und Artikellinks

(ID:47088343)