Interview mit Hu Yoshida, VP und Global CTO bei Hitachi Vantara

Speichertechnik heute und morgen

| Autor / Redakteur: Walter Schadhauser / Tina Billo

Hu Yoshida, Vice President und Global CTO bei Hitachi Vantara, nimmt Stellung zum derzeitigen Stand der Speichertechnik und sich abzeichnenden Entwicklungen.
Hu Yoshida, Vice President und Global CTO bei Hitachi Vantara, nimmt Stellung zum derzeitigen Stand der Speichertechnik und sich abzeichnenden Entwicklungen. (Bild: Hitachi Vantara)

Der Ruhestand für Daten ist durch permanente Abfragen, KI und Multi-Cloud-Migrationen nicht mehr in Sichtweite. Doch große Storage-Anbieter wie Hitachi Vantara machen sich Sorgen um die Datenkonsistenz, die nicht nur durch Ransomware gefährdet ist. Hu Yoshida gibt Tipps, worauf sie beim Speichern achten sollten.

Daten und Metadaten werden heute unterschiedlichen an verschiedenen Orten betriebenen Speichersystemen für die Verarbeitung zur Verfügung gestellt. Ist ein Weg zurück zur „unkomplizierteren“ Datenhaltung noch machbar?

Hu Yoshida: Ich glaube nicht, dass die Welt jemals so simpel war. Sogar in Storage Area Networks waren Daten in der Anwendung gefangen oder auf Speichersystemen gestrandet. Mit Ausnahme der fünf Prozent, die wir in Data Warehouses oder Data Marts extrahiert haben, befanden sie sich in Silos. Deren Beseitigung ist jedoch entscheidend für die digitale Transformation.

Der Einsatz eines Objektspeichersystems wie der `Hitachi Content´ Platform schafft hier Abhilfe und vereinfacht IT-Organisationen sowie Cloud-Anbietern, die wachsende Menge an unstrukturierten Daten zu bewältigen und mit ihnen umzugehen. Dateien und Objekte können von einem einzigen System aus gespeichert, geteilt, synchronisiert, geschützt, erhalten, analysiert und abgerufen werden.

Strukturierte und unstrukturierte Daten lassen sich zudem mit Hilfe von Datenintegrationswerkzeugen wie ´Pentaho Data Integration´(PDI) von Hitachi Pentaho integrieren, um Data Lakes für Analysen durch Pentaho Analytics oder andere Werkzeuge wie ´Hadoop´ oder ´Spark´ anzulegen.

Anwender sichern Daten vermehrt mit lokalen anwendungsbezogenen Backup-Tools. Ist ein zentrales Backup-Management aus finanzieller Sicht nicht erstrebenswerter?

Hu Yoshida: Das Konzept von Backup muss sich ändern. Bei 80 Prozent der unstrukturierten Daten sind tägliche inkrementelle und wöchentliche vollständige Sicherungen nicht notwendig. Erfassen Sie die Daten und Metadaten in einem Objektspeicher und replizieren sie diese zum Schutz der Daten. Jede Änderung kann als neue Version hinzugefügt werden und der Zugriff kann direkt durch die Metadaten erfolgen, ohne erst eine Vielzahl von Sicherungs-Tapes scannen zu müssen.

Die Daten sind damit ´gehasht´ und in Folge dessen unveränderbar. Darüber hinaus sind sie verschlüsselt, so dass Sie sie ´krypto-schreddern´ können, wenn sie auf einem bestimmten Speichersystem nicht mehr benötigt werden. Die Daten sind nicht so wichtig wie die Metadaten, die den Kontext liefern. Sie werden die Anwendungen, die sie erzeugt haben und die Infrastruktur, der sie ursprünglich zugeordnet waren, überdauern. Objektspeicher löst die Daten von Anwendungen und macht die Migration zwischen Infrastrukturen einfach.

Obwohl es scheinbar nur ein Storage-Protokoll ist, wird NVMe mit und ohne Fabric-Anteil die Speicherinfrastruktur verändern. Wie sehen sie das?

Hu Yoshida: Bei NVMe handelt es sich um eine Schnittstellenspezifizierung wie SATA. Es erlaubt schnellen Zugriff auf direkt verbundene Solid-State-Geräte. NVMe-Geräte kommunizieren mit der System-CPU direkt über Highspeed-PCIe-Verbindungen. Das verändert die Speicherinfrastruktur, weil kein Host Bus Adapter (HBA) oder Storage-Controller mehr benötigt wird. Obwohl NVMe eine hohe Performance bietet, fehlen aber Funktionen, die von Storage-Controllern und HBAs geliefert werden, etwa externes Anhängen oder Clustering.

NVMeoF oder NVMe over Fabrics ist ein Netzwerkprotokoll wie SCSI, das Remote Direct Memory Access (RDMA) erfordert, sich aber noch in den Kinderschuhen befindet. Derzeit handelt es sich hierbei um einen Entwicklungsstandard, der aktuell noch einige Nachteile aufweist und von den Anbietern auf unterschiedliche Weise in den eigenen Lösungen umgesetzt wird. Das führt zu unterschiedlichen NVMeoF-Implementierungen, die untereinander inkompatibel sein können.

NVMeoF kopiert darüber hinaus die vor rund 40 Jahren entwickelten Konzepte und die damit überalterte Architektur des klassischen iSCSI-Modells. SCSI funktioniert nicht gut mit aktuellen Technologien und Ansätzen wie voll automatisierten API-Kontrollen, softwaredefiniertem Speicher, hyperkonvergenter Infrastruktur und verteiltem Storage. Den meisten Implementierungen mangelt es an durchgehenden Integritätsprüfungen, was zu korrumpierten Daten führen kann.

Sicherlich werden NMVe and NVMeoF die SCSI-Bottlenecks beseitigen, die die volle Leistung von SSDs und 3DXpoint einschränken. Man sollte bei der Betrachtung aber die Performance bei der Vernetzung und die Gesamtleistung und -funktionalität gegeneinander aufrechnen. Hitachi Vantara bietet in seinen hyperkonvergenten Systemen NVMe für die direkte Storage-Anbindung. Bei NVMeoF halten wir uns aber aktuell noch zurück.

Bekommt Fibre Channel durch das NVMeoF-Protoll noch mal eine Chance?

Hu Yoshida: NVMeoF ist NVMe over Fabric, nicht über Fibre Channel und ähnelt im Grunde iSCSI, das über TCP läuft. Das wird mehr Traffic in LANs, WANs und das Internet bringen. Fibre Channel wird uns noch einige Zeit erhalten bleiben, aber nicht aufgrund von NVMeoF.

Software-Hersteller hinken weit hinter der Entwicklung aktueller und zukünftiger Latenzzeitreduzierungen hinterher. Woran liegt das?

Hu Yoshida: Ich bin ganz und gar nicht der Meinung, dass die Software-Anbieter hier hinterherhinken. Mit Containern und Microservices sind sie vielmehr der Infrastruktur einen Schritt voraus. Schauen Sie, wie Google Container einsetzt, um hunderte von Anwendungen für Messaging, Suche und andere Funktionen hochzufahren.

Die SNIA ist seit einiger Zeit wieder aktiver. Brauchen wir mehr Standardisierung bei Storage-Class-Memory?

Hu Yoshida: Standardisierung ist sicherlich ein lohnenswertes Ziel, lässt sich jedoch aufgrund der technischen Innovationsrate meist nicht in der gleichen Geschwindigkeit erreichen. Open-Source-Lösungen rund um Messaging-Busse werden schneller und häufiger agile Lösungen hervorbringen.

Wie steht man bei Hitachi zur Entwicklung von Storage-Class-Memory? Aus meiner Sicht ist die aktuelle Rechnerarchitektur dafür gar nicht ausgelegt.

Hu Yoshida: Derzeit entwickeln wir kein SCM, aber wir planen diese Technologie sobald sie allgemein verfügbar ist in unseren zukünftigen Arrays anzubieten. Der Mehrwert in SCM liegt in der Erzeugung einer zusätzlichen, persistenten Ebene mit geringer Latenz und zu geringeren Kosten als DRAM. Das passt gut zu unseren Fähigkeiten beim Tiering und unseren hybriden Angeboten.

Jeder redet von explosionsartig ansteigenden Datenmengen, keiner von Filesystemen. Wie müssen sich diese aus Ihrer Sicht verändern, damit sie in naher Zukunft noch sinnvoll verwendbar sind?

Hu Yoshida: Dateisysteme sind aufgrund ihrer hierarchischen Datenstruktur nur begrenzt skalierbar, anders als Objektspeichersysteme. In naher Zukunft werden Dateisysteme nicht verschwinden, denn sie bilden das Rückgrat zahlreicher Workloads.

Wir schauen uns Dateisysteme der nächsten Generation an, die „Scale-out“ und voll verteilt sind, auf jeder Hardware laufen können und echte Cloud-Konnektivität bieten - vor allem rund um hybride Systeme. Denken Sie beispielsweise daran, ein Cluster On-Premise oder in der Cloud zu starten, das überall auf Dateien ohne Latenz und auf dieselben Datenservices zugreifen kann.

Auch in Multi-Cloud-Umgebungen werden Filesysteme eingesetzt. Fehlt hier nicht ein Rückmeldungskanal, um beispielsweise die Verschiebung von Daten oder den Ausfall des Speichersystems zu melden?

Hu Yoshida: Um in einer wirklich hybriden Cloud-Umgebung alle Vorschriften einzuhalten, sollte das der Fall sein. Wenn Sie das oben beschriebene implementieren und auch die Kontrolle darüber haben, können Sie das tun. Public-Cloud-Anbieter bieten diese Funktion heute aber nicht an.

Hitachi fällt mir nicht mehr groß als treibende Kraft im Storage-Business auf. Sind die Entwicklungslinien so unkalkulierbar geworden, dass sich selbst große Hersteller nicht mehr aus der Deckung wagen?

Hu Yoshida: Ihre Einschätzung teilen wir absolut nicht. Ebenso wenig wie die Analysten von Gartner, die Storage von Hitachi in ihrem jüngsten Magic Quadrant for General Purpose Storage Arrays zum fünften Mal in Folge im Leaders-Quadranten positionierten.

Nach unserer Einschätzung wird vor allem die Integration moderner Speicherfunktionen in geschäftsrelevanten Lösungen mit Schwerpunkt auf Daten den Storage-Markt in Zukunft bestimmen. Hinzu kommt die Aufhebung von Daten- und Anwendungssilos, das Anlegen von Data Lakes und die Vermeidung von „Datensümpfen“ durch ordnungsgemäße Bereinigung und Aufbereitung von Daten und Metadaten sowie die Schaffung der Grundlagen für Datenagilität von Edge über Core bis Cloud.

Andere Anbieter brüllen vielleicht laut über ihre „Box", wir sprechen hingegen verstärkt über Datenlösungen. Dies kann unser Absatzvolumen bei Speichersystemen verringern, aber es ist für unsere Kunden relevanter und die Umsetzung in die Realität bedeutet immer noch erhebliche Investitionen in Infrastruktur und Modernisierungen.

Zum zweiten Teil Ihrer Frage: Hitachi Vantara jedenfalls engagiert sich weiter, um im Storage-Markt mit innovativen, neuen Lösungen eine führende Position einzunehmen.

Welche Entwicklungen im Speichermarkt sollte man als Anwender aufmerksam verfolgen?

Hu Yoshida: Früher ging es bei den großen, neuen Entwicklungen vor allem um Protokolle oder Medienwechsel. Heute ändert sich der Storage-Markt permanent und entwickelt sich in rasantem Tempo über zahlreiche Branchen und Märkte hinweg. Der Schwerpunkt sollte auf persistentem Speicher für Container, Edge Computing, Blockchain zur Speicherung und die Einbeziehung künstlicher Intelligenz liegen, um nur einige Punkte zu nennen.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45360163 / Hardware)