Scality: Der Datentransport kennt nur noch eine Richtung Die Echtzeitanalyse wird nicht mit ausgelagerten Daten erfolgen
Der IT-Fokus wandert von der Hybrid- zur Multi-Cloud, heißt eine Prognose von Giorgio Regni, CTO bei Scality. Noch beherrschen die diverse Kategorien der Cloud das Marketing, in Zukunft werden wir Service-Cloud für die unterschiedliche Unternehmenszwecke sehen. Für den Bereich Storage dürften Data Control Layers interessanter sein, da diese Metadatenlayer die statistische Sicht auf die realen Daten beschleunigen werden.
Anbieter zum Thema

Die Hybrid-Cloud, also die Möglichkeit, alle Infrastrukturen vom Rechenzentrum vor Ort bis zur Cloud nahtlos zu managen, ist keine optimale Lösung für Daten-intensive Anwendungen. Stattdessen werden Unternehmen sich zunehmend auf mehrere Clouds konzentrieren.
Diese Multi-Cloud-Umgebungen sind unabhängige Services, die jeweils für unterschiedliche Anwendungsbereiche gedacht sind. Dafür werden neue Management-Frameworks für die Bereitstellung eines einzigen Rechenzentrum-Services entstehen, mit dem die IT-Richtlinien und Datensicherung über mehrere Clouds hinweg gemanagt werden.
Entstehen eines Data Control Layers
Mit der zunehmenden Dominanz der Multi-Cloud werden die Unternehmen die umfassende Kontrolle des Daten- und Benutzermanagements über alle Clouds hinweg anstreben. Daher wird ein neuer Data Control Layer (DCL) entstehen, mit dem für die Daten großer Unternehmen Governance- und Sicherungsrichtlinien angewendet werden können.
Das stellt die sichere Verschlüsselung, Zugangskontrolle und reichhaltige Metadaten-Services über mehrere Clouds hinweg sicher. Mit dem Data Control Layer erhalten Sie die volle Kontrolle über Ihre Metadaten, die gleichzeitig vollständig mit Ihrem Benutzer-Directory-System integriert sind.
Mit der Entwicklung dieses intelligenten Data Control Layers im nächsten Jahr werden zahlreiche der versprochenen aber bis jetzt unerfüllten Vorteile von Multi-Cloud-Deployments Wirklichkeit: mehr Hardware- und Anbieterunabhängigkeit, flexible Personalisierung, optimierte Performance und minimale Latenzen sowie erhebliche Reduzierung der Gesamtbetriebskosten.
Vom Flash-Speicher zu In-Memory
Die Flash-Speicherung wird kontinuierlich preiswerter und hält dank ihrer Vorteile – geringe Latenzen, hoher Durchsatz und geringer Stromverbrauch – zunehmend Einzug in Enterprise Speichersysteme und Rechenzentren. Allein im letzten Jahr gab es eine unglaubliche Steigerung in der Flash-Speicherdichte.
Es gibt inzwischen Angebote mit 500 Terabyte in einem einzelnen 3-HE-Chassis, sodass mehrere Petabyte in einem einzigen Rack jetzt Realität geworden sind. Dennoch erfolgt der Zugriff auf Flash-Speicher nach wie vor über eine Storage-basierte Zugriffsebene, also mit traditionellen Dateisystemen und einem SCSI-I/O-Layer.
Im nächsten Jahr werden wir den Siegeszug direkter Speicherzugriffsmethoden (etwa Flash, 3D NAND, 3D XPoint, ReRAM) erleben. Anwendungen wie Datenbanken werden sich zum direkten Speicherzugriff hin entwickeln, um die SCSI-Ebene zu eliminieren.
Konvergenz von Object Storage und Analyse
Heutzutage wird Object Storage für Speicherkapazitäten von Hunderten Terabyte bis hin zum Petabyte-Bereich verwendet. Es ist aber absolut ineffizient, diese Daten aus dem Speicher abzurufen, um sie zu analysieren. Stattdessen werden die Analyseverfahren schon bald in die Speichertechniken eingebettet werden. In diesem Bereich werden die Anbieter von Object Storage eine Vorreiterrolle spielen.
Vormarsch der Metadaten
Bisher haben Unternehmen ihre Daten auf Network Attached Storage (NAS) oder Storage Area Network (SAN) Arrays gespeichert. Diese Techniken wurden jedoch noch für Systeme entwickelt, in denen Anwendungen und Daten eng miteinander verwoben waren und sich typischerweise im selben Rack befanden.
Im nächsten Jahr werden wir den Vormarsch der Metadaten erleben – auf den Speicher-Arrays werden dann sowohl die eigentlichen Daten als auch die zugehörigen relevanten Metadaten gespeichert. Beispielsweise sollen Gesundheitsdaten gemeinsam mit personenbezogenen Patientendaten wie Name, Adresse und demografischen Informationen gespeichert werden. Und das wird durch Metadaten möglich.
In Bereichen wie Medizin, Finanzen, Medien/Unterhaltung wird das Daten-Management über Metadaten erheblich zunehmen. Dafür werdend die Metadaten indexiert und damit als Teil der Speicherschicht durchsuchbar gemacht.
Amazon dominiert den Cloud-Vektor
Das ist keine große Überraschung, aber niemand wird Amazon so leicht von seiner Position als führender Cloud-Anbieter der Welt verdrängen. Dennoch wird Amazon Partnerschaften mit Anbietern von Private Cloud Services eingehen, die dem Amazon-Design wie mit der „S3“-Schnittstelle für die Speicherung folgen.
Amazon wird seine Entwicklungs-APIs als Standardschnittstellen für Cloud-Management/Orchestration und Daten/Speicher-Services etablieren wollen. Für die Multi-Cloud bedeutet das, dass Amazon mit Anbietern zusammenarbeiten wird, die Cloud-Infrastrukturen mit diesen APIs verwenden.
Oracle wird ein größerer Cloud-Anbieter
Spezialisierte Clouds mit Funktionen speziell für bestimmte Untersegmente des IT-Markts werden sich weiterentwickeln. Einer dieser Anbieter wird Oracle sein, der sich innerhalb der spezialisierten Datenbank-Community etablieren wird.
Datenbasierte Entscheidungen durch IoT-Sensoren
Das Internet der Dinge wird seinen Siegeszug fortsetzen und diese Technik wird nicht unbedingt von Hightech-Unternehmen genutzt werden, sondern von eher traditionellen Herstellern. GE hat dieses Jahr bereits bewiesen, dass traditionelle Unternehmen mit dem IoT hochwertigere Dienstleistungen anbieten können, weil sie ihre Kunden dadurch besser verstehen. Aus diesem Grund wird diese Technik in klassischen Industrien wie Transport, Logistik, Herstellung, Medizin und Energie zunehmend Fuß fassen.
2017 werden sich einige Techniken verabschieden
Das Magnetband verlässt uns [schon wieder, die Red.] – die Kosten sprechen nicht mehr für diese Technik und sie kann durch den sequenziellen Datenzugriff der zunehmenden Nachfrage nach hohen Speicherkapazitäten und der gleichzeitigen Möglichkeit, diese Daten zu analysieren, nicht mehr gerecht werden. Der einzige noch verbleibende Markt ist die Wartung bei Bestandskunden.
Hadoop Mapreduce wird von Apache Spark verdrängt – mit dem zunehmenden Bedarf an Analyselösungen und größeren, preiswerteren Speicherumgebungen wird die Nachfrage nach In-Memory-AnalyseTechniken und damit nach Apache Spark zunehmen.
Und das bedeutet den Niedergang von Mapreduce. Spark wird sich als wichtigster verteilter Analyse-Ansatz im Hadoop Ökosystem etablieren. Daher wird es Mapreduce in einigen Jahren nicht mehr geben.
* Giorgio Regni ist der Mitbegründer und CTO von Scality.
(ID:44459276)