Interview mit Kurt Gerecke, Keynotespeaker der Storage Technology Conference 2015 Flash ist zum Leistungsträger in der Speicherhierarchie geworden

Redakteur: Rainer Graefen

Noch im Jahr 2013 waren gegenüber dem Einsatz von Flash-Technik in der IT viele Vorbehalte vorhanden. Mit Fragen über Anzahl der Schreibzyklen einer Flash-Zelle, Anzahl von IOPS, Datenverlust durch Verschlüsselung und anders mehr, wurden Anwender verunsichert. Die grundlegende Stimmung hat sich inzwischen vollständig gewandelt. Storage Insider sprach mit Kurt Gerecke über den Status Quo bei Flash-Technik.

Anbieter zum Thema

Kurt Gerecke, Certified Senior Consultant bei IBM
Kurt Gerecke, Certified Senior Consultant bei IBM
( IBM)

Storage-Insider: Sind wir gerade in einer Phase der Konsolidierung beim Einsatz von Flash-Technik?

Kurt Gerecke: Heute sorgen Defektmanagementtechniken auf den Flash-Speicherkarten, Remapping Verfahren im Chip-Stack sowie RAID 10, RAID 5 und 6 Sicherheitstechniken dafür, dass die Arbeit ausgefallener Flashzellen durch Andere übernommen werden können und kein Datenverlust eintritt. Noch nie hat eine Speichertechnologie so viele Absicherungsmöglichkeiten erhalten wie die Flash-Technologie.

Seit Ende 2013 sind fast alle Vorbehalte beseitigt und die Flash-Technologie erlebt derzeit einen regelrechten Boom. Jetzt endlich kann die Infrastruktur leistungsmäßig optimiert werden und die Applikationen entsprechend beschleunigt werden. Flash wird so zu einem der wichtigsten Leistungselemente in der Speicherhierarchie.

Das Jahr 2014 erlebte einen regelrechten Flash-Boom und das wird sich durch das ganze Jahr 2015 fortsetzen, um die maximale Leistungsfähigkeit aus vorhandenen Storage Infrastrukturen herauszuholen.

Ist ein weiterer Preisverfall bei Flash-Systemen in diesem Jahr zu erwarten?

Kurt Gerecke: Inzwischen sind All-Flash-Array-Systeme verfügbar, die mit Real Time Compression arbeiten wie z.B. das neue IBM FlashSystem V9000. Bei durchschnittlichen Compressionsraten von 50 bis 60 Prozent wird Flash noch bezahlbarer und günstiger, sodass Plattensubsysteme einen immer schwierigeren Stand haben.

Auch die Flash-Chip-Technologie wurde und wird rasant weiterentwickelt. Heute stehen z. B. MLC-Chips auf Basis von 19 und 20 Nanometern zur Verfügung, die ein wesentlich besseres Preis-/Leistungsverhältniss bieten.

Auch die Haltbarkeit von MLC-Chips wurde maßgeblich gesteigert. Der neue erweiterte 20 Nanometer MLC+ Chip von Micron bietet z. B. eine zehnfach höhere Haltbarkeit als normale MLC-Chips und übertrifft heute die Haltbarkeit von eMLC Chips, das heißt MLC Technologie in Enterprise Qualität.

Diese Entwicklungen und Möglichkeiten fördern zum einen weitere Preisreduzierungen und steigern zum anderen massiv den Absatz von SSDs und All Flash Arrays im laufenden Jahr.

Viele Anwender scheinen Cloud-Storage als Medium für Backup und Archivierung nutzen zu wollen. Wie wirkt sich das auf die Rolle von Tape-Storage aus?

Kurt Gerecke: Das ist richtig. Viele Firmen denken inzwischen darüber nach, ihre Backup- und Archivierungsdaten in die Cloud zu legen. Da kommen dann riesige Datenmengen zusammen, die nur kostengünstig von einem Medium gehandhabt werden können, das große Kapazitäten bietet und keinen Strom verbraucht und das genau bietet Tape.

Letztes Jahr kamen die 10 Terabyte Kassetten auf den Markt (komprimiert 30 - 40 TByte), die mit einer Datenrate von 360 MByte/s beschrieben werden können, also 3 Mal schneller als jeder Plattenspeicher.

Die Tendenz, immer mehr Daten in die Cloud zu legen, fördert den Einsatz von Tape ganz massiv. Einer der größten Cloud Anbieter ist u.a. Google, die zusätzlich alles auf Tape sichern. Google bezeichnet Tape als "Last Line of Defense". Ausschliesslich Datensicherungen auf Offline-Datenträgern bieten die Sicherheit vor Viren und intermittierenden Fehlern. Deshalb sind Tapes heute - vor allem in der Cloud - unverzichtbar.

Alle großen Speicherhersteller wollen den Storage-Controller durch Software (SDS) ersetzen. Liegt die speichertechnische Zukunft tatsächlich in Software-Updates?

Kurt Gerecke: Software Defined Storage (SDS) ist viel mehr als ein Storage-Controller, der irgendwelche Platten und Zugriffe steuert und Platten RAID-basierend absichert. SDS hat zwei Ebenen, die Kontrollebene und die Datenebene. In der Kontrollebene werden die Servicelevels und Zugriffe geregelt und in der Datenebene werden die Daten abgespeichert und nach ihren Anforderungen hin und her bewegt und migriert.

Stellt man sich das bildlich vor, dann gibt es gewisse Ähnlichkeiten mit einem Süßigkeitsautomaten wie sie häufig auf Bahnsteigen anzutreffen sind. Man muss einen bestimmten Code z. B. A45 eingeben, um eine bestimmte Süßigkeit zu bekommen - das ist die Kontrollebene. Die angeforderte Süßigkeit kann man dann in einer weiter unten vorhandenen Schublade herausziehen - das ist die Datenebene. Zugegeben ein sehr einfaches Beispiel.

Auf alle Fälle wird SDS massiv die Zukunft mitbestimmen.

Bisherige Hardware Produkte mit entsprechend festprogrammierten Funktionalitäten wird es in Kürze allerdings viel günstiger als flexibel programmierte Software zu kaufen geben, deren Einsatz auf Standard-HW-Komponenten erfolgt. Diese Employment-Aktivitäten bieten auch Geschäftspartnern zusätzliche Verdienstmöglichkeiten und Chancen, um Endkunden spezifische Serviceleistungen zu offerieren.

Wie alles im Leben ist SDS keine eierlegende Wollmichsau und es wird ein Nebeneinander spezialisierter Systemen wie Flashsysteme oder für eine bestimmte Workload gebaute Spezialsystemen geben. IDC sagt voraus, dass in den nächsten Jahren etwa 70 - 80 Prozent aller Kunden in SDS und Commodity-HW investieren werden.

Mit welchen Storage-Entwicklungen sollten sich Anwender unbedingt auseinandersetzen?

Kurt Gerecke: Im Wesentlichen mit drei Punkten:

Mit Software Defined Storage SDS zur Kostenoptimierung und Flexibilisierung,

mit Flashsystemen zur Maximierung der Leistung von Speicherinfrastrukturen und

mit Cloud und Cloudübergangslösungen.

(ID:43240565)