Datenbanken mit Flash- und Cloud-Ressourcen

Flash und gut dosiertes Management bringen Daten auf Touren

| Autor / Redakteur: Christian Lorentz* / Ulrike Ostler

Mit Flash und gut überlegt können Anwender ihre Datenbanken beschleunigen.
Mit Flash und gut überlegt können Anwender ihre Datenbanken beschleunigen. (Bild: © rukawajung/ Fotolia.com)

Mit der richtigen Speicherarchitektur lässt sich die Datenbank-Performance um ein Vielfaches steigern. Flash-Speicher und Cloud-Lösungen solllten dabei per übergeordneter Management-Ebene gesteuert werden.

Eine der größten Herausforderungen im Datenbankumfeld ist es, den Datenfluss konstant und performant zu halten, auch und gerade bei Höchstbetrieb. Denng anz egal, ob Großkonzern oder kleines Start-up: Die gespeicherten und quasi rund um die Uhr neu generierten Daten sind ein kostbares Gut.

Richtig strukturiert und ausgewertet sind sie die Grundlage unternehmerischer Entscheidungen und ermöglichen durch eine relevante Analyse Einblicke, die über Top oder Flop auf dem Markt entscheiden können. Die Bereitstellung von hochleistungsfähiger Hard- und Software ist hierbei entscheidend, damit die Daten zügig bereitstehen, reibungslos fließen und Zusammenhänge erkennbar werden.

Flash öffnet Flaschenhälse

Flash Storage bietet bei der Datenbank-Speichergestaltung enorme Vorteile und ist in der Lage, sehr niedrige Latenzzeiten (<1 ms Latenz) für alle IOs (Input/Output Operations) zu erreichen. Wo klassische Festplatten an ihr Limit gelangen, kann die in Solid State Drives (SSDs) verbaute Flash-Technologie den Anforderungen Stand halten. Mehr noch: Dadurch, dass Flash den Datendurchlauf im Sinne verbesserter IOPS-Werte beschleunigt, kann es bei modernen Systemen die Bremsen lösen.

Die erreichten Geschwindigkeitsgewinne fallen so hoch aus, dass eine mit Flash arbeitende Datenbank deutlich weniger Rechenleistung benötigt. Unterm Strich ist es sogar möglich, die gleiche Unternehmens-Software mit weniger IT-Systemen zu betreiben.

Unternehmen sparen somit sowohl bei den Energiekosten - da weniger Geräte Strom benötigen – als auch bei den Software-Lizenzen. Der Grund: Hersteller berechnen ihre Lizenzen oftmals nach der Anzahl der Prozessoren, die für ihre Software genutzt wird.

Auf eine Mischform läuft es ´raus

In der Vergangenheit haben IT-Beauftragte für die Datenspeicherung Festplatten aufgrund ihrer großen Kapazität genutzt. Hauptspeicher wurden als Pufferspeicher (Cache) verwendet, um häufig angefragte Daten zwischen zu speichern und schnell verfügbar zu haben. In einem typischen gewachsenen Datenbank-Umfeld mit alten Hinterlassenschaften aus Hard Disk Drive (HDD)-Storage, stößt der Datendurchlauf jedoch dadurch an seine Obergrenze, dass die HDD die Daten nicht schnell genug aufrufen kann.

Wenn die Latenzzeiten eine definierte Grenze überschreiten, verlangsamen HHDs den Datendurchlauf. Um diesen zu erhöhen und die Latenzzeiten wieder auf einem akzeptablen Level laufen zu lassen, werden wiederum mehr HDDs benötigt. Alternativ birgt die Kombination aus Flash-Speicher mit fortschrittlichen Speicher-Management-Ansätzen Potential für eine erhöhte Datenbank-Leistung. Mehr noch: Flash kann die CPU (Central Processing Unit)-Auslastung des Datenbank-Servers maximieren. Dadurch können Unternehmen die Server-Investition voll ausnutzen.

Heiter bis wolkig – Die Cloud kommt dazu

ClOs sind heute mehr denn je gefordert, das Business durch flexibel einsetzbare IT-Ressourcen zu unterstützen und dabei wirtschaftlich zu bleiben. Insbesondere die digitale Transformation von Geschäftsprozessen macht es erforderlich, dass die Mitarbeiter Zugriff auf alle benötigten Daten und Ressourcen der eigenen Organisationen haben, um beispielsweise im Vertrieb eine umfassende Übersicht zu erhalten. Auch für Big-Data-Analysen müssen verteilte Datenquellen standortübergreifend integriert werden.

Die Cloud und insbesondere hybride Cloud-Infrastrukturen haben sich dabei zu einem wichtigen Element einer flexiblen und agilen IT- Landschaft entwickelt, mit der sich viele Daten-Management-, und Business-Anforderungen effizient lösen lassen. Doch die Realität sieht oft anders aus: Übergreifendes Daten-Management? Fehlanzeige! In vielen Rechenzentren sind unternehmenskritische Daten in Silos gefangen ohne übergreifende Datenmanagementinfrastruktur oder durchgängige IT-Service-Prozesse.

Hebel gegen die Trägheit

Erschwerend kommt das Phänomen der so genannten „Data Gravity“ hinzu: Unternehmensdaten besitzen eine gewisse Trägheit, die dazu führt, dass Datenbestände an der bestehenden Infrastruktur hängen. Wer eine Storage-Infrastruktur im Petabyte-Bereich betreibt, wird sich schwer tun, diese Datenmengen auf eine neue Plattform zu migrieren.

Christian Lorentz ist Senior Product and Solution Marketing Manager bei Netapp:
Christian Lorentz ist Senior Product and Solution Marketing Manager bei Netapp: (Bild: stefan-dien.com)

Aber auch die Forderung nach schnellen Zugriffszeiten und rechtliche Rahmenbedingungen können der Migration von Daten auf andere Plattformen entgegen stehen. In vielen IT-Umgebungen erschwert die Data Gravity so den effizienten Einsatz von Cloud-Ressourcen.

Um eine hybride Cloud-Umgebung betreiben zu können, benötigen Unternehmen eine zentrale Daten-Management-Plattform, die sie darin unterstützt, bestehende Storage- und Daten-Management-Architekturen mit einheitlichem Management und Monitoring auf hybride Cloud-Architekturen auszuweiten. Damit erhalten IT-Verantwortliche auch ein wirksames Mittel, um die Datenträgheit auszuhebeln.

Vorsicht vor neuen Daten-Silos!

Safety first: Durch ihre Variabilität zwischen On- und Off-Premise Infrastrukturen bietet die Cloud sowohl für sensible, als auch für weniger kritische Daten den angemessenen Schutz. Unternehmen sind durch die Snapshot-basierte Sicherung ihrer Daten in der Cloud gut aufgehoben und bei Ausfall doppelt geschützt.

Vorsicht ist jedoch bei der Wahl unterschiedlicher Anbieter bei Cloud-Lösungen geboten: Jahrelang versuchten IT-Entscheider, die Silos zwischen den verschiedensten Datentöpfen abzubauen, die in ihren Unternehmen existieren, um diese Daten zu konsolidieren und nutzbar zu machen. Werden nun verschiedene Cloud-Ressourcen genutzt und unter Umständen auch noch verschiedenen Anbietern dafür hinzu gezogen, entstehen wiederum neue Silos.

Die dadurch entstehenden Probleme sind vielfältig: Die Datenkonsistenz leidet, die Datagovernance bleibt zu klären, das heißt, wer hat wann und warum Zugriff, wie schaffe ich ein einheitliches Management für Themen wie Backup und Archiv und nicht zuletzt: wie synchronisiere ich die Datensätze.

Keine Einheitslösung genehm

Nicht immer benötigen Unternehmen skalierbare Systeme, schnellere Antwortzeiten oder sind bereit, Datensilos aufzubrechen und beispielsweise in ein zentrales Daten-Management-System zu überführen. Oft setzen Firmen aus Kostengründen daher existierende Systeme länger ein oder migrieren auf noch deutlich preisweitere, Disc-basierte und On-Premise Systeme, statt Flash-Speicher oder Cloud-Lösungen einzusetzen.

Dennoch: die wohlkalkulierte Nutzung von Flash- und Cloud-Ansätzen ermöglicht einen Performance-Schub sowie ein erhöhtes Sicherheitslevel für moderne Datenbanken und kann auch in der Kombination mit alten Systemen einen Mehrwert für Eigner bringen. Unternehmen sollten daher genau prüfen, wo sich die Speicherarchitektur ihrer Datenbanken durch erwähnte moderne Technologien stützen und verbessern lässt.

* Christian Lorentz ist tätig als Senior Product and Solution Marketing Manager bei Netapp Datenbank-Management.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44470886 / Komponenten)