Stratus wider die abenteuerlichen Vorstellungen über hoch verfügbare Systeme

Zehn Irrtümer über Hochverfügbarkeit

06.09.2010 | Redakteur: Ulrike Ostler

Hochverfügbarkeit bedeutet rund um die Uhr, jeden Tag – mit mindestens 99,99 Prozent
Hochverfügbarkeit bedeutet rund um die Uhr, jeden Tag – mit mindestens 99,99 Prozent

Der Begriff Hochverfügbarkeit wird in der IT inflationär gebraucht. Mehr und mehr Systeme behaupten hoch verfügbar zu sein, ohne tatsächlich den hohen Ansprüchen gerecht werden zu können. Stratus, Hersteller fehlertoleranter Server, stellt zehn verbreitete falsche Auffassungen über den Begriff Hochverfügbarkeit richtig.

Für die meisten Unternehmen ist die ständige Verfügbarkeit ihrer Server-Systeme unverzichtbar. Hochverfügbarkeit ist daher in der IT State-of-the-Art geworden. Dennoch haben viele keine konkreten Vorstellungen darüber, welche Anforderungen Systeme erfüllen müssen, um tatsächlich „hoch verfügbar“ zu sein.

Im Gegenteil: In der IT-Praxis finden sich immer wieder abenteuerliche Vorstellungen über das, was Hochverfügbarkeit sein könnte. Für Unternehmen stellen solche Irrtümer ein nicht unerhebliches Risiko für den reibungslosen Betrieb ihrer IT dar, behauptet Stratus.

„Der Begriff Hochverfügbarkeit wurde in den letzten Jahren aufgeweicht, weil viele Anbieter Hochverfügbarkeit einfach entsprechend der Möglichkeiten ihrer eigenen Systeme definieren“, sagt Timo Brüggemann, Director Business Development EMEA bei Stratus in Eschborn. „Viele Unternehmen glauben daher fälschlicherweise, dass sie hoch verfügbare Server einsetzen, während sie tatsächlich bei Störungen mit nicht unerheblichen Ausfallzeiten rechnen müssen. Im Ernstfall kann sich das als sehr teurer Irrtum erweisen.“ Er zählt die Irrtümer auf.

1. Hochverfügbarkeit ist nicht 99,5 Prozent

Im 7x24-Stunden-Dauerbetrieb erlaubt eine Verfügbarkeit von 99,5 Prozent eine durchschnittliche Ausfallzeit von über 43 Stunden pro Jahr, wobei die Ausfälle immer dann passieren, wenn man sie am wenigsten brauchen kann. Für unternehmenskritische Aufgaben liegt dieser Prozentsatz viel zuniedrig. Dafür muss ein Verfügbarkeitsniveau von mindestens 99,99 Prozent – mit einer durchschnittlichen Ausfallzeit von etwa 52 Minuten pro Jahr – erreicht werden.

2. Hochverfügbarkeit ist nicht Disaster Recovery

Disaster Recovery ist Katastrophenschutz für die IT: Unternehmen beugen damit Schäden durch Brände, Erdbeben, Flugzeugabstürze oder Anschlägen vor, beispielsweise indem sie Rechenzentren räumlich getrennt ansiedeln. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei Betriebsstörungen. Verantwortungsvolle Unternehmen werden daher immer beide Schutzaspekte in ihrem Sicherheitskonzept berücksichtigen.

3. Hochverfügbarkeit ist nicht Stand-By

Bei redundanten Systemen sind durch Umschalten und Übergabe der Prozesse Ausfallzeiten unvermeidlich. Die Konsistenz von Daten und Transaktionen muss daher sichergestellt werden.

Auch wenn es dafür heute unterstützende Software gibt, so ist auf diese Weise eine Verfügbarkeit von höchstens 99,5 bis 99,9 Prozent erreichbar, was einer ungeplanten Downtime von 8,7 bis 43 Stunden pro Jahr entspricht – deutlich zu wenig für echte Hochverfügbarkeit.

4. Hochverfügbarkeit ist nicht RAID

Mit RAID-Systemen werden Datenspeicher vor Ausfällen geschützt. Hochverfügbarkeit sorgt dagegen für einen ausfallsicheren Betrieb der Server. In kritischen Umgebungen sollte daher immer beides implementiert werden.

5. Hochverfügbarkeit ist nicht Backup

Backup-Lösungen sichern wichtige Unternehmensdaten vor Verlusten und sind daher für einen professionellen IT-Betrieb unverzichtbar. Backups müssen für alle, nicht nur für hoch verfügbare Systeme erstellt werden.

6. Hochverfügbarkeit ist nicht USV

Natürlich geht ohne Strom gar nichts, aber mit Strom allein geht dennoch nicht sehr viel. Keine USV kann Server-Abstürze verhindern oder abfangen. Für Hochverfügbarkeit ist der Betrieb einer USV daher zwar eine Voraussetzung aber keineswegs ausreichend.

7. Hochverfügbarkeit ist nicht ein zweites Netzteil

Netzteile sind besonders störungsanfällig, deshalb verbessert ein zweites Netzteil die Verfügbarkeit eines Servers. Doch damit lassen sich nicht andere Hardware-Fehler, etwa in der CPU oder im RAM, abfangen. In fehlertoleranten Servern sind dagegen alle wichtigen Komponenten, also auch CPU und RAM, doppelt vorhanden. Auf diese Weise lässt sich Hochverfügbarkeit tatsächlich realisieren.

8. Hochverfügbarkeit ist nicht Virtualisierung

Die Verfügbarkeit wird durch die Virtualisierung von Servern verschlechtert, weil hier ein einziger defekter physischer Server eine ganze virtuelle Server-Gruppe lahmlegt. Für jedes System müssen dann mehr oder weniger aufwändige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden.

Auch wenn diese Maßnahmen mit Software-Unterstützung automatisch ablaufen, ist dafür stets eine gewisse Zeitspanne einzukalkulieren. Daher müssen gerade virtuelle Server mit unternehmenskritischen Applikationen auf einer hoch verfügbaren Hardware-Plattform betrieben werden, beispielsweise fehlertoleranten Systemen.

9. Hochverfügbarkeit ist nicht teuer

Eine IT-Lösungkostet mehr, wenn sie hoch verfügbar ist. Schließlich muss Hochverfügbarkeit durch einen zusätzlichen technischen Aufwand hergestellt werden.

Diese Kosten sollten jedoch im Verhältnis zum möglichen Schaden gesehen werden. Eine einzige Stunde Server-Ausfall kann heute mehr kosten als eine komplette Hochverfügbarkeitslösung.

Zudem ist Hochverfügbarkeit mittlerweile auch für kleinere und mittlere Unternehmen erschwinglich. Fehlertolerante Server kosten unter dem Strich sogar weniger als Cluster-Lösungen, weil sie keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration verursachen. Lösungen wie „Stratus Avance“ können handelsübliche x86-Server per Software zu einer hoch verfügbaren Plattform verbinden.

10. Hochverfügbarkeit ist nicht Continuous Availability

Für einige Anwendungen ist selbst echte Hochverfügbarkeit nicht mehr ausreichend, beispielsweise in der Kraftwerkssteuerung, für Notfallsysteme in Krankenhäusern oder in der Produktionssteuerung. Hier muss eine Verfügbarkeit von 99,999 oder sogar bis zu 99,9999 Prozent („Six Nine“) erreicht werden.

Das entspricht dann einer durchschnittlichen Ausfallzeit von etwa 5 Minuten beziehungsweise einer halben Minute pro Jahr. Diese Werte sind auch von Cluster-Systemen nicht erreichbar; Anwender kommen hier an fehlertoleranten Systemen nicht vorbei.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 2046879 / Services)