Fast lückenlos verfügbar Was ist Hochverfügbarkeit
Manches darf nicht ausfallen, weil sonst der Betrieb steht. Was immer das leistet, nennt man hochverfügbar. Doch wer wissen will, wie hochverfügbar etwas tatsächlich ist, muss genau hinsehen.
Anbieter zum Thema

Hochverfügbarkeit (HV), gern auch als High Availability (HA) bedeutet, möglichst ständig zur Verfügung zu stehen, also möglichst nicht auszufallen.
Gemessen wird Hochverfügbarkeit, in dem man feststellt, wie viel Prozent der Zeit ein System tatsächlich arbeitet, ohne auszufallen. Wann statistisch mögliche Ausfälle stattfinden, sagt diese Angabe nicht.
Was in Datenblättern steht
In Datenblätter wird in der Regel ein Prozentsatz für die Hochverfügbarkeit angegeben. Ein Beispiel: Ein System ist zu 99 Prozent der Zeit verfügbar (das hört sich für Laien sicher schon nach viel an). Doch beim Nachrechnen, mutet eine solche Zahl Anwendern jeden Tag 14 Ausfallminuten zu. Das sind rund dreieinhalb Tage jährlich.
Wie gesagt: Anwender und Administration haben keinen Einfluss darauf, wann diese Ausfälle eintreten oder ob es nicht im Einzelfall mehr werden. Schließlich handelt es sich hier um Statistik.
Geplante Ausfälle kommen hinzu
Doch das ist noch nicht alles. In der Regel werden nämlich Hochverfügbarkeits-Prozentwerte nicht auf geplante Wartungsintervalle bezogen. Diese kommen also im Zweifel hinzu.
Für ein Online-Handelssystem sind daher 99 Prozent definitiv zu wenig Verfügbarkeit. Denn jede Stunde kostet – je nach Anwendung gern fünf- oder sechsstellig. Ein Abteilungs-Server aber wird damit vielleicht zurechtkommen.
Wer dagegen eine Lösung mit „fünf Neunen“ nutzt (99,999 Prozent), muss, statistisch betrachtet, pro Tag nur für 864 Millisekunden darauf verzichten. Im Jahr sind das fünfeinhalb Minuten und das ist wahrscheinlich auch in einem anspruchsvollen Umfeld leichter zu verkraften.
Hochverfügbarkeit kostet
Hersteller und Service Provider lassen sich Hochverfügbarkeit gut bezahlen. Schließlich erfordert sie auf Systemebene eine Reihe von Maßnahmen. So ist es nötig, alle betriebswichtigen Teile doppelt auszulegen und bei laufendem Betrieb auswechselbar zu machen (Hot Swappable). Das betrifft beispielsweise Stromversorgungen, Lüfter, aber auch Prozessoren, Netzwerkkarten, internen Controller und so weiter. Bei Rechenzentren braucht man auch doppelte Netzanbindungen und Stromversorger.
Die Verdopplung (oder Vervielfachung) von Komponenten ist der wichtigste Schritt zur Vermeidung der berüchtigten Single Points of Failure. Das sind Prozesse oder Komponenten, die systemweit nur einmal vorhanden sind und deren Ausfall deswegen einen Ausfall der gesamten Anlage auslöst.
Anforderungen an Software
Gleichzeitig sollte die Management-Software, die ein hochverfügbares System steuert, im Stande sein, Ausfälle zu erkennen. Sie muss dann gegebenenfalls erstens auf die noch intakten Komponenten umschalten beziehungsweise die kaputten entlasten.
Außerdem sollte die Software diejenigen verständigen, die für Reparatur oder Austausch der kaputten Komponente zuständig sind. Und: Bei sehr hohen HA-Ansprüchen braucht man möglicherweise auch mehr Personal, damit die Systeme wirklich lückenlos überwacht werden und im Zweifel jemand handelt.
Hochverfügbarkeit wird wichtiger
Gleichzeitig wird Hochverfügbarkeit immer wichtiger: Lösungen, die den autonomen Verkehr, Elektrizitätssysteme oder andere zivilisatorische Infrastrukturen steuern, sollten ganz einfach nie ausfallen. Kritisch wird es aber auch schon beim Online-Bankingsystem oder einer nach Industrie-4.0-Prinzipien arbeitenden Fabrik, denn hier verursachen Ausfälle Durcheinander und sehr schnell horrende Kosten.
HA in IT-Servicevereinbarungen
Die Hochverfügbarkeit von Rechenzentren ist wegen des zunehmend eingesetzten Cloud Computing immer öfter ein Thema: IT-Services sollen, egal, aus welchem Grund, nicht öfter als im Service Level Agreement definiert ausfallen.
Auch für die Hochverfügbarkeit von Services gelten in der Regel Prozentwerte als Maßstab. Entsprechende Werte stehen in den Vereinbarungen mit dem Provider oder sollten dort stehen.
Verfügbarkeiten verringern sich mit der Zahl der involvierten Einzelkomponenten. Dies deshalb, weil man die jeweiligen Prozentwerte der Einzelverfügbarkeiten miteinander multiplizieren muss. Diese liegen aber jeweils unter 100 Prozent. Daher ist es sehr viel schwerer und erfordert innovative Ideen oder großen Aufwand, für einen komplexen Service hohe Verfügbarkeiten zu realisieren als für eine einzelne Hardware.
High Availability bei Rechenzentren
Die Hochverfügbarkeit von Rechenzentren soll für den Rest des Textes im Mittelpunkt stehen. Wann gilt ein Rechenzentrum mit seinen vielen Komponenten als hochverfügbar? Ein Maßstab sind Tier-Definition des Uptime Institut. Als hochverfügbar gelten dabei nur Rechenzentren der Tier-Klassen IV und eingeschränkt III.
Allerdings haben sich diese Definitionen in Deutschland nur bedingt durchgesetzt. Das liegt unter anderem am Gesetz zum Schutz kritischer Infrastrukturen (KRITIS), das Betreibern kritischer IT-Infrastrukturen besondere Pflichten etwa zur Risikoabwehr auferlegt.
Was das BSI unter hochverfügbaren RZ versteht
Ein wichtiger Maßstab sind in Deutschland daher die Hochverfügbarkeitskriterien, die das Bundesamt für Sicherheit in der Informationstechnik (BSI) in seinem Mindeststandard festlegt. Sie gelten zwar nur für Rechenzentren des Bundes, entfalten aber eine Ausstrahlungswirkung auf die Privatwirtschaft.
In dieser Norm werden nicht nur technische Aspekte wie die Redundanz aller wesentlichen Strukturen und Komponenten im Rechenzentrum bis hin zum Stromprovider und gegebenenfalls des gesamten Rechenzentrums betrachtet. Darüber hinaus geht es in der Norm auch um Fragen der Lokalisierung, des Personals und Personalmanagements, der Betriebsprozesse und so weiter.
Als hochverfügbar gilt danach ein Rechenzentrum nur dann, wenn es in der Norm festgelegte Reifegrade hinsichtlich der jeweiligen Kriterien erreicht hat. Die technische Hochverfügbarkeit ist hier also nur eines von vielen Kriterien.
Müssen es wirklich 200 Kilometer sein?
Dabei sind die verwendeten Kriterien des BSI durchaus nicht unangefochten. So löste eine aktuelle Anforderungen teils kritische Reaktionen aus. Danach sollen zwei georedundante Höchstverfügbarkeits-Rechenzentren jetzt mindestens 200 Kilometer weit voneinander entfernt sein.
Das wird von einigen Fachleuten gerade unter den engen Siedlungsrbedingungen Deutschlands als zu weit empfunden. Zudem erfordert diese Distanz sehr schnelle Verbindungen, um die Latenzen gering zu halten.
Doch es gibt auch eine Gegenmeinung. Deren Verfechter sagen, im Zeitalter der Hyperscaler und eines europaweit einheitlichen Datenschutzes dürfe das Einhalten dieser Anforderung eigentlich kein Problem sei.
Artikelfiles und Artikellinks
(ID:45859984)