Suchen

Anforderungen an ein Datacenter-Management von heute Hybrid Digital Infrastructure Management und die Rolle der „Edge“

| Autor / Redakteur: Oliver Lindner* / Ulrike Ostler

Das Hybrid Digital Infrastructure Management (HDIM) ist laut Gartner einer der zehn wichtigsten Trends in der IT-Infrastruktur. Eine technische Lösung, ein so genanntes Central Resource Inventory, gibt es aber (noch) nicht. Und nun?

Firma zum Thema

Ein Central Resource Inventory wäre wünschenswert, gibt es aber nicht. Deshlab kommen DCIM-Tools zum Zuge.
Ein Central Resource Inventory wäre wünschenswert, gibt es aber nicht. Deshlab kommen DCIM-Tools zum Zuge.
(Bild: Kayseri, Kayseri Osb/Kayseri/ Unsplash)

Bislang ging es meist darum, lokale IT-Ressourcen (On-Premise) mit solchen in der Cloud einheitlich zu managen. Das alleine ist schon sehr anspruchsvoll. Bei Hybrid Digital Infrastructure Management sollen nun Informationen aus eigenen Rechenzentren, privaten und öffentlichen Clouds, Multi-Clouds sowie Edge Data Centers und IoT-Devices in einer Umgebung verwaltet werden.

Ein Central Resource Inventory fehlt zwar, aber dafür gibt es Tools, die Teilbereiche komplexer hybrider Infrastrukturen bereits heute professionell und übergreifend abbilden. Damit lässt sich beispielsweise der aufstrebende Bereich von komplexen Edge-Infrastrukturen erfassen, dokumentieren, einheitlich abbilden und zentral steuern.

Der Vorteil von HDIM: Unternehmen können Workloads zur richtigen Zeit auf der richtigen Plattform am passenden Ort und zum besten Preis ausführen. Der Haken: Das Management aller Instanzen, die an der Wertschöpfung beteiligt sind, ist äußerst kompliziert, da diese weit verteilt über zahlreiche Standorte und Rechenzentren gestreut sind.

Der Edge kommt aber künftig eine zentrale Rolle zu: Gartner prognostiziert, dass im Jahr 2023 etwa die Hälfte aller Unternehmensdaten außerhalb der traditionellen und zentralisierten Rechenzentren oder Clouds entstehen und verarbeitet werden. Warum dieser Trend?

Chancen durch Edge Computing

Das Ziel jedes Unternehmens ist, unterbrechungsfreie digitale Services zu bieten, Geschäftskontinuität immer aufrechtzuerhalten, niedrige Latenzzeiten und insgesamt eine bestmögliche Kundenerfahrung zu ermöglichen. Dazu müssen Inhalte schneller und mit minimaler Latenz den Endnutzern – das können sowohl Kunden als auch interne Mitarbeiter als auch Maschinen sein – zur Verfügung gestellt werden.

Beim autonomen Fahren beispielsweise müssen große Datenmengen quasi in Echtzeit und zuverlässig zwischen Fahrzeugen und Rechenzentren ausgetauscht werden. Da Edge-Standorte physisch näher an den Endnutzern – also in diesem Fall den Fahrzeugen − liegen, sind Leistung und Geschwindigkeit in fast jeder Situation höher. Eine zentralisierte Datenverarbeitung wäre für das Beispiel des autonomen Fahrens aufgrund der großen Datenmenge und ihrer notwendigen Verarbeitungsgeschwindigkeit technisch unmöglich.

Neben der räumlichen Nähe kommt ein weiterer Performance-Aspekt zum Tragen: In der Regel sind Edge-Standorte jünger und mit neuester Technik ausgestattet im Vergleich zu den Hauptrechenzentren. Deren Ausstattung ist häufig nicht auf dem neuesten Stand.

Die Sicherheit

Abgesehen von der Performance sprechen aber auch zahlreiche Sicherheitsaspekte für das Edge Computing: Da die Rechenleistung, Daten und Anwendungen dabei auf eine Vielzahl von Geräten und Rechenzentren verteilt sind, ist es viel schwieriger, ein gesamtes Netzwerk zum Absturz zu bringen, etwa durch einen DDoS-Angriff. Da mehr Daten auf lokalen Geräten verarbeitet und nicht zurück an ein zentrales Rechenzentrum übertragen werden, reduziert Edge-Computing auch die Menge der gleichzeitig gefährdeten Daten.

Darüber hinaus erleichtert Edge Computing Unternehmen die Einhaltung gesetzlicher Vorschriften, etwa der Europäischen Allgemeinen Datenschutzverordnung (GDPR). Seit deren Inkrafttreten dürfen Unternehmen personenbezogene Daten nur unter bestimmten Voraussetzungen in der Public Cloud speichern.

Zudem müssen kritische Daten sicher und für andere Länder oder Standorte unzugänglich gespeichert werden. Dies gilt zum Beispiel für Bankanwendungen und personenbezogene Daten, für die viele Länder sehr strenge Compliance-Anforderungen erlassen haben. Edge-Sites sind in beiden Fällen eine gute Lösung.

Verteilte Rechenzentren schaffen neue Anforderungen

Neben den zahlreichen Chancen, die das Edge Computing bietet, stellt es IT-Abteilungen jedoch vor neue Herausforderungen. Denn diese müssen sich nun mit einer viel größeren Anzahl von Standorten und vernetzten Rechenzentrumsinfrastrukturen befassen.

Erschwerend kommt hinzu, dass Unternehmen ihre IT-Abteilungen trotz steigender Anforderungen oft mit weniger Personal und Ressourcen ausstatten. IT-Abteilungen benötigen daher dringend Lösungen, um die Verwaltung und den Betrieb ihrer verteilten Rechenzentren effizient zu managen.

Eine zentralisierte Lösung, mit der die gesamte Infrastruktur des Rechenzentrums verwaltet und optimiert werden kann, ist daher der Schlüssel zum erfolgreichen Infrastruktur-Management komplexer Umgebungen bei gleichzeitiger Kostenkontrolle. Wie sollte eine solche Lösung aussehen?

End-to-End-Transparenz durch einheitliches Ressourcen-Management

Um die große Menge an geografisch verteilten IT-Ressourcen aus der Ferne überwachen zu können, müssen IT-Abteilungen die gesamte Rechenzentrumsinfrastruktur vom zentralen Datacenter bis zu den einzelnen Edge-Standorten kennen, zentral verwalten und optimieren können. Ein passendes Infrastruktur-Management muss daher in der Lage sein, Transparenz auf allen Ebenen zu schaffen.

Dazu zählen die genaue Lage aller Edge-Standorte und ihre Anbindung an das Hauptrechenzentrum, einschließlich der Gebäudeinfrastruktur (Strom, Kühlung, Bodenfläche), der IT-Infrastruktur (Netzwerke, Server, Speicher), der Konnektivität (physische Verkabelungsinfrastruktur und logische Schaltungen/Bandbreite) und der Dienste (Software, Anwendungen). Es ist wichtig, einen detaillierten Überblick über die Ist-Situation zu haben, um Auswirkungen geplanter Änderungen zu verstehen, bevor man sie vornimmt.

Erreichen lässt sich dies nur über ein einheitliches und unabhängiges Ressourcen-Management mit einem einheitlichen Datenmodell. Dieses liefert einen Einblick über alle physischen und virtuellen Assets und ihre Abhängigkeiten, herstellerunabhängig und neutral. Mithilfe von 3D-Darstellungen und Simulationen können IT-Verantwortliche die in einer zentralen Datenbank gespeicherten Informationen dann visualisieren und Änderungen simulieren.

Bildergalerie

Eine Software für das Datacenter Infrastructure Management (DCIM) zeigt auf einer Karte beispielsweise die Lage aller Edge-Standorte und ihre Anbindung an das Hauptrechenzentrum. Physische, logische und virtuelle Ressourcen können dabei mit mehreren Edge-Standorten verbunden werden, um vollständig redundante Pfade zwischen jedem Edge-Standort und dem Hauptrechenzentrum zu schaffen.

Die Datenmodelle

Ein professionelles Infrastruktur-Management bietet vollständige Sichtbarkeit und Transparenz über die gesamten Rechenzentren und die zugehörigen Netzwerke. Auf der Grundlage dieses Wissens können IT-Abteilungen einzelne Änderungen sorgfältig planen, indem sie die Auswirkungen auf Dienste und Kunden analysieren und simulieren.

Voraussetzung dafür ist und bleibt jedoch ein einheitliches, integriertes Datenmodell in einer (einzigen) Informationsdatenbank. Ist diese Datenbank zudem dynamisch, werden Veränderungen automatisch aktualisiert und IT-Verantwortliche haben immer eine zuverlässige aktuelle Grundlage für künftige Entscheidungen. Eine solche Lösung erlaubt ihnen, eine Vielzahl entfernter Edge-Standorte effizient zu managen, ohne jemals vor Ort gewesen zu sein.

* Oliver Lindner ist Head of Business Line DCIM bei der FNT GmbH.

Artikelfiles und Artikellinks

(ID:46568503)