Suchen

Netzwerke in Zeiten von Edge-Cloud-Computing Weichenstellung für Datacenter

| Autor / Redakteur: Axel Simon* / Ulrike Ostler

Mit der Corona-Pandemie wurde das Jahrzehnt denkwürdig eingeläutet: Unverhofft mussten zahlreiche Unternehmen ihren Geschäftsbetrieb digitalisieren und mehr denn je bestimmen Technologien die Arbeits- und Freizeitgestaltung dieser Tage. Fundament dieser digitalen Arbeitsrealität sind Rechenzentren. Hier befindet sich einiges um Umbruch.

Firmen zum Thema

Es gibt drei zentrale Erfordernisse, um dem digitalen Nutzungsverhalten der User stattzugeben und Datencenter fit zu machen: Vereinfachung durch (plattformbasierte) Automatisierung, KI-basierte Analysen und ständige Netzwerktransparenz sowie 24-Stunden-Verfügbarkeit und Ausfallsicherheit etwa durch Cloud-native-Anwendungen.
Es gibt drei zentrale Erfordernisse, um dem digitalen Nutzungsverhalten der User stattzugeben und Datencenter fit zu machen: Vereinfachung durch (plattformbasierte) Automatisierung, KI-basierte Analysen und ständige Netzwerktransparenz sowie 24-Stunden-Verfügbarkeit und Ausfallsicherheit etwa durch Cloud-native-Anwendungen.
(Bild: gemeinfrei: Unsplash)

Nach zwei Jahrzehnten, in denen Daten vorwiegend zentral gehostet und IT-Infrastrukturen entsprechend geprägt wurden, geht nun der Trend hin zum Edge-Computing. Laut Gartner werden heute noch ganze 90 Prozent der Daten zentralisiert in Rechenzentren oder in der Cloud erstellt. Bis 2025 wird sich hier grundlegend etwas ändern – denn rund 75 Prozent der Daten werden dann dezentral verarbeitet und analysiert.

Der digitale Wandel treibt den Trend voran, Datenressourcen zunehmend an den Netzwerkrand zu verlagern, und diese somit näher zum Kunden und auf seine Endgeräte zu bringen – und das in Echtzeit. Dafür sind große Veränderungen in der Netzwerkinfrastruktur erforderlich, vor allem, um die Anforderungen von Edge-Rechenzentren mit den zahlreich genutzten Cloud-Diensten und den weiterhin bestehenden On-Premises-Strukturen zusammenzubringen. Diesem voraussetzungsreichen Balanceakt liegen einige Erwägungen zugrunde:

1. Vereinfachung durch Automatisierung

Da die Anwendungsteams weiterhin auf DevOps und andere agile Methoden zurückgreifen, um die Software-Entwicklung zu beschleunigen, bleibt zu erwarten, dass Netzwerkprozesse weitaus stärker automatisiert und vereinfacht werden (müssen), als sie es heute sind. Jede einzelne der dafür erforderlichen Lösungen wird sowohl aktuelle als auch zukünftige Betriebsmodelle und Investitionen in dem Bereich berücksichtigen müssen.

Netzwerke zu konfigurieren, ist häufig sehr zeitaufwendig. Um das zu vereinfachen, kann beispielsweise eine schlüsselfertige Automatisierung in Betracht gezogen werden.

Gerade erfahrene DevOps-Teams werden verstärkt auf erweiterbare Plattformen zurückgreifen müssen, um netzwerkbezogene Arbeitsabläufe weitreichend zu automatisieren. Da DevOps und agile Methoden in Anwendungsteams immer häufiger zum Einsatz kommen, ist zu erwarten, dass diese Praktiken allmählich auch Einfluss darauf nehmen, wie andere Teams sich innerhalb der IT aufstellen werden.

2. (KI-)Analysen, die umsetzbare Ergebnisse liefern

Die Fehlerbehebung ist vielleicht einer der größten Baustellen für den laufenden Netzwerkbetrieb. Dafür ist die Sichtbarkeit wichtig, um die durchschnittliche Reparaturdauer (MTTR) zu verkürzen, die IT-Service-Bereitstellung zu verbessern und dazu beizutragen, dass sich die unterbesetzten Teams auf strategisch wichtigere Angelegenheiten konzentrieren können.

Netzwerkweite Telemetriesysteme, die jeden einzelnen Node im Netzwerk überwachen, sind die Zukunft. Analysen mit anschließenden automatisierten Korrekturmaßnahmen werden für eine bessere Netzwerkstabilität und proaktive Abhilfe bei der Lösung von Problemen sorgen und gleichzeitig Fehlern mit direkten Konsequenzen für den einzelnen Nutzer und/oder das Unternehmen vorbeugen.

Auch prädiktive Analysen helfen dabei, Probleme zu antizipieren, bevor diese entstehen, und unterstützen die Ressourcenplanung – insbesondere in Zeiten hoher Netzwerkauslastung. Somit wird sichergestellt, dass das Netzwerk die richtige Abdeckung und Größe hat, um die spezifischen Anforderungen der Nutzer zu erfüllen.

3. 24-Stunden-Verfügbarkeit

Axel Simon, Chief Technologist bei HPE Aruba: „Nach zwei Jahrzehnten, in denen Daten vorwiegend zentral gehostet und IT-Infrastrukturen entsprechend geprägt wurden, geht nun der Trend hin zum Edge-Computing.“
Axel Simon, Chief Technologist bei HPE Aruba: „Nach zwei Jahrzehnten, in denen Daten vorwiegend zentral gehostet und IT-Infrastrukturen entsprechend geprägt wurden, geht nun der Trend hin zum Edge-Computing.“
(Bild: Aruba)

Ungeachtet der durch die Corona-Pandemie hervorgerufenen ad-hoc-Anforderungen an die Netzwerkinfrastruktur, wird der Bedarf an belastbaren Netzwerken weiter zunehmen; denn selbst ein unscheinbares Problem im digitalen Zeitalter kann enorme Auswirkungen auf Unternehmen nach sich ziehen. Zwar wird menschliches Versagen durch die die zunehmende Automatisierung weniger wahrscheinlich, allerdings benötigen IT-Teams viel einfachere und zuverlässigere Möglichkeiten und Lösungen, Netzwerke permanent verfügbar zu machen und gleichzeitig unterbrechungsfreie Upgrades zu gewährleisten.

Ein auf Microservices basierendes Cloud-native-Betriebssystem könnte eine ideale Lösung sein, da es die Ausfallsicherheit auf Software-Ebene gewährleistet und in der Lage ist, Software-Upgrades live einzuspielen und dadurch Wartungszeiten zu minimieren.

* Axel Simon ist Chief Technologist bei HPE Aruba.

(ID:46756551)