Cloud-Regret und weitere Prognosen für 2024 Datacenter-Trends - Vorhersagen aus dem Hause Juniper Networks

Von Ben Baker* 3 min Lesedauer

Anbieter zum Thema

Vor fünf oder zehn Jahren stürzten sich Unternehmen auf die public cloud, verlockt durch utopische Versprechen von höherer Flexibilität und niedrigeren Kosten. Die meisten Firmen mussten jedoch feststellen, dass die public Cloud doch nicht so einfach und kostengünstig ist. „Cloud-Regret“ ist das neue Motto, da unzählige Unternehmen ihre Arbeit in private on-premise Rechenzentren zurückverlagern.

Ben Baker, Senior Director, Cloud and Datacenter Marketing und Business Analysis bei Juniper Networks, gibt einen Ausblick auf die Datacenter-Trends, die im kommenden Jahr bestimmend sein werden. (Bild:  frei lizenziert: Gordon Johnson /  Pixabay)
Ben Baker, Senior Director, Cloud and Datacenter Marketing und Business Analysis bei Juniper Networks, gibt einen Ausblick auf die Datacenter-Trends, die im kommenden Jahr bestimmend sein werden.
(Bild: frei lizenziert: Gordon Johnson / Pixabay)

KI-Rechenzentren: In die Cloud oder nicht in die Cloud? Wir sehen jetzt die Anfänge der gleichen Entscheidungen in Bezug auf KI-Rechenzentren (Rechenzentren für Anwendungen der Künstlichen Intelligenz). Doch dieses Mal werden die Unternehmen klüger und durchdachter vorgehen. Bauen (vor Ort) versus Mieten (public Cloud) versus Hybrid (beides) – diese Entscheidungen werden klarer und professioneller getroffen werden.

Ja, der Aufbau eines neuen GPU-Cluster ist teuer, aber das Mieten dieser Kapazität bei einem Hyperscaler ist es auch. Viele Unternehmen werden sich für den Aufbau von KI-Rechenzentren vor Ort entscheiden, da sie so eine bessere Kontrolle, eine höhere Souveränität und niedrigere Kosten als bei Public-Cloud-Alternativen haben.

Energie und Nachhaltigkeit

Die Infrastrukturanbieter werden weiterhin immer effizientere Geräte entwickeln und produzieren. Doch aufgrund der strengen Anforderungen beim Training neuer KI-Modelle wird der Stromverbrauch für Racks in Rechenzentren steigen – in einigen Fällen von 10 Kilowatt (kW) auf über 100 kW. Dies hat erhebliche Auswirkungen auf die Einrichtung von Rechenzentren hinsichtlich des Strombedarfs und der Kühlung.

Erneuerbare Energien werden an Bedeutung gewinnen. Rechenzentren, die zu 100 Prozent mit Erneuerbaren Energien betrieben werden, werden eher die Regel als eine Seltenheit sein. Bei der Planung von Rechenzentren wird zunehmend auf die geografische Lage und ein kühles Klima mit Zugang zu Sonne, Wind und Wasser geachtet. Experimentelle Kühlmethoden, die den Stromverbrauch minimieren, wie Immersionskühlung, beenden ihre Testphase, und Kunden werden sogar aufgefordert, ihren eigenen Strom in Co-Location-Einrichtungen mitzubringen (BYOP).

Cloud-Engineering versus Netzwerktechnik

Cloud-Ingenieure dringen immer weiter in das Revier der traditionellen Netzwerktechniker vor. Während Netzwerk-Tools der alten Schule immer noch existieren, werden Cloud-Funktionen zunehmend nicht nur für den Betrieb öffentlicher Clouds, sondern auch für private Infrastrukturen eingesetzt.

Netzwerkingenieure müssen keine Software-Entwickler werden, um zu bestehen, aber sie müssen sich mit Automatisierungslösungen wie Terraform auskennen. Moderne Netzwerk-Management-Anwendungen, die sich nahtlos in Cloud-Technologien integrieren lassen, werden sich durchsetzen, während sperrige, isolierte, alte Netzwerk-Tools, die nicht auf Integration ausgerichtet sind, an Bedeutung verlieren.

AIOps beginnt, das Rechenzentrum zu durchdringen

Angesichts der explosionsartigen Zunahme von Anwendungen und Aufgaben ist die Zufriedenheit der Nutzer und die Erfüllung ihrer Bedürfnisse heute wichtiger denn je. Bislang konzentrierte sich AIOps im Netzwerkbereich auf Sicherheit und einfachere Anwendungsfälle in Campus- und Zweigstellenumgebungen.

Der erste große Anwendungsbereich für AIOps im Rechenzentrum wird die präventive Wartung und Fehlerbehebung sein. Die AIOps Lösungen suchen nach Mustern, die typischerweise auf Probleme hindeuten, und informieren die IT-Abteilung proaktiv mit den erforderlichen Änderungen, um Leistungseinbußen oder Ausfälle zu verhindern.

Wenn Probleme auftreten, wird AIOps aktiv die Schritte zur Fehlerbehebung durchführen, die normalerweise von einem Netzwerkadministrator übernommen werden, wodurch sich die Mean-Time-To-Repair und, was ebenso wichtig ist, die Mean-Time-To-Innocence erheblich verkürzt. KI-basierte Large Language Models (LLMs) werden in praktisch jede Schnittstelle integriert, so dass die Betreiber schnell durch komplexe Systeme navigieren können, und so Antworten auf alles – vom aktuellen Netzwerkstatus bis hin zu Konfigurationsänderungen oder empfohlenen Upgrades – zu erhalten.

*Der Autor
Ben Baker ist Senior Director, Cloud and Datacenter Marketing und Business Analysis bei Juniper Networks. Er arbeitet seit 20 Jahren mit Service Providern zusammen und entwickelt Business Cases für eine Vielzahl von Produktkonzepten und neuen Unternehmungen.
Baker hat einen MBA vom MIT und einen BS und MS in Maschinenbau von der Johns Hopkins University.

Bildquelle: Linkedin/privat

(ID:49826295)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung