Zukunftsfähigkeit bedeutet die Umgestaltung von Rechenzentren KI stellt Anforderungen an HPC und die IT-Infrastruktur

Ein Gastbeitrag von Uwe Pferr* 7 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI) verändert die Gesellschaft in vielerlei Hinsicht – von „ChatGPT“ über autonomes Fahren bis hin zum Einsatz von KI im medizinischen Bereich. Sie ist schon lange kein Trendthema mehr, sondern essenzieller Bestandteil unseres Alltags geworden.

Uwer Pferr vom Co-Location-Anbieter Digital Realty skizziert die Herazsforderungen, auf die  Rechenzentren zukommen. Umbrüche kündigen sich an. (Bild:  Bigate.Creative - stock.adobe.com / KI-generiert)
Uwer Pferr vom Co-Location-Anbieter Digital Realty skizziert die Herazsforderungen, auf die Rechenzentren zukommen. Umbrüche kündigen sich an.
(Bild: Bigate.Creative - stock.adobe.com / KI-generiert)

KI verlangt dabei nach Rechenleistung und adäquater IT-Infrastruktur für die Unternehmen, die sie anbieten und vor allem jene, die sie nutzen. Dass KI die Nachfrage an Rechenzentrumskapazität weiter vorantreiben wird, ist dabei nicht nur logische Schlussfolgerung, sondern bereits klar erkennbar. So wird laut Statista erwartet, dass die weltweite Marktgröße eine jährliche Wachstumsrate von 28,68 Prozent aufweist und dementsprechend zu einem prognostizierten Marktvolumen von 774,90 Milliarden Euro im Jahr 2030 führt.

Nahezu jede Branche ist auf der Suche nach neuen KI-Funktionen, die Prozesse rationalisieren und Ergebnisse verbessern können. In dieser neuen digitalen Landschaft sind Unternehmen in der Rechenzentrumsbranche in einer einzigartigen Position, um KI-Anwendungen bereitzustellen und von ihnen zu profitieren. Firmeneigene Server-Räume stoßen dabei sehr oft an ihre Grenzen und viele Unternehmen entscheiden sich dazu, ihre Infrastruktur zu einem professionellen Rechenzentrumsbetreiber auszulagern.

Das Training und die produktive Bereitstellung von KI erfordern jedoch größte Mengen an Rechenleistung und Datenspeicherung. Sowohl künftig erbaute als auch bestehende Rechenzentren werden diese Funktionen als Rückgrat einer technologiegetriebenen Welt bereitstellen.

KI ist nicht ChatGPT

Diese steigende Nachfrage erfordert aber auch, dass die Rechenzentren selbst neue Technologien wie KI-Systeme einsetzen, um einen noch effizienteren Service zu bieten. Die CFD-Simulation (Computational Fluid Dynamics) ist beispielsweise eine computergestützte Methode zur Analyse und Vorhersage des Strömungsverhaltens von Gasen oder Flüssigkeiten. Digital Realty verwendet sie, um sicherzustellen, dass Kunden ein gut funktionierendes und effizientes Kühlungsdesign erhalten.

Die Gestaltung von Datenhallen im Co-Location-Rechenzentrum

Jetzt ist es an der Zeit, traditionelle Rechenzentrumsdesigns zu überdenken, insbesondere für KI-Workloads. Herkömmliche Rechenzentren bieten vordefinierte Datenhallen, in welchen Kunden ihre IT-Infrastruktur betreiben können. Viele große Rechenzentren werden mit 1 Megawatt- oder 2 Megawatt-Hallen gebaut, in denen CRAH- oder CRAC-Units einen Doppelboden nutzen, um die Schränke (Racks) mit gekühlter Luft zu versorgen.

Eine Kalt- oder Warmgangeinhausung unterstützt die Effizienz des Luftstroms. Wenn man ein paar Jahre zurückdenkt, so wurden pro IT-Schrank Stromverbräuche von 2 Kilowatt bis 10 Kilowatt gebaut. Installationen mit mehr als 10 Kilowatt waren die Ausnahme. Im Rahmen von KI-Implementierungen sprechen wir über Installationen mit einer Größe von 20 Kilowatt bis 150 Kilowatt pro Schrank.

Aber es ist nicht nur die höhere Dichte, die ein Umdenken im Design erfordert. Viele Kunden isolieren die KI-Workloads so, dass eine einzelne KI-Implementierung autonom ausgeführt werden kann – selbst, wenn es um Training oder Inferenz geht. Das bedeutet, dass die Kunden für die Ausführung ihrer KI-Anwendung eine geringe Anzahl von Schaltschränken benötigen. Angenommen eine einzelne KI-Anwendung benötigt

  • einen Netzwerkschrank
  • zwei wassergekühlte Schränke für die Berechnung und
  • einen Speicherschrank für das Training eines KI-Modells.

Außerdem sichert sich ein Kunde womöglich vier zusätzliche Schränke für sein künftiges Wachstum. Dieses Szenario könnte eine Herausforderung für herkömmliche Rechenzentren darstellen, denn in diesem Fall sehen wir eine Mischung aus luftgekühlten und direkt flüssigkeitsgekühlten Systemen, wobei Schränke mit niedriger, mittlerer und hoher Dichte zusammen in Cage mit zusätzlichen reservierten Stellflächen für zukünftiges Wachstum untergebracht werden sollen.

eBook: Die KI macht das schon...

Die KI macht das schon...
eBook: Die KI macht das schon...

Energiemanagement, Geräteverwaltung, Workload-Management und Sicherheit – vier Bereiche, in denen sich der Einsatz von KI bereits bewährt hat.
Bis zum Jahre 2035 soll KI die Unternehmensgewinne um durchschnittliche 38 Prozent anheben. Die Wirtschaft steht unter Druck, Reserven der Produktivität freizusetzen und neue Wege der Entscheidungsfindung zu betreten. Gerade im Mittelstand herrscht noch viel Unkenntnis und Unsicherheit, was den Einsatz von KI bis jetzt ausbremst. Jedoch hält gerade Künstliche Intelligenz mittlerweile in allen Bereichen der IT und OT unerbittlich Einzug. (PDF | ET 29.02.2024)
Hier das Inhaltsverzeichnis:

  • ... OT mit KI: Facility Management
  • ... IT mit KI: Hardware & Co.
  • ....Intelligente Ressourcenzuteilung
  • ....KI-gestützte Cyber-Abwehr


  • In solchen Fällen arbeitet Digital Realty als Rechenzentrumsbetreiber zu Beginn des Projekts mit dem Kunden zusammen, um das Layout des geplanten Schrankaufbaus zu überarbeiten und sowohl für den Kunden als auch für den Betreiber zu optimieren. Es kann sein, dass das Layout so angepasst wird, dass von Anfang an keine leeren Schränke vorhanden sind und ein dedizierter Netzwerkschrank nicht erforderlich ist, sondern die Netzwerkkomponenten auch in den Rechen- und Speicherschränken installiert werden. Die frühzeitige Einbindung des Rechenzentrumsanbieters, insbesondere dessen Solution Architects, ist daher oft ein Erfolgsfaktor und kann auch zu Kostensenkungen führen.

    Jetzt Newsletter abonnieren

    Täglich die wichtigsten Infos zu RZ- und Server-Technik

    Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

    Aufklappen für Details zu Ihrer Einwilligung

    Schränke und Erweiterungen

    Bei KI-Projekten mit hoher Dichte ist es manchmal eine gute Entscheidung, mit Wärmetauschern an der Rückseite der Racks zu arbeiten oder Kühlsysteme in den Schrankreihen zu installieren. Ab und zu werden Schränke mit Kühlern an der Oberseite geplant oder die Rechensysteme benötigen Flüssigkeit, zum Beispiel gekühltes Wasser.

    All diese Schränke unterscheiden sich von Standardschränken ohne besondere Anforderungen. Insbesondere bei der direkten Flüssigkeitskühlung muss der Schrank zusätzlichen Platz für die Wasserverteilung bieten. Diese Produkte ähneln den Stromverteilern und benötigen zusätzlichen Platz im IT-Schrank. Diese Einheiten, Manifolds genannt, spielen eine entscheidende Rolle bei der effektiven Verteilung von gekühltem Wasser.

    An dieser Stelle soll nicht auf all die neuen Kühllösungen eingegangen werden, die zur Verfügung stehen, aber es lohnt sich, daran zu denken, dass es viele davon gibt und viele neue Produktnamen darunter sind, wie Rack-Chiller, Coolant Distribution Units, RDHX (Rear Door Heat Exchanger), Immersion Cooling, Inrow Coolers, usw. Und es geht nicht nur um Kühlung und Belüftung. High-Density-Schränke benötigen viel Strom, und die in HD-Schränken installierten Systeme benötigen oft eine große Anzahl von Stromanschlüssen, die von Rack-PDUs bereitgestellt werden müssen. Um diese Herausforderung zu lösen, müssen oft 4, 6 oder 8 Rack-PDUs in einem einzigen Schrank installiert werden.

    IT-Netzwerke

    Das Netzwerk ist der Eckpfeiler von KI-Projekten und deren Erfolg. Die verteilte Datenverarbeitung ist entscheidend für den Erfolg der KI, und die Skalierbarkeit des Netzwerks und seine Fähigkeit, eine wachsende Zahl von Computenodes zu bewältigen, sind von entscheidender Bedeutung.

    Im Hinblick auf die Vernetzung sind viele Herausforderungen für einige Kunden neu. Themen wie „Performance at Scale“, Multicloud, hybrides Arbeiten, Cluster-Netzwerke, Infiniband, MTP/MPO usw. sind nur einige von ihnen. KI-Systeme bestehen manchmal aus Tausenden von Verarbeitungseinheiten (vor allem GPUs), die hoch ausgelastet werden. Dies stellt die KI-Netzwerkinfrastruktur, die oft Hunderte von Hochgeschwindigkeits-Ports (100 Gbit/s, 400 Gbit/s und 800 Gbit/s) unterstützen muss, vor erhebliche Herausforderungen.

    Bei der Entwicklung der Netzwerkarchitektur für KI-Rechenzentren ist es wichtig, eine integrierte Lösung zu schaffen, die eine verteilte Datenverarbeitung priorisiert. Die Berücksichtigung von Netzwerkaspekten ist der Schlüssel zur Erschließung des vollen Potenzials von KI-Technologien und zur Förderung von Innovationen in der Rechenzentrumsbranche. Neben der Anbindung von Kunden an Cloud-Infrastrukturen zur Nutzung ihrer KI-Ressourcen können sich Unternehmen auch mit anderen Kunden verbinden oder Netzwerkverbindungen mit ihren Partnern herstellen.

    Digital Realty bietet seinen Kunden auch eine strukturierte Rack-Verkabelung an, unabhängig von der jeweiligen Technologie. Oft wird ein sicherer Internet-Zugang benötigt, den der Rechenzentrumsbetreiber ebenfalls im Rahmen seines Produktportfolios anbietet.

    Daten-Management

    Wenn es darum geht, KI-Infrastruktur zu betreiben, ist es wichtig, dass eine stabile Verbindung zu den gespeicherten Daten gewährleistet ist. In den meisten Fällen stammen die von der KI zu verarbeitenden Datenmengen aus dem Internet. Dabei handelt es sich hauptsächlich um Texte, Bilder, Videos, Sprache in Form von gesprochenem Wort, Sensordaten und andere zu verarbeitende Informationen.

    Daten stammen oft aus mehreren und unterschiedlichen Netzen. Vor allem bei der „Predictive AI“ sehen die Experten von Digital Realty die Notwendigkeit, Daten aus verschiedenen Quellen zusammenzuführen. Colocation-Rechenzentren haben erhebliche Vorteile gegenüber On-Prem-Installationen, wenn es um Vernetzungslösungen geht.

    Um eine stabile, belastbare und schnelle Verarbeitung zu gewährleisten, muss die Netzwerkverbindung nicht nur leistungsstark, sondern auch zuverlässig sein. Auch die Latenzzeit spielt hier eine große Rolle. Viele Kunden entscheiden sich daher für Internet-Breakouts an mehreren Standorten ihres Co-Location-Anbieters und setzen auf "Blended Internet". Dabei werden mehrere Upstream-Provider genutzt, was die Verfügbarkeit weiter erhöht.

    Um externe Angriffe wie zum Beispiel DDoS-Attacken zu verhindern, werden auch Firewall-Systeme und spezielle DDOS-Schutzlösungen eingesetzt.

    Wo soll die KI-Infrastruktur betrieben werden?

    Viele Kunden sind sich nicht sicher, welcher der beste Standort für den Betrieb der KI-Infrastruktur ist. Ist es am besten, sie in der Cloud zu betreiben oder sollte man in seine eigene Lösung investieren, die in einem Colocation-Rechenzentrum läuft? Außerdem stellt sich die Frage, ob es sinnvoll ist, ein Hybridmodell aufzubauen oder die Ressourcen von einem IaaS-Anbieter zu mieten.

    Als Experte in diesem Bereich weiß Digital Realty, dass dies eine ganz individuelle Entscheidung ist. Um diese Frage zu beantworten, ist daher eine genaue Betrachtung der Use-Cases wichtig. Nur so kann eine gute Strategie erarbeitet werden, die auch den rechtlichen Anforderungen entspricht.

    Weitere Punkte, die es zu beachten gilt:

    • Ist die Anwendung auf Sicherheit, Leistung, Compliance, Kosten und Verfügbarkeit ausgerichtet?
    • Stromverbrauch in der Trainingsphase versus Inferenzphase: Meistens verbraucht die Trainingsphase weitaus mehr Energie als die Inferenzphase.
    • Wie oft führe ich Trainingsphasen durch und wie lange dauern diese Phasen?
    • Habe ich einen globalen Anbieter, der es mir ermöglicht, Trainingsphasen gegebenenfalls an Standorten außerhalb des eigenen Landes laufen zu lassen, die weniger stromkostenintensiv sind und gleichzeitig die Möglichkeit bieten, Data-Storage konform geltender Gesetzgebung vor Ort zu betreiben?

    *Der Autor

    Uwe Pferr ist Senior Solutions Architect beim Co-Location-Anbieter Digital Realty.

    Bildquelle: Digital Realty

    Artikelfiles und Artikellinks

    (ID:50204343)