Künstliche Intelligenz in der IT-Infrastruktur Die Zukunft braucht offene KI-Infrastrukturen

Von Jeff Wittich* 3 min Lesedauer

Anbieter zum Thema

Ob in Rechenzentren oder an der Edge: Die Künstliche Intelligenz (KI) stellt hohe Anforderungen an die Infrastruktur. Offenheit und Modularität sind der Schlüssel, um ihr Potenzial auszuschöpfen.

Modulare IT-Infrastrukturen bilden die Grundlage für skalierbare und anpassbare Anwendungen Künstlicher Intelligenz (KI).(Bild: ©  Antonio - stock.adobe.com)
Modulare IT-Infrastrukturen bilden die Grundlage für skalierbare und anpassbare Anwendungen Künstlicher Intelligenz (KI).
(Bild: © Antonio - stock.adobe.com)

KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologien sind eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht.

Mittlerweile stellen Unternehmen die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen – unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich.:Bei Inferenzen handelt es sich nicht um einzelne Workloads. Vielmehr umfassen sie eine stetig wachsende Bandbreite an Anwendungen, die in Hyperscale-Rechenzentren, Fabrikräumen, smarten Kameras, mobilen Geräten und eingebetteten Systemen zu finden sind.

Gleichzeitig bringt jeder Anwendungsfall unterschiedliche Anforderungen in Sachen Latenz, Energieverbrauch, Kosten, Datendurchlauf und Platzbedarf mit sich. Die Tatsache, dass kein System allen auf einmal gerecht werden kann, unterstreicht einmal mehr, dass Einheitsinfrastrukturen für KI keine Option sind.

Trotz der wachsenden Komplexität verlässt sich ein Großteil der Branche noch immer auf vertikal integrierte, geschlossene Systeme, die sich nur schwer individuell anpassen lassen. Dieser Ansatz reichte aus, als es vor allem noch darum ging, Modelle in kontrollierten Umgebungen zu trainieren. Allerdings entspricht er längst nicht mehr den Bedürfnissen moderner, sich schnell entwickelnder Implementierungen. Wer weiterhin diverse Workloads in starre Infrastrukturen zwängen will, riskiert, den gesamten Prozess zu drosseln, während die KI in beinahe jedem Bereich das Tempo ordentlich anzieht.

Demnach ist klar: KI-Infrastrukturen und -Ökosysteme müssen sich öffnen.

Modulare Systeme statt starrer Infrastrukturen

Eine offene, modulare und auf Standards basierende Infrastruktur ist notwendig, um mit der schnellen Diversifizierung von KI-Workloads mithalten zu können. Anstelle von Einheitslösungen lassen sich mit ihr Systeme um die speziellen Anforderungen von Implementierungen herum aufbauen.

Zudem senkt eine solche Infrastruktur die Integrationshürden, begünstigt die Iteration auf Komponentenebene und ermöglicht so schnellere Innovationszyklen. Darüber hinaus fördert sie einen gesünderen und kompetitiveren Markt, auf dem Systemdesignern und Entwicklern nicht nur Standardkonfigurationen, sondern auch sinnvolle Optionen zur Verfügung stehen.

Schon jetzt trägt dieser Wandel erste Früchte. So unterstützen Initiativen wie das Datacenter-Modular-Hardware-System (DC-MHS) die Interoperabilität über verschiedene Anbieter und Komponenten hinweg – ein guter Anfang für ein Workload-getriebenes Design, das auf Modularität setzt. Allerdings kann keine Spezifikation diese Transformation allein tragen.

Vielmehr braucht es ein breiteres, kollaboratives Ökosystem, das innovative Hardware-, Software- und Plattform-Anbieter miteinander verbindet und so die Anpassungsfähigkeit des gesamten KI-Stacks gewährleistet. Ein wirklich offenes Ökosystem geht jedoch über die reine Kompatibilität hinaus. Es ermöglicht der gesamten Wertschöpfungskette, ihre Innovationskraft frei zu entfalten und Lösungen zu entwickeln, die den vielfältigen, sich weiterentwickelnden Anforderungen innerhalb von Produktionsumgebungen gerecht werden.

Offenheit als Voraussetzung für Innovation und Skalierbarkeit

Dafür braucht es ein neues Mindset, das beim Aufbau einer Infrastruktur nicht nur die Größe, sondern auch die Anpassungsfähigkeit sowie die Langlebigkeit berücksichtigt. Sowohl KI-Technologien als auch die entsprechenden Umgebungen entwickeln sich rasant weiter. Das bedeutet, dass Infrastruktur grundlegend neu gedacht werden muss.

Als Kernprinzip sollte nicht nur die Leistung im Fokus stehen, sondern auch Offenheit, Modularität und Flexibilität. Die Systeme, die wir heute aufbauen, müssen die Workloads der Zukunft stemmen können.

Jetzt ist es Zeit zu handeln. Sowohl Hardware- als auch Software-Anbieter sowie Systementwickler und führende Tech-Experten müssen zusammenkommen und den Übergang hin zu einer offenen Infrastruktur vorantreiben. Dazu gehört es auch, sich in Sachen Standards anzugleichen, echte Interoperabilität zu gewährleisten und in Ökosysteme zu investieren, die die Entscheidungsfreiheit fördern und ein Workload-spezifisches Design ermöglichen. KI beeinflusst bereits zahlreiche Bereiche – jetzt fehlt nur noch eine auf die Zukunft ausgelegte Infrastruktur.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

*Der Autor
Jeff Wittich ist Chief Product Officer bei Ampere

Bildquelle: Ampere

(ID:50468740)