Predictable Compute Die Grundlage skalierbarer Multi‑Tenant‑KI

Ein Gastbeitrag von Jeff Wittich* 2 min Lesedauer

Anbieter zum Thema

KI-Plattformen stoßen in geteilten Infrastrukturen zunehmend an die Grenzen klassischer Server-CPUs. Sobald mehrere Workloads parallel laufen, werden Latenzen unvorhersehbar, Kapazitäten ineffizient und Kosten schwer kalkulierbar. Die Ursache liegt jedoch nicht in einer wachsenden Nachfrage, sondern in der Variabilität, die Prozessoren selbst mitbringen.

Für Inferenzsysteme, die naturgemäß nicht einzelne, sonderen mehrere, manchmal ganz viele partizipieren, müssen die Hardware-Eigenschaften und selbst die Prozessorqualitäten den Anforderungen gerecht werden können. Das reicht das  Schielen auf reine Performance nicht. (Bild: ©  Chaosamran_Studio - stock.adobe.com / KI-generiert)
Für Inferenzsysteme, die naturgemäß nicht einzelne, sonderen mehrere, manchmal ganz viele partizipieren, müssen die Hardware-Eigenschaften und selbst die Prozessorqualitäten den Anforderungen gerecht werden können. Das reicht das Schielen auf reine Performance nicht.
(Bild: © Chaosamran_Studio - stock.adobe.com / KI-generiert)

Jahrzehntelang wurden Server-CPUs auf kurzzeitige Spitzenleistungen und oft auch einen einzigen dominierenden Workload hin optimiert. Solche Designs können in einem Single-Application-Test beeindruckend aussehen, jedoch nicht in modernen Multi-Tenant-KI-Umgebungen.

Um diese Spitzenleistungen zu erreichen, müssen Legacy‑Prozessoren intern Ressourcen teilen, die Stromversorgung dynamisch umverteilen und ihre Taktfrequenzen laufend anpassen. Diese Vielzahl parallel arbeitender Mechanismen ist entsprechend störanfällig. Nimmt der Bedarf an Rechenleistung für einen Workload beispielsweise kurzzeitig zu, kann sich eine parallellaufende Inferenzanfrage verzögern und Betreiber dazu veranlassen, Kapazitäten zu erhöhen, um Schwankungen zu vermeiden.

Aus Produkt- und Plattformperspektive ist das jedoch kostspielig: Die Variabilität erschwert die Kapazitätsplanungen, verschleiert die tatsächliche Auslastung und zwingt Teams dazu, die Infrastruktur zu überdimensionieren, um sich gegen Worst-Case-Szenarien abzusichern. Die Branche hat lange versucht, dieses Problem softwareseitig zu lösen, etwa durch Scheduling, Isolationstechniken und zunehmend komplexe Orchestrierungsschichten, um noisy neighbors reaktiv herunterzuregeln. Inzwischen setzt sich jedoch zunehmend die Erkenntnis durch, dass dieser Ansatz in Multi‑Tenant‑KI‑Umgebungen an seine Grenzen stößt und echte Vorhersehbarkeit früher beginnen muss – auf architektonischer Ebene.

Vorhersehbarkeit beginnt bei der Architektur

Deshalb orientiert sich modernes Prozessordesign vermehrt an konsequenter Ausführungsisolation: Ein physischer Kern führt genau einen Thread aus, ohne konkurrierende Ausführungspfade, ohne dynamische Neuzuteilung gemeinsamer Ressourcen mitten in einer Anfrage und mit stabiler Taktfrequenz.

Eine Inferenz, die sich jedes Mal identisch verhalten soll, kann dies unter solchen Bedingungen zuverlässig tun. Mehrere breit verfügbare und gleichmäßig angebundene Speicherkanäle stellen sicher, dass Workloads kontinuierlich und ohne unerwartete Verlangsamungen versorgt werden. Anstatt Systeme darauf zu trainieren, sich an Variabilität anzupassen, wird diese nun direkt an ihrer Quelle eliminiert.

Die Auswirkungen sind weit mehr als eine gleichmäßige Performance. Wenn die Inferenzlatenz bereits auf Hardware-Ebene stabil ist, wird die Kapazitätsplanung konkret und messbar.

  • Multi-Tenant-Services müssen ihre Budgets nicht länger aufstocken, um SLAs verantwortungsvoll einzuhalten.
  • Preismodelle gewinnen an Klarheit, weil sich das Verhalten unter Last nicht mehr unvorhergesehen ändert.
  • Sicherheits- und Compliance-Teams gewinnen an Vertrauen, da Performance-Isolation das Risiko von Side-Channel-Effekten zwischen Tenants reduziert.
  • Entwicklungsteams wiederum können sich darauf konzentrieren, die Modellqualität und das Nutzererlebnis zu verbessern, statt Störungen im Prozessor auszugleichen zu müssen.

Da KI weiterhin ein wesentlicher Bestandteil digitaler Produkte bleiben wird, geht es nicht mehr darum, theoretischen Spitzenwerten hinterherzujagen, sondern darum, jedem Tenant jederzeit eine konsistente, vertrauenswürdige Rechenleistung zu liefern. Und architektonische Vorhersehbarkeit macht genau das möglich: Immer mehr moderne Prozessoren setzen auf Single-Threaded und Isolation-First-Designs, wodurch Multi-Tenant-KI endlich skalieren kann – ohne versteckte Puffer, unvorhersehbare Latenzen oder überdimensionierte Infrastruktur.

*Der Autor
Jeff Wittich ist Chief Product Officer bei Ampere

Bildquelle: Ampere

(ID:50694213)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung