Gartner-Analysten prognostizieren Das Nutzen von großen KI-Modellen wird billiger - bis 2030

Quelle: Pressemitteilung Gartner Inc. 3 min Lesedauer

Anbieter zum Thema

Das dürfte für die Anwender eine gute Nachricht sein: Large Language Modelle (LLMs) werden im Jahr 2030 bis zu 100-mal kosteneffizienter sein als die ersten Modelle vergleichbarer Größe aus dem Jahr 2022, sagen Analysten von Gartner voraus.

Gartner davon aus, dass LLMs im Jahr 2030 bis zu 100-mal kosteneffizienter sein werden als die ersten Modelle vergleichbarer Größenordnung, die 2022 entwickelt wurden. Doch KI wird insgesamt teurer. (Bild:  Midjourney / KI-generiert)
Gartner davon aus, dass LLMs im Jahr 2030 bis zu 100-mal kosteneffizienter sein werden als die ersten Modelle vergleichbarer Größenordnung, die 2022 entwickelt wurden. Doch KI wird insgesamt teurer.
(Bild: Midjourney / KI-generiert)

Nach Evaluierungen des Forschungs- und Beratungsunternehmen im Bereich Wirtschaft und Technologie, werden die Kosten für die Inferenz auf einem LLM mit einer Billion Parametern bis 2030 für GenAI-Anbieter um mehr als 90 Prozent gegenüber 2025 sinken. Will Sommer, Senior Director Analyst bei Gartner, beschreibt die Entwicklung wie folgt: „Diese Kostenverbesserungen werden durch eine Kombination aus Effizienzsteigerungen bei Halbleitern und Infrastruktur, Innovationen im Modelldesign, einer höheren Chipauslastung, dem vermehrten Einsatz von auf Inferenz spezialisierten Chips sowie dem Einsatz von Edge-Geräten für bestimmte Anwendungsfälle vorangetrieben.“

Die Grundlage für die Berechnung sind KI-Token. Das sind die Dateneinheiten, die von GenAI-Modellen verarbeitet werden. Für die Zwecke der Gartner-Analyse entspricht ein Token 3,5 Byte Daten oder etwa 4 Zeichen.

Wie wichtigt dabei die Entwicklung und Verwendung von KI-Chips sind, lässt sich an zwei Szenarien ablesen. Denn die prognostizierten Modellergebnisse unterteilen sich laut Gartner in zwei Gruppen von Halbleiterszenarien:

Die modellierten Kosten in den „Blend“-Prognoseszenarien sind aufgrund der geringeren Rechenleistung deutlich höher als in den „Frontier“-Szenarien. (Bild:  Gartner Inc.)
Die modellierten Kosten in den „Blend“-Prognoseszenarien sind aufgrund der geringeren Rechenleistung deutlich höher als in den „Frontier“-Szenarien.
(Bild: Gartner Inc.)

  • „Frontier-Szenarien“: Die Modellberechnung basiert auf einer Darstellung modernster Chips.
  • „Legacy-Blend-Szenarien“: Die Modellberechnung basiert auf einer repräsentativen Mischung verfügbarer Halbleiter, die anhand von Gartner-Prognosen bewertet wurden.

Mehr Agenten, mehr Token, höhere Kosten

Doch nicht alles ist eitel Sonnenschein. Die sinkenden Token-Kosten der GenAI-Anbieter werden nach den Erwartungen der Analysten jedoch nicht vollständig an die Unternehmenskunden weitergegeben. Darüber hinaus wird „Frontier Intelligence“ deutlich mehr Token erfordern als aktuelle Mainstream-Anwendungen. Agentenbasierte Modelle benötigen beispielsweise pro Aufgabe zwischen 5- und 30-mal mehr Token als ein herkömmlicher GenAI-Chatbot und können mithilfe von GenAI weitaus mehr Aufgaben bewältigen als ein Mensch.

Zwar werden niedrigere Token-Einheitskosten fortschrittlichere GenAI-Fähigkeiten ermöglichen, doch führen diese Fortschritte auch zu einem überproportional höheren Token-Bedarf. Da der Token-Verbrauch schneller steigt als die Token-Kosten sinken, ist mit einem Anstieg der Gesamtkosten für Inferenz zu rechnen.

Sommer warnst somit: „Chief Product Officers (CPOs) sollten die Abwertung von Commodity-Token nicht mit der Demokratisierung des Frontier-Reasonings verwechseln.“

Kaschieren verlagert das Problem

Während standardisierte Intelligenz immer mehr gegen Nullkosten tendierten, seien die Rechenkapazitäten und Systeme, die für fortgeschrittenes Reasoning erforderlich sind, nach wie vor knapp. „CPOs, die heute architektonische Ineffizienzen mit billigen Token kaschieren, werden morgen feststellen, dass eine skalierbare Agentenumgebung unerreichbar bleibt.“

GenAI Modelle: weltweite End-User Ausgaben geordnet nach Subsegmenten 2024 - 2026, Angaben in Millionen Dollar
Markt Ausgaben 2024 Ausgaben 2025 Ausgaben 2026
DSLMs und Spezial-GenAI-Modelle 302 1.168 2.665
Foundation-Modelle 5.416 13.249 23.715
insgesamt 5.719 14.418 26.380
Gartner, Dezember 2025

Doch wie kommen Unternehmen aus dieser Spirale heraus? Von Vorteil seien Plattformen, die Workloads über ein vielfältiges Modellportfolio hinweg koordinieren können, so Sommer.

Routinemäßige, hochfrequente Aufgaben müssten an effizientere, kleine und domänenspezifische Sprachmodelle weitergeleitet werden, die bei der Anpassung an spezialisierte Arbeitsabläufe eine bessere Leistung erbringen als generische Lösungen. Sie könnten das sogar zu einem Bruchteil der Kosten. Die kostspielige Inferenz von Modellen auf dem neuesten Stand der Technik müsse streng kontrolliert und ausschließlich für komplexe, margenstarke Denkprozesse reserviert werden.

Prognose für den weltweiten Umsatz mit Halbleitern für KI-Verarbeitung – nach Halbleiterchip-Typ, 2024–2026, Angaben in Millionen Dollar)

Chip Category

2024

2025

2026

Graphics Processing Units (GPUs)

71.097

113.860

140.517

AI Akzelleratoren (non-GPU)

9.919

15.654

29.656

Diskreter Anwendungs-/Multimedia-Prozessor

28.632

33.963

40.579

Integrated Baseband/Application Prozessor

18.996

22.068

24.434

Mikroprozessor-Rechenleistung

8.944

17.464

28.582
FPGA/PLD 779 1.140 1.534
Embedded Mikroprozessor 306 461 580
Micro-Controller mit 32 Bit und mehr 55 128 296
Digitaler Signalprozessor 85 117 157
Gesamtsumme 138.813 204.856 266.334
Gartner, September 2025

(ID:50798022)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung