KI verbreitet sich zusehends in Unternehmen. Doch gilt die Technologie als komplex, energiezehrend und teuer, vor allem wegen der nötigen Hardware-Ausstattung. Jan Wildbroer, Technology Evangelist bei Red Hat spricht mit Autorin Ariane Rüdiger über Möglichkeiten, mit dieser Situation umzugehen.
Wie wichtig ist KI für Unternehmen heute und muss es unbedingt „ChatGPT“ sein? Und was sagt Jan Wildboer, Technologie-Evangelist EMEA bei Red Hat, dazu?
KI ist im Moment in aller Munde. Kaum eine Veranstaltung, kaum eine Ankündigung kommt ohne Bezug zum derzeitigen Thema Nummer 1 aus. Und es wird nicht nur geredet. Vielmehr wagen sich mehr und mehr Unternehmen an die Umsetzung von KI-Projekten.
Mehr Nutzung, mehr Investitionen
Nach aktuellen Daten des Branchenverbandes Bitkom setzen derzeit bereits 20 Prozent der befragten 602 Firmen KI ein. Weitere 37 Prozent planen das in der nächsten Zeit. Und ein rasch sinkender Anteil, derzeit aber immer noch 41 Prozent, hat an dem Thema bis auf Weiteres kein Interesse.
Außerdem wird KI weitaus eher als Chance denn als Risiko betrachtet. Und die Investitionsneigung in die Technologie steigt. Auch bislang war sie schon hoch: 32 Prozent geben an, bereits Geld in KI gesteckt zu haben - 74 Prozent wollen das in Zukunft tun.
Generative KI: Keine Selbstverständlichkeit
Allerdings zeigt sich, dass der derzeitige Hit in den Diskussionen, generative KI, im Feld längst noch keine Selbstverständlichkeit ist. Erst neun Prozent nutzen, wie der Branchenverband herausgefunden hat, die Technologie rund um LLMs (Large Language Models) wie „ChatGPT“. 18 Prozent wollen in Zukunft LLM nutzen.
19 Prozent können sich immerhin vorstellen, generative KI irgendwann einzusetzen. Gleichzeitig haben sich 23 Prozent dagegen entschieden. Müssen die nun ganz und gar auf KI-Nutzung verzichten?
Auch mit ML kommt man schon weit
Mitnichten, meint Jan Wildboer, Technologie-Evangelist für EMEA beim Open-Source-Riesen Red Hat. Auch mit Maschinenlernen und ähnlichen Technologien, die bereits langjährig im Einsatz sind, komme man in der Praxis sehr weit.
Laut Bitkom sind die Haupteinsatzfelder generativer KI der Kundenkontakt (89 Prozent), Marketing und Kommunikation (40 Prozent) und Forschung und Entwicklung (20 Prozent).
Probleme von Generativer KI
Zurückhaltung gegenüber neuen Technologien ist gerade in Deutschland nichts Neues. Die Gründe für das vorsichtige Herangehen an Generative AI sind vielschichtig.
Die meisten Unternehmen sehen KI als Chance, weniger als Risiko.
(Bild: Bitkom)
Da ist einmal die immer noch bestehende Rechtsunsicherheit - laut Bitkom nennen 82 Prozent die Befürchtung, dass Gesetze die Anwendbarkeit der Technologie einschränken könnten und 73 Prozent stören sich an den Anforderungen des Datenschutzes. 68 Prozent sehen sich ganz allgemein durch rechtliche Hürden an der KI-Nutzung gehindert.
Energiefresser Ki
Dazu kommt der immense Energieverbrauch von KI. Er entsteht vor allem in der Lernphase großer generativer AI-Modelle. Wie Datacenter-insider-Chefredakteurin anlässlich einer Podiumsdiskussion auf dem diesjährigen 'Datacenter Strategy Summit' referierte, verbrauche KI derzeit etwa 15 Prozent des Stromverbrauchs der gesamten IT: Tendenz einer Verdopplung des Energeiverbrauchs alle 100 Tage.
Jedenfalls verschlingen GPU-Farmen, vor allem zum Anlernen von Modellen, bislang unbekannte Energiemengen. Das könnte den Gesamtenergieverbrauch der IT bis 2030 auf 230 Terawattstunden hochtreiben und damit in die Dimensionen des Stromverbrauchs der gesamten USA.
Modell-Training: GPU bis auf Weiteres unverzichtbar
Zwar gibt es schon eine Reihe neuer Prozessoransätze, die insgesamt erheblich weniger Strom verbrauchen sollen, marktreif ist von alledem aber bislang noch recht wenig. Wildboer: „Wer heute generative KI-Modelle anlernen will, kommt um GPU nicht herum.“
„Es muss nicht immer generative GenAI sein.O ft tun es auch bewährte ML-Algorithmen", so Jan Wildeboer.
(Bild: Red Hat)
Die Inferenz sei weniger kritisch, hier komme man mit geringeren Ressourcen aus, ergänzt der Spezialist. Ein Weg aus dem Flaschenhals zwischen Erkenntniserzeugung und effektiver Energie-Erzeugng sei es, auf kleinere Modelle zu setzen, die jeweils Spezialaufgaben übernehmen.
Vorfahrt für Infrastruktur und KI-Pipelines aus der Cloud?
Ein weiterer Weg, Ressourcen zu sparen, sei es, sich der externen Verarbeitungs-Pipelines und Hardwareressourcen zu bedienen, die manche Cloud-Anbieter schon bereitstellen. Allerdings steht solchen Ideen oft der Wunsch der Anwender entgegen, unternehmenswichtige Daten in den eigenen vier Wänden zu behalten.
Bei sensiblen Themen verhindern auch schon die Datenschutzgesetze solche Auslagerungen. Zumal beispielsweise selbst Microsoft nicht mit letzter Sicherheit zusichern kann, dass Daten auch in Spitzenzeiten zu Verarbeitungszwecken nicht kurzfristig außerhalb des europäischen Hoheitsgebiets landen. Hier ist also noch viel Vertrauensaufbau zu leisten.
Ausweg Open Source?
Statt auf Gedeih und Verderb auf die großen Modelle von OpenAI und anderen zu zählen, gäbe es, so Wildboer, auch die Alternative, Open Source zu nutzen. Schließlich sei die ökonomische Effektivität großer Modelle für Unternehmensaufgaben gar nicht so eindeutig.
Ein Beispiel für Open-Source-Modelle ist die „Granite“-Modellreihe von IBM. Der Hersteller hat sie seit geraumer Zeit Open Source gestellt. „Um deren Weiterentwicklung kümmern sich viele tausend Leute weltweit, sie sind nicht an einen Hersteller gebunden“, sagt Wildboer.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Wunder Punkt Toolchain
Ein wunder Punkt von auf Open Source fußenden KI-Verarbeitungsketten sind die Toolchains. Denn Anwender müssen sie in der Regel selbst aufbauen, was wiederum viel Wissen und auch Erfahrung verlangt.
Daran, dass es an Umsetzungstechnologie und -Know-How fehlt, scheitern viele zunächst ehrgeizige KI-Konzepte von Unternehmen. „Die meisten KI-Konzepte kommen nicht voran oder werden fallen gelassen, weil es nicht gelingt, eine funktionierende Verarbeitungskette aufzubauen oder zu skalieren.“
Hilfreich seien an diesem Punkt, so Wildboer, Partner, die Anwendern Beratung, vortrainierte Modelle für spezielle Zwecke und auch Werkzeuge anbieten. Damit ließen sich dann effektive KI-Verarbeitungsketten vor Ort aufbauen und betreiben lassen.
Mittelstand hält sich bei generativer KI zurück
Wohl wegen all dieser Themen sind es derzeit vor allem die ökonomisch Großen, die insbesondere im Bereich generative KI voranstürmen. Kleinere und mittelständische Firmen haben häufig weder das Wissen noch die finanziellen Mittel oder die Manpower, um einzusteigen. Oder zumindest glauben sie das und lassen deswegen die Finger von der Technologie.
So gaben in einer aktuellen Studie der DZ-Bank zum Thema unter deutschen Mittelständlern 42 Prozent der Befragten an, vorläufig diese Technologie nicht nutzen zu wollen. Das ist fast die Hälfte.
DIe KI-Investitionen werden voraussichtlich in den kommenden Jahren kräftig steigen.
(Bild: Bitkom)
Freilich könnte es mittelfristig die weltweite Konkurrenzfähigkeit gerade der vielen Hidden Champions in Deutschland gefährden, blieben sie dauerhaft KI-abstinent. Doch wie können sie und andere Unternehmen gerade aus dem Mittelstand erfolgreich in die Nutzung neuartiger KI-Technologien einsteigen?
Tipps für den erfolgreichen KI-Einstieg
Für diejenigen, die das interessiert, hat Jan Wildboer im Podcast „Datacenter Diaries“ einige praxisorientierte Tipps an der Hand, deren Verständnis keine Ausbildung als Data Scientist verlangt.
Für diejenigen, die das interessiert, gibt es die Folge #40 der„Datacenter Diaries“ „Red-Hat-Evangelist Jan Wildeboer über die Adaption von KI, generativer KI hierzulande - im Gespräch mit Ariane Rüdiger“.
Und die nötige Hardware-Ausstattung im Rechenzentrum? Die muss natürlich sein. Aber kein Patent gilt ewig, und vielleicht scharren ja die potentiellen Verfolger von GPU-Platzhirsch Nvidia insgeheim schon mit den Hufen und warten darauf, den Markt mit günstigen KI-Prozessoren zu fluten, sobald das rechtlich möglich ist...
Intels intelligente Rechner mit KI-Coprozessor gibt es ja auch schon. Der könnte zumindest die tägliche Arbeit und die Inferenz mit kleineren Modellen unabhängig von der teuren Nvidia-Plattform machen.