Nicht in den großen, sondern in kleinen, maßgeschneiderten Modellen und modularen Infrastrukturen und natürlich offener Technologie liegt für Red Hat die Zukunft der Künstlichen Intelligenz (KI). Entsprechend schneidet der Anbieter seine Produktpalette zu.
Jan Wildeboer, Evangelist bei Red Hat: „Kleine, modulare Modelle verringern GPU-Bedarf.“
(Bild: Red Hat)
Der KI-Zug rollt unaufhaltsam, und gegenwärtig positionieren sich alle Hersteller in den aus ihrer Sicht vorteilhaftesten Waggons. Ihr gemeinsames Ziel: Ihren Marktanteil an dem sich rasant entwickelnden Milliardenmarkt so groß wie möglich zu machen.
„Offenheit wichtigster Unterschied zu anderen Anbietern“, Gregor von Jagow, Senior Director & Country Manager Germany bei Red Hat.
(Bild: Ariane Rüdiger)
Der Open-Source-Spezialist Red Hat, Tochterunternehmen von IBM, setzt dabei getreu den eigenen Traditionen konsequent auf offene Technologien. „Darin liegt der wichtigste Unterschied zwischen unseren und den Modellen anderer Anbieter“, betont Gregor von Jagow, Senior Director & Country Manager Germany bei Red Hat, anlässlich einer Presseveranstaltung in München.
Der besondere Vorteil der Offenheit zeige sich beim Umgang mit den Daten, mit denen die Modelle trainiert werden. Denn häufig fehle den proprietären Modellen die Transparenz. Das sei bei Red Hat anders.
Erfahrung beim Mutterunternehmen IBM
Das Mutterunternehmen IBM habe sehr viel Erfahrung, die dort entwickelte Granite-Modellfamilie sei auf Open Source ausgelegt. So seien die Trainingsdaten dokumentiert, verifiziert und auch die Urheberrechte seien geklärt, erklärte Jan Wildeboer, bei Red Hat als Technologie-Evangelist EMEA aktiv. Auf Modellmärkten wie Hugging Face dagegen gebe es zwar jede Menge Modelle. Deren Verlässlichkeit – respektive rechtliche Unbedenklichkeit – sei allerdings nicht in jedem Fall garantiert.
Man hat konsequent alle drei Geschäftsfelder von Red Hat (hybride Cloud-Infrastruktur, Cloud Native Development Platforms, Automatisierung/Management) mit KI angereichert. „Das Gesamtportfolio wurde auf KI umgestellt“, konstatierte von Jagow.
Denn Kunden aus dem Bank-, Versicherungs- oder Medizinbereich könnten oder wollten entweder aus geschäftlichen oder rechtlichen Gründen nichts anderes als ihre Daten weit gehend im Hause zu behalten. Dafür seien die diversen offenen Produkte, die nun mit KI angereichert sind, die ideale Basis. „Wir wollen Open Source mit KI zusammenbringen!“, sagte von Jagow.
Einfacher Einstieg in KI
Dabei ist das Unternehmen schon ein ganzes Stück fortgeschritten. Nach Red Hat OpenShift AI kündigte Red Hat im Mai RHEL AI, seit Anfang September allgemein verfügbar, InstructLab und die Granite-Modelle als Open Source an. Mit der Kombination eines Boot-Images von RHEL samt einer KI-Bibliothek, dem Granite LLM, beziehungsweise davon abgeleiteten Modellen für Spezialzwecke sowie InstructLab zur individuellen Weiterentwicklung des Sprachmodells, könne man einfach und günstig in KI einsteigen. Von Jagow: „Die Umgebung läuft auf dem Laptop, lässt sich aber auch sehr viel größer skalieren.“
In der Modellfamilie rund um das Granite LLM finden sich Modelle für die Codeentwicklung, für Chatbots und für Aufgaben, bei denen eine besonders hohe Parameterzahl gebraucht wird. „IBM versichert bei den Daten, die in die Modelle einfließen, eine verantwortliche Datenhaltung“, betont von Jagow.
Red Hat OpenShift AI als Dach ermöglicht die Skalierung sogar über das gesamte Unternehmen hinweg. Auch der Rückgriff auf WatsonX, die KI-Umgebung des Mutterunternehmens IBM, sei möglich.
Basismodelle weiterhin unter der Regie von IBM
Darauf angesprochen, ob diese Zusicherung nicht durch die Freigabe des Codes auf Dauer verwässert würden, betonte Wildeboer, dass die Basismodelle weiterhin unter der Regie von IBM stünden. „Die Community kann sich einbringen, Änderungen werden aber von IBM kuratiert.“ Was nicht kuratiert worden sei, dürfe sich nicht Granite nennen.
Insgesamt sieht Wildeboer die großen Sprachmodelle ohnehin nicht als das entscheidende Instrument, wenn es darum gehe, spezifische Aufgaben in Unternehmen zu lösen. „Die LLM-Entwicklungskurve flacht derzeit ab. Die Visionen der Großen, die als erste in die Technologie eingestiegen sind, geraten durch die Erwartungen kleinerer Unternehmen an die Technologie unter Druck.“
„Die Zukunft gehört domänen-spezifischen Modellen und einer Umgebung, in der man viele von ihnen mit jeweils spezifischen Zwecken unter einem gemeinsamen Dach kombiniert“, sagte Wildeboer. Solche kleinen Modelle könne man bei Bedarf schnell gegen andere auswechseln und kontinuierlich, wenn die Aufgabe das erfordere. Wildeboer: „Das ist, was wir die Demokratisierung von KI nennen!“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Diese Form der Dezentralität garantiere auch einen gesünderen Markt, denn OpenAI sei längst zu riesig. Kunden fragten nicht mehr nur nach der Mächtigkeit von Modellen, sondern nach konkreten Ergebnissen und Kosten. Modell- und Methodenvielfalt sei gewinnträchtiger und realistischer.
Unter ausdrücklichem Hinweis darauf, dass dies seine private und nicht etwa die offizielle Red-Hat-Auffassung sei, meinte er dann: OpenAI behauptet von seiner neuesten Modellgeneration Strawberry, dieses Modell erlaube es, die Gedanken nachzuvollziehen, mit denen das Modell zu seinen Ergebnissen komme. Das sei „völliger Quatsch“ – es handele sich nach wie vor um Stochastik und Mathematik.
Bedarf an GPUs senken
Ganz nebenbei werde der Übergang zur Nutzung kleinerer, vielfältiger Modelle auch den Bedarf an GPUs senken, die im wissenschaftlichen Bereich oft nur zu 25 Prozent ausgelastet wären. Das haben sie freilich auch mit den ganz normalen Servern in der IT gemein, deren Auslastung trotz Virtualisierung häufig nur wenig besser ist. Es scheint der IT nur selten zu gelingen, maßlose Auslastungslücken zu verhindern.
Wie dem auch sei: Die Konkurrenten Nvidias wie Apple mit seiner Personal AI, Intels Gaudi oder AMDs entsprechende Produkte stünden in den Startlöchern. Auch breit einsetzbare Standardprozessoren mit Koprozessoren, die nicht von Nvidia stammen müssten, böten einen Ausweg aus der Monokultur.
Besonders erfolgreich könnten sich eigenständige Kleinmodelle in Europa entwickeln, das mit dem AI Act ein Gesetzeswerk entwickelt hat, welches weltweit zum Vorbild werden könnte, meinte Peter Blenninger, Geschäftsführer DACH des unter anderem auf Red Hat spezialisierten Dienstleisters CROZ. „Es passiert dasselbe wie bei der Datenschutzgrundverordnung, nur gleich im Positiven.“
CROZ gibt es seit 2002, das Tochterunternehmen für den deutschsprachigen Raum ist zweieinhalb Jahre alt. Seit 2017 ist man RHEL Solution Provider, seit 2020 entwickelt CROZ auch KI-gestützte Lösungen. In der Firma arbeiten 400 IT-Experten, man habe etwa 15 laufende beziehungsweise abgeschlossene Projekte.
Viele Anwendungen für Spezialmodelle
Anwendungen für Spezialmodelle gebe es viele, meint Blenninger. Beispielsweise die Optimierung von Mobil- oder Stromnetzen. Im Medizinbereich hilft KI mancherorts bereits den von Bürokratie überlasteten Ärzten, sich wieder vor allem aufs Medizinische und ihre Patienten zu konzentrieren.
Ein Beispiel: Für Nexi, einen der europaweit größten Zahlungsabwickler, baute CROZ ein neues Betrugserkennungssystem und migrierte es auf Red Hat OpenShift AI. Das alte regelbasierte wurde dabei durch ein Event-basiertes System ausgewechselt. Das ermöglicht die Unterbrechung potenziell betrügerischer Transaktionen schon vor ihrem Abschluss. Beim alten konnte die betrügerische Absicht lediglich im Nachhinein festgestellt werden. Eine Transaktion wird innerhalb von 247 Millisekunden analysiert und bewertet, bei mindestens 80 Prozent richtigen Klassifizierungen.
„Automation und Integration stehen für die Professionalisierung von KI“, Dr. Giulia Solinas, Data Scientist und AI-Consultant bei CROZ.
(Bild: Ariane Rüdiger)
Außerdem wurden Modellierung und Deployment auf einer Plattform zusammengeführt und alle Abläufe weitgehend automatisiert. Die DevOps-Abläufe finden in Red Hat OpenShift statt und es gibt eine schnelle Integration zwischen der KI-Modellierung auf Red Hat OpenShift AI und der Bereitstellung und Überwachung auf Red Hat OpenShift. Die Tools sind jetzt besser verteilt und die Plattform ist mit innovativen Funktionen ausgerüstet. So können die Modelle schnell und kontinuierlich angepasst werden. „So stellen wir uns eine Professionalisierung der AI vor!“, freut sich Dr. Giulia Solinas, Data Scientist und KI-Consultant bei CROZ.