KI-Strategie von Red Hat Mit maßgeschneiderten Modellen zum KI-Erfolg

Von lic.rer.publ. Ariane Rüdiger 5 min Lesedauer

Anbieter zum Thema

Nicht in den großen, sondern in kleinen, maßgeschneiderten Modellen und modularen Infrastrukturen und natürlich offener Technologie liegt für Red Hat die Zukunft der Künstlichen Intelligenz (KI). Entsprechend schneidet der Anbieter seine Produktpalette zu.

Jan Wildeboer, Evangelist bei Red Hat: „Kleine, modulare Modelle verringern GPU-Bedarf.“(Bild:  Red Hat)
Jan Wildeboer, Evangelist bei Red Hat: „Kleine, modulare Modelle verringern GPU-Bedarf.“
(Bild: Red Hat)

Der KI-Zug rollt unaufhaltsam, und gegenwärtig positionieren sich alle Hersteller in den aus ihrer Sicht vorteilhaftesten Waggons. Ihr gemeinsames Ziel: Ihren Marktanteil an dem sich rasant entwickelnden Milliardenmarkt so groß wie möglich zu machen.

„Offenheit wichtigster Unterschied zu anderen Anbietern“, Gregor von Jagow, Senior Director & Country Manager Germany bei Red Hat.(Bild:  Ariane Rüdiger)
„Offenheit wichtigster Unterschied zu anderen Anbietern“, Gregor von Jagow, Senior Director & Country Manager Germany bei Red Hat.
(Bild: Ariane Rüdiger)

Der Open-Source-Spezialist Red Hat, Tochterunternehmen von IBM, setzt dabei getreu den eigenen Traditionen konsequent auf offene Technologien. „Darin liegt der wichtigste Unterschied zwischen unseren und den Modellen anderer Anbieter“, betont Gregor von Jagow, Senior Director & Country Manager Germany bei Red Hat, anlässlich einer Presseveranstaltung in München.

Der besondere Vorteil der Offenheit zeige sich beim Umgang mit den Daten, mit denen die Modelle trainiert werden. Denn häufig fehle den proprietären Modellen die Transparenz. Das sei bei Red Hat anders.

Erfahrung beim Mutterunternehmen IBM

Das Mutterunternehmen IBM habe sehr viel Erfahrung, die dort entwickelte Granite-Modellfamilie sei auf Open Source ausgelegt. So seien die Trainingsdaten dokumentiert, verifiziert und auch die Urheberrechte seien geklärt, erklärte Jan Wildeboer, bei Red Hat als Technologie-Evangelist EMEA aktiv. Auf Modellmärkten wie Hugging Face dagegen gebe es zwar jede Menge Modelle. Deren Verlässlichkeit – respektive rechtliche Unbedenklichkeit – sei allerdings nicht in jedem Fall garantiert.

Man hat konsequent alle drei Geschäftsfelder von Red Hat (hybride Cloud-Infrastruktur, Cloud Native Development Platforms, Automatisierung/Management) mit KI angereichert. „Das Gesamtportfolio wurde auf KI umgestellt“, konstatierte von Jagow.

Denn Kunden aus dem Bank-, Versicherungs- oder Medizinbereich könnten oder wollten entweder aus geschäftlichen oder rechtlichen Gründen nichts anderes als ihre Daten weit gehend im Hause zu behalten. Dafür seien die diversen offenen Produkte, die nun mit KI angereichert sind, die ideale Basis. „Wir wollen Open Source mit KI zusammenbringen!“, sagte von Jagow.

Einfacher Einstieg in KI

Dabei ist das Unternehmen schon ein ganzes Stück fortgeschritten. Nach Red Hat OpenShift AI kündigte Red Hat im Mai RHEL AI, seit Anfang September allgemein verfügbar, InstructLab und die Granite-Modelle als Open Source an. Mit der Kombination eines Boot-Images von RHEL samt einer KI-Bibliothek, dem Granite LLM, beziehungsweise davon abgeleiteten Modellen für Spezialzwecke sowie InstructLab zur individuellen Weiterentwicklung des Sprachmodells, könne man einfach und günstig in KI einsteigen. Von Jagow: „Die Umgebung läuft auf dem Laptop, lässt sich aber auch sehr viel größer skalieren.“

In der Modellfamilie rund um das Granite LLM finden sich Modelle für die Codeentwicklung, für Chatbots und für Aufgaben, bei denen eine besonders hohe Parameterzahl gebraucht wird. „IBM versichert bei den Daten, die in die Modelle einfließen, eine verantwortliche Datenhaltung“, betont von Jagow.

Red Hat OpenShift AI als Dach ermöglicht die Skalierung sogar über das gesamte Unternehmen hinweg. Auch der Rückgriff auf WatsonX, die KI-Umgebung des Mutterunternehmens IBM, sei möglich.

Basismodelle weiterhin unter der Regie von IBM

Darauf angesprochen, ob diese Zusicherung nicht durch die Freigabe des Codes auf Dauer verwässert würden, betonte Wildeboer, dass die Basismodelle weiterhin unter der Regie von IBM stünden. „Die Community kann sich einbringen, Änderungen werden aber von IBM kuratiert.“ Was nicht kuratiert worden sei, dürfe sich nicht Granite nennen.

Insgesamt sieht Wildeboer die großen Sprachmodelle ohnehin nicht als das entscheidende Instrument, wenn es darum gehe, spezifische Aufgaben in Unternehmen zu lösen. „Die LLM-Entwicklungskurve flacht derzeit ab. Die Visionen der Großen, die als erste in die Technologie eingestiegen sind, geraten durch die Erwartungen kleinerer Unternehmen an die Technologie unter Druck.“

„Die Zukunft gehört domänen-spezifischen Modellen und einer Umgebung, in der man viele von ihnen mit jeweils spezifischen Zwecken unter einem gemeinsamen Dach kombiniert“, sagte Wildeboer. Solche kleinen Modelle könne man bei Bedarf schnell gegen andere auswechseln und kontinuierlich, wenn die Aufgabe das erfordere. Wildeboer: „Das ist, was wir die Demokratisierung von KI nennen!“

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Diese Form der Dezentralität garantiere auch einen gesünderen Markt, denn OpenAI sei längst zu riesig. Kunden fragten nicht mehr nur nach der Mächtigkeit von Modellen, sondern nach konkreten Ergebnissen und Kosten. Modell- und Methodenvielfalt sei gewinnträchtiger und realistischer.

Unter ausdrücklichem Hinweis darauf, dass dies seine private und nicht etwa die offizielle Red-Hat-Auffassung sei, meinte er dann: OpenAI behauptet von seiner neuesten Modellgeneration Strawberry, dieses Modell erlaube es, die Gedanken nachzuvollziehen, mit denen das Modell zu seinen Ergebnissen komme. Das sei „völliger Quatsch“ – es handele sich nach wie vor um Stochastik und Mathematik.

Bedarf an GPUs senken

Ganz nebenbei werde der Übergang zur Nutzung kleinerer, vielfältiger Modelle auch den Bedarf an GPUs senken, die im wissenschaftlichen Bereich oft nur zu 25 Prozent ausgelastet wären. Das haben sie freilich auch mit den ganz normalen Servern in der IT gemein, deren Auslastung trotz Virtualisierung häufig nur wenig besser ist. Es scheint der IT nur selten zu gelingen, maßlose Auslastungslücken zu verhindern.

Wie dem auch sei: Die Konkurrenten Nvidias wie Apple mit seiner Personal AI, Intels Gaudi oder AMDs entsprechende Produkte stünden in den Startlöchern. Auch breit einsetzbare Standardprozessoren mit Koprozessoren, die nicht von Nvidia stammen müssten, böten einen Ausweg aus der Monokultur.

Besonders erfolgreich könnten sich eigenständige Kleinmodelle in Europa entwickeln, das mit dem AI Act ein Gesetzeswerk entwickelt hat, welches weltweit zum Vorbild werden könnte, meinte Peter Blenninger, Geschäftsführer DACH des unter anderem auf Red Hat spezialisierten Dienstleisters CROZ. „Es passiert dasselbe wie bei der Datenschutzgrundverordnung, nur gleich im Positiven.“

CROZ gibt es seit 2002, das Tochterunternehmen für den deutschsprachigen Raum ist zweieinhalb Jahre alt. Seit 2017 ist man RHEL Solution Provider, seit 2020 entwickelt CROZ auch KI-gestützte Lösungen. In der Firma arbeiten 400 IT-Experten, man habe etwa 15 laufende beziehungsweise abgeschlossene Projekte.

Viele Anwendungen für Spezialmodelle

Anwendungen für Spezialmodelle gebe es viele, meint Blenninger. Beispielsweise die Optimierung von Mobil- oder Stromnetzen. Im Medizinbereich hilft KI mancherorts bereits den von Bürokratie überlasteten Ärzten, sich wieder vor allem aufs Medizinische und ihre Patienten zu konzentrieren.

Ein Beispiel: Für Nexi, einen der europaweit größten Zahlungsabwickler, baute CROZ ein neues Betrugserkennungssystem und migrierte es auf Red Hat OpenShift AI. Das alte regelbasierte wurde dabei durch ein Event-basiertes System ausgewechselt. Das ermöglicht die Unterbrechung potenziell betrügerischer Transaktionen schon vor ihrem Abschluss. Beim alten konnte die betrügerische Absicht lediglich im Nachhinein festgestellt werden. Eine Transaktion wird innerhalb von 247 Millisekunden analysiert und bewertet, bei mindestens 80 Prozent richtigen Klassifizierungen.

„Automation und Integration stehen für die Professionalisierung von KI“, Dr. Giulia Solinas, Data Scientist und AI-Consultant bei CROZ.      (Bild:  Ariane Rüdiger)
„Automation und Integration stehen für die Professionalisierung von KI“, Dr. Giulia Solinas, Data Scientist und AI-Consultant bei CROZ.
(Bild: Ariane Rüdiger)

Außerdem wurden Modellierung und Deployment auf einer Plattform zusammengeführt und alle Abläufe weitgehend automatisiert. Die DevOps-Abläufe finden in Red Hat OpenShift statt und es gibt eine schnelle Integration zwischen der KI-Modellierung auf Red Hat OpenShift AI und der Bereitstellung und Überwachung auf Red Hat OpenShift. Die Tools sind jetzt besser verteilt und die Plattform ist mit innovativen Funktionen ausgerüstet. So können die Modelle schnell und kontinuierlich angepasst werden. „So stellen wir uns eine Professionalisierung der AI vor!“, freut sich Dr. Giulia Solinas, Data Scientist und KI-Consultant bei CROZ.

(ID:50188742)