„Red Hat AI“ ist ein Portfolio von Produkten und Dienstleistungen, das Unternehmen dabei hilft, KI-Inferenz- und Traningsanwendungen in Hybrid-Cloud-Umgebungen zu entwickeln und bereitzustellen. Anwender von „Openshift AI“ und „Red Hat Enterprise Linux AI“ sollen durch höhere Effizienz, vereinfachter Nutzung und Hybrid-Cloud-Flexibilität von neuen Features profitieren können.
Red Hat bietet Erweiterungen für für „Openshift AI“ und „Enterprise Linux AI“ an; Kunden sollen dadurch an eine höhere Effizienz, vereinfachte Nutzung und Hybrid-Cloud-Flexibilität gelangen können.
(Bild: Midjourney / KI-generiert)
Régis Lesbarreres, Advanced Analytics and AI Innovation Manager, Digital Innovation bei Airbus Helicopters, verdeutlicht stellvertretend die wachsenden Ansprüche der Anwenderunternehmen: „Zu Beginn unserer KI-Journey wollten wir bei Airbus Helicopters Künstliche Intelligenz in unsere bestehende Architektur integrieren, Schatten-IT reduzieren, unsere Data Scientists auf einer einzigen KI-Plattform vereinen und die Kosten im großen Maßstab optimieren.“
Er setzt hinzu: „Mit Red Hat Openshift AI konnten wir all diese Ziele erreichen, was zu unserem ersten geschäftlichen Anwendungsfall für KI führte. Die Vision von Red Hat für KI stimmt mit unseren Unternehmenszielen überein und ermöglicht es uns, diese zu erreichen, während wir Flexibilität, Zugänglichkeit und Transparenz bewahren.“
Für den Anbieter Red Hat heißt dass, dass Unternehmen weiterhin nach Möglichkeiten suchen, die Kosten für den Einsatz von Large Language Models (LLMs) in großem Maßstab zu senken, um eine steigende Anzahl von Anwendungsfällen abzudecken. Allerdings stehen sie ebenso vor der Herausforderung, diese Modelle mit ihren proprietären Daten zu verwenden, die diese Anwendungsfälle antreiben. Gleichzeitig müssten sie sicherstellen, dass die KI-Modelle auf diese Daten überhaupt erst zugreifen können – und zwar egal wo sie sich befinden, sei es in einem Rechenzentrum, in Public-Clouds oder an der Edge.
Umsetzung in Produkt-Features
Red Hat AI, das sowohl Red Hat Openshift AI als auch Red Hat Enterprise Linux AI (RHEL AI) beinhaltet, adressiere diese Herausforderungen. Damit können der Anbieter eine Enterprise-KI-Plattform bereitstellen, die es den Nutzern ermöglicht, effizientere und optimierte KI-Modelle zu verwenden, die auf geschäftsspezifische Daten abgestimmt seien und dann über die Hybrid Cloud sowohl für das Training als auch die Inferenz auf einer Vielzahl von beschleunigten Rechenarchitekturen bereitgestellt werden könnten.
Red Hat Openshift AI
Red Hat OpenShift AI bietet eine KI-Plattform zur Verwaltung des Lebenszyklus von prädiktiven und generativen KI-Modellen in der Hybrid Cloud. Das Angebot umfasst Funktionen für Machine Learning Operations (MLOps) und den Betrieb von Large Language Models (LLMOps). Sie ermöglicht überdies den Aufbau prädiktiver Modelle und das Finetuning von generativen KI-Modellen. Auch Tools zur vereinfachten Verwaltung von KI-Modellen sind Teil der Plattform, von der Datenwissenschaft und Modell-Pipelines bis hin zum Monitoring von Modellen und deren Governance.
Die jüngste Version, „Red Hat Openshift AI 2.18“, bringt Updates und neue Funktionen, die das Ziel unterstützen sollen, optimierte und effizientere KI-Modelle in die Hybrid Cloud zu bringen. Dazu gehören:
Distributed Serving: Über den „vLLM“-Inferenz-Server ermöglicht Distributed Serving IT-Teams, das Modell-Serving auf mehrere Grafikprozessoren (GPUs) zu verteilen. Dies verringert die Last auf einzelnen Servern, beschleunigt das Training sowie das Finetuning und nutzt Rechenressourcen effizienter. Distributed Serving hilft zudem, Dienste für KI-Modelle auf mehrere Knoten zu verteilen.
End-to-End Model Tuning:: Mit „Instructlab“ und „Openshift AI Data Science Pipelines“ vereinfache sich das Finetuning von LLMs. Sie mache, laut Anbieter, diese in großen Produktivumgebungen skalierbarer, effizienter und besser auditierbar. Darüber hinaus sei eine benutzerfreundliche Verwaltung über das „Red Hat Openshift AI Dashboard“ möglich.
AI Guardrails: Red Hat OpenShift AI 2.18 verbessert die Genauigkeit, Leistung, Latenz und Transparenz von LLMs durch eine Technologieüberprüfung der AI Guardrails. Diese Funktion überwacht Nutzerinteraktionen und Modellausgaben und schützt vor potenziell schädlicher, missbräuchlicher oder obszöner Sprache. Auch die Herausgabe persönlicher Daten und wettbewerbsrelevanter Informationen, die durch Unternehmensrichtlinien eingeschränkt sind, könne die Funktion effektiv verhindern, heißt es.
Modellbewertung: Mit der Komponente „lm-eval“ (Language Model Evaluation) können Data Scientists die Leistung ihrer LLMs bei verschiedenen Aufgaben messen, von logischem und mathematischem Denken bis hin zu widersprüchlicher natürlicher Sprache. Dies hilft bei der Entwicklung effektiverer, reaktionsschnellerer und maßgeschneiderter KI-Modelle.
RHEL AI
Bei RHEL AI handelt es sich um eine Plattform für so genannte Foundation Models, die eine konsistente Entwicklung, Testing und den Betrieb von LLMs zur Unterstützung von Unternehmensanwendungen ermöglicht. RHEL AI stellt Nutzern „Granite“ LLMs und „Instructlab“-Modelle zur Verfügung, die als boot-fähiges Red Hat Enterprise Linux Server Image verpackt sind und über die Hybrid Cloud bereitgestellt werden können.
Mit der Veröffentlichung von „RHEL AI 1.4“ im Februar 2025 wurden mehrere Verbesserungen eingeführt, darunter:
Die Unterstützung für „Granite 3.1 8B“, das jünste Mitglied der Open-Source-lizenzierten Granite-Modellfamilie. Das Modell bietet mehrsprachige Unterstützung für Inferenz und Taxonomie/Knowledge-Anpassung (aktuell als Developer Preview) sowie ein 128k-Kontextfenster für verbesserte Resultate bei Zusammenfassungen und Aufgaben aus dem Bereich RAG (Retrieval-Augmented Generation).
Eine neue grafische Benutzeroberfläche für Skill- und Knowledge-Beiträge (verfügbar als Developer Preview). Das neue Interface vereinfacht die Datenerfassung und -unterteilung sowie den Prozess, um neue Skills und Beiträge zu einem KI-Modell hinzuzufügen.
Document Knowledge-Bench (DK-Bench) zur einfacheren Vergleichbarkeit von KI-Modellen, die mit relevanten, privaten Daten 'finegetunt' wurden, ohne Leistungseinbußen gegenüber den Basismodellen.
Red Hat AI Instructlab auf der IBM Cloud
Red Hat AI Instructlab, als Service auf IBM Cloud bereitgestellt, wurde entwickelt, um das Training und die Bereitstellung von KI-Modellen zu vereinfachen, zu skalieren und die Sicherheitsaspekte zu verbessern. Das Versprechen: Durch die Vereinfachung des Instructlab-Modell-Tunings können Organisationen effizientere Modelle erstellen, die auf ihre individuellen Bedürfnisse zugeschnitten sind, und dabei die Kontrolle über ihre Daten behalten.
Kostenfreies Training für Kunden von Red Hat
KI stellt eine transformative Chance dar und definiert die Art und Weise neu, wie Unternehmen arbeiten und konkurrieren. Um Organisationen in diesem dynamischen Umfeld zu unterstützen, bietet Red Hat den Nutzern seiner Produkte kostenfreie Online-Trainingskurse zu AI Foundations an.
Dafür gibt es zwei KI-Zertifizierungsprogramme, die sowohl für erfahrene Führungskräfte als auch für KI-Neulinge geeignet sind. Die Webinare helfen Nutzern aller Erfahrungsstufen, zu verstehen, wie KI Geschäftsprozesse unterstützt, die Entscheidungsfindung vereinfacht und Innovation vorantreibt. Teilnehmerinnen und Teilnehmer lernen zudem, wie sie dieses Wissen beim Einsatz von KI-Lösungen von Red Hat anwenden können.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Anand Swamy, Executive Vice President and Global Head of Ecosystems bei HCLTech, kommt zu dem Schluss: „Um das volle Potenzial von generativer KI auszuschöpfen, müssen Unternehmen agile und flexible Infrastrukturen priorisieren. Durch die Kombination von Red Hat AI, inklusive RHEL AI und Red Hat Openshift AI, für das Bereitstellen einer umfassenden KI-Anwendungsplattform mit der führenden KI-Expertise sowie den kognitiven Infrastruktur-Dienstleistungen von HCLTech, die Teil der HCLTech-AI-Foundry-Lösung sind, können Kunden ihre KI-Innovationen vorantreiben. So überwinden sie gängige Herausforderungen wie die Wahrung der Datensicherheit, das Skalieren von KI-Arbeitslasten und die Minimierung von Infrastrukturkosten.“
Verfügbarkeit
Red Hat OpenShift AI 2.18 und Red Hat Enterprise Linux AI 1.4 stehen weltweit zur Verfügung. Weitere Informationen zu neuen Funktionen, Verbesserungen, Bugfixes und ein Update-Plan finden sich auf der Webseite des Anbieters.
Die aktuelle Version von RHEL AI steht ebenfalls zum Download bereit. Das AI Foundations Training von Red Hat ist für Nutzerinnen und Nutzer ebenfalls ab sofort buchbar. Red Hat AI Instructlab on IBM Cloud wird in Kürze verfügbar sein.