Verbesserte Performance und optimierte KI-Workflows Red Hat OpenShift AI 2.15 setzt auf Flexibilität, Tuning und Tracking

Von Martin Hensel 1 min Lesedauer

Anbieter zum Thema

Das aktuelle Update auf Version 2.15 von Red Hat OpenShift AI hat sich ganz der Skalierbarkeit und Anpassungsfähigkeit von KI-Modellen verschrieben. Im Mittelpunkt der Aktualisierung stehen daher eine verbesserte Performance sowie optimierte KI-Workflows.

Red Hat OpenShift AI ist ab sofort in Version 2.15 verfügbar und bringt verschiedene neue Funktionen und Verbesserungen mit.(Bild:  Gerd Altmann /  Pixabay)
Red Hat OpenShift AI ist ab sofort in Version 2.15 verfügbar und bringt verschiedene neue Funktionen und Verbesserungen mit.
(Bild: Gerd Altmann / Pixabay)

Die auf Red Hat OpenShift aufbauende KI- und Machine-Learning-Plattform soll Unternehmen dabei helfen, KI-gestützte Anwendungen im Hybrid-Cloud-Maßstab zu entwickeln und bereitzustellen. In der aktuellen Version 2.15 werden unter anderem mehr Funktionen für Tuning und Tracking eingeführt, um schnellere Innovationen zu ermöglichen und gleichzeitig hohe operative Effizienz und Sicherheit zu gewährleisten.

Neuerungen im Überblick

Die aktuelle Version 2.15 führt im Rahmen einer Technology Review die Model Registry als zentrale Anzeige und zur Verwaltung registrierter Modelle ein. Hier lassen sich prädiktive und GenAI-Modelle, Metadaten und Modell-Artefakte gemeinsam nutzen, versionieren, bereitstellen und tracken. Ebenfalls neu ist die Überwachung von Änderungen in der Verteilung von Eingabedaten per Data Drift Detection. Bias Detection sorgt für unvoreingenommene damit vertrauenswürdige Modelle und überwacht deren Fairness in der Praxis.

Effizientes Feintuning von LLMs („Large Language Modules“) wie Llama 3 ist nun per LoRA („Low-Rank-Adapter“) möglich. Unternehmen können damit ihre KI-Workloads skalieren sowie gleichzeitig Kosten und Ressourcenverbrauch reduzieren. NVIDIA NIM wird nun ebenso unterstützt, wie AMD-GPUs. Letzteres ermöglicht den Zugriff auf ein AMD ROCm Workbench Image für die Modellentwicklung. Zudem bietet diese Funktion auch Zugang zu Images, die für Serving- und Trainings-/Tuning-Anwendungsfälle mit AMD-GPUs einsetzbar sind.

Verbessertes Model Serving rundet die Funktionsupdates ab – dies schließt sowohl die vLLM-Serving-Laufzeit für KServe als auch den Support von KServe Model Cars mit ein. Weitere Verbesserungen finden sich im Umgang mit Data-Science-Pipelines und beim Tracking von Experimenten. Auch Hyperparameter-Tuning mit Ray Tune ist nun möglich.

Verfügbarkeit

Red Hat OpenShift AI 2.15 ist ab sofort allgemein verfügbar.

(ID:50266209)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung