Servicenow und Nvidia erarbeiten Llama-Nemotron-Modelle für bessere Schlussfolgerungen Eine neue Klasse von Enterprise AI Agents

Quelle: Pressemitteilung Nvidia 2 min Lesedauer

Anbieter zum Thema

Servicenow ermöglicht eine beschleunigte Datenverarbeitung in der „Servicenow Workflow Data Fabric“ durch die Integration von „Nvidia Nemo“-Microservices, die eine Art Datenschwungradprozess ermöglicht, der die Modellgenauigkeit und die personalisierte Benutzererfahrung verbessert.

Teil der Keynotes-Präsentation: Jensen Huang als KI-Figur in einer Servicenow-Umgebung(Bild:  Nvidia)
Teil der Keynotes-Präsentation: Jensen Huang als KI-Figur in einer Servicenow-Umgebung
(Bild: Nvidia)

Wenn Jensen Huang, Gründer und CEO von Nvidia, bei einem Partner auf die Bühne steigt, kündigt sich eine tiefergehende Kooperation an. Am vergangenen Dienstag hat er die Keynote von Bill McDermott, CEO von Servicenow auf deren Hausveranstaltung „Knowledge 2025“ mitgestaltet. Dabei ist es um das „Apriel Nemotron15B“-Argumentationsmodell von Servicenow gegangen, das in Zusammenarbeit mit Nvidia entwickelt wurde.

Das Argumentationsmodell mit der etwas sperrigen Bezeichnung Apriel Nemotron 15B (siehe auch:ServiceNow-AI/Apriel-Nemotron-15b-Thinker) soll in Echtzeit Schlussfolgerungen ziehen, Ziele abwägen und durch Regeln navigieren. Das Servicenow-Marketing jubelt: „Serviceteams haben gerade einen neuen Kollegen bekommen – und es ist ein Supergenie mit 15 B-Parametern....“

KI-Agenten sollen helfen, in Echtzeit zu reagieren, komplexe Arbeitsabläufe zu bewältigen und Funktionen wie IT-, HR- und Kundendienstteams weltweit zu skalieren. Damit das möglich wird, ist mithilfe von „Nvidia Nemo“, dem „Llama Nemotron Post-Training Dataset“von Nvidia und domänenspezifischen Servicenow-Daten ein Modell erstellt und in der Nvidia DGX Cloud auf AWS trainiert worden.

Kleineres Modell, größere Wirkung

Das Ergebnis ist ein KI-Modell, das nicht nur auf Genauigkeit, sondern auch auf Geschwindigkeit, Effizienz und Skalierbarkeit optimiert ist – wichtige Bestandteile für den Betrieb von KI-Agenten, die Tausende von gleichzeitigen Unternehmens-Workflows unterstützen können. Damit ist das Modell zum einen kleiner als einige der jüngsten Allzweck-LLMs, die mit mehr als einer Billion Parametern ausgeführt werden können, und zu anderem schneller in den Antworten und ermöglicht zudem niedrigere Inferenzkosten, bietet aber Künstliche Intelligenz auf Unternehmensniveau.

KI-Datenschwungräder (Data Flywheel) funktionieren, indem sie eine Schleife schaffen, in der KI-Modelle durch die Integration von institutionellem Wissen und Nutzerfeedback kontinuierlich verbessert werden. Während das Modell Ergebnisse erzeugt, sammelt es Feedback und neue Daten, die dann zur Verfeinerung und Verbesserung des Modells verwendet werden. Dieser Prozess umfasst die Kuratierung und Verbesserung der Datenqualität, um sicherzustellen, dass die Genauigkeit und Leistung des KI-Modells kontinuierlich verbessert wird.(Bild:  Nvidia)
KI-Datenschwungräder (Data Flywheel) funktionieren, indem sie eine Schleife schaffen, in der KI-Modelle durch die Integration von institutionellem Wissen und Nutzerfeedback kontinuierlich verbessert werden. Während das Modell Ergebnisse erzeugt, sammelt es Feedback und neue Daten, die dann zur Verfeinerung und Verbesserung des Modells verwendet werden. Dieser Prozess umfasst die Kuratierung und Verbesserung der Datenqualität, um sicherzustellen, dass die Genauigkeit und Leistung des KI-Modells kontinuierlich verbessert wird.
(Bild: Nvidia)

Über das Modell selbst hinaus führen Servicenow und Nvidia eine 'Datenschwungradarchitektur' ein, die die „Workflow Data Fabric“ von Servicenow mit Nemo-Microservices, einschließlich „Nemo Customizer“ und „Nemo Evaluator“, integriert. Das erlaubt es Servicenow unter anderem eine beschleunigte Datenverarbeitung in der Servicenow Workflow Data Fabric. Modellgenauigkeit und die personalisierte Benutzererfahrung können sich dadurch verbessern. 'Guard Rails', quasi Leitplanken, stellen sicher, dass Kunden die Kontrolle darüber haben, wie ihre Daten auf sichere und konforme Weise verwendet werden

Die Nachricht folgt auf die Veröffentlichung des „Nvidia Llama Nemotron Ultra“-Modells im April, das den offenen Nvidia-Datensatz nutzt, den ServiceNow zur Erstellung seines Apriel Nemotron 15B-Modells verwendet hat. Ultra gehört zu den stärksten Open-Source-Modellen im Bereich des logischen Denkens, einschließlich wissenschaftlichem Denken, Programmieren, fortgeschrittener Mathematik und anderen agentischen KI-Aufgaben.

(ID:50411667)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung