Kommentar von Christopher Helm, Helm & Nagel Effizienzsteigerung durch KI – von Monolithen zu Modulen

Von Christopher Helm 4 min Lesedauer

Anbieter zum Thema

Kurze Zeit nach dem Siegeszug der großen Sprachmodelle zeichnen sich zunehmend gewisse Grenzen dieser bahnbrechenden Technologie ab. Besonders im komplexen Geschäftsumfeld mangelt es oft an der notwendigen Spezialisierung. Das führt zu erheblichen Ineffizienzen bei der Anpassung und Wartung. Entwickler sind deshalb nun dazu übergegangen, die Modelle vermehrt modular zu integrieren – ein Paradigmenwechsel mit weitreichenden Folgen.

Der Autor: Christopher Helm ist CEO der Helm & Nagel GmbH(Bild:  Nielsen Photography)
Der Autor: Christopher Helm ist CEO der Helm & Nagel GmbH
(Bild: Nielsen Photography)

Augenscheinlich sind Large Language Models (LLMs) noch immer das Maß aller Dinge in der Künstlichen Intelligenz. Die Gründe dafür liegen auf der Hand: Allein durch die statistische Vorhersage von Tokens können die neuronalen Netze auf Basis der Transformer-Architektur eine Vielzahl an Aufgaben der natürlichen Sprachverarbeitung lösen – und das deutlich besser als vorherige Modelle. Kein Wunder also, dass der Ansatz einen regelrechten Hype ausgelöst hat, der bis heute anhält. ChatGPT ist nur ein Gesicht davon. Im Business-Kontext, besonders für Enterprises, ist der Fokus ein anderer, aber nicht weniger viel versprechend. Für die Verarbeitung von Dokumenten, datenbasierte Entscheidungen sowie die interaktive Aggregation von Informationen, ist das Potenzial immens – um nur einige Beispiele zu nennen.

Anfangs lag es nahe, für jeden dieser Zwecke einzelne Modelle eigens zu trainieren, zu modifizieren und zu integrieren. Dieser Ansatz birgt einige Schwierigkeiten. Zur Bearbeitung verschiedener fachspezifischer Aufgaben summiert sich schnell ein enormer Ressourcenverbrauch an, der sogar in notwendigen Strukturveränderungen des Unternehmens gipfeln kann. Hierin sieht eine aktuelle MIT-Studie einen entscheidenden Grund, warum flächendeckende Kostenersparnisse durch KI noch nicht Realität geworden sind. Zudem spielt die mangelnde Wiederverwertbarkeit eine wichtige Rolle: Ändert sich die Aufgabenstellung, beginnt der Anpassungsprozess oft von vorne. Nicht zuletzt erfordert auch die Nutzung von Echtzeitdaten erweiterte Funktionalitäten, die über die Kompetenzen herkömmlicher LLMs hinausgehen. Die KI-Entwicklung findet hierauf eine deutliche Antwort.

Modulare KI-Systeme übertreffen monolithische Modelle

„State of the Art KI-Ergebnisse werden zunehmend durch zusammengesetzte Systeme mit mehreren Komponenten erzielt, nicht nur durch monolithische Modelle.“ Diese fast beiläufig wirkende Aussage von Forschern aus Berkeley und Stanford ist eigentlich eine profunde Feststellung mit weit reichender Bedeutung. Gemeint sind komplex aufgebaute Anwendungen, die KI-Modelle, insbesondere LLMs, mit diversen Modulen oftmals sequentiell verketten. So kann der jeweilige Output als Zwischenstand sowie als Input für die darauffolgende Komponente dienen. Für die Umsetzung kommen Techniken wie Retrieval-Augmented Generation (RAG) oder Multi-Step Chains zum Einsatz. Aufgefallen ist der Ansatz beispielsweise im generativen Coding mit Systemen wie AlphaCode 2 oder im medizinischen Bereich mit Medprompt. Die Performance bei der Datenverarbeitung und -generierung kann die monolithischer Modelle deutlich hinter sich lassen.

Bereits auf den ersten Blick werden weitere Vorzüge deutlich, die der Ansatz branchenübergreifend für die Effizienzsteigerung in Unternehmen bedeuten kann. Vortrainierte LLMs sind typischerweise in ihrem Wissen auf die verwendete Datenbasis beschränkt. Mithilfe ergänzender Komponenten mit API-Anbindung wird jedoch der Zugriff auf die immensen Echtzeit-Informationen großer Unternehmen möglich. Darüber hinaus steigen Kontrollierbarkeit und Sicherheit: Während die Einflussnahme auf monolithische LLMs kaum über den Trainingsprozess hinausgeht, können ergänzende Module gewisse Verhaltensweisen des Modells herausfiltern und für vordefinierte Rahmenbedingungen sorgen. So lässt sich außerdem festlegen, welche Einzelschritte auf welche Anwendungsteile entfallen.

Maschinelle Arbeitsteilung

Die sequentielle Verkettung von Komponenten erlaubt eine Segmentierung komplexer Fachaufgaben in einzelne, leichter zu bewältigende Einheiten. Es entfällt der umfassende Anpassungsvorgang sowie ständige Kontrollen, die notwendig wären, wenn monolithische Modelle mit der Gesamtaufgabe betraut würden – sofern diese überhaupt zu bewältigen wäre. Am Ende ist internalisierte Spezialisierung einfacher in der Handhabung und zugleich umfassender anwendbar, als wenn mit einem Heer an Generalisten vorgegangen wird. Eine derartige Arbeitsteilung hat weitere Effekte: Es steigt etwa die Erklärbarkeit, wenn abweichende Ergebnisse produziert werden. Anstelle der undurchsichtigen und viel zitierten „Black Box“ lässt sich mit modularen KI-Systemen nachvollziehen, in welchem Arbeitsschritt der Fehler aufgetreten ist. Als Indikator dient der jeweilige Output einzelner Komponenten. So ist eine zielgerichtete Wartung oder Anpassung des Prozesses möglich.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Nun können sich die konkreten Fachaufgaben allerdings laufend verändern. Besonders in großen Unternehmen tauchen zudem oft weitere Problemstellungen auf, die zwar andere Endergebnisse erfordern, aber einzelne, übereinstimmende Arbeitsschritte beinhalten. Hier kommt es auf die Wiederverwertbarkeit bereits integrierter KI-Lösungen an. Indem die Prozesse segmentiert werden, lassen sich die Einzelschritte in anderen Aufgaben besser wiedererkennen. Dort können dann die gleichen dafür vorgesehenen Module erneut zum Einsatz kommen. So entsteht ein größerer fachlicher Anwendungsraum, obwohl zugleich eine Spezialisierung stattfindet. Die derart umfassende Erfüllung teilweise konkurrierend erscheinender Anforderungen könnte künftig zu einem wichtigen Erfolgskriterium werden.

Fokus auf Datenintegration und Optimierung

Um die Potenziale modularer KI voll auszuschöpfen, gibt es für die Forschung und Entwicklung weiterhin einige Herausforderungen zu bearbeiten. Das betrifft in erster Linie die Datenintegration und Kommunikation zwischen den Modulen. Um dabei Transparenz und Wartbarkeit hochzuhalten, ist eine genaue Überwachung der zwischenzeitlichen Outputs notwendig. Hierfür kommen bislang zielgerichtete Analyse- und Visualisierungstools zum Einsatz. Aktuelle Bestrebungen konzentrieren sich darauf, die Ergebnisse automatisiert innerhalb der Systeme nutzbar zu machen, um die Qualität zu verbessern. Autopoiesis lautet ein wichtiges Schlagwort hinter dieser Form der Selbstoptimierung. Zu diesem Zweck werden außerdem Frameworks wie DSPy angewandt, durch die sich Datenpipelines, Prompts und Gewichtungen der integrierten Sprachmodelle nahezu eigenständig optimieren sollen.

Blickt man aus holistischer Perspektive auf diese Entwicklungen, werden Standardisierung, Wiederverwertbarkeit und damit Entlastung bei der Integration und Wartung als besonders relevante Trends ersichtlich. Hierin bestehen zugleich die Hauptbedürfnisse großer Organisationen: Laut einer Untersuchung des Wagniskapitalgebers Menlo Ventures nutzen 60 Prozent der Enterprises multiple KI-Modelle, aber nur zehn Prozent trainieren diese eigenhändig. Stattdessen fließen 96 Prozent der Ausgaben in Inferenz, also den unmittelbaren Einsatz der Technologie. Das ist prinzipiell auch ohne die modulare Form der Orchestrierung möglich – allerdings entbehrt eine Infrastruktur aus unzähligen Einzellösungen der Einbindung von Wissen aus vorherigen Prozessschritten. Nicht zuletzt kommt es auch auf den menschlichen Zugang der Systeme an, sodass Effizienzsteigerung, originelles Denken und strategische Ziele optimal ineinandergreifen.

Artikelfiles und Artikellinks

(ID:50075535)