Large Language Model (LLM) Sprachmodelle: Unterstützung oder doch eine Kostenfalle?

Ein Gastbeitrag von Dipl. Betriebswirt Otto Geißler 4 min Lesedauer

Anbieter zum Thema

LLMs steigern die Effizienz in vielen Branchen. Doch die Wahl des geeigneten Sprachmodells stellt Unternehmen vor große Herausforderungen. Was sollte beachtet werden?

LLMs können  Innovationen beschleunigen – doch die Wahl aus unzähligen Modellen kann kompliziert sein.  (Bild:  © Limitless Visions - stock.adobe.com)
LLMs können Innovationen beschleunigen – doch die Wahl aus unzähligen Modellen kann kompliziert sein.
(Bild: © Limitless Visions - stock.adobe.com)

Aktuelle Umfragen haben ergeben, dass bis 2028 rund 80 Prozent der CIOs auf generative KI-Tools zurückgreifen werden. Angewandt werden diese beispielsweise zur Beschleunigung von Analysen, oder die Verbesserung der Entscheidungsfindung, der Mitarbeiterproduktivität und des Kundenservices. Hierfür kommen große Sprachmodelle (LLMs) zum Einsatz, die sich bestens für generative KI-Anwendungen wie KI-Copiloten beziehungsweise Chatbots eignen.

Ein LLM oder ein großes Sprachmodell ist ein KI-System, das dazu trainiert wurde, Texte auf der Grundlage von Daten zu verstehen und generieren. Zu den häufigsten Aufgaben gehören:

  • Textgenerierung: Neue Inhalte können durch eine Eingabeaufforderung erstellt werden.
  • Textzusammenfassung: Große Informationsmengen verdichtet die LLMs in kurze Zusammenfassungen.
  • Beantwortung von Fragen: Das Modell beantwortet spezifische Fragen.
  • Codegenerierung: Auch Codes kann das Modell auf Basis von Beschreibungen schreiben.

Welche Modelltypen gibt es?

Kommerzielle Modelle sind beispielsweise im Gesundheitswesen und bei Finanzdienstleister beliebt. Sie werden für Projekte verwendet, die Anpassungen oder Sicherheitsbeschränkungen erfordern. Im Vergleich dazu: In der Forschung, in Startups und kleinen Organisationen verwendet man meist Open-Source-Modelle. Dort sind sie beliebt, da sie zugänglich und finanziell attraktiv sind.

Allgemeine Modelle grenzen sich von den domänen- und aufgabenspezifischen Modellen ab. Denn sie werden anhand riesiger Datenmengen trainiert und dienen als Basis für das Erstellen maßgeschneiderter KI-Anwendungen. Im Gesundheits- oder Finanzwesen kommen häufiger domänenspezifische Modelle zur Anwendung, da sie trainiert werden und sich so bestimmten Branche oder einem bestimmten Anwendungsfall anpassen.

Aufgabenspezifische Modelle optimieren einzelne Funktion der Verarbeitung natürlicher Sprache (NLP). Gemeint sind unter anderem das Zusammenfassen, Beantworten von Fragen oder Übersetzen gemeint. Vision-Language-Modelle (VLMs) kombinieren Computer Vision und Natural Language Processing (NLP) – so kann das Modell Bilder aus Textbeschreibungen generieren und Objekte in Bildern erkennen. Ohne das Modell mit visuellen Daten zu trainieren, kann es durch das Erkennen von Text und Code Bilder erstellen und identifizieren.

Wie genau sind die Modelle?

Der Anwender sollte sich im Klaren darüber sein, was das Modell leisten soll. Denn nur so kann er die Auswahl eines LLM eingrenzen. Je nach Aufgabe eignet sich ein anderes Modell am besten. Manche LLMs eignen sich zum Verfassen von kreativen Texten. Andere sind besser darin, komplexe Informationen zu verstehen und zusammenzufassen. Die Genauigkeit der Ergebnisse kann mit Benchmarks gemessen werden. Tests können prüfen, wie gut sich ein Modell für die anstehende Aufgabe eignet.

Es gibt zahlreiche Tests auf der MMLU-Benchmark – mit diesen Test wird das Wissen eines Sprachmodells auf akademischen Niveau in verschiedenen Bereichen gemessen wird. Durch das Überprüfen der Benchmark-Ergebnisse kann sich der Anwender einen Eindruck davon verschaffen, wie die Modelle performen.

Den Budgetrahmen formulieren

Die Kosten stellen für die Anwender ein wichtiges Kriterium dar, denn die Kosten entstehen nicht ausschließlich bei der Anschaffung eines LLM. Sondern es handelt sich vielmehr um laufende Betriebskosten, die kalkuliert werden müssen. Daher sollte vor Anschaffung überprüft werden, wie hoch die Gesamtbetriebskosten (TCO) verschiedener LLMs ausfallen. Nur so können sich Anwender auf eine Lösung festlegen.

Die Gebühren von LLMs fallen häufig pro Token an. Der Begriff Token bezeichnet Teile von Wörtern beziehungsweise die Zeichenanzahl. Der Preis pro Token beschränkt sich nicht auf die Eingabe sondern umfasst auch die Textausgabe des Modells. Die Kosten der einzelnen Modellen variieren stark. Der Preis von GPT-4 beispielsweise höher der weniger ausgereifter Modelle. Das bedeutet, dass neben der Grundüberlegung welches Modell das passende für die Anwendungsbereiche ist, auch die Tokenanzahl (konkret gesagt: die Textmenge) eine Rolle bei den laufenden Kosten spielt.

Wie schnell ist das LLM?

Wie schnell ein LLM Text verarbeiten kann hängt von dem Modell ab. Größere Modelle verarbeiten Texte oft langsamer als kleinere Modelle. Bei Anwendungen wie einem Echtzeit-Chatbot benötigt der Anwender ein Modell, das eine hohe Tokenanzahl pro Sekunde verarbeiten kann. Je nach Anforderung muss die Geschwindigkeit und Komplexität abgewägt werden. Kleinere Modelle eignen sich gut für Edge-Geräte und mobile Anwendungen, während größere Modelle in einer Cloud oder Rechenzentrum optimal sind.

Wie werden die Modelle bereitgestellt?

Die Frage, ob das LLM auf einem cloudbasierten Service oder On-Premise-Lösung angewandt werden soll, ist entscheidend. Bei der Wahl ist auch relevant, wie es mit dem Datenschutz aussieht. Um den Nutzen eines LLM zu maximieren, sollte das jeweilige Modell von Unternehmen mithilfe eigener Daten angepasst und optimiert werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Für die Wahl eines geeigneten LLMs sollten viele Aspekte berücksichtigt werden, um die Geschäftsziele, die Skalierbarkeit und die Einhaltung von Sicherheits- und Compliance-Standards sicherzustellen.

Aktuelles eBook

Storage-Security – wie sichern Unternehmen ihre Daten ab?

eBook Storage-Security
eBook „Storage-Security“
(Bild: Storage-Insider)

Sich mit der Sicherheit von Storage-Systemen zu beschäftigen, ist heute notwendiger denn je. Neun von zehn Unternehmen wurden bereits mit Ransomware angegriffen. Einen Überblick über Schutzmaßnahmen und -technologien bietet dieses eBook.

Die Themen im Überblick:

  • Replikation und Verschlüsselung
  • Backup-Verfahren und -Schutz
  • Wiederherstellung
  • Air-Gap
  • Unveränderbare Backups & Disaster Recovery
  • Wirtschaftliche Aspekte

(ID:50223287)