KI in Deutschland, im Mittelstand LLMs sind kein Allheilmittel

Von lic.rer.publ. Ariane Rüdiger 5 min Lesedauer

Anbieter zum Thema

KI verbreitet sich zusehends in Unternehmen. Doch gilt die Technologie als komplex, energiezehrend und teuer, vor allem wegen der nötigen Hardware-Ausstattung. Jan Wildbroer, Technology Evangelist bei Red Hat spricht mit Autorin Ariane Rüdiger über Möglichkeiten, mit dieser Situation umzugehen.

Wie wichtig ist KI für Unternehmen heute und muss es unbedingt „ChatGPT“ sein? Und was sagt Jan Wildboer, Technologie-Evangelist EMEA bei Red Hat, dazu?(Bild:  frei lizenziert/T. Hansen /  Pixabay)
Wie wichtig ist KI für Unternehmen heute und muss es unbedingt „ChatGPT“ sein? Und was sagt Jan Wildboer, Technologie-Evangelist EMEA bei Red Hat, dazu?
(Bild: frei lizenziert/T. Hansen / Pixabay)

KI ist im Moment in aller Munde. Kaum eine Veranstaltung, kaum eine Ankündigung kommt ohne Bezug zum derzeitigen Thema Nummer 1 aus. Und es wird nicht nur geredet. Vielmehr wagen sich mehr und mehr Unternehmen an die Umsetzung von KI-Projekten.

Mehr Nutzung, mehr Investitionen

Nach aktuellen Daten des Branchenverbandes Bitkom setzen derzeit bereits 20 Prozent der befragten 602 Firmen KI ein. Weitere 37 Prozent planen das in der nächsten Zeit. Und ein rasch sinkender Anteil, derzeit aber immer noch 41 Prozent, hat an dem Thema bis auf Weiteres kein Interesse.

Außerdem wird KI weitaus eher als Chance denn als Risiko betrachtet. Und die Investitionsneigung in die Technologie steigt. Auch bislang war sie schon hoch: 32 Prozent geben an, bereits Geld in KI gesteckt zu haben - 74 Prozent wollen das in Zukunft tun.

Generative KI: Keine Selbstverständlichkeit

Allerdings zeigt sich, dass der derzeitige Hit in den Diskussionen, generative KI, im Feld längst noch keine Selbstverständlichkeit ist. Erst neun Prozent nutzen, wie der Branchenverband herausgefunden hat, die Technologie rund um LLMs (Large Language Models) wie „ChatGPT“. 18 Prozent wollen in Zukunft LLM nutzen.

19 Prozent können sich immerhin vorstellen, generative KI irgendwann einzusetzen. Gleichzeitig haben sich 23 Prozent dagegen entschieden. Müssen die nun ganz und gar auf KI-Nutzung verzichten?

Auch mit ML kommt man schon weit

Mitnichten, meint Jan Wildboer, Technologie-Evangelist für EMEA beim Open-Source-Riesen Red Hat. Auch mit Maschinenlernen und ähnlichen Technologien, die bereits langjährig im Einsatz sind, komme man in der Praxis sehr weit.

Laut Bitkom sind die Haupteinsatzfelder generativer KI der Kundenkontakt (89 Prozent), Marketing und Kommunikation (40 Prozent) und Forschung und Entwicklung (20 Prozent).

Probleme von Generativer KI

Zurückhaltung gegenüber neuen Technologien ist gerade in Deutschland nichts Neues. Die Gründe für das vorsichtige Herangehen an Generative AI sind vielschichtig.

Die meisten Unternehmen sehen KI als Chance, weniger als Risiko.(Bild:  Bitkom)
Die meisten Unternehmen sehen KI als Chance, weniger als Risiko.
(Bild: Bitkom)

Da ist einmal die immer noch bestehende Rechtsunsicherheit - laut Bitkom nennen 82 Prozent die Befürchtung, dass Gesetze die Anwendbarkeit der Technologie einschränken könnten und 73 Prozent stören sich an den Anforderungen des Datenschutzes. 68 Prozent sehen sich ganz allgemein durch rechtliche Hürden an der KI-Nutzung gehindert.

Energiefresser Ki

Dazu kommt der immense Energieverbrauch von KI. Er entsteht vor allem in der Lernphase großer generativer AI-Modelle. Wie Datacenter-insider-Chefredakteurin anlässlich einer Podiumsdiskussion auf dem diesjährigen 'Datacenter Strategy Summit' referierte, verbrauche KI derzeit etwa 15 Prozent des Stromverbrauchs der gesamten IT: Tendenz einer Verdopplung des Energeiverbrauchs alle 100 Tage.

Jedenfalls verschlingen GPU-Farmen, vor allem zum Anlernen von Modellen, bislang unbekannte Energiemengen. Das könnte den Gesamtenergieverbrauch der IT bis 2030 auf 230 Terawattstunden hochtreiben und damit in die Dimensionen des Stromverbrauchs der gesamten USA.

Modell-Training: GPU bis auf Weiteres unverzichtbar

Zwar gibt es schon eine Reihe neuer Prozessoransätze, die insgesamt erheblich weniger Strom verbrauchen sollen, marktreif ist von alledem aber bislang noch recht wenig. Wildboer: „Wer heute generative KI-Modelle anlernen will, kommt um GPU nicht herum.“

„Es muss nicht immer generative GenAI sein.O ft tun es auch bewährte ML-Algorithmen", so Jan Wildeboer. (Bild:  Red Hat)
„Es muss nicht immer generative GenAI sein.O ft tun es auch bewährte ML-Algorithmen", so Jan Wildeboer.
(Bild: Red Hat)

Die Inferenz sei weniger kritisch, hier komme man mit geringeren Ressourcen aus, ergänzt der Spezialist. Ein Weg aus dem Flaschenhals zwischen Erkenntniserzeugung und effektiver Energie-Erzeugng sei es, auf kleinere Modelle zu setzen, die jeweils Spezialaufgaben übernehmen.

Vorfahrt für Infrastruktur und KI-Pipelines aus der Cloud?

Ein weiterer Weg, Ressourcen zu sparen, sei es, sich der externen Verarbeitungs-Pipelines und Hardwareressourcen zu bedienen, die manche Cloud-Anbieter schon bereitstellen. Allerdings steht solchen Ideen oft der Wunsch der Anwender entgegen, unternehmenswichtige Daten in den eigenen vier Wänden zu behalten.

Bei sensiblen Themen verhindern auch schon die Datenschutzgesetze solche Auslagerungen. Zumal beispielsweise selbst Microsoft nicht mit letzter Sicherheit zusichern kann, dass Daten auch in Spitzenzeiten zu Verarbeitungszwecken nicht kurzfristig außerhalb des europäischen Hoheitsgebiets landen. Hier ist also noch viel Vertrauensaufbau zu leisten.

Ausweg Open Source?

Statt auf Gedeih und Verderb auf die großen Modelle von OpenAI und anderen zu zählen, gäbe es, so Wildboer, auch die Alternative, Open Source zu nutzen. Schließlich sei die ökonomische Effektivität großer Modelle für Unternehmensaufgaben gar nicht so eindeutig.

Ein Beispiel für Open-Source-Modelle ist die „Granite“-Modellreihe von IBM. Der Hersteller hat sie seit geraumer Zeit Open Source gestellt. „Um deren Weiterentwicklung kümmern sich viele tausend Leute weltweit, sie sind nicht an einen Hersteller gebunden“, sagt Wildboer.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Wunder Punkt Toolchain

Ein wunder Punkt von auf Open Source fußenden KI-Verarbeitungsketten sind die Toolchains. Denn Anwender müssen sie in der Regel selbst aufbauen, was wiederum viel Wissen und auch Erfahrung verlangt.

Daran, dass es an Umsetzungstechnologie und -Know-How fehlt, scheitern viele zunächst ehrgeizige KI-Konzepte von Unternehmen. „Die meisten KI-Konzepte kommen nicht voran oder werden fallen gelassen, weil es nicht gelingt, eine funktionierende Verarbeitungskette aufzubauen oder zu skalieren.“

Hilfreich seien an diesem Punkt, so Wildboer, Partner, die Anwendern Beratung, vortrainierte Modelle für spezielle Zwecke und auch Werkzeuge anbieten. Damit ließen sich dann effektive KI-Verarbeitungsketten vor Ort aufbauen und betreiben lassen.

Mittelstand hält sich bei generativer KI zurück

Wohl wegen all dieser Themen sind es derzeit vor allem die ökonomisch Großen, die insbesondere im Bereich generative KI voranstürmen. Kleinere und mittelständische Firmen haben häufig weder das Wissen noch die finanziellen Mittel oder die Manpower, um einzusteigen. Oder zumindest glauben sie das und lassen deswegen die Finger von der Technologie.

So gaben in einer aktuellen Studie der DZ-Bank zum Thema unter deutschen Mittelständlern 42 Prozent der Befragten an, vorläufig diese Technologie nicht nutzen zu wollen. Das ist fast die Hälfte.

DIe KI-Investitionen werden voraussichtlich in den kommenden Jahren kräftig steigen.(Bild:  Bitkom)
DIe KI-Investitionen werden voraussichtlich in den kommenden Jahren kräftig steigen.
(Bild: Bitkom)

Freilich könnte es mittelfristig die weltweite Konkurrenzfähigkeit gerade der vielen Hidden Champions in Deutschland gefährden, blieben sie dauerhaft KI-abstinent. Doch wie können sie und andere Unternehmen gerade aus dem Mittelstand erfolgreich in die Nutzung neuartiger KI-Technologien einsteigen?

Tipps für den erfolgreichen KI-Einstieg

Für diejenigen, die das interessiert, hat Jan Wildboer im Podcast „Datacenter Diaries“ einige praxisorientierte Tipps an der Hand, deren Verständnis keine Ausbildung als Data Scientist verlangt.

Für diejenigen, die das interessiert, gibt es die Folge #40 der„Datacenter Diaries“ „Red-Hat-Evangelist Jan Wildeboer über die Adaption von KI, generativer KI hierzulande - im Gespräch mit Ariane Rüdiger“.

Die Podcast-Folge #40 von DataCenter Diaries findet sich auf Spotify, Apple Podcasts, Deezer und Amazon Musik.

Und die nötige Hardware-Ausstattung im Rechenzentrum? Die muss natürlich sein. Aber kein Patent gilt ewig, und vielleicht scharren ja die potentiellen Verfolger von GPU-Platzhirsch Nvidia insgeheim schon mit den Hufen und warten darauf, den Markt mit günstigen KI-Prozessoren zu fluten, sobald das rechtlich möglich ist...

Intels intelligente Rechner mit KI-Coprozessor gibt es ja auch schon. Der könnte zumindest die tägliche Arbeit und die Inferenz mit kleineren Modellen unabhängig von der teuren Nvidia-Plattform machen.

(ID:50226895)