Mit neuen Funktionen für „Apache Flink“ in der „Confluent Cloud“ will das Unternehmen die Entwicklung KI-gestützter Echtzeitanwendungen erleichtern. Die Updates sollen insbesondere die Integration von ML-Modellen und Vektordatenbanken vereinfachen – ohne zusätzliche Infrastruktur.
Neue Funktionen in Confluent Cloud für Apache Flink sollen die KI-Entwicklung in Echtzeit vereinfachen.
(Bild: Confluent)
In der Diskussion um die praktische Umsetzung von Künstlicher Intelligenz in Unternehmen dominiert derzeit ein Schlagwort: Echtzeit. Wer mit großen Sprachmodellen arbeitet, benötigt aktuelle, kontextbezogene Daten – am besten in dem Moment, in dem sie entstehen. Confluent, Anbieter einer Streaming-Plattform rund um „Apache Kafka“, will diesen Anspruch mit neuen Funktionen für Apache Flink in der Confluent Cloud adressieren. Die Erweiterungen sollen KI-Workflows entkoppeln, vereinfachen und vor allem zentralisieren.
Inferenz im Datenstrom
Ein Kernstück der Neuerungen ist die Funktion „Flink Native Inference“. Sie ermögliche es Entwicklern, KI-Modelle direkt innerhalb von Flink-Pipelines in der Confluent Cloud auszuführen – ohne separate Infrastruktur oder zusätzliche Tools. Das Ziel sei es, fragmentierte Prozesse zu konsolidieren und die Entwicklungskosten zu senken. Gleichzeitig verbleiben die Daten für die Inferenz vollständig innerhalb der Plattform, was insbesondere mit Blick auf Datenschutz- und Sicherheitsanforderungen relevant sein dürfte.
Bisher mussten Entwickler in der Regel zwischen Datenverarbeitung, Modelltraining und -inferenz pendeln – häufig über unterschiedliche Tools und Programmiersprachen hinweg. Dieser Wechsel sei nicht nur fehleranfällig, sondern auch teuer. Durch native Inferenzfunktionen könnten Unternehmen nun inferenzbasierte Entscheidungen – etwa im Kundenservice oder bei Anomalieerkennung – direkt in den Datenstrom einbetten.
Einheitlicher Zugriff auf Vektordaten
Parallel dazu stellt Confluent mit „Flink Search“ eine neue Schnittstelle für Vektorsuchen vor. Diese sollen für Large Language Models (LLMs) als Kontextlieferanten dienen – ein Ansatz, der unter dem Stichwort Retrieval-Augmented Generation (RAG) zunehmend an Bedeutung gewinnt.
Flink Search bündelt den Zugriff auf Vektordatenbanken wie „MongoDB“, „Elasticsearch“ und „Pinecone“. Damit entfällt laut Anbieter die Notwendigkeit für komplexe ETL-Prozesse oder manuelle Datenkonsolidierung. Gerade bei datengetriebenen Anwendungen sei das von Vorteil: Die Qualität der Antworten, die ein LLM generiert, hänge maßgeblich davon ab, wie gut es mit kontextuellen Informationen versorgt werde. Gleichzeitig reduziere eine solche Vereinheitlichung den Entwicklungsaufwand – zumindest in der Theorie.
ML für alle?
Besonders auffällig ist die dritte Säule des Updates: Integrierte ML-Funktionen in Flink SQL. Mit ihnen sollen auch Entwickler ohne Data-Science-Hintergrund klassische ML-Aufgaben wie Prognosen oder Anomalieerkennung umsetzen können – direkt innerhalb des SQL-Workflows.
Was nach Demokratisierung klingt, wirft jedoch Fragen auf: Reicht ein Low-Code-Zugang zu maschinellem Lernen aus, um belastbare Modelle zu entwickeln? Oder werden hier Werkzeuge in die Hände von Nutzern gelegt, denen das notwendige Verständnis für Datenqualität und Modellvalidierung fehlt?
Das Unternehmen betont, dass durch die Integration in eine bestehende Plattform die Einstiegshürde gesenkt werde. Ob das auch zu belastbaren Ergebnissen führt, dürfte von der konkreten Anwendung und der Erfahrung der Entwickler abhängen.
Der Markt verlangt Echtzeit
Die Richtung, die Confluent mit diesem Update einschlägt, deckt sich mit aktuellen Marktentwicklungen. Laut einer Studie von McKinsey planen 92 Prozent der Unternehmen, ihre Investitionen in KI in den kommenden drei Jahren zu steigern. Gleichzeitig steigt der Druck, KI nicht nur als Pilotprojekt, sondern als produktive Lösung einzusetzen – mit entsprechenden Anforderungen an Stabilität, Sicherheit und Skalierbarkeit.
Stewart Bond, Analyst bei IDC, sieht die Entwicklung als logischen Schritt: „Unternehmen müssen Datenverarbeitungs- und KI-Workflows vereinheitlichen, um genaue Vorhersagen und LLM-Antworten zu erhalten.“ Flink biete dafür laut Bond die nötige Infrastruktur, da es Inferenz und Vektorsuche in einer Plattform koordiniere.
Dass diese Funktionen zunächst nur im Rahmen eines Early-Access-Programms verfügbar sind, ist dabei kein Nachteil – sondern ein typischer Schritt für Cloud-Plattformen, die neue Funktionen unter realen Bedingungen testen wollen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.