[Webinar] Unlock Data Value Framework for Data Products | Register Now

Neue Funktionen in Confluent Cloud für Apache Flink® vereinfachen die KI-Entwicklung in Echtzeit

Flink Native Inference führt KI-Modelle direkt in Confluent Cloud aus, um die Entwicklung zu optimieren

Flink Search bietet eine einheitliche Schnittstelle für die Abfrage von Vektordatenbanken und vereinfacht so den Prozess der Datenanreicherung

Integrierte ML-Funktionen erschließen das volle Potenzial KI-gestützter Analysen auch für Anwender ohne Data-Science-Kenntnisse

MÜNCHEN – 20. März 2025Confluent, Inc. (NASDAQ: CFLT), der Pionier im Bereich Daten-Streaming, kündigt neue Funktionen in Confluent Cloud für Apache Flink® an, welche die Entwicklung von Echtzeit-Anwendungen für künstliche Intelligenz (KI) vereinfachen und beschleunigen. Flink Native Inference reduziert komplexe Arbeitsabläufe, da es erlaubt, beliebige Open-Source-KI-Modelle direkt in Confluent Cloud auszuführen. Flink Search vereinheitlicht den Datenzugriff über mehrere Vektordatenbanken hinweg und optimiert die Suche und den Abruf über eine einzige Schnittstelle. Neue integrierte Funktionen für maschinelles Lernen (ML) bringen KI-gesteuerte Anwendungsfälle, wie z. B. Prognosen und Anomalieerkennung, direkt in Flink SQL, wodurch fortschrittliche Datenanalyse mühelos wird. Gemeinsam verändern diese Innovationen die Art und Weise, wie Unternehmen KI für die Kundeninteraktion und Entscheidungsfindung in Echtzeit nutzen.

Confluent Cloud für Apache Flink ist die einzige serverlose Stream-Processing-Lösung auf dem Markt. Sie ermöglicht Flink-Teams eine nahtlose Verarbeitung sowohl von kontinuierlichen Datenströmen als auch von Batch-Workloads innerhalb einer einzigen Plattform. Dadurch entfallen die Komplexität und der betriebliche Aufwand für die Verwaltung separater Verarbeitungslösungen. Mit diesen neu veröffentlichten KI-, ML- und Analysefunktionen können Unternehmen mehrere Arbeitsabläufe optimieren und ihre Effizienz steigern. Diese Funktionen sind im Rahmen eines Early-Access-Programms verfügbar, das für die Anmeldung von Confluent Cloud-Kunden offen ist.

  • Flink Native Inference: Open-Source-KI-Modelle in Confluent Cloud ohne zusätzlichen Infrastrukturaufwand ausführen. Beim Arbeiten mit ML-Modellen und Datenpipelines verwenden Entwickler oft separate Tools und Programmiersprachen, was zu komplexen, fragmentierten Arbeitsabläufen und veralteten Daten führt. Flink Native Inference vereinfacht diesen Prozess, indem es Teams ermöglicht, Open-Source- oder präzise abgestimmte KI-Modelle direkt in Confluent Cloud auszuführen. Dieser Ansatz bietet mehr Flexibilität und reduziert Kosten. Zudem verbleiben die Daten für die Inferenz vollständig innerhalb der Plattform, was die Sicherheit zusätzlich erhöht.
  • Flink Search: Über eine einzige Schnittstelle auf Daten aus mehreren Vektordatenbanken zugreifen. Vektorsuchen liefern LLMs den erforderlichen Kontext, um Halluzinationen zu vermeiden und zuverlässige Ergebnisse zu gewährleisten. Flink Search vereinfacht den Zugriff auf Echtzeitdaten aus Vektordatenbanken wie MongoDB, Elasticsearch und Pinecone. Dadurch entfallen komplexe ETL-Prozesse oder manuelle Datenkonsolidierung, was wertvolle Zeit und Ressourcen spart. Gleichzeitig stellt es sicher, dass die Daten kontextbezogen und immer auf dem neuesten Stand sind.
  • Integrierte ML-Funktionen: Mehr Teams erhalten Zugang zu Data-Science-Know-How. Viele Data-Science-Lösungen erfordern hochspezialisiertes Fachwissen, was zu Engpässen in den Entwicklungszyklen führt. Integrierte ML-Funktionen vereinfachen komplexe Aufgaben wie Prognosen, Anomalieerkennung und Echtzeit-Visualisierung direkt in Flink SQL. Diese Funktionen machen Echtzeit-KI für mehr Entwickler zugänglich, sodass Teams schneller umsetzbare Erkenntnisse gewinnen und Unternehmen flexibler intelligentere Entscheidungen treffen können.

„Die Entwicklung von Echtzeit-KI-Anwendungen war lange Zeit zu komplex und erforderte ein Labyrinth an Tools und tiefgreifendes Fachwissen – nur um überhaupt loszulegen“, so Shaun Clowes, Chief Product Officer bei Confluent. „Mit den aktuellen Weiterentwicklungen in Confluent Cloud für Apache Flink beseitigen wir diese Hürden und machen KI-gestützte Streaming-Intelligenz für jedes Team zugänglich. Was früher eine Vielzahl verschiedener Technologien erforderte, kann jetzt nahtlos innerhalb unserer Plattform erledigt werden – mit integrierter Sicherheit auf Enterprise-Level und optimierten Kostenstrukturen.“

Der KI-Boom ist in vollem Gange. Laut McKinsey planen 92 % der Unternehmen, ihre KI-Investitionen in den nächsten drei Jahren zu erhöhen. Unternehmen wollen diese Chance nutzen und die Potenziale von KI ausschöpfen. Der Weg zur Entwicklung von Echtzeit-KI-Apps ist jedoch kompliziert. Entwickler müssen mit einer Vielzahl an Tools, Programmiersprachen und Schnittstellen arbeiten, um ML-Modelle zu integrieren und wertvolle Kontextinformationen aus den verschiedensten Datenquellen zu extrahieren. Diese fragmentierten Arbeitsabläufe führen zu hohen Kosten, operativen Verzögerungen und KI-Halluzinationen, die dem Ruf eines Unternehmens schaden können.

Den Weg zum KI-Erfolg vereinfachen „Confluent hilft uns, die Einführung von Copilots für unsere Kunden zu beschleunigen, indem es Teams Zugang zu wertvollen Echtzeitinformationen innerhalb ihrer Unternehmen verschafft“, so Steffen Höllinger, Co-Founder und CEO von Airy. „Die Daten-Streaming-Plattform von Confluent mit Flink AI Model Inference hat unseren Tech-Stack vereinfacht, indem sie es uns ermöglicht, direkt mit Large Language Models (LLMs) und Vektordatenbanken für Retrieval-Augmented Generation (RAG) und Schemainformationen zu arbeiten. So erhalten KI-Agenten Echtzeitkontext für intelligentere Entscheidungen. Dadurch konnten unsere Kunden ihre Produktivität steigern und Arbeitsabläufe in ihren Unternehmensprozessen optimieren.“

„Die Möglichkeit, kontextbezogene und vertrauenswürdige Echtzeitdaten in KI- und ML-Modelle zu integrieren, gibt Unternehmen einen entscheidenden Wettbewerbsvorteil“, so Stewart Bond, Vice President, Data Intelligence and Integration Software bei IDC. „Unternehmen müssen Datenverarbeitungs- und KI-Workflows vereinheitlichen, um genaue Vorhersagen und LLM-Antworten zu erhalten. Flink bietet eine einzige Schnittstelle zur Koordinierung von Inferenz und Vektorsuche für RAG. Da es in einer Cloud-nativen und vollständig verwalteten Implementierung verfügbar ist, werden Echtzeitanalysen und KI zugänglicher und anwendbarer für die Zukunft der generativen KI und Agentic AI.“

Weitere Funktionen in Confluent Cloud Confluent hat weitere Verbesserungen für Confluent Cloud angekündigt, die es Teams erleichtern, auf ihre Echtzeitdaten zuzugreifen und diese zu vernetzen. Dazu gehören unter anderem Tableflow, Freight Clusters, Confluent for Visual Studio (VS) Code, und der Oracle XStream CDC Source Connector. Weitere Informationen zu diesen neuen Funktionen finden sich im blog post.

Über Confluent

Confluent ist die Daten-Streaming-Plattform, die eine grundlegend neue Kategorie von Dateninfrastrukturen entwickelt, die Daten in Bewegung setzen. Das Cloud-native Angebot von Confluent ist die grundlegende Plattform für Data in Motion, die als intelligentes Bindegewebe dafür sorgt, dass Echtzeitdaten aus verschiedenen Quellen kontinuierlich durch das Unternehmen fließen. Mit Confluent können Unternehmen den neuen geschäftlichen Anforderungen gerecht werden, ein reichhaltiges, digitales Kundenerlebnis im Front-End-Bereich zu bieten und auf anspruchsvolle, softwaregesteuerte Back-End-Abläufe in Echtzeit umzustellen. Um mehr zu erfahren,

Da sich die Roadmap in Zukunft ändern kann, können sich die hier genannten Funktionen ebenfalls ändern, möglicherweise nicht rechtzeitig oder gar nicht bereitgestellt werden. Diese Informationen stellen keine Verpflichtung zur Bereitstellung bestimmter Funktionen dar. Kaufentscheidungen sollten daher auf Basis der aktuell verfügbaren Funktionen getroffen werden.

Confluent® und die damit verbundenen Marken sind Marken oder eingetragene Marken von Confluent, Inc.

Apache®, Apache Kafka®, Kafka®, Apache Flink®, Flink®, Apache Iceberg™, Iceberg™, Apache Polaris™ und Polaris™ sind eingetragene Marken oder Marken der Apache Software Foundation in den USA und/oder anderen Ländern. Die Verwendung dieser Marken impliziert keine Unterstützung oder Billigung durch die Apache Software Foundation. Alle anderen Marken sind Eigentum ihrer jeweiligen Inhaber.