[Webinar] Unlock Data Value Framework for Data Products | Register Now

Confluent kündigt die allgemeine Verfügbarkeit von Tableflow an

Tableflow liefert Echtzeit-Geschäftskontext an analytische Systeme und macht KI und Next-Generation-Anwendungen bereit für den Unternehmenseinsatz

MÜNCHEN – 19. März 2025 – Confluent, Inc. (NASDAQ:CFLT), der Pionier im Bereich Daten-Streaming, kündigte heute bedeutende Weiterentwicklungen von Tableflow an. Tableflow ist die einfachste Möglichkeit, auf operative Daten aus Data Lakes und Data Warehouses zuzugreifen. Es kann alle Streaming-Daten in Confluent Cloud in gängigen offenen Tabellenformaten abrufen für umfassende Analysen, künstliche Intelligenz (KI) in Echtzeit und Anwendungen der nächsten Generation. Der Support für Apache Iceberg™ ist jetzt allgemein verfügbar (GA). Im Rahmen einer erweiterten Partnerschaft mit Databricks bietet Confluent zudem ein neues Early-Access-Programm für Delta Lake. Darüber hinaus wird die Datenspeicherung mit Tableflow flexibler und integriert nahtlos mit führenden Kataloganbietern, darunter AWS Glue Data Catalog und Snowflake Open Catalog, Snowflakes Managed Service für Apache Polaris™.

Heute kündigt Confluent bedeutende Updates für Tableflow an:

  • Support für Apache Iceberg ist jetzt für den produktiven Einsatz bereit. Teams können Apache Kafka®-Topics nun direkt als Iceberg-Tabellen abbilden, um beliebige Data Warehouses, Data Lakes oder Analyse-Engines mit Echtzeit- oder Batch-Daten zu versorgen. Kostenintensive und fehleranfällige Wartungsaufgaben von Tabellen, wie Komprimierung, werden automatisch von Tableflow ausgeführt, so dass Daten-Teams mehr Zeit für wichtigere Aufgaben haben. Zudem stellt Tableflow eine zentrale, verlässliche Datenquelle für eines der am weitesten verbreiteten offenen Speicherformate bereit – ein wichtiger Schritt, um KI-Innovationen und Anwendungen der nächsten Generation skalierbar zu machen.
  • Neues Early-Access-Programm für Delta Lake jetzt verfügbar. Das von Databricks entwickelte offene Speicherformat verarbeitet täglich über 10 Exabyte an Daten und wird mit vielen führenden KI-Engines und -Tools genutzt. Durch die Integration von Databricks Data Lake erhalten Kunden eine konsistente Sicht auf Echtzeitdaten über operative und analytische Anwendungen hinweg – die Basis für schnellere und intelligentere KI-gestützte Entscheidungen. Die Anmeldung für das Early-Access-Programm von Tableflow ist ab sofort möglich.
  • Erweiterte Flexibilität durch „Bring Your Own Storage“. Aktuelle Iceberg- oder Delta-Tabellen können einmal gespeichert und beliebig oft wiederverwendet werden, während Kunden ihren bevorzugten Storage-Bucket frei wählen können. So behalten sie die volle Kontrolle über Speicher und Compliance, um ihre individuellen Anforderungen an Dateneigentum zu erfüllen.
  • Verbesserung des Datenzugriffs und der Datenverwaltung mit Partnern. Die direkten Integrationen mit Amazon SageMaker Lakehouse über AWS Glue Data Catalog (GA) und Snowflake Open Catalog (GA) ermöglichen eine nahtlose Katalogverwaltung für die Iceberg-Tabellen von Tableflow.

Sie optimieren auch den Zugriff für Analyse-Engines wie Amazon Athena, AWS EMR und Amazon RedShift sowie für führende Data-Lake- und Warehouse-Lösungen wie Snowflake, Dremio, Imply, Onehouse und Starburst. Mit der Unterstützung globaler und regionaler Systemintegratoren wie GoodLabs Studio, Onibex, Psyncopate und Tata Consultancy Services (TCS) fördert Confluent den Einsatz von Tableflow innerhalb von Unternehmen.

„Mit Confluent können Kunden jederzeit und in jedem benötigten Format auf ihre Daten zugreifen“, sagte Shaun Clowes, Chief Product Officer bei Confluent. „Mit Tableflow nutzen wir unser Know-how, um operative Daten mit der analytischen Welt zu verknüpfen. Jetzt haben Data Scientists und Data Engineers Zugriff auf eine zentrale, verlässliche Echtzeit-Datenquelle im gesamten Unternehmen – die ideale Grundlage, um die nächste Generation KI-gesteuerter Anwendungen zu entwickeln und zu skalieren.“

Das Problem von KI-Projekten: Isolierte Daten

„Bis 2027 werden 70 % der IT-Teams nach mehreren gescheiterten KI-Projekten die Grundlagen überdenken müssen und sich auf Dateninfrastrukturen für KI konzentrieren“ so IDC in der IDC FutureScape: Worldwide Digital Infrastructure 2025 Predictions. Der Report stellt außerdem Folgendes fest: „Viele IT-Unternehmen stützen ihre Arbeit auf verschiedenste Datensilos und einem Dutzend oder mehr verschiedener Datenkopien. Diese isolierten Strukturen und redundanten Kopien stehen der Entwicklung leistungsfähiger KI-Modelle oft im Wege.“

KI-Projekte scheitern, weil alte Entwicklungsmethoden nicht mit den neuen Kundenerwartungen Schritt halten können. Moderne Anwendungen müssen jederzeit den aktuellen Status eines Unternehmens und seiner Kunden kennen und automatisch reagieren. Ein KI-Agent für die Bestandsverwaltung sollte beispielsweise erkennen können, ob ein bestimmter Artikel im Trend liegt, Hersteller sofort über die gestiegene Nachfrage informieren und Kunden eine präzise Lieferprognose bieten. Dieses Maß an automatisierter Effizienz ist jedoch nur möglich, wenn Geschäftsdaten an Analyse- und KI-Systeme in Echtzeit übermittelt werden. Traditionelle Batch-Verarbeitung führt zu ungenauen Ergebnissen, und das manuelle Kopieren von Daten ist instabil, nicht skalierbar und verstärkt das Silo-Problem.

Die Datenlücke für KI auf Enterprise-Level schließen

„Transportunternehmen schätzen uns, weil wir den Verkauf, den Betrieb und die Disposition für sie besonders einfach machen – das ist nur mit Echtzeit-Datenanalysen möglich“, sagte Brady Perry, Co-Founder von Busie. „Tableflow bietet eine vielversprechende Möglichkeit für unsere Analyse-Engine, um operative Daten aus Kafka in Echtzeit als Apache-Iceberg-Tabellen zu verarbeiten. Das macht eine zusätzliche Vorverarbeitung überflüssig. Durch die Integration von Tableflow in Snowflake können wir verhindern, dass unbereinigte Rohdaten erfasst werden, und gleichzeitig die Komplexität sowie die Speicherkosten reduzieren. Dieser Ansatz vereinfacht Arbeitsabläufe, verkürzt die Time-to-Insight und sorgt gleichzeitig für eine effizientere, kostengünstigere Datenarchitektur.“

Tableflow erleichtert die Integration von operativen Daten in Analysesysteme. Es aktualisiert kontinuierlich Tabellen für Analysen und KI mit denselben Daten aus Geschäftsanwendungen, die mit Confluent Cloud verbunden sind. Innerhalb von Confluent erfolgen Verarbeitung und Governance direkt wenn die Daten erzeugt werden, so dass diese Aufgaben vorgelagert werden. Dadurch wird sichergestellt, dass nur hochwertige, konsistente Daten in Data Lakes und Data Warehouses einfließen. Das ist ein entscheidender Schritt, um KI voranzutreiben. Schließlich hängt deren Leistungsfähigkeit von der Qualität der Daten ab, auf die sich die KI stützt.

Weitere Informationen

Über Confluent Confluent ist die Daten-Streaming-Plattform, die eine grundlegend neue Kategorie von Dateninfrastrukturen entwickelt, die Daten in Bewegung setzen. Das Cloud-native Angebot von Confluent ist die grundlegende Plattform für Data in Motion, die als intelligentes Bindegewebe dafür sorgt, dass Echtzeitdaten aus verschiedenen Quellen kontinuierlich durch das Unternehmen fließen. Mit Confluent können Unternehmen den neuen geschäftlichen Anforderungen gerecht werden, ein reichhaltiges, digitales Kundenerlebnis im Front-End-Bereich zu bieten und auf anspruchsvolle, softwaregesteuerte Back-End-Abläufe in Echtzeit umzustellen. Um mehr zu erfahren, besuchen Sie gerne www.confluent.io.

Da sich die Roadmap in Zukunft ändern kann, können sich die hier genannten Funktionen ebenfalls ändern, möglicherweise nicht rechtzeitig oder gar nicht bereitgestellt werden. Diese Informationen stellen keine Verpflichtung zur Bereitstellung bestimmter Funktionen dar. Kaufentscheidungen sollten daher auf Basis der aktuell verfügbaren Funktionen getroffen werden.

Confluent® und die damit verbundenen Marken sind Marken oder eingetragene Marken von Confluent, Inc.

Apache®, Apache Kafka®, Kafka®, Apache Flink®, Flink®, Apache Iceberg™, Iceberg™, Apache Polaris™ und Polaris™ sind eingetragene Marken oder Marken der Apache Software Foundation in den USA und/oder anderen Ländern. Die Verwendung dieser Marken impliziert keine Unterstützung oder Billigung durch die Apache Software Foundation. Alle anderen Marken sind Eigentum ihrer jeweiligen Inhaber.