[ウェビナー] Kafka + ディザスタリカバリ : 準備はできていますか?| 今すぐ登録

White Paper

ストリーミングデータ品質ガイドブック

ホワイトペーパーを入手

この包括的なガイドでは、ダウンストリームのシステムとアプリケーションをデータ品質の低下から保護するためのストリームガバナンスのベストプラクティスを学びます。

高いデータ品質を維持することは常に重要でしたが、AI/ML の台頭により、今やその重要性はかつてないほど高まっています。データの品質が低いと、「ゴミを入れればゴミが出てくる」状況に陥り、コストのかかる停止やシステム障害、不正確なレポート、不適切な意思決定など、下流に悲惨な影響が及びます。Apache Kafka® などデータストリーミング技術を使用すると、不良データがより速く、より多くの場所に広がりうるため、データ品質の問題もまた増幅される可能性があります。イベントドリブン型システムでは、不良データによってアプリケーションやサービスのエコシステム全体が簡単に壊れてしまう可能性があります。では、データチームに高いデータ品質を維持する持続可能でスケーラブルな方法を提供しながら、ストリーミングアーキテクチャの利点を活用するにはどうすべきでしょうか。

このデータ品質ガイドブックは、ガバナンスを考慮したデータストリーミングのベストプラクティスを紹介します。注意すべき不良データの一般的なカテゴリと、予防策を講じる方法について学びます。高品質なデータを確保するために実行可能な手順が含まれたガイドで、データコントラクトの確立、データプロダクトの作成、組織全体でのデータ所有権と管理における分散型データメッシュアプローチの採用などのトピックがカバーされています。データストリーミングに不慣れな方も、経験豊富な専門家の方も、Confluent の Stream Governance スイートを使用して、これらすべてをシームレスかつ簡単に実装する方法をご紹介します。

今すぐダウンロードして、次の方法を学びましょう。

  • スキーマの一般的な問題と無効な値の原因の特定
  • Schema Registry とのデータコントラクトの定義と共有
  • 分散型モデルによるデータストリームの発見、理解、信頼