この包括的なガイドでは、ダウンストリームのシステムとアプリケーションをデータ品質の低下から保護するためのストリームガバナンスのベストプラクティスを学びます。
高いデータ品質を維持することは常に重要でしたが、AI/ML の台頭により、今やその重要性はかつてないほど高まっています。データの品質が低いと、「ゴミを入れればゴミが出てくる」状況に陥り、コストのかかる停止やシステム障害、不正確なレポート、不適切な意思決定など、下流に悲惨な影響が及びます。Apache Kafka® などデータストリーミング技術を使用すると、不良データがより速く、より多くの場所に広がりうるため、データ品質の問題もまた増幅される可能性があります。イベントドリブン型システムでは、不良データによってアプリケーションやサービスのエコシステム全体が簡単に壊れてしまう可能性があります。では、データチームに高いデータ品質を維持する持続可能でスケーラブルな方法を提供しながら、ストリーミングアーキテクチャの利点を活用するにはどうすべきでしょうか。
このデータ品質ガイドブックは、ガバナンスを考慮したデータストリーミングのベストプラクティスを紹介します。注意すべき不良データの一般的なカテゴリと、予防策を講じる方法について学びます。高品質なデータを確保するために実行可能な手順が含まれたガイドで、データコントラクトの確立、データプロダクトの作成、組織全体でのデータ所有権と管理における分散型データメッシュアプローチの採用などのトピックがカバーされています。データストリーミングに不慣れな方も、経験豊富な専門家の方も、Confluent の Stream Governance スイートを使用して、これらすべてをシームレスかつ簡単に実装する方法をご紹介します。
今すぐダウンロードして、次の方法を学びましょう。