Stripe Data Pipeline は、お客様のすべての Stripe データを自動的かつ継続的に、さまざまなデータ保存先に送信できるノーコードプロダクトです。
- Data Pipeline ではどのデータ保存先に接続できますか?
- Data Pipeline を介してどのデータが利用可能ですか?
- データ保存先ではどれくらいの速さでデータが利用可能になりますか?
- 履歴データはどのように管理され、読み込まれるのですか?
- データ保持に関するポリシーはありますか?
- 変更データキャプチャーの仕組みはありますか?次回の完全読み込みまでの増分データはどのようにして利用できますか?
- Stripe はデータの配信と完全性のチェックを行いますか?
- データ配信や計画的保守で問題が発生した場合は通知がありますか?
- Data Pipeline で読み込むことができるデータの量に制限はありますか?
Data Pipeline ではどのデータ保存先に接続できますか?
Data Pipeline は Snowflake と Amazon Redshift データウェアハウスへの直接接続に対応しています。
また、Google Cloud Storage、Amazon S3、Azure Blob Storage への接続にも対応しています。これらの接続先から、Google BigQuery、Databricks、その他のデータウェアハウスをはじめとする各種の保存先にデータを送信することができます。
Data Pipeline を介してどのデータが利用可能ですか?
Data Pipeline を介してすべての Core API、Connect Core API、Analytical (分析) のデータセットを利用可能です。
利用可能なすべてのデータの詳細とその分類については、Stripe のデータスキーマとドキュメントをご覧ください。
データ保存先ではどれくらいの速さでデータが利用可能になりますか?
データの鮮度について、詳細はドキュメントをご覧ください。
履歴データはどのように管理され、読み込まれるのですか?
新しいデータがデータウェアハウスに配信されるたびに、Stripe を使い始めた時点から最新のデータバッチまでを含む完全なデータセットが提供されます。履歴データについては請求されません。
データ保持に関するポリシーはありますか?
データ保持に関するポリシーの決定と実施は、お客様のご判断で行っていただきます。少なくとも 7 日間はデータを保持することをお勧めしますが、多くの事業者はクラウドストレージのコストを節約するために、直近の一部のデータのみを保持することを選択しています。
変更データキャプチャーの仕組みはありますか?次回の完全読み込みまでの増分データはどのようにして利用できますか?
現在、クラウドストレージの保存先の増分データ読み込みには対応していません。各テーブルには batch_timestamp フィールドがあり、Data Pipeline を介して処理されたデータのタイムスタンプが設定されます。
Stripe はデータの配信と完全性のチェックを行いますか?
Stripe は、データの完全性を保証するために行単位のチェックを実施します。いずれかのチェックに不合格になった場合、すべてのチェックが完了するまでデータは配信されません。
データ配信や計画的保守で問題が発生した場合は通知がありますか?
Data Pipeline に登録する際に、データ処理のステータスに対する重要な更新を受け取るための連絡先メールアドレスを任意でご提供いただいています。チームの複数のメンバーが問題の通知を受け取れるように、チームのエイリアス (共有メールアドレスなど) を使用することをお勧めします。
また、データ配信が正常に完了したときにシステムに通知する Webhook もご利用いただけます。Webhook の設定方法について、詳細はドキュメントをご覧ください。
Data Pipeline で読み込むことができるデータの量に制限はありますか?
いいえ。Data Pipeline は大量のデータの読み込みに対応できるように設計されています。現在、1 回の読み込みで 4TB のデータに対応しており、非常に大きなデータを扱う Stripe ユーザーにもご利用いただけます。レート制限はありません。