将 Stripe 连接到您的数据仓库或云存储目标

Stripe Data Pipeline 是一种无代码产品,可自动将所有 Stripe 数据传输到您的数据存储目标。 



我可以使用 Data Pipeline 连接到哪些数据存储目标?

Data Pipeline 支持直接集成到 Snowflake 和 Amazon Redshift 数据仓库。

还支持连接到 Google Cloud Storage、Amazon S3 和 Azure Blob Storage。从那里,您可以将数据发送到不同的目的地,包括其他数据仓库,如 Google BigQuery、Databricks 等等。

通过 Data Pipeline 可以获得哪些数据?

所有 Core API、Connect Core API 和 Analytical 数据集都可以通过 Data Pipeline 获得。

Stripe Data Schema 以及我们的文档中详细展示了所有可用的数据以及这些数据的组织方式。

我的数据存储目标中的数据多久可以使用?

我们的文档中提供了有关数据及时性的详细信息。

如何管理和加载历史数据?

每次向您的仓库交付新数据时,它都将包括您的完整数据集——从您开始使用 Stripe 到可用的最新数据批次。您无需为历史数据付费。

是否有任何数据保留政策?

由您决定数据保留政策并予以实施。我们建议至少将数据保留七天,但许多商家选择只保留最后几份,以节省云存储成本。

有任何类型的变更数据捕获吗?如何在全量加载之间处理增量数据?

我们目前不支持云存储目的地的增量数据加载。每个表都有一个 batch_timestamp 字段,其中填充了通过 Data Pipeline 处理数据时的时间戳。

Stripe 是否执行数据交付和完整性检查?

Stripe 执行行级检查,以确保数据完整性。如有任何检查失败,那么在完成前不交付数据。

我会收到有关数据交付或计划维护问题的通知吗?

注册 Data Pipeline 时,您可以选择共享一个联系人的电子邮件地址,用以接收有关您的数据处理状态的重要更新。我们建议使用团队别名,以便团队中的多个成员都可以收到问题通知。

此外,当数据传输成功时,Webhook 会通知您的系统。关于如何设置 Webhook 的具体说明可以查看我们的文档

Data Pipeline 可以加载的数据量有限制吗?

不可,Data Pipeline 旨在处理大型数据加载,目前可支持部分 Stripe 大型用户每次加载高达 4TB 的数据量。Data Pipeline 没有速率限制。

是否回答了您的问题?
常见主题
常见主题