Connettere Stripe al proprio data warehouse o servizio di archiviazione su Cloud

Stripe Data Pipeline è un prodotto no-code che può inviare tutti i tuoi dati Stripe alla tua destinazione di archiviazione dati in modo automatico e continuativo.  



A quali destinazioni di archiviazione dati posso collegarmi usando Data Pipeline?

Data Pipeline supporta l'integrazione diretta ai data warehouse di Snowflake e Amazon Redshift.

Supporta anche il collegamento a Google Cloud Storage, Amazon S3 e Azure Blob Storage. Da lì, è possibile inviare i dati a varie destinazioni, compresi altri data warehouse, come Google BigQuery, Databricks e molti altri ancora.

Quali dati sono disponibili tramite Data Pipeline?

Tramite Data Pipeline sono disponibili tutti i set di dati di analisi, API Core e API Core Connect.

Nello schema dei dati di Stripe e nella nostra documentazione è presente una panoramica dettagliata di tutti i dati messi a disposizione e delle modalità di organizzazione degli stessi.

In che tempi i dati sono disponibili nella mia destinazione di archiviazione dati?

Le informazioni sull'aggiornamento dei dati sono disponibili nella nostra documentazione.

Come vengono gestiti e caricati i dati storici?

Ogni volta che vengono consegnati dei dati aggiornati nel tuo warehouse, sarà incluso il tuo set di dati completo, da quando hai iniziato a usare Stripe fino al batch di dati più aggiornato disponibile. Per i dati storici non ti verrà addebitato alcun costo.

Esistono delle politiche per la conservazione dei dati?

Spetta a te elaborare una politica per la conservazione dei dati e implementarla. Consigliamo di conservare i dati per almeno sette giorni, ma molti esercenti scelgono di conservare solo le ultime condivisioni per risparmiare sui costi di archiviazione su Cloud.

È previsto un processo di Change Data Capture? Come faccio a consumare dati incrementali tra carichi completi?

Al momento non supportiamo i carichi di dati incrementali per le nostre destinazioni di archiviazione su Cloud. Ogni tabella ha un campo batch_timestamp, che viene compilato con il timestamp corrispondente a quando i dati sono stati elaborati tramite Data Pipeline.

Stripe svolge dei controlli sulla consegna e la completezza dei dati?

Stripe esegue dei controlli a livello di riga per garantire l'integrità dei dati. I dati vengono consegnati solo quando tutti i controlli saranno stati superati.

Mi verranno comunicati eventuali problemi relativi alla consegna dei dati e alla manutenzione programmata?

Quando attivi Data Pipeline, puoi scegliere di condividere un indirizzo email di contatto per ricevere aggiornamenti importanti sullo stato di elaborazione dei tuoi dati. Ti consigliamo di usare un alias del team in modo che più membri del team possano ricevere le comunicazioni sugli eventuali problemi.

In più, è disponibile un webhook per avvertire il sistema quando la consegna dei dati va a buon fine. I dati sulla configurazione dei webhook sono disponibili nella nostra documentazione.

Ci sono limiti alla quantità di dati che Data Pipeline può caricare?

No. Data Pipeline è progettato per gestire carichi di dati di grandi dimensioni. Al momento supportiamo il volume di alcuni degli utenti più grandi di Stripe pari a 4 TB di dati per carico. Non ci sono limiti di quantità.

Questo articolo ha risposto alla tua domanda?
Temi frequenti
Temi frequenti