Stripe Data Pipeline är en kodfri produkt som automatiskt och löpande kan skicka alla dina Stripe-data till dina datalagringsdestinationer.
- Vilka datalagringsdestinationer kan kopplas till Data Pipeline?
- Vilka data är tillgängliga via Data Pipeline?
- Hur snabbt blir data tillgängliga i min datalagringsdestination?
- Hur hanteras och laddas historiska data?
- Finns det några policyer för datalagring?
- Finns det någon registrering av dataändringar? Hur kan jag konsumera nya data mellan fulla laddningar?
- Utför Stripe några kontroller av att data har levererats och är fullständiga?
- Kommer jag att meddelas om eventuella problem med dataleverans eller planerat underhåll?
- Finns det någon gräns för hur mycket data som Data Pipeline kan ladda?
Vilka datalagringsdestinationer kan kopplas till Data Pipeline?
Data Pipeline har stöd för direkt integration med Snowflake- och Amazon Redshift-datalager.
Det har även stöd för Google Cloud Storage, Amazon S3 och Azure Blob Storage. Därifrån kan du skicka dina data till olika destinationer, inklusive andra datalager som Google BigQuery, Databricks med flera.
Vilka data är tillgängliga via Data Pipeline?
Core API-, Connect Core API- och analysdatauppsättningar är tillgängliga via Data Pipeline.
Det finns ingående information om data som görs tillgängliga för dig och hur dessa är organiserade i Stripe Data Schema och i vår dokumentation.
Hur snabbt blir data tillgängliga i min datalagringsdestination?
Information om dataaktualitet finns i vår dokumentation.
Hur hanteras och laddas historiska data?
Varje gång aktuella data levereras till ditt lager ingår hela din datauppsättning – från när du började på Stripe till den senaste databatchen. Det utgår inga avgifter för historiska data.
Finns det några policyer för datalagring?
Det är du som bestämmer om du vill ta fram och implementera en datalagringspolicy. Vi rekommenderar att man sparar data i minst sju dagar, men många handlare väljer att behålla bara de senaste batcharna för att spara på lagringskostnader.
Finns det någon registrering av dataändringar? Hur kan jag konsumera nya data mellan fulla laddningar?
För närvarande har vi inte stöd för inkrementell belastning för våra molnlagringsdestinationer. Varje tabell har fältet batch_timestamp som fylls i med tidsstämpeln för när data behandlas genom Data Pipeline.
Utför Stripe några kontroller av att data har levererats och är fullständiga?
Stripe utför kontroller på radnivå för att säkerställa dataintegritet. Om en kontroll misslyckas levereras inte data förrän de är fullständiga.
Kommer jag att meddelas om eventuella problem med dataleverans eller planerat underhåll?
När du registrerar dig för Data Pipeline har du möjlighet att ange en e-postadress där du kan få viktiga uppdateringar om statusen för din databehandling. Vi föreslår att du använder ett teamalias så att flera medlemmar i ditt team meddelas om problemen.
Dessutom finns det en webhook som kan meddela ditt system när dataleveransen har genomförts. Information om hur man konfigurerar webhooks finns i vår dokumentation.
Finns det någon gräns för hur mycket data som Data Pipeline kan ladda?
Nej. Data Pipeline är utformad för att hantera stora databelastningar. Vi har för närvarande plats för några av Stripes största användare med en volym på 4 TB data per laddning. Det finns ingen gräns för datauppsättningar.