Använd Azure Data Factory för att migrera data från din datasjö eller ditt informationslager till Azure
GÄLLER FÖR:
Azure Data Factory
Azure Synapse Analytics
Om du vill migrera din datasjö eller ditt företagsdatalager (EDW) till Microsoft Azure bör du överväga att använda Azure Data Factory. Azure Data Factory passar bra för följande scenarier:
- Migrering av stordataarbetsbelastningar från Amazon Simple Storage Service (Amazon S3) eller en lokal Hadoop Distributed File System (HDFS) till Azure
- EDW-migrering från Oracle Exadata, Netezza, Teradata eller Amazon Redshift till Azure
Azure Data Factory kan flytta petabyte (PB) med data för migrering av datasjöar och tiotals terabyte (TB) data för migrering av informationslager.
Varför Azure Data Factory kan användas för datamigrering
- Azure Data Factory kan enkelt skala upp mängden bearbetningskraft för att flytta data på ett serverlöst sätt med hög prestanda, återhämtning och skalbarhet. Och du betalar bara för det du använder. Observera även följande:
- Azure Data Factory har inga begränsningar för datavolymen eller antalet filer.
- Azure Data Factory kan använda nätverkets och lagringsbandbredden fullt ut för att uppnå högsta dataflödesvolym i din miljö.
- Azure Data Factory använder en betala per användning-metod, så att du bara betalar för den tid du faktiskt använder för att köra datamigrering till Azure.
- Azure Data Factory kan utföra både en historikbelastning och schemalagda inkrementella inläsningar.
- Azure Data Factory använder Azure Integration Runtime (IR) för att flytta data mellan offentligt tillgängliga datasjöar och informationslagerslutpunkter. Den kan också använda en IR med egen värd för att flytta data för datasjöar och informationslagerslutpunkter i Azure Virtual Network (VNet) eller bakom en brandvägg.
- Azure Data Factory har säkerhet i företagsklass: Du kan använda Windows Installer (MSI) eller tjänstidentitet för säker tjänst-till-tjänst-integrering eller använda Azure Key Vault för hantering av autentiseringsuppgifter.
- Azure Data Factory ger en kodfri redigeringsupplevelse och en omfattande, inbyggd instrumentpanel för övervakning.
Datamigrering online jämfört med offline
Azure Data Factory är ett standardverktyg för datamigrering online för att överföra data via ett nätverk (Internet, ER eller VPN). Med datamigrering offline skickar användarna fysiskt dataöverföringsenheter från organisationen till ett Azure-datacenter.
Det finns tre viktiga överväganden när du väljer mellan en online- och offlinemigreringsmetod:
- Storleken på data som ska migreras
- Nätverksbandbredd
- Migreringsfönstret
Anta till exempel att du planerar att använda Azure Data Factory för att slutföra datamigrering inom två veckor (ditt migreringsfönster). Lägg märke till den rosa/blå skärningslinjen i följande tabell. Den lägsta rosa cellen för en viss kolumn visar datastorleken/nätverksbandbreddens parkoppling vars migreringsfönster är närmast men mindre än två veckor. (Parkoppling av storlek/bandbredd i en blå cell har ett onlinemigreringsfönster på mer än två veckor.)
Den här tabellen hjälper dig att avgöra om du kan uppfylla det avsedda migreringsfönstret via onlinemigrering (Azure Data Factory) baserat på storleken på dina data och din tillgängliga nätverksbandbredd. Om onlinemigreringsfönstret är mer än två veckor bör du använda offlinemigrering.
Anteckning
Genom att använda onlinemigrering kan du uppnå både historisk datainläsning och inkrementella flöden från end-to-end med ett enda verktyg. Med den här metoden kan dina data synkroniseras mellan det befintliga arkivet och det nya arkivet under hela migreringsfönstret. Det innebär att du kan återskapa din ETL-logik i det nya arkivet med uppdaterade data.