Attività di copia in Azure Data FactoryCopy Activity in Azure Data Factory

PanoramicaOverview

In Azure Data Factory è possibile usare l'attività di copia per copiare i dati da archivi dati locali e cloud.In Azure Data Factory, you can use Copy Activity to copy data among data stores located on-premises and in the cloud. Dopo la copia, è possibile trasformare o analizzare ulteriormente i dati.After the data is copied, it can be further transformed and analyzed. L'attività di copia può essere usata anche per pubblicare risultati di trasformazione e analisi per Business Intelligence (BI) e l'uso delle applicazioni.You can also use Copy Activity to publish transformation and analysis results for business intelligence (BI) and application consumption.

Ruolo dell'attività di copia

L'attività di copia viene eseguita in un runtime di integrazione.Copy Activity is executed on an Integration Runtime. Per altri scenari di copia dei dati, è possibile usare versioni diverse del runtime di integrazione:For different data copy scenario, different flavor of Integration Runtime can be leveraged:

  • Quando si copiano i dati tra archivi di dati accessibili pubblicamente, l'attività di copia può essere migliorata con il runtime di integrazione di Azure che è sicuro, affidabile, scalabile e disponibile a livello globale.When copying data between data stores that both are publicly accessible, copy activity can be empowered by Azure Integration Runtime, which is secure, reliable, scalable, and globally available.
  • Quando si copiano i dati da/a archivi di dati in locale o in una rete con il controllo di accesso (ad esempio, rete virtuale di Azure), è necessario configurare un runtime di integrazione self-hosted per migliorare la copia dei dati.When copying data from/to data stores located on-premises or in a network with access control (for example, Azure Virtual Network), you need to set up a self-hosted Integrated Runtime to empower data copy.

Integration Runtime deve essere associato a ogni archivio dati di origine e sink.Integration Runtime needs to be associated with each source and sink data store. Informazioni su come l'attività di copia determina quale runtime di integrazione usare.Learn details on how copy activity determines which IR to use.

L'attività di copia viene sottoposta alle fasi seguenti per copiare i dati dall'origine al sink.Copy Activity goes through the following stages to copy data from a source to a sink. Il servizio su cui si basa l'attività di copia:The service that powers Copy Activity:

  1. Legge i dati dall'archivio dati di origine.Reads data from a source data store.
  2. Esegue la serializzazione/deserializzazione, compressione/decompressione, il mapping di colonne e così via. Esegue tali operazioni sulla base delle configurazioni del set di dati di input, del set di dati di output e dell'attività di copia.Performs serialization/deserialization, compression/decompression, column mapping, etc. It does these operations based on the configurations of the input dataset, output dataset, and Copy Activity.
  3. Scrive i dati nell'archivio dati sink/di destinazione.Writes data to the sink/destination data store.

Panoramica dell'attività di copia

Archivi dati e formati supportatiSupported data stores and formats

CategoriaCategory Archivio datiData store Supportato come origineSupported as a source Supportato come sinkSupported as a sink Supportato dal runtime di integrazione di AzureSupported by Azure IR Supportato dal runtime di integrazione self-hostedSupported by Self-hosted IR
AzureAzure Archiviazione BLOB di AzureAzure Blob Storage
  Azure Cosmos DB (API SQL)Azure Cosmos DB (SQL API)
  API di Azure Cosmos DB per MongoDBAzure Cosmos DB's API for MongoDB
  Esplora dati di AzureAzure Data Explorer
  Azure Data Lake Storage Gen1Azure Data Lake Storage Gen1
  Azure Data Lake Storage Gen2Azure Data Lake Storage Gen2
  Database di Azure per MariaDBAzure Database for MariaDB
  Database di Azure per MySQLAzure Database for MySQL
  Database di Azure per PostgreSQLAzure Database for PostgreSQL
  Archiviazione file di AzureAzure File Storage
  Database SQL di AzureAzure SQL Database
  Istanza gestita di database SQL di AzureAzure SQL Database Managed Instance
  Azure SQL Data WarehouseAzure SQL Data Warehouse
  Indice di Ricerca di AzureAzure Search Index
  Archiviazione tabelle di AzureAzure Table Storage
DatabaseDatabase Amazon RedshiftAmazon Redshift
  DB2DB2
  Drill (anteprima)Drill (Preview)
  Google BigQueryGoogle BigQuery
  GreenplumGreenplum
  HBaseHBase
  HiveHive
  Apache Impala (anteprima)Apache Impala (Preview)
  InformixInformix
  MariaDBMariaDB
  Microsoft AccessMicrosoft Access
  MySQLMySQL
  NetezzaNetezza
  OracleOracle
  PhoenixPhoenix
  PostgreSQLPostgreSQL
  Presto (anteprima)Presto (Preview)
  SAP Business Warehouse Open HubSAP Business Warehouse Open Hub
  SAP Business Warehouse via MDXSAP Business Warehouse via MDX
  SAP HANASAP HANA
  SparkSpark
  SQL ServerSQL Server
  SybaseSybase
  TeradataTeradata
  VerticaVertica
NoSQLNoSQL CassandraCassandra
  Couchbase (anteprima)Couchbase (Preview)
  MongoDBMongoDB
FileFile Amazon S3Amazon S3
  File systemFile System
  FTPFTP
  Google Cloud StorageGoogle Cloud Storage
  HDFSHDFS
  SFTPSFTP
Protocollo genericoGeneric protocol HTTP genericoGeneric HTTP
  OData genericoGeneric OData
  ODBC genericoGeneric ODBC
  REST genericoGeneric REST
Servizi e appServices and apps Amazon Marketplace Web Service (anteprima)Amazon Marketplace Web Service (Preview)
  Common Data Service per le appCommon Data Service for Apps
  Concur (anteprima)Concur (Preview)
  Dynamics 365Dynamics 365
  Dynamics AX (Anteprima)Dynamics AX (Preview)
  Dynamics CRMDynamics CRM
  Google AdWords (Anteprima)Google AdWords (Preview)
  HubSpot (anteprima)HubSpot (Preview)
  Jira (anteprima)Jira (Preview)
  Magento (anteprima)Magento (Preview)
  Marketo (anteprima)Marketo (Preview)
  Office 365 (anteprima)Office 365 (Preview)
  Oracle Eloqua (anteprima)Oracle Eloqua (Preview)
  Oracle Responsys (anteprima)Oracle Responsys (Preview)
  Oracle Service Cloud (anteprima)Oracle Service Cloud (Preview)
  PayPal (anteprima)Paypal (Preview)
  QuickBooks (anteprima)QuickBooks (Preview)
  SalesforceSalesforce
  Cloud del servizio SalesforceSalesforce Service Cloud
  Salesforce Marketing Cloud (anteprima)Salesforce Marketing Cloud (Preview)
  SAP Cloud for Customer (C4C)SAP Cloud for Customer (C4C)
  SAP ECCSAP ECC
  ServiceNowServiceNow
  Shopify (anteprima)Shopify (Preview)
  Square (anteprima)Square (Preview)
  Tabella Web (tabella HTML)Web Table (HTML table)
  Xero (anteprima)Xero (Preview)
  Zoho (anteprima)Zoho (Preview)

Nota

Se un connettore è contrassegnato come Anteprima, è possibile provarlo e inviare commenti e suggerimenti.Any connector marked as Preview means that you can try it out and give us feedback. Se si vuole accettare una dipendenza dai connettori in versione di anteprima nella propria soluzione, contattare il supporto tecnico di Azure.If you want to take a dependency on preview connectors in your solution, please contact Azure support.

Formati di file supportatiSupported file formats

È possibile usare l'attività di copia per copiare i file così come sono tra due archivi dati basati su file. In questo caso i dati vengono copiati in modo efficiente senza serializzazione/deserializzazione.You can use Copy Activity to copy files as-is between two file-based data stores, in which case the data is copied efficiently without any serialization/deserialization.

L’attività di copia supporta anche la lettura e scrittura di file in formati specificati: Testo, JSON, Avro, ORC e Parquete la compressione e decompresing file con i seguenti codec: GZip, Deflate, BZip2 e ZipDeflate.Copy Activity also supports reading from and writing to files in specified formats: Text, JSON, Avro, ORC, and Parquet, and compressing and decompresing files with the following codecs: GZip, Deflate, BZip2, and ZipDeflate. Vedere Formati di compressione e file supportati per i dettagli.See Supported file and compression formats with details.

È possibile ad esempio eseguire queste attività di copia:For example, you can do the following copy activities:

  • Copiare i dati nel Server SQL in locale e scrivere in Azure Data Lake Storage Gen2 in formato Parquet.Copy data in on-premises SQL Server and write to Azure Data Lake Storage Gen2 in Parquet format.
  • Copiare i file in formato testo (CSV) dal file system locale e scrivere nel BLOB di Azure nel formato Avro.Copy files in text (CSV) format from on-premises File System and write to Azure Blob in Avro format.
  • Copiare i file compressi dal File System locale e decomprimerli in Azure Data Lake Storage Gen2.Copy zipped files from on-premises File System and decompress then land to Azure Data Lake Storage Gen2.
  • Copiare i dati in formato testo (CSV) con compressione GZip dal BLOB di Azure e scrivere nel database SQL Azure.Copy data in GZip compressed text (CSV) format from Azure Blob and write to Azure SQL Database.
  • E molti altri casi con la serializzazione/deserializzazione o compressione/decompressione necessario.And many more cases with serialization/deserialization or compression/decompression need.

Aree supportateSupported regions

Tuttavia, il servizio alla base dell'attività di copia è disponibile a livello globale nelle aree geografiche riportate nella sezione Località del runtime di integrazione.The service that powers Copy Activity is available globally in the regions and geographies listed in Azure Integration Runtime locations. La topologia disponibile a livello globale garantisce uno spostamento di dati efficiente e di solito consente di evitare passaggi tra diverse aree.The globally available topology ensures efficient data movement that usually avoids cross-region hops. Per la disponibilità del servizio Data Factory e lo spostamento dei dati in un'area, vedere Servizi in base all'area .See Services by region for availability of Data Factory and Data Movement in a region.

ConfigurazioneConfiguration

Per usare l'attività di copia in Azure Data Factory, è necessario:To use copy activity in Azure Data Factory, you need to:

  1. Creare servizi collegati di archivio dati di origine e archivio dati sink.Create linked services for source data store and sink data store. Per configurare le proprietà supportate, fare riferimento alla sezione "Proprietà del servizio collegato" dell'articolo sul connettore.Refer to the connector article's "Linked service properties" section on how to configure and the supported properties. È possibile trovare un elenco dei connettori supportati nella sezione relativa agli archivi di dati e ai formati supportati.You can find the supported connector list in Supported data stores and formats section.
  2. Creare set di dati per l'origine e sink.Create datasets for source and sink. Per configurare le proprietà supportate, fare riferimento alla sezione "Proprietà dei set di dati" dell'articolo sui connettori di origine e sink.Refer to the source and sink connector articles' "Dataset properties" section on how to configure and the supported properties.
  3. Creare una pipeline con attività di copia.Create a pipeline with copy activity. Nella sezione seguente viene illustrato un esempio.The next section provides an example.

SintassiSyntax

Nel modello seguente di un'attività di copia è incluso l'elenco completo delle proprietà supportate.The following template of a copy activity contains an exhaustive list of supported properties. Specificare quelle più adatte per il proprio scenario.Specify the ones that fit your scenario.

"activities":[
    {
        "name": "CopyActivityTemplate",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<source dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<sink dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                <properties>
            },
            "sink": {
                "type": "<sink type>"
                <properties>
            },
            "translator":
            {
                "type": "TabularTranslator",
                "columnMappings": "<column mapping>"
            },
            "dataIntegrationUnits": <number>,
            "parallelCopies": <number>,
            "enableStaging": true/false,
            "stagingSettings": {
                <properties>
            },
            "enableSkipIncompatibleRow": true/false,
            "redirectIncompatibleRowSettings": {
                <properties>
            }
        }
    }
]

Dettagli sintassiSyntax details

ProprietàProperty DescrizioneDescription ObbligatoriaRequired
typetype La proprietà type di un'attività di copia deve essere impostata su: CopiaThe type property of a copy activity must be set to: Copy Yes
inputsinputs Specificare il set di dati creato che fa riferimento ai dati di origine.Specify the dataset you created which points to the source data. L'attività di copia supporta un singolo input.Copy activity supports only a single input. Yes
outputsoutputs Specificare il set di dati creato che fa riferimento ai dati sink.Specify the dataset you created which points to the sink data. L'attività di copia supporta un singolo output.Copy activity supports only a single output. Yes
typePropertiestypeProperties Un gruppo di proprietà per configurare l'attività di copia.A group of properties to configure copy activity. Yes
una sezione sourcesource Specificare il tipo di origine della copia e le proprietà corrispondenti per recuperare i dati.Specify the copy source type and the corresponding properties on how to retrieve data.

Vedere la sezione "Proprietà dell'attività di copia" nell'articolo sul connettore elencato in Archivi dati e formati supportati.Learn details from the "Copy activity properties" section in connector article listed in Supported data stores and formats.
Yes
sinksink Specificare il tipo di sink della copia e le proprietà corrispondenti per scrivere i dati.Specify the copy sink type and the corresponding properties on how to write data.

Vedere la sezione "Proprietà dell'attività di copia" nell'articolo sul connettore elencato in Archivi dati e formati supportati.Learn details from the "Copy activity properties" section in connector article listed in Supported data stores and formats.
Yes
translatortranslator Specificare il mapping esplicito di colonne da origine a sink.Specify explicit column mappings from source to sink. Si applica quando il comportamento di copia predefinito non soddisfa le esigenze.Applies when the default copy behavior cannot fulfill your need.

Vedere Mapping dello schema e dei tipi di dati.Learn details from Schema and data type mapping.
No No
dataIntegrationUnitsdataIntegrationUnits Specificare l'efficacia del runtime di integrazione di Azure per migliorare la copia dei dati.Specify the powerfulness of Azure Integration Runtime to empower data copy. Precedentemente noto come Unità di spostamento dati cloud.Formerly known as cloud Data Movement Units (DMU).

Altre informazioni disponibili in Data Integration Units (Unità di integrazione dei dati).Learn details from Data Integration Units.
No No
parallelCopiesparallelCopies Specificare il parallelismo che l'attività di copia deve usare durante la lettura dei dati dall'origine e la scrittura dei dati nel sink.Specify the parallelism that you want Copy Activity to use when reading data from source and writing data to sink.

Vedere Copia parallela.Learn details from Parallel copy.
No No
enableStagingenableStaging
stagingSettingsstagingSettings
Scegliere di eseguire lo staging dei dati provvisori in un archivio BLOB anziché copiarli direttamente dall'origine al sink.Choose to stage the interim data in aa blob storage instead of directly copy data from source to sink.

Informazioni sugli scenari e sui dettagli di configurazione in Copia di staging.Learn the useful scenarios and configuration details from Staged copy.
No No
enableSkipIncompatibleRowenableSkipIncompatibleRow
redirectIncompatibleRowSettingsredirectIncompatibleRowSettings
Scegliere come gestire le righe incompatibili durante la copia di dati dall'origine al sink.Choose how to handle incompatible rows when copying data from source to sink.

Vedere Tolleranza di errore.Learn details from Fault tolerance.
No No

MonitoraggioMonitoring

È possibile monitorare l'esecuzione dell'attività di copia nell'interfaccia utente "Crea e monitora" di Azure Data Factory o a livello di codice.You can monitor the copy activity run on Azure Data Factory "Author & Monitor" UI or programmatically. È quindi possibile confrontare le prestazioni e la configurazione dello scenario con le informazioni di riferimento sulle prestazioni dell'attività di copia ottenute da test interni.You can then compare the performance and configuration of your scenario to Copy Activity's performance reference from in-house testing.

Monitorare visivamenteMonitor visually

Per monitorare visivamente l'esecuzione dell'attività di copia, selezionare -> Copia e monitora -> scheda Monitoraggio della data factory. Verrà visualizzato un elenco di esecuzioni di pipeline con un collegamento per la visualizzazione delle esecuzioni delle attività nella colonna Azioni.To visually monitor the copy activity run, go to your data factory -> Author & Monitor -> Monitor tab, you see a list of pipeline runs with a "View Activity Runs" link in the Actions column.

Monitorare le esecuzioni di pipeline

Fare clic per visualizzare l'elenco delle attività in questa esecuzione di pipeline.Click to see the list of activities in this pipeline run. Nella colonna Azioni sono presenti collegamenti all'input e all'output dell'attività di copia, agli errori (se l'esecuzione dell'attività di copia ha esito negativo) e ai dettagli.In the Actions column, you have links to the copy activity input, output, errors (if copy activity run fails), and details.

Monitorare le esecuzioni delle attività

Fare clic sul collegamento "Dettagli" in Azioni per visualizzare i dettagli di esecuzione e le caratteristiche delle prestazioni dell'attività di copia.Click the "Details" link under Actions to see copy activity's execution details and performance characteristics. Vengono visualizzate informazioni quali il volume, le righe e i file di dati copiati dall'origine al sink, la velocità effettiva, i passaggi eseguiti (con la durata corrispondente) e le configurazioni usate per lo scenario di copia.It shows you information including volume/rows/files of data copied from source to sink, throughput, steps it goes through with corresponding duration and used configurations for your copy scenario.

Suggerimento

Per alcuni scenari viene anche visualizzato "Performance tuning tips" (Suggerimenti per l'ottimizzazione delle prestazioni) nella parte superiore della pagina di monitoraggio dell'attività di copia, con l'indicazione del collo di bottiglia individuato e istruzioni su cosa modificare per aumentare la velocità effettiva dell'attività di copia. Vedere qui per un esempio con i dettagli.

Esempio: copiare da Amazon S3 in Azure Data Lake Store ![Dettagli esecuzione attività di monitoraggioExample: copy from Amazon S3 to Azure Data Lake Store Monitor activity run details

Esempio: copia dal Database SQL di Azure per Azure SQL Data Warehouse con copia di staging ![Dettagli esecuzione attività di monitoraggioExample: copy from Azure SQL Database to Azure SQL Data Warehouse using staged copy Monitor activity run details

Monitorare a livello di codiceMonitor programmatically

I dettagli dell'esecuzione dell'attività di copia e le caratteristiche relative alle prestazioni vengono restituiti anche nella sezione relativa all'output del risultato dell'esecuzione dell'attività di copia.Copy activity execution details and performance characteristics are also returned in Copy Activity run result -> Output section. Di seguito viene offerto l'elenco completo, ma solo i dettagli applicabili al proprio scenario di copia vengono visualizzati.Below is an exhaustive list; only the applicable ones to your copy scenario will show up. Informazioni su come monitorare l'esecuzione dell'attività nella sezione sull'avvio rapido del monitoraggio.Learn how to monitor activity run from quickstart monitoring section.

Nome proprietàProperty name DESCRIZIONEDescription UnitàUnit
dataReaddataRead Dimensioni dei dati letti nell'origineData size read from source Valore Int64 in byteInt64 value in bytes
dataWrittendataWritten Dimensioni dei dati scritti nel sinkData size written to sink Valore Int64 in byteInt64 value in bytes
filesReadfilesRead Numero di file copiati quando si copiano dati da una risorsa di archiviazione di file.Number of files being copied when copying data from file storage. Valore Int64 (senza unità)Int64 value (no unit)
fileScannedfileScanned Numero di file sottoposti a scansione dall'archiviazione di file di origine.Number of files being scanned from the source file storage. Valore Int64 (senza unità)Int64 value (no unit)
filesWrittenfilesWritten Numero di file copiati quando si copiano dati in una risorsa di archiviazione di file.Number of files being copied when copying data to file storage. Valore Int64 (senza unità)Int64 value (no unit)
rowsCopiedrowsCopied Numero di righe copiate (non applicabile alla copia binaria).Number of rows being copied (not applicable for binary copy). Valore Int64 (senza unità)Int64 value (no unit)
rowsSkippedrowsSkipped Numero di righe incompatibili ignorate.Number of incompatible rows being skipped. È possibile abilitare la funzionalità impostando il valore "enableSkipIncompatibleRow" su True.You can turn on the feature by set "enableSkipIncompatibleRow" to true. Valore Int64 (senza unità)Int64 value (no unit)
throughputthroughput Velocità di trasferimento dei datiRatio at which data are transferred Numero a virgola mobile in KB/sFloating point number in KB/s
copyDurationcopyDuration Durata della copiaThe duration of the copy Valore Int32 in secondiInt32 value in seconds
sqlDwPolyBasesqlDwPolyBase Se PolyBase viene usato per copiare i dati in SQL Data Warehouse.If PolyBase is used when copying data into SQL Data Warehouse. BooleanBoolean
redshiftUnloadredshiftUnload Se UNLOAD viene usato per copiare i dati da Redshift.If UNLOAD is used when copying data from Redshift. BooleanBoolean
hdfsDistcphdfsDistcp Se DistCp viene usato per copiare i dati da HDFS.If DistCp is used when copying data from HDFS. BooleanBoolean
effectiveIntegrationRuntimeeffectiveIntegrationRuntime Mostra gli Integration Runtime usati per migliorare l'esecuzione dell'attività, nel formato <IR name> (<region if it's Azure IR>).Show which Integration Runtime(s) is used to empower the activity run, in the format of <IR name> (<region if it's Azure IR>). Testo (stringa)Text (string)
usedDataIntegrationUnitsusedDataIntegrationUnits Le unità di integrazione dati effettive durante la copia.The effective Data Integration Units during copy. Valore Int32Int32 value
usedParallelCopiesusedParallelCopies Proprietà parallelCopies effettiva durante la copia.The effective parallelCopies during copy. Valore Int32Int32 value
redirectRowPathredirectRowPath Percorso del log delle righe incompatibili ignorate nel contenitore di archiviazione BLOB configurato in "redirectIncompatibleRowSettings".Path to the log of skipped incompatible rows in the blob storage you configure under "redirectIncompatibleRowSettings". Vedere l'esempio seguente.See below example. Testo (stringa)Text (string)
executionDetailsexecutionDetails Maggiori dettagli sulle fasi a cui viene sottoposta l'attività di copia e sui passaggi, sulla durata, sulle configurazioni usate e così via. Non è consigliabile analizzare questa sezione, perché può cambiare.More details on the stages copy activity goes through, and the corresponding steps, duration, used configurations, etc. It's not recommended to parse this section as it may change. ArrayArray
"output": {
    "dataRead": 107280845500,
    "dataWritten": 107280845500,
    "filesRead": 10,
    "filesWritten": 10,
    "copyDuration": 224,
    "throughput": 467707.344,
    "errors": [],
    "effectiveIntegrationRuntime": "DefaultIntegrationRuntime (East US 2)",
    "usedDataIntegrationUnits": 32,
    "usedParallelCopies": 8,
    "executionDetails": [
        {
            "source": {
                "type": "AmazonS3"
            },
            "sink": {
                "type": "AzureDataLakeStore"
            },
            "status": "Succeeded",
            "start": "2018-01-17T15:13:00.3515165Z",
            "duration": 221,
            "usedDataIntegrationUnits": 32,
            "usedParallelCopies": 8,
            "detailedDurations": {
                "queuingDuration": 2,
                "transferDuration": 219
            }
        }
    ]
}

Mapping dello schema e dei tipi di datiSchema and data type mapping

Vedere Mapping dello schema e dei tipi di dati per informazioni su come l'attività di copia esegue il mapping dei dati di origine al sink.See the Schema and data type mapping, which describes how copy activity maps your source data to sink.

Tolleranza di erroreFault tolerance

Per impostazione predefinita, l'attività di copia interrompe la copia dei dati e restituisce un errore quando incontra dei dati incompatibili tra l'origine e il sink.By default, copy activity stops copying data and returns failure when it encounters incompatible data between source and sink. È possibile applicare una configurazione che preveda di ignorare e registrare le righe incompatibili e di copiare soltanto i dati compatibili affinché la copia vada a buon fine.You can explicitly configure to skip and log the incompatible rows and only copy those compatible data to make the copy succeeded. Per altri dettagli, vedere la Tolleranza di errore dell'attività di copia: ignorare le righe incompatibili.See the Copy Activity fault tolerance on more details.

Prestazioni e ottimizzazionePerformance and tuning

Vedere l'articolo Guida alle prestazioni delle attività di copia e all'ottimizzazione, che descrive i fattori chiave che influiscono sulle prestazioni di spostamento dei dati (attività di copia) in Data Factory di Azure.See the Copy Activity performance and tuning guide, which describes key factors that affect the performance of data movement (Copy Activity) in Azure Data Factory. Vengono anche elencate le prestazioni osservate durante il test interni e vengono descritti i modi per ottimizzare le prestazioni dell'attività di copia.It also lists the observed performance during internal testing and discusses various ways to optimize the performance of Copy Activity.

In alcuni casi, quando si esegue un'attività di copia in Azure Data Factory, viene direttamente visualizzato "Performance tuning tips" (Suggerimenti per l'ottimizzazione delle prestazioni) nella parte superiore della pagina di monitoraggio dell'attività di copia, come illustrato nell'esempio seguente.In some cases, when you execute a copy activity in ADF, you will directly see "Performance tuning tips" on top of the copy activity monitoring page as shown in the following example. Il testo nel riquadro non solo indica un collo di bottiglia identificato per l'esecuzione della copia specificata, ma descrive anche gli elementi da modificare in modo da migliorare la velocità effettiva di copia.It not only tells you the bottleneck identified for the given copy run, but also guides you on what to change so as to boost copy throughput. I suggerimenti per l'ottimizzazione delle prestazioni forniscono indicazioni utili, come ad esempio usare PolyBase per la copia dei dati in Azure SQL Data Warehouse, aumentare le unità UR di Azure Cosmos DB o DTU del database SQL di Azure se il collo di bottiglia dipende dalla risorsa nell'archivio dati, rimuovere la copia di gestione temporanea non necessaria e così via. Anche le regole di ottimizzazione delle prestazioni verranno gradualmente migliorate.The performance tuning tips currently provide suggestions like to use PolyBase when copying data into Azure SQL Data Warehouse, to increase Azure Cosmos DB RU or Azure SQL DB DTU when the resource on data store side is the bottleneck, to remove the unnecessary staged copy, etc. The performance tuning rules will be gradually enriched as well.

Esempio: copia nel database SQL di Azure con suggerimenti per l'ottimizzazione delle prestazioniExample: copy into Azure SQL DB with performance tuning tips

In questo esempio, durante l'esecuzione della copia, Azure Data Factory nota che il database SQL di Azure sink raggiunge un utilizzo di DTU elevato che rallenta le operazioni di scrittura. Il suggerimento pertanto consiste nell'aumentare il livello di database SQL di Azure con altre unità DTU.In this sample, during copy run, ADF notice the sink Azure SQL DB reaches high DTU utilization which slows down the write operations, thus the suggestion is to increase the Azure SQL DB tier with more DTU.

Monitoraggio della copia con suggerimenti per l'ottimizzazione delle prestazioni

Copia incrementaleIncremental copy

Data Factory supporta scenari per la copia incrementale di dati delta da un archivio dati di origine a un archivio dati di destinazione.Data Factory supports scenarios for incrementally copying delta data from a source data store to a destination data store. Vedere Esercitazione: Copiare dati in modo incrementale.See Tutorial: incrementally copy data.

Leggere e scrivere dati partizionatiRead and write partitioned data

Nella versione 1, Azure Data Factory supportava la lettura o la scrittura di dati partizionati usando le variabili di sistema SliceStart/SliceEnd/WindowStart/WindowEnd.In version 1, Azure Data Factory supported reading or writing partitioned data by using SliceStart/SliceEnd/WindowStart/WindowEnd system variables. Nella versione corrente è possibile ottenere questo comportamento usando un parametro della pipeline e l'ora di inizio/ora prevista per il trigger come valore per il parametro.In the current version, you can achieve this behavior by using a pipeline parameter and trigger's start time/scheduled time as a value of the parameter. Per altre informazioni, vedere Come leggere o scrivere dati partizionati.For more information, see How to read or write partitioned data.

Passaggi successiviNext steps

Vedere le guide rapide, le esercitazioni e gli esempi seguenti:See the following quickstarts, tutorials, and samples: