Attività di copia in Azure Data FactoryCopy Activity in Azure Data Factory

PanoramicaOverview

In Azure Data Factory è possibile usare l'attività di copia per copiare i dati da archivi dati locali e cloud.In Azure Data Factory, you can use Copy Activity to copy data among data stores located on-premises and in the cloud. Una volta copiati, i dati possono essere ulteriormente trasformati e analizzati tramite altre attività.After the data is copied, it can be further transformed and analyzed using other activities. L'attività di copia può essere usata anche per pubblicare risultati di trasformazione e analisi per Business Intelligence (BI) e l'uso delle applicazioni.You can also use Copy Activity to publish transformation and analysis results for business intelligence (BI) and application consumption.

Ruolo dell'attività di copia

L'attività di copia viene eseguita in un runtime di integrazione.Copy Activity is executed on an Integration Runtime. Per diversi scenari di copia dei dati, è possibile sfruttare diverse versioni di Integration Runtime:For different data copy scenario, different flavors of Integration Runtime can be leveraged:

  • Quando si copiano dati tra archivi dati accessibili pubblicamente tramite Internet da qualsiasi IP, l'attività di copia può essere abilitata da Azure Integration Runtime, che è sicura, affidabile, scalabile e disponibile a livello globale.When copying data between data stores that both are publicly accessible through the internet from any IPs, copy activity can be empowered by Azure Integration Runtime, which is secure, reliable, scalable, and globally available.
  • Quando si copiano i dati da/a archivi di dati in locale o in una rete con il controllo di accesso (ad esempio, rete virtuale di Azure), è necessario configurare un runtime di integrazione self-hosted per migliorare la copia dei dati.When copying data from/to data stores located on-premises or in a network with access control (for example, Azure Virtual Network), you need to set up a self-hosted Integrated Runtime to empower data copy.

Integration Runtime deve essere associato a ogni archivio dati di origine e sink.Integration Runtime needs to be associated with each source and sink data store. Informazioni su come l'attività di copia determina quale runtime di integrazione usare.Learn details on how copy activity determines which IR to use.

L'attività di copia viene sottoposta alle fasi seguenti per copiare i dati dall'origine al sink.Copy Activity goes through the following stages to copy data from a source to a sink. Il servizio su cui si basa l'attività di copia:The service that powers Copy Activity:

  1. Legge i dati dall'archivio dati di origine.Reads data from a source data store.
  2. Esegue la serializzazione/deserializzazione, compressione/decompressione, il mapping di colonne e così via. Esegue tali operazioni sulla base delle configurazioni del set di dati di input, del set di dati di output e dell'attività di copia.Performs serialization/deserialization, compression/decompression, column mapping, etc. It does these operations based on the configurations of the input dataset, output dataset, and Copy Activity.
  3. Scrive i dati nell'archivio dati sink/di destinazione.Writes data to the sink/destination data store.

Panoramica dell'attività di copia

Archivi dati e formati supportatiSupported data stores and formats

CategoryCategory Archivio datiData store Supportato come origineSupported as a source Supportato come sinkSupported as a sink Supportato dal runtime di integrazione di AzureSupported by Azure IR Supportato dal runtime di integrazione self-hostedSupported by Self-hosted IR
AzureAzure Archiviazione BLOB di AzureAzure Blob Storage
  Azure Cosmos DB (API SQL)Azure Cosmos DB (SQL API)
  API di Azure Cosmos DB per MongoDBAzure Cosmos DB's API for MongoDB
  Esplora dati di AzureAzure Data Explorer
  Azure Data Lake Storage Gen1Azure Data Lake Storage Gen1
  Azure Data Lake Storage Gen2Azure Data Lake Storage Gen2
  Database di Azure per MariaDBAzure Database for MariaDB
  Database di Azure per MySQLAzure Database for MySQL
  Database di Azure per PostgreSQLAzure Database for PostgreSQL
  Archiviazione file di AzureAzure File Storage
  Database SQL di AzureAzure SQL Database
  Istanza gestita di database SQL di AzureAzure SQL Database Managed Instance
  Azure SQL Data WarehouseAzure SQL Data Warehouse
  Indice di Ricerca di AzureAzure Search Index
  Archiviazione tabelle di AzureAzure Table Storage
DatabaseDatabase Amazon RedshiftAmazon Redshift
  DB2DB2
  Drill (anteprima)Drill (Preview)
  Google BigQueryGoogle BigQuery
  GreenplumGreenplum
  HBaseHBase
  HiveHive
  Apache Impala (anteprima)Apache Impala (Preview)
  InformixInformix
  MariaDBMariaDB
  Microsoft AccessMicrosoft Access
  MySQLMySQL
  NetezzaNetezza
  OracleOracle
  PhoenixPhoenix
  PostgreSQLPostgreSQL
  Presto (anteprima)Presto (Preview)
  SAP Business Warehouse Open HubSAP Business Warehouse Open Hub
  SAP Business Warehouse via MDXSAP Business Warehouse via MDX
  SAP HANASAP HANA
  Tabella SAPSAP Table
  SparkSpark
  SQL ServerSQL Server
  SybaseSybase
  TeradataTeradata
  VerticaVertica
NoSQLNoSQL CassandraCassandra
  Couchbase (anteprima)Couchbase (Preview)
  MongoDBMongoDB
FileFile Amazon S3Amazon S3
  File systemFile System
  FTPFTP
  Google Cloud StorageGoogle Cloud Storage
  HDFSHDFS
  SFTPSFTP
Protocollo genericoGeneric protocol HTTP genericoGeneric HTTP
  OData genericoGeneric OData
  ODBC genericoGeneric ODBC
  REST genericoGeneric REST
Servizi e appServices and apps Amazon Marketplace Web Service (anteprima)Amazon Marketplace Web Service (Preview)
  Common Data Service per le appCommon Data Service for Apps
  Concur (anteprima)Concur (Preview)
  Dynamics 365Dynamics 365
  Dynamics AX (Anteprima)Dynamics AX (Preview)
  Dynamics CRMDynamics CRM
  Google AdWords (Anteprima)Google AdWords (Preview)
  HubSpot (anteprima)HubSpot (Preview)
  Jira (anteprima)Jira (Preview)
  Magento (anteprima)Magento (Preview)
  Marketo (anteprima)Marketo (Preview)
  Office 365Office 365
  Oracle Eloqua (anteprima)Oracle Eloqua (Preview)
  Oracle Responsys (anteprima)Oracle Responsys (Preview)
  Oracle Service Cloud (anteprima)Oracle Service Cloud (Preview)
  PayPal (anteprima)Paypal (Preview)
  QuickBooks (anteprima)QuickBooks (Preview)
  SalesforceSalesforce
  Cloud del servizio SalesforceSalesforce Service Cloud
  Salesforce Marketing Cloud (anteprima)Salesforce Marketing Cloud (Preview)
  SAP Cloud for Customer (C4C)SAP Cloud for Customer (C4C)
  SAP ECCSAP ECC
  ServiceNowServiceNow
  Shopify (anteprima)Shopify (Preview)
  Square (anteprima)Square (Preview)
  Tabella Web (tabella HTML)Web Table (HTML table)
  Xero (anteprima)Xero (Preview)
  Zoho (anteprima)Zoho (Preview)

Nota

Se un connettore è contrassegnato come Anteprima, è possibile provarlo e inviare commenti e suggerimenti.Any connector marked as Preview means that you can try it out and give us feedback. Se si vuole accettare una dipendenza dai connettori in versione di anteprima nella propria soluzione, contattare il supporto tecnico di Azure.If you want to take a dependency on preview connectors in your solution, please contact Azure support.

Formati di file supportatiSupported file formats

È possibile usare l'attività di copia per copiare i file così come sono tra due archivi dati basati su file. In questo caso i dati vengono copiati in modo efficiente senza serializzazione/deserializzazione.You can use Copy Activity to copy files as-is between two file-based data stores, in which case the data is copied efficiently without any serialization/deserialization.

L’attività di copia supporta anche la lettura e scrittura di file in formati specificati: Testo, JSON, avro, ORC e parquete compressione e decompressione dei file con i codec seguenti: Gzip, deflate, bzip2 e ZipDeflate.Copy Activity also supports reading from and writing to files in specified formats: Text, JSON, Avro, ORC, and Parquet, and compressing and decompressing files with the following codecs: GZip, Deflate, BZip2, and ZipDeflate. Vedere Formati di compressione e file supportati per i dettagli.See Supported file and compression formats with details.

È possibile ad esempio eseguire queste attività di copia:For example, you can do the following copy activities:

  • Copiare i dati in SQL Server locali e scrivere in Azure Data Lake Storage Gen2 in formato parquet.Copy data in on-premises SQL Server and write to Azure Data Lake Storage Gen2 in Parquet format.
  • Copiare i file in formato testo (CSV) dal file system locale e scrivere nel BLOB di Azure nel formato Avro.Copy files in text (CSV) format from on-premises File System and write to Azure Blob in Avro format.
  • Copiare i file compressi dal file system locale e decomprimerli Azure Data Lake Storage Gen2.Copy zipped files from on-premises File System and decompress then land to Azure Data Lake Storage Gen2.
  • Copiare i dati in formato testo (CSV) con compressione GZip dal BLOB di Azure e scrivere nel database SQL di Azure.Copy data in GZip compressed text (CSV) format from Azure Blob and write to Azure SQL Database.
  • E molti altri casi con necessità di serializzazione/deserializzazione o di compressione/decompressione.And many more cases with serialization/deserialization or compression/decompression need.

Aree supportateSupported regions

Tuttavia, il servizio alla base dell'attività di copia è disponibile a livello globale nelle aree geografiche riportate nella sezione Località del runtime di integrazione.The service that powers Copy Activity is available globally in the regions and geographies listed in Azure Integration Runtime locations. La topologia disponibile a livello globale garantisce uno spostamento di dati efficiente e di solito consente di evitare passaggi tra diverse aree.The globally available topology ensures efficient data movement that usually avoids cross-region hops. Per la disponibilità del servizio Data Factory e lo spostamento dei dati in un'area, vedere Servizi in base all'area .See Services by region for availability of Data Factory and Data Movement in a region.

ConfigurazioneConfiguration

Per usare l'attività di copia in Azure Data Factory, è necessario:To use copy activity in Azure Data Factory, you need to:

  1. Creare servizi collegati per gli archivi dati di origine e sink.Create linked services for source data store and sink data store. Per configurare le proprietà supportate, fare riferimento alla sezione "Proprietà del servizio collegato" dell'articolo sul connettore.Refer to the connector article's "Linked service properties" section on how to configure and the supported properties. È possibile trovare un elenco dei connettori supportati nella sezione relativa agli archivi di dati e ai formati supportati.You can find the supported connector list in Supported data stores and formats section.
  2. Creare i set di dati per origine e sink.Create datasets for source and sink. Vedere la sezione "Proprietà set di dati" degli articoli del connettore di origine e sink per la configurazione e le proprietà supportate.Refer to the source and sink connector articles' "Dataset properties" section on how to configure and its supported properties.
  3. Creare una pipeline con attività di copia.Create a pipeline with copy activity. Nella sezione seguente viene illustrato un esempio.The next section provides an example.

SintassiSyntax

Nel modello seguente di un'attività di copia è incluso l'elenco completo delle proprietà supportate.The following template of a copy activity contains an exhaustive list of supported properties. Specificare quelle più adatte per il proprio scenario.Specify the ones that fit your scenario.

"activities":[
    {
        "name": "CopyActivityTemplate",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<source dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<sink dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                <properties>
            },
            "sink": {
                "type": "<sink type>"
                <properties>
            },
            "translator":
            {
                "type": "TabularTranslator",
                "columnMappings": "<column mapping>"
            },
            "dataIntegrationUnits": <number>,
            "parallelCopies": <number>,
            "enableStaging": true/false,
            "stagingSettings": {
                <properties>
            },
            "enableSkipIncompatibleRow": true/false,
            "redirectIncompatibleRowSettings": {
                <properties>
            }
        }
    }
]

Dettagli sintassiSyntax details

ProprietàProperty DescrizioneDescription ObbligatoriaRequired
typetype La proprietà type di un'attività di copia deve essere impostata su: CopiaThe type property of a copy activity must be set to: Copy Yes
inputsinputs Specificare il set di dati creato che fa riferimento ai dati di origine.Specify the dataset you created which points to the source data. L'attività di copia supporta un singolo input.Copy activity supports only a single input. Yes
outputsoutputs Specificare il set di dati creato che fa riferimento ai dati sink.Specify the dataset you created which points to the sink data. L'attività di copia supporta un singolo output.Copy activity supports only a single output. Yes
typePropertiestypeProperties Un gruppo di proprietà per configurare l'attività di copia.A group of properties to configure copy activity. Yes
sourcesource Specificare il tipo di origine della copia e le proprietà corrispondenti per recuperare i dati.Specify the copy source type and the corresponding properties on how to retrieve data.

Vedere la sezione "Proprietà dell'attività di copia" nell'articolo sul connettore elencato in Archivi dati e formati supportati.Learn details from the "Copy activity properties" section in connector article listed in Supported data stores and formats.
Yes
sinksink Specificare il tipo di sink della copia e le proprietà corrispondenti per scrivere i dati.Specify the copy sink type and the corresponding properties on how to write data.

Vedere la sezione "Proprietà dell'attività di copia" nell'articolo sul connettore elencato in Archivi dati e formati supportati.Learn details from the "Copy activity properties" section in connector article listed in Supported data stores and formats.
Yes
translatortranslator Specificare il mapping esplicito di colonne da origine a sink.Specify explicit column mappings from source to sink. Si applica quando il comportamento di copia predefinito non soddisfa le esigenze.Applies when the default copy behavior cannot fulfill your need.

Vedere Mapping dello schema e dei tipi di dati.Learn details from Schema and data type mapping.
NoNo
dataIntegrationUnitsdataIntegrationUnits Specificare l'efficacia del runtime di integrazione di Azure per migliorare la copia dei dati.Specify the powerfulness of Azure Integration Runtime to empower data copy. Precedentemente noto come Unità di spostamento dati cloud.Formerly known as cloud Data Movement Units (DMU).

Altre informazioni disponibili in Data Integration Units (Unità di integrazione dei dati).Learn details from Data Integration Units.
NoNo
parallelCopiesparallelCopies Specificare il parallelismo che l'attività di copia deve usare durante la lettura dei dati dall'origine e la scrittura dei dati nel sink.Specify the parallelism that you want Copy Activity to use when reading data from source and writing data to sink.

Vedere Copia parallela.Learn details from Parallel copy.
NoNo
enableStagingenableStaging
stagingSettingsstagingSettings
Scegliere di eseguire il staging dei dati provvisori in un archivio BLOB anziché copiare direttamente i dati dall'origine al sink.Choose to stage the interim data in a blob storage instead of directly copy data from source to sink.

Informazioni sugli scenari e sui dettagli di configurazione in Copia di staging.Learn the useful scenarios and configuration details from Staged copy.
NoNo
enableSkipIncompatibleRowenableSkipIncompatibleRow
redirectIncompatibleRowSettingsredirectIncompatibleRowSettings
Scegliere come gestire le righe incompatibili durante la copia di dati dall'origine al sink.Choose how to handle incompatible rows when copying data from source to sink.

Vedere Tolleranza di errore.Learn details from Fault tolerance.
NoNo

MonitoraggioMonitoring

È possibile monitorare l'esecuzione dell'attività di copia nell'interfaccia utente "Crea e monitora" di Azure Data Factory o a livello di codice.You can monitor the copy activity run on Azure Data Factory "Author & Monitor" UI or programmatically.

Monitorare visivamenteMonitor visually

Per monitorare visivamente l'esecuzione dell'attività di copia, selezionare -> Copia e monitora -> scheda Monitoraggio della data factory. Verrà visualizzato un elenco di esecuzioni di pipeline con un collegamento per la visualizzazione delle esecuzioni delle attività nella colonna Azioni.To visually monitor the copy activity run, go to your data factory -> Author & Monitor -> Monitor tab, you see a list of pipeline runs with a "View Activity Runs" link in the Actions column.

Monitorare le esecuzioni di pipeline

Fare clic per visualizzare l'elenco delle attività in questa esecuzione di pipeline.Click to see the list of activities in this pipeline run. Nella colonna Azioni sono presenti collegamenti all'input e all'output dell'attività di copia, agli errori (se l'esecuzione dell'attività di copia ha esito negativo) e ai dettagli.In the Actions column, you have links to the copy activity input, output, errors (if copy activity run fails), and details.

Monitorare le esecuzioni delle attività

Fare clic sul collegamento "Dettagli" in Azioni per visualizzare i dettagli di esecuzione e le caratteristiche delle prestazioni dell'attività di copia.Click the "Details" link under Actions to see copy activity's execution details and performance characteristics. Vengono visualizzate informazioni quali il volume, le righe e i file di dati copiati dall'origine al sink, la velocità effettiva, i passaggi eseguiti (con la durata corrispondente) e le configurazioni usate per lo scenario di copia.It shows you information including volume/rows/files of data copied from source to sink, throughput, steps it goes through with corresponding duration and used configurations for your copy scenario.

Suggerimento

Per alcuni scenari, si vedrà anche "suggerimenti per l'ottimizzazione delle prestazioni" nella parte superiore della pagina di monitoraggio della copia, che indica il collo di bottiglia identificato e guida gli elementi da modificare in modo da aumentare la velocità effettiva di copia, vedere un esempio con i dettagli qui.For some scenarios, you will also see "Performance tuning tips" on top of the copy monitoring page, which tells you the bottleneck identified and guides you on what to change so as to boost copy throughput, see an example with details here.

Esempio: copia da Amazon S3 ad Azure Data Lake Store Dettagli esecuzione attività di monitoraggioExample: copy from Amazon S3 to Azure Data Lake Store Monitor activity run details

Esempio: copia dal database SQL di Azure ad Azure SQL Data Warehouse tramite una copia di gestione temporanea Dettagli esecuzione attività di monitoraggioExample: copy from Azure SQL Database to Azure SQL Data Warehouse using staged copy Monitor activity run details

Monitorare a livello di codiceMonitor programmatically

I dettagli dell'esecuzione dell'attività di copia e le caratteristiche delle prestazioni vengono restituiti anche nella sezione risultato dell'esecuzione dell'attività di copia > output.Copy activity execution details and performance characteristics are also returned in the Copy Activity run result -> Output section. Di seguito viene offerto l'elenco completo, ma solo i dettagli applicabili al proprio scenario di copia vengono visualizzati.Below is an exhaustive list; only the applicable ones to your copy scenario will show up. Informazioni su come monitorare l'esecuzione dell'attività nella sezione sull'avvio rapido del monitoraggio.Learn how to monitor activity run from quickstart monitoring section.

Nome proprietàProperty name DESCRIZIONEDescription UnitàUnit
dataReaddataRead Dimensioni dei dati letti nell'origineData size read from source Valore Int64 in byteInt64 value in bytes
dataWrittendataWritten Dimensioni dei dati scritti nel sinkData size written to sink Valore Int64 in byteInt64 value in bytes
filesReadfilesRead Numero di file copiati quando si copiano dati da una risorsa di archiviazione di file.Number of files being copied when copying data from file storage. Valore Int64 (senza unità)Int64 value (no unit)
filesWrittenfilesWritten Numero di file copiati quando si copiano dati in una risorsa di archiviazione di file.Number of files being copied when copying data to file storage. Valore Int64 (senza unità)Int64 value (no unit)
sourcePeakConnectionssourcePeakConnections Numero massimo di connessioni simultanee stabilite nell'archivio dati di origine durante l'esecuzione dell'attività di copia.Number of max concurrent connections established to source data store during the copy activity run. Valore Int64 (senza unità)Int64 value (no unit)
sinkPeakConnectionssinkPeakConnections Numero massimo di connessioni simultanee stabilite per l'archivio dati sink durante l'esecuzione dell'attività di copia.Number of max concurrent connections established to sink data store during the copy activity run. Valore Int64 (senza unità)Int64 value (no unit)
rowsReadrowsRead Numero di righe lette dall'origine (non applicabili per la copia binaria).Number of rows being read from source (not applicable for binary copy). Valore Int64 (senza unità)Int64 value (no unit)
rowsCopiedrowsCopied Numero di righe copiate nel sink (non applicabile per la copia binaria).Number of rows being copied to sink (not applicable for binary copy). Valore Int64 (senza unità)Int64 value (no unit)
rowsSkippedrowsSkipped Numero di righe incompatibili ignorate.Number of incompatible rows being skipped. È possibile abilitare la funzionalità impostando il valore "enableSkipIncompatibleRow" su True.You can turn on the feature by set "enableSkipIncompatibleRow" to true. Valore Int64 (senza unità)Int64 value (no unit)
copyDurationcopyDuration Durata della copia.The duration of the copy. Valore Int32 in secondiInt32 value in seconds
throughputthroughput Rapporto con il quale vengono trasferiti i dati.Ratio at which data are transferred. Numero a virgola mobile in KB/sFloating point number in KB/s
sourcePeakConnectionssourcePeakConnections Numero massimo di connessioni simultanee stabilite nell'archivio dati di origine durante la copia.Peak number of concurrent connections established to the source data store during copy. Valore Int32Int32 value
sinkPeakConnectionssinkPeakConnections Numero massimo di connessioni simultanee stabilite nell'archivio dati sink durante la copia.Peak number of concurrent connections established to the sink data store during copy. Valore Int32Int32 value
sqlDwPolyBasesqlDwPolyBase Se PolyBase viene usato per copiare i dati in SQL Data Warehouse.If PolyBase is used when copying data into SQL Data Warehouse. BooleanBoolean
redshiftUnloadredshiftUnload Se UNLOAD viene usato per copiare i dati da Redshift.If UNLOAD is used when copying data from Redshift. BooleanBoolean
hdfsDistcphdfsDistcp Se DistCp viene usato per copiare i dati da HDFS.If DistCp is used when copying data from HDFS. BooleanBoolean
effectiveIntegrationRuntimeeffectiveIntegrationRuntime Mostra gli Integration Runtime usati per migliorare l'esecuzione dell'attività, nel formato <IR name> (<region if it's Azure IR>).Show which Integration Runtime(s) is used to empower the activity run, in the format of <IR name> (<region if it's Azure IR>). Testo (stringa)Text (string)
usedDataIntegrationUnitsusedDataIntegrationUnits Le unità di integrazione dati effettive durante la copia.The effective Data Integration Units during copy. Valore Int32Int32 value
usedParallelCopiesusedParallelCopies Proprietà parallelCopies effettiva durante la copia.The effective parallelCopies during copy. Valore Int32Int32 value
redirectRowPathredirectRowPath Percorso del log delle righe incompatibili ignorate nel contenitore di archiviazione BLOB configurato in "redirectIncompatibleRowSettings".Path to the log of skipped incompatible rows in the blob storage you configure under "redirectIncompatibleRowSettings". Vedere l'esempio seguente.See below example. Testo (stringa)Text (string)
executionDetailsexecutionDetails Maggiori dettagli sulle fasi a cui viene sottoposta l'attività di copia e sui passaggi, sulla durata, sulle configurazioni usate e così via. Non è consigliabile analizzare questa sezione, perché può cambiare.More details on the stages copy activity goes through, and the corresponding steps, duration, used configurations, etc. It's not recommended to parse this section as it may change.

ADF riporta anche le durate dettagliate (in secondi) dedicate ai rispettivi detailedDurationspassaggi in.ADF also reports the detailed durations (in seconds) spent on respective steps under detailedDurations. Le durate di questi passaggi sono esclusive e vengono visualizzate solo quelle che si applicano all'esecuzione dell'attività di copia specificata:The durations of these steps are exclusive and only those that apply to the given copy activity run would show up:
- Durata dell'Accodamento (queuingDuration): Tempo trascorso fino a quando l'attività di copia non inizia effettivamente sul runtime di integrazione.- Queuing duration (queuingDuration): The elapsed time until the copy activity actually starts on the integration runtime. Se si usa il runtime di integrazione self-hosted e questo valore è di grandi dimensioni, suggerire di controllare la capacità e l'utilizzo di IR e aumentare o ridurre le prestazioni in base al carico di lavoro.If you use Self-hosted IR and this value is large, suggest to check the IR capacity and usage, and scale up/out according to your workload.
- Durata dello script di pre-copia (preCopyScriptDuration): Tempo trascorso tra l'attività di copia a partire da IR e l'attività di copia che termina l'esecuzione dello script di pre-copia nell'archivio dati sink.- Pre-copy script duration (preCopyScriptDuration): The elapsed time between copy activity starting on IR and copy activity finishing executing the pre-copy script in sink data store. Applicare quando si configura lo script di pre-copia.Apply when you configure the pre-copy script.
- Time-to-first-byte (timeToFirstByte): Tempo trascorso tra la fine del passaggio precedente e l'IR che riceve il primo byte dall'archivio dati di origine.- Time-to-first-byte (timeToFirstByte): The elapsed time between the end of the previous step and the IR receiving the first byte from the source data store. Si applicano a un'origine non basata su file.Apply to non-file-based source. Se questo valore è grande, suggerire di controllare e ottimizzare la query o il server.If this value is large, suggest to check and optimize the query or server.
- Durata trasferimento (transferDuration): Il tempo trascorso tra la fine del passaggio precedente e l'IR che trasferisce tutti i dati dall'origine al sink.- Transfer duration (transferDuration): The elapsed time between the end of the previous step and the IR transferring all the data from source to sink.
ArrayArray
perfRecommendationperfRecommendation Copia suggerimenti per l'ottimizzazione delle prestazioni.Copy performance tuning tips. Per informazioni dettagliate, vedere la sezione prestazioni e ottimizzazione .See Performance and tuning section on details. ArrayArray
"output": {
    "dataRead": 6198358,
    "dataWritten": 19169324,
    "filesRead": 1,
    "sourcePeakConnections": 1,
    "sinkPeakConnections": 2,
    "rowsRead": 39614,
    "rowsCopied": 39614,
    "copyDuration": 1325,
    "throughput": 4.568,
    "errors": [],
    "effectiveIntegrationRuntime": "DefaultIntegrationRuntime (West US)",
    "usedDataIntegrationUnits": 4,
    "usedParallelCopies": 1,
    "executionDetails": [
        {
            "source": {
                "type": "AzureBlobStorage"
            },
            "sink": {
                "type": "AzureSqlDatabase"
            },
            "status": "Succeeded",
            "start": "2019-08-06T01:01:36.7778286Z",
            "duration": 1325,
            "usedDataIntegrationUnits": 4,
            "usedParallelCopies": 1,
            "detailedDurations": {
                "queuingDuration": 2,
                "preCopyScriptDuration": 12,
                "transferDuration": 1311
            }
        }
    ],
    "perfRecommendation": [
        {
            "Tip": "Sink Azure SQL Database: The DTU utilization was high during the copy activity run. To achieve better performance, you are suggested to scale the database to a higher tier than the current 1600 DTUs.",
            "ReferUrl": "https://go.microsoft.com/fwlink/?linkid=2043368",
            "RuleName": "AzureDBTierUpgradePerfRecommendRule"
        }
    ]
}

Mapping dello schema e dei tipi di datiSchema and data type mapping

Vedere Mapping dello schema e dei tipi di dati per informazioni su come l'attività di copia esegue il mapping dei dati di origine al sink.See the Schema and data type mapping, which describes how copy activity maps your source data to sink.

Tolleranza di erroreFault tolerance

Per impostazione predefinita, l'attività di copia interrompe la copia dei dati e restituisce un errore quando rileva dati incompatibili tra l'origine e il sink.By default, copy activity stops copying data and returns a failure when it encounters incompatible data between source and sink. È possibile applicare una configurazione che preveda di ignorare e registrare le righe incompatibili e di copiare soltanto i dati compatibili affinché la copia vada a buon fine.You can explicitly configure to skip and log the incompatible rows and only copy those compatible data to make the copy succeeded. Per altri dettagli, vedere la Tolleranza di errore dell'attività di copia: ignorare le righe incompatibili.See the Copy Activity fault tolerance on more details.

Prestazioni e ottimizzazionePerformance and tuning

Vedere l'articolo Guida alle prestazioni delle attività di copia e all'ottimizzazione, che descrive i fattori chiave che influiscono sulle prestazioni di spostamento dei dati (attività di copia) in Data Factory di Azure.See the Copy Activity performance and tuning guide, which describes key factors that affect the performance of data movement (Copy Activity) in Azure Data Factory. Vengono anche elencate le prestazioni osservate durante il test interni e vengono descritti i modi per ottimizzare le prestazioni dell'attività di copia.It also lists the observed performance during internal testing and discusses various ways to optimize the performance of Copy Activity.

In alcuni casi, quando si esegue un'attività di copia in Azure Data Factory, viene direttamente visualizzato "Performance tuning tips" (Suggerimenti per l'ottimizzazione delle prestazioni) nella parte superiore della pagina di monitoraggio dell'attività di copia, come illustrato nell'esempio seguente.In some cases, when you execute a copy activity in ADF, you will directly see "Performance tuning tips" on top of the copy activity monitoring page as shown in the following example. Il testo nel riquadro non solo indica un collo di bottiglia identificato per l'esecuzione della copia specificata, ma descrive anche gli elementi da modificare in modo da migliorare la velocità effettiva di copia.It not only tells you the bottleneck identified for the given copy run, but also guides you on what to change so as to boost copy throughput. I suggerimenti per l'ottimizzazione delle prestazioni forniscono indicazioni utili, come ad esempio usare PolyBase per la copia dei dati in Azure SQL Data Warehouse, aumentare le unità UR di Azure Cosmos DB o DTU del database SQL di Azure se il collo di bottiglia dipende dalla risorsa nell'archivio dati, rimuovere la copia di gestione temporanea non necessaria e così via. Anche le regole di ottimizzazione delle prestazioni verranno gradualmente migliorate.The performance tuning tips currently provide suggestions like to use PolyBase when copying data into Azure SQL Data Warehouse, to increase Azure Cosmos DB RU or Azure SQL DB DTU when the resource on data store side is the bottleneck, to remove the unnecessary staged copy, etc. The performance tuning rules will be gradually enriched as well.

Esempio: copia nel database SQL di Azure con i suggerimenti per l'ottimizzazione delle prestazioniExample: copy into Azure SQL DB with performance tuning tips

In questo esempio, durante l'esecuzione della copia, ADF rileva che il database SQL di Azure sink raggiunge un utilizzo elevato di DTU che rallenta le operazioni di scrittura, quindi il suggerimento è quello di aumentare il livello del database SQL di Azure con più DTU.In this sample, during copy run, ADF notices that the sink Azure SQL DB reaches a high DTU utilization which slows down the write operations, so the suggestion is to increase the Azure SQL DB tier with more DTU.

Monitoraggio della copia con suggerimenti per l'ottimizzazione delle prestazioni

Copia incrementaleIncremental copy

Data Factory supporta scenari per la copia incrementale dei dati Delta da un archivio dati di origine a un archivio dati sink.Data Factory supports scenarios for incrementally copying delta data from a source data store to a sink data store. Vedere Esercitazione: Copiare dati in modo incrementale.See Tutorial: incrementally copy data.

Passaggi successiviNext steps

Vedere le guide rapide, le esercitazioni e gli esempi seguenti:See the following quickstarts, tutorials, and samples: