Activité de copie dans Azure Data FactoryCopy Activity in Azure Data Factory

Vue d'ensembleOverview

Dans Azure Data Factory, vous pouvez utiliser l’activité de copie pour copier des données entre des banques de données locales et dans cloud.In Azure Data Factory, you can use Copy Activity to copy data among data stores located on-premises and in the cloud. Une fois les données copiées, elles peuvent être transformées et analysées plus avant.After the data is copied, it can be further transformed and analyzed. Vous pouvez également utiliser l’activité de copie pour publier les résultats de transformation et d’analyse pour l’aide à la décision (BI) et l’utilisation d’application.You can also use Copy Activity to publish transformation and analysis results for business intelligence (BI) and application consumption.

Rôle d’activité de copie

L’activité de copie est exécutée sur un runtime d’intégration.Copy Activity is executed on an Integration Runtime. Pour un scénario de copie des données différent, une version différente du runtime d’intégration peut être utilisée :For different data copy scenario, different flavor of Integration Runtime can be leveraged:

  • Lors de la copie de données entre banques de données accessibles publiquement, l’activité de copie peut être dynamisée par un runtime d’intégration Azure qui est sécurisé, fiable et évolutif et disponible globalement.When copying data between data stores that both are publicly accessible, copy activity can be empowered by Azure Integration Runtime, which is secure, reliable, scalable, and globally available.
  • Lors de la copie de données entre banques de données locales ou en réseau avec contrôle d’accès (par exemple, Réseau virtuel Microsoft Azure), vous devez configurer un runtime intégré auto-hébergé pour dynamiser la copie des données.When copying data from/to data stores located on-premises or in a network with access control (for example, Azure Virtual Network), you need to set up a self-hosted Integrated Runtime to empower data copy.

Un runtime d’intégration doit être associé à chaque banque de données source et réceptrice.Integration Runtime needs to be associated with each source and sink data store. Découvrez plus de détails sur la manière dont l’activité de copie détermine le runtime intégré à utiliser.Learn details on how copy activity determines which IR to use.

Pour copier des données d’une source vers un récepteur, l’activité de copie suit les étapes suivantes.Copy Activity goes through the following stages to copy data from a source to a sink. Le service qui alimente l’activité de copie :The service that powers Copy Activity:

  1. Lit les données d’une banque de données source.Reads data from a source data store.
  2. Effectue les opérations de sérialisation/désérialisation, de compression/décompression, de mappage de colonnes, etc. Il effectue ces opérations en se basant sur les configurations du jeu de données d’entrée, du jeu de données de sortie et de l’activité de copie.Performs serialization/deserialization, compression/decompression, column mapping, etc. It does these operations based on the configurations of the input dataset, output dataset, and Copy Activity.
  3. Écrit les données dans la banque de données réceptrice/de destination.Writes data to the sink/destination data store.

Présentation de l’activité de copie

Banques de données et formats pris en chargeSupported data stores and formats

CatégorieCategory Banque de donnéesData store Prise en charge en tant que sourceSupported as a source Prise en charge en tant que récepteurSupported as a sink Prise en charge par Azure IRSupported by Azure IR Prise en charge par IR auto-hébergéSupported by Self-hosted IR
Microsoft AzureAzure Stockage Blob AzureAzure Blob Storage
  Azure Cosmos DB (API SQL)Azure Cosmos DB (SQL API)
  API pour MongoDB d’Azure Cosmos DBAzure Cosmos DB's API for MongoDB
  Explorateur de données AzureAzure Data Explorer
  Azure Data Lake Storage Gen1Azure Data Lake Storage Gen1
  Azure Data Lake Storage Gen2Azure Data Lake Storage Gen2
  Azure Database for MariaDBAzure Database for MariaDB
  Azure Database pour MySQLAzure Database for MySQL
  Base de données Azure pour PostgreSQLAzure Database for PostgreSQL
  Stockage Fichier AzureAzure File Storage
  Azure SQL DatabaseAzure SQL Database
  Azure SQL Database Managed InstanceAzure SQL Database Managed Instance
  Azure SQL Data WarehouseAzure SQL Data Warehouse
  Index Recherche AzureAzure Search Index
  Stockage de tables AzureAzure Table Storage
Base de donnéesDatabase Amazon RedshiftAmazon Redshift
  DB2DB2
  Drill (préversion)Drill (Preview)
  Google BigQueryGoogle BigQuery
  GreenplumGreenplum
  HBaseHBase
  HiveHive
  Apache Impala (préversion)Apache Impala (Preview)
  InformixInformix
  MariaDBMariaDB
  Microsoft AccessMicrosoft Access
  MySQLMySQL
  NetezzaNetezza
  OracleOracle
  PhoenixPhoenix
  PostgreSQLPostgreSQL
  Presto (préversion)Presto (Preview)
  SAP Business Warehouse Open HubSAP Business Warehouse Open Hub
  SAP Business Warehouse via MDXSAP Business Warehouse via MDX
  SAP HANASAP HANA
  SAP TableSAP Table
  SparkSpark
  SQL ServerSQL Server
  SybaseSybase
  TeradataTeradata
  VerticaVertica
NoSQLNoSQL CassandraCassandra
  Couchbase (préversion)Couchbase (Preview)
  MongoDBMongoDB
FileFile Amazon S3Amazon S3
  Système de fichiersFile System
  FTPFTP
  Google Cloud StorageGoogle Cloud Storage
  HDFSHDFS
  SFTPSFTP
Protocole génériqueGeneric protocol HTTP génériqueGeneric HTTP
  OData génériqueGeneric OData
  ODBC génériqueGeneric ODBC
  REST génériqueGeneric REST
Services et applicationsServices and apps Amazon Marketplace Web Service (préversion)Amazon Marketplace Web Service (Preview)
  Common Data Service pour les applicationsCommon Data Service for Apps
  Concur (préversion)Concur (Preview)
  Dynamics 365Dynamics 365
  Dynamics AX (préversion)Dynamics AX (Preview)
  Dynamics CRMDynamics CRM
  Google AdWords (préversion)Google AdWords (Preview)
  HubSpot (préversion)HubSpot (Preview)
  Jira (préversion)Jira (Preview)
  Magento (préversion)Magento (Preview)
  Marketo (préversion)Marketo (Preview)
  Office 365Office 365
  Oracle Eloqua (préversion)Oracle Eloqua (Preview)
  Oracle Responsys (préversion)Oracle Responsys (Preview)
  Oracle Service Cloud (préversion)Oracle Service Cloud (Preview)
  Paypal (préversion)Paypal (Preview)
  QuickBooks (préversion)QuickBooks (Preview)
  SalesforceSalesforce
  Salesforce Service CloudSalesforce Service Cloud
  Salesforce Marketing Cloud (préversion)Salesforce Marketing Cloud (Preview)
  SAP Cloud for Customer (C4C)SAP Cloud for Customer (C4C)
  SAP ECCSAP ECC
  ServiceNowServiceNow
  Shopify (préversion)Shopify (Preview)
  Square (préversion)Square (Preview)
  Table web (table HTML)Web Table (HTML table)
  Xero (préversion)Xero (Preview)
  Zoho (préversion)Zoho (Preview)

Notes

Vous pouvez essayer tous les connecteurs marqués comme étant en préversion et nous faire part de vos commentaires.Any connector marked as Preview means that you can try it out and give us feedback. Si vous souhaitez établir une dépendance sur les connecteurs en préversion dans votre solution, veuillez contacter le support Azure.If you want to take a dependency on preview connectors in your solution, please contact Azure support.

Formats de fichiers pris en chargeSupported file formats

Vous pouvez utiliser l’activité de copie pour copier des fichiers en l'état entre deux banques de données de fichiers, auquel cas les données sont copiées efficacement sans aucune sérialisation/désérialisation.You can use Copy Activity to copy files as-is between two file-based data stores, in which case the data is copied efficiently without any serialization/deserialization.

L’activité de copie prend également en charge la lecture et l’écriture de fichiers dans des formats spécifiés : Texte, JSON, Avro, ORC et Parquet et la compression et la décompression des fichiers avec les codecs suivants : GZip, Deflate, BZip2 et ZipDeflate.Copy Activity also supports reading from and writing to files in specified formats: Text, JSON, Avro, ORC, and Parquet, and compressing and decompressing files with the following codecs: GZip, Deflate, BZip2, and ZipDeflate. Pour plus d’informations, consultez Formats de fichier et de compression pris en charge.See Supported file and compression formats with details.

Par exemple, vous pouvez effectuer les activités de copie suivantes :For example, you can do the following copy activities:

  • Copier les données dans le SQL Server local et les écrire dans Azure Data Lake Storage Gen2 au format Parquet.Copy data in on-premises SQL Server and write to Azure Data Lake Storage Gen2 in Parquet format.
  • Copier des fichiers au format texte (CSV) provenant d’un système de fichiers local et les écrire dans des objets blob Azure au format Avro.Copy files in text (CSV) format from on-premises File System and write to Azure Blob in Avro format.
  • Copier les fichiers compressés depuis le système de fichiers local, les décompresser, puis accéder à Azure Data Lake Storage Gen2.Copy zipped files from on-premises File System and decompress then land to Azure Data Lake Storage Gen2.
  • Copier des données au format texte compressé GZip (CSV) provenant d’objets blob Azure et les écrire dans une base de données Azure SQL.Copy data in GZip compressed text (CSV) format from Azure Blob and write to Azure SQL Database.
  • Et d’autres nombreux cas impliquant la sérialisation/désérialisation ou la compression/décompression.And many more cases with serialization/deserialization or compression/decompression need.

Régions prises en chargeSupported regions

Le service qui propose l’activité de copie est disponible mondialement, dans les régions et zones géographiques répertoriées dans Emplacement du runtime d’intégration.The service that powers Copy Activity is available globally in the regions and geographies listed in Azure Integration Runtime locations. La topologie globalement disponible garantit le déplacement efficace des données en évitant généralement les sauts entre régions.The globally available topology ensures efficient data movement that usually avoids cross-region hops. Consultez la section Services par région pour connaître la disponibilité de Data Factory et du déplacement des données dans une région.See Services by region for availability of Data Factory and Data Movement in a region.

ConfigurationConfiguration

Pour utiliser l’activité de copie dans Azure Data Factory, vous devez :To use copy activity in Azure Data Factory, you need to:

  1. Créer des services liés pour les banques de données source et réceptrice.Create linked services for source data store and sink data store. Pour connaître la configuration et les propriétés prises en charge, voir la section « Propriétés du service lié » de l’article relatif au connecteur.Refer to the connector article's "Linked service properties" section on how to configure and the supported properties. La liste des connecteurs pris en charge figure dans la section Banques de données et formats pris en charge.You can find the supported connector list in Supported data stores and formats section.
  2. Créer des jeux de données pour les banques de données source et réceptrice.Create datasets for source and sink. Pour connaître la configuration et les propriétés prises en charge, voir la section « Propriétés du jeu de données » des articles relatifs aux connecteurs source et récepteur.Refer to the source and sink connector articles' "Dataset properties" section on how to configure and the supported properties.
  3. Créer un pipeline avec une activité de copie.Create a pipeline with copy activity. La section suivante fournit un exemple.The next section provides an example.

SyntaxeSyntax

Le modèle suivant d’activité de copie contient une liste exhaustive des propriétés prises en charge.The following template of a copy activity contains an exhaustive list of supported properties. Spécifiez celles qui correspondent à votre scénario.Specify the ones that fit your scenario.

"activities":[
    {
        "name": "CopyActivityTemplate",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<source dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<sink dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                <properties>
            },
            "sink": {
                "type": "<sink type>"
                <properties>
            },
            "translator":
            {
                "type": "TabularTranslator",
                "columnMappings": "<column mapping>"
            },
            "dataIntegrationUnits": <number>,
            "parallelCopies": <number>,
            "enableStaging": true/false,
            "stagingSettings": {
                <properties>
            },
            "enableSkipIncompatibleRow": true/false,
            "redirectIncompatibleRowSettings": {
                <properties>
            }
        }
    }
]

Détails de la syntaxeSyntax details

PropriétéProperty DescriptionDescription ObligatoireRequired
Typetype La propriété type d’une activité de copie doit être définie sur : CopyThe type property of a copy activity must be set to: Copy OUIYes
inputsinputs Spécifiez le jeu de données que vous avez créé qui pointe vers les données sources.Specify the dataset you created which points to the source data. L’activité de copie ne prend en charge qu’une seule entrée.Copy activity supports only a single input. OUIYes
outputsoutputs Spécifiez le jeu de données que vous avez créé qui pointe vers les données du récepteur.Specify the dataset you created which points to the sink data. L’activité de copie ne prend en charge qu’une seule sortie.Copy activity supports only a single output. OUIYes
typePropertiestypeProperties Groupe de propriétés pour configurer l’activité de copie.A group of properties to configure copy activity. OUIYes
sourcesource Spécifiez le type de source de la copie et les propriétés correspondantes concernant la façon d’extraire les données.Specify the copy source type and the corresponding properties on how to retrieve data.

Découvrez plus de détails dans la section « Propriétés de l’activité de copie » de l’article sur le connecteur répertorié dans Banques de données et formats pris en charge.Learn details from the "Copy activity properties" section in connector article listed in Supported data stores and formats.
OUIYes
sinksink Spécifiez le type de récepteur de copie et les propriétés correspondantes concernant la manière d’écrire les données.Specify the copy sink type and the corresponding properties on how to write data.

Découvrez plus de détails dans la section « Propriétés de l’activité de copie » de l’article sur le connecteur répertorié dans Banques de données et formats pris en charge.Learn details from the "Copy activity properties" section in connector article listed in Supported data stores and formats.
OUIYes
translatortranslator Spécifiez des mappages de colonnes explicites de la source au récepteur.Specify explicit column mappings from source to sink. S’applique lorsque le comportement de copie par défaut ne peut pas répondre à vos besoins.Applies when the default copy behavior cannot fulfill your need.

Découvrez plus de détails sur le Mappage de schéma et de type de données.Learn details from Schema and data type mapping.
NonNo
dataIntegrationUnitsdataIntegrationUnits Spécifiez la puissance du runtime d’intégration Azure pour dynamiser la copie des données.Specify the powerfulness of Azure Integration Runtime to empower data copy. Anciennement appelé Unités de déplacement de données cloud.Formerly known as cloud Data Movement Units (DMU).

Plus d’informations, consultez unités d’intégration de données.Learn details from Data Integration Units.
NonNo
parallelCopiesparallelCopies Spécifiez le parallélisme que l’activité de copie doit utiliser lors de la lecture des données de la source et l’écriture des données sur le récepteur.Specify the parallelism that you want Copy Activity to use when reading data from source and writing data to sink.

Découvrez plus de détails sur la Copie parallèle.Learn details from Parallel copy.
NonNo
enableStagingenableStaging
stagingSettingsstagingSettings
Choisissez cette option pour placer les données dans un stockage blob intermédiaire au lieu de les copier des données directement de la source au récepteur.Choose to stage the interim data in a blob storage instead of directly copy data from source to sink.

Découvrez les scénarios et des détails de configuration utiles d’une Copie intermédiaire.Learn the useful scenarios and configuration details from Staged copy.
NonNo
enableSkipIncompatibleRowenableSkipIncompatibleRow
redirectIncompatibleRowSettingsredirectIncompatibleRowSettings
Choisissez comment gérer les lignes incompatibles lors de la copie de données de la source vers le récepteur.Choose how to handle incompatible rows when copying data from source to sink.

Découvrez plus de détails sur la Tolérance de panne.Learn details from Fault tolerance.
NonNo

SurveillanceMonitoring

Vous pouvez surveiller l’exécution de l’activité de copie dans l’interface utilisateur « Créer et surveiller » d’Azure Data Factory ou par programmation.You can monitor the copy activity run on Azure Data Factory "Author & Monitor" UI or programmatically. Vous pouvez ensuite comparer les performances et la configuration de votre scénario aux performances de référence de l’activité de copie testée en interne.You can then compare the performance and configuration of your scenario to Copy Activity's performance reference from in-house testing.

Surveiller visuellementMonitor visually

Pour surveiller visuellement l’exécution de l’activité de copie, accédez à votre fabrique de données -> Créer et surveiller -> onglet Surveiller. Une liste d’exécutions de pipeline s’affiche avec un lien « Afficher les exécutions d’activité » dans la colonne Actions.To visually monitor the copy activity run, go to your data factory -> Author & Monitor -> Monitor tab, you see a list of pipeline runs with a "View Activity Runs" link in the Actions column.

Surveiller des exécutions de pipelines

Cliquez pour afficher la liste des activités dans cette exécution de pipeline.Click to see the list of activities in this pipeline run. Dans la colonne Actions figurent des liens vers l’entrée, la sortie, les erreurs (si l’exécution de l’activité de copie échoue) et les détails de l’activité de copie.In the Actions column, you have links to the copy activity input, output, errors (if copy activity run fails), and details.

Surveiller des exécutions d’activités

Cliquez sur le lien « Détails » sous Actions pour afficher les détails et les caractéristiques de performances de l’exécution de l’activité de copie.Click the "Details" link under Actions to see copy activity's execution details and performance characteristics. Parmi les informations répertoriées figurent le volume/les lignes/les fichiers de données copiés de la source vers le récepteur, le débit, les étapes effectuées avec la durée correspondante, et les configurations utilisées pour votre scénario de copie.It shows you information including volume/rows/files of data copied from source to sink, throughput, steps it goes through with corresponding duration and used configurations for your copy scenario.

Conseil

Dans certains scénarios, vous pouvez également voir « Conseils pour le réglage des performances » en haut de la page de surveillance de la copie, qui vous indique le goulot d’étranglement identifié et vous guide pour savoir quelles modifications apporter pour accélérer le débit de copie ; consultez l’exemple détaillé ici.For some scenarios, you will also see "Performance tuning tips" on top of the copy monitoring page, which tells you the bottleneck identified and guides you on what to change so as to boost copy throughput, see example with details here.

Exemple : copier d’Amazon S3 vers Azure Data Lake Store Surveiller les détails de l’exécution d’activitéExample: copy from Amazon S3 to Azure Data Lake Store Monitor activity run details

Exemple : copier d’Azure SQL Database vers Azure SQL Data Warehouse à l’aide de la copie intermédiaire Surveiller les détails de l’exécution d’activitéExample: copy from Azure SQL Database to Azure SQL Data Warehouse using staged copy Monitor activity run details

Surveiller par programmationMonitor programmatically

Les détails de l’exécution de l’activité de copie et les caractéristiques de performances sont également retournés dans le résultat d’exécution de l’activité copie -> section Sortie.Copy activity execution details and performance characteristics are also returned in Copy Activity run result -> Output section. Voici une liste exhaustive ; seuls les détails applicables à votre scénario de copie seront affichés.Below is an exhaustive list; only the applicable ones to your copy scenario will show up. Découvrez comment surveiller l’exécution de l’activité dans la section relative à la surveillance du démarrage rapide.Learn how to monitor activity run from quickstart monitoring section.

Nom de la propriétéProperty name DescriptionDescription UnitéUnit
dataReaddataRead Taille des données lues à partir de la sourceData size read from source Valeur Int64 en octetsInt64 value in bytes
dataWrittendataWritten Taille des données écrites dans le récepteurData size written to sink Valeur Int64 en octetsInt64 value in bytes
filesReadfilesRead Nombre de fichiers copiés lors de la copie de données à partir du stockage de fichier.Number of files being copied when copying data from file storage. Valeur Int64 (aucune unité)Int64 value (no unit)
filesWrittenfilesWritten Nombre de fichiers copiés lors de la copie de données vers le stockage de fichier.Number of files being copied when copying data to file storage. Valeur Int64 (aucune unité)Int64 value (no unit)
rowsReadrowsRead Nombre de lignes lues à partir de la source (non applicable pour une copie binaire).Number of rows being read from source (not applicable for binary copy). Valeur Int64 (aucune unité)Int64 value (no unit)
rowsCopiedrowsCopied Nombre de lignes copiées dans le récepteur (non applicable pour une copie binaire).Number of rows being copied to sink (not applicable for binary copy). Valeur Int64 (aucune unité)Int64 value (no unit)
rowsSkippedrowsSkipped Nombre de lignes incompatibles ignorées.Number of incompatible rows being skipped. Vous pouvez activer la fonctionnalité en définissant « enableSkipIncompatibleRow » sur true.You can turn on the feature by set "enableSkipIncompatibleRow" to true. Valeur Int64 (aucune unité)Int64 value (no unit)
throughputthroughput Taux de transfert des données.Ratio at which data are transferred. Nombre à virgule flottante exprimé en Ko/sFloating point number in KB/s
copyDurationcopyDuration Durée de la copie.The duration of the copy. Valeur Int32 en secondesInt32 value in seconds
sourcePeakConnectionssourcePeakConnections Nombre maximal de connexions simultanées établies au magasin de données source pendant la copie.Peak number of concurrent connections established to the source data store during copy. Valeur Int32Int32 value
sinkPeakConnectionssinkPeakConnections Nombre maximal de connexions simultanées établies au magasin de données récepteur pendant la copie.Peak number of concurrent connections established to the sink data store during copy. Valeur Int32Int32 value
sqlDwPolyBasesqlDwPolyBase Si PolyBase est utilisé lors de la copie de données dans SQL Data Warehouse.If PolyBase is used when copying data into SQL Data Warehouse. BooleanBoolean
redshiftUnloadredshiftUnload Si UNLOAD est utilisé lors de la copie de données à partir de Redshift.If UNLOAD is used when copying data from Redshift. BooleanBoolean
hdfsDistcphdfsDistcp Si DistCp est utilisé lors de la copie de données à partir de HDFS.If DistCp is used when copying data from HDFS. BooleanBoolean
effectiveIntegrationRuntimeeffectiveIntegrationRuntime Affichez la ou les infrastructures Integration Runtime permettant de dynamiser l’exécution d’activité au format « <IR name> (<region if it's Azure IR>) ».Show which Integration Runtime(s) is used to empower the activity run, in the format of <IR name> (<region if it's Azure IR>). Texte (chaîne)Text (string)
usedDataIntegrationUnitsusedDataIntegrationUnits Unités d’intégration de données effectives pendant la copie.The effective Data Integration Units during copy. Valeur Int32Int32 value
usedParallelCopiesusedParallelCopies Nombre effectif de parallelCopies pendant la copie.The effective parallelCopies during copy. Valeur Int32Int32 value
redirectRowPathredirectRowPath Chemin d’accès du journal des lignes incompatibles ignorées dans le stockage blob que vous configurez sous « redirectIncompatibleRowSettings ».Path to the log of skipped incompatible rows in the blob storage you configure under "redirectIncompatibleRowSettings". Voir exemple ci-dessous.See below example. Texte (chaîne)Text (string)
executionDetailsexecutionDetails Détails supplémentaires sur les étapes effectuées lors de l’activité de copie, ainsi que les étapes correspondantes, la durée, les configurations utilisées, et ainsi de suite. Il n’est pas recommandé d’analyser cette section, car elle peut changer.More details on the stages copy activity goes through, and the corresponding steps, duration, used configurations, etc. It's not recommended to parse this section as it may change. TableauArray
"output": {
    "dataRead": 107280845500,
    "dataWritten": 107280845500,
    "filesRead": 10,
    "filesWritten": 10,
    "copyDuration": 224,
    "throughput": 467707.344,
    "errors": [],
    "effectiveIntegrationRuntime": "DefaultIntegrationRuntime (East US 2)",
    "usedDataIntegrationUnits": 32,
    "usedParallelCopies": 8,
    "executionDetails": [
        {
            "source": {
                "type": "AmazonS3"
            },
            "sink": {
                "type": "AzureDataLakeStore"
            },
            "status": "Succeeded",
            "start": "2018-01-17T15:13:00.3515165Z",
            "duration": 221,
            "usedDataIntegrationUnits": 32,
            "usedParallelCopies": 8,
            "detailedDurations": {
                "queuingDuration": 2,
                "transferDuration": 219
            }
        }
    ]
}

Mappage du schéma et du type de donnéesSchema and data type mapping

Voir la section Mappage du schéma et du type de données qui décrit la manière dont l’activité de copie mappe vos données source au récepteur.See the Schema and data type mapping, which describes how copy activity maps your source data to sink.

Tolérance de panneFault tolerance

Par défaut, l’activité de copie arrête la copie de données et retourne une erreur quand elle rencontre des données incompatibles entre la source et le récepteur.By default, copy activity stops copying data and returns failure when it encounters incompatible data between source and sink. Vous pouvez définir une configuration explicite pour ignorer et journaliser les lignes incompatibles et ne copier que les données compatibles pour assurer la réussite de la copie.You can explicitly configure to skip and log the incompatible rows and only copy those compatible data to make the copy succeeded. Pour plus de détails, voir Tolérance de panne de l’activité de copie.See the Copy Activity fault tolerance on more details.

Performances et réglagePerformance and tuning

Consultez Guide des performances et de l’optimisation de l’activité de copie, qui décrit les facteurs clés affectant les performances du déplacement de données dans Azure Data Factory (activité de copie).See the Copy Activity performance and tuning guide, which describes key factors that affect the performance of data movement (Copy Activity) in Azure Data Factory. Il répertorie également les performances observées lors des tests internes, et présente les différentes manières d’optimiser les performances de l’activité de copie.It also lists the observed performance during internal testing and discusses various ways to optimize the performance of Copy Activity.

Dans certains cas, lorsque vous exécutez une activité de copie dans ADF, vous voyez directement « Conseils pour le réglage des performances » en haut de la page de surveillance de l’activité de copie comme indiqué dans l’exemple suivant.In some cases, when you execute a copy activity in ADF, you will directly see "Performance tuning tips" on top of the copy activity monitoring page as shown in the following example. En plus de vous indiquer le goulot d’étranglement identifié pour l’exécution de la copie, il vous guide sur les modifications à apporter pour accélérer le débit de copie.It not only tells you the bottleneck identified for the given copy run, but also guides you on what to change so as to boost copy throughput. Actuellement, les conseils pour le réglage des performances offrent des suggestions : par exemple, utiliser PolyBase lors de la copie de données dans Azure SQL Data Warehouse, augmenter l’unité de requête Azure Cosmos DB ou l’unité de transaction de base de données Azure SQL Database quand la ressource côté magasin de données est le goulot d’étranglement, supprimer la copie intermédiaire non nécessaire, etc. Les règles d'optimisation des performances seront également enrichies de façon progressive.The performance tuning tips currently provide suggestions like to use PolyBase when copying data into Azure SQL Data Warehouse, to increase Azure Cosmos DB RU or Azure SQL DB DTU when the resource on data store side is the bottleneck, to remove the unnecessary staged copy, etc. The performance tuning rules will be gradually enriched as well.

Exemple : copier dans Azure SQL Database avec des conseils pour le réglage des performancesExample: copy into Azure SQL DB with performance tuning tips

Dans cet exemple, lors l’exécution de la copie, ADF remarque que l’instance Azure SQL DB de réception atteint une utilisation d’unités de transaction de base de données élevée qui ralentit les opérations d’écriture. La suggestion est d’augmenter le niveau Azure SQL DB avec plus de DTU.In this sample, during copy run, ADF notice the sink Azure SQL DB reaches high DTU utilization which slows down the write operations, thus the suggestion is to increase the Azure SQL DB tier with more DTU.

Surveillance de la copie avec des conseils pour le réglage des performances

Copie incrémentielleIncremental copy

Data Factory prend en charge les scénarios de copie incrémentielle de données delta d’un magasin de données source vers un magasin de données de destination.Data Factory supports scenarios for incrementally copying delta data from a source data store to a destination data store. Consultez Didacticiel : Copier de façon incrémentielle des données.See Tutorial: incrementally copy data.

Lire et écrire des données partitionnéesRead and write partitioned data

Dans la version 1, Azure Data Factory prenait en charge la lecture et l’écriture de données partitionnées à l’aide des variables système SliceStart/SliceEnd/WindowStart/WindowEnd.In version 1, Azure Data Factory supported reading or writing partitioned data by using SliceStart/SliceEnd/WindowStart/WindowEnd system variables. Dans la version actuelle, ce comportement est obtenu à l’aide d’un paramètre de pipeline ayant comme valeur une heure de début ou une heure planifiée de déclencheur.In the current version, you can achieve this behavior by using a pipeline parameter and trigger's start time/scheduled time as a value of the parameter. Pour plus d’informations, consultez la page Guide pratique pour lire ou écrire des données partitionnées.For more information, see How to read or write partitioned data.

Étapes suivantesNext steps

Voir les procédures de démarrage rapide, didacticiels et exemples suivants :See the following quickstarts, tutorials, and samples: