Activité de copie dans Azure Data FactoryCopy activity in Azure Data Factory

S’APPLIQUE À : ouiAzure Data Factory ouiAzure Synapse Analytics (préversion) APPLIES TO: yesAzure Data Factory yesAzure Synapse Analytics (Preview)

Dans Azure Data Factory, vous pouvez utiliser l’activité de copie pour copier des données entre des banques de données locales et dans cloud.In Azure Data Factory, you can use the Copy activity to copy data among data stores located on-premises and in the cloud. Une fois que vous avez copié les données, vous pouvez utiliser d’autres activités pour les transformer et les analyser ultérieurement.After you copy the data, you can use other activities to further transform and analyze it. Vous pouvez également utiliser l’activité de copie pour publier les résultats de transformation et d’analyse pour l’aide à la décision (BI) et l’utilisation d’application.You can also use the Copy activity to publish transformation and analysis results for business intelligence (BI) and application consumption.

Rôle de l’activité de copie

L’activité de copie est exécutée sur un runtime d’intégration.The Copy activity is executed on an integration runtime. Vous pouvez utiliser différents types de runtimes d’intégration pour différents scénarios de copie de données :You can use different types of integration runtimes for different data copy scenarios:

  • Lorsque vous copiez des données entre deux magasins de données accessibles publiquement via Internet à partir de n’importe quelle adresse IP, vous pouvez utiliser le runtime d’intégration Azure pour l’activité de copie.When you're copying data between two data stores that are publicly accessible through the internet from any IP, you can use the Azure integration runtime for the copy activity. Ce runtime d’intégration est sécurisé, fiable, évolutif et disponible dans le monde entier.This integration runtime is secure, reliable, scalable, and globally available.
  • Lorsque vous copiez des données vers et à partir de banques de données situées localement ou dans un réseau avec contrôle d’accès (par exemple, un réseau virtuel Azure), vous devez configurer un runtime d’intégration auto-hébergé.When you're copying data to and from data stores that are located on-premises or in a network with access control (for example, an Azure virtual network), you need to set up a self-hosted integration runtime.

Un runtime d’intégration doit être associé à chaque magasin de données source et récepteur.An integration runtime needs to be associated with each source and sink data store. Pour plus d’informations sur la façon dont l’activité de copie détermine le runtime d’intégration à utiliser, consultez Choix du runtime d’intégration.For information about how the Copy activity determines which integration runtime to use, see Determining which IR to use.

Pour copier des données d’une source vers un récepteur, le service qui exécute l’activité de copie effectue les étapes suivantes :To copy data from a source to a sink, the service that runs the Copy activity performs these steps:

  1. Lit les données d’une banque de données source.Reads data from a source data store.
  2. Effectue les opérations de sérialisation/désérialisation, de compression/décompression, de mappage de colonnes, et ainsi de suite.Performs serialization/deserialization, compression/decompression, column mapping, and so on. Il effectue ces opérations en se basant sur les configurations du jeu de données d’entrée, du jeu de données de sortie et de l’activité de copie.It performs these operations based on the configuration of the input dataset, output dataset, and Copy activity.
  3. Écrit les données dans la banque de données réceptrice/de destination.Writes data to the sink/destination data store.

Vue d’ensemble de l’activité de copie

Banques de données et formats pris en chargeSupported data stores and formats

CategoryCategory Banque de donnéesData store Prise en charge en tant que sourceSupported as a source Prise en charge en tant que récepteurSupported as a sink Prise en charge par Azure IRSupported by Azure IR Prise en charge par IR auto-hébergéSupported by self-hosted IR
Microsoft AzureAzure stockage d’objets blob AzureAzure Blob storage
  Index Recherche cognitive AzureAzure Cognitive Search index
  Azure Cosmos DB (API SQL)Azure Cosmos DB (SQL API)
  API pour MongoDB d’Azure Cosmos DBAzure Cosmos DB's API for MongoDB
  Explorateur de données AzureAzure Data Explorer
  Azure Data Lake Storage Gen1Azure Data Lake Storage Gen1
  Azure Data Lake Storage Gen2Azure Data Lake Storage Gen2
  Azure Database for MariaDBAzure Database for MariaDB
  Azure Database pour MySQLAzure Database for MySQL
  Base de données Azure pour PostgreSQLAzure Database for PostgreSQL
  Stockage Fichier AzureAzure File Storage
  Azure SQL DatabaseAzure SQL Database
  Azure SQL Managed InstanceAzure SQL Managed Instance
  Azure Synapse Analytics (anciennement SQL Data Warehouse)Azure Synapse Analytics (formerly SQL Data Warehouse)
  Stockage Table AzureAzure Table storage
Sauvegarde de la base de donnéesDatabase Amazon RedshiftAmazon Redshift
  DB2DB2
  DrillDrill
  Google BigQueryGoogle BigQuery
  GreenplumGreenplum
  HBaseHBase
  HiveHive
  Apache ImpalaApache Impala
  InformixInformix
  MariaDBMariaDB
  Microsoft AccessMicrosoft Access
  MySQLMySQL
  NetezzaNetezza
  OracleOracle
  PhoenixPhoenix
  PostgreSQLPostgreSQL
  Presto (préversion)Presto (Preview)
  SAP Business Warehouse via Open HubSAP Business Warehouse via Open Hub
  SAP Business Warehouse via MDXSAP Business Warehouse via MDX
  SAP HANASAP HANA
  Table SAPSAP table
  SnowflakeSnowflake
  SparkSpark
  SQL ServerSQL Server
  SybaseSybase
  TeradataTeradata
  VerticaVertica
NoSQLNoSQL CassandraCassandra
  Couchbase (préversion)Couchbase (Preview)
  MongoDBMongoDB
FileFile Amazon S3Amazon S3
  Système de fichiersFile system
  FTPFTP
  Google Cloud StorageGoogle Cloud Storage
  HDFSHDFS
  SFTPSFTP
Protocole génériqueGeneric protocol HTTP génériqueGeneric HTTP
  OData génériqueGeneric OData
  ODBC génériqueGeneric ODBC
  REST génériqueGeneric REST
Services et applicationsServices and apps Service web Amazon MarketplaceAmazon Marketplace Web Service
  Common Data ServiceCommon Data Service
  Concur (préversion)Concur (Preview)
  Dynamics 365Dynamics 365
  Dynamics AXDynamics AX
  Dynamics CRMDynamics CRM
  Google AdWordsGoogle AdWords
  HubSpot (préversion)HubSpot (Preview)
  JiraJira
  Magento (préversion)Magento (Preview)
  Marketo (préversion)Marketo (Preview)
  Microsoft 365Microsoft 365
  Oracle Eloqua (préversion)Oracle Eloqua (Preview)
  Oracle Responsys (préversion)Oracle Responsys (Preview)
  Oracle Service Cloud (préversion)Oracle Service Cloud (Preview)
  PayPal (préversion)PayPal (Preview)
  QuickBooks (préversion)QuickBooks (Preview)
  SalesforceSalesforce
  Salesforce Service CloudSalesforce Service Cloud
  Salesforce Marketing CloudSalesforce Marketing Cloud
  SAP Cloud for Customer (C4C)SAP Cloud for Customer (C4C)
  SAP ECCSAP ECC
  ServiceNowServiceNow
Liste SharePoint OnlineSharePoint Online List
  Shopify (préversion)Shopify (Preview)
  Square (préversion)Square (Preview)
  Table web (table HTML)Web table (HTML table)
  XeroXero
  Zoho (préversion)Zoho (Preview)

Notes

Si un connecteur est marqué en préversion, vous pouvez l’essayer et nous faire part de vos commentaires.If a connector is marked Preview, you can try it out and give us feedback. Si vous souhaitez établir une dépendance sur les connecteurs en préversion dans votre solution, contactez le support Azure.If you want to take a dependency on preview connectors in your solution, contact Azure support.

Formats de fichiers pris en chargeSupported file formats

Azure Data Factory prend en charge les formats de fichier suivants.Azure Data Factory supports the following file formats. Reportez-vous à chaque article pour les paramètres basés sur le format.Refer to each article for format-based settings.

Vous pouvez utiliser l’activité de copie pour copier des fichiers en l'état entre deux banques de données de fichiers, auquel cas les données sont copiées efficacement sans sérialisation ou désérialisation.You can use the Copy activity to copy files as-is between two file-based data stores, in which case the data is copied efficiently without any serialization or deserialization. En outre, vous avez la possibilité d'analyser ou de générer des fichiers d’un format donné. Vous pouvez notamment effectuer ce qui suit :In addition, you can also parse or generate files of a given format, for example, you can perform the following:

  • Copier des données à partir d'une base de données SQL Server et écrire dans Azure Data Lake Storage Gen2 au format Parquet.Copy data from a SQL Server database and write to Azure Data Lake Storage Gen2 in Parquet format.
  • Copier des fichiers au format texte (CSV) à partir d’un système de fichiers local et les écrire dans le stockage d’objets BLOB Azure au format Avro.Copy files in text (CSV) format from an on-premises file system and write to Azure Blob storage in Avro format.
  • Copier des fichiers compressés à partir d’un système de fichiers local, les décompresser à la volée et écrire les fichiers extraits dans Azure Data Lake Storage Gen2.Copy zipped files from an on-premises file system, decompress them on-the-fly, and write extracted files to Azure Data Lake Storage Gen2.
  • Copier des données au format de texte compressé Gzip (CSV) à partir du stockage Blob Azure et les écrire dans Azure SQL Database.Copy data in Gzip compressed-text (CSV) format from Azure Blob storage and write it to Azure SQL Database.
  • Beaucoup d’autres activités qui nécessitent la sérialisation/désérialisation ou la compression/décompression.Many more activities that require serialization/deserialization or compression/decompression.

Régions prises en chargeSupported regions

Le service qui permet l’activité de copie est disponible mondialement, dans les régions et zones géographiques répertoriées dans Emplacements du runtime d’intégration Azure.The service that enables the Copy activity is available globally in the regions and geographies listed in Azure integration runtime locations. La topologie globalement disponible garantit le déplacement efficace des données en évitant généralement les sauts entre régions.The globally available topology ensures efficient data movement that usually avoids cross-region hops. Consultez Produits par région pour vérifier la disponibilité de Data Factory et le déplacement des données dans une région spécifique.See Products by region to check the availability of Data Factory and data movement in a specific region.

ConfigurationConfiguration

Pour effectuer l’activité Copie avec un pipeline, vous pouvez vous servir de l’un des outils ou kits SDK suivants :To perform the Copy activity with a pipeline, you can use one of the following tools or SDKs:

En règle générale, pour utiliser l’activité de copie dans Azure Data Factory, vous devez :In general, to use the Copy activity in Azure Data Factory, you need to:

  1. Créer des services liés pour le magasin de données source et le magasin de données récepteur.Create linked services for the source data store and the sink data store. Vous trouverez la liste des connecteurs pris en charge dans la section Magasins de données et formats pris en charge dans cet article.You can find the list of supported connectors in the Supported data stores and formats section of this article. Reportez-vous à la section « Propriétés du service lié » de l’article relatif au connecteur pour obtenir des informations sur la configuration et les propriétés prises en charge.Refer to the connector article's "Linked service properties" section for configuration information and supported properties.
  2. Créer des jeux de données pour la source et le récepteur.Create datasets for the source and sink. Pour plus d’informations sur la configuration et les propriétés prises en charge, reportez-vous aux sections « Propriétés du jeu données » des articles relatifs au connecteur source et récepteur.Refer to the "Dataset properties" sections of the source and sink connector articles for configuration information and supported properties.
  3. Créer un pipeline avec l’activité de copie.Create a pipeline with the Copy activity. La section suivante fournit un exemple.The next section provides an example.

SyntaxeSyntax

Le modèle suivant d’activité de copie contient une liste complète des propriétés prises en charge.The following template of a Copy activity contains a complete list of supported properties. Spécifiez celles qui correspondent à votre scénario.Specify the ones that fit your scenario.

"activities":[
    {
        "name": "CopyActivityTemplate",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<source dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<sink dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                <properties>
            },
            "sink": {
                "type": "<sink type>"
                <properties>
            },
            "translator":
            {
                "type": "TabularTranslator",
                "columnMappings": "<column mapping>"
            },
            "dataIntegrationUnits": <number>,
            "parallelCopies": <number>,
            "enableStaging": true/false,
            "stagingSettings": {
                <properties>
            },
            "enableSkipIncompatibleRow": true/false,
            "redirectIncompatibleRowSettings": {
                <properties>
            }
        }
    }
]

Détails de la syntaxeSyntax details

PropriétéProperty DescriptionDescription Requis ?Required?
typetype Pour une activité de copie, définissez sur CopyFor a Copy activity, set to Copy OuiYes
inputsinputs Spécifiez le jeu de données que vous avez créé qui pointe vers les données sources.Specify the dataset that you created that points to the source data. L’activité de copie ne prend en charge qu’une seule entrée.The Copy activity supports only a single input. OuiYes
outputsoutputs Spécifiez le jeu de données que vous avez créé qui pointe vers les données de récepteur.Specify the dataset that you created that points to the sink data. L’activité de copie ne prend en charge qu’une seule sortie.The Copy activity supports only a single output. OuiYes
typePropertiestypeProperties Spécifiez les propriétés pour configurer l’activité de copie.Specify properties to configure the Copy activity. OuiYes
sourcesource Spécifiez le type de source de copie et les propriétés correspondantes pour la récupération des données.Specify the copy source type and the corresponding properties for retrieving data.
Pour plus d’informations, consultez la section « Propriétés de l’activité de copie » de l’article sur le connecteur répertorié dans Magasins de données et formats pris en charge.For more information, see the "Copy activity properties" section in the connector article listed in Supported data stores and formats.
OuiYes
sinksink Spécifiez le type de récepteur de copie et les propriétés correspondantes pour l’écriture des données.Specify the copy sink type and the corresponding properties for writing data.
Pour plus d’informations, consultez la section « Propriétés de l’activité de copie » de l’article sur le connecteur répertorié dans Magasins de données et formats pris en charge.For more information, see the "Copy activity properties" section in the connector article listed in Supported data stores and formats.
OuiYes
translatortranslator Spécifiez des mappages de colonnes explicites de la source au récepteur.Specify explicit column mappings from source to sink. Cette propriété s’applique lorsque le comportement de copie par défaut ne répond pas à vos besoins.This property applies when the default copy behavior doesn't meet your needs.
Pour plus d’informations, consultez Mappage de schéma dans l’activité de copie.For more information, see Schema mapping in copy activity.
NonNo
dataIntegrationUnitsdataIntegrationUnits Spécifiez une mesure qui représente la quantité d’énergie que le runtime d’intégration Azure utilise pour la copie des données.Specify a measure that represents the amount of power that the Azure integration runtime uses for data copy. Ces unités étaient auparavant appelées unités de déplacement de données Cloud.These units were formerly known as cloud Data Movement Units (DMU).
Pour plus d’informations, consultez Unités d’intégration de données.For more information, see Data Integration Units.
NonNo
parallelCopiesparallelCopies Spécifiez le parallélisme que l’activité de copie doit utiliser lors de la lecture des données de la source et l’écriture des données vers le récepteur.Specify the parallelism that you want the Copy activity to use when reading data from the source and writing data to the sink.
Pour plus d’informations, voir Copie en parallèle.For more information, see Parallel copy.
NonNo
conservespreserve Spécifiez s’il faut conserver les métadonnées/ACL lors de la copie des données.Specify whether to preserve metadata/ACLs during data copy.
Pour plus d’informations, consultez Conserver les métadonnées.For more information, see Preserve metadata.
NonNo
enableStagingenableStaging
stagingSettingsstagingSettings
Spécifiez s’il faut effectuer une copie intermédiaire des données intermédiaires dans le stockage Blob au lieu de copier directement les données de la source vers le récepteur.Specify whether to stage the interim data in Blob storage instead of directly copying data from source to sink.
Pour plus d’informations sur les scénarios utiles et les détails de la configuration, consultez Copie intermédiaire.For information about useful scenarios and configuration details, see Staged copy.
NonNo
enableSkipIncompatibleRowenableSkipIncompatibleRow
redirectIncompatibleRowSettingsredirectIncompatibleRowSettings
Choisissez comment gérer les lignes incompatibles lorsque vous copiez des données de la source vers le récepteur.Choose how to handle incompatible rows when you copy data from source to sink.
Pour plus d’informations, consultez Tolérance aux pannes.For more information, see Fault tolerance.
NonNo

SurveillanceMonitoring

Vous pouvez surveiller l’exécution de l’activité de copie dans Azure Data Factory visuellement ou par programmation.You can monitor the Copy activity run in the Azure Data Factory both visually and programmatically. Pour plus d’informations, consultez Surveiller l’activité de copie.For details, see Monitor copy activity.

Copie incrémentielleIncremental copy

Data Factory vous permet de copier de façon incrémentielle des données delta d’un magasin de données source vers un magasin de données récepteur.Data Factory enables you to incrementally copy delta data from a source data store to a sink data store. Pour plus d’informations, consultez Didacticiel : Copier les données de façon incrémentielle.For details, see Tutorial: Incrementally copy data.

Performances et réglagePerformance and tuning

L’expérience de surveillance de l’activité de copie affiche les statistiques des performances de copie pour chaque exécution d’activité.The copy activity monitoring experience shows you the copy performance statistics for each of your activity run. Le Guide des performances et de l’évolutivité de l’activité de copie décrit les facteurs clés qui affectent les performances du déplacement des données par le biais de l’activité de copie dans Azure Data Factory.The Copy activity performance and scalability guide describes key factors that affect the performance of data movement via the Copy activity in Azure Data Factory. Il répertorie également les valeurs de performances observées pendant le test et explique comment optimiser les performances de l’activité de copie.It also lists the performance values observed during testing and discusses how to optimize the performance of the Copy activity.

Reprendre à partir de la dernière exécution ayant échouéResume from last failed run

L’activité de copie prend en charge la reprise après l’échec de la dernière exécution lorsque vous copiez une grande taille de fichiers tels quels avec un format binaire entre les magasins basés sur des fichiers et que vous choisissez de conserver la hiérarchie des dossiers/fichiers de la source au récepteur, par exemple pour migrer des données d’Amazon S3 vers Azure Data Lake Storage Gen2.Copy activity supports resume from last failed run when you copy large size of files as-is with binary format between file-based stores and choose to preserve the folder/file hierarchy from source to sink, e.g. to migrate data from Amazon S3 to Azure Data Lake Storage Gen2. Elle s’applique aux connecteurs basés sur les fichiers suivants : Amazon S3, Azure Blob, Azure Data Lake Storage Gen1, Azure Data Lake Storage Gen2, Azure File Storage, Système de fichiers, FTP, Google Cloud Storage, HDFS et SFTP.It applies to the following file-based connectors: Amazon S3, Azure Blob, Azure Data Lake Storage Gen1, Azure Data Lake Storage Gen2, Azure File Storage, File System, FTP, Google Cloud Storage, HDFS, and SFTP.

Vous pouvez tirer parti de la reprise de l’activité de copie des deux manières suivantes :You can leverage the copy activity resume in the following two ways:

  • Nouvelle tentative de niveau d’activité : Vous pouvez définir le nombre de nouvelles tentatives sur l’activité de copie.Activity level retry: You can set retry count on copy activity. Pendant l’exécution du pipeline, en cas d’échec de l’exécution de l’activité de copie, la nouvelle tentative automatique suivante démarre à partir du point d’échec de la dernière évaluation.During the pipeline execution, if this copy activity run fails, the next automatic retry will start from last trial's failure point.

  • Réexécuter à partir d’une activité ayant échoué : Une fois l’exécution du pipeline terminée, vous pouvez également déclencher une réexécution à partir de l’activité ayant échoué dans la vue d’analyse de l’interface utilisateur ADF ou par programmation.Rerun from failed activity: After pipeline execution completion, you can also trigger a rerun from the failed activity in the ADF UI monitoring view or programmatically. Si l’activité qui a échoué est une activité de copie, le pipeline n’est pas exécuté à nouveau à partir de cette activité, mais reprend également à partir du point d’échec de l’exécution précédente.If the failed activity is a copy activity, the pipeline will not only rerun from this activity, but also resume from the previous run's failure point.

    Reprendre la copie

Quelques points à noter :Few points to note:

  • La reprise se produit au niveau du fichier.Resume happens at file level. Si l’activité de copie échoue lors de la copie d’un fichier, lors de la prochaine exécution, ce fichier spécifique sera recopié.If copy activity fails when copying a file, in next run, this specific file will be re-copied.
  • Pour que la reprise fonctionne correctement, ne modifiez pas les paramètres de l’activité de copie entre les nouvelles exécutions.For resume to work properly, do not change the copy activity settings between the reruns.
  • Lorsque vous copiez des données à partir d’Amazon S3, d’un objet Blob Azure, d’Azure Data Lake Storage Gen2 et de Google Cloud Storage, l’activité de copie peut reprendre à partir d’un nombre arbitraire de fichiers copiés.When you copy data from Amazon S3, Azure Blob, Azure Data Lake Storage Gen2 and Google Cloud Storage, copy activity can resume from arbitrary number of copied files. Alors que pour le reste des connecteurs basés sur des fichiers en tant que source, l’activité de copie prend en charge la reprise à partir d’un nombre limité de fichiers, généralement une plage de dizaines de milliers de fichier, et varie en fonction de la longueur des chemins d’accès aux fichiers. les fichiers au-delà de ce nombre seront copiés à nouveau lors de la réexécution.While for the rest of file-based connectors as source, currently copy activity supports resume from a limited number of files, usually at the range of tens of thousands and varies depending on the length of the file paths; files beyond this number will be re-copied during reruns.

Pour les autres scénarios que la copie de fichiers binaires, la réexécution de l’activité de copie commence dès le début.For other scenarios than binary file copy, copy activity rerun starts from the beginning.

Conserver les métadonnées avec les donnéesPreserve metadata along with data

Lors de la copie des données de la source vers le récepteur, dans des scénarios tels que la migration d'un lac de données, vous pouvez également choisir de conserver les métadonnées et ACL avec les données à l’aide de l’activité de copie.While copying data from source to sink, in scenarios like data lake migration, you can also choose to preserve the metadata and ACLs along with data using copy activity. Pour plus d’informations, consultez Conserver les métadonnées.See Preserve metadata for details.

Mappage du schéma et du type de donnéesSchema and data type mapping

Pour plus d’informations sur la façon dont l’activité de copie met en correspondance vos données sources et votre récepteur, consultez Mappage de type de données et de schéma.See Schema and data type mapping for information about how the Copy activity maps your source data to your sink.

Ajouter des colonnes supplémentaires pendant la copieAdd additional columns during copy

En plus de copier des données d’une banque de données source vers un récepteur, vous pouvez également configurer l’ajout de colonnes de données supplémentaires à copier dans le récepteur.In addition to copying data from source data store to sink, you can also configure to add additional data columns to copy along to sink. Par exemple :For example:

  • Lors de la copie à partir d’une source basée sur un fichier, enregistrez le chemin d’accès relatif du fichier dans une colonne supplémentaire pour savoir de quel fichier proviennent les données.When copy from file-based source, store the relative file path as an additional column to trace from which file the data comes from.
  • Ajoutez une colonne avec l’expression ADF pour joindre des variables système ADF telles que le nom ou l’ID du pipeline ou stocker une autre valeur dynamique provenant de la sortie de l’activité en amont.Add a column with ADF expression, to attach ADF system variables like pipeline name/pipeline id, or store other dynamic value from upstream activity's output.
  • Ajoutez une colonne avec une valeur statique pour répondre à votre besoin de consommation en aval.Add a column with static value to meet your downstream consumption need.

Vous pouvez trouver la configuration suivante dans l’onglet source de l’activité de copie :You can find the following configuration on copy activity source tab:

Ajouter des colonnes supplémentaires dans l’activité de copie

Conseil

Cette fonctionnalité fonctionne avec le modèle de jeu de données le plus récent.This feature works with the latest dataset model. Si vous ne voyez pas cette option dans l’interface utilisateur, essayez de créer un nouveau jeu de données.If you don't see this option from the UI, try creating a new dataset.

Pour le configurer par programmation, ajoutez la propriété additionalColumns dans la source de l’activité de copie :To configure it programmatically, add the additionalColumns property in your copy activity source:

PropriétéProperty DescriptionDescription ObligatoireRequired
additionalColumnsadditionalColumns Ajoutez des colonnes de données supplémentaires à copier dans le récepteur.Add additional data columns to copy to sink.

Chaque objet sous le tableau additionalColumns représente une colonne supplémentaire.Each object under the additionalColumns array represents an extra column. name définit le nom de la colonne et value indique la valeur des données de cette colonne.The name defines the column name, and the value indicates the data value of that column.

Les valeurs de données autorisées sont :Allowed data values are:
- $$FILEPATH  : une variable réservée indique de stocker le chemin d’accès relatif des fichiers sources dans le chemin d’accès du dossier spécifié dans le jeu de données.- $$FILEPATH - a reserved variable indicates to store the source files' relative path to the folder path specified in dataset. Appliquer à la source basée sur un fichier.Apply to file-based source.
- Expression- Expression
- Valeur statique- Static value
NonNo

Exemple :Example:

"activities":[
    {
        "name": "CopyWithAdditionalColumns",
        "type": "Copy",
        "inputs": [...],
        "outputs": [...],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                "additionalColumns": [
                    {
                        "name": "filePath",
                        "value": "$$FILEPATH"
                    },
                    {
                        "name": "pipelineName",
                        "value": {
                            "value": "@pipeline().Pipeline",
                            "type": "Expression"
                        }
                    },
                    {
                        "name": "staticValue",
                        "value": "sampleValue"
                    }
                ],
                ...
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

Tolérance de panneFault tolerance

Par défaut, l’activité de copie arrête la copie des données et retourne un échec lorsque les lignes de données sources sont incompatibles avec les lignes de données du récepteur.By default, the Copy activity stops copying data and returns a failure when source data rows are incompatible with sink data rows. Pour que la copie aboutisse, vous pouvez configurer l’activité de copie afin d’ignorer et de journaliser les lignes incompatibles et de copier uniquement les données compatibles.To make the copy succeed, you can configure the Copy activity to skip and log the incompatible rows and copy only the compatible data. Pour plus d’informations, consultez Tolérance de panne de l’activité de copie.See Copy activity fault tolerance for details.

Étapes suivantesNext steps

Voir les procédures de démarrage rapide, didacticiels et exemples suivants :See the following quickstarts, tutorials, and samples: