Azure Data Factory のコピー アクティビティCopy activity in Azure Data Factory

適用対象: はいAzure Data Factory はいAzure Synapse Analytics (プレビュー) APPLIES TO: yesAzure Data Factory yesAzure Synapse Analytics (Preview)

Azure Data Factory では、コピー アクティビティを使用して、オンプレミスにあるデータ ストアやクラウド内のデータ ストアの間でデータをコピーできます。In Azure Data Factory, you can use the Copy activity to copy data among data stores located on-premises and in the cloud. データをコピーした後は、他のアクティビティを使用してさらに変換および分析できます。After you copy the data, you can use other activities to further transform and analyze it. また、コピー アクティビティを使用して、変換や分析の結果を発行し、ビジネス インテリジェンス (BI) やアプリケーションで使用することもできます。You can also use the Copy activity to publish transformation and analysis results for business intelligence (BI) and application consumption.

コピー アクティビティの役割

コピー アクティビティは、統合ランタイムで実行されます。The Copy activity is executed on an integration runtime. さまざまなデータ コピーのシナリオで、さまざまな種類の統合ランタイムを使用できます。You can use different types of integration runtimes for different data copy scenarios:

  • 任意の IP からインターネット経由でパブリックにアクセスできる 2 つのデータ ストア間でデータをコピーする場合は、コピー アクティビティに Azure 統合ランタイムを使用できます。When you're copying data between two data stores that are publicly accessible through the internet from any IP, you can use the Azure integration runtime for the copy activity. この統合ランタイムは、セキュリティで保護され、信頼性が高く、スケーラブルで、グローバルに利用できますThis integration runtime is secure, reliable, scalable, and globally available.
  • オンプレミス、またはアクセス制御を使用するネットワーク (Azure 仮想ネットワークなど) に配置されているデータ ストアとの間でデータをコピーする場合は、セルフホステッド統合ランタイムを設定する必要があります。When you're copying data to and from data stores that are located on-premises or in a network with access control (for example, an Azure virtual network), you need to set up a self-hosted integration runtime.

統合ランタイムを各ソースおよびシンク データ ストアに関連付ける必要があります。An integration runtime needs to be associated with each source and sink data store. 使用する統合ランタイムをコピー アクティビティで判別する方法の詳細については、「使用する IR の判別」を参照してください。For information about how the Copy activity determines which integration runtime to use, see Determining which IR to use.

ソースからシンクにデータをコピーするために、コピー アクティビティを実行するサービスでは次の手順が実行されます。To copy data from a source to a sink, the service that runs the Copy activity performs these steps:

  1. ソース データ ストアからデータを読み取る。Reads data from a source data store.
  2. シリアル化/逆シリアル化、圧縮/圧縮解除、列マッピングなどを実行する。Performs serialization/deserialization, compression/decompression, column mapping, and so on. この操作は、入力データセット、出力データセット、およびコピー アクティビティの構成に基づいて実行されます。It performs these operations based on the configuration of the input dataset, output dataset, and Copy activity.
  3. シンク/宛先データ ストアにデータを書き込む。Writes data to the sink/destination data store.

コピー アクティビティの概要

サポートされるデータ ストアと形式Supported data stores and formats

カテゴリCategory データ ストアData store ソースとしてサポートSupported as a source シンクとしてサポートSupported as a sink Azure IR がサポートSupported by Azure IR セルフホステッド IR がサポートSupported by self-hosted IR
AzureAzure Azure BLOB StorageAzure Blob storage
  Azure Cognitive Search インデックスAzure Cognitive Search index
  Azure Cosmos DB (SQL API)Azure Cosmos DB (SQL API)
  Azure Cosmos DB の MongoDB 用 APIAzure Cosmos DB's API for MongoDB
  Azure Data ExplorerAzure Data Explorer
  Azure Data Lake Storage Gen1Azure Data Lake Storage Gen1
  Azure Data Lake Storage Gen2Azure Data Lake Storage Gen2
  Azure Database for MariaDBAzure Database for MariaDB
  Azure Database for MySQLAzure Database for MySQL
  Azure Database for PostgreSQLAzure Database for PostgreSQL
  Azure File StorageAzure File Storage
  Azure SQL DatabaseAzure SQL Database
  Azure SQL Managed InstanceAzure SQL Managed Instance
  Azure Synapse Analytics (旧称 SQL Data Warehouse)Azure Synapse Analytics (formerly SQL Data Warehouse)
  Azure Table StorageAzure Table storage
[データベース]Database Amazon RedshiftAmazon Redshift
  Google BigQueryGoogle BigQuery
  Apache ImpalaApache Impala
  Microsoft AccessMicrosoft Access
  Presto (プレビュー)Presto (Preview)
  Open Hub を介した SAP Business WarehouseSAP Business Warehouse via Open Hub
  MDX を介した SAP Business WarehouseSAP Business Warehouse via MDX
  SAP テーブルSAP table
  SQL ServerSQL Server
NoSQLNoSQL CassandraCassandra
  Couchbase (プレビュー)Couchbase (Preview)
[最近使ったファイル]File Amazon S3Amazon S3
  ファイル システムFile system
  Google Cloud StorageGoogle Cloud Storage
汎用プロトコルGeneric protocol 汎用 HTTPGeneric HTTP
  汎用 ODataGeneric OData
  汎用 ODBCGeneric ODBC
  汎用 RESTGeneric REST
サービスとアプリServices and apps Amazon Marketplace Web ServiceAmazon Marketplace Web Service
  Common Data ServiceCommon Data Service
  Concur (プレビュー)Concur (Preview)
  Dynamics 365Dynamics 365
  Dynamics AXDynamics AX
  Dynamics CRMDynamics CRM
  Google AdWordsGoogle AdWords
  HubSpot (プレビュー)HubSpot (Preview)
  Magento (プレビュー)Magento (Preview)
  Marketo (プレビュー)Marketo (Preview)
  Microsoft 365Microsoft 365
  Oracle Eloqua (プレビュー)Oracle Eloqua (Preview)
  Oracle Responsys (プレビュー)Oracle Responsys (Preview)
  Oracle Service Cloud (プレビュー)Oracle Service Cloud (Preview)
  Paypal (プレビュー)PayPal (Preview)
  QuickBooks (プレビュー)QuickBooks (Preview)
  Salesforce Service CloudSalesforce Service Cloud
  Salesforce Marketing CloudSalesforce Marketing Cloud
  SAP Cloud for Customer (C4C)SAP Cloud for Customer (C4C)
SharePoint Online リストSharePoint Online List
  Shopify (プレビュー)Shopify (Preview)
  Square (プレビュー)Square (Preview)
  Web テーブル (HTML テーブル)Web table (HTML table)
  Zoho (プレビュー)Zoho (Preview)


"プレビュー" と記載されたコネクタは試用版です。フィードバックをお寄せください。If a connector is marked Preview, you can try it out and give us feedback. ソリューションでプレビュー版コネクタの依存関係を取得したい場合、Azure サポートにお問い合わせください。If you want to take a dependency on preview connectors in your solution, contact Azure support.

サポートされるファイル形式Supported file formats

Azure Data Factory では次のファイル形式がサポートされます。Azure Data Factory supports the following file formats. 形式ベースの設定については、各記事を参照してください。Refer to each article for format-based settings.

コピー アクティビティを使用すると、ファイル ベースの 2 つのデータ ストア間でファイルをそのままコピーできます。その場合、データはシリアル化または逆シリアル化なしで効率的にコピーされます。You can use the Copy activity to copy files as-is between two file-based data stores, in which case the data is copied efficiently without any serialization or deserialization. また、特定の形式のファイルを解析または生成することもできます。たとえば、次のような操作を実行できます。In addition, you can also parse or generate files of a given format, for example, you can perform the following:

  • SQL Server データベースからデータをコピーし、Parquet 形式で Azure Data Lake Storage Gen2 に書き込む。Copy data from a SQL Server database and write to Azure Data Lake Storage Gen2 in Parquet format.
  • オンプレミスのファイル システムからテキスト (CSV) 形式でファイルをコピーし、Azure BLOB ストレージに Avro 形式で書き込む。Copy files in text (CSV) format from an on-premises file system and write to Azure Blob storage in Avro format.
  • オンプレミスのファイル システムから zip 形式のファイルをコピーし、その場で圧縮解除して、抽出されたファイルを Azure Data Lake Storage Gen2 に書き込む。Copy zipped files from an on-premises file system, decompress them on-the-fly, and write extracted files to Azure Data Lake Storage Gen2.
  • Azure BLOB ストレージから Gzip 圧縮テキスト (CSV) 形式でデータをコピーし、Azure SQL Database に書き込む。Copy data in Gzip compressed-text (CSV) format from Azure Blob storage and write it to Azure SQL Database.
  • シリアル化/逆シリアル化または圧縮/展開を必要とする他の多くのアクティビティ。Many more activities that require serialization/deserialization or compression/decompression.

サポートされているリージョンSupported regions

コピー アクティビティが有効なサービスは、「統合ランタイムの場所」に記載されているリージョンと場所でグローバルに使うことができます。The service that enables the Copy activity is available globally in the regions and geographies listed in Azure integration runtime locations. グローバルに使用できるトポロジでは効率的なデータ移動が保証されます。このデータ移動では、通常、リージョンをまたがるホップが回避されます。The globally available topology ensures efficient data movement that usually avoids cross-region hops. 特定のリージョンで Data Factory とデータ移動を利用できるかどうかを確認するには、リージョン別の製品に関する記事を参照してください。See Products by region to check the availability of Data Factory and data movement in a specific region.


パイプラインでコピー アクティビティを実行するには、次のいずれかのツールまたは SDK を使用します。To perform the Copy activity with a pipeline, you can use one of the following tools or SDKs:

一般的に、Azure Data Factory でコピー アクティビティを使用するには、次のことを行う必要があります。In general, to use the Copy activity in Azure Data Factory, you need to:

  1. ソース データ ストアとシンク データ ストアのリンクされたサービスを作成します。Create linked services for the source data store and the sink data store. サポートされるコネクタの一覧については、この記事の「サポートされるデータ ストアと形式」セクションを参照してください。You can find the list of supported connectors in the Supported data stores and formats section of this article. 構成情報とサポートされるプロパティについては、コネクタの記事のリンクされたサービスのプロパティに関するセクションを参照してください。Refer to the connector article's "Linked service properties" section for configuration information and supported properties.
  2. ソースとシンクのデータセットを作成します。Create datasets for the source and sink. 構成情報とサポートされるプロパティについては、ソースとシンク コネクタの記事のデータセットのプロパティに関するセクションを参照してください。Refer to the "Dataset properties" sections of the source and sink connector articles for configuration information and supported properties.
  3. コピー アクティビティを含むパイプラインを作成します。Create a pipeline with the Copy activity. 次のセクションでは、例を示します。The next section provides an example.


次のコピー アクティビティのテンプレートは、サポートされるすべてのプロパティの一覧を示しています。The following template of a Copy activity contains a complete list of supported properties. 実際のシナリオに適したものを指定してください。Specify the ones that fit your scenario.

        "name": "CopyActivityTemplate",
        "type": "Copy",
        "inputs": [
                "referenceName": "<source dataset name>",
                "type": "DatasetReference"
        "outputs": [
                "referenceName": "<sink dataset name>",
                "type": "DatasetReference"
        "typeProperties": {
            "source": {
                "type": "<source type>",
            "sink": {
                "type": "<sink type>"
                "type": "TabularTranslator",
                "columnMappings": "<column mapping>"
            "dataIntegrationUnits": <number>,
            "parallelCopies": <number>,
            "enableStaging": true/false,
            "stagingSettings": {
            "enableSkipIncompatibleRow": true/false,
            "redirectIncompatibleRowSettings": {

構文の詳細Syntax details

プロパティProperty 説明Description 必須Required?
typetype コピー アクティビティの場合は、Copy に設定します。For a Copy activity, set to Copy はいYes
inputsinputs ソース データを指すように作成したデータセットを指定します。Specify the dataset that you created that points to the source data. コピー アクティビティは、1 つの入力のみをサポートします。The Copy activity supports only a single input. はいYes
outputsoutputs シンク データを指すように作成したデータセットを指定します。Specify the dataset that you created that points to the sink data. コピー アクティビティは、1 つの出力のみをサポートします。The Copy activity supports only a single output. はいYes
typePropertiestypeProperties コピー アクティビティを構成するプロパティを指定します。Specify properties to configure the Copy activity. はいYes
sourcesource データを取得するためのコピー ソースの種類と対応するプロパティを指定します。Specify the copy source type and the corresponding properties for retrieving data.
詳細については、「サポートされるデータ ストアと形式」に記載されているコネクタの記事のコピー アクティビティのプロパティに関するセクションを参照してください。For more information, see the "Copy activity properties" section in the connector article listed in Supported data stores and formats.
sinksink データを書き込むためのコピー シンクの種類と対応するプロパティを指定します。Specify the copy sink type and the corresponding properties for writing data.
詳細については、「サポートされるデータ ストアと形式」に記載されているコネクタの記事のコピー アクティビティのプロパティに関するセクションを参照してください。For more information, see the "Copy activity properties" section in the connector article listed in Supported data stores and formats.
translatortranslator ソースからシンクへの明示的な列マッピングを指定します。Specify explicit column mappings from source to sink. このプロパティは、既定のコピー動作がニーズに合わない場合に適用されます。This property applies when the default copy behavior doesn't meet your needs.
詳細については、「コピー アクティビティでのスキーマ マッピング」を参照してください。For more information, see Schema mapping in copy activity.
dataIntegrationUnitsdataIntegrationUnits Azure 統合ランタイムがデータのコピーに使用する機能の量を表す単位を指定します。Specify a measure that represents the amount of power that the Azure integration runtime uses for data copy. これらの単位は、以前はクラウド データ移動単位 (DMU) と呼ばれていました。These units were formerly known as cloud Data Movement Units (DMU).
詳細については、「データ統合単位」を参照してください。For more information, see Data Integration Units.
parallelCopiesparallelCopies ソースからのデータの読み取り時やシンクへのデータの書き込み時にコピー アクティビティで使用する並列処理を指定します。Specify the parallelism that you want the Copy activity to use when reading data from the source and writing data to the sink.
詳細については、「並列コピー」を参照してください。For more information, see Parallel copy.
preservepreserve データのコピー中にメタデータ/ACL を保存するかどうかを指定します。Specify whether to preserve metadata/ACLs during data copy.
詳細については、メタデータの保存に関する記事を参照してください。For more information, see Preserve metadata.
ソースからシンクにデータを直接コピーするのではなく、BLOB ストレージに中間データをステージングするかどうかを指定します。Specify whether to stage the interim data in Blob storage instead of directly copying data from source to sink.
役に立つシナリオと構成の詳細については、「ステージング コピー」を参照してください。For information about useful scenarios and configuration details, see Staged copy.
ソースからシンクにデータをコピーするときに互換性のない行を処理する方法を選択します。Choose how to handle incompatible rows when you copy data from source to sink.
詳細については、「フォールト トレランス」を参照してください。For more information, see Fault tolerance.


Azure Data Factory では、コピー アクティビティの実行を、視覚的に監視することも、プログラムによって監視することも可能です。You can monitor the Copy activity run in the Azure Data Factory both visually and programmatically. 詳細については、「コピー アクティビティを監視する」を参照してください。For details, see Monitor copy activity.

増分コピーIncremental copy

Data Factory を使用すると、ソース データ ストアからシンク データ ストアに差分データを増分コピーできます。Data Factory enables you to incrementally copy delta data from a source data store to a sink data store. 詳細については、チュートリアルのデータの増分コピーに関する記事を参照してください。For details, see Tutorial: Incrementally copy data.

パフォーマンスとチューニングPerformance and tuning

コピー アクティビティの監視エクスペリエンスは、コピー パフォーマンスの統計をアクティビティの実行ごとに示します。The copy activity monitoring experience shows you the copy performance statistics for each of your activity run. コピー アクティビティのパフォーマンスとスケーラビリティに関するガイド」には、Azure Data Factory でのコピー アクティビティによるデータ移動のパフォーマンスに影響する主な要因が説明されています。The Copy activity performance and scalability guide describes key factors that affect the performance of data movement via the Copy activity in Azure Data Factory. また、テスト時に観察されるパフォーマンス値の一覧が示され、コピー アクティビティのパフォーマンスを最適化する方法も説明されます。It also lists the performance values observed during testing and discusses how to optimize the performance of the Copy activity.

前回失敗した実行から再開するResume from last failed run

コピー アクティビティでは、ファイル ベースのストア間でバイナリ形式を使用してサイズの大きいファイルをそのままコピーする場合に、ソースからシンクへのフォルダー/ファイル階層を保持することを選択した場合 (Amazon S3 から Azure Data Lake Storage Gen2 にデータを移行する場合など)、前回失敗した実行からの再開をサポートします。Copy activity supports resume from last failed run when you copy large size of files as-is with binary format between file-based stores and choose to preserve the folder/file hierarchy from source to sink, e.g. to migrate data from Amazon S3 to Azure Data Lake Storage Gen2. これは、次のファイルベース コネクタに適用されます。Amazon S3Azure BlobAzure Data Lake Storage Gen1Azure Data Lake Storage Gen2Azure File Storageファイル システムFTPGoogle Cloud StorageHDFS、および SFTPIt applies to the following file-based connectors: Amazon S3, Azure Blob, Azure Data Lake Storage Gen1, Azure Data Lake Storage Gen2, Azure File Storage, File System, FTP, Google Cloud Storage, HDFS, and SFTP.

コピー アクティビティの再開は、次の 2 つの方法で利用できます。You can leverage the copy activity resume in the following two ways:

  • アクティビティ レベルの再試行: コピー アクティビティに再試行回数を設定できます。Activity level retry: You can set retry count on copy activity. パイプラインの実行中に、このコピー アクティビティの実行が失敗した場合、次の自動再試行は最後の試行の失敗ポイントから開始されます。During the pipeline execution, if this copy activity run fails, the next automatic retry will start from last trial's failure point.

  • 失敗したアクティビティから再実行する: パイプラインの実行完了後、ADF UI 監視ビューまたはプログラムによって失敗したアクティビティから再実行をトリガーすることもできます。Rerun from failed activity: After pipeline execution completion, you can also trigger a rerun from the failed activity in the ADF UI monitoring view or programmatically. 失敗したアクティビティがコピー アクティビティの場合、パイプラインはそのアクティビティから再実行されるだけでなく、前の実行の失敗ポイントからも再開されます。If the failed activity is a copy activity, the pipeline will not only rerun from this activity, but also resume from the previous run's failure point.


いくつかの注意点があります。Few points to note:

  • 再開は、ファイル レベルで行われます。Resume happens at file level. ファイルのコピー時にコピー アクティビティが失敗した場合、次回の実行時に、この特定のファイルが再コピーされます。If copy activity fails when copying a file, in next run, this specific file will be re-copied.
  • 再開が正常に機能するには、再実行の間でコピー アクティビティの設定を変更しないでください。For resume to work properly, do not change the copy activity settings between the reruns.
  • Amazon S3、Azure BLOB、Azure Data Lake Storage Gen2、および Google Cloud Storage からデータをコピーする場合、コピー アクティビティは任意の数のコピーされたファイルから再開できます。When you copy data from Amazon S3, Azure Blob, Azure Data Lake Storage Gen2 and Google Cloud Storage, copy activity can resume from arbitrary number of copied files. ソースとしてのその他のファイル ベースのコネクタの場合、現在のコピー アクティビティは、限られた数のファイルからの再開をサポートしています。通常は 1 万単位の範囲であり、ファイル パスの長さによって異なります。この数を超えるファイルが再実行中に再コピーされます。While for the rest of file-based connectors as source, currently copy activity supports resume from a limited number of files, usually at the range of tens of thousands and varies depending on the length of the file paths; files beyond this number will be re-copied during reruns.

バイナリ ファイル コピー以外の他のシナリオでは、コピー アクティビティの再実行は先頭から開始されます。For other scenarios than binary file copy, copy activity rerun starts from the beginning.

データと共にメタデータを保存するPreserve metadata along with data

ソースからシンクへデータをコピーするときに、データ レイクの移行のようなシナリオでは、コピー アクティビティを使用して、メタデータと ACL をデータと共に保存することも選択できます。While copying data from source to sink, in scenarios like data lake migration, you can also choose to preserve the metadata and ACLs along with data using copy activity. 詳細については、メタデータの保存に関する記事を参照してください。See Preserve metadata for details.

スキーマとデータ型のマッピングSchema and data type mapping

コピー アクティビティによってソース データがどのようにシンクにマップされるかについては、スキーマとデータ型のマッピングに関する記事を参照してください。See Schema and data type mapping for information about how the Copy activity maps your source data to your sink.

コピー中に列を追加するAdd additional columns during copy

ソース データ ストアからシンクにデータをコピーするだけでなく、シンクにコピーする追加データ列を追加するように構成することもできます。In addition to copying data from source data store to sink, you can also configure to add additional data columns to copy along to sink. 次に例を示します。For example:

  • ファイルベースのソースからコピーする場合は、相対ファイル パスを、データの取得元ファイルをトレースするための追加列として保存します。When copy from file-based source, store the relative file path as an additional column to trace from which file the data comes from.
  • ADF 式を含む列を追加して、パイプライン名/パイプライン ID などの ADF システム変数をアタッチするか、上流アクティビティの出力から他の動的な値を保存します。Add a column with ADF expression, to attach ADF system variables like pipeline name/pipeline ID, or store other dynamic value from upstream activity's output.
  • 静的な値を持つ列を、下流の使用ニーズに応じて追加します。Add a column with static value to meet your downstream consumption need.

コピーアクティビティ ソース タブの構成は次のとおりです。You can find the following configuration on copy activity source tab:

コピー アクティビティで列を追加する


この機能は、最新のデータセット モデルで動作します。This feature works with the latest dataset model. UI にこのオプションが表示されない場合は、新しいデータセットを作成してみてください。If you don't see this option from the UI, try creating a new dataset.

これをプログラムによって構成するには、コピー アクティビティ ソースに additionalColumns プロパティを追加します。To configure it programmatically, add the additionalColumns property in your copy activity source:

プロパティProperty 説明Description 必須Required
additionalColumnsadditionalColumns シンクにコピーするデータ列を追加します。Add additional data columns to copy to sink.

additionalColumns 配列の各オブジェクトは追加列を表します。Each object under the additionalColumns array represents an extra column. name は列名を定義します。また、value はその列のデータ値を示します。The name defines the column name, and the value indicates the data value of that column.

使用できるデータ値:Allowed data values are:
- $$FILEPATH -予約済み変数。データセットで指定されたフォルダー パスへのソース ファイルの相対パスが格納されることを示します。- $$FILEPATH - a reserved variable indicates to store the source files' relative path to the folder path specified in dataset. ファイルベースのソースに適用されます。Apply to file-based source.
- - Expression
- 静的な値- Static value


        "name": "CopyWithAdditionalColumns",
        "type": "Copy",
        "inputs": [...],
        "outputs": [...],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                "additionalColumns": [
                        "name": "filePath",
                        "value": "$$FILEPATH"
                        "name": "pipelineName",
                        "value": {
                            "value": "@pipeline().Pipeline",
                            "type": "Expression"
                        "name": "staticValue",
                        "value": "sampleValue"
            "sink": {
                "type": "<sink type>"

シンク テーブルの自動作成Auto create sink tables

SQL データベース/Azure Synapse Analytics にデータをコピーするときに、コピー先のテーブルが存在しない場合、コピー アクティビティではソース データに基づいてデータが自動的に作成されます。When copying data into SQL database/Azure Synapse Analytics, if the destination table does not exist, copy activity supports automatically creating it based on the source data. これは、データの読み込みと SQL データベース/Azure Synapse Analytics の評価をすぐに開始できるようにすることを目的としています。It aims to help you quickly get started to load the data and evaluate SQL database/Azure Synapse Analytics. データ インジェストが完了したら、必要に応じて、シンク テーブル スキーマを確認して調整できます。After the data ingestion, you can review and adjust the sink table schema according to your needs.

この機能は、任意のソースから以下のシンク データ ストアにデータをコピーする際にサポートされます。This feature is supported when copying data from any source into the following sink data stores. このオプションは、ADF のオーサリング UI – > コピー アクティビティ シンク – > [テーブル] オプション – > [Auto create table](テーブルの自動作成) の順に選択するか、またはコピー アクティビティ シンク ペイロードの tableOption プロパティを使用して確認できます。You can find the option on ADF authoring UI –> Copy activity sink –> Table option –> Auto create table, or via tableOption property in copy activity sink payload.

シンク テーブルの作成

フォールト トレランスFault tolerance

既定では、ソース データ行がシンク データ行と互換性がない場合、コピー アクティビティでデータのコピーが停止され、エラーが返されます。By default, the Copy activity stops copying data and returns a failure when source data rows are incompatible with sink data rows. コピーを成功させるには、互換性のない行をスキップし、ログに記録し、互換性のあるデータのみをコピーするようにコピー アクティビティを構成します。To make the copy succeed, you can configure the Copy activity to skip and log the incompatible rows and copy only the compatible data. 詳細については、コピー アクティビティのフォールト トレランスに関する記事を参照してください。See Copy activity fault tolerance for details.

次のステップNext steps

次のクイック スタート、チュートリアル、およびサンプルを参照してください。See the following quickstarts, tutorials, and samples: