Azure Data Factory を使用して Azure Blob Storage から Azure SQL Database のデータベースにデータをコピーするCopy data from Azure Blob storage to a database in Azure SQL Database by using Azure Data Factory

適用対象: Azure Data Factory Azure Synapse Analytics

このチュートリアルでは、Azure Data Factory ユーザー インターフェイス (UI) を使用してデータ ファクトリを作成します。In this tutorial, you create a data factory by using the Azure Data Factory user interface (UI). このデータ ファクトリのパイプラインでは、Azure Blob Storage から Azure SQL Database のデータベースにデータをコピーします。The pipeline in this data factory copies data from Azure Blob storage to a database in Azure SQL Database. このチュートリアルの構成パターンは、ファイルベースのデータ ストアからリレーショナル データ ストアへのコピーに適用されます。The configuration pattern in this tutorial applies to copying from a file-based data store to a relational data store. ソースおよびシンクとしてサポートされているデータ ストアの一覧については、サポートされているデータ ストアに関する表を参照してください。For a list of data stores supported as sources and sinks, see the supported data stores table.

注意

Data Factory を初めて使用する場合は、「Azure Data Factory の概要」を参照してください。If you're new to Data Factory, see Introduction to Azure Data Factory.

このチュートリアルでは、以下の手順を実行します。In this tutorial, you perform the following steps:

  • データ ファクトリを作成します。Create a data factory.
  • コピー アクティビティを含むパイプラインを作成します。Create a pipeline with a copy activity.
  • パイプラインをテスト実行します。Test run the pipeline.
  • パイプラインを手動でトリガーします。Trigger the pipeline manually.
  • スケジュールに基づいてパイプラインをトリガーします。Trigger the pipeline on a schedule.
  • パイプラインとアクティビティの実行を監視します。Monitor the pipeline and activity runs.

前提条件Prerequisites

  • Azure サブスクリプションAzure subscription. Azure サブスクリプションをお持ちでない場合は、開始する前に無料の Azure アカウントを作成してください。If you don't have an Azure subscription, create a free Azure account before you begin.
  • Azure ストレージ アカウントAzure storage account. Blob Storage を "ソース" データ ストアとして使用します。You use Blob storage as a source data store. ストレージ アカウントがない場合の作成手順については、Azure のストレージ アカウントの作成に関するページを参照してください。If you don't have a storage account, see Create an Azure storage account for steps to create one.
  • Azure SQL データベースAzure SQL Database. データベースを "シンク" データ ストアとして使用します。You use the database as a sink data store. Azure SQL Database のデータベースがない場合の作成手順については、Azure SQL Database のデータベースの作成に関するページを参照してください。If you don't have a database in Azure SQL Database, see the Create a database in Azure SQL Database for steps to create one.

BLOB と SQL テーブルを作成するCreate a blob and a SQL table

ここからは、次の手順を実行して、チュートリアルで使用する Blob Storage と SQL データベースを準備します。Now, prepare your Blob storage and SQL database for the tutorial by performing the following steps.

ソース BLOB を作成するCreate a source blob

  1. メモ帳を起動します。Launch Notepad. 次のテキストをコピーし、emp.txt ファイルとしてディスクに保存します。Copy the following text, and save it as an emp.txt file on your disk:

    FirstName,LastName
    John,Doe
    Jane,Doe
    
  2. Blob Storage に adftutorial という名前のコンテナーを作成します。Create a container named adftutorial in your Blob storage. このコンテナーに input という名前のフォルダーを作成します。Create a folder named input in this container. 次に、input フォルダーに emp.txt ファイルをアップロードします。Then, upload the emp.txt file to the input folder. Azure Portal を使用するか、または Azure Storage Explorer などのツールを使用して、これらのタスクを実行します。Use the Azure portal or tools such as Azure Storage Explorer to do these tasks.

シンク SQL テーブルを作成するCreate a sink SQL table

  1. 次の SQL スクリプトを使用して、dbo.emp テーブルをデータベースに作成します。Use the following SQL script to create the dbo.emp table in your database:

    CREATE TABLE dbo.emp
    (
        ID int IDENTITY(1,1) NOT NULL,
        FirstName varchar(50),
        LastName varchar(50)
    )
    GO
    
    CREATE CLUSTERED INDEX IX_emp_ID ON dbo.emp (ID);
    
  2. Azure サービスに SQL Server へのアクセスを許可します。Allow Azure services to access SQL Server. Data Factory から SQL Server にデータを書き込むことができるように、SQL Server で [Azure サービスへのアクセスを許可]オン になっていることを確認します。Ensure that Allow access to Azure services is turned ON for your SQL Server so that Data Factory can write data to your SQL Server. この設定を確認して有効にするには、論理 SQL サーバーで [概要] > [サーバー ファイアウォールの設定] に移動し、 [Azure サービスへのアクセスを許可][オン] に設定します。To verify and turn on this setting, go to logical SQL server > Overview > Set server firewall> set the Allow access to Azure services option to ON.

Data Factory の作成Create a data factory

この手順では、データ ファクトリを作成するほか、Data Factory UI を起動してそのデータ ファクトリにパイプラインを作成します。In this step, you create a data factory and start the Data Factory UI to create a pipeline in the data factory.

  1. Microsoft Edge または Google Chrome を開きます。Open Microsoft Edge or Google Chrome. 現在、Data Factory の UI がサポートされる Web ブラウザーは Microsoft Edge と Google Chrome だけです。Currently, Data Factory UI is supported only in Microsoft Edge and Google Chrome web browsers.

  2. 左側のメニューで、 [リソースの作成] > [統合] > [Data Factory] を選択します。On the left menu, select Create a resource > Integration > Data Factory.

  3. [Create Data Factory](データ ファクトリの作成) ページの [基本] タブで、データ ファクトリを作成する Azure サブスクリプション を選択します。On the Create Data Factory page, under Basics tab, select the Azure Subscription in which you want to create the data factory.

  4. [リソース グループ] で、次の手順のいずれかを行います。For Resource Group, take one of the following steps:

    a.a. ドロップダウン リストから既存のリソース グループを選択します。Select an existing resource group from the drop-down list.

    b.b. [新規作成] を選択し、新しいリソース グループの名前を入力します。Select Create new, and enter the name of a new resource group.

    リソース グループの詳細については、リソース グループを使用した Azure のリソースの管理に関するページを参照してください。To learn about resource groups, see Use resource groups to manage your Azure resources.

  5. [リージョン] で、データ ファクトリの場所を選択します。Under Region, select a location for the data factory. サポートされている場所のみがドロップダウン リストに表示されます。Only locations that are supported are displayed in the drop-down list. データ ファクトリによって使用されるデータ ストア (Azure Storage、SQL Database など) やコンピューティング (Azure HDInsight など) は、他のリージョンに存在していてもかまいません。The data stores (for example, Azure Storage and SQL Database) and computes (for example, Azure HDInsight) used by the data factory can be in other regions.

  6. [名前] で、「ADFTutorialDataFactory」と入力します。Under Name, enter ADFTutorialDataFactory.

    Azure データ ファクトリの名前は グローバルに一意 にする必要があります。The name of the Azure data factory must be globally unique. データ ファクトリの名前の値に関するエラー メッセージが表示された場合は、別の名前を入力してください。If you receive an error message about the name value, enter a different name for the data factory. (yournameADFTutorialDataFactory など)。(for example, yournameADFTutorialDataFactory). Data Factory アーティファクトの名前付け規則については、Data Factory の名前付け規則に関するページを参照してください。For naming rules for Data Factory artifacts, see Data Factory naming rules.

    重複する名前に関する、新しい Data Factory のエラーメッセージ。

  7. [バージョン] で、 [V2] を選択します。Under Version, select V2.

  8. 上部にある [Git configuration](Git 構成) タブを選択し、 [Configure Git later](後で Git を構成する) チェック ボックスをオンにします。Select Git configuration tab on the top, and select the Configure Git later check box.

  9. [確認と作成] を選択し、検証に成功したら [作成] を選択します。Select Review + create, and select Create after the validation is passed.

  10. 作成が完了すると、その旨が通知センターに表示されます。After the creation is finished, you see the notice in Notifications center. [リソースに移動] を選択して、Data factory ページに移動します。Select Go to resource to navigate to the Data factory page.

  11. [Author & Monitor](作成と監視) を選択して、別のタブで Azure Data Factory (UI) を起動します。Select Author & Monitor to launch the Azure Data Factory UI in a separate tab.

パイプラインを作成するCreate a pipeline

この手順では、コピー アクティビティが含まれたパイプラインをデータ ファクトリに作成します。In this step, you create a pipeline with a copy activity in the data factory. コピー アクティビティによって、Blob Storage から SQL Database にデータがコピーされます。The copy activity copies data from Blob storage to SQL Database. クイックスタート チュートリアルでは、次の手順でパイプラインを作成しました。In the Quickstart tutorial, you created a pipeline by following these steps:

  1. リンクされたサービスを作成します。Create the linked service.
  2. 入力データセットと出力データセットを作成します。Create input and output datasets.
  3. パイプラインを作成します。Create a pipeline.

このチュートリアルでは、最初にパイプラインを作成します。In this tutorial, you start with creating the pipeline. その後、パイプラインの構成に必要な場合にリンクされたサービスとデータセットを作成します。Then you create linked services and datasets when you need them to configure the pipeline.

  1. [Let's get started](始めましょう) ページで [Create pipeline](パイプラインの作成) を選択します。On the Let's get started page, select Create pipeline.

    パイプラインの作成

  2. [全般] パネルの [プロパティ] の下で、 [名前]CopyPipeline を指定します。In the General panel under Properties, specify CopyPipeline for Name. 次に、右上隅にある [プロパティ] アイコンをクリックしてパネルを折りたたみます。Then collapse the panel by clicking the Properties icon in the top-right corner.

  3. [アクティビティ] ツール ボックスで [Move and Transform](移動と変換) カテゴリを展開し、ツール ボックスからパイプライン デザイナー画面に [データのコピー] アクティビティをドラッグ アンド ドロップします。In the Activities tool box, expand the Move and Transform category, and drag and drop the Copy Data activity from the tool box to the pipeline designer surface. [名前] に「CopyFromBlobToSql」と指定します。Specify CopyFromBlobToSql for Name.

    コピー アクティビティ

ソースの構成Configure source

ヒント

このチュートリアルでは、ソース データ ストアの認証の種類として "アカウント キー" を使用しますが、サポートされている他の認証方法を選ぶこともできます。"SAS URI"、"サービス プリンシパル"、"マネージド ID" を必要に応じて使用してください。In this tutorial, you use Account key as the authentication type for your source data store, but you can choose other supported authentication methods: SAS URI,Service Principal and Managed Identity if needed. 詳細については、この記事の対応するセクションを参照してください。Refer to corresponding sections in this article for details. さらに、データ ストアのシークレットを安全に格納するために、Azure Key Vault の使用をお勧めします。To store secrets for data stores securely, it's also recommended to use an Azure Key Vault. 詳細については、この記事を参照してください。Refer to this article for detailed illustrations.

  1. [ソース] タブに移動します。 [+ 新規] を選択して、ソース データセットを作成します。Go to the Source tab. Select + New to create a source dataset.

  2. [新しいデータセット] ダイアログ ボックスで [Azure Blob Storage] を選択し、 [続行] をクリックします。In the New Dataset dialog box, select Azure Blob Storage, and then select Continue. ソース データは Blob Storage にあるので、ソース データセットには Azure Blob Storage を選択します。The source data is in Blob storage, so you select Azure Blob Storage for the source dataset.

  3. [形式の選択] ダイアログ ボックスで、データの形式の種類を選択して、 [続行] を選択します。In the Select Format dialog box, choose the format type of your data, and then select Continue.

  4. [プロパティの設定] ダイアログ ボックスで、[名前] に「SourceBlobDataset」を入力します。In the Set Properties dialog box, enter SourceBlobDataset for Name. [First row as header](先頭の行を見出しとして使用) のチェック ボックスをオンにします。Select the checkbox for First row as header. [リンクされたサービス] ボックスの下にある [+ 新規] を選択します。Under the Linked service text box, select + New.

  5. [New Linked Service (Azure Blob Storage)](新しいリンクされたサービス (Azure Blob Storage)) ダイアログ ボックスで、名前として「AzureStorageLinkedService」と入力し、 [ストレージ アカウント名] の一覧からご自身のストレージ アカウントを選択します。In the New Linked Service (Azure Blob Storage) dialog box, enter AzureStorageLinkedService as name, select your storage account from the Storage account name list. 接続をテストし、 [作成] を選択して、リンクされたサービスをデプロイします。Test connection, select Create to deploy the linked service.

  6. リンクされたサービスが作成されると、 [プロパティの設定] ページに戻ります。After the linked service is created, it's navigated back to the Set properties page. [ファイル パス] の横にある [参照] を選択します。Next to File path, select Browse.

  7. adftutorial/input フォルダーに移動し、emp.txt ファイルを選択して、 [OK] を選択します。Navigate to the adftutorial/input folder, select the emp.txt file, and then select OK.

  8. [OK] を選択します。Select OK. 自動的にパイプライン ページに移動します。It automatically navigates to the pipeline page. [ソース] タブで、 [SourceBlobDataset] が選択されていることを確認します。In Source tab, confirm that SourceBlobDataset is selected. このページのデータをプレビューするには、 [データのプレビュー] を選択します。To preview data on this page, select Preview data.

    ソース データセット

シンクの構成Configure sink

ヒント

このチュートリアルでは、シンク データ ストアの認証の種類として "SQL 認証" を使用しますが、サポートされている他の認証方法を選ぶこともできます。必要に応じて、"サービス プリンシパル" と "マネージド ID" を使用できます。In this tutorial, you use SQL authentication as the authentication type for your sink data store, but you can choose other supported authentication methods: Service Principal and Managed Identity if needed. 詳細については、この記事の対応するセクションを参照してください。Refer to corresponding sections in this article for details. さらに、データ ストアのシークレットを安全に格納するために、Azure Key Vault の使用をお勧めします。To store secrets for data stores securely, it's also recommended to use an Azure Key Vault. 詳細については、この記事を参照してください。Refer to this article for detailed illustrations.

  1. [シンク] タブに移動し、 [+ 新規] を選択してシンク データセットを作成します。Go to the Sink tab, and select + New to create a sink dataset.

  2. [新しいデータセット] ダイアログ ボックスで、検索ボックスに「SQL」と入力してコネクタをフィルター処理し、 [Azure SQL Database] を選択して、 [続行] を選択します。In the New Dataset dialog box, input "SQL" in the search box to filter the connectors, select Azure SQL Database, and then select Continue. このチュートリアルでは、SQL データベースにデータをコピーします。In this tutorial, you copy data to a SQL database.

  3. [プロパティの設定] ダイアログ ボックスで、[名前] に「OutputSqlDataset」を入力します。In the Set Properties dialog box, enter OutputSqlDataset for Name. [リンクされたサービス] ボックスの一覧から [+ 新規] を選択します。From the Linked service dropdown list, select + New. データセットをリンクされたサービスに関連付ける必要があります。A dataset must be associated with a linked service. リンクされたサービスには、Data Factory が実行時に SQL Database に接続するために使用する接続文字列が含まれています。The linked service has the connection string that Data Factory uses to connect to SQL Database at runtime. データセットは、コンテナー、フォルダー、データのコピー先のファイル (オプション) を指定します。The dataset specifies the container, folder, and the file (optional) to which the data is copied.

  4. [New Linked Service (Azure SQL Database)](新しいリンクされたサービス (Azure SQL Database)) ダイアログ ボックスで、次の手順を実行します。In the New Linked Service (Azure SQL Database) dialog box, take the following steps:

    a.a. [名前] に「AzureSqlDatabaseLinkedService」と入力します。Under Name, enter AzureSqlDatabaseLinkedService.

    b.b. [サーバー名] で、使用する SQL Server インスタンスを選択します。Under Server name, select your SQL Server instance.

    c.c. [データベース名] で、使用するデータベースを選択します。Under Database name, select your database.

    d.d. [ユーザー名] に、ユーザーの名前を入力します。Under User name, enter the name of the user.

    e.e. [パスワード] に、ユーザーのパスワードを入力します。Under Password, enter the password for the user.

    f.f. [テスト接続] を選択して接続をテストします。Select Test connection to test the connection.

    g.g. [作成] を選択して、リンクされたサービスをデプロイします。Select Create to deploy the linked service.

    新しいリンクされたサービスの保存

  5. [プロパティの設定] ダイアログ ボックスに自動的に移動します。It automatically navigates to the Set Properties dialog box. [テーブル][dbo].[emp] を選択します。In Table, select [dbo].[emp]. [OK] をクリックします。Then select OK.

  6. パイプラインがあるタブに移動し、 [Sink Dataset](シンク データセット)OutputSqlDataset が選択されていることを確認します。Go to the tab with the pipeline, and in Sink Dataset, confirm that OutputSqlDataset is selected.

    パイプラインのタブ

必要に応じて「コピー アクティビティでのスキーマ マッピング」に従い、コピー元のスキーマをコピー先の対応するスキーマにマッピングすることができます。You can optionally map the schema of the source to corresponding schema of destination by following Schema mapping in copy activity.

パイプラインを検証するValidate the pipeline

パイプラインを検証するには、ツール バーから [検証] を選択します。To validate the pipeline, select Validate from the tool bar.

パイプラインに関連付けられている JSON コードを確認するには、右上にある [コード] をクリックします。You can see the JSON code associated with the pipeline by clicking Code on the upper right.

パイプラインをデバッグして発行するDebug and publish the pipeline

Data Factory または独自の Azure Repos Git リポジトリにアーティファクト (リンクされたサービス、データセット、パイプライン) を発行する前に、パイプラインをデバッグできます。You can debug a pipeline before you publish artifacts (linked services, datasets, and pipeline) to Data Factory or your own Azure Repos Git repository.

  1. パイプラインをデバッグするには、ツール バーで [デバッグ] を選択します。To debug the pipeline, select Debug on the toolbar. ウィンドウ下部の [出力] タブにパイプラインの実行の状態が表示されます。You see the status of the pipeline run in the Output tab at the bottom of the window.

  2. パイプラインを適切に実行できたら、上部のツール バーで [すべて発行] を選択します。Once the pipeline can run successfully, in the top toolbar, select Publish all. これにより、作成したエンティティ (データセットとパイプライン) が Data Factory に発行されます。This action publishes entities (datasets, and pipelines) you created to Data Factory.

  3. [正常に発行されました] というメッセージが表示されるまで待機します。Wait until you see the Successfully published message. 通知メッセージを表示するには、右上にある [通知の表示] (ベル ボタン) をクリックします。To see notification messages, click the Show Notifications on the top-right (bell button).

パイプラインを手動でトリガーするTrigger the pipeline manually

この手順では、前の手順で発行したパイプラインを手動でトリガーします。In this step, you manually trigger the pipeline you published in the previous step.

  1. ツール バーの [トリガー] を選択し、 [Trigger Now](今すぐトリガー) を選択します。Select Trigger on the toolbar, and then select Trigger Now. [Pipeline Run](パイプラインの実行) ページで [OK] を選択します。On the Pipeline Run page, select OK.

  2. 左側の [監視] タブに移動します。Go to the Monitor tab on the left. 手動トリガーによってトリガーされたパイプラインの実行が表示されます。You see a pipeline run that is triggered by a manual trigger. [パイプライン名] 列のリンクを使用して、アクティビティの詳細を表示したりパイプラインを再実行したりできます。You can use links under the PIPELINE NAME column to view activity details and to rerun the pipeline.

    パイプラインの実行を監視するMonitor pipeline runs

  3. パイプラインの実行に関連付けられているアクティビティの実行を表示するには、 [パイプライン名] 列の [CopyPipeline] リンクを選択します。To see activity runs associated with the pipeline run, select the CopyPipeline link under the PIPELINE NAME column. この例では、アクティビティが 1 つだけなので、一覧に表示されるエントリは 1 つのみです。In this example, there's only one activity, so you see only one entry in the list. コピー操作の詳細を確認するには、 [ACTIVITY NAME](アクティビティ名) 列の [詳細] リンク (眼鏡アイコン) を選択します。For details about the copy operation, select the Details link (eyeglasses icon) under the ACTIVITY NAME column. 再度パイプラインの実行ビューに移動するには、一番上にある [すべてのパイプラインの実行] を選択します。Select All pipeline runs at the top to go back to the Pipeline Runs view. 表示を更新するには、 [最新の情報に更新] を選択します。To refresh the view, select Refresh.

    アクティビティの実行を監視するMonitor activity runs

  4. データベースの emp テーブルに 2 つの行が追加されていることを確認します。Verify that two more rows are added to the emp table in the database.

スケジュールに基づいてパイプラインをトリガーするTrigger the pipeline on a schedule

このスケジュールでは、パイプラインのスケジュール トリガーを作成します。In this schedule, you create a schedule trigger for the pipeline. このトリガーは、指定されたスケジュール (1 時間に 1 回、毎日など) に基づいてパイプラインを実行します。The trigger runs the pipeline on the specified schedule, such as hourly or daily. ここでは、指定された終了日時まで毎分実行されるようトリガーを設定します。Here you set the trigger to run every minute until the specified end datetime.

  1. [監視] タブの上にある左側の [作成者] タブに移動します。Go to the Author tab on the left above the monitor tab.

  2. パイプラインに移動し、ツール バーの [トリガー] をクリックして、 [新規/編集] を選択します。Go to your pipeline, click Trigger on the tool bar, and select New/Edit.

  3. [トリガーの追加] ダイアログ ボックスで、 [Choose trigger](トリガーの選択) 領域の [+ 新規] を選択します。In the Add triggers dialog box, select + New for Choose trigger area.

  4. [新しいトリガー] ウィンドウで、次の手順を実行します。In the New Trigger window, take the following steps:

    a.a. [名前] に「RunEveryMinute」と入力します。Under Name, enter RunEveryMinute.

    b.b. トリガーの [開始日] を更新します。Update the Start date for your trigger. 日付が現在の日時より前の場合は、変更が発行されたらトリガーが有効になります。If the date is before current datetime, the trigger will start to take effect once the change is published.

    c.c. [タイム ゾーン] のドロップダウン リストを選択します。Under Time zone, select the drop-down list.

    d.d. [繰り返し][1 分ごと] に設定します。Set the Recurrence to Every 1 Minute(s).

    e.e. [終了日の指定] のチェック ボックスをオンにし、 [終了日] の部分を現在の日時の数分後に更新します。Select the checkbox for Specify an end date, and update the End On part to be a few minutes past the current datetime. トリガーは、変更を発行した後にのみアクティブ化されます。The trigger is activated only after you publish the changes. これをわずか数分後に設定し、それまでに発行しなかった場合、トリガー実行は表示されません。If you set it to only a couple of minutes apart, and you don't publish it by then, you don't see a trigger run.

    f.f. [アクティブ化] オプションで [はい] を選択します。For Activated option, select Yes.

    g.g. [OK] を選択します。Select OK.

    重要

    パイプラインの実行ごとにコストが関連付けられるため、終了日は適切に設定してください。A cost is associated with each pipeline run, so set the end date appropriately.

  5. [トリガーの編集] ページで警告を確認し、 [保存] を選択します。On the Edit trigger page, review the warning, and then select Save. この例のパイプラインにはパラメーターはありません。The pipeline in this example doesn't take any parameters.

  6. [すべて発行] をクリックして、変更を発行します。Click Publish all to publish the change.

  7. 左側の [モニター] タブに移動して、トリガーされたパイプラインの実行を確認します。Go to the Monitor tab on the left to see the triggered pipeline runs.

    トリガーされたパイプラインの実行Triggered pipeline runs

  8. パイプラインの実行 ビューから トリガーの実行 ビューに切り替えるには、ウィンドウの左側の [Trigger Runs](トリガーの実行) を選択します。To switch from the Pipeline Runs view to the Trigger Runs view, select Trigger Runs on the left side of the window.

  9. トリガーの実行が一覧で表示されます。You see the trigger runs in a list.

  10. 指定された終了日時まで、(各パイプライン実行について) 1 分ごとに 2 つの行が emp テーブルに挿入されていることを確認します。Verify that two rows per minute (for each pipeline run) are inserted into the emp table until the specified end time.

次のステップNext steps

このサンプルのパイプラインは、Blob Storage 内のある場所から別の場所にデータをコピーします。The pipeline in this sample copies data from one location to another location in Blob storage. 以下の方法を学習しました。You learned how to:

  • データ ファクトリを作成します。Create a data factory.
  • コピー アクティビティを含むパイプラインを作成します。Create a pipeline with a copy activity.
  • パイプラインをテスト実行します。Test run the pipeline.
  • パイプラインを手動でトリガーします。Trigger the pipeline manually.
  • スケジュールに基づいてパイプラインをトリガーします。Trigger the pipeline on a schedule.
  • パイプラインとアクティビティの実行を監視します。Monitor the pipeline and activity runs.

オンプレミスからクラウドにデータをコピーする方法について学習するには、次のチュートリアルに進んでください。Advance to the following tutorial to learn how to copy data from on-premises to the cloud: