クイック スタート:Azure Data Factory UI を使用してデータ ファクトリを作成するQuickstart: Create a data factory by using the Azure Data Factory UI

このクイックスタートでは、Azure Data Factory UI を使用してデータ ファクトリを作成および監視する方法について説明します。This quickstart describes how to use the Azure Data Factory UI to create and monitor a data factory. このデータ ファクトリに作成したパイプラインは、データを Azure Blob Storage 内のあるフォルダーから別のフォルダーに "コピー" します。The pipeline that you create in this data factory copies data from one folder to another folder in Azure Blob storage. Azure Data Factory を使用してデータを "変換" する方法のチュートリアルについては、Spark を使用したデータ変換のチュートリアルを参照してください。For a tutorial on how to transform data by using Azure Data Factory, see Tutorial: Transform data by using Spark.

注意

Azure Data Factory を初めて使用する場合は、このクイック スタートを実行する前に、「Azure Data Factory の概要」を参照してください。If you are new to Azure Data Factory, see Introduction to Azure Data Factory before doing this quickstart.

前提条件Prerequisites

Azure サブスクリプションAzure subscription

Azure サブスクリプションをお持ちでない場合は、開始する前に 無料アカウント を作成してください。If you don't have an Azure subscription, create a free account before you begin.

Azure ロールAzure roles

Data Factory インスタンスを作成するには、Azure へのサインインに使用するユーザー アカウントが、"共同作成者" ロールまたは "所有者" ロールのメンバーであるか、Azure サブスクリプションの "管理者" である必要があります。To create Data Factory instances, the user account that you use to sign in to Azure must be a member of the contributor or owner role, or an administrator of the Azure subscription. サブスクリプションで自分が持っているアクセス許可を表示するには、Azure portal に移動し、右上にあるユーザー名を選択し、 [その他のオプション] (...) を選択し、 [アクセス許可] を選択します。To view the permissions that you have in the subscription, go to the Azure portal, select your username in the upper-right corner, select More options (...), and then select My permissions. 複数のサブスクリプションにアクセスできる場合は、適切なサブスクリプションを選択します。If you have access to multiple subscriptions, select the appropriate subscription.

データ セット、リンクされたサービス、パイプライン、トリガー、および統合ランタイムを含む Data Factory の子リソースを作成および管理するには、次の要件が適用されます。To create and manage child resources for Data Factory - including datasets, linked services, pipelines, triggers, and integration runtimes - the following requirements are applicable:

  • Azure portal で子リソースを作成および管理するには、リソース グループ レベル以上で Data Factory 共同作成者 ロールに属している必要があります。To create and manage child resources in the Azure portal, you must belong to the Data Factory Contributor role at the resource group level or above.
  • PowerShell または SDK を使用して子リソースを作成および管理する場合は、リソース レベル以上での 共同作成者 ロールで十分です。To create and manage child resources with PowerShell or the SDK, the contributor role at the resource level or above is sufficient.

ロールにユーザーを追加する方法に関するサンプル手順については、 ロールの追加 に関する記事を参照してください。For sample instructions about how to add a user to a role, see the Add roles article.

詳細については、次の記事を参照してください。For more info, see the following articles:

Azure ストレージ アカウントAzure storage account

このクイック スタートでは、"ソース" データ ストアと "コピー先" データ ストアの両方に汎用の Azure ストレージ アカウント (具体的には BLOB ストレージ) を使用します。You use a general-purpose Azure storage account (specifically Blob storage) as both source and destination data stores in this quickstart. 汎用の Azure ストレージ アカウントがない場合、作成方法については、「 ストレージ アカウントの作成 」を参照してください。If you don't have a general-purpose Azure storage account, see Create a storage account to create one.

ストレージ アカウント名を取得するGet the storage account name

このクイックスタートには、Azure ストレージ アカウントの名前が必要です。You will need the name of your Azure storage account for this quickstart. 以下の手順に従って、ご利用のストレージ アカウントの名前を取得してください。The following procedure provides steps to get the name of your storage account:

  1. Web ブラウザーで Azure portal にアクセスし、Azure のユーザー名とパスワードを使用してサインインします。In a web browser, go to the Azure portal and sign in using your Azure username and password.
  2. [すべてのサービス] > [ストレージ] > [ストレージ アカウント] の順に選択します。Select All services > Storage > Storage accounts.
  3. [ストレージ アカウント] ページで、ご利用のストレージ アカウントを (必要に応じて) フィルターで抽出し、該当するストレージ アカウントを選択します。In the Storage accounts page, filter for your storage account (if needed), and then select your storage account.

BLOB コンテナーを作成するCreate a blob container

このセクションでは、adftutorial という名前の BLOB コンテナーを Azure Blob Storage に作成します。In this section, you create a blob container named adftutorial in Azure Blob storage.

  1. ストレージ アカウント ページで、 [概要] > [BLOB] を選択します。From the storage account page, select Overview > Blobs.

  2. < アカウント名 > - BLOB ページのツールバーで、コンテナー を選択します。On the <Account name> - Blobs page's toolbar, select Container.

  3. [新しいコンテナー] ダイアログ ボックスで、名前に「adftutorial」と入力し、 [OK] を選択します。In the New container dialog box, enter adftutorial for the name, and then select OK. < アカウント名 > - BLOB ページが更新され、コンテナーの一覧に adftutorial が含まれるようになります。The <Account name> - Blobs page is updated to include adftutorial in the list of containers.

    コンテナーの一覧

BLOB コンテナーの入力フォルダーとファイルを追加するAdd an input folder and file for the blob container

このセクションでは、先ほど作成したコンテナーに input という名前のフォルダーを作成し、入力フォルダーにサンプル ファイルをアップロードします。In this section, you create a folder named input in the container you just created, and then upload a sample file to the input folder. 開始する前に、メモ帳 などのテキスト エディターを開き、次の内容を含む emp.txt という名前のファイルを作成します。Before you begin, open a text editor such as Notepad, and create a file named emp.txt with the following content:

John, Doe
Jane, Doe

C:\ADFv2QuickStartPSH フォルダーにファイルを保存しますSave the file in the C:\ADFv2QuickStartPSH folder. (フォルダーがまだ存在しない場合は作成します)。Azure portal に戻り、次の手順を実行します。(If the folder doesn't already exist, create it.) Then return to the Azure portal and follow these steps:

  1. 中断した [< アカウント名 >] - [BLOB] ページで、コンテナーの更新された一覧から [adftutorial] を選択します。In the <Account name> - Blobs page where you left off, select adftutorial from the updated list of containers. (ウィンドウを閉じた場合、または別のページに移動した場合は、Azure portal にもう一度サインインし、 [すべてのサービス] > [ストレージ] > [ストレージ アカウント] を選択し、 [BLOB] > [adftutorial] を選択します)。(If you closed the window or went to another page, sign in to the Azure portal again, select All services > Storage > Storage accounts, select your storage account, and then select Blobs > adftutorial.)

  2. adftutorial コンテナー ページのツールバーで、 [アップロード] を選択します。On the adftutorial container page's toolbar, select Upload.

  3. [BLOB のアップロード] ページで、 [ファイル] ボックスを選択し、emp.txt ファイルを参照して選択します。In the Upload blob page, select the Files box, and then browse to and select the emp.txt file.

  4. [詳細設定] の見出しを展開します。Expand the Advanced heading. 次のようにページが表示されます。The page now displays as shown:

    [詳細設定] リンクの選択

  5. [アップロード先のフォルダー] ボックスに「input」と入力します。In the Upload to folder box, enter input.

  6. [アップロード] ボタンを選択します。Select the Upload button. 一覧に emp.txt ファイルとアップロードの状態が表示されます。You should see the emp.txt file and the status of the upload in the list.

  7. [閉じる] アイコン (X) を選択して、 [BLOB のアップロード] ページを閉じます。Select the Close icon (an X) to close the Upload blob page.

adftutorial コンテナーのページを開いたままにしておきます。Keep the adftutorial container page open. このクイック スタートの最後で、このページを使用して出力を確認します。You use it to verify the output at the end of this quickstart.

ビデオVideo

このビデオを視聴すると、Data Factory UI を理解できます。Watching this video helps you understand the Data Factory UI:

Data Factory の作成Create a data factory

  1. Web ブラウザー (Microsoft Edge または Google Chrome) を起動します。Launch Microsoft Edge or Google Chrome web browser. 現在、Data Factory の UI がサポートされる Web ブラウザーは Microsoft Edge と Google Chrome だけです。Currently, Data Factory UI is supported only in Microsoft Edge and Google Chrome web browsers.

  2. Azure ポータルにアクセスします。Go to the Azure portal.

  3. 左側のメニューの [リソースの作成] を選択し、 [分析] を選択して、 [Data Factory] を選択します。Select Create a resource on the left menu, select Analytics, and then select Data Factory.

    [新規] ウィンドウでの [Data Factory] の選択

  4. [新しいデータ ファクトリ] ページで、 [名前] に「ADFTutorialDataFactory」と入力します。On the New data factory page, enter ADFTutorialDataFactory for Name.

    Azure データ ファクトリの名前は グローバルに一意にする必要があります。The name of the Azure data factory must be globally unique. 次のエラーが発生した場合は、データ ファクトリの名前を変更して ( <yourname>ADFTutorialDataFactory など) 作成し直してください。If you see the following error, change the name of the data factory (for example, <yourname>ADFTutorialDataFactory) and try creating again. Data Factory アーティファクトの名前付け規則については、Data Factory の名前付け規則に関する記事を参照してください。For naming rules for Data Factory artifacts, see the Data Factory - naming rules article.

    名前が使用できないときのエラー

  5. [サブスクリプション] で、データ ファクトリを作成する Azure サブスクリプションを選択します。For Subscription, select your Azure subscription in which you want to create the data factory.

  6. [リソース グループ] で、次の手順のいずれかを行います。For Resource Group, use one of the following steps:

    • [既存のものを使用] を選択し、一覧から既存のリソース グループを選択します。Select Use existing, and select an existing resource group from the list.
    • [新規作成] を選択し、リソース グループの名前を入力します。Select Create new, and enter the name of a resource group.

    リソース グループの詳細については、 リソース グループを使用した Azure のリソースの管理に関するページを参照してください。To learn about resource groups, see Using resource groups to manage your Azure resources.

  7. [バージョン] で、 [V2] を選択します。For Version, select V2.

  8. [場所] で、データ ファクトリの場所を選択します。For Location, select the location for the data factory.

    この一覧に表示されるのは、Data Factory でサポートされ、かつ Azure Data Factory のメタ データが格納される場所のみです。The list shows only locations that Data Factory supports, and where your Azure Data Factory meta data will be stored. Data Factory で使用する関連データ ストア (Azure Storage、Azure SQL Database など) やコンピューティング (Azure HDInsight など) は他のリージョンで実行できます。The associated data stores (like Azure Storage and Azure SQL Database) and computes (like Azure HDInsight) that Data Factory uses can run in other regions.

  9. 作成 を選択します。Select Create.

  10. 作成が完了すると、 [Data Factory] ページが表示されます。After the creation is complete, you see the Data Factory page. [作成と監視] タイルを選択して、別のタブで Azure Data Factory ユーザー インターフェイス (UI) アプリケーションを起動します。Select the Author & Monitor tile to start the Azure Data Factory user interface (UI) application on a separate tab.

    [作成と監視] タイルが表示された、データ ファクトリのホーム ページ

  11. [始めましょう] ページの左側のパネルで [作成者] タブに切り替えます。On the Let's get started page, switch to the Author tab in the left panel.

    [Let's get started](始めましょう) ページ

リンクされたサービスを作成するCreate a linked service

この手順では、Azure ストレージ アカウントをデータ ファクトリにリンクするためのリンクされたサービスを作成します。In this procedure, you create a linked service to link your Azure storage account to the data factory. リンクされたサービスは、Data Factory サービスが実行時に接続するために使用する接続情報を持っています。The linked service has the connection information that the Data Factory service uses at runtime to connect to it.

  1. [接続] を選択し、ツール バーの [新規] を選択します ( [接続] ボタンは、 [Factory Resources](ファクトリ リソース) の下の左側の列の下部にあります)。Select Connections, and then select the New button on the toolbar (Connections button is located at the bottom of the left column under Factory Resources).

  2. [New Linked Service](新しいリンクされたサービス) ページで [Azure Blob Storage] を選択し、 [続行] を選択します。On the New Linked Service page, select Azure Blob Storage, and then select Continue.

    [Azure Blob Storage] タイルの選択

  3. [New Linked Service (Azure Blob Storage)](新しいリンクされたサービス (Azure Blob Storage)) ページで、次の手順を行います。On the New Linked Service (Azure Blob Storage) page, complete the following steps:

    a.a. [名前] に「AzureStorageLinkedService」と入力します。For Name, enter AzureStorageLinkedService.

    b.b. [ストレージ アカウント名] で Azure ストレージ アカウントの名前を選択します。For Storage account name, select the name of your Azure storage account.

    c.c. [テスト接続] を選択して、Data Factory サービスがストレージ アカウントに接続できることを確認します。Select Test connection to confirm that the Data Factory service can connect to the storage account.

    d.d. [完了] を選択して、リンクされたサービスを保存します。Select Finish to save the linked service.

データセットを作成するCreate datasets

この手順では、InputDatasetOutputDatasetIn this procedure, you create two datasets: InputDataset and OutputDataset. これらのデータセットの種類は、AzureBlob です。These datasets are of type AzureBlob. これらは、前のセクションで作成した Azure Storage のリンクされたサービスを参照します。They refer to the Azure Storage linked service that you created in the previous section.

入力データセットは、入力フォルダーのソース データを表します。The input dataset represents the source data in the input folder. 入力データセットの定義では、ソース データを格納している BLOB コンテナー (adftutorial)、フォルダー (input)、およびファイル (emp.txt) を指定します。In the input dataset definition, you specify the blob container (adftutorial), the folder (input), and the file (emp.txt) that contain the source data.

出力データセットは、ターゲットにコピーされるデータを表します。The output dataset represents the data that's copied to the destination. 出力データセットの定義では、データのコピー先の BLOB コンテナー (adftutorial)、フォルダー (output)、およびファイルを指定します。In the output dataset definition, you specify the blob container (adftutorial), the folder (output), and the file to which the data is copied. パイプラインの各実行には、一意の ID が関連付けられます。Each run of a pipeline has a unique ID associated with it. この ID には、システム変数 RunId を使用してアクセスできます。You can access this ID by using the system variable RunId. 出力ファイルの名前は、パイプラインの実行 ID に基づいて動的に評価されます。The name of the output file is dynamically evaluated based on the run ID of the pipeline.

リンクされたサービスの設定では、ソース データを含む Azure ストレージ アカウントを指定しました。In the linked service settings, you specified the Azure storage account that contains the source data. ソース データセットの設定では、ソース データがどこにあるかを正確に指定します (BLOB コンテナー、フォルダー、およびファイル)。In the source dataset settings, you specify where exactly the source data resides (blob container, folder, and file). シンク データセットの設定では、データがどこにコピーされるかを指定します (BLOB コンテナー、フォルダー、およびファイル)。In the sink dataset settings, you specify where the data is copied to (blob container, folder, and file).

  1. + (正符号) ボタンを選択し、 [データセット] を選択します。Select the + (plus) button, and then select Dataset.

    データセットを作成するためのメニュー

  2. [新しいデータ セット] ページで [Azure Blob Storage] を選択し、 [続行] を選択します。On the New Dataset page, select Azure Blob Storage, and then select Continue.

    [Azure Blob Storage] の選択

  3. [形式の選択] ページで、データの形式の種類を選択して、 [続行] を選択します。On the Select Format page, choose the format type of your data, and then select Continue. この場合、コンテンツを解析せずに、ファイルをそのままコピーする場合は [バイナリ] を選択します。In this case, select Binary when copy files as-is without parsing the content.

    データの形式の種類

  4. [プロパティの設定] ページで、次の手順を行います。On the Set Properties page, complete following steps:

    a.a. [名前] に「InputDataset」と入力します。Under Name, enter InputDataset.

    b.b. [リンクされたサービス][AzureStorageLinkedService] を選択します。For Linked service, select AzureStorageLinkedService.

    c.c. [ファイル パス] で、 [参照] ボタンを選択します。For File path, select the Browse button.

    d.d. [Choose a file or folder](ファイルまたはフォルダーの選択) ウィンドウで、adftutorial コンテナーの input フォルダーを参照し、emp.txt ファイルを選択して、 [完了] をクリックします。In the Choose a file or folder window, browse to the input folder in the adftutorial container, select the emp.txt file, and then select Finish.

    e.e. [続行] をクリックします。Select Continue.

    InputDataset のプロパティを設定する

  5. この手順を繰り返して、出力データセットを作成します。Repeat the steps to create the output dataset:

    a.a. + (正符号) ボタンを選択し、 [データセット] を選択します。Select the + (plus) button, and then select Dataset.

    b.b. [新しいデータ セット] ページで [Azure Blob Storage] を選択し、 [続行] を選択します。On the New Dataset page, select Azure Blob Storage, and then select Continue.

    c.c. [形式の選択] ページで、データの形式の種類を選択して、 [続行] を選択します。On the Select Format page, choose the format type of your data, and then select Continue.

    d.d. [プロパティの設定] ページで、名前に「OutputDataset」と指定します。On the Set Properties page, specify OutputDataset for the name. リンクされたサービスとして AzureStorageLinkedService を選択します。Select AzureStorageLinkedService as linked service.

    e.e. [ファイルのパス] に「adftutorial/output」と入力します。Under File path, enter adftutorial/output. output フォルダーが存在しない場合、コピー アクティビティにより実行時に作成されます。If the output folder doesn't exist, the copy activity creates it at runtime.

    f.f. [続行] をクリックします。Select Continue.

パイプラインを作成する。Create a pipeline

この手順では、入力データセットと出力データセットを使用するコピー アクティビティを持つパイプラインを作成および検証します。In this procedure, you create and validate a pipeline with a copy activity that uses the input and output datasets. コピー アクティビティにより、入力データセットの設定で指定されたファイルから、出力データセットの設定で指定されたファイルにデータがコピーされます。The copy activity copies data from the file you specified in the input dataset settings to the file you specified in the output dataset settings. 入力データセットで、ファイル名を指定せず、フォルダーのみを指定すると、コピー アクティビティはソース フォルダーのすべてのファイルをターゲットにコピーします。If the input dataset specifies only a folder (not the file name), the copy activity copies all the files in the source folder to the destination.

  1. + (正符号) ボタンを選択し、 [パイプライン] を選択します。Select the + (plus) button, and then select Pipeline.

  2. [全般] タブで、 [名前] に「CopyPipeline」と指定します。In the General tab, specify CopyPipeline for Name.

  3. [アクティビティ] ツールボックスで [Move & Transform](移動と変換) を展開します。In the Activities toolbox, expand Move & Transform. [アクティビティ] ツールボックスからパイプライン デザイナー画面に [データのコピー] アクティビティをドラッグします。Drag the Copy Data activity from the Activities toolbox to the pipeline designer surface. [アクティビティ] ツールボックスで、アクティビティを検索することもできます。You can also search for activities in the Activities toolbox. [名前] に「CopyFromBlobToBlob」と指定します。Specify CopyFromBlobToBlob for Name.

  4. コピー アクティビティの設定で [ソース] タブに切り替えて、 [Source Dataset](ソース データセット)[InputDataset] を選択します。Switch to the Source tab in the copy activity settings, and select InputDataset for Source Dataset.

  5. コピー アクティビティの設定で [シンク] タブに切り替えて、 [Sink Dataset](シンク データセット)[OutputDataset] を選択します。Switch to the Sink tab in the copy activity settings, and select OutputDataset for Sink Dataset.

  6. キャンバスの上にあるパイプライン ツール バーの [検証] をクリックして、パイプライン設定を検証します。Click Validate on the pipeline toolbar above the canvas to validate the pipeline settings. パイプラインが正常に検証されたことを確認します。Confirm that the pipeline has been successfully validated. 検証出力を閉じるには、 >> (右矢印) ボタンを選択します。To close the validation output, select the >> (right arrow) button.

パイプラインのデバッグDebug the pipeline

この手順では、パイプラインを Data Factory にデプロイする前にデバッグします。In this step, you debug the pipeline before deploying it to Data Factory.

  1. キャンバスの上にあるパイプライン ツール バーの [デバッグ] をクリックして、テスト実行をトリガーします。On the pipeline toolbar above the canvas, click Debug to trigger a test run.

  2. 一番下にあるパイプラインの設定の [出力] タブにパイプラインの実行の状態が表示されることを確認します。Confirm that you see the status of the pipeline run on the Output tab of the pipeline settings at the bottom.

  3. adftutorial コンテナーの output フォルダーに出力ファイルがあることを確認します。Confirm that you see an output file in the output folder of the adftutorial container. output フォルダーが存在しない場合は、Data Factory サービスによって自動的に作成されます。If the output folder doesn't exist, the Data Factory service automatically creates it.

パイプラインを手動でトリガーするTrigger the pipeline manually

この手順では、Azure Data Factory にエンティティ (リンクされたサービス、データセット、パイプライン) をデプロイします。In this procedure, you deploy entities (linked services, datasets, pipelines) to Azure Data Factory. 次に、パイプラインの実行を手動でトリガーします。Then, you manually trigger a pipeline run.

  1. パイプラインをトリガーする前に、エンティティを Data Factory に発行する必要があります。Before you trigger a pipeline, you must publish entities to Data Factory. 発行するには、上部にある [すべて発行] を選択します。To publish, select Publish All on the top.

    [発行] ボタン

  2. パイプラインを手動でトリガーするには、パイプライン ツール バーの [トリガーの追加] を選択し、 [Trigger Now](今すぐトリガー) を選択します。To trigger the pipeline manually, select Add Trigger on the pipeline toolbar, and then select Trigger Now. [Pipeline Run](パイプラインの実行) ページで [完了] を選択します。On the Pipeline Run page, select Finish.

パイプラインの監視Monitor the pipeline

  1. 左側で [監視] タブに切り替えます。Switch to the Monitor tab on the left. [最新の情報に更新] ボタンを使用して、一覧を更新します。Use the Refresh button to refresh the list.

    パイプラインの実行を監視するタブ

  2. [アクション][View Activity Runs](アクティビティの実行の表示) リンクを選択します。Select the View Activity Runs link under Actions. コピー アクティビティの実行の状態が、このページに表示されます。You see the status of the copy activity run on this page.

  3. コピー操作の詳細を確認するには、 [アクション] 列にある [詳細] (眼鏡アイコン) リンクを選択します。To view details about the copy operation, select the Details (eyeglasses image) link in the Actions column. プロパティの詳細については、コピー アクティビティの概要に関するページを参照してください。For details about the properties, see Copy Activity overview.

    コピー操作の詳細

  4. output フォルダーに新しいファイルが表示されていることを確認します。Confirm that you see a new file in the output folder.

  5. [パイプラインの実行] リンクを選択すると、 [アクティビティの実行] ビューから [Pipeline Runs](パイプラインの実行) ビューに戻ることができます。You can switch back to the Pipeline Runs view from the Activity Runs view by selecting the Pipeline Runs link.

スケジュールに基づいてパイプラインをトリガーするTrigger the pipeline on a schedule

この手順は、このチュートリアルでは省略できます。This procedure is optional in this tutorial. "スケジューラ トリガー" を作成して、パイプラインを定期的 (毎時、毎日など) に実行するようにスケジュールすることができます。You can create a scheduler trigger to schedule the pipeline to run periodically (hourly, daily, and so on). この手順では、指定した終了日時まで毎分実行するようにトリガーを作成します。In this procedure, you create a trigger to run every minute until the end date and time that you specify.

  1. [作成者] タブに切り替えます。Switch to the Author tab.

  2. パイプラインに移動し、パイプライン ツール バーの [トリガーの追加] を選択し、 [New/Edit](新規作成/編集) を選択します。Go to your pipeline, select Add Trigger on the pipeline toolbar, and then select New/Edit.

  3. [Add Triggers](トリガーの追加) ページで、 [Choose trigger](トリガーの選択) を選択し、 [新規] を選択します。On the Add Triggers page, select Choose trigger, and then select New.

  4. [新しいトリガー] ページの [終了][指定日] を選択し、終了時刻として現在から数分後を指定して、 [適用] を選択します。On the New Trigger page, under End, select On Date, specify an end time a few minutes after the current time, and then select Apply.

    各パイプラインの実行にはコストがかかります。そのため、開始時刻からほんの数分後の終了時刻を指定してください。A cost is associated with each pipeline run, so specify the end time only minutes apart from the start time. 同じ日であることを確認します。Ensure that it's the same day. ただし、発行時から終了時刻までにパイプラインを実行できる十分な時間があるようにします。However, ensure that there's enough time for the pipeline to run between the publish time and the end time. トリガーは、UI でトリガーを保存したときではなく、Data Factory にソリューションを発行した後で有効になります。The trigger comes into effect only after you publish the solution to Data Factory, not when you save the trigger in the UI.

  5. [新しいトリガー] ページで、 [アクティブ化済み] チェック ボックスをオンにし、 [保存] を選択します。On the New Trigger page, select the Activated check box, and then select Save.

    新しいトリガーの設定

  6. 警告メッセージを確認し、 [完了] を選択します。Review the warning message, and select Finish.

  7. [すべて発行] をクリックして、変更を Data Factory に発行します。Select Publish All to publish changes to Data Factory.

  8. 左側で [監視] タブに切り替えます。Switch to the Monitor tab on the left. [最新の情報に更新] を選択して、一覧を更新します。Select Refresh to refresh the list. 発行時刻から終了時刻まで、毎分 1 回パイプラインが実行されることがわかります。You see that the pipeline runs once every minute from the publish time to the end time.

    [トリガー元] 列の値に注意してください。Notice the values in the Triggered By column. 手動のトリガー実行は、前に行った手順 ( [Trigger Now](今すぐトリガー) ) によるものでした。The manual trigger run was from the step (Trigger Now) that you did earlier.

  9. [Trigger Runs](トリガーの実行) ビューへの切り替えSwitch to the Trigger Runs view.

  10. output フォルダー内に、指定した終了日時までパイプラインが実行されるたびに出力ファイルが作成されていることを確認します。Confirm that an output file is created for every pipeline run until the specified end date and time in the output folder.

次の手順Next steps

このサンプルのパイプラインは、Azure Blob Storage 内のある場所から別の場所にデータをコピーします。The pipeline in this sample copies data from one location to another location in Azure Blob storage. より多くのシナリオで Data Factory を使用する方法については、チュートリアルを参照してください。To learn about using Data Factory in more scenarios, go through the tutorials.