マッピング データ フローを使用して安全にデータを変換するTransform data securely by using mapping data flow

適用対象: Azure Data Factory Azure Synapse Analytics

Azure Data Factory を初めて使用する場合は、「Azure Data Factory の概要」を参照してください。If you're new to Azure Data Factory, see Introduction to Azure Data Factory.

このチュートリアルでは、Data Factory ユーザー インターフェイス (UI) を使い、Data Factory マネージド仮想ネットワーク内でマッピング データ フローを使用して Azure Data Lake Storage Gen2 ソースから Data Lake Storage Gen2 シンク (どちらも、選択したネットワークへの接続のみを許可) にデータをコピーして変換するパイプラインを作成します。In this tutorial, you'll use the Data Factory user interface (UI) to create a pipeline that copies and transforms data from an Azure Data Lake Storage Gen2 source to a Data Lake Storage Gen2 sink (both allowing access to only selected networks) by using mapping data flow in Data Factory Managed Virtual Network. このチュートリアルの構成パターンは、マッピング データ フローを使用してデータを変換するときに拡張することができます。You can expand on the configuration pattern in this tutorial when you transform data by using mapping data flow.

このチュートリアルでは、次の手順を実行します。In this tutorial, you do the following steps:

  • データ ファクトリを作成します。Create a data factory.
  • データ フロー アクティビティが含まれるパイプラインを作成します。Create a pipeline with a data flow activity.
  • 4 つの変換を使用して、マッピング データ フローを構築します。Build a mapping data flow with four transformations.
  • パイプラインをテスト実行します。Test run the pipeline.
  • データ フロー アクティビティを監視します。Monitor a data flow activity.

前提条件Prerequisites

  • Azure サブスクリプションAzure subscription. Azure サブスクリプションをお持ちでない場合は、開始する前に無料の Azure アカウントを作成してください。If you don't have an Azure subscription, create a free Azure account before you begin.
  • Azure ストレージ アカウントAzure storage account. Data Lake Storage を、ソースシンク のデータ ストアとして使用します。You use Data Lake Storage as source and sink data stores. ストレージ アカウントがない場合の作成手順については、Azure のストレージ アカウントの作成に関するページを参照してください。If you don't have a storage account, see Create an Azure storage account for steps to create one. ストレージ アカウントで、選択したネットワークからのアクセスのみが許可されていることを確認します。Ensure the storage account allows access only from selected networks.

このチュートリアルで変換するファイルは、GitHub コンテンツ サイトにある moviesDB.csv です。The file that we'll transform in this tutorial is moviesDB.csv, which can be found at this GitHub content site. GitHub からファイルを取得するには、コンテンツを任意のテキスト エディターにコピーして、.csv ファイルとしてローカルに保存します。To retrieve the file from GitHub, copy the contents to a text editor of your choice to save it locally as a .csv file. ファイルをご自分のストレージ アカウントにアップロードするには、Azure portal を使用した BLOB のアップロードに関するページを参照してください。To upload the file to your storage account, see Upload blobs with the Azure portal. 例では、sample-data という名前のコンテナーを参照します。The examples will reference a container named sample-data.

Data Factory の作成Create a data factory

この手順では、データ ファクトリを作成し、Data Factory UI を開いて、データ ファクトリにパイプラインを作成します。In this step, you create a data factory and open the Data Factory UI to create a pipeline in the data factory.

  1. Microsoft Edge または Google Chrome を開きます。Open Microsoft Edge or Google Chrome. 現在、Data Factory UI をサポートしている Web ブラウザーは Microsoft Edge と Google Chrome のみです。Currently, only Microsoft Edge and Google Chrome web browsers support the Data Factory UI.

  2. 左側のメニューで、 [リソースの作成] > [分析] > [Data Factory] の順に選択します。On the left menu, select Create a resource > Analytics > Data Factory.

  3. [新しいデータ ファクトリ] ページで、 [名前] に「ADFTutorialDataFactory」と入力します。On the New data factory page, under Name, enter ADFTutorialDataFactory.

    データ ファクトリの名前は "グローバルに一意" にする必要があります。The name of the data factory must be globally unique. データ ファクトリの名前の値に関するエラー メッセージが表示された場合は、別の名前を入力してください (yournameADFTutorialDataFactory など)。If you receive an error message about the name value, enter a different name for the data factory (for example, yournameADFTutorialDataFactory). Data Factory アーティファクトの名前付け規則については、Data Factory の名前付け規則に関するページを参照してください。For naming rules for Data Factory artifacts, see Data Factory naming rules.

  4. データ ファクトリを作成する Azure サブスクリプション を選択します。Select the Azure subscription in which you want to create the data factory.

  5. [リソース グループ] で、次の手順のいずれかを行います。For Resource Group, take one of the following steps:

    • [Use existing (既存のものを使用)] を選択し、ドロップダウン リストから既存のリソース グループを選択します。Select Use existing, and select an existing resource group from the drop-down list.
    • [新規作成] を選択し、リソース グループの名前を入力します。Select Create new, and enter the name of a resource group.

    リソース グループの詳細については、リソース グループを使用した Azure のリソースの管理に関するページを参照してください。To learn about resource groups, see Use resource groups to manage your Azure resources.

  6. [バージョン] で、 [V2] を選択します。Under Version, select V2.

  7. [場所] で、データ ファクトリの場所を選択します。Under Location, select a location for the data factory. サポートされている場所のみがドロップダウン リストに表示されます。Only locations that are supported appear in the drop-down list. データ ファクトリによって使用されるデータ ストア (Azure Storage、Azure SQL Database など) やコンピューティング (Azure HDInsight など) は、他のリージョンに存在していてもかまいません。Data stores (for example, Azure Storage and Azure SQL Database) and computes (for example, Azure HDInsight) used by the data factory can be in other regions.

  8. [作成] を選択しますSelect Create.

  9. 作成が完了すると、その旨が通知センターに表示されます。After the creation is finished, you see the notice in the Notifications center. [リソースに移動] を選択して、 [Data Factory] ページに移動します。Select Go to resource to go to the Data Factory page.

  10. [Author & Monitor](作成と監視) を選択して、別のタブで Data Factory (UI) を起動します。Select Author & Monitor to launch the Data Factory UI in a separate tab.

Data Factory マネージド仮想ネットワークに Azure IR を作成するCreate an Azure IR in Data Factory Managed Virtual Network

この手順では、Azure IR を作成し、Data Factory マネージド仮想ネットワークを有効にします。In this step, you create an Azure IR and enable Data Factory Managed Virtual Network.

  1. Data Factory ポータルで、 [管理] に移動し、 [新規] を選択して新しい Azure IR を作成します。In the Data Factory portal, go to Manage, and select New to create a new Azure IR.

    新しい Azure IR の作成を示すスクリーンショット。

  2. [Integration runtime setup](統合ランタイムのセットアップ) ページで、必要な機能に基づいて作成する統合ランタイムを選択します。On the Integration runtime setup page, choose what integration runtime to create based on required capabilities. このチュートリアルでは、 [Azure、セルフホステッド] を選択し、 [続行] をクリックします。In this tutorial, select Azure, Self-Hosted and then click Continue.

  3. [Azure] を選択し、 [続行] をクリックして、Azure Integration ランタイムを作成します。Select Azure and then click Continue to create an Azure Integration runtime.

    新しい Azure IR を示すスクリーンショット。

  4. [仮想ネットワークの構成 (プレビュー)] で、 [有効化] を選択します。Under Virtual network configuration (Preview), select Enable.

    新しい Azure IR の有効化を示すスクリーンショット。

  5. [作成] を選択しますSelect Create.

データ フロー アクティビティが含まれるパイプラインの作成Create a pipeline with a data flow activity

この手順では、データ フロー アクティビティが含まれるパイプラインを作成します。In this step, you'll create a pipeline that contains a data flow activity.

  1. [Let's get started](始めましょう) ページで [Create pipeline](パイプラインの作成) を選択します。On the Let's get started page, select Create pipeline.

    パイプラインの作成を示すスクリーンショット。

  2. パイプラインの [プロパティ] ウィンドウで、パイプラインの名前として TransformMovies と入力します。In the properties pane for the pipeline, enter TransformMovies for the pipeline name.

  3. [アクティビティ] ウィンドウで、 [移動と変換] を展開します。In the Activities pane, expand Move and Transform. ウィンドウから [Data Flow] アクティビティをパイプライン キャンバスにドラッグします。Drag the Data Flow activity from the pane to the pipeline canvas.

  4. [Adding data flow](データ フローの追加) ポップアップで、 [Create new data flow](新しいデータ フローの作成) を選択し、 [Mapping Data Flow](マッピング データ フロー) を選択します。In the Adding data flow pop-up, select Create new data flow and then select Mapping Data Flow. 完了したら、 [OK] をクリックします。Select OK when you're finished.

    マッピング データ フローを示すスクリーンショット。

  5. [プロパティ] ウィンドウで、データ フローに TransformMovies という名前を付けます。Name your data flow TransformMovies in the properties pane.

  6. パイプライン キャンバスの上部のバーで、 [Data Flow のデバッグ] スライダーをオンにスライドします。In the top bar of the pipeline canvas, slide the Data Flow debug slider on. デバッグ モードを使用すると、ライブ Spark クラスターに対する変換ロジックの対話型テストが可能になります。Debug mode allows for interactive testing of transformation logic against a live Spark cluster. Data Flow クラスターのウォームアップには 5 から 7 分かかるため、ユーザーが Data Flow の開発を計画している場合は、最初にデバッグを有効にすることをお勧めします。Data Flow clusters take 5-7 minutes to warm up and users are recommended to turn on debug first if they plan to do Data Flow development. 詳細については、デバッグ モードに関するページを参照してください。For more information, see Debug Mode.

    [データ フローのデバッグ] のスライダーを示すスクリーンショット。

データ フロー キャンバスでの変換ロジックの作成Build transformation logic in the data flow canvas

データ フローを作成すると、データ フロー キャンバスに自動的に飛ばされます。After you create your data flow, you'll be automatically sent to the data flow canvas. この手順では、Data Lake Storage 内の moviesDB.csv ファイルを取得し、1910 年から 2000 年までのコメディの平均評価を集計するデータ フローを作成します。In this step, you'll build a data flow that takes the moviesDB.csv file in Data Lake Storage and aggregates the average rating of comedies from 1910 to 2000. 次に、このファイルを Data Lake Storage ストレージに書き戻します。You'll then write this file back to Data Lake Storage.

ソース変換を追加するAdd the source transformation

この手順では、Data Lake Storage Gen2 をソースとして設定します。In this step, you set up Data Lake Storage Gen2 as a source.

  1. データ フロー キャンバスで [Add Source](ソースの追加) ボックスを選択して、ソースを追加します。In the data flow canvas, add a source by selecting the Add Source box.

  2. ソースに MoviesDB という名前を付けます。Name your source MoviesDB. [新規] を選択して、新しいソース データセットを作成します。Select New to create a new source dataset.

  3. [Azure Data Lake Storage Gen2] を選択し、 [続行] を選択します。Select Azure Data Lake Storage Gen2, and then select Continue.

  4. [DelimitedText] を選択してから、 [続行] を選択します。Select DelimitedText, and then select Continue.

  5. データセットに MoviesDB という名前を付けます。Name your dataset MoviesDB. リンクされたサービスのドロップダウンで、 [新規] を選択します。In the linked service drop-down, select New.

  6. リンクされたサービスの作成画面で、Data Lake Storage Gen2 のリンクされたサービスに ADLSGen2 という名前を付けて、使用する認証方法を指定します。In the linked service creation screen, name your Data Lake Storage Gen2 linked service ADLSGen2 and specify your authentication method. 次に、接続の資格情報を入力します。Then enter your connection credentials. このチュートリアルでは、アカウント キー を使用してストレージ アカウントに接続しています。In this tutorial, we're using Account key to connect to our storage account.

  7. [Interactive authoring](インタラクティブな作成) を必ず有効にしてください。Make sure you enable Interactive authoring. これは有効になるまでに 1 分程かかる場合があります。It might take a minute to be enabled.

    インタラクティブな作成を示すスクリーンショット。

  8. [接続テスト] を選択します。Select Test connection. プライベート エンドポイントを作成および承認しなければストレージ アカウントにアクセスできないようになっているため、これは失敗するはずです。It should fail because the storage account doesn't enable access into it without the creation and approval of a private endpoint. エラー メッセージ内に、プライベート エンドポイントを作成するためのリンクが表示されます。それをたどることで、マネージド プライベート エンドポイントを作成できます。In the error message, you should see a link to create a private endpoint that you can follow to create a managed private endpoint. 代わりに、 [管理] タブに直接移動し、こちらのセクションの指示に従って、マネージド プライベート エンドポイントを作成する方法もあります。An alternative is to go directly to the Manage tab and follow instructions in this section to create a managed private endpoint.

  9. ダイアログ ボックスは開いたままにして、ストレージ アカウントに移動します。Keep the dialog box open, and then go to your storage account.

  10. このセクションの手順に従って、プライベート リンクを承認します。Follow instructions in this section to approve the private link.

  11. ダイアログ ボックスに戻ります。Go back to the dialog box. もう一度 [接続テスト] を選択し、 [作成] を選択して、リンクされたサービスをデプロイします。Select Test connection again, and select Create to deploy the linked service.

  12. データセットの作成画面で、 [ファイル パス] フィールドの下にファイルが配置されている場所を入力します。On the dataset creation screen, enter where your file is located under the File path field. このチュートリアルでは、moviesDB.csv ファイルはコンテナー sample-data に配置されています。In this tutorial, the file moviesDB.csv is located in the container sample-data. ファイルにはヘッダーが含まれているので、 [先頭の行を見出しとして使用] チェック ボックスをオンにします。Because the file has headers, select the First row as header check box. ストレージ内のファイルからヘッダー スキーマを直接インポートするには、 [From connection/store](接続/ストアから) を選択します。Select From connection/store to import the header schema directly from the file in storage. 完了したら、 [OK] をクリックします。Select OK when you're finished.

    ソース パスを示すスクリーンショット。

  13. デバッグ クラスターが起動している場合は、ソース変換の [データのプレビュー] タブに移動し、 [更新] を選択して、データのスナップショットを取得します。If your debug cluster has started, go to the Data Preview tab of the source transformation and select Refresh to get a snapshot of the data. データ プレビューを使用すると、変換が正しく構成されていることを確認できます。You can use the data preview to verify your transformation is configured correctly.

    [データのプレビュー] タブを示すスクリーンショット。

マネージド プライベート エンドポイントを作成するCreate a managed private endpoint

前述の接続をテストした際にハイパーリンクを使用しなかった場合は、パスに従います。If you didn't use the hyperlink when you tested the preceding connection, follow the path. 次に、作成したリンクされたサービスに接続するマネージド プライベート エンドポイントを作成する必要があります。Now you need to create a managed private endpoint that you'll connect to the linked service you created.

  1. [管理] タブに移動します。Go to the Manage tab.

    注意

    Data Factory インスタンスでは、そのすべてで [管理] タブを使用できない場合があります。The Manage tab might not be available for all Data Factory instances. 表示されない場合は、 [作成者] > [接続] > [プライベート エンドポイント] を選択して、プライベート エンドポイントにアクセスできます。If you don't see it, you can access private endpoints by selecting Author > Connections > Private Endpoint.

  2. [マネージド プライベート エンドポイント] セクションに移動します。Go to the Managed private endpoints section.

  3. [マネージド プライベート エンドポイント] で、 [+ 新規] を選択します。Select + New under Managed private endpoints.

    [マネージド プライベート エンドポイント] の [新規] ボタンを示すスクリーンショット。

  4. リストから [Azure Data Lake Storage Gen2] タイルを選択し、 [続行] を選択します。Select the Azure Data Lake Storage Gen2 tile from the list, and select Continue.

  5. 作成したストレージ アカウントの名前を入力します。Enter the name of the storage account you created.

  6. [作成] を選択しますSelect Create.

  7. 数秒後に、作成されたプライベート リンクに承認が必要であることが表示されます。After a few seconds, you should see that the private link created needs an approval.

  8. 作成したプライベート エンドポイントを選択します。Select the private endpoint that you created. ストレージ アカウント レベルでプライベート エンドポイントを承認できるハイパーリンクが表示されます。You can see a hyperlink that will lead you to approve the private endpoint at the storage account level.

    [マネージド プライベート エンドポイント] ウィンドウを示すスクリーンショット。

  1. ストレージ アカウントで、 [設定] セクションの [プライベート エンドポイント接続] に移動します。In the storage account, go to Private endpoint connections under the Settings section.

  2. 作成したプライベート エンドポイントのチェック ボックスをオンにし、 [承認] を選択します。Select the check box by the private endpoint you created, and select Approve.

    プライベート エンドポイントの [承認] ボタンを示すスクリーンショット。

  3. 説明を追加し、 [はい] を選択します。Add a description, and select yes.

  4. Data Factory の [管理] タブにある [マネージド プライベート エンドポイント] セクションに戻ります。Go back to the Managed private endpoints section of the Manage tab in Data Factory.

  5. 約 1 分後に、プライベート エンドポイントの承認の旨が表示されます。After about a minute, you should see the approval appear for your private endpoint.

フィルター変換を追加するAdd the filter transformation

  1. データ フロー キャンバス上のソース ノードの横にあるプラス アイコンを選択して、新しい変換を追加します。Next to your source node on the data flow canvas, select the plus icon to add a new transformation. 最初に追加する変換は、 [フィルター] です。The first transformation you'll add is a Filter.

    フィルターの追加を示すスクリーンショット。

  2. フィルター変換に FilterYears という名前を付けます。Name your filter transformation FilterYears. [フィルター適用] の横にある式ボックスを選択して、式ビルダーを開きます。Select the expression box next to Filter on to open the expression builder. ここでフィルター条件を指定します。Here you'll specify your filtering condition.

    FilterYears を示すスクリーンショット。

  3. データ フローの式ビルダーでは、さまざまな変換で使用する式を対話形式で作成できます。The data flow expression builder lets you interactively build expressions to use in various transformations. 式には、組み込み関数、入力スキーマの列、ユーザー定義のパラメーターを含めることができます。Expressions can include built-in functions, columns from the input schema, and user-defined parameters. 式の作成方法の詳細については、データ フローの式ビルダーに関するページを参照してください。For more information on how to build expressions, see Data flow expression builder.

    • このチュートリアルでは、1910 年から 2000 年の間に公開された、ジャンルがコメディの映画をフィルター処理します。In this tutorial, you want to filter movies in the comedy genre that came out between the years 1910 and 2000. 現在、年は文字列になっているため、toInteger() 関数を使用して整数に変換する必要があります。Because the year is currently a string, you need to convert it to an integer by using the toInteger() function. 以上演算子 (>=) と以下演算子 (<=) を使用して、年のリテラル値 1910 と 2000 に対する比較を行います。Use the greater than or equal to (>=) and less than or equal to (<=) operators to compare against the literal year values 1910 and 2000. これらの式を and (&&) 演算子を使用して結合します。Union these expressions together with the and (&&) operator. 式は次のようになります。The expression comes out as:

      toInteger(year) >= 1910 && toInteger(year) <= 2000

    • コメディ映画を見つけるには、rlike() 関数を使用して、ジャンル列でパターン 'Comedy' を検索します。To find which movies are comedies, you can use the rlike() function to find the pattern 'Comedy' in the column genres. rlike 式と年の比較を結合して、次を取得します。Union the rlike expression with the year comparison to get:

      toInteger(year) >= 1910 && toInteger(year) <= 2000 && rlike(genres, 'Comedy')

    • デバッグ クラスターがアクティブになっている場合は、 [更新] を選択して使用された入力と比較した式の出力を表示して、ロジックを確認できます。If you have a debug cluster active, you can verify your logic by selecting Refresh to see the expression output compared to the inputs used. データ フローの式言語を使用してこのロジックを実現する方法に対する正解は複数あります。There's more than one right answer on how you can accomplish this logic by using the data flow expression language.

      フィルター式を示すスクリーンショット。

    • 式の操作が完了したら、 [Save and Finish](保存して終了する) を選択します。Select Save and finish after you're finished with your expression.

  4. フィルターが正しく機能していることを確認するには、データ プレビュー をフェッチします。Fetch a Data Preview to verify the filter is working correctly.

    フィルター処理されたデータのプレビューを示すスクリーンショット。

集計変換を追加するAdd the aggregate transformation

  1. 次に追加する変換は、 [Schema modifier](スキーマ修飾子) の下にある [集計] 変換です。The next transformation you'll add is an Aggregate transformation under Schema modifier.

    集計の追加を示すスクリーンショット。

  2. 集計変換に AggregateComedyRating という名前を付けます。Name your aggregate transformation AggregateComedyRating. [グループ化] タブで、ドロップダウン ボックスから [year] を選択し、映画の公開年ごとに集計をグループ化します。On the Group by tab, select year from the drop-down box to group the aggregations by the year the movie came out.

    集計グループを示すスクリーンショット。

  3. [集計] タブに移動します。左側のテキスト ボックスで、集計列に AverageComedyRating という名前を付けます。Go to the Aggregates tab. In the left text box, name the aggregate column AverageComedyRating. 式ビルダーを使用して集計式を入力するには、右側の式ボックスを選択します。Select the right expression box to enter the aggregate expression via the expression builder.

    集計列の名前を示すスクリーンショット。

  4. [Rating] の平均値を取得するには、avg() 集計関数を使用します。To get the average of column Rating, use the avg() aggregate function. [Rating] は文字列で、avg() で受け入れられるのは数値入力なので、toInteger() 関数を使用して値を数値に変換する必要があります。Because Rating is a string and avg() takes in a numerical input, we must convert the value to a number via the toInteger() function. 式は次のようになります。This expression looks like:

    avg(toInteger(Rating))

  5. 完了したら、 [Save and Finish](保存して終了する) を選択します。Select Save and finish after you're finished.

    集計の保存を示すスクリーンショット。

  6. 変換出力を表示するには、 [Data Preview](データのプレビュー) タブに移動します。Go to the Data Preview tab to view the transformation output. yearAverageComedyRating の 2 つの列だけがあることに注目してください。Notice only two columns are there, year and AverageComedyRating.

シンク変換を追加するAdd the sink transformation

  1. 次に、 [Destination](変換先) の下で [シンク] 変換を追加します。Next, you want to add a Sink transformation under Destination.

    シンクの追加を示すスクリーンショット。

  2. シンクに Sink という名前を付けます。Name your sink Sink. [新規] を選択して、シンク データセットを作成します。Select New to create your sink dataset.

    シンクの作成を示すスクリーンショット。

  3. [新しいデータセット] ページで [Azure Data Lake Storage Gen2] を選択し、 [続行] を選択します。On the New dataset page, select Azure Data Lake Storage Gen2 and then select Continue.

  4. [形式の選択] ページで、 [DelimitedText] を選択してから、 [続行] を選択します。On the Select format page, select DelimitedText and then select Continue.

  5. シンク データセットに MoviesSink という名前を付けます。Name your sink dataset MoviesSink. リンクされたサービスでは、ソース変換用に作成したものと同じ ADLSGen2 のリンクされたサービスを選択します。For linked service, choose the same ADLSGen2 linked service you created for source transformation. データの書き込み先となる出力フォルダーを入力します。Enter an output folder to write your data to. このチュートリアルでは、コンテナー sample-data 内のフォルダー output に書き込んでいます。In this tutorial, we're writing to the folder output in the container sample-data. フォルダーは、事前に存在している必要はなく、動的に作成することができます。The folder doesn't need to exist beforehand and can be dynamically created. [先頭の行を見出しとして使用] チェック ボックスを選択し、 [スキーマのインポート][なし] を選択します。Select the First row as header check box, and select None for Import schema. [OK] を選択します。Select OK.

    シンク パスを示すスクリーンショット。

これで、データ フローの構築が完了しました。Now you've finished building your data flow. これをパイプラインで実行する準備ができました。You're ready to run it in your pipeline.

データ フローの実行と監視Run and monitor the data flow

パイプラインを発行する前にデバッグすることができます。You can debug a pipeline before you publish it. この手順では、データ フロー パイプラインのデバッグ実行をトリガーします。In this step, you trigger a debug run of the data flow pipeline. データのプレビューではデータが書き込まれませんが、デバッグ実行ではシンクの変換先にデータが書き込まれます。While the data preview doesn't write data, a debug run will write data to your sink destination.

  1. パイプライン キャンバスに移動します。Go to the pipeline canvas. [デバッグ] を選択して、デバッグ実行をトリガーします。Select Debug to trigger a debug run.

  2. データ フロー アクティビティのパイプライン デバッグでは、アクティブなデバッグ クラスターが使用されますが、それでも初期化には少なくとも 1 分かかります。Pipeline debugging of data flow activities uses the active debug cluster but still takes at least a minute to initialize. 進行状況は [出力] タブで追跡することができます。実行が正常に完了したら、眼鏡のアイコンを選択して実行の詳細を確認します。You can track the progress via the Output tab. After the run is successful, select the eyeglasses icon for run details.

  3. 詳細ページには、各変換手順で使用した行の数と所要時間が表示されます。On the details page, you can see the number of rows and the time spent on each transformation step.

    監視実行を示すスクリーンショット。

  4. 変換を選択すると、データの列とパーティション分割に関する詳細情報が表示されます。Select a transformation to get detailed information about the columns and partitioning of the data.

このチュートリアルに正しく従った場合は、シンク フォルダーに 83 行と 2 列が書き込まれているはずです。If you followed this tutorial correctly, you should have written 83 rows and 2 columns into your sink folder. BLOB ストレージをチェックすることで、データが正しいことを確認できます。You can verify the data is correct by checking your blob storage.

まとめSummary

このチュートリアルでは、Data Factory UI を使用して、Data Factory マネージド仮想ネットワーク内でマッピング データ フローを使用して Data Lake Storage Gen2 ソースから Data Lake Storage Gen2 シンク (どちらも、選択したネットワークへの接続のみを許可) にデータをコピーして変換するパイプラインを作成しました。In this tutorial, you used the Data Factory UI to create a pipeline that copies and transforms data from a Data Lake Storage Gen2 source to a Data Lake Storage Gen2 sink (both allowing access to only selected networks) by using mapping data flow in Data Factory Managed Virtual Network.