Transformera data på ett säkert sätt med hjälp av data flödet för mappningTransform data securely by using mapping data flow

gäller för: Azure Data Factory Azure Synapse Analytics

Om du inte har använt Azure Data Factory tidigare kan du läsa Introduktion till Azure Data Factory.If you're new to Azure Data Factory, see Introduction to Azure Data Factory.

I den här självstudien använder du Data Factory användar gränssnitt för att skapa en pipeline som kopierar och transformerar data från en Azure Data Lake Storage Gen2 källa till en data Lake Storage Gen2 mottagare (båda tillåter endast åtkomst till valda nätverk) genom att använda mappa data flöde i Data Factory hanterade Virtual Network.In this tutorial, you'll use the Data Factory user interface (UI) to create a pipeline that copies and transforms data from an Azure Data Lake Storage Gen2 source to a Data Lake Storage Gen2 sink (both allowing access to only selected networks) by using mapping data flow in Data Factory Managed Virtual Network. Du kan expandera konfigurations mönstret i den här självstudien när du transformerar data med hjälp av mappnings data flödet.You can expand on the configuration pattern in this tutorial when you transform data by using mapping data flow.

I den här självstudien gör du följande:In this tutorial, you do the following steps:

  • Skapa en datafabrik.Create a data factory.
  • Skapa en pipeline med en data flödes aktivitet.Create a pipeline with a data flow activity.
  • Skapa ett data flöde för mappning med fyra transformeringar.Build a mapping data flow with four transformations.
  • Testkör pipelinen.Test run the pipeline.
  • Övervaka en data flödes aktivitet.Monitor a data flow activity.

FörutsättningarPrerequisites

  • Azure-prenumeration.Azure subscription. Om du inte har en Azure-prenumeration kan du skapa ett kostnads fritt Azure-konto innan du börjar.If you don't have an Azure subscription, create a free Azure account before you begin.
  • Azure Storage-konto.Azure storage account. Du använder Data Lake Storage som käll -och mottagar data lager.You use Data Lake Storage as source and sink data stores. Om du inte har ett lagringskonto finns det anvisningar om hur du skapar ett i Skapa ett Azure Storage-konto.If you don't have a storage account, see Create an Azure storage account for steps to create one. Se till att lagrings kontot bara tillåter åtkomst från valda nätverk.Ensure the storage account allows access only from selected networks.

Filen som vi ska transformera i den här självstudien är moviesDB.csv, som finns på den här GitHub innehålls webbplatsen.The file that we'll transform in this tutorial is moviesDB.csv, which can be found at this GitHub content site. Om du vill hämta filen från GitHub kopierar du innehållet till en text redigerare som du väljer för att spara den lokalt som en CSV-fil.To retrieve the file from GitHub, copy the contents to a text editor of your choice to save it locally as a .csv file. Om du vill överföra filen till ditt lagrings konto, se Ladda upp blobar med Azure Portal.To upload the file to your storage account, see Upload blobs with the Azure portal. Exemplen refererar till en behållare med namnet Sample-data.The examples will reference a container named sample-data.

Skapa en datafabrikCreate a data factory

I det här steget skapar du en data fabrik och öppnar Data Factory gränssnittet för att skapa en pipeline i data fabriken.In this step, you create a data factory and open the Data Factory UI to create a pipeline in the data factory.

  1. Öppna Microsoft Edge eller Google Chrome.Open Microsoft Edge or Google Chrome. För närvarande stöder endast Microsoft Edge-och Google Chrome-webbläsare Data Factory gränssnittet.Currently, only Microsoft Edge and Google Chrome web browsers support the Data Factory UI.

  2. På den vänstra menyn väljer du skapa en resurs > analys > Data Factory.On the left menu, select Create a resource > Analytics > Data Factory.

  3. I fönstret Ny datafabrik, under Namn anger du ADFTutorialDataFactory.On the New data factory page, under Name, enter ADFTutorialDataFactory.

    Namnet på data fabriken måste vara globalt unikt.The name of the data factory must be globally unique. Om du får ett fel meddelande om name-värdet anger du ett annat namn på data fabriken (till exempel Dittnamnadftutorialdatafactory).If you receive an error message about the name value, enter a different name for the data factory (for example, yournameADFTutorialDataFactory). Se artikeln Namnregler för Data Factory för namnregler för Data Factory-artefakter.For naming rules for Data Factory artifacts, see Data Factory naming rules.

  4. Välj den Azure-prenumeration som du vill skapa den nya datafabriken i.Select the Azure subscription in which you want to create the data factory.

  5. Gör något av följande för Resursgrupp:For Resource Group, take one of the following steps:

    • Välj Använd befintlig och välj en befintlig resurs grupp i den nedrullningsbara listan.Select Use existing, and select an existing resource group from the drop-down list.
    • Välj Skapa ny och ange namnet på en resurs grupp.Select Create new, and enter the name of a resource group.

    Mer information om resursgrupper finns i Använda resursgrupper för att hantera Azure-resurser.To learn about resource groups, see Use resource groups to manage your Azure resources.

  6. Under Version väljer du V2.Under Version, select V2.

  7. Under Plats väljer du en plats för datafabriken.Under Location, select a location for the data factory. Endast platser som stöds visas i den nedrullningsbara listan.Only locations that are supported appear in the drop-down list. Data lager (till exempel Azure Storage och Azure SQL Database) och beräkningarna (till exempel Azure HDInsight) som används av data fabriken kan finnas i andra regioner.Data stores (for example, Azure Storage and Azure SQL Database) and computes (for example, Azure HDInsight) used by the data factory can be in other regions.

  8. Välj Skapa.Select Create.

  9. När du har skapat meddelandet visas meddelandet i meddelande centret.After the creation is finished, you see the notice in the Notifications center. Välj gå till resurs för att gå till sidan Data Factory .Select Go to resource to go to the Data Factory page.

  10. Klicka på Författare och övervakare för att starta användargränssnittet för datafabriken på en separat flik.Select Author & Monitor to launch the Data Factory UI in a separate tab.

Skapa en Azure IR i Data Factory hanterade Virtual NetworkCreate an Azure IR in Data Factory Managed Virtual Network

I det här steget skapar du en Azure IR och aktiverar Data Factory hanterade Virtual Network.In this step, you create an Azure IR and enable Data Factory Managed Virtual Network.

  1. I Data Factory portal går du till Hantera och väljer nytt för att skapa en ny Azure IR.In the Data Factory portal, go to Manage, and select New to create a new Azure IR.

    Skärm bild som visar hur du skapar en ny Azure IR.

  2. På sidan installation av integration runtime väljer du vilken integrerings körning som ska skapas baserat på de funktioner som krävs.On the Integration runtime setup page, choose what integration runtime to create based on required capabilities. I den här självstudien väljer du Azure, egen värd och klickar sedan på Fortsätt.In this tutorial, select Azure, Self-Hosted and then click Continue.

  3. Välj Azure och klicka sedan på Fortsätt för att skapa en Azure integration Runtime.Select Azure and then click Continue to create an Azure Integration runtime.

    Skärm bild som visar en ny Azure IR.

  4. Under konfiguration av virtuellt nätverk (för hands version) väljer du Aktivera.Under Virtual network configuration (Preview), select Enable.

    Skärm bild som visar aktivering av en ny Azure IR.

  5. Välj Skapa.Select Create.

Skapa en pipeline med en data flödes aktivitetCreate a pipeline with a data flow activity

I det här steget ska du skapa en pipeline som innehåller en data flödes aktivitet.In this step, you'll create a pipeline that contains a data flow activity.

  1. På sidan Nu sätter vi igång väljer du Skapa pipeline.On the Let's get started page, select Create pipeline.

    Skärm bild som visar hur du skapar en pipeline.

  2. I rutan Egenskaper för pipelinen anger du TransformMovies som namn på pipelinen.In the properties pane for the pipeline, enter TransformMovies for the pipeline name.

  3. I det fabriksinstallerade övre fältet drar du skjutreglaget för data flödes fel sökning på.In the factory top bar, slide the Data flow debug slider on. Fel söknings läge möjliggör interaktiv testning av omvandlings logik mot ett aktivt Spark-kluster.Debug mode allows for interactive testing of transformation logic against a live Spark cluster. Data flödes kluster tar fem till sju minuter att värma upp.Data flow clusters take five to seven minutes to warm up. Aktivera fel sökning av data flöde först om du planerar att göra data flödes utveckling.Turn on Data flow debug first if you plan to do data flow development. Mer information finns i fel söknings läge.For more information, see Debug mode.

    Skärm bild som visar skjutreglaget för fel sökning av data flöde.

  4. I fönstret aktiviteter expanderar du flytta och transformera.In the Activities pane, expand Move and Transform. Dra data flödes aktiviteten från fönstret till pipeline-arbetsytan.Drag the Data Flow activity from the pane to the pipeline canvas.

  5. I popup-fönstret för att lägga till data flöde väljer du Skapa nytt data flöde och väljer sedan mappa data flöde.In the Adding data flow pop-up, select Create new data flow and then select Mapping Data Flow. Välj OK när du är klar.Select OK when you're finished.

    Skärm bild som visar data flöde för mappning.

  6. Namnge ditt data flöde TransformMovies i rutan Egenskaper.Name your data flow TransformMovies in the properties pane.

Bygg omvandlings logik i data flödets arbets ytaBuild transformation logic in the data flow canvas

När du har skapat ditt data flöde skickas det automatiskt till data flödets arbets yta.After you create your data flow, you'll be automatically sent to the data flow canvas. I det här steget ska du bygga ett data flöde som tar moviesDB.csv-filen i Data Lake Storage och aggregerar genomsnitts betyget för Comedies från 1910 till 2000.In this step, you'll build a data flow that takes the moviesDB.csv file in Data Lake Storage and aggregates the average rating of comedies from 1910 to 2000. Sedan skriver du tillbaka filen till Data Lake Storage.You'll then write this file back to Data Lake Storage.

Lägg till käll omvandlingenAdd the source transformation

I det här steget konfigurerar du Data Lake Storage Gen2 som källa.In this step, you set up Data Lake Storage Gen2 as a source.

  1. I data flödets arbets yta lägger du till en källa genom att markera rutan Lägg till källa .In the data flow canvas, add a source by selecting the Add Source box.

  2. Namnge din käll MoviesDB.Name your source MoviesDB. Välj ny för att skapa en ny käll data uppsättning.Select New to create a new source dataset.

  3. Välj Azure Data Lake Storage Gen2 och välj sedan Fortsätt.Select Azure Data Lake Storage Gen2, and then select Continue.

  4. Välj DelimitedText och välj sedan Fortsätt.Select DelimitedText, and then select Continue.

  5. Namnge din data uppsättnings MoviesDB.Name your dataset MoviesDB. I list rutan länkad tjänst väljer du nytt.In the linked service drop-down, select New.

  6. I fönstret Skapa länkad tjänst namnger du Data Lake Storage Gen2 länkade tjänstens ADLSGen2 och anger din autentiseringsmetod.In the linked service creation screen, name your Data Lake Storage Gen2 linked service ADLSGen2 and specify your authentication method. Ange sedan dina autentiseringsuppgifter för anslutningen.Then enter your connection credentials. I den här självstudien använder vi konto nyckeln för att ansluta till vårt lagrings konto.In this tutorial, we're using Account key to connect to our storage account.

  7. Se till att aktivera interaktiv redigering.Make sure you enable Interactive authoring. Det kan ta en minut att aktive ras.It might take a minute to be enabled.

    Skärm bild som visar interaktiv redigering.

  8. Välj Testanslutning.Select Test connection. Det bör inte utföras eftersom lagrings kontot inte tillåter åtkomst till det utan att en privat slut punkt skapas och godkänns.It should fail because the storage account doesn't enable access into it without the creation and approval of a private endpoint. I fel meddelandet bör du se en länk för att skapa en privat slut punkt som du kan följa för att skapa en hanterad privat slut punkt.In the error message, you should see a link to create a private endpoint that you can follow to create a managed private endpoint. Ett alternativ är att gå direkt till fliken Hantera och följa instruktionerna i det här avsnittet för att skapa en hanterad privat slut punkt.An alternative is to go directly to the Manage tab and follow instructions in this section to create a managed private endpoint.

  9. Håll dialog rutan öppen och gå sedan till ditt lagrings konto.Keep the dialog box open, and then go to your storage account.

  10. Följ anvisningarna i det här avsnittet om du vill godkänna den privata länken.Follow instructions in this section to approve the private link.

  11. Gå tillbaka till dialog rutan.Go back to the dialog box. Välj Testa anslutning igen och välj skapa för att distribuera den länkade tjänsten.Select Test connection again, and select Create to deploy the linked service.

  12. På skärmen skapa data uppsättning anger du var filen finns under fältet fil Sök väg .On the dataset creation screen, enter where your file is located under the File path field. I den här självstudien finns filen moviesDB.csv i container exempel-data.In this tutorial, the file moviesDB.csv is located in the container sample-data. Eftersom filen innehåller rubriker markerar du kryss rutan första raden som rubrik .Because the file has headers, select the First row as header check box. Välj från anslutning/Arkiv om du vill importera huvud schemat direkt från filen i lagrings utrymmet.Select From connection/store to import the header schema directly from the file in storage. Välj OK när du är klar.Select OK when you're finished.

    Skärm bild som visar käll Sök vägen.

  13. Om ditt fel söknings kluster har startats går du till fliken data förhands granskning i käll omvandlingen och väljer Uppdatera för att hämta en ögonblicks bild av data.If your debug cluster has started, go to the Data Preview tab of the source transformation and select Refresh to get a snapshot of the data. Du kan använda för hands versionen av data för att kontrol lera att din omvandling är korrekt konfigurerad.You can use the data preview to verify your transformation is configured correctly.

    Skärm bild som visar fliken Data förhands granskning.

Skapa en hanterad privat slut punktCreate a managed private endpoint

Om du inte använde hyperlänken när du testade den föregående anslutningen följer du sökvägen.If you didn't use the hyperlink when you tested the preceding connection, follow the path. Nu måste du skapa en hanterad privat slut punkt som du ansluter till den länkade tjänst som du har skapat.Now you need to create a managed private endpoint that you'll connect to the linked service you created.

  1. Gå till fliken Hantera .Go to the Manage tab.

    Anteckning

    Fliken Hantera kanske inte är tillgänglig för alla data Factory-instanser.The Manage tab might not be available for all Data Factory instances. Om du inte ser det kan du komma åt privata slut punkter genom att välja författar > anslutningar > privat slut punkt.If you don't see it, you can access private endpoints by selecting Author > Connections > Private Endpoint.

  2. Gå till avsnittet hanterade privata slut punkter .Go to the Managed private endpoints section.

  3. Välj + ny under hanterade privata slut punkter.Select + New under Managed private endpoints.

    Skärm bild som visar knappen Ny hanterad privat slut punkt ny.

  4. Välj panelen Azure Data Lake Storage Gen2 i listan och välj Fortsätt.Select the Azure Data Lake Storage Gen2 tile from the list, and select Continue.

  5. Ange namnet på det lagrings konto som du har skapat.Enter the name of the storage account you created.

  6. Välj Skapa.Select Create.

  7. Efter några sekunder bör du se att den privata länken som skapas kräver ett godkännande.After a few seconds, you should see that the private link created needs an approval.

  8. Välj den privata slut punkt som du skapade.Select the private endpoint that you created. Du kan se en hyperlänk som kommer att leda till att du godkänner den privata slut punkten på lagrings konto nivån.You can see a hyperlink that will lead you to approve the private endpoint at the storage account level.

    Skärm bild som visar fönstret Hantera privat slut punkt.

  1. I lagrings kontot går du till anslutningar för privata slut punkter under avsnittet Inställningar .In the storage account, go to Private endpoint connections under the Settings section.

  2. Markera kryss rutan efter den privata slut punkt som du skapade och välj Godkänn.Select the check box by the private endpoint you created, and select Approve.

    Skärm bild som visar knappen Godkänn privat slut punkt.

  3. Lägg till en beskrivning och välj Ja.Add a description, and select yes.

  4. Gå tillbaka till avsnittet hanterade privata slut punkter på fliken Hantera i Data Factory.Go back to the Managed private endpoints section of the Manage tab in Data Factory.

  5. Efter ungefär en minut bör du se att godkännandet visas för din privata slut punkt.After about a minute, you should see the approval appear for your private endpoint.

Lägg till filter omvandlingenAdd the filter transformation

  1. Bredvid Källnoden på data flödets arbets yta väljer du plus ikonen för att lägga till en ny omvandling.Next to your source node on the data flow canvas, select the plus icon to add a new transformation. Den första omvandlingen som du lägger till är ett filter.The first transformation you'll add is a Filter.

    Skärm bild som visar hur du lägger till ett filter.

  2. Namnge filter omvandlingen FilterYears.Name your filter transformation FilterYears. Välj uttrycks rutan bredvid filtrera på för att öppna uttrycks verktyget.Select the expression box next to Filter on to open the expression builder. Här anger du filtrerings villkoret.Here you'll specify your filtering condition.

    Skärm bild som visar FilterYears.

  3. Med uttrycks verktyget Data Flow kan du interaktivt skapa uttryck som ska användas i olika transformationer.The data flow expression builder lets you interactively build expressions to use in various transformations. Uttryck kan innehålla inbyggda funktioner, kolumner från schemat för indata och användardefinierade parametrar.Expressions can include built-in functions, columns from the input schema, and user-defined parameters. Mer information om hur du skapar uttryck finns i uttrycks verktyg för data flöde.For more information on how to build expressions, see Data flow expression builder.

    • I den här självstudien vill du filtrera filmer i komedi-genren som kom mellan åren 1910 och 2000.In this tutorial, you want to filter movies in the comedy genre that came out between the years 1910 and 2000. Eftersom året för närvarande är en sträng måste du konvertera det till ett heltal med hjälp av toInteger() funktionen.Because the year is currently a string, you need to convert it to an integer by using the toInteger() function. Använd operatorerna större än eller lika med (>=) och mindre än eller lika med (<=) för att jämföra med de litterala årets värden 1910 och 2000.Use the greater than or equal to (>=) and less than or equal to (<=) operators to compare against the literal year values 1910 and 2000. Union dessa uttryck tillsammans med operatorn och (&&).Union these expressions together with the and (&&) operator. Uttrycket visas som:The expression comes out as:

      toInteger(year) >= 1910 && toInteger(year) <= 2000

    • Om du vill ta reda på vilka filmer som är Comedies kan du använda rlike() funktionen för att hitta mönstret "komedi" i kolumn genrerna.To find which movies are comedies, you can use the rlike() function to find the pattern 'Comedy' in the column genres. Union rlike-uttrycket med jämförelse året för att hämta:Union the rlike expression with the year comparison to get:

      toInteger(year) >= 1910 && toInteger(year) <= 2000 && rlike(genres, 'Comedy')

    • Om du har ett aktivt fel söknings kluster kan du verifiera din logik genom att välja Uppdatera för att se uttryckets utdata jämfört med de använda inmatningarna.If you have a debug cluster active, you can verify your logic by selecting Refresh to see the expression output compared to the inputs used. Det finns mer än ett rätt svar på hur du kan utföra den här logiken med hjälp av Expression-språket för data flödet.There's more than one right answer on how you can accomplish this logic by using the data flow expression language.

      Skärm bild som visar filter uttrycket.

    • Välj Spara och slutför när du är klar med ditt uttryck.Select Save and finish after you're finished with your expression.

  4. Hämta en data förhands granskning för att kontrol lera att filtret fungerar korrekt.Fetch a Data Preview to verify the filter is working correctly.

    Skärm bild som visar den filtrerade data förhands granskningen.

Lägg till aggregerad transformeringAdd the aggregate transformation

  1. Nästa omvandling du lägger till är en sammanställd omvandling under schema modifieraren.The next transformation you'll add is an Aggregate transformation under Schema modifier.

    Skärm bild som visar hur du lägger till aggregatet.

  2. Namnge den sammanställda transformeringen AggregateComedyRating.Name your aggregate transformation AggregateComedyRating. På fliken Gruppera efter väljer du år i list rutan för att gruppera agg regeringar efter året som filmen kommer ut.On the Group by tab, select year from the drop-down box to group the aggregations by the year the movie came out.

    Skärm bild som visar samlings gruppen.

  3. Gå till fliken agg regeringar . I den vänstra text rutan namnger du den sammanställda kolumnen AverageComedyRating.Go to the Aggregates tab. In the left text box, name the aggregate column AverageComedyRating. Välj rutan till höger uttryck för att ange det sammanställda uttrycket via uttrycks verktyget.Select the right expression box to enter the aggregate expression via the expression builder.

    Skärm bild som visar sammanslaget kolumn namn.

  4. Om du vill få medelvärdet för kolumn klassificeringen använder du avg() mängd funktionen.To get the average of column Rating, use the avg() aggregate function. Eftersom klassificeringen är en sträng och avg() tar med numeriska värden måste vi konvertera värdet till ett tal via toInteger() funktionen.Because Rating is a string and avg() takes in a numerical input, we must convert the value to a number via the toInteger() function. Detta uttryck ser ut så här:This expression looks like:

    avg(toInteger(Rating))

  5. Välj Spara och slutför när du är klar.Select Save and finish after you're finished.

    Skärm bild som visar hur du sparar mängden.

  6. Gå till fliken data förhands granskning för att Visa transformationens utdata.Go to the Data Preview tab to view the transformation output. Observera att endast två kolumner finns där, år och AverageComedyRating.Notice only two columns are there, year and AverageComedyRating.

Lägg till omvandlingen av mottagareAdd the sink transformation

  1. Sedan vill du lägga till en Sink -omvandling under mål.Next, you want to add a Sink transformation under Destination.

    Skärm bild som visar hur du lägger till en mottagare.

  2. Namnge din Sink- mottagare.Name your sink Sink. Välj ny för att skapa din data uppsättning för mottagare.Select New to create your sink dataset.

    Skärm bild som visar hur du skapar en mottagare.

  3. På sidan ny data uppsättning väljer du Azure Data Lake Storage Gen2 och väljer sedan Fortsätt.On the New dataset page, select Azure Data Lake Storage Gen2 and then select Continue.

  4. På sidan Välj format väljer du DelimitedText och väljer sedan Fortsätt.On the Select format page, select DelimitedText and then select Continue.

  5. Namnge din data uppsättning MoviesSink.Name your sink dataset MoviesSink. För länkad tjänst väljer du samma ADLSGen2 -länkade tjänst som du skapade för käll omvandling.For linked service, choose the same ADLSGen2 linked service you created for source transformation. Ange en mapp för utdata för att skriva dina data till.Enter an output folder to write your data to. I den här självstudien ska vi skriva till mappens utdata i exempel på container-data.In this tutorial, we're writing to the folder output in the container sample-data. Mappen behöver inte finnas i förväg och kan skapas dynamiskt.The folder doesn't need to exist beforehand and can be dynamically created. Markera kryss rutan första raden som rubrik och välj ingen för import schema.Select the First row as header check box, and select None for Import schema. Välj OK.Select OK.

    Skärm bild som visar mottagarens sökväg.

Nu har du slutfört skapandet av ditt data flöde.Now you've finished building your data flow. Du är redo att köra den i din pipeline.You're ready to run it in your pipeline.

Köra och övervaka data flödetRun and monitor the data flow

Du kan felsöka en pipeline innan du publicerar den.You can debug a pipeline before you publish it. I det här steget utlöser du en fel söknings körning av data flödets pipeline.In this step, you trigger a debug run of the data flow pipeline. Medan data förhands granskningen inte skriver data skriver en fel söknings körning data till mottagar målet.While the data preview doesn't write data, a debug run will write data to your sink destination.

  1. Gå till pipeline-arbetsytan.Go to the pipeline canvas. Välj Felsök för att utlösa en debug-körning.Select Debug to trigger a debug run.

  2. Pipeline-felsökning av data flödes aktiviteter använder det aktiva fel söknings klustret men tar fortfarande minst en minut att initiera.Pipeline debugging of data flow activities uses the active debug cluster but still takes at least a minute to initialize. Du kan följa förloppet via fliken utdata . När körningen är klar väljer du ikonen glasögon för körnings information.You can track the progress via the Output tab. After the run is successful, select the eyeglasses icon for run details.

  3. På sidan information kan du se antalet rader och hur lång tid som har använts för varje omformnings steg.On the details page, you can see the number of rows and the time spent on each transformation step.

    Skärm bild som visar en övervaknings körning.

  4. Välj en omvandling för att få detaljerad information om kolumner och partitionering av data.Select a transformation to get detailed information about the columns and partitioning of the data.

Om du har följt den här självstudien korrekt bör du ha skrivit 83 rader och 2 kolumner i mottagar mappen.If you followed this tutorial correctly, you should have written 83 rows and 2 columns into your sink folder. Du kan kontrol lera att informationen är korrekt genom att kontrol lera Blob Storage.You can verify the data is correct by checking your blob storage.

SammanfattningSummary

I den här självstudien använde du Data Factory gränssnittet för att skapa en pipeline som kopierar och transformerar data från en Data Lake Storage Gen2 källa till en Data Lake Storage Gen2 mottagare (båda tillåter endast åtkomst till valda nätverk) genom att använda mappa data flöde i Data Factory hanterade Virtual Network.In this tutorial, you used the Data Factory UI to create a pipeline that copies and transforms data from a Data Lake Storage Gen2 source to a Data Lake Storage Gen2 sink (both allowing access to only selected networks) by using mapping data flow in Data Factory Managed Virtual Network.