Trasformare i dati in modo sicuro usando il flusso di dati di mappingTransform data securely by using mapping data flow

SI APPLICA A: Azure Data Factory Azure Synapse Analytics

Se non si ha familiarità con Azure Data Factory, vedere Introduzione ad Azure Data Factory.If you're new to Azure Data Factory, see Introduction to Azure Data Factory.

In questa esercitazione si userà l'interfaccia utente di Data Factory per creare una pipeline che copia e trasforma i dati da un'origine Azure Data Lake Storage Gen2 a un sink Data Lake Storage Gen2 (consentendo entrambi l'accesso solo alle reti selezionate) usando il flusso di dati di mapping nella rete virtuale gestita di Data Factory.In this tutorial, you'll use the Data Factory user interface (UI) to create a pipeline that copies and transforms data from an Azure Data Lake Storage Gen2 source to a Data Lake Storage Gen2 sink (both allowing access to only selected networks) by using mapping data flow in Data Factory Managed Virtual Network. È possibile espandere il modello di configurazione in questa esercitazione quando si trasformano i dati usando il flusso di dati di mapping.You can expand on the configuration pattern in this tutorial when you transform data by using mapping data flow.

In questa esercitazione vengono completati i passaggi seguenti:In this tutorial, you do the following steps:

  • Creare una data factory.Create a data factory.
  • Creare una pipeline con un'attività flusso di dati.Create a pipeline with a data flow activity.
  • Creare un flusso di dati di mapping con quattro trasformazioni.Build a mapping data flow with four transformations.
  • Eseguire test della pipeline.Test run the pipeline.
  • Monitorare un'attività flusso di dati.Monitor a data flow activity.

PrerequisitiPrerequisites

  • Sottoscrizione di Azure.Azure subscription. Se non si ha una sottoscrizione di Azure, creare un account Azure gratuito prima di iniziare.If you don't have an Azure subscription, create a free Azure account before you begin.
  • Account di archiviazione di Azure.Azure storage account. È possibile usare Data Lake Storage come archivi dati di origine e sink.You use Data Lake Storage as source and sink data stores. Se non si ha un account di archiviazione, vedere Creare un account di archiviazione di Azure per informazioni su come crearne uno.If you don't have a storage account, see Create an Azure storage account for steps to create one. Assicurarsi che l'account di archiviazione consenta l'accesso solo da reti selezionate.Ensure the storage account allows access only from selected networks.

Il file che verrà trasformato in questa esercitazione è moviesDB.csv, disponibile in questo sito di contenuto GitHub.The file that we'll transform in this tutorial is moviesDB.csv, which can be found at this GitHub content site. Per recuperare il file da GitHub, copiare il contenuto in un editor di testo di propria scelta per salvarlo in locale come file CSV.To retrieve the file from GitHub, copy the contents to a text editor of your choice to save it locally as a .csv file. Per caricare il file nell'account di archiviazione, vedere Caricare BLOB con il portale di Azure.To upload the file to your storage account, see Upload blobs with the Azure portal. Gli esempi fanno riferimento a un contenitore denominato sample-data.The examples will reference a container named sample-data.

Creare una data factoryCreate a data factory

In questo passaggio si crea un data factory e si apre l'interfaccia Data Factory per creare una pipeline nel data factory.In this step, you create a data factory and open the Data Factory UI to create a pipeline in the data factory.

  1. Aprire Microsoft Edge o Google Chrome.Open Microsoft Edge or Google Chrome. L'interfaccia utente di Data Factory è attualmente supportata solo nei Web browser Microsoft Edge e Google Chrome.Currently, only Microsoft Edge and Google Chrome web browsers support the Data Factory UI.

  2. Nel menu a sinistra selezionare Crea una risorsa > Analisi > Data factory.On the left menu, select Create a resource > Analytics > Data Factory.

  3. Nella pagina Nuova data factory immettere ADFTutorialDataFactory in Nome.On the New data factory page, under Name, enter ADFTutorialDataFactory.

    Il nome della data factory deve essere univoco a livello globale.The name of the data factory must be globally unique. Se viene visualizzato un messaggio di errore relativo al valore del nome, immettere un nome diverso per la data factory (ad esempio, nomeADFTutorialDataFactory).If you receive an error message about the name value, enter a different name for the data factory (for example, yournameADFTutorialDataFactory). Per informazioni sulle regole di denominazione per gli elementi di Data factory, vedere Azure Data factory - Regole di denominazione.For naming rules for Data Factory artifacts, see Data Factory naming rules.

  4. Selezionare la sottoscrizione di Azure in cui creare la data factory.Select the Azure subscription in which you want to create the data factory.

  5. In Gruppo di risorse eseguire una di queste operazioni:For Resource Group, take one of the following steps:

    • Selezionare Usa esistente e scegliere un gruppo di risorse esistente dall'elenco a discesa.Select Use existing, and select an existing resource group from the drop-down list.
    • Selezionare Crea nuovo e immettere un nome per il gruppo di risorse.Select Create new, and enter the name of a resource group.

    Per informazioni sui gruppi di risorse, vedere l'articolo su come usare gruppi di risorse per gestire le risorse di Azure.To learn about resource groups, see Use resource groups to manage your Azure resources.

  6. In Versione selezionare V2.Under Version, select V2.

  7. In Località selezionare una località per la data factory.Under Location, select a location for the data factory. Nell'elenco a discesa vengono visualizzate solo le località supportate.Only locations that are supported appear in the drop-down list. Gli archivi dati (ad esempio, Archiviazione di Azure e database SQL di Azure) e le risorse di calcolo (ad esempio, Azure HDInsight) usati dal data factory possono essere in altre aree.Data stores (for example, Azure Storage and Azure SQL Database) and computes (for example, Azure HDInsight) used by the data factory can be in other regions.

  8. Selezionare Crea.Select Create.

  9. Al termine della creazione, la relativa notifica verrà visualizzata nel centro notifiche.After the creation is finished, you see the notice in the Notifications center. Selezionare Vai alla risorsa per passare alla pagina Data Factory.Select Go to resource to go to the Data Factory page.

  10. Selezionare Crea e monitora per avviare l'interfaccia utente di Data Factory in una scheda separata.Select Author & Monitor to launch the Data Factory UI in a separate tab.

Creare un Azure IR in Data Factory virtuale gestitaCreate an Azure IR in Data Factory Managed Virtual Network

In questo passaggio si crea un Azure IR e si abilita Data Factory rete virtuale gestita.In this step, you create an Azure IR and enable Data Factory Managed Virtual Network.

  1. Nel portale Data Factory passare a Gestisci e selezionare Nuovo per creare una nuova Azure IR.In the Data Factory portal, go to Manage, and select New to create a new Azure IR.

    Screenshot che mostra la creazione di una nuova Azure IR.

  2. Nella pagina Configurazione del runtime di integrazione scegliere il runtime di integrazione da creare in base alle funzionalità necessarie.On the Integration runtime setup page, choose what integration runtime to create based on required capabilities. In questa esercitazione selezionare Azure, Self-Hosted e quindi fare clic su Continua.In this tutorial, select Azure, Self-Hosted and then click Continue.

  3. Selezionare Azure e quindi fare clic su Continua per creare un runtime di integrazione di Azure.Select Azure and then click Continue to create an Azure Integration runtime.

    Screenshot che mostra una nuova Azure IR.

  4. In Configurazione della rete virtuale (anteprima) selezionare Abilita.Under Virtual network configuration (Preview), select Enable.

    Screenshot che mostra l'abilitazione di una nuova Azure IR.

  5. Selezionare Crea.Select Create.

Creare una pipeline con un'attività flusso di datiCreate a pipeline with a data flow activity

In questo passaggio si creerà una pipeline che contiene un'attività flusso di dati.In this step, you'll create a pipeline that contains a data flow activity.

  1. Nella pagina Attività iniziali selezionare Create pipeline (Crea pipeline).On the Let's get started page, select Create pipeline.

    Screenshot che mostra la creazione di una pipeline.

  2. Nel riquadro delle proprietà per la pipeline immettere TransformMovies come nome della pipeline.In the properties pane for the pipeline, enter TransformMovies for the pipeline name.

  3. Nel riquadro Attività espandere Sposta e trasforma.In the Activities pane, expand Move and Transform. Trascinare l'Flusso di dati attività dal riquadro all'area di disegno della pipeline.Drag the Data Flow activity from the pane to the pipeline canvas.

  4. Nel popup Aggiunta flusso di dati selezionare Crea nuovo flusso di dati e quindi selezionare Mapping Flusso di dati.In the Adding data flow pop-up, select Create new data flow and then select Mapping Data Flow. Al termine, selezionare OK.Select OK when you're finished.

    Screenshot che mostra Mapping Flusso di dati.

  5. Assegnare al flusso di dati il nome TransformMovies nel riquadro delle proprietà.Name your data flow TransformMovies in the properties pane.

  6. Nella barra superiore dell'area di disegno della pipeline far scorrere Flusso di dati dispositivo di scorrimento debug.In the top bar of the pipeline canvas, slide the Data Flow debug slider on. La modalità di debug consente di testare in modo interattivo la logica di trasformazione in un cluster Spark attivo.Debug mode allows for interactive testing of transformation logic against a live Spark cluster. Flusso di dati i cluster possono richiedere da 5 a 7 minuti per il riscaldamento e agli utenti è consigliabile attivare prima il debug se si prevede di eseguire Flusso di dati sviluppo.Data Flow clusters take 5-7 minutes to warm up and users are recommended to turn on debug first if they plan to do Data Flow development. Per altre informazioni, vedere Modalità di debug.For more information, see Debug Mode.

    Screenshot che mostra il dispositivo di scorrimento Debug flusso di dati.

Compilare la logica di trasformazione nell'area di disegno del flusso di datiBuild transformation logic in the data flow canvas

Dopo aver creato il flusso di dati, si verrà inviati automaticamente all'area di disegno del flusso di dati.After you create your data flow, you'll be automatically sent to the data flow canvas. In questo passaggio verrà compilato un flusso di dati che accetta il file moviesDB.csv in Data Lake Storage e aggrega la classificazione media delle comete dal 1910 al 2000.In this step, you'll build a data flow that takes the moviesDB.csv file in Data Lake Storage and aggregates the average rating of comedies from 1910 to 2000. Questo file verrà quindi scritto nuovamente in Data Lake Storage.You'll then write this file back to Data Lake Storage.

Aggiungere la trasformazione di origineAdd the source transformation

In questo passaggio si configura la Data Lake Storage Gen2 come origine.In this step, you set up Data Lake Storage Gen2 as a source.

  1. Nell'area di disegno del flusso di dati aggiungere un'origine selezionando la casella Aggiungi origine.In the data flow canvas, add a source by selecting the Add Source box.

  2. Assegnare all'origine il nome MoviesDB.Name your source MoviesDB. Selezionare Nuovo per creare un nuovo set di dati di origine.Select New to create a new source dataset.

  3. Selezionare Azure Data Lake Storage Gen2 e quindi Continua.Select Azure Data Lake Storage Gen2, and then select Continue.

  4. Selezionare DelimitedText e quindi Continua.Select DelimitedText, and then select Continue.

  5. Assegnare al set di dati il nome MoviesDB.Name your dataset MoviesDB. Nell'elenco a discesa del servizio collegato selezionare Nuovo.In the linked service drop-down, select New.

  6. Nella schermata di creazione del servizio collegato assegnare al Data Lake Storage Gen2 il nome ADLSGen2 e specificare il metodo di autenticazione.In the linked service creation screen, name your Data Lake Storage Gen2 linked service ADLSGen2 and specify your authentication method. Immettere quindi le credenziali di connessione.Then enter your connection credentials. In questa esercitazione si usa la chiave dell'account per connettersi all'account di archiviazione.In this tutorial, we're using Account key to connect to our storage account.

  7. Assicurarsi di abilitare Creazione interattiva.Make sure you enable Interactive authoring. L'a abilitata potrebbe richiedere un minuto.It might take a minute to be enabled.

    Screenshot che mostra la creazione interattiva.

  8. Selezionare Test connessione.Select Test connection. L'errore dovrebbe non riuscire perché l'account di archiviazione non consente l'accesso senza la creazione e l'approvazione di un endpoint privato.It should fail because the storage account doesn't enable access into it without the creation and approval of a private endpoint. Nel messaggio di errore verrà visualizzato un collegamento che è possibile seguire per creare un endpoint privato gestito.In the error message, you should see a link to create a private endpoint that you can follow to create a managed private endpoint. In alternativa, passare direttamente alla scheda Gestisci e seguire le istruzioni in questa sezione per creare un endpoint privato gestito.An alternative is to go directly to the Manage tab and follow instructions in this section to create a managed private endpoint.

  9. Tenere aperta la finestra di dialogo e quindi passare all'account di archiviazione.Keep the dialog box open, and then go to your storage account.

  10. Seguire le istruzioni riportate in questa sezione per approvare il collegamento privato.Follow instructions in this section to approve the private link.

  11. Tornare nella finestra di dialogo.Go back to the dialog box. Selezionare di nuovo Test connessione e selezionare Crea per distribuire il servizio collegato.Select Test connection again, and select Create to deploy the linked service.

  12. Nella schermata di creazione del set di dati immettere dove si trova il file nel campo Percorso file.On the dataset creation screen, enter where your file is located under the File path field. In questa esercitazione il file moviesDB.csv si trova nel contenitore sample-data.In this tutorial, the file moviesDB.csv is located in the container sample-data. Poiché il file ha intestazioni, selezionare la casella di controllo Prima riga come intestazione .Because the file has headers, select the First row as header check box. Selezionare From connection/store (Da connessione/archivio) per importare lo schema di intestazione direttamente dal file nell'archivio.Select From connection/store to import the header schema directly from the file in storage. Al termine, selezionare OK.Select OK when you're finished.

    Screenshot che mostra il percorso di origine.

  13. Se il cluster di debug è stato avviato, passare alla scheda Anteprima dati della trasformazione di origine e selezionare Aggiorna per ottenere uno snapshot dei dati.If your debug cluster has started, go to the Data Preview tab of the source transformation and select Refresh to get a snapshot of the data. È possibile usare l'anteprima dei dati per verificare che la trasformazione sia configurata correttamente.You can use the data preview to verify your transformation is configured correctly.

    Screenshot che mostra la scheda Anteprima dati.

Creare un endpoint privato gestitoCreate a managed private endpoint

Se il collegamento ipertestuale non è stato utilizzato durante il test della connessione precedente, seguire il percorso.If you didn't use the hyperlink when you tested the preceding connection, follow the path. A questo punto è necessario creare un endpoint privato gestito che verrà connesso al servizio collegato creato.Now you need to create a managed private endpoint that you'll connect to the linked service you created.

  1. Passare alla scheda Gestisci.Go to the Manage tab.

    Nota

    La scheda Gestisci potrebbe non essere disponibile per tutte le istanze di Data Factory.The Manage tab might not be available for all Data Factory instances. Se non viene visualizzata, è possibile accedere agli endpoint privati selezionando Autore > Connessioni > Endpoint privato.If you don't see it, you can access private endpoints by selecting Author > Connections > Private Endpoint.

  2. Passare alla sezione Managed private endpoints (Endpoint privati gestiti).Go to the Managed private endpoints section.

  3. Selezionare + Nuovo in Managed private endpoints (Endpoint privati gestiti).Select + New under Managed private endpoints.

    Screenshot che mostra il pulsante Nuovo in Managed private endpoints (Endpoint privati gestiti).

  4. Selezionare il Azure Data Lake Storage Gen2 riquadro dall'elenco e selezionare Continua.Select the Azure Data Lake Storage Gen2 tile from the list, and select Continue.

  5. Immettere il nome dell'account di archiviazione creato.Enter the name of the storage account you created.

  6. Selezionare Crea.Select Create.

  7. Dopo alcuni secondi si noterà che il collegamento privato creato necessita dell'approvazione.After a few seconds, you should see that the private link created needs an approval.

  8. Selezionare l'endpoint privato creato.Select the private endpoint that you created. Verrà visualizzato un collegamento ipertestuale, seguendo il quale sarà possibile approvare l'endpoint privato a livello di account di archiviazione.You can see a hyperlink that will lead you to approve the private endpoint at the storage account level.

    Screenshot che mostra il riquadro Gestisci endpoint privato.

  1. Nell'account di archiviazione passare a Connessioni a endpoint privato nella sezione Impostazioni.In the storage account, go to Private endpoint connections under the Settings section.

  2. Selezionare la casella di controllo in base all'endpoint privato creato e selezionare Approva.Select the check box by the private endpoint you created, and select Approve.

    Screenshot che mostra il pulsante Approva endpoint privato.

  3. Aggiungere una descrizione e selezionare .Add a description, and select yes.

  4. Tornare nella sezione Managed private endpoints (Gestisci endpoint privati) della scheda Gestisci in Data Factory.Go back to the Managed private endpoints section of the Manage tab in Data Factory.

  5. Dopo circa un minuto, verrà visualizzata l'approvazione per l'endpoint privato.After about a minute, you should see the approval appear for your private endpoint.

Aggiungere la trasformazione filtroAdd the filter transformation

  1. Accanto al nodo di origine nell'area di disegno del flusso di dati selezionare l'icona con il segno più per aggiungere una nuova trasformazione.Next to your source node on the data flow canvas, select the plus icon to add a new transformation. La prima trasformazione da aggiungere è un filtro.The first transformation you'll add is a Filter.

    Screenshot che mostra l'aggiunta di un filtro.

  2. Assegnare alla trasformazione filtro il nome FilterYears.Name your filter transformation FilterYears. Selezionare la casella di espressione accanto a Filtra per aprire il generatore di espressioni.Select the expression box next to Filter on to open the expression builder. Qui si specifica la condizione di filtro.Here you'll specify your filtering condition.

    Screenshot che mostra FilterYears.

  3. Il generatore di espressioni del flusso di dati consente di compilare in modo interattivo espressioni da usare in varie trasformazioni.The data flow expression builder lets you interactively build expressions to use in various transformations. Le espressioni possono includere funzioni predefinite, colonne dello schema di input e parametri definiti dall'utente.Expressions can include built-in functions, columns from the input schema, and user-defined parameters. Per altre informazioni su come compilare espressioni, vedere Generatore di espressioni del flusso di dati.For more information on how to build expressions, see Data flow expression builder.

    • In questa esercitazione si vogliono filtrare i film nel genere della comedy che è stato tra gli anni 1910 e 2000.In this tutorial, you want to filter movies in the comedy genre that came out between the years 1910 and 2000. Poiché l'anno è attualmente una stringa, è necessario convertirlo in un intero usando la toInteger() funzione .Because the year is currently a string, you need to convert it to an integer by using the toInteger() function. Usare gli operatori maggiore o uguale a (>=) e minore o uguale a (<=) per eseguire il confronto con i valori letterali dell'anno 1910 e 2000.Use the greater than or equal to (>=) and less than or equal to (<=) operators to compare against the literal year values 1910 and 2000. Unione di queste espressioni con l'operatore e (&&).Union these expressions together with the and (&&) operator. L'espressione viene fornita come:The expression comes out as:

      toInteger(year) >= 1910 && toInteger(year) <= 2000

    • Per trovare quali film sono comedies, è possibile usare la funzione per trovare il modello rlike() "Comedy" nei generi delle colonne.To find which movies are comedies, you can use the rlike() function to find the pattern 'Comedy' in the column genres. Unione dell'espressione rlike con il confronto dell'anno per ottenere:Union the rlike expression with the year comparison to get:

      toInteger(year) >= 1910 && toInteger(year) <= 2000 && rlike(genres, 'Comedy')

    • Se è attivo un cluster di debug, è possibile verificare la logica selezionando Aggiorna per visualizzare l'output dell'espressione rispetto agli input usati.If you have a debug cluster active, you can verify your logic by selecting Refresh to see the expression output compared to the inputs used. Esiste più di una risposta corretta su come eseguire questa logica usando il linguaggio delle espressioni del flusso di dati.There's more than one right answer on how you can accomplish this logic by using the data flow expression language.

      Screenshot che mostra l'espressione di filtro.

    • Al termine dell'operazione, selezionare Salva e termina.Select Save and finish after you're finished with your expression.

  4. Recuperare un'anteprima dei dati per verificare che il filtro funzioni correttamente.Fetch a Data Preview to verify the filter is working correctly.

    Screenshot che mostra l'anteprima dei dati filtrati.

Aggiungere la trasformazione AggregazioneAdd the aggregate transformation

  1. La trasformazione successiva che verrà aggiunta è una trasformazione Aggregazione in Modificatore schema.The next transformation you'll add is an Aggregate transformation under Schema modifier.

    Screenshot che mostra l'aggiunta dell'aggregazione.

  2. Assegnare alla trasformazione aggregazione il nome AggregateComedyRating.Name your aggregate transformation AggregateComedyRating. Nella scheda Raggruppa per selezionare year dalla casella di riepilogo a discesa per raggruppare le aggregazioni in base all'anno di uscita del film.On the Group by tab, select year from the drop-down box to group the aggregations by the year the movie came out.

    Screenshot che mostra il gruppo di aggregazione.

  3. Passare alla scheda Aggregazioni. Nella casella di testo a sinistra assegnare alla colonna di aggregazione il nome AverageComedyRating.Go to the Aggregates tab. In the left text box, name the aggregate column AverageComedyRating. Selezionare la casella di espressione destra per immettere l'espressione di aggregazione tramite il generatore di espressioni.Select the right expression box to enter the aggregate expression via the expression builder.

    Screenshot che mostra il nome della colonna aggregata.

  4. Per ottenere la media della colonna Rating, usare la avg() funzione di aggregazione .To get the average of column Rating, use the avg() aggregate function. Poiché Rating è una stringa e accetta un input numerico, è necessario convertire il valore avg() in un numero tramite la funzione toInteger() .Because Rating is a string and avg() takes in a numerical input, we must convert the value to a number via the toInteger() function. Questa espressione è simile alla seguente:This expression looks like:

    avg(toInteger(Rating))

  5. Al termine, selezionare Salva e termina.Select Save and finish after you're finished.

    Screenshot che mostra il salvataggio dell'aggregazione.

  6. Passare alla scheda Anteprima dati per visualizzare l'output della trasformazione.Go to the Data Preview tab to view the transformation output. Si noti che sono presenti solo due colonne, year e AverageComedyRating.Notice only two columns are there, year and AverageComedyRating.

Aggiungere la trasformazione sinkAdd the sink transformation

  1. Successivamente, si vuole aggiungere una trasformazione Sink in Destinazione.Next, you want to add a Sink transformation under Destination.

    Screenshot che mostra l'aggiunta di un sink.

  2. Assegnare al sink il nome Sink.Name your sink Sink. Selezionare Nuovo per creare il set di dati del sink.Select New to create your sink dataset.

    Screenshot che mostra la creazione di un sink.

  3. Nella pagina Nuovo set di dati selezionare Azure Data Lake Storage Gen2 e quindi selezionare Continua. On the New dataset page, select Azure Data Lake Storage Gen2 and then select Continue.

  4. Nella pagina Seleziona formato selezionare DelimitedText e quindi selezionare Continua.On the Select format page, select DelimitedText and then select Continue.

  5. Assegnare al set di dati sink il nome MoviesSink.Name your sink dataset MoviesSink. Per il servizio collegato, scegliere lo stesso servizio collegato ADLSGen2 creato per la trasformazione di origine.For linked service, choose the same ADLSGen2 linked service you created for source transformation. Immettere una cartella di output in cui scrivere i dati.Enter an output folder to write your data to. In questa esercitazione si scrive nell'output della cartella nel contenitore sample-data.In this tutorial, we're writing to the folder output in the container sample-data. La cartella non deve esistere in anticipo e può essere creata dinamicamente.The folder doesn't need to exist beforehand and can be dynamically created. Selezionare la casella di controllo First row as header (Prima riga come intestazione) e selezionare None (Nessuna) per Import schema (Importa schema).Select the First row as header check box, and select None for Import schema. Selezionare OK.Select OK.

    Screenshot che mostra il percorso del sink.

A questo punto è stata completata la creazione del flusso di dati.Now you've finished building your data flow. È ora possibile eseguirlo nella pipeline.You're ready to run it in your pipeline.

Eseguire e monitorare il flusso di datiRun and monitor the data flow

È possibile eseguire il debug di una pipeline prima di pubblicarla.You can debug a pipeline before you publish it. In questo passaggio viene attivata un'esecuzione di debug della pipeline del flusso di dati.In this step, you trigger a debug run of the data flow pipeline. Anche se l'anteprima dei dati non scrive dati, un'esecuzione di debug scriverà i dati nella destinazione sink.While the data preview doesn't write data, a debug run will write data to your sink destination.

  1. Passare all'area di disegno della pipeline.Go to the pipeline canvas. Selezionare Debug per attivare un'esecuzione del debug.Select Debug to trigger a debug run.

  2. Il debug delle pipeline delle attività del flusso di dati usa il cluster di debug attivo, ma l'inizializzazione richiede comunque almeno un minuto.Pipeline debugging of data flow activities uses the active debug cluster but still takes at least a minute to initialize. È possibile tenere traccia dello stato di avanzamento tramite la scheda Output. Al termine dell'esecuzione, selezionare l'icona a forma di occhiali per i dettagli dell'esecuzione.You can track the progress via the Output tab. After the run is successful, select the eyeglasses icon for run details.

  3. Nella pagina dei dettagli è possibile visualizzare il numero di righe e il tempo impiegato per ogni passaggio di trasformazione.On the details page, you can see the number of rows and the time spent on each transformation step.

    Screenshot che mostra un'esecuzione di monitoraggio.

  4. Selezionare una trasformazione per ottenere informazioni dettagliate sulle colonne e sul partizionamento dei dati.Select a transformation to get detailed information about the columns and partitioning of the data.

Se questa esercitazione è stata eseguita correttamente, nella cartella sink dovrebbero essere state scritte 83 righe e 2 colonne.If you followed this tutorial correctly, you should have written 83 rows and 2 columns into your sink folder. È possibile verificare che i dati siano corretti controllando l'archiviazione BLOB.You can verify the data is correct by checking your blob storage.

RiepilogoSummary

In questa esercitazione è stata usata l'interfaccia utente di Data Factory per creare una pipeline che copia e trasforma i dati da un'origine Data Lake Storage Gen2 a un sink Data Lake Storage Gen2 (entrambi consentono l'accesso solo alle reti selezionate) usando il flusso di dati di mapping in unarete virtuale gestita di Data Factory .In this tutorial, you used the Data Factory UI to create a pipeline that copies and transforms data from a Data Lake Storage Gen2 source to a Data Lake Storage Gen2 sink (both allowing access to only selected networks) by using mapping data flow in Data Factory Managed Virtual Network.