Guida introduttiva: Creare una data factory usando l'interfaccia utente di Azure Data FactoryQuickstart: Create a data factory by using the Azure Data Factory UI

La guida introduttiva descrive come usare l'interfaccia utente di Azure Data Factory per creare e monitorare una data factory.This quickstart describes how to use the Azure Data Factory UI to create and monitor a data factory. La pipeline creata in questa data factory copia dati da una cartella a un'altra nell'archivio BLOB di Azure.The pipeline that you create in this data factory copies data from one folder to another folder in Azure Blob storage. Per un'esercitazione su come trasformare i dati usando Azure Data Factory, vedere Esercitazione: Trasformare i dati usando Spark.For a tutorial on how to transform data by using Azure Data Factory, see Tutorial: Transform data by using Spark.

Nota

Se non si ha familiarità con Azure Data Factory, vedere Introduzione ad Azure Data Factory prima di seguire la guida introduttiva.If you are new to Azure Data Factory, see Introduction to Azure Data Factory before doing this quickstart.

PrerequisitiPrerequisites

Sottoscrizione di AzureAzure subscription

Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare.If you don't have an Azure subscription, create a free account before you begin.

Ruoli di AzureAzure roles

Per creare istanze di Data Factory, l'account utente usato per accedere ad Azure deve essere un membro del ruolo collaboratore o proprietario oppure un amministratore della sottoscrizione di Azure.To create Data Factory instances, the user account that you use to sign in to Azure must be a member of the contributor or owner role, or an administrator of the Azure subscription. Per visualizzare le autorizzazioni disponibili nella sottoscrizione, passare al portale di Azure, selezionare il nome utente nell'angolo in alto a destra, selezionare Altre opzioni (...) e quindi selezionare Autorizzazioni personali.To view the permissions that you have in the subscription, go to the Azure portal, select your username in the upper-right corner, select More options (...), and then select My permissions. Se si accede a più sottoscrizioni, selezionare quella appropriata.If you have access to multiple subscriptions, select the appropriate subscription.

Per creare e gestire le risorse figlio per Data Factory, inclusi i set di dati, i servizi collegati, le pipeline, i trigger e i runtime di integrazione, sono applicabili i requisiti seguenti:To create and manage child resources for Data Factory - including datasets, linked services, pipelines, triggers, and integration runtimes - the following requirements are applicable:

  • Per creare e gestire le risorse figlio nel portale di Azure, è necessario appartenere al ruolo Collaboratore Data Factory a livello di gruppo di risorse o superiore.To create and manage child resources in the Azure portal, you must belong to the Data Factory Contributor role at the resource group level or above.
  • Per creare e gestire le risorse figlio con PowerShell o l'SDK, è sufficiente il ruolo di collaboratore a livello di risorsa o superiore.To create and manage child resources with PowerShell or the SDK, the contributor role at the resource level or above is sufficient.

Per istruzioni di esempio su come aggiungere un utente a un ruolo, vedere l'articolo Aggiungere i ruoli.For sample instructions about how to add a user to a role, see the Add roles article.

Per altre informazioni, vedere gli articoli seguenti:For more info, see the following articles:

Account di archiviazione di AzureAzure storage account

In questa guida introduttiva si usa un account di archiviazione di Azure per utilizzo generico (specificamente, di archiviazione BLOB) come archivio dati sia di origine che di destinazione.You use a general-purpose Azure storage account (specifically Blob storage) as both source and destination data stores in this quickstart. Se non si ha un account di archiviazione di Azure per utilizzo generico, vedere Creare un account di archiviazione per informazioni su come crearne uno.If you don't have a general-purpose Azure storage account, see Create a storage account to create one.

Ottenere il nome dell'account di archiviazioneGet the storage account name

Per questa guida introduttiva è necessario avere il nome dell'account di archiviazione di Azure.You will need the name of your Azure storage account for this quickstart. La procedura seguente illustra i passaggi per recuperare il nome dell'account di archiviazione:The following procedure provides steps to get the name of your storage account:

  1. In un Web browser passare al portale di Azure e accedere usando il nome utente e la password di Azure.In a web browser, go to the Azure portal and sign in using your Azure username and password.
  2. Selezionare Tutti i servizi > Archiviazione > Account di archiviazione.Select All services > Storage > Storage accounts.
  3. Nella pagina Account di archiviazione filtrare gli account di archiviazione, se necessario, quindi selezionare il proprio account di archiviazione.In the Storage accounts page, filter for your storage account (if needed), and then select your storage account.

Creare un contenitore BLOBCreate a blob container

In questa sezione viene creato un contenitore BLOB denominato adftutorial nell'archivio BLOB di Azure.In this section, you create a blob container named adftutorial in Azure Blob storage.

  1. Dalla pagina dell'account di archiviazione, selezionare Panoramica > BLOB.From the storage account page, select Overview > Blobs.

  2. Nella barra degli strumenti <Nome account> - BLOB selezionare Contenitore.On the <Account name> - Blobs page's toolbar, select Container.

  3. Nella finestra di dialogo Nuovo contenitore immettere adftutorial come nome e quindi fare clic su OK.In the New container dialog box, enter adftutorial for the name, and then select OK. La pagina <Nome account> - BLOB viene aggiornata per includere adftutorial nell'elenco dei contenitori.The <Account name> - Blobs page is updated to include adftutorial in the list of containers.

    Elenco dei contenitori

Aggiungere una cartella di input e un file per il contenitore BLOBAdd an input folder and file for the blob container

In questa sezione verrà creata una cartella denominata input nel contenitore appena creato, quindi si caricherà un file di esempio in tale cartella.In this section, you create a folder named input in the container you just created, and then upload a sample file to the input folder. Prima di iniziare, aprire un editor di testo come il Blocco note e creare un file denominato emp.txt con il contenuto seguente:Before you begin, open a text editor such as Notepad, and create a file named emp.txt with the following content:

John, Doe
Jane, Doe

Salvare il file nella cartella C:\ADFv2QuickStartPSH.Save the file in the C:\ADFv2QuickStartPSH folder. Se la cartella non esiste, crearla. Tornare al portale di Azure e seguire questa procedura:(If the folder doesn't already exist, create it.) Then return to the Azure portal and follow these steps:

  1. Dal punto in cui ci si trovava nella pagina <Nome account> - BLOB selezionare adftutorial nell'elenco aggiornato dei contenitori.In the <Account name> - Blobs page where you left off, select adftutorial from the updated list of containers. Se la finestra è stata chiusa o ci si è spostati su un'altra pagina, accedere nuovamente al portale di Azure, selezionare Tutti i servizi > Archiviazione > Account di archiviazione, selezionare l'account di archiviazione e quindi selezionare BLOB > adftutorial.(If you closed the window or went to another page, sign in to the Azure portal again, select All services > Storage > Storage accounts, select your storage account, and then select Blobs > adftutorial.)

  2. Nella barra degli strumenti della pagina del contenitore adftutorial selezionare Carica.On the adftutorial container page's toolbar, select Upload.

  3. Nella pagina Carica BLOB selezionare la casella File, quindi individuare e selezionare il file emp.txt.In the Upload blob page, select the Files box, and then browse to and select the emp.txt file.

  4. Espandere l'intestazione Avanzate.Expand the Advanced heading. La pagina viene ora visualizzata come illustrato di seguito:The page now displays as shown:

    Selezionare il collegamento Avanzate

  5. Nella casella Carica nella cartella immettere input.In the Upload to folder box, enter input.

  6. Selezionare il pulsante Carica.Select the Upload button. Verranno visualizzati il file emp.txt e lo stato del caricamento nell'elenco.You should see the emp.txt file and the status of the upload in the list.

  7. Selezionare l'icona Chiudi (una X) per chiudere la pagina Carica BLOB.Select the Close icon (an X) to close the Upload blob page.

Lasciare aperta la pagina del contenitore adftutorial.Keep the adftutorial container page open. perché verrà usata per verificare l'output alla fine di questa guida introduttiva.You use it to verify the output at the end of this quickstart.

VideoVideo

Questo video contiene informazioni utili sull'interfaccia utente di Data Factory:Watching this video helps you understand the Data Factory UI:

Creare una data factoryCreate a data factory

  1. Avviare il Web browser Microsoft Edge o Google Chrome.Launch Microsoft Edge or Google Chrome web browser. L'interfaccia utente di Data Factory è attualmente supportata solo nei Web browser Microsoft Edge e Google Chrome.Currently, Data Factory UI is supported only in Microsoft Edge and Google Chrome web browsers.

  2. Accedere al portale di Azure.Go to the Azure portal.

  3. Selezionare Crea una risorsa dal menu a sinistra, selezionare Analytics e quindi selezionare Data Factory.Select Create a resource on the left menu, select Analytics, and then select Data Factory.

    Selezione di Data Factory nel riquadro "Nuovo"

  4. Nella pagina Nuova data factory immettere ADFTutorialDataFactory per Nome.On the New data factory page, enter ADFTutorialDataFactory for Name.

    Il nome della data factory di Azure deve essere univoco a livello globale.The name of the Azure data factory must be globally unique. Se viene visualizzato l'errore seguente, modificare il nome della data factory, ad esempio, <nomeutente>ADFTutorialDataFactory, e provare di nuovo a crearla.If you see the following error, change the name of the data factory (for example, <yourname>ADFTutorialDataFactory) and try creating again. Per le regole di denominazione per gli elementi di Data Factory, vedere l'articolo Data Factory - Regole di denominazione.For naming rules for Data Factory artifacts, see the Data Factory - naming rules article.

    Errore quando un nome non è disponibile

  5. Per Sottoscrizione selezionare la sottoscrizione di Azure in cui creare la data factory.For Subscription, select your Azure subscription in which you want to create the data factory.

  6. In Gruppo di risorse eseguire una di queste operazioni:For Resource Group, use one of the following steps:

    • Selezionare Usa esistentee scegliere un gruppo di risorse esistente dall'elenco.Select Use existing, and select an existing resource group from the list.
    • Selezionare Crea nuovoe immettere un nome per il gruppo di risorse.Select Create new, and enter the name of a resource group.

    Per informazioni sui gruppi di risorse, vedere l'articolo relativo all'uso di gruppi di risorse per la gestione delle risorse di Azure.To learn about resource groups, see Using resource groups to manage your Azure resources.

  7. Per Versione selezionare V2.For Version, select V2.

  8. Per Località selezionare la località per la data factory.For Location, select the location for the data factory.

    L'elenco mostra solo le località supportate da Data Factory e in cui verranno archiviati i metadati di Azure Data Factory.The list shows only locations that Data Factory supports, and where your Azure Data Factory meta data will be stored. Gli archivi dati associati (come Archiviazione di Azure e il database SQL di Azure) e le risorse di calcolo (come Azure HDInsight) usati da Data Factory possono essere eseguiti in altre aree.The associated data stores (like Azure Storage and Azure SQL Database) and computes (like Azure HDInsight) that Data Factory uses can run in other regions.

  9. Selezionare Create (Crea).Select Create.

  10. Al termine della creazione verrà visualizzata la pagina Data factory.After the creation is complete, you see the Data Factory page. Selezionare il riquadro Crea e monitora per avviare l'applicazione dell'interfaccia utente di Azure Data Factory in una scheda separata.Select the Author & Monitor tile to start the Azure Data Factory user interface (UI) application on a separate tab.

    Home page della data factory, con il riquadro "Crea e monitora"

  11. Nella pagina Attività iniziali passare alla scheda Autore nel pannello sinistro.On the Let's get started page, switch to the Author tab in the left panel.

    Pagina "Attività iniziali"

Creare un servizio collegatoCreate a linked service

In questa procedura viene creato un servizio collegato per collegare l'account di archiviazione di Azure alla data factory.In this procedure, you create a linked service to link your Azure storage account to the data factory. Il servizio collegato ha le informazioni di connessione usate dal servizio Data Factory in fase di esecuzione per la connessione.The linked service has the connection information that the Data Factory service uses at runtime to connect to it.

  1. Selezionare Connessioni e quindi fare clic sul pulsante Nuovo sulla barra degli strumenti. Il pulsante Connessioni si trova nella parte inferiore della colonna sinistra, in Factory Resources (Risorse factory).Select Connections, and then select the New button on the toolbar (Connections button is located at the bottom of the left column under Factory Resources).

  2. Nella pagina New Linked Service (Nuovo servizio collegato) selezionare Archiviazione BLOB di Azure e quindi Continua.On the New Linked Service page, select Azure Blob Storage, and then select Continue.

    Selezione del riquadro "Archiviazione BLOB di Azure"

  3. Nella pagina New Linked Service (Azure Blob Storage) (Nuovo servizio collegato - Archiviazione BLOB di Azure) completare la procedura seguente:On the New Linked Service (Azure Blob Storage) page, complete the following steps:

    a.a. Per Nome immettere AzureStorageLinkedService.For Name, enter AzureStorageLinkedService.

    b.b. Per Nome account di archiviazione selezionare il nome dell'account di archiviazione di Azure.For Storage account name, select the name of your Azure storage account.

    c.c. Selezionare Connessione di test per confermare che il servizio Data Factory possa connettersi all'account di archiviazione.Select Test connection to confirm that the Data Factory service can connect to the storage account.

    d.d. Selezionare Fine per salvare il servizio collegato.Select Finish to save the linked service.

Creare set di datiCreate datasets

In questa procedura verranno creati due set di dati: InputDataset e OutputDataset.In this procedure, you create two datasets: InputDataset and OutputDataset. I set di dati sono di tipo AzureBlob.These datasets are of type AzureBlob. Fanno riferimento al servizio collegato Archiviazione di Azure creato nella sezione precedente.They refer to the Azure Storage linked service that you created in the previous section.

Il set di dati di input rappresenta i dati di origini nella cartella di input.The input dataset represents the source data in the input folder. Nella definizione del set di dati di input specificare il contenitore BLOB (adftutorial), la cartella (input) e il file (emp.txt) che includono i dati di origine.In the input dataset definition, you specify the blob container (adftutorial), the folder (input), and the file (emp.txt) that contain the source data.

Il set di dati di output rappresenta i dati copiati nella destinazione.The output dataset represents the data that's copied to the destination. Nella definizione del set di dati di output specificare il contenitore BLOB (adftutorial), la cartella (output) e il file in cui vengono copiati i dati.In the output dataset definition, you specify the blob container (adftutorial), the folder (output), and the file to which the data is copied. A ogni esecuzione di una pipeline è associato un ID univoco.Each run of a pipeline has a unique ID associated with it. È possibile accedere a questo ID usando la variabile di sistema RunId.You can access this ID by using the system variable RunId. Il nome del file di output viene valutato dinamicamente in base all'ID dell'esecuzione della pipeline.The name of the output file is dynamically evaluated based on the run ID of the pipeline.

Nelle impostazioni del servizio collegato è stato specificato l'account di archiviazione di Azure che contiene i dati di origine.In the linked service settings, you specified the Azure storage account that contains the source data. Nelle impostazioni del set di dati di origine specificare la posizione esatta in cui si trovano i dati, ovvero contenitore BLOB, cartella e file.In the source dataset settings, you specify where exactly the source data resides (blob container, folder, and file). Nelle impostazioni del set di dati di sink specificare la posizione in cui vengono copiati i dati, ovvero contenitore BLOB, cartella e file.In the sink dataset settings, you specify where the data is copied to (blob container, folder, and file).

  1. Selezionare il pulsante + (segno più) e quindi selezionare Set di dati.Select the + (plus) button, and then select Dataset.

    Menu per la creazione di un set di dati

  2. Nella pagina Nuovo set di dati selezionare Archiviazione BLOB di Azure e quindi selezionare Continua.On the New Dataset page, select Azure Blob Storage, and then select Continue.

    Selezione di "Archiviazione BLOB di Azure"

  3. Nella pagina Select Format (Seleziona formato) scegliere il tipo di formato dei dati e quindi fare clic su Continua.On the Select Format page, choose the format type of your data, and then select Continue. In questo caso selezionare Binario quando si copiano i file senza analizzare il contenuto.In this case, select Binary when copy files as-is without parsing the content.

    Tipo di formato dati

  4. Nella pagina Imposta proprietà completare la procedura seguente:On the Set Properties page, complete following steps:

    a.a. In Nome immettere InputDataset.Under Name, enter InputDataset.

    b.b. Per Servizio collegato selezionare AzureStorageLinkedService.For Linked service, select AzureStorageLinkedService.

    c.c. Per Percorso file selezionare il pulsante Sfoglia.For File path, select the Browse button.

    d.d. Nella finestra Choose a file or folder (Scegliere un file o una cartella) passare alla cartella di input nel contenitore adftutorial, selezionare il file emp.txt e quindi selezionare Fine.In the Choose a file or folder window, browse to the input folder in the adftutorial container, select the emp.txt file, and then select Finish.

    e.e. Selezionare Continua.Select Continue.

    Impostare le proprietà per InputDataset

  5. Ripetere la procedura per creare il set di dati di output:Repeat the steps to create the output dataset:

    a.a. Selezionare il pulsante + (segno più) e quindi selezionare Set di dati.Select the + (plus) button, and then select Dataset.

    b.b. Nella pagina Nuovo set di dati selezionare Archiviazione BLOB di Azure e quindi selezionare Continua.On the New Dataset page, select Azure Blob Storage, and then select Continue.

    c.c. Nella pagina Select Format (Seleziona formato) scegliere il tipo di formato dei dati e quindi fare clic su Continua.On the Select Format page, choose the format type of your data, and then select Continue.

    d.d. Nella pagina Imposta proprietà specificare OutputDataset per il nome.On the Set Properties page, specify OutputDataset for the name. Selezionare AzureStorageLinkedService come servizio collegato.Select AzureStorageLinkedService as linked service.

    e.e. In Percorso file immettere adftutorial/output.Under File path, enter adftutorial/output. Se la cartella output non esiste, l'attività di copia la crea in fase di esecuzione.If the output folder doesn't exist, the copy activity creates it at runtime.

    f.f. Selezionare Continua.Select Continue.

Creare una pipelineCreate a pipeline

In questa procedura viene creata e convalidata una pipeline con un'attività di copia che usa i set di dati di input e di output.In this procedure, you create and validate a pipeline with a copy activity that uses the input and output datasets. Con l'attività di copia i dati vengono copiati dal file specificato nelle impostazioni del set di dati di input al file specificato nelle impostazioni del set di dati di output.The copy activity copies data from the file you specified in the input dataset settings to the file you specified in the output dataset settings. Se il set di dati di input specifica solo una cartella, non il nome file, con l'attività di copia tutti i file della cartella di origine vengono copiati nella destinazione.If the input dataset specifies only a folder (not the file name), the copy activity copies all the files in the source folder to the destination.

  1. Selezionare il pulsante + (segno più) e quindi selezionare Pipeline.Select the + (plus) button, and then select Pipeline.

  2. Nella scheda Generale specificare CopyPipeline per Nome.In the General tab, specify CopyPipeline for Name.

  3. Nella casella degli strumenti Attività espandere Move & Transform (Sposta e trasforma).In the Activities toolbox, expand Move & Transform. Trascinare l'attività Copia dati dalla casella degli strumenti Attività all'area di progettazione della pipeline.Drag the Copy Data activity from the Activities toolbox to the pipeline designer surface. È anche possibile eseguire una ricerca di attività nella casella degli strumenti Attività.You can also search for activities in the Activities toolbox. Specificare CopyFromBlobToBlob per Nome.Specify CopyFromBlobToBlob for Name.

  4. Passare alla scheda Origine nelle impostazioni dell'attività Copia e selezionare InputDataset per Source Dataset (Set di dati di origine).Switch to the Source tab in the copy activity settings, and select InputDataset for Source Dataset.

  5. Passare alla scheda Sink nelle impostazioni dell'attività Copia e selezionare OutputDataset per Sink Dataset (Set di dati sink).Switch to the Sink tab in the copy activity settings, and select OutputDataset for Sink Dataset.

  6. Fare clic su Convalida sulla barra degli strumenti della pipeline sopra l'area di disegno per convalidare le impostazioni della pipeline.Click Validate on the pipeline toolbar above the canvas to validate the pipeline settings. Assicurarsi che la pipeline sia stata convalidata correttamente.Confirm that the pipeline has been successfully validated. Per chiudere l'output della convalida, selezionare il pulsante >> (freccia destra).To close the validation output, select the >> (right arrow) button.

Eseguire il debug della pipelineDebug the pipeline

In questo passaggio viene eseguito il debug della pipeline prima della distribuzione in Data Factory.In this step, you debug the pipeline before deploying it to Data Factory.

  1. Nella barra degli strumenti della pipeline sopra l'area di disegno fare clic su Debug per attivare un'esecuzione dei test.On the pipeline toolbar above the canvas, click Debug to trigger a test run.

  2. Assicurarsi che sia visualizzato lo stato dell'esecuzione della pipeline nella scheda Output delle impostazioni della pipeline nella parte inferiore.Confirm that you see the status of the pipeline run on the Output tab of the pipeline settings at the bottom.

  3. Assicurarsi che venga visualizzato un file di output nella cartella output del contenitore adftutorial.Confirm that you see an output file in the output folder of the adftutorial container. Se la cartella output non esiste, il servizio Data Factory la crea automaticamente.If the output folder doesn't exist, the Data Factory service automatically creates it.

Attivare manualmente la pipelineTrigger the pipeline manually

In questa procedura vengono distribuite entità (servizi collegati, set di dati, pipeline) in Azure Data Factory.In this procedure, you deploy entities (linked services, datasets, pipelines) to Azure Data Factory. Viene quindi attivata manualmente un'esecuzione della pipeline.Then, you manually trigger a pipeline run.

  1. Prima di attivare una pipeline, è necessario pubblicare entità in Data Factory.Before you trigger a pipeline, you must publish entities to Data Factory. Per pubblicare, selezionare Pubblica tutti nella parte superiore.To publish, select Publish All on the top.

    Pulsante Publish

  2. Per attivare manualmente la pipeline, selezionare Aggiungi trigger sulla barra degli strumenti della pipeline e quindi selezionare Trigger Now (Attiva adesso).To trigger the pipeline manually, select Add Trigger on the pipeline toolbar, and then select Trigger Now. Nella pagina Pipeline Run (Esecuzione di pipeline) selezionare Fine.On the Pipeline Run page, select Finish.

Monitorare la pipelineMonitor the pipeline

  1. Passare alla scheda Monitoraggio a sinistra.Switch to the Monitor tab on the left. Usare il pulsante Aggiorna per aggiornare l'elenco.Use the Refresh button to refresh the list.

    Scheda per il monitoraggio delle esecuzioni di pipeline

  2. Selezionare il collegamento View Activity Runs (Visualizza le esecuzioni di attività) in Azioni.Select the View Activity Runs link under Actions. In questa pagina viene visualizzato lo stato dell'esecuzione dell'attività Copia.You see the status of the copy activity run on this page.

  3. Per visualizzare informazioni dettagliate sull'operazione di copia, selezionare il collegamento Dettagli (immagine degli occhiali) nella colonna Azioni.To view details about the copy operation, select the Details (eyeglasses image) link in the Actions column. Per informazioni dettagliate sulle proprietà, vedere Panoramica dell'attività Copia.For details about the properties, see Copy Activity overview.

    Dettagli dell'operazione di copia

  4. Assicurarsi che un nuovo file sia visualizzato nella cartella output.Confirm that you see a new file in the output folder.

  5. È possibile tornare alla visualizzazione Pipeline Runs (Esecuzioni di pipeline) dalla visualizzazione Esecuzioni attività selezionando il collegamento Pipeline Runs.You can switch back to the Pipeline Runs view from the Activity Runs view by selecting the Pipeline Runs link.

Attivare la pipeline in base a una pianificazioneTrigger the pipeline on a schedule

La procedura è facoltativa in questa esercitazione.This procedure is optional in this tutorial. È possibile creare un trigger di pianificazione per pianificare l'esecuzione periodica (ogni ora, ogni giorno e così via) della pipeline.You can create a scheduler trigger to schedule the pipeline to run periodically (hourly, daily, and so on). In questa procedura viene creato un trigger per l'esecuzione ogni minuto fino alla data e ora di fine specificate.In this procedure, you create a trigger to run every minute until the end date and time that you specify.

  1. Passare alla scheda Autore.Switch to the Author tab.

  2. Passare alla pipeline, selezionare Aggiungi trigger sulla barra degli strumenti della pipeline e quindi selezionare New/Edit (Nuovo/Modifica).Go to your pipeline, select Add Trigger on the pipeline toolbar, and then select New/Edit.

  3. Nella pagina Add Triggers (Aggiungi trigger) selezionare Choose trigger (Scegli trigger) e quindi selezionare Nuovo.On the Add Triggers page, select Choose trigger, and then select New.

  4. Nella pagina Nuovo trigger in Fine selezionare On Date (In data), specificare un'ora di fine successiva di qualche minuto all'ora corrente e quindi selezionare Applica.On the New Trigger page, under End, select On Date, specify an end time a few minutes after the current time, and then select Apply.

    Per ogni esecuzione della pipeline sono previsti costi, quindi specificare un'ora di fine successiva di qualche minuto all'ora di inizio.A cost is associated with each pipeline run, so specify the end time only minutes apart from the start time. Assicurarsi che si tratti dello stesso giorno.Ensure that it's the same day. Assicurarsi tuttavia che il tempo specificato tra l'ora di pubblicazione e l'ora di fine sia sufficiente per l'esecuzione della pipeline.However, ensure that there's enough time for the pipeline to run between the publish time and the end time. Il trigger viene applicato solo dopo la pubblicazione della soluzione in Data Factory, non quando si salva il trigger nell'interfaccia utente.The trigger comes into effect only after you publish the solution to Data Factory, not when you save the trigger in the UI.

  5. Nella pagina Nuovo trigger selezionare la casella di controllo Attivato e quindi selezionare Salva.On the New Trigger page, select the Activated check box, and then select Save.

    Impostazione per Nuovo trigger

  6. Rivedere il messaggio di avviso e selezionare Fine.Review the warning message, and select Finish.

  7. Selezionare Pubblica tutti per pubblicare le modifiche in Data Factory.Select Publish All to publish changes to Data Factory.

  8. Passare alla scheda Monitoraggio a sinistra.Switch to the Monitor tab on the left. Selezionare Aggiorna per aggiornare l'elenco.Select Refresh to refresh the list. La pipeline viene eseguita una volta al minuto a partire dall'ora di pubblicazione fino all'ora di fine.You see that the pipeline runs once every minute from the publish time to the end time.

    Notare i valori della colonna Attivato da.Notice the values in the Triggered By column. L'esecuzione manuale del trigger è stata generata dal passaggio precedente, ovvero Trigger Now (Attiva adesso).The manual trigger run was from the step (Trigger Now) that you did earlier.

  9. Passare alla visualizzazione Trigger Runs (Esecuzioni del trigger).Switch to the Trigger Runs view.

  10. Assicurarsi che venga creato un file di output per ogni esecuzione della pipeline fino alla data e ora di fine specificate nella cartella output.Confirm that an output file is created for every pipeline run until the specified end date and time in the output folder.

Passaggi successiviNext steps

La pipeline in questo esempio copia i dati da una posizione a un'altra nell'archivio BLOB di Azure.The pipeline in this sample copies data from one location to another location in Azure Blob storage. Per informazioni sull'uso di Data Factory in più scenari, vedere le esercitazioni.To learn about using Data Factory in more scenarios, go through the tutorials.