Guida introduttiva: Creare una data factory usando l'interfaccia utente di Azure Data FactoryQuickstart: Create a data factory by using the Azure Data Factory UI

La guida introduttiva descrive come usare l'interfaccia utente di Azure Data Factory per creare e monitorare una data factory.This quickstart describes how to use the Azure Data Factory UI to create and monitor a data factory. La pipeline creata in questa data factory copia dati da una cartella a un'altra nell'archivio BLOB di Azure.The pipeline that you create in this data factory copies data from one folder to another folder in Azure Blob storage. Per un'esercitazione su come trasformare i dati usando Azure Data Factory, vedere Esercitazione: Trasformare i dati usando Spark.For a tutorial on how to transform data by using Azure Data Factory, see Tutorial: Transform data by using Spark.

Nota

Se non si ha familiarità con Azure Data Factory, vedere Introduzione ad Azure Data Factory prima di seguire la guida introduttiva.

PrerequisitiPrerequisites

Sottoscrizione di AzureAzure subscription

Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare.If you don't have an Azure subscription, create a free account before you begin.

Ruoli di AzureAzure roles

Per creare istanze di Data Factory, l'account utente usato per accedere ad Azure deve essere un membro del ruolo collaboratore o proprietario oppure un amministratore della sottoscrizione di Azure.To create Data Factory instances, the user account that you use to sign in to Azure must be a member of the contributor or owner role, or an administrator of the Azure subscription. Per visualizzare le autorizzazioni disponibili nella sottoscrizione, nel portale di Azure selezionare il nome utente nell'angolo in alto a destra e quindi selezionare Autorizzazioni.To view the permissions that you have in the subscription, in the Azure portal, select your username in the upper-right corner, and then select Permissions. Se si accede a più sottoscrizioni, selezionare quella appropriata.If you have access to multiple subscriptions, select the appropriate subscription.

Per creare e gestire le risorse figlio per Data Factory, inclusi i set di dati, i servizi collegati, le pipeline, i trigger e i runtime di integrazione, sono applicabili i requisiti seguenti:To create and manage child resources for Data Factory - including datasets, linked services, pipelines, triggers, and integration runtimes - the following requirements are applicable:

  • Per creare e gestire le risorse figlio nel portale di Azure, è necessario appartenere al ruolo Collaboratore Data Factory a livello di gruppo di risorse o superiore.To create and manage child resources in the Azure portal, you must belong to the Data Factory Contributor role at the resource group level or above.
  • Per creare e gestire le risorse figlio con PowerShell o l'SDK, è sufficiente il ruolo di collaboratore a livello di risorsa o superiore.To create and manage child resources with PowerShell or the SDK, the contributor role at the resource level or above is sufficient.

Per istruzioni di esempio su come aggiungere un utente a un ruolo, vedere l'articolo Aggiungere i ruoli.For sample instructions about how to add a user to a role, see the Add roles article.

Per altre informazioni, vedere gli articoli seguenti:For more info, see the following articles:

Account di archiviazione di AzureAzure storage account

In questa guida introduttiva si usa un account di archiviazione di Azure per utilizzo generico (specificamente, di archiviazione BLOB) come archivio dati sia di origine che di destinazione.You use a general-purpose Azure storage account (specifically Blob storage) as both source and destination data stores in this quickstart. Se non si ha un account di archiviazione di Azure per utilizzo generico, vedere Creare un account di archiviazione per informazioni su come crearne uno.If you don't have a general-purpose Azure storage account, see Create a storage account to create one.

Recuperare il nome e la chiave dell'account di archiviazioneGet the storage account name and account key

Per questa guida introduttiva è necessario avere il nome e la chiave dell'account di archiviazione di Azure.You will need the name and key of your Azure storage account for this quickstart. La procedura seguente illustra i passaggi per recuperare il nome e la chiave dell'account di archiviazione:The following procedure provides steps to get the name and key of your storage account:

  1. In un Web browser passare al portale di Azure.In a web browser, go to the Azure portal. Accedere con nome utente e password di Azure.Sign in by using your Azure username and password.

  2. Selezionare Tutti i servizi nel menu a sinistra, filtrare con la parola chiave archiviazione e selezionare Account di archiviazione.Select All services on the left menu, filter with the Storage keyword, and select Storage accounts.

    Cercare un account di archiviazione

  3. Nell'elenco degli account di archiviazione filtrare, se necessario, e quindi selezionare il proprio account di archiviazione.In the list of storage accounts, filter for your storage account (if needed), and then select your storage account.

  4. Nella pagina Account di archiviazione selezionare Chiavi di accesso nel menu.On the Storage account page, select Access keys on the menu.

    Recuperare il nome e la chiave dell'account di archiviazione

  5. Copiare negli Appunti i valori delle caselle Nome account di archiviazione e key1.Copy the values for the Storage account name and key1 boxes to the clipboard. Incollarli in un blocco note o in qualsiasi altro editor e salvarli.Paste them into Notepad or any other editor and save it. Verranno usati più avanti in questa guida introduttiva.You use them later in this quickstart.

Creare la cartella e i file di inputCreate the input folder and files

In questa sezione viene creato un contenitore BLOB denominato adftutorial nell'archivio BLOB di Azure.In this section, you create a blob container named adftutorial in Azure Blob storage. Viene creata una cartella denominata input nel contenitore e viene caricato un file di esempio in tale cartella.You create a folder named input in the container, and then upload a sample file to the input folder.

  1. Nella pagina Account di archiviazione passare a Panoramica e quindi selezionare BLOB.On the Storage account page, switch to Overview, and then select Blobs.

    Selezionare l'opzione BLOB

  2. Nella pagina Servizio BLOB selezionare + Contenitore sulla barra degli strumenti.On the Blob service page, select + Container on the toolbar.

    Pulsante Aggiungi contenitore

  3. Nella finestra di dialogo Nuovo contenitore immettere adftutorial come nome e quindi fare clic su OK.In the New container dialog box, enter adftutorial for the name, and then select OK.

    Immettere il nome del contenitore

  4. Selezionare adftutorial nell'elenco di contenitori.Select adftutorial in the list of containers.

    Selezionare il contenitore

  5. Nella pagina Contenitore selezionare Carica sulla barra degli strumenti.On the Container page, select Upload on the toolbar.

    Pulsante Carica

  6. Nella pagina Carica BLOB selezionare Avanzate.On the Upload blob page, select Advanced.

    Selezionare il collegamento Avanzate

  7. Avviare il Blocco note e creare un file denominato emp.txt con il contenuto seguente.Start Notepad and create a file named emp.txt with the following content. Salvarlo nella cartella c:\ADFv2QuickStartPSH.Save it in the c:\ADFv2QuickStartPSH folder. Se non esiste ancora, creare la cartella ADFv2QuickStartPSH.Create the ADFv2QuickStartPSH folder if it does not already exist.

    John, Doe
    Jane, Doe
    
  8. Nella pagina Carica BLOB del portale di Azure cercare e selezionare il file emp.txt nella casella File.In the Azure portal, on the Upload blob page, browse to and select the emp.txt file for the Files box.

  9. Immettere il valore input nella casella Carica nella cartella.Enter input as a value for the Upload to folder box.

    Caricare le impostazioni BLOB

  10. Verificare che la cartella sia input e il file sia emp.txt e selezionare Carica.Confirm that the folder is input and the file is emp.txt, and select Upload.

    Verranno visualizzati il file emp.txt e lo stato del caricamento nell'elenco.You should see the emp.txt file and the status of the upload in the list.

  11. Chiudere la pagina Carica BLOB facendo clic su X nell'angolo.Close the Upload blob page by clicking X in the corner.

    Chiudere la pagina Carica BLOB

  12. Tenere aperta la pagina ContenitoreKeep the Container page open. perché verrà usata per verificare l'output alla fine di questa guida introduttiva.You use it to verify the output at the end of this quickstart.

VideoVideo

Questo video contiene informazioni utili sull'interfaccia utente di Data Factory:Watching this video helps you understand the Data Factory UI:

Creare una data factoryCreate a data factory

  1. Avviare il Web browser Microsoft Edge o Google Chrome.Launch Microsoft Edge or Google Chrome web browser. L'interfaccia utente di Data Factory è attualmente supportata solo nei Web browser Microsoft Edge e Google Chrome.Currently, Data Factory UI is supported only in Microsoft Edge and Google Chrome web browsers.

  2. Accedere al portale di Azure.Go to the Azure portal.

  3. Selezionare Crea una risorsa dal menu a sinistra, selezionare Analytics e quindi selezionare Data Factory.Select Create a resource on the left menu, select Analytics, and then select Data Factory.

    Selezione di Data Factory nel riquadro "Nuovo"

  4. Nella pagina Nuova data factory immettere ADFTutorialDataFactory per Nome.On the New data factory page, enter ADFTutorialDataFactory for Name.

    Pagina "Nuova data factory"

    Il nome della data factory di Azure deve essere univoco a livello globale.The name of the Azure data factory must be globally unique. Se viene visualizzato l'errore seguente, modificare il nome della data factory, ad esempio, <nomeutente>ADFTutorialDataFactory, e provare di nuovo a crearla.If you see the following error, change the name of the data factory (for example, <yourname>ADFTutorialDataFactory) and try creating again. Per le regole di denominazione per gli elementi di Data Factory, vedere l'articolo Data Factory - Regole di denominazione.For naming rules for Data Factory artifacts, see the Data Factory - naming rules article.

    Errore quando un nome non è disponibile

  5. Per Sottoscrizione selezionare la sottoscrizione di Azure in cui creare la data factory.For Subscription, select your Azure subscription in which you want to create the data factory.

  6. In Gruppo di risorse eseguire una di queste operazioni:For Resource Group, use one of the following steps:

    • Selezionare Usa esistentee scegliere un gruppo di risorse esistente dall'elenco.Select Use existing, and select an existing resource group from the list.
    • Selezionare Crea nuovoe immettere un nome per il gruppo di risorse.Select Create new, and enter the name of a resource group.

    Per informazioni sui gruppi di risorse, vedere l'articolo relativo all'uso di gruppi di risorse per la gestione delle risorse di Azure.To learn about resource groups, see Using resource groups to manage your Azure resources.

  7. Per Versione selezionare V2.For Version, select V2.

  8. Per Località selezionare la località per la data factory.For Location, select the location for the data factory.

    L'elenco mostra solo le località supportate da Data Factory e in cui verranno archiviati i metadati di Azure Data Factory.The list shows only locations that Data Factory supports, and where your Azure Data Factory meta data will be stored. Si noti che gli archivi dati associati (ad esempio, Archiviazione di Azure e il database SQL di Azure) e le risorse di calcolo (ad esempio, Azure HDInsight) usati da Data Factory possono essere eseguiti in altre aree.Please note that the associated data stores (like Azure Storage and Azure SQL Database) and computes (like Azure HDInsight) that Data Factory uses can run in other regions.

  9. Selezionare Create.Select Create.

  10. Al termine della creazione verrà visualizzata la pagina Data factory.After the creation is complete, you see the Data Factory page. Selezionare il riquadro Crea e monitora per avviare l'applicazione dell'interfaccia utente di Azure Data Factory in una scheda separata.Select the Author & Monitor tile to start the Azure Data Factory user interface (UI) application on a separate tab.

    Home page della data factory, con il riquadro "Crea e monitora"

  11. Nella pagina Attività iniziali passare alla scheda Autore nel pannello sinistro.On the Let's get started page, switch to the Author tab in the left panel.

    Pagina "Attività iniziali"

Creare un servizio collegatoCreate a linked service

In questa procedura viene creato un servizio collegato per collegare l'account di archiviazione di Azure alla data factory.In this procedure, you create a linked service to link your Azure storage account to the data factory. Il servizio collegato ha le informazioni di connessione usate dal servizio Data Factory in fase di esecuzione per la connessione.The linked service has the connection information that the Data Factory service uses at runtime to connect to it.

  1. Selezionare Connessioni e quindi il pulsante Nuovo sulla barra degli strumenti.Select Connections, and then select the New button on the toolbar.

    Pulsanti per la creazione di una nuova connessione

  2. Nella pagina New Linked Service (Nuovo servizio collegato) selezionare Archiviazione BLOB di Azure e quindi Continua.On the New Linked Service page, select Azure Blob Storage, and then select Continue.

    Selezione del riquadro "Archiviazione BLOB di Azure"

  3. Completare questi passaggi:Complete the following steps:

    a.a. Per Nome immettere AzureStorageLinkedService.For Name, enter AzureStorageLinkedService.

    b.b. Per Nome account di archiviazione selezionare il nome dell'account di archiviazione di Azure.For Storage account name, select the name of your Azure storage account.

    c.c. Selezionare Connessione di test per confermare che il servizio Data Factory possa connettersi all'account di archiviazione.Select Test connection to confirm that the Data Factory service can connect to the storage account.

    d.d. Selezionare Fine per salvare il servizio collegato.Select Finish to save the linked service.

    Impostazioni del servizio collegato Archiviazione di Azure

Creare set di datiCreate datasets

In questa procedura verranno creati due set di dati: InputDataset e OutputDataset.In this procedure, you create two datasets: InputDataset and OutputDataset. I set di dati sono di tipo AzureBlob.These datasets are of type AzureBlob. Fanno riferimento al servizio collegato Archiviazione di Azure creato nella sezione precedente.They refer to the Azure Storage linked service that you created in the previous section.

Il set di dati di input rappresenta i dati di origini nella cartella di input.The input dataset represents the source data in the input folder. Nella definizione del set di dati di input specificare il contenitore BLOB (adftutorial), la cartella (input) e il file (emp.txt) che includono i dati di origine.In the input dataset definition, you specify the blob container (adftutorial), the folder (input), and the file (emp.txt) that contain the source data.

Il set di dati di output rappresenta i dati copiati nella destinazione.The output dataset represents the data that's copied to the destination. Nella definizione del set di dati di output specificare il contenitore BLOB (adftutorial), la cartella (output) e il file in cui vengono copiati i dati.In the output dataset definition, you specify the blob container (adftutorial), the folder (output), and the file to which the data is copied. A ogni esecuzione di una pipeline è associato un ID univoco.Each run of a pipeline has a unique ID associated with it. È possibile accedere a questo ID usando la variabile di sistema RunId.You can access this ID by using the system variable RunId. Il nome del file di output viene valutato dinamicamente in base all'ID dell'esecuzione della pipeline.The name of the output file is dynamically evaluated based on the run ID of the pipeline.

Nelle impostazioni del servizio collegato è stato specificato l'account di archiviazione di Azure che contiene i dati di origine.In the linked service settings, you specified the Azure storage account that contains the source data. Nelle impostazioni del set di dati di origine specificare la posizione esatta in cui si trovano i dati, ovvero contenitore BLOB, cartella e file.In the source dataset settings, you specify where exactly the source data resides (blob container, folder, and file). Nelle impostazioni del set di dati di sink specificare la posizione in cui vengono copiati i dati, ovvero contenitore BLOB, cartella e file.In the sink dataset settings, you specify where the data is copied to (blob container, folder, and file).

  1. Selezionare il pulsante + (segno più) e quindi selezionare Set di dati.Select the + (plus) button, and then select Dataset.

    Menu per la creazione di un set di dati

  2. Nella pagina Nuovo set di dati selezionare Archiviazione BLOB di Azure e quindi selezionare Fine.On the New Dataset page, select Azure Blob Storage, and then select Finish.

    Selezione di "Archiviazione BLOB di Azure"

  3. Nella scheda Generale per il set di dati immettere InputDataset per Nome.In the General tab for the dataset, enter InputDataset for Name.

  4. Passare alla scheda Connessione e completare questa procedura:Switch to the Connection tab and complete the following steps:

    a.a. Per Servizio collegato selezionare AzureStorageLinkedService.For Linked service, select AzureStorageLinkedService.

    b.b. Per Percorso file selezionare il pulsante Sfoglia.For File path, select the Browse button.

    Scheda "Connessione" e pulsante "Sfoglia" c."Connection" tab and "Browse" button c. Nella finestra Choose a file or folder (Scegliere un file o una cartella) passare alla cartella di input nel contenitore adftutorial, selezionare il file emp.txt e quindi selezionare Fine.In the Choose a file or folder window, browse to the input folder in the adftutorial container, select the emp.txt file, and then select Finish.

    Sfogliare per selezionare il file di input

    d.d. (Facoltativo) Selezionare Anteprima dati per visualizzare l'anteprima dei dati nel file emp.txt.(optional) Select Preview data to preview the data in the emp.txt file.

  5. Ripetere la procedura per creare il set di dati di output:Repeat the steps to create the output dataset:

    a.a. Selezionare il pulsante + (segno più) e quindi selezionare Set di dati.Select the + (plus) button, and then select Dataset.

    b.b. Nella pagina Nuovo set di dati selezionare Archiviazione BLOB di Azure e quindi selezionare Fine.On the New Dataset page, select Azure Blob Storage, and then select Finish.

    c.c. Nella tabella Generale specificare OutputDataset per il nome.In General table, specify OutputDataset for the name.

    d.d. Nella scheda Connessione selezionare AzureStorageLinkedService come servizio collegato, quindi immettere adftutorial/output per la cartella nel campo della directory.In Connection tab, select AzureStorageLinkedService as linked service, and enter adftutorial/output for the folder, in the directory field. Se la cartella output non esiste, l'attività di copia la crea in fase di esecuzione.If the output folder does not exist, the copy activity creates it at runtime.

Creare una pipelineCreate a pipeline

In questa procedura viene creata e convalidata una pipeline con un'attività di copia che usa i set di dati di input e di output.In this procedure, you create and validate a pipeline with a copy activity that uses the input and output datasets. Con l'attività di copia i dati vengono copiati dal file specificato nelle impostazioni del set di dati di input al file specificato nelle impostazioni del set di dati di output.The copy activity copies data from the file you specified in the input dataset settings to the file you specified in the output dataset settings. Se il set di dati di input specifica solo una cartella, non il nome file, con l'attività di copia tutti i file della cartella di origine vengono copiati nella destinazione.If the input dataset specifies only a folder (not the file name), the copy activity copies all the files in the source folder to the destination.

  1. Selezionare il pulsante + (segno più) e quindi selezionare Pipeline.Select the + (plus) button, and then select Pipeline.

    Menu per la creazione di una nuova pipeline

  2. Nella scheda Generale specificare CopyPipeline per Nome.In the General tab, specify CopyPipeline for Name.

  3. Nella casella degli strumenti Attività espandere Move & Transform (Sposta e trasforma).In the Activities toolbox, expand Move & Transform. Trascinare l'attività Copia dalla casella degli strumenti Attività all'area di progettazione della pipeline.Drag the Copy activity from the Activities toolbox to the pipeline designer surface. È anche possibile eseguire una ricerca di attività nella casella degli strumenti Attività.You can also search for activities in the Activities toolbox. Specificare CopyFromBlobToBlob per Nome.Specify CopyFromBlobToBlob for Name.

    Impostazioni generali dell'attività Copia

  4. Passare alla scheda Origine nelle impostazioni dell'attività Copia e selezionare InputDataset per Source Dataset (Set di dati di origine).Switch to the Source tab in the copy activity settings, and select InputDataset for Source Dataset.

  5. Passare alla scheda Sink nelle impostazioni dell'attività Copia e selezionare OutputDataset per Sink Dataset (Set di dati sink).Switch to the Sink tab in the copy activity settings, and select OutputDataset for Sink Dataset.

  6. Fare clic su Convalida sulla barra degli strumenti della pipeline sopra l'area di disegno per convalidare le impostazioni della pipeline.Click Validate on the pipeline toolbar above the canvas to validate the pipeline settings. Assicurarsi che la pipeline sia stata convalidata correttamente.Confirm that the pipeline has been successfully validated. Per chiudere l'output della convalida, selezionare il pulsante >> (freccia destra).To close the validation output, select the >> (right arrow) button.

Eseguire il debug della pipelineDebug the pipeline

In questo passaggio viene eseguito il debug della pipeline prima della distribuzione in Data Factory.In this step, you debug the pipeline before deploying it to Data Factory.

  1. Nella barra degli strumenti della pipeline sopra l'area di disegno fare clic su Debug per attivare un'esecuzione dei test.On the pipeline toolbar above the canvas, click Debug to trigger a test run.

  2. Assicurarsi che sia visualizzato lo stato dell'esecuzione della pipeline nella scheda Output delle impostazioni della pipeline nella parte inferiore.Confirm that you see the status of the pipeline run on the Output tab of the pipeline settings at the bottom.

  3. Assicurarsi che venga visualizzato un file di output nella cartella output del contenitore adftutorial.Confirm that you see an output file in the output folder of the adftutorial container. Se la cartella output non esiste, il servizio Data Factory la crea automaticamente.If the output folder does not exist, the Data Factory service automatically creates it.

Attivare manualmente la pipelineTrigger the pipeline manually

In questa procedura vengono distribuite entità (servizi collegati, set di dati, pipeline) in Azure Data Factory.In this procedure, you deploy entities (linked services, datasets, pipelines) to Azure Data Factory. Viene quindi attivata manualmente un'esecuzione della pipeline.Then, you manually trigger a pipeline run.

  1. Prima di attivare una pipeline, è necessario pubblicare entità in Data Factory.Before you trigger a pipeline, you must publish entities to Data Factory. Per pubblicare, selezionare Pubblica tutti nella parte superiore.To publish, select Publish All on the top.

    Pulsante Publish

  2. Per attivare manualmente la pipeline, selezionare Trigger sulla barra degli strumenti della pipeline e quindi selezionare Trigger Now (Attiva adesso).To trigger the pipeline manually, select Trigger on the pipeline toolbar, and then select Trigger Now.

Monitorare la pipelineMonitor the pipeline

  1. Passare alla scheda Monitoraggio a sinistra.Switch to the Monitor tab on the left. Usare il pulsante Aggiorna per aggiornare l'elenco.Use the Refresh button to refresh the list.

    Scheda per il monitoraggio delle esecuzioni della pipeline, con il pulsante "Aggiorna"

  2. Selezionare il collegamento View Activity Runs (Visualizza le esecuzioni di attività) in Azioni.Select the View Activity Runs link under Actions. In questa pagina viene visualizzato lo stato dell'esecuzione dell'attività Copia.You see the status of the copy activity run on this page.

    Esecuzioni delle attività della pipeline

  3. Per visualizzare informazioni dettagliate sull'operazione di copia, selezionare il collegamento Dettagli (immagine degli occhiali) nella colonna Azioni.To view details about the copy operation, select the Details (eyeglasses image) link in the Actions column. Per informazioni dettagliate sulle proprietà, vedere Panoramica dell'attività Copia.For details about the properties, see Copy Activity overview.

    Dettagli dell'operazione di copia

  4. Assicurarsi che un nuovo file sia visualizzato nella cartella output.Confirm that you see a new file in the output folder.

  5. È possibile tornare alla visualizzazione Pipeline Runs (Esecuzioni di pipeline) dalla visualizzazione Esecuzioni attività selezionando il collegamento Pipeline.You can switch back to the Pipeline Runs view from the Activity Runs view by selecting the Pipelines link.

Attivare la pipeline in base a una pianificazioneTrigger the pipeline on a schedule

La procedura è facoltativa in questa esercitazione.This procedure is optional in this tutorial. È possibile creare un trigger di pianificazione per pianificare l'esecuzione periodica (ogni ora, ogni giorno e così via) della pipeline.You can create a scheduler trigger to schedule the pipeline to run periodically (hourly, daily, and so on). In questa procedura viene creato un trigger per l'esecuzione ogni minuto fino alla data e ora di fine specificate.In this procedure, you create a trigger to run every minute until the end date and time that you specify.

  1. Passare alla scheda Autore.Switch to the Author tab.

  2. Passare alla pipeline, selezionare Trigger sulla barra degli strumenti della pipeline e quindi selezionare New/Edit (Nuovo/Modifica).Go to your pipeline, select Trigger on the pipeline toolbar, and then select New/Edit.

  3. Nella pagina Add Triggers (Aggiungi trigger) selezionare Choose trigger (Scegli trigger) e quindi selezionare Nuovo.On the Add Triggers page, select Choose trigger, and then select New.

  4. Nella pagina Nuovo trigger in Fine selezionare On Date (In data), specificare un'ora di fine successiva di qualche minuto all'ora corrente e quindi selezionare Applica.On the New Trigger page, under End, select On Date, specify an end time a few minutes after the current time, and then select Apply.

    Per ogni esecuzione della pipeline sono previsti costi, quindi specificare un'ora di fine successiva di qualche minuto all'ora di inizio.A cost is associated with each pipeline run, so specify the end time only minutes apart from the start time. Assicurarsi che si tratti dello stesso giorno.Ensure that it's the same day. Assicurarsi tuttavia che il tempo specificato tra l'ora di pubblicazione e l'ora di fine sia sufficiente per l'esecuzione della pipeline.However, ensure that there is enough time for the pipeline to run between the publish time and the end time. Il trigger viene applicato solo dopo la pubblicazione della soluzione in Data Factory, non quando si salva il trigger nell'interfaccia utente.The trigger comes into effect only after you publish the solution to Data Factory, not when you save the trigger in the UI.

    Impostazioni di trigger

  5. Nella pagina Nuovo trigger selezionare la casella di controllo Attivato e quindi selezionare Avanti.On the New Trigger page, select the Activated check box, and then select Next.

    Casella di controllo "Attivato" e pulsante "Avanti"

  6. Rivedere il messaggio di avviso e selezionare Fine.Review the warning message, and select Finish.

    Avviso e pulsante "Fine"

  7. Selezionare Pubblica tutti per pubblicare le modifiche in Data Factory.Select Publish All to publish changes to Data Factory.

  8. Passare alla scheda Monitoraggio a sinistra.Switch to the Monitor tab on the left. Selezionare Aggiorna per aggiornare l'elenco.Select Refresh to refresh the list. La pipeline viene eseguita una volta al minuto a partire dall'ora di pubblicazione fino all'ora di fine.You see that the pipeline runs once every minute from the publish time to the end time.

    Notare i valori della colonna Attivato da.Notice the values in the Triggered By column. L'esecuzione manuale del trigger è stata generata dal passaggio precedente, ovvero Trigger Now (Attiva adesso).The manual trigger run was from the step (Trigger Now) that you did earlier.

    Elenco delle esecuzioni attivate

  9. Passare alla visualizzazione Trigger Runs (Esecuzioni del trigger).Switch to the Trigger Runs view.

    Passare alla visualizzazione "Trigger Runs" (Esecuzioni del trigger)

  10. Assicurarsi che venga creato un file di output per ogni esecuzione della pipeline fino alla data e ora di fine specificate nella cartella output.Confirm that an output file is created for every pipeline run until the specified end date and time in the output folder.

Passaggi successiviNext steps

La pipeline in questo esempio copia i dati da una posizione a un'altra nell'archivio BLOB di Azure.The pipeline in this sample copies data from one location to another location in Azure Blob storage. Per informazioni sull'uso di Data Factory in più scenari, vedere le esercitazioni.To learn about using Data Factory in more scenarios, go through the tutorials.