Spostare dati tra origini locali e il cloud con Gateway di gestione datiMove data between on-premises sources and the cloud with Data Management Gateway

Nota

Le informazioni di questo articolo sono valide per la versione 1 di Data Factory.This article applies to version 1 of Data Factory. Se si usa la versione corrente del servizio Data Factory, vedere le informazioni sulla copia di dati in locale e nel cloud tramite Data Factory.If you are using the current version of the Data Factory service, see copy data between on-premises and cloud using Data Factory.

Questo articolo offre una panoramica sull'integrazione tra archivi dati locali e archivi dati cloud con Data Factory.This article provides an overview of data integration between on-premises data stores and cloud data stores using Data Factory. Si basa sull'articolo Attività di spostamento dei dati e su altri articoli che illustrano i concetti di base relativi a Data Factory: set di dati e pipeline.It builds on the Data Movement Activities article and other data factory core concepts articles: datasets and pipelines.

Gateway di gestione datiData Management Gateway

È necessario installare il Gateway di gestione di dati sul computer locale per abilitare lo spostamento dei dati a/da un archivio dati locale.You must install Data Management Gateway on your on-premises machine to enable moving data to/from an on-premises data store. Il gateway può essere installato sullo stesso computer dell'archivio dati o su un computer diverso purché il gateway possa connettersi all'archivio dati.The gateway can be installed on the same machine as the data store or on a different machine as long as the gateway can connect to the data store.

Importante

Leggere l'articolo Gateway di gestione dati per i dettagli sul Gateway di gestione dati.See Data Management Gateway article for details about Data Management Gateway.

Questa procedura dettagliata illustra come creare un'istanza di Data Factory con una pipeline che sposta i dati da un database di SQL Server locale a un archivio BLOB di Azure.The following walkthrough shows you how to create a data factory with a pipeline that moves data from an on-premises SQL Server database to an Azure blob storage. Come parte della procedura dettagliata, viene installato e configurato il gateway di gestione dati nel computer.As part of the walkthrough, you install and configure the Data Management Gateway on your machine.

Procedura dettagliata: Copiare i dati locali nel cloudWalkthrough: copy on-premises data to cloud

In questa procedura dettagliata si eseguiranno i passaggi seguenti:In this walkthrough you do the following steps:

  1. Creare una data factory.Create a data factory.
  2. Creare un gateway di gestione dati.Create a data management gateway.
  3. Creare servizi collegati per gli archivi dati di origine e sink.Create linked services for source and sink data stores.
  4. Creare set di dati per rappresentare i dati di input e di output.Create datasets to represent input and output data.
  5. Creare una pipeline con attività di copia per trasferire i dati.Create a pipeline with a copy activity to move the data.

Prerequisiti per l'esercitazionePrerequisites for the tutorial

Prima di iniziare questa procedura dettagliata, sono necessari i prerequisiti seguenti:Before you begin this walkthrough, you must have the following prerequisites:

  • Sottoscrizione di Azure.Azure subscription. Se non è disponibile una sottoscrizione, è possibile creare un account di valutazione gratuita in pochi minuti.If you don't have a subscription, you can create a free trial account in just a couple of minutes. Per informazioni dettagliate, vedere l'articolo Versione di valutazione gratuita .See the Free Trial article for details.
  • Account di archiviazione di Azure.Azure Storage Account. In questa esercitazione l'archiviazione BLOB viene usata come archivio dati di destinazione/sink.You use the blob storage as a destination/sink data store in this tutorial. Se non si ha un account di archiviazione di Azure, vedere l'articolo Creare un account di archiviazione per informazioni su come crearne uno.if you don't have an Azure storage account, see the Create a storage account article for steps to create one.
  • SQL Server.SQL Server. Usare un database di SQL Server locale come archivio dati di origine in questa esercitazione.You use an on-premises SQL Server database as a source data store in this tutorial.

Creare un'istanza di Data FactoryCreate data factory

In questo passaggio si usa il portale di Azure per creare un'istanza di Azure Data Factory denominata ADFTutorialOnPremDF.In this step, you use the Azure portal to create an Azure Data Factory instance named ADFTutorialOnPremDF.

  1. Accedere al Portale di Azure.Log in to the Azure portal.

  2. Fare clic su Crea una risorsa, selezionare Intelligence e analisi e quindi Data factory.Click Create a resource, click Intelligence + analytics, and click Data Factory.

    Nuovo->DataFactory

  3. Nella pagina Nuova data factory immettere ADFTutorialOnPremDF come nome.In the New data factory page, enter ADFTutorialOnPremDF for the Name.

    Aggiungi a schermata iniziale

    Importante

    È necessario specificare un nome univoco globale per l'istanza di Azure Data Factory.The name of the Azure data factory must be globally unique. Se viene visualizzato un errore simile a Nome "ADFTutorialOnPremDF" per la data factory non disponibile, cambiare il nome della data factory (ad esempio, nomeutenteADFTutorialOnPremDF) e provare di nuovo a crearla.If you receive the error: Data factory name “ADFTutorialOnPremDF” is not available, change the name of the data factory (for example, yournameADFTutorialOnPremDF) and try creating again. Durante l'esecuzione dei passaggi rimanenti in questa esercitazione usare questo nome anziché ADFTutorialOnPremDF.Use this name in place of ADFTutorialOnPremDF while performing remaining steps in this tutorial.

    Il nome della data factory può essere registrato come nome DNS in futuro e quindi divenire visibile pubblicamente.The name of the data factory may be registered as a DNS name in the future and hence become publicly visible.

  4. Selezionare la sottoscrizione di Azure in cui creare la data factory.Select the Azure subscription where you want the data factory to be created.

  5. Selezionare un gruppo di risorse esistente o crearne uno.Select existing resource group or create a resource group. Per l'esercitazione creare un gruppo di risorse denominato ADFTutorialResourceGroup.For the tutorial, create a resource group named: ADFTutorialResourceGroup.

  6. Fare clic su Crea nella pagina Nuova data factory.Click Create on the New data factory page.

    Importante

    Per creare istanze di data factory, è necessario essere membri del ruolo Collaboratore Data factory a livello di sottoscrizione/gruppo di risorse.To create Data Factory instances, you must be a member of the Data Factory Contributor role at the subscription/resource group level.

  7. Al termine della creazione viene visualizzata la pagina Data Factory, come illustrato nell'immagine seguente:After creation is complete, you see the Data Factory page as shown in the following image:

    Home page di Data Factory

Creare il gatewayCreate gateway

  1. Nella pagina Data Factory fare clic sul riquadro Creare e distribuire per avviare l'Editor per la data factory.In the Data Factory page, click Author and deploy tile to launch the Editor for the data factory.

    Riquadro Creare e distribuire

  2. Nell'editor di Data Factory fare clic su ... Ulteriori informazioni sulla barra degli strumenti e quindi fare clic su nuovo gateway dati.In the Data Factory Editor, click ... More on the toolbar and then click New data gateway. In alternativa, è possibile fare clic con il pulsante destro del mouse su Gateway dati nella visualizzazione ad albero e fare clic su Nuovo gateway dati.Alternatively, you can right-click Data Gateways in the tree view, and click New data gateway.

    Nuovo gateway di dati nella barra degli strumenti

  3. Nella pagina Crea immettere adftutorialgateway per il nome e fare clic su OK.In the Create page, enter adftutorialgateway for the name, and click OK.

    Pagina per la creazione del gateway

    Nota

    In questa procedura dettagliata si crea il gateway logico con un solo nodo, ossia un computer Windows locale.In this walkthrough, you create the logical gateway with only one node (on-premises Windows machine). È possibile aumentare il numero di istanze di un gateway di gestione dati associando più computer locali al gateway.You can scale out a data management gateway by associating multiple on-premises machines with the gateway. È possibile aumentare le prestazioni aumentando il numero di processi di spostamento di dati eseguibili contemporaneamente in un nodo.You can scale up by increasing number of data movement jobs that can run concurrently on a node. Questa funzionalità è disponibile anche per un gateway logico con un singolo nodo.This feature is also available for a logical gateway with a single node. Per informazioni dettagliate, vedere l'articolo Ridimensionamento del gateway di gestione dati in Azure Data Factory.See Scaling data management gateway in Azure Data Factory article for details.

  4. Nella pagina Configura fare clic su Installa direttamente nel computer.In the Configure page, click Install directly on this computer. Con questa azione viene scaricato il pacchetto di installazione per il gateway, che viene installato, configurato e registrato nel computer.This action downloads the installation package for the gateway, installs, configures, and registers the gateway on the computer.

    Nota

    Usare Internet Explorer o un Web browser compatibile con Microsoft ClickOnce.Use Internet Explorer or a Microsoft ClickOnce compatible web browser.

    Se si usa Chrome, accedere al Chrome Web Store, eseguire una ricerca con la parola chiave "ClickOnce", scegliere una delle estensioni ClickOnce e installarla.If you are using Chrome, go to the Chrome web store, search with "ClickOnce" keyword, choose one of the ClickOnce extensions, and install it.

    Seguire la stessa procedura per Firefox (installazione di un componente aggiuntivo).Do the same for Firefox (install add-in). Fare clic sul pulsante Apri menu sulla barra degli strumenti (tre righe orizzontali nell'angolo superiore destro), fare clic su Componenti aggiuntivi, eseguire una ricerca con la parola chiave "ClickOnce", scegliere un'estensione ClickOnce e installarla.Click Open Menu button on the toolbar (three horizontal lines in the top-right corner), click Add-ons, search with "ClickOnce" keyword, choose one of the ClickOnce extensions, and install it.

    Gateway - Pagina Configura

    Si tratta del metodo più semplice (con un clic) per scaricare, installare, configurare e registrare il gateway in un unico passaggio.This way is the easiest way (one-click) to download, install, configure, and register the gateway in one single step. È possibile vedere l'applicazione Gateway di gestione dati di Microsoft Configuration Manager installata nel computer.You can see the Microsoft Data Management Gateway Configuration Manager application is installed on your computer. È anche possibile trovare l'eseguibile ConfigManager.exe nella cartella: C:\Program Files\Microsoft Data Management Gateway\2.0\Shared.You can also find the executable ConfigManager.exe in the folder: C:\Program Files\Microsoft Data Management Gateway\2.0\Shared.

    È anche possibile scaricare e installare manualmente il gateway usando i collegamenti nella pagina e registrarlo usando la chiave visualizzata nella casella di testo NUOVA CHIAVE.You can also download and install gateway manually by using the links in this page and register it using the key shown in the NEW KEY text box.

    Leggere l’articolo Gateway di gestione dati per tutti i dettagli sul gateway.See Data Management Gateway article for all the details about the gateway.

    Nota

    È necessario essere un amministratore nel computer locale per installare e configurare correttamente il gateway di gestione dati.You must be an administrator on the local computer to install and configure the Data Management Gateway successfully. È possibile aggiungere altri utenti al gruppo di Windows locale degli utenti del gateway di gestione dati .You can add additional users to the Data Management Gateway Users local Windows group. I membri di questo gruppo possono usare lo strumento Gestione configurazione del gateway di gestione dati per configurare il gateway.The members of this group can use the Data Management Gateway Configuration Manager tool to configure the gateway.

  5. Attendere qualche minuto o finché non viene visualizzato il messaggio di notifica seguente:Wait for a couple of minutes or wait until you see the following notification message:

    Installazione del gateway riuscita

  6. Avviare l'applicazione Gateway di gestione dati di Configuration Manager nel computer.Launch Data Management Gateway Configuration Manager application on your computer. Nella finestra Cerca digitare Gateway di gestione dati per accedere a questa utilità.In the Search window, type Data Management Gateway to access this utility. È anche possibile trovare l'eseguibile ConfigManager.exe nella cartella: C:\Program Files\Microsoft Data Management Gateway\2.0\SharedYou can also find the executable ConfigManager.exe in the folder: C:\Program Files\Microsoft Data Management Gateway\2.0\Shared

    Gestione configurazione di gateway

  7. Verificare che venga visualizzato il messaggio adftutorialgateway is connected to the cloud service.Confirm that you see adftutorialgateway is connected to the cloud service message. La barra di stato visualizza Connesso al servizio cloud insieme a un segno di spunta verde.The status bar the bottom displays Connected to the cloud service along with a green check mark.

    Nella scheda Home è anche possibile eseguire queste operazioni:On the Home tab, you can also do the following operations:

    • Registrare un gateway con una chiave dal portale di Azure usando il pulsante Registra.Register a gateway with a key from the Azure portal by using the Register button.
    • Interrompere il servizio host del gateway di gestione dati in esecuzione nel computer gateway.Stop the Data Management Gateway Host Service running on your gateway machine.
    • Pianificare gli aggiornamenti in modo che vengano installati in un preciso momento della giornata.Schedule updates to be installed at a specific time of the day.
    • Visualizzare la data dell'ultimo aggiornamento del gateway.View when the gateway was last updated.
    • Specificare l'ora in cui è possibile installare un aggiornamento per il gateway.Specify time at which an update to the gateway can be installed.
  8. Passare alla scheda Impostazioni . Il certificato specificato nella sezione certificato viene usato per crittografare/decrittografare le credenziali per l'archivio dati locale specificato nel portale.Switch to the Settings tab. The certificate specified in the Certificate section is used to encrypt/decrypt credentials for the on-premises data store that you specify on the portal. Fare clic su Modifica per usare il proprio certificato.(optional) Click Change to use your own certificate instead. Per impostazione predefinita, il gateway usa il certificato generato automaticamente dal servizio Data Factory.By default, the gateway uses the certificate that is auto-generated by the Data Factory service.

    Configurazione certificati del gateway

    È anche possibile eseguire queste azioni nella scheda Impostazioni:You can also do the following actions on the Settings tab:

    • Visualizzare o esportare il certificato usato dal gateway.View or export the certificate being used by the gateway.
    • Modificare l'endpoint HTTPS usato dal gateway.Change the HTTPS endpoint used by the gateway.
    • Impostare un proxy HTTP che verrà usato dal gateway.Set an HTTP proxy to be used by the gateway.
  9. (facoltativo) Passare alla scheda Diagnostica, selezionare l'opzione Abilita la registrazione dettagliata se si vuole abilitare la registrazione dettagliata che è possibile usare per risolvere i problemi del gateway.(optional) Switch to the Diagnostics tab, check the Enable verbose logging option if you want to enable verbose logging that you can use to troubleshoot any issues with the gateway. Le informazioni sulla registrazione si trovano nel Visualizzatore eventi, nel nodo Registri applicazioni e servizi -> Gateway di gestione dati.The logging information can be found in Event Viewer under Applications and Services Logs -> Data Management Gateway node.

    Scheda Diagnostica

    È inoltre possibile eseguire le azioni seguenti nella scheda Diagnostica :You can also perform the following actions in the Diagnostics tab:

    • Usare la sezione Connessione di test su un'origine dati locale con il gateway.Use Test Connection section to an on-premises data source using the gateway.
    • Fare clic su Visualizza log per vedere il log del gateway di gestione dati in una finestra del Visualizzatore eventi.Click View Logs to see the Data Management Gateway log in an Event Viewer window.
    • Fare clic su Invia log per caricare un file zip dei log degli ultimi sette giorni sul sito Microsoft al fine di facilitare la risoluzione dei problemi.Click Send Logs to upload a zip file with logs of last seven days to Microsoft to facilitate troubleshooting of your issues.
  10. Nella scheda Diagnostica, nella sezione Test connessione selezionare SqlServer come tipo di archivio dati, immettere il nome del server di database, il nome del database, specificare il tipo di autenticazione, immettere il nome utente e la password e fare clic su Test per verificare se il gateway può connettersi al database.On the Diagnostics tab, in the Test Connection section, select SqlServer for the type of the data store, enter the name of the database server, name of the database, specify authentication type, enter user name, and password, and click Test to test whether the gateway can connect to the database.

  11. Passare al Web browser e nel portale di Azure fare clic su OK nella pagina Configura e quindi nella pagina Nuovo gateway dati.Switch to the web browser, and in the Azure portal, click OK on the Configure page and then on the New data gateway page.

  12. Verrà visualizzato adftutorialgateway in Gateway dati nella visualizzazione albero a sinistra.You should see adftutorialgateway under Data Gateways in the tree view on the left. Se si fa clic, viene visualizzato l'oggetto JSON associato.If you click it, you should see the associated JSON.

Creare servizi collegatiCreate linked services

In questo passaggio vengono creati due servizi collegati: AzureStorageLinkedService e SqlServerLinkedService.In this step, you create two linked services: AzureStorageLinkedService and SqlServerLinkedService. Il servizio SqlServerLinkedService collega un database SQL Server locale, mentre il servizio collegato AzureStorageLinkedService collega un'archiviazione BLOB di Azure alla data factory.The SqlServerLinkedService links an on-premises SQL Server database and the AzureStorageLinkedService linked service links an Azure blob store to the data factory. Più avanti nella procedura dettagliata viene creata una pipeline che copia i dati dal database SQL Server locale all'archiviazione BLOB di Azure.You create a pipeline later in this walkthrough that copies data from the on-premises SQL Server database to the Azure blob store.

Aggiungere un servizio collegato a un database di SQL Server localeAdd a linked service to an on-premises SQL Server database

  1. Nell'editor di Data Factory fare clic su Nuovo archivio dati sulla barra degli strumenti e selezionare SQL Server.In the Data Factory Editor, click New data store on the toolbar and select SQL Server.

    Nuovo servizio collegato di SQL Server

  2. Nell'editor JSON a destra seguire a questa procedura:In the JSON editor on the right, do the following steps:

    1. Per gatewayName specificare adftutorialgateway.For the gatewayName, specify adftutorialgateway.

    2. In connectionString seguire a questa procedura:In the connectionString, do the following steps:

      1. Per servername immettere il nome del server che ospita il database SQL Server.For servername, enter the name of the server that hosts the SQL Server database.

      2. Per databasename immettere il nome del database.For databasename, enter the name of the database.

      3. Fare clic sul pulsante Crittografa sulla barra dei comandiClick Encrypt button on the toolbar. Viene visualizzata l'applicazione Gestione credenziali.You see the Credentials Manager application.

        Applicazione Gestione credenziali

      4. Nella finestra di dialogo Impostazione credenziali specificare il tipo di autenticazione, il nome utente e la password e fare clic su OK.In the Setting Credentials dialog box, specify authentication type, user name, and password, and click OK. Se la connessione viene stabilita correttamente, le credenziali crittografate vengono archiviate nel file JSON e la finestra di dialogo si chiude.If the connection is successful, the encrypted credentials are stored in the JSON and the dialog box closes.

      5. Chiudere la scheda del browser vuota usata per avviare la finestra di dialogo se non viene chiusa automaticamente e tornare alla scheda con il portale di Azure.Close the empty browser tab that launched the dialog box if it is not automatically closed and get back to the tab with the Azure portal.

        Nel computer gateway queste credenziali vengono crittografate con un certificato di proprietà del servizio Data Factory.On the gateway machine, these credentials are encrypted by using a certificate that the Data Factory service owns. Se invece si intende usare il certificato associato al gateway di gestione dati, vedere le informazioni su come impostare le credenziali in modo sicuro.If you want to use the certificate that is associated with the Data Management Gateway instead, see Set credentials securely.

    3. Fare clic su Distribuisci nella barra dei comandi per distribuire il servizio collegato di SQL Server.Click Deploy on the command bar to deploy the SQL Server linked service. Verrà visualizzato il servizio collegato nella visualizzazione albero.You should see the linked service in the tree view.

      Servizio collegato SQL Server nella visualizzazione albero

Aggiungere un servizio collegato per un account di archiviazione di AzureAdd a linked service for an Azure storage account

  1. Nell'editor di Data factory fare clic su Nuovo archivio dati nella barra dei comandi e quindi su Archiviazione di Azure.In the Data Factory Editor, click New data store on the command bar and click Azure storage.
  2. Nel campo Nome accountimmettere il nome dell'account di archiviazione di Azure.Enter the name of your Azure storage account for the Account name.
  3. Nel campo Chiave accountimmettere la chiave per l'account di archiviazione di Azure.Enter the key for your Azure storage account for the Account key.
  4. Fare clic su Distribuisci per distribuire AzureStorageLinkedService.Click Deploy to deploy the AzureStorageLinkedService.

Creare set di datiCreate datasets

In questo passaggio vengono creati i set di dati di input e di output che rappresentano i dati di input e di output per l'operazione di copia (database SQL Server locale => archiviazione BLOB di Azure).In this step, you create input and output datasets that represent input and output data for the copy operation (On-premises SQL Server database => Azure blob storage). Prima di creare i set di dati, eseguire questa procedura (la procedura dettagliata segue l'elenco):Before creating datasets, do the following steps (detailed steps follows the list):

  • Creare una tabella denominata emp nel database SQL Server aggiunto come servizio collegato all'istanza di Data factory e inserire una coppia di voci di esempio nella tabella.Create a table named emp in the SQL Server Database you added as a linked service to the data factory and insert a couple of sample entries into the table.
  • Creare un contenitore BLOB denominato adftutorial nell'account di archiviazione BLOB di Azure aggiunto come servizio collegato alla data factory.Create a blob container named adftutorial in the Azure blob storage account you added as a linked service to the data factory.

Preparare SQL Server locale per l'esercitazionePrepare On-premises SQL Server for the tutorial

  1. Nel database specificato per il servizio collegato di SQL Server locale (SqlServerLinkedService) usare lo script SQL seguente per creare la tabella emp nel database.In the database you specified for the on-premises SQL Server linked service (SqlServerLinkedService), use the following SQL script to create the emp table in the database.

    CREATE TABLE dbo.emp
    (
        ID int IDENTITY(1,1) NOT NULL,
        FirstName varchar(50),
        LastName varchar(50),
        CONSTRAINT PK_emp PRIMARY KEY (ID)
    )
    GO
    
  2. Inserire un esempio nella tabella:Insert some sample into the table:

    INSERT INTO emp VALUES ('John', 'Doe')
    INSERT INTO emp VALUES ('Jane', 'Doe')
    

Creare set di dati di inputCreate input dataset

  1. Nell' editor di data factoryfare clic su ... Altro, fare clic su nuovo set di dati sulla barra dei comandi e quindi su SQL Server tabella.In the Data Factory Editor, click ... More, click New dataset on the command bar, and click SQL Server table.

  2. Sostituire lo script JSON nel riquadro a destra con il testo seguente:Replace the JSON in the right pane with the following text:

    {        
        "name": "EmpOnPremSQLTable",
        "properties": {
            "type": "SqlServerTable",
            "linkedServiceName": "SqlServerLinkedService",
            "typeProperties": {
                "tableName": "emp"
            },
            "external": true,
            "availability": {
                "frequency": "Hour",
                "interval": 1
            },
            "policy": {
                "externalData": {
                    "retryInterval": "00:01:00",
                    "retryTimeout": "00:10:00",
                    "maximumRetry": 3
                }
            }
        }
    }     
    

    Tenere presente quanto segue:Note the following points:

    • L'oggetto type è impostato su SqlServerTable.type is set to SqlServerTable.
    • L'oggetto tableName è impostato su emp.tableName is set to emp.
    • linkedServiceName è impostato su SqlServerLinkedService. Questo servizio collegato è stato creato prima nel corso di questa procedura dettagliata.linkedServiceName is set to SqlServerLinkedService (you had created this linked service earlier in this walkthrough.).
    • Per un set di dati di input non generato da un'altra pipeline in Azure Data Factory, è necessario impostare external su true.For an input dataset that is not generated by another pipeline in Azure Data Factory, you must set external to true. Indica che i dati di input sono generati al di fuori del servizio Azure Data Factory.It denotes the input data is produced external to the Azure Data Factory service. È possibile specificare i criteri di dati esterni necessari usando l'elemento externalData nella sezione Policy.You can optionally specify any external data policies using the externalData element in the Policy section.

    Per informazioni dettagliate sulle proprietà JSON, vedere Spostare dati da/verso SQL Server.See Move data to/from SQL Server for details about JSON properties.

  3. Fare clic su Distribuisci sulla barra dei comandi per distribuire il set di dati.Click Deploy on the command bar to deploy the dataset.

Creare il set di dati di outputCreate output dataset

  1. Nell'Editor di Data factory fare clic su Nuovo set di dati sulla barra dei comandi e selezionare Archiviazione BLOB di Azure.In the Data Factory Editor, click New dataset on the command bar, and click Azure Blob storage.

  2. Sostituire lo script JSON nel riquadro a destra con il testo seguente:Replace the JSON in the right pane with the following text:

    {
        "name": "OutputBlobTable",
        "properties": {
            "type": "AzureBlob",
            "linkedServiceName": "AzureStorageLinkedService",
            "typeProperties": {
                "folderPath": "adftutorial/outfromonpremdf",
                "format": {
                    "type": "TextFormat",
                    "columnDelimiter": ","
                }
            },
            "availability": {
                "frequency": "Hour",
                "interval": 1
            }
        }
     }
    

    Tenere presente quanto segue:Note the following points:

    • L'oggetto type è impostato su AzureBlob.type is set to AzureBlob.
    • linkedServiceName è impostato su AzureStorageLinkedService. Questo servizio collegato è stato creato al passaggio 2.linkedServiceName is set to AzureStorageLinkedService (you had created this linked service in Step 2).
    • folderPath è impostato su adftutorial/outfromonpremdf dove outfromonpremdf è la cartella nel contenitore adftutorial.folderPath is set to adftutorial/outfromonpremdf where outfromonpremdf is the folder in the adftutorial container. Se non esiste ancora, creare il contenitore adftutorial .Create the adftutorial container if it does not already exist.
    • L'oggetto availability è impostato su hourly. L'oggetto frequency è impostato su hour e l'oggetto interval è impostato su 1.The availability is set to hourly (frequency set to hour and interval set to 1). Il servizio Data Factory genera una sezione di dati di output ogni ora nella tabella emp nel database SQL di Azure.The Data Factory service generates an output data slice every hour in the emp table in the Azure SQL Database.

    Se non si specifica un nome file per una tabella di output, i file generati in folderPath vengono denominati nel formato seguente: Data.<Guid>.txt (ad esempio: data. 0a405f8a-93ff-4C6F-B3BE-f69616f1df7a. txt.).If you do not specify a fileName for an output table, the generated files in the folderPath are named in the following format: Data.<Guid>.txt (for example: : Data.0a405f8a-93ff-4c6f-b3be-f69616f1df7a.txt.).

    Per impostare folderPath e fileName dinamicamente in base all'ora SliceStart, usare la proprietà partitionedBy.To set folderPath and fileName dynamically based on the SliceStart time, use the partitionedBy property. Nell'esempio seguente folderPath usa Year, Month e Day dall'oggetto SliceStart (ora di inizio della sezione elaborata), mentre fileName usa Hour dall'oggetto SliceStart.In the following example, folderPath uses Year, Month, and Day from the SliceStart (start time of the slice being processed) and fileName uses Hour from the SliceStart. Ad esempio, se una sezione viene generata per 2014-10-20T08:00:00, folderName è impostato su wikidatagateway/wikisampledataout/2014/10/20 e fileName è impostato su 08.csv.For example, if a slice is being produced for 2014-10-20T08:00:00, the folderName is set to wikidatagateway/wikisampledataout/2014/10/20 and the fileName is set to 08.csv.

    "folderPath": "wikidatagateway/wikisampledataout/{Year}/{Month}/{Day}",
    "fileName": "{Hour}.csv",
    "partitionedBy":
    [
    
        { "name": "Year", "value": { "type": "DateTime", "date": "SliceStart", "format": "yyyy" } },
        { "name": "Month", "value": { "type": "DateTime", "date": "SliceStart", "format": "MM" } },
        { "name": "Day", "value": { "type": "DateTime", "date": "SliceStart", "format": "dd" } },
        { "name": "Hour", "value": { "type": "DateTime", "date": "SliceStart", "format": "hh" } }
    ],
    

    Per informazioni dettagliate sulle proprietà JSON, vedere Spostare dati da/verso l'archivio BLOB di Azure.See Move data to/from Azure Blob Storage for details about JSON properties.

  3. Fare clic su Distribuisci sulla barra dei comandi per distribuire il set di dati.Click Deploy on the command bar to deploy the dataset. Assicurarsi che entrambi i set di dati siano visibili nella visualizzazione albero.Confirm that you see both the datasets in the tree view.

Creare una pipelineCreate pipeline

In questo passaggio viene creata una pipeline con un'attività di copia che usa EmpOnPremSQLTable come input e OutputBlobTable come output.In this step, you create a pipeline with one Copy Activity that uses EmpOnPremSQLTable as input and OutputBlobTable as output.

  1. In Data Factory Editor fare clic su ... Altroe fare clic su nuova pipeline.In Data Factory Editor, click ... More, and click New pipeline.

  2. Sostituire lo script JSON nel riquadro a destra con il testo seguente:Replace the JSON in the right pane with the following text:

     {
         "name": "ADFTutorialPipelineOnPrem",
         "properties": {
         "description": "This pipeline has one Copy activity that copies data from an on premises SQL to Azure blob",
         "activities": [
           {
             "name": "CopyFromSQLtoBlob",
             "description": "Copy data from on premises SQL server to blob",
             "type": "Copy",
             "inputs": [
               {
                 "name": "EmpOnPremSQLTable"
               }
             ],
             "outputs": [
               {
                 "name": "OutputBlobTable"
               }
             ],
             "typeProperties": {
               "source": {
                 "type": "SqlSource",
                 "sqlReaderQuery": "select * from emp"
               },
               "sink": {
                 "type": "BlobSink"
               }
             },
             "Policy": {
               "concurrency": 1,
               "executionPriorityOrder": "NewestFirst",
               "style": "StartOfInterval",
               "retry": 0,
               "timeout": "01:00:00"
             }
           }
         ],
         "start": "2016-07-05T00:00:00Z",
         "end": "2016-07-06T00:00:00Z",
         "isPaused": false
       }
     }
    

    Importante

    Sostituire il valore della proprietà start con il giorno corrente e il valore di end con il giorno successivo.Replace the value of the start property with the current day and end value with the next day.

    Tenere presente quanto segue:Note the following points:

    • Nella sezione delle attività esiste una sola attività con type impostato su Copy.In the activities section, there is only activity whose type is set to Copy.
    • Input for per l'attività è impostato su EmpOnPremSQLTable e output per l'attività è impostato su OutputBlobTable.Input for the activity is set to EmpOnPremSQLTable and output for the activity is set to OutputBlobTable.
    • Nella sezione typeProperties , sqlSource viene specificato come tipo di origine e BlobSink viene specificato come tipo di sink.In the typeProperties section, SqlSource is specified as the source type and BlobSink is specified as the sink type.
    • La query SQL select * from emp è specificata per la proprietà sqlReaderQuery di SqlSource.SQL query select * from emp is specified for the sqlReaderQuery property of SqlSource.

    Per la data e ora di inizio è necessario usare il formato ISO,Both start and end datetimes must be in ISO format. ad esempio 2014-10-14T16:32:41Z.For example: 2014-10-14T16:32:41Z. Il valore di end è facoltativo, ma in questa esercitazione viene usato.The end time is optional, but we use it in this tutorial.

    Se non si specifica alcun valore per la proprietà end, il valore verrà calcolato come "start + 48 hours".If you do not specify value for the end property, it is calculated as "start + 48 hours". Per eseguire la pipeline illimitatamente, specificare 9/9/9999 come valore per la proprietà end.To run the pipeline indefinitely, specify 9/9/9999 as the value for the end property.

    Si definisce la durata dell'elaborazione delle sezioni di dati in base alle proprietà di disponibilità definite per ogni set di dati di Azure Data Factory.You are defining the time duration in which the data slices are processed based on the Availability properties that were defined for each Azure Data Factory dataset.

    Nell'esempio sono visualizzate 24 sezioni di dati perché viene generata una sezione di dati ogni ora.In the example, there are 24 data slices as each data slice is produced hourly.

  3. Fare clic su Distribuisci sulla barra dei comandi per distribuire la set di dati (la tabella è un set di dati rettangolare).Click Deploy on the command bar to deploy the dataset (table is a rectangular dataset). Verificare che la pipeline venga visualizzata nella visualizzazione albero sotto il nodo Pipeline.Confirm that the pipeline shows up in the tree view under Pipelines node.

  4. Ora fare clic su X due volte per chiudere la pagina e tornare alla pagina Data Factory per ADFTutorialOnPremDF.Now, click X twice to close the page to get back to the Data Factory page for the ADFTutorialOnPremDF.

Congratulazioni.Congratulations! Una data factory di Azure, i servizi collegati, i set di dati e una pipeline sono stati creati correttamente e la pipeline è stata pianificata.You have successfully created an Azure data factory, linked services, datasets, and a pipeline and scheduled the pipeline.

Visualizzare la data factory in una vista diagrammaView the data factory in a Diagram View

  1. Nel portale di Azure fare clic sul riquadro Diagramma nella home page per l'istanza della data factory ADFTutorialOnPremDF.In the Azure portal, click Diagram tile on the home page for the ADFTutorialOnPremDF data factory. ::

    Collegamento al diagramma

  2. Verrà visualizzato un diagramma simile all'immagine seguente:You should see the diagram similar to the following image:

    Vista Diagramma

    È possibile eseguire lo zoom avanti, lo zoom indietro e lo zoom al 100%, adattare alla finestra, posizionare automaticamente pipeline e set di dati e visualizzare le informazioni sulla derivazione, evidenziando gli elementi upstream e downstream degli elementi selezionati.You can zoom in, zoom out, zoom to 100%, zoom to fit, automatically position pipelines and datasets, and show lineage information (highlights upstream and downstream items of selected items). È possibile fare doppio clic su un oggetto (set di dati di input/output o pipeline) per visualizzare le relative proprietà.You can double-click an object (input/output dataset or pipeline) to see properties for it.

Monitorare la pipelineMonitor pipeline

In questo passaggio viene usato il portale di Azure per monitorare le attività in un'istanza di Azure Data Factory.In this step, you use the Azure portal to monitor what’s going on in an Azure data factory. È anche possibile usare i cmdlet di PowerShell per monitorare i set di dati e le pipeline.You can also use PowerShell cmdlets to monitor datasets and pipelines. Per altre informazioni sul monitoraggio, vedere Monitorare e gestire le pipeline.For details about monitoring, see Monitor and Manage Pipelines.

  1. Nel diagramma fare doppio clic su EmpOnPremSQLTable.In the diagram, double-click EmpOnPremSQLTable.

    Sezioni EmpOnPremSQLTable

  2. Si noti che tutte le sezioni di dati aggiornate hanno lo stato Pronta perché la durata della pipeline (dall'ora di inizio all'ora di fine) è nel passato,Notice that all the data slices up are in Ready state because the pipeline duration (start time to end time) is in the past. ma anche perché i dati sono stati inseriti nel database di SQL Server dove sono rimasti.It is also because you have inserted the data in the SQL Server database and it is there all the time. Verificare che non sia visualizzata alcuna sezione in Sezioni con errori nella parte inferiore della pagina.Confirm that no slices show up in the Problem slices section at the bottom. Per visualizzare tutte le sezioni, fare clic su Vedi altre nella parte inferiore dell'elenco di sezioni.To view all the slices, click See More at the bottom of the list of slices.

  3. A questo punto, nella pagina Set di dati fare clic su OutputBlobTable.Now, In the Datasets page, click OutputBlobTable.

    Sezioni OputputBlobTable

  4. Fare clic su una qualsiasi sezione dati dell'elenco per visualizzare la pagina Sezione dati.Click any data slice from the list and you should see the Data Slice page. Verranno visualizzate le esecuzioni di attività per la sezione.You see activity runs for the slice. In genere viene visualizzata una sola esecuzione di attività.You see only one activity run usually.

    Pannello Sezione dati

    Se lo stato della sezione non è Pronto, sarà possibile visualizzare le sezioni upstream che non sono pronte e bloccano l'esecuzione della sezione corrente nell'elenco Sezioni upstream non pronte.If the slice is not in the Ready state, you can see the upstream slices that are not Ready and are blocking the current slice from executing in the Upstream slices that are not ready list.

  5. Fare clic sull'esecuzione attività dall'elenco nella parte inferiore della pagina per visualizzare i dettagli dell'esecuzione attività.Click the activity run from the list at the bottom to see activity run details.

    Pagina Dettagli esecuzione attività

    Verranno visualizzate informazioni come la velocità effettiva, la durata e il gateway usato per trasferire i dati.You would see information such as throughput, duration, and the gateway used to transfer the data.

  6. Fare clic su X per chiudere tutte le pagine finoClick X to close all the pages until you

  7. a tornare alla home page di ADFTutorialOnPremDF.get back to the home page for the ADFTutorialOnPremDF.

  8. (Facoltativo) Fare clic su Pipeline e su ADFTutorialOnPremDF, quindi eseguire il drill-through delle tabelle di input (utilizzate) o dei set di dati di output (generati).(optional) Click Pipelines, click ADFTutorialOnPremDF, and drill through input tables (Consumed) or output datasets (Produced).

  9. Usare strumenti come Microsoft Storage Explorer per verificare che venga creato un BLOB/file ogni ora.Use tools such as Microsoft Storage Explorer to verify that a blob/file is created for each hour.

    Esplora archivi Azure

Passaggi successiviNext steps