Esercitazione: Copiare dati da un archivio BLOB al database SQL usando Data Factory

In questa esercitazione si crea una data factory con una pipeline per copiare i dati dall'archivio BLOB al database SQL.

L'attività di copia esegue lo spostamento dei dati in Azure Data Factory e si basa su un servizio disponibile a livello globale che può copiare dati tra diversi archivi dati in modo sicuro, affidabile e scalabile. Per informazioni dettagliate sull'attività di copia, vedere Attività di spostamento dei dati .

Nota

Per una panoramica dettagliata del servizio Data factory, vedere l'articolo Introduzione al servizio Azure Data Factory .

Prerequisiti per l'esercitazione

Prima di iniziare questa esercitazione, sono necessari i prerequisiti seguenti:

  • Sottoscrizione di Azure. Se non è disponibile una sottoscrizione, è possibile creare un account di valutazione gratuita in pochi minuti. Per informazioni dettagliate, vedere l'articolo Versione di valutazione gratuita .
  • Account di archiviazione di Azure. In questa esercitazione l'archivio BLOB viene usato come archivio dati di origine . Se non si ha un account di archiviazione di Azure, vedere l'articolo Creare un account di archiviazione per informazioni su come crearne uno.
  • Database SQL di Azure. In questa esercitazione viene usato un database SQL di Azure come archivio dati di destinazione . Se non è disponibile un database SQL di Azure da usare nell'esercitazione, vedere Come creare e configurare un database SQL di Azure per crearne uno.
  • SQL Server 2012/2014 o Visual Studio 2013. Per creare un database di esempio e per visualizzare i dati risultanti in tale database, viene usato SQL Server Management Studio o Visual Studio.

Raccogliere il nome dell'account e la chiave dell'archivio BLOB

Per eseguire questa esercitazione, sono necessari il nome e la chiave dell'account di archiviazione di Azure. Prendere nota del nome e della chiave per l'account di archiviazione di Azure.

  1. Accedere al Portale di Azure.
  2. Fare clic su Altri servizi nel menu a sinistra e selezionare Account di archiviazione.

    Sfoglia - Account di archiviazione

  3. Nel pannello Account di archiviazione selezionare l'account di archiviazione di Azure da usare in questa esercitazione.
  4. Selezionare Chiavi di accesso in IMPOSTAZIONI.
  5. Fare clic sul pulsante copia (immagine) accanto alla casella di testo Nome account di archiviazione e salvarlo/incollarlo, ad esempio, in un file di testo.
  6. Ripetere il passaggio precedente per copiare o annotare la chiave denominata key1.

    Chiave di accesso alle risorse di archiviazione

  7. Fare clic su Xper chiudere tutti i pannelli.

Raccogliere i nomi del server, del database e dell'utente per il database SQL

Per eseguire questa esercitazione, sono necessari i nomi del server, del database e dell'utente di Azure SQL. Annotare i nomi di server, database e utente per il database SQL di Azure.

  1. Nel portale di Azure fare clic su Altri servizi a sinistra e selezionare Database SQL.
  2. Nel pannello Database SQL selezionare il database da usare nell'esercitazione. Annotare il nome database.
  3. Nel pannello Database SQL, fare clic su Proprietà in IMPOSTAZIONI.
  4. Annotare i valori per NOME SERVER e ACCOUNT DI ACCESSO AMMINISTRATORE SERVER.
  5. Fare clic su Xper chiudere tutti i pannelli.

Consentire ai servizi di Azure di accedere a SQL Server

Assicurarsi che l'impostazione Consenti l'accesso a Servizi di Azure sia ATTIVA per il server di Azure SQL, in modo che il servizio Data Factory possa accedere al server di Azure SQL. Per verificare e attivare l'impostazione, seguire questa procedura:

  1. Fare clic sull'hub Altri servizi a sinistra e selezionare Server SQL.
  2. Selezionare il server e fare clic su Firewall in IMPOSTAZIONI.
  3. Nel pannello Impostazioni del firewall fare clic su ATTIVA per Consenti l'accesso a Servizi Azure.
  4. Fare clic su Xper chiudere tutti i pannelli.

Preparare l'archivio BLOB e il database SQL

Preparare ora l'archivio BLOB di Azure e il database SQL Azure per l'esercitazione seguendo questa procedura:

  1. Avviare il Blocco note. Copiare il testo seguente e salvarlo come file emp.txt nella cartella C:\ADFGetStarted nel disco rigido.

    John, Doe
    Jane, Doe
    
  2. Usare strumenti come Azure Storage Explorer per creare il contenitore adftutorial e per caricare il file emp.txt nel contenitore.

    Azure Storage Explorer Copiare dati da un archivio BLOB al database SQL

  3. Usare il seguente script SQL per creare la tabella emp nel database SQL di Azure.

    CREATE TABLE dbo.emp
    (
        ID int IDENTITY(1,1) NOT NULL,
        FirstName varchar(50),
        LastName varchar(50),
    )
    GO
    
    CREATE CLUSTERED INDEX IX_emp_ID ON dbo.emp (ID);
    

    Se nel computer è installato SQL Server 2012/2014, seguire le istruzioni fornite in Gestione del database SQL di Azure con SQL Server Management Studio per connettersi al server SQL di Azure ed eseguire lo script SQL. Per configurare il firewall per un server SQL di Azure, questo articolo usa il portale di Azure classico, non il nuovo portale di Azure.

    Se il client non è autorizzato ad accedere al server di Azure SQL, è necessario configurare il firewall per il server di Azure SQL in modo da consentire l'accesso dal computer (indirizzo IP). Per informazioni sulla procedura per configurare il firewall per il server Azure SQL, vedere questo articolo .

Creare un'istanza di Data factory

I passaggi relativi ai prerequisiti sono stati completati. È possibile creare un data factory usando uno dei seguenti metodi. Per eseguire l'esercitazione, fare clic su una delle opzioni nell'elenco a discesa in alto oppure sui collegamenti indicati qui di seguito.

Nota

La pipeline di dati in questa esercitazione copia i dati da un archivio dati di origine a un archivio dati di destinazione. Non trasforma i dati di input per produrre dati di output. Per un'esercitazione su come trasformare i dati usando Azure Data Factory, vedere Esercitazione: Creare la prima pipeline per elaborare i dati usando il cluster Hadoop.

È possibile concatenare due attività, ovvero eseguire un'attività dopo l'altra, impostando il set di dati di output di un'attività come set di dati di input di altre attività. Per informazioni dettagliate, vedere Pianificazione ed esecuzione con Data Factory.