Kopiera data från Azure Blob Storage till en SQL Database med hjälp av Kopiera data verktyg

GÄLLER FÖR: Azure Data Factory Azure Synapse Analytics

I den här självstudien skapar du en datafabrik i Azure Portal. Sedan använder du Kopiera data för att skapa en pipeline som kopierar data från Azure Blob Storage till en SQL Database.

Anteckning

Om du inte har använt Azure Data Factory tidigare kan du läsa Introduktion till Azure Data Factory.

I den här självstudien får du göra följande:

  • Skapa en datafabrik.
  • Använd verktyget Kopiera data för att skapa en pipeline.
  • Övervaka pipelinen och aktivitetskörningarna.

Förutsättningar

  • Azure-prenumeration: Om du inte har någon Azure-prenumeration kan du skapa ett kostnadsfritt konto innan du börjar.
  • Azure Storage konto: Använd Blob Storage som källdatalager. Om du inte har ett Azure Storage kan du läsa anvisningarna i Skapa ett lagringskonto.
  • Azure SQL Database: Använd en SQL Database som datalager för mottagare. Om du inte har en SQL Database kan du läsa anvisningarna i Skapa en SQL Database.

Skapa en blob och en SQL-tabell

Förbered bloblagringen och din SQL Database självstudien genom att utföra dessa steg.

Skapa en källblob

  1. Starta Anteckningar. Kopiera följande text och spara den i en fil med namnet inputEmp.txt på din disk:

    FirstName|LastName
    John|Doe
    Jane|Doe
    
  2. Skapa en container med namnet adfv2tutorial och ladda upp filen inputEmp.txt till containern. Du kan använda Azure Portal eller olika verktyg som Azure Storage Explorer för att utföra dessa uppgifter.

Skapa en SQL-mottagartabell

  1. Använd följande skript SQL för att skapa en tabell med namnet dbo.emp i SQL Database:

    CREATE TABLE dbo.emp
    (
        ID int IDENTITY(1,1) NOT NULL,
        FirstName varchar(50),
        LastName varchar(50)
    )
    GO
    CREATE CLUSTERED INDEX IX_emp_ID ON dbo.emp (ID);
    
  2. Ge Azure-tjänster åtkomst till SQL Server. Kontrollera att inställningen Tillåt Azure-tjänster och resurser att komma åt den här servern är aktiverad för den server som kör SQL Database. Med den här inställningen kan Data Factory skriva data till din databasinstans. Om du vill verifiera och aktivera den här inställningen går du till logisk SQL-server > Security > Firewalls and virtual networks > (Tillåt Azure-tjänster och resurser att komma åt den här servern) till .

    Anteckning

    Alternativet för att ge Azure-tjänster och resurser åtkomst till den här servern ger nätverksåtkomst till din SQL Server från valfri Azure-resurs, inte bara de i din prenumeration. Mer information finns i Azure SQL Server Firewall-regler. I stället kan du använda privata slutpunkter för att ansluta till Azure PaaS-tjänster utan att använda offentliga IP-adresser.

Skapa en datafabrik

  1. På den vänstra menyn väljer du Skapa en > resursintegrering > Data Factory:

    Skapa ny datafabrik

  2. I fönstret Ny datafabrik, under Namn anger du ADFTutorialDataFactory.

    Namnet på datafabriken måste vara globalt unikt. Du kan få följande felmeddelande:

    Nytt datafabriksfelmeddelande för dubblettnamn.

    Ange ett annat namn för datafabriken om du får ett felmeddelande om namnvärdet. Använd till exempel namnet dittnamnADFTutorialDataFactory. Se artikeln Data Factory – namnregler för namnregler för Data Factory-artefakter.

  3. Välj den Azure-prenumeration som du vill skapa den nya datafabriken i.

  4. Gör något av följande för Resursgrupp:

    a. Välj Använd befintlig och välj en befintlig resursgrupp i listrutan.

    b. Välj Skapa ny och ange namnet på en resursgrupp.

    Mer information om resursgrupper finns i Använda resursgrupper för att hantera Azure-resurser.

  5. För version väljer du V2.

  6. Under plats väljer du en plats för datafabriken. Endast platser som stöds visas i listrutan. Datalagren (t.ex. Azure Storage och SQL Database) och beräkningarna (t.ex. Azure HDInsight) som används i datafabriken kan finnas på andra platser och i andra regioner.

  7. Välj Skapa.

  8. När den har skapats visas startsidan för Data Factory.

    Startsidan för Azure Data Factory med panelen Open Azure Data Factory Studio.

  9. Om du vill Azure Data Factory användargränssnittet (UI) på en separat flik väljer du Öppna på panelen Öppna Azure Data Factory Studio.

Använd verktyget Kopiera data för att skapa en pipeline

  1. På startsidan för Azure Data Factory väljer du panelen Mata in för att starta Kopiera data verktyg.

    Skärmbild som visar Azure Data Factory startsidan.

  2. På sidan Egenskaper i Kopiera data väljer du Inbyggd kopieringsaktivitet under Aktivitetstyp och väljer sedan Nästa.

    Skärmbild som visar sidan Egenskaper

  3. Gör följande på sidan Källdatalager:

    a. Välj + Skapa ny anslutning för att lägga till en anslutning.

    b. Välj Azure Blob Storage från galleriet och välj sedan Fortsätt.

    c. På sidan Ny anslutning (Azure Blob Storage) väljer du din Azure-prenumeration i listan Azure-prenumeration och väljer ditt lagringskonto i listan Storage med kontonamn. Testa anslutningen och välj sedan Skapa.

    d. Välj den nyligen skapade länkade tjänsten som källa i anslutningsblocket.

    e. I avsnittet Fil eller mapp väljer du Bläddra för att navigera till mappen adfv2tutorial, väljer fileninputEmp.txt och väljer sedan OK.

    f. Välj Nästa för att gå vidare till nästa steg.

    Konfigurera källan.

  4. På sidan Filformatinställningar aktiverar du kryssrutan för Första raden som rubrik. Observera att verktyget automatiskt identifierar kolumn- och radavgränsare, och du kan förhandsgranska data och visa schemat för indata genom att välja knappen Förhandsgranska data på den här sidan. Välj sedan Nästa.

    Filformatinställningar

  5. Gör följande på sidan Måldatalager:

    a. Välj + Skapa ny anslutning för att lägga till en anslutning.

    b. Välj Azure SQL Database från galleriet och välj sedan Fortsätt.

    c. På sidan Ny anslutning (Azure SQL Database) väljer du din Azure-prenumeration, servernamn och databasnamn i listrutan. Välj sedan SQL autentisering under Autentiseringstyp, ange användarnamn och lösenord. Testa anslutningen och välj Skapa.

    Konfigurera Azure SQL DB

    d. Välj den nyligen skapade länkade tjänsten som mottagare och välj sedan Nästa.

  6. På sidan Måldatalager väljer du Använd befintlig tabell och tabellen dbo.emp. Välj sedan Nästa.

  7. På sidan Kolumnmappning ser du att den andra och den tredje kolumnen i indatafilen mappas till kolumnerna FirstName och LastName i tabellen emp. Justera mappningen för att se till att det inte finns något fel och välj sedan Nästa.

    Sidan Kolumnmappning

  8. På sidan Inställningar aktivitetsnamn anger du CopyFromBlobToSqlPipeline och väljer sedan Nästa.

    Konfigurera inställningarna.

  9. Granska inställningarna på sidan Sammanfattning och klicka på Nästa.

  10. På sidan Distribution väljer du Övervaka för att övervaka pipelinen (uppgiften).

    Övervaka pipeline

  11. På sidan Pipelinekörningar väljer du Uppdatera för att uppdatera listan. Välj länken under Pipelinenamn för att visa information om aktivitetskörningar eller kör pipelinen igen.

    Pipelinekörning

  12. På sidan "Aktivitetskörningar" väljer du länken Information (glasögonikonen) under kolumnen Aktivitetsnamn för mer information om kopieringsåtgärden. Om du vill gå tillbaka till vyn "Pipeline runs" (Pipelinekörningar) väljer du länken All pipeline runs (Alla pipelinekörningar) i sökvägsmenyn. Välj Uppdatera för att uppdatera vyn.

    Övervaka aktivitetskörningar

  13. Kontrollera att data infogas i tabellen dbo.emp i din SQL Database.

  14. Klicka på fliken Författare till vänster för att växla till redigeringsläget. Du kan uppdatera de länkade tjänster, datauppsättningar och pipeliner som skapats med verktyget med hjälp av redigeraren. Mer information om hur du redigerar dessa entiteter i användargränssnittet för Data Factory finns i Azure Portal-versionen av den här självstudiekursen.

    Välj fliken Författare

Nästa steg

Pipelinen i det här exemplet kopierar data från Blob Storage till en SQL Database. Du har lärt dig att:

  • Skapa en datafabrik.
  • Använd verktyget Kopiera data för att skapa en pipeline.
  • Övervaka pipelinen och aktivitetskörningarna.

Fortsätt till nästa självstudie om du vill lära dig att kopiera data från en lokal plats till molnet: