Kopiera data från en SQL Server-databas till Azure Blob Storage med hjälp av Kopiera data verktyget

GÄLLER FÖR: Azure Data Factory Azure Synapse Analytics

I den här självstudien skapar du en datafabrik i Azure Portal. Sedan använder du verktyget Kopiera data för att skapa en pipeline som kopierar data från en SQL Server-databas till Azure Blob Storage.

Anteckning

I den här självstudien får du göra följande:

  • Skapa en datafabrik.
  • Använd verktyget Kopiera data för att skapa en pipeline.
  • Övervaka pipelinen och aktivitetskörningarna.

Förutsättningar

Azure-prenumeration

Om du inte redan har en Azure-prenumeration kan du skapa ett kostnadsfritt konto innan du börjar.

Azure-roller

Om du vill skapa datafabriksinstanser måste det användarkonto som du använder för att logga in på Azure tilldelas rollen Deltagare eller Ägare eller vara administratör för Azure-prenumerationen.

Gå till Azure Portal om du vill se vilka behörigheter du har i prenumerationen. Välj användarnamnet längst upp till höger och välj sedan Behörigheter. Om du har åtkomst till flera prenumerationer väljer du rätt prenumeration. Exempelinstruktioner om hur du lägger till en användare till en roll finns i Tilldela Azure-roller med hjälp av Azure Portal.

SQL Server 2014, 2016 och 2017

I den här självstudien använder du SQL Server en databas som ett källdatalager. Pipelinen i datafabriken som du skapar i den här självstudien kopierar data från den SQL Server databasen (källa) till Blob Storage (mottagare). Skapa sedan en tabell med namnet emp i SQL Server-databasen och infoga ett par exempelposter i tabellen.

  1. Starta SQL Server Management Studio. Om det inte redan är installerat på datorn öppnar du Ladda ner SQL Server Management Studio.

  2. Anslut till SQL Server-instansen med hjälp av dina autentiseringsuppgifter.

  3. Skapa en exempeldatabas. I trädvyn högerklickar du på Databaser och sedan väljer du Ny databas.

  4. I fönstret Ny databas anger du ett namn för databasen och sedan väljer du OK.

  5. Skapa tabellen emp och infoga lite exempeldata i den genom att köra följande frågeskript mot databasen. I trädvyn högerklickar du på databasen du skapade och sedan väljer du Ny fråga.

    CREATE TABLE dbo.emp
    (
        ID int IDENTITY(1,1) NOT NULL,
        FirstName varchar(50),
        LastName varchar(50)
    )
    GO
    
    INSERT INTO emp (FirstName, LastName) VALUES ('John', 'Doe')
    INSERT INTO emp (FirstName, LastName) VALUES ('Jane', 'Doe')
    GO
    

Azure Storage-konto

I den här självstudien använder du ett allmänt Azure Storage-konto (Blob Storage, för att vara specifik) som datalager för destination eller mottagare. Om du inte har något allmänt lagringskonto finns det anvisningar om hur du skapar ett i artikeln Skapa ett lagringskonto. Pipelinen i datafabriken som du skapar i den här självstudien kopierar data från SQL Server databasen (källa) till bloblagringen (mottagare).

Hämta lagringskontots namn och åtkomstnyckel

Du använder namnet och nyckeln för lagringskontot i den här självstudien. Gör så här för att hämta namnet och nyckeln till lagringskontot:

  1. Logga in på Azure Portal med användarnamnet och lösenordet för Azure.

  2. Välj Alla tjänster i rutan till vänster. Filtrera genom att använda nyckelordet Lagring och välj sedan Lagringskonton.

    Lagringskontosökning

  3. Filtrera på ditt lagringskonto (om det behövs) i listan med lagringskonton. Välj sedan ditt lagringskonto.

  4. I fönstret Lagringskonto väljer du Åtkomstnycklar.

  5. I rutorna Lagringskontonamn och key1 kopierar du värdena och klistrar sedan in dem i Anteckningar eller annat redigeringsprogram så att du har dem när du behöver dem senare i självstudien.

Skapa en datafabrik

  1. På menyn till vänster väljer du Skapa en resursintegrering > > Data Factory.

    Skapa ny datafabrik

  2. I fönstret Ny datafabrik, under Namn anger du ADFTutorialDataFactory.

    Namnet på datafabriken måste vara globalt unikt. Om följande felmeddelande visas för namnfältet ändrar du namnet på datafabriken (t.ex. dittnamnADFTutorialDataFactory). Se artikeln Namnregler för Data Factory för namnregler för Data Factory-artefakter.

    Nytt datafabriksfelmeddelande för dubblettnamn.

  3. Välj den Azure-prenumeration som du vill skapa den nya datafabriken i.

  4. Gör något av följande för Resursgrupp:

  5. Under Version väljer du V2.

  6. Under Plats väljer du platsen för datafabriken. Endast platser som stöds visas i listrutan. Datalagren (t.ex. Azure Storage och SQL-databas) och beräkningarna (t.ex. Azure HDInsight) som används i Data Factory kan finnas på andra platser/i andra regioner.

  7. Välj Skapa.

  8. När skapandet är klart visas sidan Data Factory som på bilden.

    Startsidan för Azure Data Factory med panelen Öppna Azure Data Factory Studio.

  9. Välj Öppnapanelen Öppna Azure Data Factory Studio för att Data Factory användargränssnittet på en separat flik.

Använd verktyget Kopiera data för att skapa en pipeline

  1. På Azure Data Factory startsida väljer du Mata in för att starta Kopiera data verktyget.

    Skärmbild som visar Azure Data Factory startsidan.

  2. På sidan Egenskaper i Kopiera data-verktyget väljer du Inbyggd kopieringsaktivitet under Aktivitetstyp och väljer Kör en gång nu under Aktivitets takt eller uppgiftsschema och väljer sedan Nästa.

  3. På sidan Källdatalager väljer du + Skapa ny anslutning.

  4. Under Ny anslutning söker du efter SQL Server och väljer sedan Fortsätt.

  5. I dialogrutan Ny anslutning (SQL server) under Namn anger du SqlServerLinkedService. Välj +Ny under Connect via integration runtime (Anslut via Integration Runtime). Du måste skapa en lokal integreringskörning, ladda ned den på din dator och registrera den med Data Factory. Den lokala integreringskörningen kopierar data mellan din lokala miljö och molnet.

  6. I dialogrutan Integration Runtime setup (Installation av Integration Runtime) väljer du Self-Hosted (Egen värd). Välj sedan Fortsätt.

    Skapa integration runtime

  7. I dialogrutan För installation av Integration Runtime går du till Namn och anger TutorialIntegrationRuntime. Välj sedan Skapa.

  8. I dialogrutan Integration Runtime setup (Installation av Integration Runtime) väljer du Klicka här för att starta expressinstallationen för den här datorn. Med den här åtgärden installeras integreringskörningen på datorn och registreras med Data Factory. Alternativt kan du använda det manuella installationsalternativet för att ladda ned installationsfilen, köra den och använda nyckeln för att registrera integreringskörning.

  9. Kör programmet som laddats ned. I fönstret visas status för expressinstallationen.

    Status för expressinstallation

  10. I dialogrutan Ny anslutning (SQL Server) bekräftar du att TutorialIntegrationRuntime har valts under Anslut via Integration Runtime. Gör sedan följande:

    a. Under Namn anger du SqlServerLinkedService.

    b. Under Servernamn anger du namnet på SQL Server-instansen.

    c. Under Databasnamn anger du namnet på din lokala databas.

    d. Under Autentiseringstyp väljer du lämplig autentisering.

    e. Under Användarnamn anger du namnet på användaren med åtkomst till SQL Server.

    f. Ange användarens lösenord.

    ex. Testa anslutningen och välj Skapa.

    Vald integreringskörning

  11. På sidan Källdatalager ser du till att den nyligen SQL Server anslutningen har valts i anslutningsblocket. I avsnittet Källtabeller väljer du SEDAN BEFINTLIGA TABELLER, väljer tabellen dbo.emp i listan och väljer Nästa. Du kan välja andra tabeller baserade på din databas.

  12. På sidan Använd filter kan du förhandsgranska data och visa schemat för indata genom att välja knappen Förhandsgranska data. Välj sedan Nästa.

  13. På sidan Måldatalager väljer du + Skapa ny anslutning

  14. I Ny anslutning söker du efter och väljer Azure Blob Storage och väljer sedan Fortsätt.

    Val av Blob Storage

  15. I dialogrutan Ny anslutning (Azure Blob Storage) gör du följande:

    a. Under Namn anger du AzureStorageLinkedService.

    b. Under Anslut via Integration Runtime väljer du TutorialIntegrationRuntime och sedan Kontonyckel under Autentiseringsmetod.

    c. Under Azure-prenumeration väljer du din Azure-prenumeration i listrutan.

    d. Under Lagringskontonamn väljer du ditt lagringskonto i listrutan.

    e. Testa anslutningen och välj Skapa.

  16. I dialogrutan Måldatalager kontrollerar du att den nyligen skapade Azure Blob Storage-anslutningen har valts i blocket Anslutning. Under Mappsökväg anger du sedan adftutorial/fromonprem. Du skapade containern adftutorial som en del av förutsättningarna. Om utdatamappen inte finns (i det här fallet fromonprem) skapas den automatiskt av Data Factory. Du kan också använda knappen Bläddra för att bläddra i bloblagringen och dess containrar/mappar. Om du inte anger något värde under Filnamn används som standard namnet från källan (i det här fallet dbo.emp).

    Skärmbild som visar konfigurationen av sidan Måldatalager.

  17. I dialogrutan Filformatsinställningar väljer du Nästa.

  18. I dialogrutan Inställningar aktivitetsnamn anger du CopyFromOnPremSqlToAzureBlobPipeline och väljer sedan Nästa. Verktyget Kopiera data skapar en pipeline med det namn som du anger i det här fältet.

  19. Granska värdena för alla inställningar i dialogrutan Sammanfattning och välj Nästa.

  20. På sidan Distribution väljer du Övervaka för att övervaka pipelinen (uppgiften).

  21. När pipelinekörningen är klar kan du visa statusen för den pipeline som du skapade.

  22. På sidan "Pipeline runs" (Pipelinekörningar) väljer du Uppdatera för att uppdatera listan. Välj länken under Pipelinenamn för att visa information om aktivitetskörningar eller kör pipelinen igen.

    Skärmbild som visar sidan Pipelinekörningar.

  23. På sidan "Aktivitetskörningar" väljer du länken Information (glasögonikonen) under kolumnen Aktivitetsnamn för mer information om kopieringsåtgärden. Om du vill gå tillbaka till sidan "Pipelinekörningar" väljer du länken Alla pipelinekörningar på den dynamiska menyn. Välj Uppdatera för att uppdatera vyn.

    Skärmbild som visar aktivitetsinformationen.

  24. Bekräfta att utdatafilen visas i mappen fromonprem för containern adftutorial.

  25. Klicka på fliken Författare till vänster för att växla till redigeringsläget. Du kan uppdatera de länkade tjänster, datauppsättningar och pipeliner som skapats med verktyget med hjälp av redigeraren. Klicka på Kod för att visa JSON-koden som är associerad med den entitet som har öppnats i redigeraren. Mer information om hur du redigerar dessa entiteter i användargränssnittet för Data Factory finns i Azure Portal-versionen av den här självstudiekursen.

    Skärmbild som visar fliken Författare.

Nästa steg

Pipelinen i det här exemplet kopierar data från en SQL Server-databas till Blob Storage. Du har lärt dig att:

  • Skapa en datafabrik.
  • Använd verktyget Kopiera data för att skapa en pipeline.
  • Övervaka pipelinen och aktivitetskörningarna.

En lista över datalager som stöds av Data Factory finns i Datalager som stöds.

Fortsätt till följande självstudie för att lära dig att masskopiera data från en källa till ett mål: