Dela via


Kopiera data från en SQL Server-databas till Azure Blob Storage med verktyget Kopiera data

GÄLLER FÖR: Azure Data Factory Azure Synapse Analytics

Dricks

Prova Data Factory i Microsoft Fabric, en allt-i-ett-analyslösning för företag. Microsoft Fabric omfattar allt från dataflytt till datavetenskap, realtidsanalys, business intelligence och rapportering. Lär dig hur du startar en ny utvärderingsversion kostnadsfritt!

I den här självstudien skapar du en datafabrik i Azure Portal. Sedan använder du verktyget Kopiera data för att skapa en pipeline som kopierar data från en SQL Server-databas till Azure Blob Storage.

Kommentar

I den här självstudien får du göra följande:

  • Skapa en datafabrik.
  • Använd verktyget Kopiera data för att skapa en pipeline.
  • Övervaka pipelinen och aktivitetskörningarna.

Förutsättningar

Azure-prenumeration

Innan du börjar skapar du ett kostnadsfritt konto om du inte redan har en Azure-prenumeration.

Azure-roller

Om du vill skapa datafabriksinstanser måste det användarkonto som du använder för att logga in på Azure tilldelas rollen Deltagare eller Ägare eller vara administratör för Azure-prenumerationen.

Gå till Azure Portal om du vill se vilka behörigheter du har i prenumerationen. Välj ditt användarnamn i det övre högra hörnet och välj sedan Behörigheter. Om du har åtkomst till flera prenumerationer väljer du rätt prenumeration. Exempelinstruktioner om hur du lägger till en användare i en roll finns i Tilldela Azure-roller med hjälp av Azure-portalen.

SQL Server 2014, 2016 och 2017

I den här självstudien använder du en SQL Server-databas som källdatalager. Pipelinen i datafabriken som du skapar i den här självstudien kopierar data från den här SQL Server-databasen (källa) till Blob Storage (mottagare). Sedan skapar du en tabell med namnet emp i SQL Server-databasen och infogar ett par exempelposter i tabellen.

  1. Starta SQL Server Management Studio. Om den inte redan är installerad på datorn går du till Ladda ned SQL Server Management Studio.

  2. Anslut till SQL Server-instansen med hjälp av dina autentiseringsuppgifter.

  3. Skapa en exempeldatabas. Högerklicka på Databaser i trädvyn och välj sedan Ny databas.

  4. I fönstret Ny databas anger du ett namn för databasen och väljer sedan OK.

  5. Om du vill skapa tabellen emp och infoga några exempeldata i den kör du följande frågeskript mot databasen. Högerklicka på den databas som du skapade i trädvyn och välj sedan Ny fråga.

    CREATE TABLE dbo.emp
    (
        ID int IDENTITY(1,1) NOT NULL,
        FirstName varchar(50),
        LastName varchar(50)
    )
    GO
    
    INSERT INTO emp (FirstName, LastName) VALUES ('John', 'Doe')
    INSERT INTO emp (FirstName, LastName) VALUES ('Jane', 'Doe')
    GO
    

Azure-lagringskonto

I den här självstudien använder du ett allmänt Azure Storage-konto (Blob Storage, för att vara specifik) som datalager för destination/mottagare. Om du inte har något allmänt lagringskonto kan du läsa Skapa ett lagringskonto för instruktioner för att skapa ett. Pipelinen i datafabriken som du skapar i den här självstudien kopierar data från SQL Server-databasen (källa) till denna Blob Storage (mottagare).

Hämta lagringskontots namn och åtkomstnyckel

Du använder namnet och nyckeln för lagringskontot i den här självstudien. Gör så här för att hämta namnet och nyckeln till lagringskontot:

  1. Logga in på Azure-portalen med ditt Användarnamn och lösenord för Azure.

  2. I den vänstra rutan väljer du Alla tjänster. Filtrera med hjälp av nyckelordet Lagring och välj sedan Lagringskonton.

    Sökning efter lagringskonto

  3. Filtrera på ditt lagringskonto (om det behövs) i listan med lagringskonton. Välj sedan ditt lagringskonto.

  4. I fönstret Lagringskonto väljer du Åtkomstnycklar.

  5. I rutorna Lagringskontonamn och key1 kopierar du värdena och klistrar sedan in dem i Anteckningar eller en annan redigerare för senare användning i självstudien.

Skapa en datafabrik

  1. Välj Skapa en resurs>Analys>Datafabrik på den översta menyn:

    Skapa ny datafabrik

  2. På sidan Ny datafabrik går du till Namn och anger ADFTutorialDataFactory.

    Namnet på datafabriken måste vara globalt unikt. Om följande felmeddelande visas för namnfältet ändrar du namnet på datafabriken (t.ex. dittnamnADFTutorialDataFactory). Namngivningsregler för Data Factory-artefakter finns i Namngivningsregler för Data Factory.

    Nytt felmeddelande för datafabrik för dubblettnamn.

  3. Välj den Azure-prenumeration där du vill skapa datafabriken.

  4. Utför något av följande steg för Resursgrupp:

  5. Under Version väljer du V2.

  6. Under Plats väljer du platsen för datafabriken. Endast platser som stöds visas i listrutan. Datalagren (t.ex. Azure Storage och SQL-databas) och beräkningarna (t.ex. Azure HDInsight) som används i Data Factory kan finnas på andra platser/i andra regioner.

  7. Välj Skapa.

  8. När skapandet är klart visas sidan Data Factory enligt bilden.

    Startsida för Azure Data Factory med panelen Öppna Azure Data Factory Studio.

  9. Välj Öppna på panelen Öppna Azure Data Factory Studio för att starta Data Factory-användargränssnittet på en separat flik.

Använd verktyget Kopiera data för att skapa en pipeline

  1. På startsidan för Azure Data Factory väljer du Mata in för att starta verktyget Kopiera data.

    Skärmbild som visar startsidan för Azure Data Factory.

  2. På sidan Egenskaper i verktyget Kopiera data väljer du Inbyggd kopieringsaktivitet under Aktivitetstyp och väljer Kör en gång nu under Aktivitetstakt eller aktivitetsschema och väljer sedan Nästa.

  3. På sidan Källdatalager väljer du på + Skapa ny anslutning.

  4. Under Ny anslutning söker du efter SQL Server och väljer sedan Fortsätt.

  5. I dialogrutan Ny anslutning (SQL Server) under Namn anger du SqlServerLinkedService. Välj +Nytt under Anslut via integrationskörning. Du måste skapa en lokal integreringskörning, ladda ned den på din dator och registrera den med Data Factory. Den lokala integreringskörningen kopierar data mellan din lokala miljö och molnet.

  6. I dialogrutan Installation av integrationskörning väljer du Lokalt installerad. Välj sedan Fortsätt.

    Skapa integrationskörning

  7. I dialogrutan Installation av integrationskörning går du till Namn och anger TutorialIntegrationRuntime. Välj sedan Skapa.

  8. I dialogrutan Installation av integrationskörning väljer du Klicka här för att starta expresskonfigurationen för den här datorn. Med den här åtgärden installeras integreringskörningen på datorn och registreras med Data Factory. Alternativt kan du använda det manuella installationsalternativet för att ladda ned installationsfilen, köra den och använda nyckeln för att registrera integreringskörning.

  9. Kör programmet som laddats ned. I fönstret visas status för expressinstallationen.

    Status för expresskonfiguration

  10. I dialogrutan Ny anslutning (SQL Server) bekräftar du att TutorialIntegrationRuntime har valts under Anslut via integrationskörning. Utför sedan följande steg:

    a. Under Namn skriver du in SqlServerLinkedService.

    b) Under Servernamn anger du namnet på din SQL Server-instans.

    Punkt c Under Databasnamn anger du namnet på din lokala databas.

    d. Under Autentiseringstyp väljer du lämplig autentisering.

    e. Under Användarnamn anger du namnet på användaren med åtkomst till SQL Server.

    f. Ange lösenordet för användaren.

    g. Testa anslutningen och välj Skapa.

    Integration Runtime har valts

  11. På sidan Källdatalager kontrollerar du att den nyligen skapade SQL Server-anslutningen är markerad i anslutningsblocket . I avsnittet Källtabeller väljer du SEDAN BEFINTLIGA TABELLER och väljer tabellen dbo.emp i listan och väljer Nästa. Du kan välja andra tabeller baserade på din databas.

  12. På sidan Tillämpa filter kan du förhandsgranska data och visa schemat för indata genom att välja knappen Förhandsgranska data . Välj sedan Nästa.

  13. På sidan Måldatalager väljer du + Skapa ny anslutning

  14. I Ny anslutning söker du efter och väljer Azure Blob Storage och väljer sedan Fortsätt.

    Val av bloblagring

  15. I dialogrutan Ny anslutning (Azure Blob Storage) utför du följande steg:

    a. För Namn anger du AzureStorageLinkedService.

    b) Under Anslut via integrationskörning väljer du TutorialIntegrationRuntime och sedan Kontonyckel under Autentiseringsmetod.

    Punkt c Under Azure-prenumeration väljer du din Azure-prenumeration i listrutan.

    d. Under Lagringskontonamn väljer du ditt lagringskonto i listrutan.

    e. Testa anslutningen och välj Skapa.

  16. I dialogrutan Måldatalager kontrollerar du att den nyligen skapade Azure Blob Storage-anslutningen är markerad i anslutningsblocket . Sedan under Mappsökväg anger du adftutorial/fromonprem. Du skapade containern adftutorial som en del av förkraven. Om utdatamappen inte finns (i det här fallet fromonprem) skapar Data Factory den automatiskt. Du kan också använda knappen Bläddra för att bläddra i bloblagringen och dess containrar/mappar. Om du inte anger något värde under Filnamn används som standard namnet från källan (i det här fallet dbo.emp).

    Skärmbild som visar konfigurationen av sidan

  17. I dialogrutan Inställningar för filformat väljer du Nästa.

  18. I dialogrutan Inställningar under Aktivitetsnamn anger du CopyFromOnPremSqlToAzureBlobPipeline och väljer sedan Nästa. Verktyget Kopiera data skapar en pipeline med det namn som du anger i det här fältet.

  19. I dialogrutan Sammanfattning granskar du värden för alla inställningar och väljer Nästa.

  20. På sidan Distribution väljer du Övervaka för att övervaka pipelinen (uppgiften).

  21. När pipelinekörningen är klar kan du visa status för den pipeline som du skapade.

  22. På sidan "Pipelinekörningar" väljer du Uppdatera för att uppdatera listan. Välj länken under Pipelinenamn om du vill visa aktivitetskörningsinformation eller köra pipelinen igen.

    Skärmbild som visar sidan 'Pipeline runs'.

  23. På sidan Aktivitetskörningar väljer du länken Information (glasögonikon) under kolumnen Aktivitetsnamn för mer information om kopieringsåtgärden. Om du vill gå tillbaka till sidan "Pipelinekörningar" väljer du länken Alla pipelinekörningar på menyn breadcrumb. Om du vill uppdatera vyn väljer du Uppdatera.

    Skärmbild som visar aktivitetsinformationen.

  24. Bekräfta att du ser utdatafilen i mappen fromonprem i containern adftutorial .

  25. Välj fliken Författare till vänster för att växla till redigeringsläget. Du kan uppdatera de länkade tjänster, datauppsättningar och pipeliner som skapats med verktyget med hjälp av redigeraren. Välj Kod för att visa JSON-koden som är associerad med entiteten som öppnas i redigeraren. Mer information om hur du redigerar dessa entiteter i Data Factory-användargränssnittet finns i Azure Portal-versionen av den här självstudien.

    Skärmbild som visar fliken Författare.

Pipelinen i det här exemplet kopierar data från en SQL Server-databas till Blob Storage. Du har lärt dig att:

  • Skapa en datafabrik.
  • Använd verktyget Kopiera data för att skapa en pipeline.
  • Övervaka pipelinen och aktivitetskörningarna.

En lista över datalager som stöds av Data Factory finns i Datalager som stöds.

Fortsätt till följande självstudie för att lära dig att masskopiera data från en källa till ett mål: