Dela via


Självstudie: Kopiera data till en Azure Data Box-disk och verifiera

Viktigt!

Azure Data Box har nu stöd för tilldelning på åtkomstnivå på blobnivå. Stegen i den här handledningen återspeglar den uppdaterade datakopieringsprocessen och är specifika för blockblobar.

Åtkomstnivåtilldelning stöds inte när data kopieras med verktyget Data Box Split Copy Tool. Om ditt användningsfall kräver tilldelning av åtkomstnivå följer du stegen i avsnittet Kopiera data till diskar för att kopiera dina data till lämplig åtkomstnivå med robocopy-verktyget.

Hjälp med att fastställa lämplig åtkomstnivå för dina blockblobdata finns i avsnittet Fastställa lämpliga åtkomstnivåer för blockblobar .

Informationen i detta avsnitt gäller för beställningar som gjorts efter den 1 april 2024.

Varning

Den här artikeln hänvisar till CentOS, en Linux-distribution som inte längre stöds. Överväg att använda och planera i enlighet med detta.

I den här självstudien beskrivs hur du kopierar data från värddatorn och genererar kontrollsummor för att verifiera dataintegriteten.

I den här handledningen lär du dig hur du:

  • Fastställa lämpliga åtkomstnivåer för blockblobar
  • Kopiera data till en Data Box-disk
  • Verifiera data

Förutsättningar

Innan du börjar bör du kontrollera att:

Fastställa lämpliga åtkomstnivåer för blockblobar

Viktigt!

Informationen i detta avsnitt gäller beställningar som görs efter den 1 april 2024.

Med Azure Storage kan du lagra blockblobdata på flera åtkomstnivåer inom samma lagringskonto. Med den här möjligheten kan data organiseras och lagras mer effektivt baserat på hur ofta de används. Följande tabell innehåller information och rekommendationer om Azure Storage-åtkomstnivåer.

Nivå Rekommendation Bästa metod
Het Användbart för onlinedata som används eller ändras ofta. Den här nivån har de högsta lagringskostnaderna, men de lägsta åtkomstkostnaderna. Data på den här nivån bör användas regelbundet och aktivt.
Cool Användbart för onlinedata som används eller ändras sällan. Den här nivån har lägre lagringskostnader och högre åtkomstkostnader än den frekventa nivån. Data på den här nivån ska lagras i minst 30 dagar.
Kall Användbart för onlinedata som används eller ändras sällan men som fortfarande kräver snabb hämtning. Den här nivån har lägre lagringskostnader och högre åtkomstkostnader än cool-nivån. Data på den här nivån ska lagras i minst 90 dagar.
Arkiv Användbart för offlinedata som sällan används och som har lägre svarstidskrav. Data på den här nivån bör lagras i minst 180 dagar. Data som tas bort från arkivnivån inom 180 dagar debiteras en avgift för tidig borttagning.

Mer information om blobåtkomstnivåer finns i Åtkomstnivåer för blobdata. Mer detaljerade metodtips finns i Metodtips för att använda blobåtkomstnivåer.

Du kan överföra blockblobdata till lämplig åtkomstnivå genom att kopiera dem till motsvarande mapp i Data Box Disk. Den här processen beskrivs mer detaljerat i avsnittet Kopiera data till diskar .

Kopiera data till diskar

Ha följande i åtanke när du kopierar data till diskarna:

  • Det är ditt ansvar att kopiera lokala data till resursen som motsvarar rätt dataformat. Kopiera till exempel blockblob-data till BlockBlob-delningen. Kopiera virtuella hårddiskar till PageBlob-delningen. Om det lokala dataformatet inte matchar lämplig mapp för den valda lagringstypen misslyckas dataöverföringen till Azure i ett senare steg.

  • Du kan inte kopiera data direkt till en delad mapps rotmapp. Skapa i stället en mapp inom lämplig resurs och kopiera dina data till den.

    • Mappar som finns i PageBlob-andelens rot motsvarar containrar i ditt lagringskonto. En ny container skapas för alla mappar vars namn inte matchar en befintlig container i ditt lagringskonto.

    • Mappar som finns i AzFile-resursens rot motsvarar Azure-filresurser. En ny filresurs skapas för alla mappar vars namn inte matchar en befintlig filresurs i ditt lagringskonto.

    • BlockBlob-resursens rotnivå innehåller en mapp som motsvarar varje åtkomstnivå. När du kopierar data till BlockBlob-resursen skapar du en undermapp i mappen på den översta nivån som motsvarar den önskade åtkomstnivån. Precis som med PageBlob-resursen skapas en ny container för alla mappar vars namn inte matchar en befintlig container. Data i containern kopieras till den nivå som motsvarar den översta föräldern av undermappen.

      En container skapas också för alla mappar som finns i BlockBlob-resursensrot och data som den innehåller kopieras till containerns standardåtkomstnivå. För att säkerställa att dina data kopieras till önskad åtkomstnivå skapar du inte mappar på rotnivå .

    Viktigt!

    Data som laddas upp till arkivnivån förblir offline och måste återställas innan de läses eller ändras. Data som kopieras till arkivnivån måste finnas kvar i minst 180 dagar eller bli föremål för en avgift för tidig borttagning. Arkivnivån stöds inte för ZRS-, GZRS- eller RA-GZRS-konton.

  • När du kopierar data ser du till att datastorleken överensstämmer med de storleksgränser som beskrivs i artikeln begränsningar för Azure Storage och Data Box Disk.

  • Inaktivera inte BitLocker-kryptering på Data Box-diskar. Om du inaktiverar BitLocker-kryptering uppstår ett uppladdningsfel när diskarna har returnerats. Om du inaktiverar BitLocker lämnas även diskarna i ett olåst tillstånd, vilket skapar säkerhetsproblem.

  • Om du vill bevara metadata som ACL:er, tidsstämplar och filattribut vid överföring av data till Azure Files följer du riktlinjerna i artikeln Bevara fil-ACL:er, attribut och tidsstämplar med Azure Data Box Disk .

  • Om du använder både Data Box Disk och andra program för att ladda upp data samtidigt kan det leda till misslyckade uppladdningsjobb och datakorruption.

    Viktigt!

    Den här sektionen gäller om du specificerade hanterade diskar som ett av destinationerna för lagring vid orderns skapande.

  • Kontrollera att virtuella hårddiskar (VHD) som laddats upp till de förskapade mapparna har unika namn i resursgrupper. Hanterade diskar måste ha unika namn i en resursgrupp i alla förskapade mappar på Data Box Disk. Om du använder flera Data Box-diskar måste hanterade disknamn vara unika för alla mappar och diskar. När virtuella hårddiskar med dubblettnamn påträffas, konverteras endast en till en hanterad disk med det namnet. De återstående virtuella hårddiskarna laddas upp som sidblobar till mellanlagringskontot.

  • Kopiera alltid VHD-filerna till en av de fördefinierade mapparna. Virtuella hårddiskar som placeras utanför dessa mappar eller i en mapp som du har skapat laddas upp till Azure Storage-konton som sidblobar i stället för hanterade diskar.

  • Endast fasta VHD:er kan laddas upp för att skapa hanterade diskar. Dynamiska VHD:er, differentierande VHD:er och VHDX-filer stöds inte.

  • Verktygen för delad kopiering och validering av Data Box Disk, DataBoxDiskSplitCopy.exe och DataBoxDiskValidation.cmd, rapporterar fel när långa sökvägar bearbetas. Dessa fel är vanliga när långa sökvägar inte är aktiverade på klienten och datakopians sökvägar och filnamn överskrider 256 tecken. För att undvika dessa fel, följ anvisningarna på artikeln aktivera långa sökvägar i Windows-klienten.

Viktigt!

PowerShell ISE stöds inte för Data Box Disk Tools

Utför stegen nedan för att ansluta och kopiera data från din dator till Data Box-disken.

  1. Visa innehållet på den upplåsta driven. Listan över förskapade mappar och undermappar i driven varierar beroende på vilka alternativ du väljer när du gör Data Box Disk-beställningen. Det är inte tillåtet att skapa extra mappar eftersom kopiering av data till en användarskapad mapp orsakar uppladdningsfel.

    Valt lagringsmål Typ av lagringskonto Typ av mellanlagringskonto Mappar och undermappar
    Lagringskonto GPv1 eller GPv2 NA BlockBlob
    • Arkiv
    • Kall
    • Cool
    • Het
    Pageblob
    AzureFile
    Lagringskonto Bloblagringskonto NA BlockBlob
    • Arkiv
    • Kall
    • Cool
    • Het
    Hanterade diskar NA GPv1 eller GPv2 ManagedDisk
    • PremiumSSD
    • StandardSSD
    • StandardHDD
    Lagringskonto
    Hanterade diskar
    GPv1 eller GPv2 GPv1 eller GPv2 BlockBlob
    • Arkiv
    • Kall
    • Cool
    • Het
    PageBlob
    AzureFile
    ManagedDisk
    • PremiumSSD
    • StandardSSD
    • StandardHDD
    Lagringskonto
    Hanterade diskar
    Bloblagringskonto GPv1 eller GPv2 BlockBlob
    • Arkiv
    • Kall
    • Cool
    • Het
    ManagedDisk
    • PremiumSSD
    • StandardSSD
    • StandardHDD

    Följande skärmbild visar en ordning där ett GPv2-lagringskonto och arkivnivå har angetts:

    Skärmbild av innehållet på diskenheten.

  2. Kopiera VHD- eller VHDX-data till mappen PageBlob . Alla filer som kopieras till mappen PageBlob kopieras till en standardcontainer $root i Azure Storage-kontot. En container skapas i Azure Storage-kontot för varje undermapp i mappen PageBlob .

    Kopiera data som ska placeras i Azure-filresurser till en undermapp i Mappen AzureFile . Alla filer som kopieras till Mappen AzureFile kopieras som filer till en standardcontainer av typen databox-format-[GUID], till exempel databox-azurefile-7ee19cfb3304122d940461783e97bf7b4290a1d7.

    Du kan inte kopiera filer direkt till BlockBlob-rotmappen. I rotmappen hittar du en undermapp som motsvarar var och en av de tillgängliga åtkomstnivåerna. Om du vill kopiera dina blobdata måste du först välja den mapp som motsvarar någon av åtkomstnivåerna. Skapa sedan en undermapp i den nivåns mapp för att lagra dina data. Kopiera slutligen dina data till den nyligen skapade undermappen. Den nya undermappen representerar containern som skapades i lagringskontot under inmatningen. Dina data laddas upp till den här containern som blobar. Precis som med AzureFile-resursen skapas en ny bloblagringscontainer för varje undermapp som finns i BlockBlob-rotmappen. Data i dessa mappar sparas enligt lagringskontots standardåtkomstnivå.

    Innan du börjar kopiera data måste du flytta filer och mappar som finns i rotkatalogen till en annan mapp.

    Viktigt!

    Alla containrar, blobar och filnamn måste följa namngivningskonventionerna för Azure. Om dessa regler inte uppfylls misslyckas datauppladdningen till Azure.

  3. När du kopierar filer kontrollerar du att filerna inte överskrider 4,7 TiB för blockblobar, 8 TiB för sidblobar och 1 TiB för Azure Files.

  4. Du kan använda Utforskaren dra och släpp-funktioner för att kopiera data. Du kan också använda valfritt SMB-kompatibelt filkopieringsverktyg, till exempel Robocopy, för att kopiera data.

    En fördel med att använda ett filkopieringsverktyg är möjligheten att initiera flera kopieringsjobb, som i följande exempel med robocopy-verktyget:

    Robocopy <source> <destination> * /MT:64 /E /R:1 /W:1 /NFL /NDL /FFT /Log:c:\RobocopyLog.txt

    Anteckning

    De parametrar som används i det här exemplet baseras på den miljö som används vid intern testning. Dina parametrar och värden är sannolikt annorlunda.

    Parametrarna och alternativen för kommandot används på följande sätt:

    Parametrar/alternativ beskrivning
    Källa Anger sökvägen till källkatalogen.
    Destination Anger sökvägen till målkatalogen.
    /E Kopierar underkataloger, inklusive tomma kataloger.
    /MT[:n] Skapar flertrådade kopior med n trådar där n är ett heltal mellan 1 och 128.
    Standardvärdet för n är 8.
    /R: <n> Anger antalet återförsök vid misslyckade kopieringar.
    Standardvärdet för n är 1 000 000 återförsök.
    /W: <n> Anger väntetiden mellan återförsök i sekunder.
    Standardvärdet för n är 30 och motsvarar en väntetid på 30 sekunder.
    /NFL Anger att filnamn inte ska loggas.
    /NDL Anger att katalognamn inte ska loggas.
    /FFT Förutsätter FAT-filtider med en upplösningsprecision på två sekunder.
    /Log:<Loggfil> Skriver statusutdata till loggfilen.
    Alla befintliga loggfiler skrivs över.

    Flera diskar kan användas parallellt med flera jobb som körs på varje disk. Tänk på att dubbletter av filnamn antingen skrivs över eller resulterar i ett kopieringsfel.

  5. Kontrollera kopieringsstatusen när jobbet pågår. Följande exempel visar utdata från robocopy-kommandot för filkopiering till Data Box-disken.

    
    C:\Users>robocopy
    -------------------------------------------------------------------------------
       ROBOCOPY     ::     Robust File Copy for Windows
    -------------------------------------------------------------------------------
    
       Started : Thursday, March 8, 2018 2:34:53 PM
          Simple Usage :: ROBOCOPY source destination /MIR
    
                source :: Source Directory (drive:\path or \\server\share\path).
           destination :: Destination Dir  (drive:\path or \\server\share\path).
                  /MIR :: Mirror a complete directory tree.
    
      For more usage information run ROBOCOPY /?    
    
      ****  /MIR can DELETE files as well as copy them !
    
    C:\Users>Robocopy C:\Repository\guides \\10.126.76.172\AzFileUL\templates /MT:64 /E /R:1 /W:1 /FFT 
    -------------------------------------------------------------------------------
       ROBOCOPY     ::     Robust File Copy for Windows
    -------------------------------------------------------------------------------
    
       Started : Thursday, March 8, 2018 2:34:58 PM
        Source : C:\Repository\guides\
          Dest : \\10.126.76.172\devicemanagertest1_AzFile\templates\
    
         Files : *.*
    
       Options : *.* /DCOPY:DA /COPY:DAT /MT:8 /R:1000000 /W:30
    
     ------------------------------------------------------------------------------
    
     100%    New File    206    C:\Repository\guides\article-metadata.md
     100%    New File    209    C:\Repository\guides\content-channel-guidance.md
     100%    New File    732    C:\Repository\guides\index.md
     100%    New File    199    C:\Repository\guides\pr-criteria.md
     100%    New File    178    C:\Repository\guides\pull-request-co.md
     100%    New File    250    C:\Repository\guides\pull-request-ete.md
     100%    New File    174    C:\Repository\guides\create-images-markdown.md
     100%    New File    197    C:\Repository\guides\create-links-markdown.md
     100%    New File    184    C:\Repository\guides\create-tables-markdown.md
     100%    New File    208    C:\Repository\guides\custom-markdown-extensions.md
     100%    New File    210    C:\Repository\guides\file-names-and-locations.md
     100%    New File    234    C:\Repository\guides\git-commands-for-master.md
     100%    New File    186    C:\Repository\guides\release-branches.md
     100%    New File    240    C:\Repository\guides\retire-or-rename-an-article.md
     100%    New File    215    C:\Repository\guides\style-and-voice.md
     100%    New File    212    C:\Repository\guides\syntax-highlighting-markdown.md
     100%    New File    207    C:\Repository\guides\tools-and-setup.md
     ------------------------------------------------------------------------------
    
                    Total    Copied   Skipped  Mismatch    FAILED    Extras
         Dirs :         1         1         1         0         0         0
        Files :        17        17         0         0         0         0
        Bytes :     3.9 k     3.9 k         0         0         0         0
        Times :   0:00:05   0:00:00                       0:00:00   0:00:00
    
        Speed :                5620 Bytes/sec.
        Speed :               0.321 MegaBytes/min.
        Ended : Thursday, August 31, 2023 2:34:59 PM
    
    

    Du kan optimera prestanda med hjälp av följande robocopy-parametrar när du kopierar data.

    Plattform Mestadels små filer < 512 KB Främst medelstora filer 512 kB–1 MB Mestadels stora filer > 1 MB
    Data Box Disk 4 Robocopy-sessioner*
    16 trådar per session
    2 Robocopy-sessioner*
    16 trådar per session
    2 Robocopy-sessioner*
    16 trådar per session

    * En enskild Robocopy-session kan omfatta upp till högst 7 000 kataloger och 150 miljoner filer.

    Mer information om Robocopy-kommandot finns i artikeln Robocopy och några exempel .

  6. Öppna målmappen och visa och verifiera sedan de kopierade filerna. Om det uppstod fel under kopieringsprocessen laddar du ned loggfilerna för felsökning. Robocopy-kommandots utdata anger platsen för loggfilerna.

Dela upp och kopiera data till diskar

Verktyget Dela upp i Data Box hjälper dig att dela upp och kopiera data mellan två eller flera Azure Data Box-diskar. Verktyget är endast tillgängligt för användning på en Windows-dator. Den här valfria proceduren är användbar när du har en stor datauppsättning som måste delas upp och kopieras mellan flera diskar.

Viktigt!

Data Box Split Copy-verktyget kan också verifiera dina data. Om du använder Data Box Split Copy för att kopiera data kan du hoppa över verifieringssteget.

Åtkomstnivåtilldelning stöds inte när data kopieras med verktyget Data Box Split Copy Tool. Om ditt användningsfall kräver tilldelning av åtkomstnivå följer du stegen i avsnittet Kopiera data till diskar för att kopiera dina data till lämplig åtkomstnivå med robocopy-verktyget.

Verktyget Delad kopiering i Data Box stöds inte med hanterade diskar.

  1. På din Windows-dator, se till att verktyget Data Box Split Copy har laddats ned och extraherats i en lokal mapp. Det här verktyget ingår i Data Box Disk-verktygsuppsättningen för Windows.

  2. Öppna Utforskaren. Anteckna datakällans enhet och enhetsbokstäver som tilldelats till Data Box Disk.

    Skärmbild av datakällans enhet och enhetsbeteckningar som tilldelats Data Box Disk.

  3. Identifiera de källdata som ska kopieras. I det här fallet:

    • Följande blockblobdata identifierades.

      Skärmbild av blockblobdata som identifierats för kopieringsprocessen.

    • Följande sidblobdata identifierades.

      Skärmbild av sidblobdata som identifierats för kopieringsprocessen.

  4. Navigera till mappen där programvaran extraheras och leta upp SampleConfig.json filen. Den här filen är en skrivskyddad fil som du kan ändra och spara.

    Skärmbild som visar platsen för exempelkonfigurationsfilen.

  5. Ändra filen SampleConfig.json.

    • Ange ett jobbnamn. En mapp med det här namnet skapas på Data Box Disk. Namnet används också för att skapa en container i azure-lagringskontot som är associerat med dessa diskar. Jobbnamnet måste följa namngivningskonventionerna för Azure-container.

    • Ange en källsökväg och anteckna sökvägsformatet i SampleConfigFile.json.

    • Ange enhetsbokstäverna som motsvarar måldiskarna. Data hämtas från källsökvägen och kopieras över flera diskar.

    • Ange en sökväg för loggfilerna. Som standard skickas loggfiler till katalogen där .exe filen finns.

    • Verifiera filformatet genom att gå till JSONlint.

      Skärmbild som visar innehållet i exempelkonfigurationsfilen.

    • Spara filen som ConfigFile.json.

      Skärmbild som visar platsen för ersättningskonfigurationsfilen.

  6. Öppna ett kommandotolksfönster med förhöjd behörighet och kör DataBoxDiskSplitCopy.exe med hjälp av följande kommando.

    DataBoxDiskSplitCopy.exe PrepImport /config:ConfigFile.json
    
  7. När du uppmanas att göra det trycker du på valfri tangent för att fortsätta köra verktyget.

    Skärmbild som visar kommandotolksfönstret där Split Copy-verktyget körs.

  8. När datamängden har delats upp och kopierats visas sammanfattningen av verktyget Dela kopia för kopieringssessionen enligt följande exempelutdata.

    Skärmbild som visar sammanfattningen som visas efter en lyckad körning av verktyget Dela kopia.

  9. Kontrollera att data delas korrekt mellan måldiskarna.

    Skärmbild som anger att resulterande data delas korrekt över den första av två måldiskar.

    Skärmbild som anger att resulterande data delas korrekt över den andra av två måldiskar.

    Granska innehållet på enhet H: och se till att två undermappar skapas som motsvarar blockblob- och sidblob-formatdata.

    Skärmbild som visar två undermappar som skapats som motsvarar blockblob- och sidblobformatdata.

  10. Om kopieringssessionen misslyckas använder du följande kommando för att återställa och återuppta:

    DataBoxDiskSplitCopy.exe PrepImport /config:ConfigFile.json /ResumeSession

Om du stöter på fel när du använder verktyget Dela kopia, följer du stegen i artikeln för felsökning av fel med verktyget Dela kopia.

Viktigt!

Data Box Split Copy-verktyget verifierar även dina data. Om du använder Data Box Split Copy för att kopiera data kan du hoppa över verifieringssteget. Verktyget Dela kopiering stöds inte med hanterade diskar.

Kontrollera data

Om du inte använde verktyget Dela upp i Data Box för att kopiera data måste du verifiera dina data. Verifiera data genom att utföra följande steg på var och en av dina Data Box-diskar. Om du får fel under valideringen följer du stegen i artikeln felsöka valideringsfel .

  1. Kör DataBoxDiskValidation.cmd för kontrollsummaverifiering i mappen DataBoxDiskImport på enheten. Det här verktyget är endast tillgängligt för Windows-miljön. Linux-användare måste verifiera att källdata som kopieras till disken uppfyller kraven för Azure Data Box.

    Skärmbild som visar utdata för valideringsverktyget för Data Box Disk.

  2. Välj lämpligt valideringsalternativ när du uppmanas att göra det. Vi rekommenderar att du alltid validerar filerna och genererar kontrollsummor genom att välja alternativ 2. Avsluta kommandofönstret när skriptet har slutförts. Hur länge verifieringen ska slutföras beror på storleken på dina data. Verktyget meddelar dig om eventuella fel som påträffas under verifierings- och kontrollsummagenereringen och ger dig en länk till felloggarna.

    Skärmbild som visar ett misslyckat försök att köra och som visar platsen för motsvarande loggfil.

    Tips

    • Återställ verktyget mellan två körningar.
    • Kontrollsummaprocessen kan ta längre tid om du har en stor datauppsättning som innehåller många filer som tar upp relativt lite lagringskapacitet. Om du validerar filer och hoppar över skapande av kontrollsummor bör du oberoende verifiera dataintegriteten på Data Box Disk innan du tar bort kopior. Den här verifieringen omfattar helst att generera kontrollsummor.

Nästa steg

I den här självstudien har du lärt dig hur du utför följande uppgifter med Azure Data Box Disk:

  • Kopiera data till en Data Box-disk
  • Verifiera dataintegriteten

Gå vidare till nästa självstudie och lär dig hur du returnerar Data Box-disken och verifierar dataöverföringen till Azure.