Deduplicera DPM-lagring

Viktigt

Den här versionen av Data Protection Manager (DPM) har nått slutet av supporten, vi rekommenderar att du uppgraderar till DPM 2019.

System Center Data Protection Manager (DPM) kan använda datadeduplicering.

Datadeduplicering (deduplicering) hittar och tar bort duplicerade data på en volym samtidigt som data förblir korrekta och fullständiga. Läs mer om hur du planerar datadeduplicering.

  • Deduplicering minskar lagringsanvändningen och även om mängden redundans för en datauppsättning beror på arbetsbelastning och datatyp visar säkerhetskopierade data kraftig besparing när deduplicering används.

  • Dataredundans kan minskas ytterligare med deduplicering när säkerhetskopierade data av liknande typer och arbetsbelastningar bearbetas tillsammans.

  • Deduplicering är utformat för att installeras på primära datavolymer utan ytterligare dedikerad maskinvara så att den inte påverkar den primära arbetsbelastningen på servern. Standardinställningarna är icke-inkräktande eftersom de låter data åldras i fem dagar innan en viss fil behandlas, och har en minsta fördefinierad filstorlek på 32 kB. Implementeringen har utformats för låg minnes- och processoranvändning.

  • Deduplicering kan implementeras för följande arbetsbelastningar:

    • Allmänna filresurser: Publicering och delning av gruppinnehåll, arbetsmappar för användare och mappomdirigering/offlinefiler

    • Resurser för programvarudistribution: binära filer, avbildningar och uppdateringar för programvara

    • VHD-bibliotek: Fillagring för virtuella hårddiskar (VHD) för etablering till hypervisorer

    • VDI-distributioner (endast Windows Server 2012 R2): VDI-distributioner (Virtual Desktop Infrastructure) med Hyper-V

    • Virtualiserad säkerhetskopiering: Säkerhetskopieringslösningar (som när DPM körs på en virtuell Hyper-V-dator) som sparar säkerhetskopierade data till VHD-/VHDX-filer på en Windows-filserver.

DPM och deduplicering

Du kan spara mycket lagringsutrymme genom att använda deduplicering med DPM. Hur mycket utrymme du sparar med datadeduplicering när du optimerar säkerhetskopierade data med DPM beror på vilken typ av data du säkerhetskopierar. En säkerhetskopia av en krypterad databasserver kan exempelvis resultera i minimala utrymmesbesparingar eftersom eventuella dubblettdata döljs i och med krypteringsprocessen. Säkerhetskopiering av en stor VDI-distribution (Virtual Desktop Infrastructure) kan dock resultera i stora besparingar i intervallet 70–90 +%, eftersom det vanligtvis finns en stor mängd dataduplicering mellan de virtuella skrivbordsmiljöerna. I konfigurationen som beskrivs i det här avsnittet körde vi en mängd olika testarbetsbelastningar och såg besparingar på mellan 50 % och 90 %.

Om du vill använda deduplicering för DPM-lagring bör DPM köras på en virtuell Hyper-V-dator och lagra säkerhetskopierade data på virtuella hårddiskar i delade mappar med datadeduplicering aktiverat.

Om du vill distribuera DPM som en virtuell dator som säkerhetskopierar data till en dedupliceringsvolym rekommenderar vi följande distributionstopologi:

  • DPM som körs på en virtuell dator i ett Hyper-V-värdkluster.

  • DPM-lagring med hjälp av VHD-/VHDX-filer som lagras på en SMB 3.0-resurs på en filserver.

  • I vårt testexempel konfigurerade vi filservern som en utskalad filserver (SOFS) som distribuerats med hjälp av lagringsvolymer som konfigurerats från Lagringsutrymmen pooler som skapats med direktanslutna SAS-enheter. Observera att den här distributionen garanterar prestanda även vid stora volymer.

Tänk på följande:

  • Den här distributionen stöds för DPM 2012 R2 och senare och för alla arbetsbelastningsdata som kan säkerhetskopieras av DPM 2012 R2 och senare.

  • Alla Windows filservernoder där virtuella DPM-hårddiskar finns och där deduplicering ska aktiveras måste köras Windows Server 2012 R2 med samlad uppdatering november 2014 eller senare.

  • Vi ger allmänna rekommendationer och instruktioner för distributionen av scenariot. I maskinvaruspecifika exempel används maskinvaran som distribuerats i Microsoft Cloud Platform System (CPS) som referens.

  • I det här exemplet används fjärranslutna SMB 3.0-resurser för att lagra säkerhetskopierade data, så primära maskinvarukrav centreras runt filservernoderna i stället för Hyper-V-noderna. Följande maskinvarukonfiguration används i CPS för säkerhetskopierings- och produktionslagring. Observera att den allmänna maskinvaran används både för att lagra säkerhetskopierade data och produktionsdata, och att de enheter som anges i enhetskabinetten endast är de som används för säkerhetskopiering.

    • Skalbar filserverkluster med fyra noder

    • Per nodkonfiguration

      • 2 x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 kärnor, 16 logiska processorer

      • 128 GB 1333 MHz RDIMM-minne

      • Lagringsanslutningar: 2 portar för SAS, 1 port för 10 GbE iWarp/RDMA

    • Fyra JBOD-enhetskabinett

      • 18 diskar i varje JBOD – 16 x 4 TB hårddiskar + 2 x 800 GB SSD

      • Dubbel sökväg till varje enhet – Multipath I/O-belastningsutjämningsprincip inställd på endast redundans

      • SSD:er som konfigurerats för återskrivningscache (WBC) och resten för dedikerade journalenheter

Konfigurera dedupliceringsvolymer

Nu ska vi titta på hur stora volymerna bör vara för att kunna hantera de deduplicerade VHDX-filerna med DPM-data. I CPS har vi skapat volymer på vardera 7,2 TB. Den optimala volymstorleken beror huvudsakligen på hur mycket och hur ofta data på volymen ändras, och på dataåtkomsthastigheten i diskens underlagringssystem. Det är viktigt att observera att om dedupliceringsbearbetningen inte kan hålla jämna nivå med dagliga dataändringar (omsättningen) sjunker besparingstakten tills bearbetningen kan slutföras. Mer detaljerad information finns i Sizing Volumes for Data Deduplication. Följande allmänna riktlinjer rekommenderas för de deduplicerade volymerna:

  • Använd paritetsbaserade lagringsutrymmen med kabinettmedvetenhet för flexibilitet och ökad diskanvändning.

  • Formatera NTFS med 64 kB-allokeringsenheter och stora filpostsegment eftersom det fungerar bättre med dedupliceringens användning av sparse-filer.

  • I maskinvarukonfigurationen ovan är den rekommenderade volymstorleken 7,2 TB och volymerna konfigureras enligt följande:

    • Kabinettmedveten dubbel paritet 7,2 TB + 1 GB återskrivningscache

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256KB (prestanda vid dubbel paritet med 64 kB interfoliering är mycket lägre än standardinställningen på 256 kB)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64KB

      • Stor FRS

      Skapa en ny virtuell disk i den angivna lagringspoolen enligt följande:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Var och en av dessa volymer måste sedan formateras som:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64KB -UseLargeFRS -Force
      

      I CPS-distributionen konfigureras dessa sedan som CSV:er.

    • På dessa volymer lagrar DPM en serie VHDX-filer där dina säkerhetskopierade data lagras. Aktivera deduplicering på volymen efter att du har formaterat den, enligt följande:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Det här kommandot ändrar även följande dedupliceringsinställningar på volymnivå:

      • Ange UsageType till HyperV: Detta resulterar i att deduplicering bearbetar öppna filer, vilket krävs eftersom VHDX-filerna som används för lagring av säkerhetskopior av DPM förblir öppna med DPM som körs på den virtuella datorn.

      • Inaktivera PartialFileOptimization: Detta gör att dedupliceringen optimerar alla avsnitt i en öppen fil i stället för att söka efter ändrade avsnitt med en minsta ålder.

      • Ange parametern MinFileAgeDays till 0: När PartialFileOptimization är inaktiverat ändrar MinFileAgeDays sitt beteende så att dedupliceringen endast tar hänsyn till filer som inte har ändrats under så många dagar. Eftersom vi vill att dedupliceringen ska börja bearbeta säkerhetskopierade data i alla DPM VHDX-filer utan fördröjning måste vi tilldela MinFileAgeDays värdet 0.

Mer information om hur du konfigurerar deduplicering finns i Installera och konfigurera datadeduplicering.

Konfigurera DPM-lagring

För att undvika fragmenteringsproblem och bibehålla effektiviteten allokeras DPM-lagringen med hjälp av VHDX-filer som finns på de deduplicerade volymerna. 10 dynamiska VHDX-filer på vardera 1 TB skapas på varje volym och ansluts till DPM. Observera att en överetablering på 3 TB av lagringsutrymmet görs för att dra fördel av lagringsbesparingarna som dedupliceringen genererar. I takt med att dedupliceringen genererar ytterligare lagringsbesparingar kan nya VHDX-filer skapas på dessa volymer och utnyttja utrymme som sparats in. Vi testade DPM-servern med upp till 30 VHDX-filer kopplade till den.

  1. Kör följande kommando för att skapa virtuella hårddiskar som du senare lägger till på DPM-servern:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Lägg sedan till de virtuella hårddiskar du skapat till DPM-servern enligt följande:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    I det här steget konfigurerar du en lagringspool som den eller de diskar där DPM lagrar repliker och återställningspunkter för skyddade data. Den här poolen är en del av DPM-konfigurationen och är separat från poolen för lagringsutrymmen som används för att skapa datavolymerna som beskrivs i föregående avsnitt. Mer information om DPM-lagringspooler finns i Konfigurera lagringspooler och diskutrymme.

Konfigurera Windows-filserverklustret

På grund av dataomfattningen och storleken på enskilda filer kräver dedupliceringen en särskild uppsättning konfigurationsalternativ för att kunna hantera virtualiserad DPM-lagring. Dessa alternativ är globala för klustret eller klusternoden. Deduplicering måste vara aktiverat och klusterinställningarna måste vara individuellt konfigurerade på varje nod i klustret.

  1. Aktivera deduplicering för Windows-filserverlagring – Dedupliceringsrollen måste vara installerad på alla noder i Windows-filserverklustret. Det gör du genom att köra följande PowerShell-kommando på varje nod i klustret:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Finjustera hur dedupliceringen bearbetar säkerhetskopior – Kör följande PowerShell-kommando för att ange att optimeringen ska starta utan fördröjning och att inga partiella filskrivningar ska optimeras. Observera att som standard schemaläggs skräpinsamlingsjobb (GC) varje vecka och var fjärde vecka körs GC-jobbet i "djupt GC"-läge för en mer uttömmande och tidsintensiv sökning efter data som ska tas bort. För DPM-arbetsbelastningen ger detta läge för djupgående skräpinsamling inte några märkbara vinster, men det minskar den tid det tar för dedupliceringen att optimera data. Därför väljer vi att inaktivera detta djupa läge.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Finjustera prestanda för storskaliga åtgärder – Kör följande PowerShell-skript för att:

    • Inaktivera ytterligare bearbetning och I/O när djupgående skräpinsamling körs

    • Reservera ytterligare minne för hashbearbetning

    • Aktivera prioritetsoptimering så att stora filer kan defragmenteras direkt

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Dessa inställningar ändrar följande:

    • HashIndexFullKeyReservationPercent: Det här värdet styr hur mycket av optimeringsjobbets minne som används för befintliga segmenthashvärden, jämfört med nya. Vid stora volymer resulterar 70 % i bättre optimeringsgenomflöde än standardvärdet på 50 %.

    • EnablePriorityOptimization: Med filer som närmar sig en storlek på 1 TB kan fragmenteringen av en enskild fil ackumulera tillräckligt många fragment för att närma sig gränsen för en enskild fil. Optimeringsbearbetningen konsoliderar dessa fragment och förhindrar att den här gränsen nås. Genom att ange den här registernyckeln lägger dedupliceringen till en till process för att hantera kraftigt fragmenterade deduplicerade filer med hög prioritet.

Konfigurera DPM- och dedupliceringsschemaläggning

Både säkerhetskopierings- och dedupliceringsåtgärder är I/O-krävande. Om de körs samtidigt kan den ytterligare belastningen för att växla mellan åtgärderna bli kostsam och resultera i att mindre data säkerhetskopieras eller dedupliceras per dag. Vi rekommenderar att du konfigurerar dedikerade och separata deduplicerings- och säkerhetskopieringsscheman. På så sätt försäkrar du dig om att I/O-trafiken för respektive åtgärd fördelas effektivt under den dagliga systemdriften. Följande riktlinjer rekommenderas för schemaläggning:

  • Dela upp dagarna i säkerhets- och dedupliceringsintervall som inte överlappar varandra.

  • Skapa anpassade säkerhetskopieringsscheman.

  • Skapa anpassade dedupliceringsscheman.

  • Schemalägg optimering i det dagliga dedupliceringsintervallet.

  • Skapa dedupliceringsscheman för helger separat, och använd den tiden för skräpinsamlings- och datarensningsjobb.

Du kan skapa DPM-scheman med följande PowerShell-kommando:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

I den här konfigurationen konfigureras DPM att säkerhetskopiera virtuella datorer mellan 22:00 och 06:00. Dedupliceringen schemaläggs för dagens resterande 16 timmar. Observera att den dedupliceringstid du konfigurerar beror på volymstorleken. Mer information finns i Storleksvolymer för Datadeduplicering. Ett 16-timmars dedupliceringsfönster som börjar kl. 06.00 när säkerhetskopieringsfönstret är slut konfigureras enligt följande från en enskild klusternod:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Om säkerhetskopieringsintervallet ändras är det viktigt att även dedupliceringsintervallet ändras så att tiderna inte överlappar varandra. Deduplicerings- och säkerhetskopieringsintervallen måste inte fylla dygnets 24 timmar, men vi rekommenderar starkt att de gör det för att tillåta variationer i bearbetningstiden på grund av förväntade dagliga ändringar i arbetsbelastningen och databearbetningen.

Konsekvenser för säkerhetskopieringsprestanda

När en uppsättning filer har deduplicerats kan det uppstå en liten prestandakostnad vid åtkomst till filerna. Detta beror på den ytterligare bearbetning som krävs för att komma åt filformatet som används av deduplicerade filer. I det här scenariot är filerna en uppsättning VHDX-filer som används kontinuerligt av DPM under säkerhetskopieringsintervallet. Konsekvensen av att deduplicera dessa filer är att säkerhetskopierings- och återställningsåtgärderna kan ta något längre tid än utan deduplicering. Precis som andra säkerhetskopieringsprodukter är DPM en skrivintensiv arbetsbelastning där läsåtgärder är viktigast i samband med återställningsaktiviteter. Vi rekommenderar följande för att hantera dedupliceringens effekt på säkerhetskopieringens prestanda:

  • Läs-/återställningsåtgärder: Effekterna på läsåtgärder är vanligtvis försumbara och kräver inga särskilda överväganden eftersom dedupliceringsfunktionen cachelagrar deduplicerade segment.

  • Skriv-/säkerhetskopieringsåtgärder: Planera för en ökning av säkerhetskopieringstiden om cirka 5 till 10 % när du definierar säkerhetskopieringsintervallet. (Det här är en ökning jämfört med den förväntade säkerhetskopieringstiden när du skriver till volymer som inte dedupliceras.)

Övervakning

Du kan övervaka DPM och datadedupliceringen för att försäkra att:

  • Tillräckligt diskutrymme etableras för att lagra säkerhetskopieringsdata

  • DPM-säkerhetskopieringsjobben slutförs som de ska

  • Dedupliceringen är aktiverad på säkerhetskopieringsvolymerna

  • Dedupliceringscheman är korrekt angivna

  • Dedupliceringsbearbetningen slutförs som den ska på en daglig basis

  • Takten på dedupliceringsbesparingarna motsvarar de antaganden som gjordes under systemkonfigurationen

Dedupliceringsresultatet beror på systemets maskinvarufunktioner (inklusive processorhastighet, I/O-bandbredd, lagringskapacitet), rätt systemkonfiguration, genomsnittlig systembelastning och den dagliga mängden modifierade data.

Du kan övervaka DPM med DPM Central Console. Se Installera den centrala konsolen.

Du kan övervaka dedupliceringen för att kontrollera dedupliceringsstatus, besparingstakt och schemastatus genom att köra följande PowerShell-kommandon:

Hämta status:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Hämta besparing:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Hämta schemastatus med hjälp av Get-DedupSchedule-cmdleten.

Övervaka händelser

Genom att övervaka händelseloggen kan du få en bättre inblick i dedupliceringshändelser och dedupliceringsstatusen.

  • Du kan visa dedupliceringshändelser genom att öppna Utforskaren och gå till Program- och tjänstloggar>Microsoft>Windows>Deduplicering.

  • Om värdet LastOptimizationResult = 0x00000000 visas i resultatet Get-DedupStatus |fl Windows PowerShell bearbetades hela datauppsättningen av det tidigare optimeringsjobbet. Om inte kunde systemet inte slutföra dedupliceringen och du kan behöva kontrollera konfigurationsinställningarna, t.ex. volymstorleken.

Mer detaljerade cmdlet-exempel finns i Övervaka och rapportera för datadeduplicering.

Övervaka lagringen av säkerhetskopierade data

I vårt konfigurationsexempel är 7,2 TB-volymerna fyllda med 10 TB ”logiska” data (storleken på data när de inte deduplicerats) lagrade i 10 dynamiska VHDX-filer på vardera 1 TB. I takt med att dessa filer ackumulerar ytterligare säkerhetskopierade data börjar de långsamt fylla volymen. Om besparingsprocenten som genereras av dedupliceringen är tillräckligt hög kommer alla 10 filer att nå sin högsta logiska storlek men fortfarande få plats på 7,2 TB-volymen (potentiellt kanske det till och med finns ytterligare utrymme för att allokera fler VHDX-filer som kan användas av DPM-servrar). Men om storleksbesparingarna från dedupliceringen inte är tillräckligt stora kanske utrymmet på volymen tar slut innan VHDX-filerna når sin fulla logiska storlek, och volymen blir full. Vi rekommenderar följande för att undvika att volymer blir fulla:

  • Var konservativ när det gäller kraven på volymstorlek och lämna utrymme för viss överetablering av lagringsutrymme. Vi rekommenderar att du har en buffert på minst 10 % när du planerar för användningen av lagringsutrymme för säkerhetskopierade data så att det finns utrymme för förväntade variationer i dedupliceringsbesparingar och datasegmentering.

  • Övervaka volymerna som används för att lagra säkerhetskopierade data för att försäkra dig om att utrymmesanvändningen och dedupliceringsbesparingstakten ligger på förväntade nivåer.

Om volymen blir full leder det till följande symptom:

  • Den virtuella DPM-datorn försätts i ett pauskritiskt tillstånd och inga fler jobb kan skickas av den virtuella datorn.

  • Alla säkerhetskopieringsjobb som använder VHDX-filerna på den fulla volymen misslyckas.

För att återställa systemet från detta tillstånd till normal drift kan du etablera ytterligare lagringsutrymme och frigöra utrymme genom att migrera lagringen på den virtuella DPM-datorn eller dess VHDX:

  1. Stoppa DPM-servern som äger VHDX-filerna på den fulla säkerhetskopieringsresursen.

  2. Skapa en ytterligare volym och säkerhetskopieringsresurs med samma konfiguration och inställningar som används för de befintliga resurserna, inklusive inställningar för NTFS och deduplicering.

  3. Migrera lagring för DPM-serverdatorn och migrera minst en VHDX-fil från den fulla säkerhetskopieringsresursen till den nya säkerhetskopieringsresursen du skapade i steg 2.

  4. Kör ett skräpinsamlingsjobb (GC) för datadeduplicering på källsäkerhetskopieringsresursen som var full. GC-jobbet bör lyckas och återvinna det lediga utrymmet.

  5. Starta om den virtuella DPM-serverdatorn.

  6. En DPM-konsekvenskontroll utlöses under nästa säkerhetskopieringsintervall för alla datakällor som tidigare misslyckats.

  7. Alla säkerhetskopieringsjobb bör lyckas.

Sammanfattning

Kombinationen av deduplicering och DPM ger stora utrymmesbesparingar. Detta innebär högre kvarhållningsgrad, mer frekventa säkerhetskopieringar och bättre total ägandekostnad för DPM-distributionen. Riktlinjerna och rekommendationerna i det här dokumentet ger dig de verktyg och den kunskap du behöver för att konfigurera deduplicering för DPM-lagring och hjälper dig att själv se fördelarna i din egen distribution.

Vanliga frågor

F: VHDX-filer för DPM måste vara 1 TB stora. Innebär detta att DPM inte kan säkerhetskopiera en virtuell dator eller SharePoint eller SQL DB eller filvolym med storleken > 1 TB?

S: Nej. DPM aggregerar flera volymer i en för att lagra säkerhetskopior. 1 TB-filstorleken påverkar därför inte datakällans storlekar som DPM kan säkerhetskopiera.

F: Det verkar som VHDX-filer för DPM-lagring måste distribueras på fjärranslutna SMB-filresurser. Vad händer om jag lagrar de säkerhetskopierade VHDX-filerna på dedupliceringsaktiverade volymer i samma system där den virtuella DPM-datorn körs?

S: Som vi nämnt ovan är DPM, Hyper-V och deduplicering lagrings- och beräkningsintensiva aktiviteter. När alla tre kombineras i samma system kan det leda till I/O- och processintensiva aktiviteter som kan inverka negativt på Hyper-V och dess virtuella datorer. Om du testar att konfigurera DPM på en virtuell dator med lagringsvolymerna för säkerhetskopiering på samma dator är det viktigt att du övervakar prestanda noga för att försäkra dig om att det finns tillräcklig I/O-bandbredd och beräkningskapacitet för att köra alla tre aktiviteter på samma dator.

F: Ni rekommenderar dedikerad, separat deduplicering och säkerhetskopieringsintervaller. Varför kan jag inte aktivera deduplicering medan DPM säkerhetskopierar? Jag måste säkerhetskopiera min SQL DB var 15:e minut.

S: Deduplicering och DPM är lagringsintensiva aktiviteter och det kan vara ineffektivt och inverka negativt på I/O att köra båda samtidigt. För att skydda arbetsbelastningar mer än en gång om dagen (till exempel SQL Server var 15:e minut) och aktivera deduplicering samtidigt säkerställer du därför att det finns tillräckligt med I/O-bandbredd och datorkapacitet för att undvika resurssvält.

F: Baserat på konfigurationen som beskrivs här måste DPM köras på en virtuell dator. Varför kan jag inte aktivera deduplicering på replik- och skuggkopievolymer direkt i stället för på VHDX-filer?

S: Dedupliceringen deduplicerar per volym och körs på enskilda filer. Eftersom dedupliceringen optimerar på filnivå är det inte utformat för att stödja VolSnap-tekniken som DPM använder för att lagra säkerhetskopieringsdata. När DPM körs på en virtuell dator mappar Hyper-V DPM-volymaktiviteterna med VHDX-filnivån så att dedupliceringen kan optimera säkerhetskopierade data och ge större lagringsbesparingar.

F: I exempelkonfigurationen ovan skapades bara volymer på 7,2 TB. Kan jag skapa större eller mindre volymer?

S: Dedupliceringen kör en tråd per volym. Allteftersom volymens storlek ökar behöver dedupliceringen mer tid för att slutföra optimeringen. På små volymer finns det å andra sidan färre data där det går att hitta dubblettsegment, vilket kan leda till mindre besparingar. Därför är det lämpligt att finjustera volymstorleken baserat på total omsättning och systemets maskinvarufunktioner för optimala besparingar. Mer detaljerad information om hur du bestämmer volymstorleken för deduplicering finns i Sizing Volumes for Deduplication in Windows Server. Mer detaljerad information om hur du bestämmer volymstorleken för deduplicering finns i Välja storlek på volymer för datadeduplicering.