Deduplizieren von DPM-Speicher
Wichtig
Diese Version von Data Protection Manager (DPM) hat das Supportende erreicht. Sie sollten ein Upgrade auf DPM 2019 durchführen.
System Center Data Protection Manager (DPM) kann die Datendeduplizierung verwenden.
Die Datendeduplizierung (dedup) sucht und entfernt duplizierte Daten auf einem Volume und stellt gleichzeitig sicher, dass die Daten richtig und vollständig bleiben. Erfahren Sie mehr über das Planen der Deduplizierung.
Die Deduplizierung verringert den Speicherverbrauch und obwohl die Höhe der Redundanz für einen Satz von Daten von der Arbeitsauslastung und dem Datentyp abhängig ist, werden bei Verwendung der Deduplizierung in der Regel starke Einsparungen hinsichtlich der Sicherungsdaten erzielt.
Die Datenredundanz kann mithilfe der Deduplizierung weiter reduziert werden, wenn gesicherte Daten mit ähnlichem Typ und ähnlichen Arbeitsauslastungen zusammen verarbeitet werden.
Die Datendeduplizierung ist für die Installation auf primären Datenvolumes ohne weitere dedizierte Hardware konzipiert, sodass sie keine Auswirkungen auf die primäre Arbeitsauslastung auf dem Server hat. Die Standardeinstellungen sind nicht intrusiv, weil für Daten fünf Tage verstreichen, bevor eine bestimmte Datei verarbeitet wird, und eine standardmäßige Mindestdateigröße von 32 KB gilt. Die Implementierung ist auf eine geringe Speicher- und CPU-Auslastung ausgelegt.
Die Deduplizierung kann für die folgenden Arbeitsauslastungen implementiert werden:
Allgemeine Dateifreigaben: Veröffentlichungen und Freigaben von Gruppeninhalten, Basisordner von Benutzern und Ordnerumleitung/Offlinedateien
Softwarebereitstellungsfreigaben: Softwarebinärdateien, Images und Updates
VHD-Bibliotheken: Dateispeicher für virtuelle Festplatten (VHDs) zur Bereitstellung auf Hypervisoren
VDI-Bereitstellungen (nur Windows Server 2012 R2): Virtual Desktop Infrastructure(VDI)-Bereitstellungen mit Hyper-V
Virtualisierte Sicherung: Sicherungslösungen (wie DPM auf einem virtuellen Hyper-V-Computer), bei denen Sicherungsdaten in VHD-/VHDX-Dateien auf einem Windows-Dateiserver gespeichert werden.
DPM und Deduplizierung
Durch die Deduplizierung mit DPM können sich große Einsparungen ergeben. Der beim Optimieren der DPM-Sicherungsdaten durch die Deduplizierung eingesparte Speicherplatz variiert je nach Typ der zu sichernden Daten. Die Sicherung eines verschlüsselten Datenbankservers kann z. B. nur zu minimalen Einsparungen führen, weil doppelte Daten durch den Verschlüsselungsvorgang ausgeblendet werden. Die Sicherung einer umfangreichen VDI-Bereitstellung kann jedoch zu erheblichen Einsparungen im Bereich von mindestens 70 bis über 90 Prozent führen, weil in der Regel große Datenmengen zwischen den virtuellen Desktopumgebungen dedupliziert werden. In der in diesem Thema beschriebenen Konfiguration wurden zahlreiche Testarbeitsauslastungen ausgeführt und Einsparungen zwischen 50 und 90 Prozent erzielt.
Um die Deduplizierung für DPM-Speicher zu verwenden, muss DPM auf einem virtuellen Hyper-V-Computer ausgeführt werden und Sicherungsdaten auf virtuellen Festplatten in freigegebenen Ordnern mit aktivierter Datendeduplizierung speichern.
Empfohlene Bereitstellung
Die folgende Bereitstellungstopologie wird zum Bereitstellen von DPM als virtuellen Computer für die Sicherung von Daten auf einem deduplizierten Volume empfohlen:
DPM wird auf einem virtuellen Computer in einem Hyper-V-Hostcluster ausgeführt.
Der DPM-Speicher mit VHD-/VHDX-Dateien wird auf einer SMB 3.0-Freigabe auf einem Dateiserver gespeichert.
In dieser Beispielbereitstellung wurde der Dateiserver als Dateiserver mit horizontaler Skalierung (SOFS) konfiguriert, der mit Speichervolumes bereitgestellt wird, die über Speicherplatzpools konfiguriert werden, die mithilfe direkt verbundener SAS-Laufwerke erstellt wurden. Beachten Sie, dass durch diese Bereitstellung eine skalierbare Leistung sichergestellt wird.
Beachten Sie dabei Folgendes:
Diese Bereitstellung wird für DPM 2012 R2 und höher sowie für alle Workloaddaten unterstützt, die von DPM 2012 R2 und höher gesichert werden können.
Auf allen Windows-Dateiserverknoten, auf denen sich virtuelle DPM-Festplatten befinden und die Deduplizierung aktiviert wird, muss Windows Server 2012 R2 mit dem Updaterollup von November 2014 oder höher ausgeführt werden.
Für die Szenariobereitstellung erhalten Sie von uns allgemeine Empfehlungen und Anleitungen. Bei hardwarespezifischen Beispielen wird die für das Microsoft Cloud Platform System (CPS) bereitgestellte Hardware zu Referenzzwecken verwendet.
In diesem Beispiel werden SMB 3.0-Remotefreigaben zum Speichern der Sicherungsdaten verwendet, daher beruhen die primären Hardwareanforderungen eher auf den Dateiserverknoten anstatt auf den Hyper-V-Knoten. Die folgende Hardwarekonfiguration wird in CPS für Sicherungs- und Produktionsspeicher verwendet. Beachten Sie, dass die gesamte Hardware für Sicherungs- und Produktionsspeicher verwendet wird. Die in den Laufwerksgehäusen aufgeführten Laufwerke werden jedoch nur für die Sicherung verwendet.
Dateiservercluster mit horizontaler Skalierung mit vier Knoten
Konfiguration pro Knoten
2 Intel(R) Xeon(R) CPU E5-2650 0, 2.00 GHz, 2001 MHz, 8 Kerne, 16 logische Prozessoren
128 GB, 1333 MHz, RDIMM-Arbeitsspeicher
Speicherverbindungen: 2 SAS-Ports, 1 10GbE iWarp/RDMA-Port
Vier JBOD-Laufwerksgehäuse
18 Datenträger pro JBOD – 16 × 4 TB HDDs + 2 × 800 GB SSDs
Dual-Pfad zu jedem Laufwerk: Multipfad-E/A-Lastenausgleichsrichtlinie nur auf Failover festgelegt
SSDs für Rückschreibcache (Write Back Cache, WBC) und der Rest für dedizierte Journallaufwerke konfiguriert
Einrichten von Deduplizierungsvolumes
Überlegen Sie, wie groß die Volumes zur Unterstützung der deduplizierten VHDX-Dateien mit DPM-Daten sein müssen. In CPS haben wir Volumes mit jeweils 7,2 TB erstellt. Die optimale Volumegröße hängt in erster Linie davon ab, wie viele Daten und wie oft die Daten auf dem Volume geändert werden, und sie richtet sich zudem nach den Datenzugriffs-Durchsatzraten des Datenträger-Speichersubsystems. Beachten Sie unbedingt Folgendes: Wenn die Deduplizierungsverarbeitung nicht mit der Rate der täglichen Datenänderungen mithalten kann, sinkt die Einsparungsquote, bis die Verarbeitung abgeschlossen werden kann. Ausführlichere Informationen finden Sie im Artikel zum Anpassen der Volumegröße für die Datendeduplizierung. Für Deduplizierungsvolumes werden die folgenden allgemeinen Richtlinien empfohlen:
Verwenden Sie Paritätsspeicherplätze, die Gehäuseinformationen nutzen, um Resilienz und eine bessere Datenträgerverwendung sicherstellen zu können.
Formatieren Sie mit NTFS mit Zuordnungseinheiten von 64 KB und großen Datensatzsegmenten, um die Verwendung von Sparsedateien bei der Deduplizierung zu optimieren.
In der obigen Hardwarekonfiguration beträgt die empfohlene Volumegröße 7,2 TB, und die Volumes werden wie folgt konfiguriert:
Duale Parität mit Gehäuseinformationen, 7,2 TB + 1 GB Rückschreibcache
ResiliencySettingName == Parität
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Interleave == 256 KB (Die Leistung der dualen Parität bei einem Interleave von 64 KB ist wesentlich geringer als beim Standard-Interleave von 256 KB.)
IsEnclosureAware == $true
AllocationUnitSize=64KB
Großes FRS
Richten Sie im angegebenen Speicherpool einen neuen virtuellen Datenträger wie folgt ein:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $trueDie einzelnen Volumes müssen dann wie folgt formatiert werden:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64KB -UseLargeFRS -ForceIn der CPS-Bereitstellung werden diese dann als CSVs konfiguriert.
Innerhalb dieser Volumes speichert DPM eine Reihe von VHDX-Dateien für die Sicherungsdaten. Aktivieren Sie nach der Formatierung auf dem Volume die Deduplizierung wie folgt:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$falseMit diesem Befehl werden auch die folgenden Deduplizierungseinstellungen auf Volumeebene geändert:
Legen Sie UsageType auf HyperV fest: Dies führt dazu, dass bei der Deduplizierung geöffnete Dateien verarbeitet werden, was erforderlich ist, weil die von DPM für den Sicherungsspeicher verwendeten VHDX-Dateien geöffnet bleiben, wenn DPM auf dem virtuellen Computer ausgeführt wird.
Deaktivieren Sie „PartialFileOptimization“: Dadurch optimiert die Deduplizierung alle Abschnitte einer geöffneten Datei, statt nach geänderten Abschnitten mit einem Mindestalter zu suchen.
Legen Sie den MinFileAgeDays-Parameter auf „0“ (Null) fest: Wenn „PartialFileOptimization“ deaktiviert ist, ändert sich das Verhalten von „MinFileAgeDays“, sodass bei der Deduplizierung nur Dateien berücksichtigt werden, die in der festgelegten Anzahl von Tagen nicht geändert wurden. Da die Deduplizierung ohne Verzögerung mit der Verarbeitung der Sicherungsdaten in allen DPM VHDX-Dateien beginnen soll, muss "MinFileAgeDays" auf "0" festgelegt werden.
Weitere Informationen zum Einrichten der Deduplizierung finden Sie unter Installieren und Konfigurieren der Datenduplizierung.
Einrichten von DPM-Speicher
Zur Vermeidung von Fragmentierungsproblemen und Erhaltung der Effizienz wird DPM-Speicher mithilfe von VHDX-Dateien zugeordnet, die sich auf den deduplizierten Volumes befinden. Auf jedem Volume werden 10 dynamische VHDX-Dateien mit einer Größe von jeweils 1 TB erstellt und an DPM angefügt. Es erfolgt eine überhöhte Speicherbereitstellung von 3 TB, um die durch die Deduplizierung erzielten Speichereinsparungen zu nutzen. Da durch die Deduplizierung weitere Speichereinsparungen erzielt werden, können auf diesen Volumes neue VHDX-Dateien erstellt werden, um eingesparten Speicherplatz zu nutzen. Der DPM-Server wurde mit bis zu 30 angefügten VHDX-Dateien getestet.
Führen Sie den folgenden Befehl aus, um virtuelle Festplatten zu erstellen, die dem DPM-Server später hinzugefügt werden:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>Fügen Sie dem DPM-Server die erstellten virtuellen Festplatten dann wie folgt hinzu:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisksBeim Ausführen dieses Schritts wird ein Speicherpool als Datenträger konfiguriert, auf dem (bzw. denen) DPM Replikate und Wiederherstellungspunkte für geschützte Daten speichert. Dieser Pool ist Teil der DPM-Konfiguration und von dem Speicherplatzpool getrennt, der zum Erstellen der im vorherigen Abschnitt beschriebenen Datenvolumes verwendet wird. Weitere Informationen zu DPM-Speicherpools finden Sie unter Konfigurieren von Datenträgerspeicher und Speicherpools.
Einrichten des Windows-Dateiserverclusters
Die Deduplizierung erfordert aufgrund des Datenumfangs und der Größe der einzelnen Dateien spezielle Konfigurationsoptionen, um virtualisierten DPM-Speicher unterstützen zu können. Diese Optionen gelten global für den Cluster oder Clusterknoten. Die Deduplizierung muss aktiviert sein, und die Clustereinstellungen müssen einzeln auf jedem Clusterknoten konfiguriert werden.
Aktivieren der Deduplizierung für Windows-Dateiserverspeicher: Die Rolle „Deduplizierung“ muss auf allen Knoten des Windows-Dateiserverclusters installiert werden. Führen Sie hierzu den folgenden PowerShell-Befehl auf jedem Knoten des Clusters aus:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>Optimieren der Deduplizierungsverarbeitung für die Sicherung von Datendateien: Führen Sie den folgenden PowerShell-Befehl aus, um festzulegen, dass die Optimierung ohne Verzögerung gestartet wird und keine partiellen Dateischreibvorgänge optimiert werden. Beachten Sie, dass Garbage Collection-Aufträge (GC) standardmäßig wöchentlich geplant sind. Jede vierte Woche wird der GC-Auftrag für eine noch umfassendere und zeitintensive Suche nach zu entfernenden Daten im Modus der umfassenden automatischen Speicherbereinigung („deep GC“) ausgeführt. Für die DPM-Arbeitsauslastung führt dieser Modus („deep GC“) nicht zu wertschätzenden Gewinnen, und er verkürzt die Zeit, in der die Deduplizierung Daten optimieren kann. Daher deaktivieren wir diesen Modus.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFFOptimieren der Leistung für umfangreiche Vorgänge: Führen Sie das folgende PowerShell-Skript für die folgenden Aktionen aus:
Deaktivieren von zusätzlichen Verarbeitungs- und E/A-Vorgängen, wenn die umfassende automatische Speicherbereinigung ausgeführt wird
Reservieren von zusätzlichem Arbeitsspeicher für die Hashverarbeitung
Aktivieren der Prioritätsoptimierung (Priority Optimization), um die sofortige Defragmentierung großer Dateien zu ermöglichen
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1Durch diese Einstellungen wird Folgendes geändert:
HashIndexFullKeyReservationPercent: Mit diesem Wert wird gesteuert, wie viel Speicher des Optimierungsauftrags für vorhandene Blockhashes im Vergleich zu neuen Blockhashes verwendet wird. Bei umfangreicher Skalierung führen 70 % zu einem besseren Optimierungsdurchsatz als der Standardwert von 50 %.
EnablePriorityOptimization: Bei Dateien, die eine Größe von 1 TB erreichen, können bei der Fragmentierung einer einzelnen Datei genügend Fragmente kumuliert werden, um den Grenzwert pro Datei zu erreichen. Die Optimierungsverarbeitung konsolidiert diese Fragmente und verhindert, dass dieser Grenzwert erreicht wird. Durch Festlegen dieses Registrierungsschlüssels fügt die Deduplizierung einen weiteren Vorgang hinzu, um stark fragmentierte deduplizierte Dateien mit hoher Priorität zu verarbeiten.
Einrichten von DPM und Planen der Deduplizierung
Sicherungs- und Deduplizierungsvorgänge sind E/A-intensiv. Bei gleichzeitiger Ausführung könnte der Mehraufwand für das Wechseln zwischen den Vorgängen kostspielig sein und dazu führen, dass täglich weniger Daten gesichert oder dedupliziert werden. Es empfiehlt sich, dedizierte und separate Zeitfenster für die Deduplizierung und für die Sicherung festzulegen. Dadurch können Sie sicherstellen, dass der E/A-Datenverkehr für die einzelnen Vorgänge während des täglichen Systembetriebs effizient verteilt wird. Für die Zeitplanung werden die folgenden Richtlinien empfohlen:
Teilen Sie die Tage in nicht überlappende Zeitfenster für Sicherung und Deduplizierung auf.
Legen Sie benutzerdefinierte Sicherungszeitpläne fest.
Legen Sie benutzerdefinierte Deduplizierungszeitpläne fest.
Planen Sie die Optimierung im täglichen Deduplizierungszeitfenster.
Legen Sie die Zeitpläne für die an Wochenenden auszuführende Deduplizierung separat fest, und nutzen Sie diese Zeit für Garbage Collection- und Bereinigungsaufträge.
Sie können DPM Zeitpläne mit dem folgenden PowerShell-Befehl festlegen:
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
In dieser Konfiguration ist DPM für die Sicherung der virtuellen Computer in der Zeit zwischen 22 Uhr und 6 Uhr konfiguriert. Die Deduplizierung ist für die verbleibenden 16 Stunden geplant. Die tatsächliche von Ihnen festgelegte Zeit für die Deduplizierung richtet sich nach der Volumegröße. Weitere Informationen finden Sie im Artikel zum Anpassen der Volumegröße für die Datendeduplizierung. Ein Deduplizierungszeitfenster von 16 Stunden, das nach dem Ende des Sicherungszeitfensters um 6 Uhr beginnt, wird auf einem beliebigen einzelnen Clusterknoten wie folgt konfiguriert:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Bei einer Änderung des Sicherungszeitfensters muss auch das Deduplizierungszeitfenster geändert werden, um eine Überlappung zu vermeiden. Die Zeitfenster für Deduplizierung und Sicherung müssen sich zwar nicht auf die 24 Stunden eines Tages erstrecken, dies wird jedoch dringend empfohlen, um Abweichungen in der Verarbeitungszeit aufgrund erwarteter täglicher Arbeitsauslastung- und Datenänderungen Rechnung zu tragen.
Auswirkungen auf die Sicherungsleistung
Nachdem mehrere Dateien dedupliziert wurden, kann es beim Zugreifen auf die Dateien zu geringfügigen Leistungseinbußen kommen. Das liegt an den zusätzlichen Verarbeitungsschritten, die zum Zugreifen auf das Dateiformat von deduplizierten Dateien erforderlich sind. In diesem Szenario handelt es sich bei den Dateien um VHDX-Dateien, die während der gesamten Dauer des Sicherungszeitfensters von DPM kontinuierlich verwendet werden. Wenn diese Dateien dedupliziert werden, können die Sicherungs- und Wiederherstellungsvorgänge etwas langsamer erfolgen als ohne Deduplizierung. Wie für jedes Sicherungsprodukt gilt auch für DPM, dass es sich dabei um eine sehr schreibintensive Workload mit Lesevorgängen handelt, die während der Ausführung der Wiederherstellungsvorgänge am wichtigsten sind. Für den Umgang mit den durch die Deduplizierung entstehenden Auswirkungen auf die Sicherungsleistung gelten die Folgenden Empfehlungen:
Lese-/Wiederherstellungsvorgänge: Die Auswirkungen auf Lesevorgänge sind in der Regel unerheblich und erfordern keine besonderen Maßnahmen, weil das Deduplizierungsfeature deduplizierte Blöcke zwischenspeichert.
Schreib-/Sicherungsvorgänge: Planen Sie beim Festlegen des Sicherungszeitfensters für die Sicherungsdauer ungefähr 5 % bis 10 % mehr Zeit ein. (Dies ist im Vergleich zur erwarteten Sicherungsdauer beim Schreiben auf nicht deduplizierte Volumes ein erhöhter Zeitaufwand.)
Überwachung
DPM und die Datendeduplizierung können überwacht werden, um Folgendes sicherzustellen:
Es wird ausreichend Speicherplatz zum Speichern der Sicherungsdaten bereitgestellt.
DPM-Sicherungsaufträge werden normal abgeschlossen.
Die Deduplizierung ist auf den Sicherungsvolumes aktiviert.
Die Deduplizierungszeitpläne sind richtig festgelegt.
Die Deduplizierungsverarbeitung wird täglich normal ausgeführt.
Die durch die Deduplizierung erzielte Einsparungsquote entspricht den für die Systemkonfiguration getroffenen Annahmen.
Der Erfolg der Deduplizierung hängt von den gesamten Systemhardwarefunktionen (einschließlich CPU-Geschwindigkeit, E/A-Bandbreite, Speicherkapazität), der richtigen Systemkonfiguration, der durchschnittlichen Systemlast und der täglich geänderten Datenmenge ab.
Sie können DPM mit der zentralen DPM-Konsole überwachen. Weitere Informationen hierzu finden Sie unter Installieren der zentralen Konsole.
Sie können die Deduplizierung überwachen, um den Deduplizierungsstatus, die Einsparungsquote und den Zeitplanstatus mithilfe der folgenden PowerShell-Befehle zu überprüfen:
Status abrufen:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Einsparungsquote abrufen:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Den Zeitplanstatus können Sie mit dem Get-DedupSchedule-Cmdlet abrufen.
Überwachen von Ereignissen
Durch Überwachen des Ereignisprotokolls können Sie die Deduplizierungsereignisse und den Deduplizierungsstatus besser nachvollziehen.
Zum Anzeigen von Deduplizierungsereignissen navigieren Sie im Datei-Explorerzu Anwendungs- und DienstprotokolleMicrosoftWindowsDeduplizierung.
Wenn in den Windows PowerShell-Ergebnissen von „Get-DedupStatus |fl“ der Wert LastOptimizationResult = 0x00000000 angezeigt wird, wurde das gesamte Dataset vom vorherigen Optimierungsauftrag verarbeitet. Andernfalls konnte das System die Deduplizierungsverarbeitung nicht abschließen. Sie sollten dann Ihre Konfigurationseinstellungen (z. B. die Volumegröße) überprüfen.
Ausführlichere Cmdlet-Beispiele finden Sie unter Überwachen der und Erstellen von Berichten für die Datendeduplizierung.
Überwachen des Sicherungsspeichers
In unserer Beispielkonfiguration werden die 7,2 TB-Volumes mit 10 TB "logischen" Daten (die Größe der Daten, wenn sie nicht dedupliziert werden) gefüllt, die in 10 dynamischen VHDX-Dateien mit einer Größe von jeweils 1 TB gespeichert werden. Da durch diese Dateien weitere Sicherungsdaten kumuliert werden, füllt sich das Volume langsam. Wenn die durch die Deduplizierung erzielte Einsparungsquote (der Prozentsatz) hoch genug ist, können alle 10 Dateien ihre maximale logische Größe erreichen und trotzdem auf das 7,2 TB-Volume passen (möglicherweise ist sogar zusätzlicher Speicherplatz für weitere VHDX-Dateien vorhanden, die von DPM-Servern verwendet werden können). Wenn die durch die Deduplizierung erzielten Einsparungen jedoch nicht ausreichen, ist noch bevor die VHDX-Dateien ihre maximale logische Größe erreichen auf dem Volume nicht mehr genügend Speicherplatz vorhanden, und das Volume ist voll. Um zu verhindern, dass nicht mehr genügend Speicherplatz auf den Volumes vorhanden ist, empfiehlt sich Folgendes:
Seien Sie in Bezug auf die Volumegrößenanforderungen konservativ, und planen Sie eine etwas überhöhte Speicherbereitstellung ein. Es wird empfohlen, beim Planen der Sicherungsspeicherverwendung einen Puffer von mindestens 10 % vorzusehen, um erwarteten Abweichungen bei Einsparungen durch Deduplizierung und Datenänderungen Rechnung zu tragen.
Überwachen Sie die für Sicherungsspeicher verwendeten Volumes, um sicherzustellen, dass die Werte für die Speicherplatzausnutzung und für die durch Deduplizierung erzielten Einsparungsquoten in den erwarteten Bereichen liegen.
Wenn das Volume voll ist, treten die folgenden Symptome auf:
Der virtuelle DPM-Computer wird in einen kritischen Pausenzustand versetzt, und von diesem virtuellen Computer können keine weiteren Sicherungsaufträge erteilt werden.
Es können keine Sicherungsaufträge ausgeführt werden, für die die VHDX-Dateien auf dem vollen Volume verwendet werden.
Um dies zu beheben und den normalen Systembetrieb wiederherzustellen, können Sie zusätzlichen Speicher bereitstellen und eine Speichermigration des virtuellen DPM-Computers oder der zugehörigen VHDX-Dateien ausführen, um Speicherplatz freizugeben:
Beenden Sie den DPM-Server, der über die VHDX-Dateien auf der vollen Sicherungsfreigabe verfügt.
Erstellen Sie eine weitere Volume- und Sicherungsfreigabe mit derselben Konfiguration und denselben Einstellungen, die für die vorhandenen Freigaben verwendet werden, einschließlich der Einstellungen für NTFS und Deduplizierung.
Migrieren Sie Speicher für den virtuellen DPM-Servercomputer, und migrieren Sie mindestens eine VHDX-Datei der vollen Sicherungsfreigabe zu der in Schritt 2 erstellten neuen Sicherungsfreigabe.
Führen Sie auf der Quellsicherungsfreigabe, die voll belegt war, einen Auftrag für die automatische Speicherbereinigung (Garbage Collection, GC) der Datendeduplizierung aus. Der GC-Auftrag sollte erfolgreich abgeschlossen werden und den freien Speicherplatz freigeben.
Starten Sie den virtuellen DPM-Servercomputer neu.
Im nächsten Sicherungszeitfenster wird für alle zuvor fehlerhaften Datenquellen eine DPM-Konsistenzprüfung ausgelöst.
Alle Sicherungsaufträge sollten jetzt erfolgreich ausgeführt werden.
Zusammenfassung
Die Kombination aus Deduplizierung und DPM ermöglicht erhebliche Speicherplatzeinsparungen. Für die DPM-Bereitstellung sind dadurch höhere Speicherungsquoten, häufigere Sicherungen und geringere Gesamtbetriebskosten möglich. Durch die in diesem Dokument enthaltenen Anleitungen und Empfehlungen geben wir Ihnen die Tools und das Wissen an die Hand, um die Deduplizierung für DPM-Speicher konfigurieren und die sich für Sie in Ihrer eigenen Bereitstellung ergebenden Vorteile erkennen zu können.
Häufige Fragen
F: Die DPM VHDX-Dateien müssen eine Größe von 1 TB aufweisen. Bedeutet dies, dass DPM keine VMs, SharePoint- oder SQL-Datenbanken oder Dateivolumes sichern kann, die größer als 1 TB sind?
A: Nein. Zum Speichern von Sicherungen aggregiert DPM mehrere Volumes in einem Volume. Die Dateigröße von 1 TB hat daher keine Auswirkungen auf die Größe der Datenquellen, die DPM sichern kann.
F: Es scheint, als dürften die VHDX-Dateien des DPM-Speichers nur auf SMB-Remotedateifreigaben bereitgestellt werden. Was passiert, wenn ich die VHDX-Sicherungsdateien auf Volumes mit aktivierter Deduplizierung auf demselben System speichere, auf dem der virtuelle DPM-Computer ausgeführt wird?
A: Wie oben erwähnt, sind DPM, Hyper-V und Deduplizierung speicher- und rechenintensive Vorgänge. Wenn alle drei Elemente auf einem einzigen System kombiniert werden, kann dies zu E/A- und prozessintensiven Vorgängen führen, durch die Hyper-V und die zugehörigen virtuellen Computer behindert werden. Wenn Sie damit experimentieren möchten, DPM auf einem virtuellen Computer zu konfigurieren, wobei sich die Sicherungsspeichervolumes auf demselben Computer befinden, sollten Sie die Leistung sorgfältig überwachen, um sicherzustellen, dass genügend E/A-Bandbreite und Rechenkapazität für die Ausführung aller drei Vorgänge auf demselben Computer zur Verfügung steht.
F: Sie empfehlen, dedizierte und separate Zeitfenster für die Deduplizierung und für die Sicherung festzulegen. Warum kann ich die Deduplizierung nicht aktivieren, während DPM Sicherungsvorgänge ausführt? Ich muss meine SQL-Datenbank alle 15 Minuten sichern.
A: Deduplizierung und DPM sind speicherintensive Vorgänge, und die Ausführung beider Vorgänge zur gleichen Zeit kann ineffizient sein und zu E/A-Blockierung führen. Wenn Sie also Arbeitsauslastungen häufiger als nur einmal täglich (bei SQL Server z. B. alle 15 Minuten) sichern und gleichzeitig die Deduplizierung aktivieren möchten, müssen Sie sicherstellen, dass genügend E/A-Bandbreite und Rechenkapazität zur Verfügung steht, um die Blockierung oder Verknappung von Ressourcen zu vermeiden.
F: Basierend auf der beschriebenen Konfiguration muss DPM auf einem virtuellen Computer ausgeführt werden. Warum kann ich die Deduplizierung statt auf VHDX-Dateien nicht direkt auf Replikatvolumes und Schattenkopievolumes aktivieren?
A: Die Deduplizierung erfolgt pro Volume, wobei einzelne Dateien verarbeitet werden. Weil die Deduplizierung auf Dateiebene optimiert, ist sie nicht für die Unterstützung der VolSnap-Technologie konzipiert, die DPM zum Speichern der Sicherungsdaten nutzt. Bei der Ausführung von DPM auf einem virtuellen Computer ordnet Hyper-V die DPM-Volumevorgänge der VHDX-Dateiebene zu, sodass bei der Deduplizierung die Sicherungsdaten optimiert werden können und größere Speichereinsparungen ermöglicht werden.
F: In der obigen Beispielkonfiguration wurden nur 7,2 TB-Volumes erstellt. Kann ich auch größere oder kleinere Volumes erstellen?
A: Bei der Deduplizierung wird ein Thread pro Volume ausgeführt. Mit zunehmender Volumegröße benötigt die Deduplizierung mehr Zeit, um die Optimierung abzuschließen. Bei kleinen Volumes sind dagegen weniger Daten vorhanden, in denen doppelte Blöcke gesucht werden müssen, was zu geringeren Einsparungen führen kann. Daher ist es ratsam, die Volumegröße basierend auf den gesamten Änderungen und Systemhardwarefunktionen anzupassen, um optimale Einsparungsquoten zu erzielen. Ausführlichere Informationen zum Ermitteln der bei der Deduplizierung verwendeten Volumegrößen finden Sie im Beitrag über das Anpassen der Volumegröße für die Deduplizierung in Windows Server. Ausführlichere Informationen zum Ermitteln der bei der Deduplizierung verwendeten Volumegrößen finden Sie im Artikel zum Anpassen der Volumegröße für die Datendeduplizierung.