Noções básicas da eliminação de duplicação de dados

Aplica-se a: Windows Server (canal semestral), Windows Server 2016

Este documento descreve como funciona a Eliminação de Duplicação de Dados.

Como funciona a eliminação de duplicação de dados?

A Eliminação de Duplicação de Dados no Windows Server foi criada com os dois princípios a seguir:

  1. Otimização não interferir as gravações no disco
    A eliminação de duplicação de dados otimiza os dados usando um modelo de pós-processamento. Todos os dados são gravados de forma não otimizada no disco e são otimizados posteriormente pela Eliminação de Duplicação de Dados.

  2. Otimização não deve alterar a semântica de acesso
    Os usuários e aplicativos que acessam dados em um volume otimizado não têm a menor a ideia de que os arquivos que eles estão acessando passaram pela eliminação de duplicação.

Uma vez habilitada para um volume, a eliminação de duplicação de dados é executada em segundo plano para:

  • Identificar padrões repetidos em arquivos nesse volume.
  • Mover continuamente esses fragmentos, ou partes, com ponteiros especial chamados pontos de nova análise que apontam para uma cópia única nessa parte.

Isso ocorre em quatro etapas, descritas a seguir:

  1. Verificação de arquivos que atendam à política de otimização no sistema de arquivos.
    Verificação do sistema de arquivos
  2. Divisão dos arquivos em partes de tamanho variável.
    Divisão dos arquivos em partes
  3. Identificação de partes exclusivas.
    Identificação de partes exclusivas
  4. Inserção das partes no repositório de partes e, opcionalmente, compactação.
    Movimentação para o armazenamento de partes
  5. Substituição do fluxo de arquivos original dos arquivos agora otimizados com um ponto de nova análise para o repositório de partes.
    Substituição do fluxo de arquivos com o ponto de nova análise

Quando os arquivos otimizados são lidos, o sistema de arquivos os envia com um ponto de nova análise ao filtro do sistema de arquivos de Eliminação de Duplicação de Dados (Dedup.sys). O filtro redireciona a operação de leitura para as partes apropriadas que compõem o fluxo para esse arquivo no repositório de partes. As modificações em intervalos de arquivos que passaram pela eliminação de duplicação são gravadas de forma não otimizada no disco e são otimizadas pelo Trabalho de otimização da próxima vez em que ele for executado.

Tipos de uso

Os tipos de uso a seguir fornecem uma configuração razoável de Eliminação de Duplicação de Dados para cargas de trabalho comuns:

Tipos de uso Cargas de trabalho ideais Qual é a diferença
Default Servidor de arquivos de finalidade geral:
  • Compartilhamentos de equipe
  • Pastas de trabalho
  • Redirecionamento de pasta
  • Compartilhamentos de desenvolvimento de software
  • Otimização em segundo plano
  • Política de otimização padrão:
    • Idade mínima do arquivo = 3 dias
    • Otimizar arquivos em uso = Não
    • Otimizar arquivos parciais = Não
Hyper-V Servidores de VDI (Virtual Desktop Infrastructure)
  • Otimização em segundo plano
  • Política de otimização padrão:
    • Idade mínima do arquivo = 3 dias
    • Otimizar arquivos em uso = Sim
    • Otimizar arquivos parciais = Sim
  • Ajustes "nos bastidores" para interoperabilidade do Hyper-V
Backup Aplicativos de backup virtualizado, como Microsoft DPM (Data Protection Manager)
  • Otimização da prioridade
  • Política de otimização padrão:
    • Idade mínima do arquivo = 0 dias
    • Otimizar arquivos em uso = Sim
    • Otimizar arquivos parciais = Não
  • Ajustes "nos bastidores" para interoperabilidade com soluções de DPM ou semelhantes a DPM

Trabalhos

A Eliminação de Duplicação de Dados usa uma estratégia de pós-processamento para otimizar e manter a eficiência do espaço de um volume.

Nome do Trabalho Descrições do trabalho Agendamento padrão
Otimização O trabalho Otimização elimina a duplicação de dados fragmentando dados em um volume de acordo com as configurações de política de volume, compactando (opcionalmente) essas partes e as armazenando de forma exclusiva no repositório de partes. O processo de otimização usado pela Eliminação de Duplicação de Dados está descrito detalhadamente em Como funciona a Eliminação de Duplicação de Dados?. Uma vez a cada hora
Coleta de lixo O trabalho Coleta de lixo recupera o espaço em disco removendo partes desnecessárias que não estão mais sendo referenciadas por arquivos modificados ou excluídos recentemente. Todo sábado às 2h35
Depuração de integridade O trabalho Depuração de integridade identifica danos no repositório de partes devido a falhas de disco ou setores inválidos. Quando possível, a Eliminação de Duplicação de Dados pode usar automaticamente os recursos do volume (como espelhamento ou paridade em um volume de Espaços de Armazenamento) para reconstruir os dados corrompidos. Além disso, a Eliminação de Duplicação de Dados guarda cópias de backup das partes populares quando elas são referenciadas mais de 100 vezes em uma área denominada ponto de acesso. Todo sábado às 3h35
Cancelamento da otimização O trabalho Cancelamento da otimização, um trabalho especial que só pode ser executado manualmente, desfaz a otimização feita pela eliminação de duplicação e desabilita a Eliminação de Duplicação de Dados nesse volume. Somente sob demanda

Terminologia da eliminação de duplicação de dados

Termo Definição
Chunk Uma parte é uma seção de um arquivo que foi selecionada pelo algoritmo de fragmentação da Eliminação de Duplicação de Dados como algo provável de ocorrer em outros arquivos semelhantes.
Repositório de partes O repositório de partes é uma série organizada de arquivos de contêiner na pasta System Volume Information que a Eliminação de Duplicação de Dados usa para armazenar partes de forma exclusiva.
eliminação de duplicação Uma abreviação da Eliminação de Duplicação de Dados usada normalmente no PowerShell, em APIs e componentes do Windows Server e na comunidade do Windows Server.
Metadados de arquivo Cada arquivo contém metadados que descrevem propriedades interessantes sobre o arquivo que não estão relacionadas ao conteúdo principal do arquivo. Por exemplo, Data de criação, Data da última leitura, Autor, etc.
Fluxo de arquivos O fluxo de arquivos é o conteúdo principal do arquivo. Essa é a parte do arquivo que otimiza a Eliminação de Duplicação de Dados.
Sistema de arquivos O sistema de arquivos é a estrutura de dados em disco e em software que o sistema operacional usa para armazenar arquivos na mídia de armazenamento. Há suporte para a Eliminação de Duplicação de Dados em volumes formatados em NTFS.
Filtro de sistema de arquivos Um filtro de sistema de arquivos é um plug-in que modifica o comportamento padrão do sistema de arquivos. Para preservar a semântica de acesso, a Eliminação de Duplicação de Dados usa um filtro de sistema de arquivos (Dedup.sys) para redirecionar leituras ao conteúdo otimizado de forma totalmente transparente para o usuário ou aplicativo que faz a solicitação de leitura.
Otimização Um arquivo será considerado otimizado (ou com duplicação eliminada) pela Eliminação de Duplicação de Dados se tiver sido fragmentado e suas partes exclusivas tiverem sido armazenadas no repositório de partes.
Política de otimização A política de otimização especifica os arquivos que devem ser considerados para Eliminação de Duplicação de Dados. Por exemplo, os arquivos poderão ser considerados fora da política se forem totalmente novos, estiverem abertos, em um determinado caminho no volume ou se forem de um determinado tipo de arquivo.
Ponto de nova análise Um ponto de nova análise é uma marca especial que notifica o sistema de arquivos para passar as E/S a um filtro de sistema de arquivos especificado. Quando o fluxo de arquivos do arquivo tiver sido otimizado, a Eliminação de Duplicação de Dados substitui o fluxo de arquivos por um ponto de nova análise, que permite à Eliminação de Duplicação de Dados preservar a semântica de acesso nesse arquivo.
Volume Um volume é uma construção do Windows para uma unidade de armazenamento lógico que pode abranger vários dispositivos de armazenamento físicos em um ou mais servidores. A Eliminação de duplicação é habilitada de acordo com o volume.
Carga de trabalho Uma carga de trabalho é um aplicativo executado no Windows Server. Entre os exemplos de carga de trabalho de exemplo estão o servidor de arquivos de finalidade geral, Hyper-V e o SQL Server.

Aviso

A menos que seja indicado pela Equipe de suporte autorizada da Microsoft, não tente modificar manualmente o repositório de partes. Isso pode resultar em corrupção ou perda de dados.

Perguntas frequentes

Como a eliminação de duplicação de dados se diferem de outros produtos de otimização?
Há várias diferenças importantes entre a Eliminação de Duplicação de Dados e outros produtos de otimização de armazenamento comuns:

  • Como a eliminação de duplicação de dados se diferem de Store de instância única?
    O Single Instance Store, ou o SIS, é uma tecnologia anterior à Eliminação de Duplicação de Dados e foi introduzida pela primeira vez no Windows Storage Server 2008 R2. Para otimizar um volume, o Single Instance Store identifica os arquivos completamente idênticos e os substitui por links lógico em uma única cópia de um arquivo armazenado no armazenamento comum do SIS. Ao contrário do Single Instance Store, a Eliminação de Duplicação de Dados pode conseguir uma economia de espaço dos arquivos que não são idênticos, mas que compartilham muitos padrões comuns, e de arquivos que contêm vários padrões repetidos. O Single Instance Store foi preterido no Windows Server 2012 R2 e removido no Windows Server 2016 em favor da Eliminação de Duplicação de Dados.

  • Como a eliminação de duplicação de dados difere da compactação NTFS?
    A compactação NTFS é um recurso do NTFS que você pode habilitar opcionalmente no nível do volume. Com a compactação NTFS, cada arquivo é otimizado individualmente por meio de compactação no momento da gravação. Ao contrário da compactação NTFS, a Eliminação de Duplicação de Dados pode conseguir economia de espaço em todos os arquivos em um volume. Isso é melhor do que a compactação NTFS, porque ambos os arquivos podem ter uma duplicação interna (solucionada pela compactação NTFS) e ter semelhanças com outros arquivos no volume (não solucionado pela compactação NTFS). Além disso, a Eliminação de Duplicação de Dados tem um modelo de pós-processamento, o que significa que arquivos novos ou modificados serão gravadas em disco de forma não otimizada e serão otimizados posteriormente pela Eliminação de Duplicação de Dados.

  • Como a eliminação de duplicação de dados difere dos formatos de arquivo morto como zip, rar, 7z, cab, etc.?
    Os formatos de arquivo morto zip, rar, 7z, cab, etc. executam a compactação em um conjunto especificado de arquivos. Como a Eliminação de Duplicação de Dados, padrões duplicados dentro de arquivos e padrões duplicados em arquivos são otimizados. No entanto, você precisa escolher os arquivos que você deseja incluir no arquivo morto. A semântica de acesso também é diferente. Para acessar um arquivo específico dentro do arquivo morto, você precisa abrir o arquivo morto, selecionar um arquivo específico e descompactar esse arquivo para uso. A Eliminação de Duplicação de Dados opera de forma transparente para usuários e administradores e não exige qualquer inicialização manual. Além disso, a Eliminação de Duplicação de Dados preserva a semântica de acesso: os arquivos otimizados aparecem inalterados após a otimização.

Posso alterar as configurações de eliminação de duplicação de dados para o meu tipo de uso selecionado?
Sim. Embora a Eliminação de Duplicação de Dados forneça padrões razoáveis para Cargas de trabalho recomendadas, ainda convém ajustar as configurações da Eliminação de Duplicação de Dados para obter o máximo proveito de seu armazenamento. Além disso, outras cargas de trabalho exigirão alguns ajustes para garantir que a Eliminação de Duplicação de Dados não interfira com a carga de trabalho.

Posso executar manualmente um trabalho de eliminação de duplicação de dados?
Sim, todos os trabalhos de Eliminação de Duplicação de Dados podem ser executados manualmente. Isso pode ser desejável se os trabalhos agendados não tiverem sido executados por falta de recursos do sistema ou por um erro. Além disso, o cancelamento da otimização do trabalho pode ser executado manualmente.

Para monitorar os resultados históricos de trabalhos de eliminação de duplicação de dados?
Sim, todos os trabalhos de Eliminação de Duplicação de Dados criam entradas no Log de Eventos do Windows.

Pode alterar os agendamentos padrão para os trabalhos de eliminação de duplicação de dados em meu sistema?
Sim, todas as agendas são configuráveis. A modificação das agendas padrão da Eliminação de Duplicação de Dados é especialmente desejável para garantir que os trabalhos da Eliminação de Duplicação de Dados tenham tempo para concluir e não compitam por recursos com a carga de trabalho.