Desduplicar el almacenamiento de DPM
Administrador de protección de datos (DPM) de System Center puede usar desduplicación de datos.
La desduplicación de datos (dedup) busca y quita datos duplicados en un volumen al tiempo que garantiza la corrección e integridad de esos datos. Obtén más información sobre el planeamiento de desduplicación.
La deduplicación reduce el consumo de almacenamiento. Aunque la cantidad de redundancia de un conjunto de datos dependerá de la carga de trabajo y del tipo de datos, normalmente los datos de copia de seguridad muestran importantes ahorros cuando se aplica la desduplicación.
La redundancia de datos se puede reducir aún más con la desduplicación cuando se procesan juntos los datos de copia de seguridad de tipos y cargas de trabajo similares.
Dedup está diseñado para instalarse en volúmenes de datos principales sin la necesidad de hardware dedicado adicional, de manera que no afecte a la carga de trabajo principal en el servidor. La configuración predeterminada es no intrusiva porque permite que los datos alcancen una antigüedad de cinco días antes de procesar un archivo determinado, y tiene un tamaño mínimo de archivo predeterminado de 32 KB. La implementación está diseñada para un uso bajo de memoria y CPU.
La deduplicación se puede implementar en las siguientes cargas de trabajo:
Recursos compartidos de archivos generales: publicación y uso compartido de contenido de grupo, carpetas personales de usuarios, y redirección de carpetas/archivos sin conexión
Recursos compartidos de implementación de software: archivos binarios, imágenes y actualizaciones de software
Bibliotecas de VHD: almacenamiento de archivos en discos duros virtuales (VHD) para el aprovisionamiento de hipervisores
Implementaciones de VDI (solo Windows Server 2012 R2): implementaciones de Infraestructura de escritorio virtual (VDI) mediante Hyper-V
Copia de seguridad virtualizada: soluciones de copia de seguridad (como DPM que se ejecutan en una máquina virtual de Hyper-V) que guardan los datos de copia de seguridad en archivos VHD/VHDX en un servidor de archivos de Windows
DPM y desduplicación
El uso de la desduplicación con Data Protection Manager (DPM) puede dar lugar a grandes ahorros. La cantidad de espacio guardado por desduplicación al optimizar los datos de copia de seguridad de DPM varía en función del tipo de datos de los que se realiza una copia de seguridad. Por ejemplo, una copia de seguridad de un servidor de bases de datos cifrado puede dar lugar a un ahorro mínimo, ya que el proceso de cifrado oculta los datos duplicados. Sin embargo, la copia de seguridad de una implementación de infraestructura de escritorio virtual (VDI) de gran tamaño puede dar como resultado un gran ahorro en el intervalo del 70 % a más del 90 %, ya que suele haber una gran cantidad de duplicación de datos entre los entornos de escritorio virtuales. En la configuración descrita en el artículo, hemos ejecutado varias cargas de trabajo de prueba y hemos visto ahorros de entre el 50 % y el 90 %.
Para usar la desduplicación en el almacenamiento de DPM, DPM debe estar ejecutándose en una máquina virtual de Hyper-V y almacenar los datos de respaldo en VHD dentro de carpetas compartidas, con la desduplicación de datos habilitada.
Implementación recomendada
Para implementar DPM como una máquina virtual que realiza una copia de seguridad de los datos en un volumen deduplicado, se recomienda la siguiente topología de implementación.
DPM en ejecución en una máquina virtual dentro de un clúster de hosts Hyper-V.
Almacenamiento de DPM usando archivos VHD/VHDX almacenados en un recurso compartido SMB 3.0 en un servidor de archivos.
Para nuestro ejemplo de prueba, se configuró el servidor de archivos como un servidor de archivos de escala horizontal (SOFS) implementado con volúmenes de almacenamiento configurados desde grupos de espacios de almacenamiento creados con unidades SAS de conexión directa. Esta implementación garantiza el rendimiento a escala.
Observe lo siguiente:
Esta implementación es compatible con DPM 2012 R2 y versiones posteriores y para todos los datos de carga de trabajo de los que DPM 2012 R2 y versiones posteriores pueden realizar copias de seguridad.
Todos los nodos del servidor de archivos de Windows en los que residen los discos duros virtuales DPM y en los que se habilitará la desduplicación deben ejecutar Windows Server 2012 R2 con el paquete acumulativo de actualizaciones de noviembre de 2014 o posterior.
Proporcionaremos recomendaciones generales e instrucciones para la implementación del escenario. Cada vez que se proporcionan ejemplos específicos del hardware, el hardware implementado en el sistema de plataforma de Microsoft Cloud (CPS) se usa como referencia.
Este ejemplo usa recursos compartidos de SMB 3.0 para almacenar los datos de copia de seguridad, por lo que los principales requisitos de hardware se centran en los nodos del servidor de archivos en lugar de en los nodos de Hyper-V. La siguiente configuración de hardware se usa en CPS para el almacenamiento de respaldo y de producción. El hardware en su conjunto se utiliza tanto para el almacenamiento de copia de seguridad como para el de producción, pero el número de unidades enumeradas en las carcasas de unidades son solo aquellas utilizadas para la copia de seguridad.
Clúster de servidores de archivos de escalabilidad horizontal con cuatro nodos
Por configuración de nodo
2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00 GHz, 2001 MHz, 8 núcleos, 16 procesadores lógicos
Memoria RDIMM de 1333 MHz de 128 GB
Conexiones de almacenamiento: 2 puertos de SAS, 1 puerto de 10 GbE iWarp/RDMA
Cuatro carcasas de disco JBOD
18 discos en cada JBOD: 16 HDD de 4 TB + 2 SSD de 800 GB
Doble ruta de acceso a cada unidad: política de equilibrio de carga de ruta de E/S multipath configurada solo para conmutación por error
SSD configurados para caché de retroescritura (WBC) y el resto para discos de diario dedicados
Configurar volúmenes de deduplicación
Consideremos cómo de grandes deben ser los volúmenes para admitir los archivos VHDX desduplicados que contienen datos de DPM. En CPS, hemos creado volúmenes de 7,2 TB cada uno. El tamaño óptimo del volumen depende principalmente de la cantidad y la frecuencia con la que cambian los datos del volumen y de las tasas de rendimiento de acceso a datos del subsistema de almacenamiento en disco. Es importante tener en cuenta que si el procesamiento de la desduplicación no puede mantener el ritmo con el volumen de cambios de datos diarios (el churn), la tasa de ahorro se reducirá hasta que el procesamiento pueda completarse con éxito. Para más información, consulta Dimensionamiento de volúmenes para desduplicación de datos. Se recomiendan las siguientes directrices generales para volúmenes deduplicados:
Usa espacios de almacenamiento de paridad con reconocimiento del contenedor para lograr resistencia y un mayor uso de disco.
Formatea NTFS con unidades de asignación de 64 KB y segmentos de registros de archivos grandes para trabajar mejor con el uso de deduplicación de archivos dispersos.
En la configuración de hardware superior al tamaño de volumen recomendado de 7,2 TB, los volúmenes se configurarán de la manera siguiente:
Paridad dual con reconocimiento de recinto de 7,2 TB + caché de escritura diferida de 1 GB
ResiliencySettingName == Paridad
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Interleave == 256 KB (el rendimiento de paridad dual en intercalación de 64 KB es mucho menor que en la intercalación predeterminada de 256 KB)
IsEnclosureAware == $true
Tamaño de Unidad de Asignación=64 KB
FRS grandes
Configura un nuevo disco virtual en el bloque de almacenamiento especificado de la siguiente manera:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
Cada uno de estos volúmenes debe tener el formato siguiente:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
En la implementación de CPS, estos se configuran como CSV.
Dentro de estos volúmenes, DPM almacenará una serie de archivos VHDX para retener los datos de copia de seguridad. Habilitar la desduplicación en el volumen tras formatearlo de la siguiente manera:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
Este comando también modifica las siguientes configuraciones de desduplicación a nivel de volumen:
Establecer Tipo de uso en HyperV: esto da como resultado el procesamiento de desduplicación de archivos abiertos, que son necesarios porque los archivos VHDX usados para el almacenamiento de copia de seguridad de DPM permanecen abiertos mientras DPM se ejecuta en su máquina virtual.
Deshabilitar PartialFileOptimization: esto hace que la desduplicación optimice todas las secciones de un archivo abierto en lugar de buscar secciones modificadas que tengan una antigüedad mínima.
Establece el parámetro MinFileAgeDays en 0: con PartialFileOptimization deshabilitado, MinFileAgeDays cambia su comportamiento de modo que la desduplicación solo tenga en cuenta los archivos que no hayan cambiado en esa cantidad de días. Dado que queremos que la deduplicación comience a procesar los datos de copia de seguridad en todos los archivos VHDX de DPM sin ningún retraso, es necesario establecer el parámetro MinFileAgeDays en 0.
Para obtener más información sobre cómo configurar la deduplicación, consulta en Instalación y configuración de la deduplicación de datos.
Configuración de almacenamiento DPM
Para evitar problemas de fragmentación y mantener la eficacia, el almacenamiento DPM se asigna mediante archivos VHDX que residen en los volúmenes desduplicados. Se crean diez archivos VHDX dinámicos de 1 TB cada uno en cada volumen y se adjuntan a DPM. Además, se realiza un sobreaprovisionamiento de almacenamiento de 3 TB para aprovechar los ahorros de almacenamiento producidos por la desduplicación. A medida que la desduplicación genera ahorros de almacenamiento adicionales, se pueden crear nuevos archivos VHDX en estos volúmenes para utilizar el espacio ahorrado. Probamos el servidor DPM con hasta 30 archivos VHDX adjuntos.
Ejecuta el siguiente comando para crear discos duros virtuales que se agregarán más adelante al servidor DPM:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
A continuación, agrega los discos duros virtuales creados al servidor DPM de la siguiente manera:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisks
Este paso configura un bloque de almacenamiento como el disco o los discos en los que DPM almacena réplicas y puntos de recuperación para los datos protegidos. Este grupo forma parte de la configuración de DPM y es independiente del grupo de Espacios de almacenamiento que se usa para crear los volúmenes de datos descritos en la sección anterior. Para más información sobre bloques de almacenamiento DPM, consulta Configuración de almacenamiento en disco y bloques de almacenamiento.
Configuración del clúster de servidor de archivos de Windows.
La desduplicación requiere un conjunto especial de opciones de configuración para admitir el almacenamiento DPM virtualizado debido a la escala de datos y el tamaño de los archivos individuales. Estas opciones son globales para el clúster o el nodo del clúster. La deduplicación debe estar habilitada y la configuración del clúster debe configurarse de forma individual en cada nodo del clúster.
Habilitar la desduplicación en el almacenamiento del servidor de archivos de Windows: el rol Desduplicación debe instalarse en todos los nodos del clúster del servidor de archivos de Windows. Para ello, ejecuta el siguiente comando de PowerShell en cada nodo del clúster:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
Ajustar el procesamiento de desduplicación para los archivos de datos de copia de seguridad: ejecuta el siguiente comando de PowerShell para configurar para iniciar la optimización sin retraso y para no optimizar las escrituras parciales de archivos. De forma predeterminada, los trabajos de recolección de elementos no utilizados (GC) se programan cada semana y, cada cuatro semanas, el trabajo de GC se ejecuta en modo de "GC profunda" para llevar a cabo una búsqueda más exhaustiva e intensiva de los datos que deben quitarse. Para la carga de trabajo de DPM, este modo de "GC profunda" no da lugar a mejoras apreciativas y reduce la cantidad de tiempo en el que la desduplicación puede optimizar los datos. Por lo tanto, desactivamos este modo profundo.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
Ajustar el rendimiento de las operaciones a gran escala: ejecuta el siguiente script de PowerShell para:
Deshabilitar el procesamiento adicional y la E/S cuando se ejecuta la recolección de basura profunda
Reserva memoria adicional para procesar el hash
Habilita la optimización de prioridad para permitir la desfragmentación inmediata de archivos grandes
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
Esta configuración modifica lo siguiente:
HashIndexFullKeyReservationPercent: este valor controla cuánto de la memoria del trabajo de optimización se utiliza para los hashes de fragmentos existentes en comparación con los hashes de fragmentos nuevos. A gran escala, el 70 % da como resultado un mejor rendimiento de optimización que el valor predeterminado del 50 %.
EnablePriorityOptimization: Con archivos que alcanzan casi 1 TB, la fragmentación de un solo archivo puede acumular suficientes fragmentos para llegar al límite por archivo. El procesamiento de optimización consolida estos fragmentos y evita que se alcance este límite. Al establecer esta clave del Registro, dedup agregará un proceso adicional para tratar archivos deduplicados altamente fragmentados de alta prioridad.
Configurar DPM y programación de desduplicación
Las operaciones de copia de seguridad y desduplicación consumen mucha E/S. Si se ejecutaran al mismo tiempo, la sobrecarga adicional para cambiar entre las operaciones podría ser costosa y resultar en que se respalde o se desduplique menos datos diariamente. Te recomiendamos que configures las ventanas de desduplicación y las copias de seguridad dedicadas y independientes. Esto garantiza que el tráfico de E/S en cada una de estas operaciones se distribuya eficazmente durante la operación diaria del sistema. Las directrices recomendadas para la programación son:
Dividir los días en ventanas de respaldo y desduplicación no superpuestas.
Configura la programación de copia de seguridad personalizada.
Configura los horarios de desduplicación personalizados.
Programa la optimización del proceso durante la ventana de desduplicación diaria.
Configura las programaciones de desduplicación del fin de semana por separado, usando ese tiempo para la recolección de basura y limpieza.
Puedes configurar la programación del DPM con el siguiente comando de PowerShell: .
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
En esta configuración, el DPM está configurado para realizar copias de seguridad de las máquinas virtuales entre las 10:00 p. m. y las 6:00 a. m. La desduplicación está programada para que se realice durante las 16 horas restantes del día. El tiempo de desduplicación real que configures dependerá del tamaño del volumen. Consulta la sección Dimensionamiento de los volúmenes para desduplicar los datos para obtener más información. Una ventana de desduplicación de 16 horas que empieza a las 6 a. m., después de que finalice la ventana de copia de seguridad, se configuraría como se indica a continuación desde cualquier nodo de clúster individual:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Cada vez que se modifica la ventana de copia de seguridad, es fundamental que la ventana de desduplicación se modifique junto con ella para que no se superpongan. La ventana de desduplicación y de copia de seguridad no tiene que cubrir las 24 horas completas del día; sin embargo, se recomienda encarecidamente que lo haga para permitir variaciones en el tiempo de procesamiento debido a los cambios diarios esperados en las cargas de trabajo y la rotación de datos.
Implicaciones para el rendimiento de la copia de seguridad
Una vez desduplicado un conjunto de archivos, puede haber un ligero costo de rendimiento al acceder a los archivos. Esto se debe al procesamiento adicional necesario para acceder al formato de archivo usado por los archivos desduplicados. En este escenario, los archivos son un conjunto de archivos VHDX que son utilizados continuamente por DPM durante el periodo de copia de seguridad. El efecto de tener estos archivos desduplicados significa que las operaciones de copia de seguridad y recuperación pueden ser ligeramente más lentas que sin desduplicación. Como ocurre con cualquier producto de copia de seguridad, DPM es una carga de trabajo intensiva de escritura, donde las operaciones de lectura son más importantes durante la restauración. Las recomendaciones para abordar las implicaciones para el rendimiento de la copia de seguridad debido a la desduplicación son:
Operaciones de lectura/restauración: los efectos en las operaciones de lectura son normalmente insignificantes y no requieren ninguna consideración especial, puesto que la característica de desduplicación almacena en caché los fragmentos desduplicados.
Operaciones de escritura y copia de seguridad: planea un aumento del tiempo en cada copia de seguridad de entre el 5 y el 10 % al definir la ventana de copia de seguridad. (Es un aumento en comparación con el tiempo de copia de seguridad esperado al escribir en volúmenes no desduplicados).
Supervisión
Puedes supervisar DPM y la desduplicación de datos para asegurarte de que:
Se aprovisiona suficiente espacio en disco para almacenar los datos de copia de seguridad.
Los trabajos de copia de seguridad de DPM se completan normalmente
La desduplicación está habilitada en los volúmenes de copia de seguridad
Las programaciones de desduplicación están configuradas correctamente
El procesamiento de desduplicación se completa normalmente y a diario
La tasa de ahorro de desduplicación coincide con las suposiciones realizadas para la configuración del sistema
El éxito de la desduplicación depende de las funcionalidades generales del hardware del sistema (incluida la velocidad de procesamiento de la CPU, el ancho de banda de E/S, la capacidad de almacenamiento), la configuración correcta del sistema, la carga media del sistema y la cantidad diaria de datos modificados.
Puedes supervisar el DPM con la consola central del DPM. Consulta Instalar la consola central.
Puedes supervisar dedup para comprobar el estado de dedup, la tasa de ahorro de espacio y el estado de la programación con los siguientes comandos de PowerShell:
Consultar estado:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Obtener ahorros:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Obtén el estado de la programación mediante el cmdlet Get-DedupSchedule.
Supervisión de eventos
La supervisión del registro de eventos puede ayudar a comprender los eventos y el estado de desduplicación.
Para ver los eventos de desduplicación, en el Explorador de archivos, navega a Registros de Aplicaciones y Servicios>Microsoft>Windows>Desduplicación.
Si el valor LastOptimizationResult = 0x00000000 aparece en los resultados de Windows PowerShell Get-DedupStatus |fl, el trabajo de optimización anterior procesó todo el conjunto de datos. De lo contrario, el sistema no podría completar el procesamiento de desduplicación y es posible que quieras comprobar los valores de configuración, por ejemplo, el tamaño del volumen.
Para obtener ejemplos de cmdlets más detallados, consulta Supervisión e informe de desduplicación de datos.
Supervisión del almacenamiento de copia de seguridad
En nuestro ejemplo de configuración, los volúmenes de 7,2 TB se rellenan con 10 TB de datos "lógicos" (el tamaño de los datos cuando no se desduplica) almacenados en archivos VHDX dinámicos de 10 x 1 TB. A medida que estos archivos acumulan datos de copia de seguridad adicionales, llenarán lentamente el volumen. Si el porcentaje de ahorro que resulta de la desduplicación es lo suficientemente alto, los 10 archivos podrán alcanzar su tamaño lógico máximo y seguirán encajando en el volumen de 7,2 TB (posiblemente incluso haya espacio adicional para asignar archivos VHDX adicionales para que los servidores DPM los usen). Pero si el ahorro de tamaño de la desduplicación no es suficiente, el espacio en el volumen podría agotarse antes de que los archivos VHDX alcancen su tamaño lógico completo y el volumen estará lleno. Para evitar que los volúmenes se llenen, se recomienda lo siguiente:
Sé conservador en los requisitos de tamaño de volumen y permite cierto margen de sobreaprovisionamiento de almacenamiento. Se recomienda contemplar un margen de al menos un 10% al planificar el uso del almacenamiento de copias de seguridad para permitir variaciones esperadas en el ahorro de deduplicación y la fluctuación de datos.
Supervisa los volúmenes que se usan en el almacenamiento de la copia de seguridad para garantizar que la utilización del espacio y las tasas de ahorro de desduplicación se encuentran en los niveles esperados.
Si el volumen se llena, se producen los siguientes síntomas:
La máquina virtual DPM se colocará en un estado crítico de pausa y esa máquina virtual no podrá emitir más trabajos de copia de seguridad.
Se producirá un error en todos los trabajos de copia de seguridad que usan los archivos VHDX del volumen completo.
Para recuperarse de esta condición y restaurar el sistema al funcionamiento normal, se puede aprovisionar almacenamiento adicional y se puede realizar una migración de almacenamiento de la máquina virtual DPM o su VHDX para liberar espacio:
Detén el servidor DPM que posee los archivos VHDX en la compartición de copia de seguridad completa.
Crea un volumen adicional y un recurso compartido de copia de seguridad con la misma configuración y ajustes que se usan para los recursos compartidos existentes, incluida la configuración de NTFS y la desduplicación.
Migra el almacenamiento de la máquina virtual del servidor DPM y migra al menos un archivo VHDX desde el recurso compartido de copia de seguridad completo al nuevo recurso compartido de copia de seguridad creado en el paso 2.
Ejecuta un trabajo de recolección de basura (GC) de desduplicación de datos en el recurso compartido de copia de seguridad original que estaba lleno. El trabajo de GC debería completarse con éxito y liberar el espacio libre.
Reinicia la máquina virtual del servidor DPM.
Se desencadenará un trabajo de comprobación de coherencia de DPM durante la siguiente ventana de copia de seguridad de todos los orígenes de datos que han producido un error anteriormente.
Todos los trabajos de copia de seguridad deberían tener éxito ahora.
Resumen
La combinación de desduplicación y DPM proporciona ahorros de espacio considerables. Esto permite mayores tasas de retención, copias de seguridad más frecuentes y mejor TCO para la implementación de DPM. Las instrucciones y recomendaciones de este documento deben proporcionarte las herramientas y los conocimientos para configurar la desduplicación para el almacenamiento DPM y ver las ventajas de tu propia implementación.
Preguntas frecuentes
P: Los archivos VHDX de DPM deben tener un tamaño de 1 TB. ¿Significa esto que DPM no puede realizar la copia de seguridad de una máquina virtual o base de datos o archivo de SharePoint o SQL de un volumen de tamaño de > 1 TB?
R: No. DPM agrega varios volúmenes en uno para almacenar copias de seguridad. Por lo tanto, el tamaño de archivo de 1 TB no tiene ninguna implicación para los tamaños de origen de datos de los que DPM puede realizar copias de seguridad.
P: Parece que los archivos VHDX de almacenamiento DPM deben implementarse solo en recursos compartidos de archivos SMB remotos. ¿Qué ocurrirá si almaceno los archivos VHDX de copia de seguridad en volúmenes habilitados para desduplicación en el mismo sistema donde se ejecuta la máquina virtual DPM?
R: Como se ha explicado anteriormente, DPM, Hyper-V y la desduplicación son operaciones de almacenamiento e intensivas en computación. Combinar los tres elementos en un único sistema puede dar lugar a operaciones intensivas en E/S y en procesos que pueden privar de recursos a Hyper-V y sus máquinas virtuales. Si decides experimentar con la configuración de DPM en una máquina virtual con los volúmenes de almacenamiento de copia de seguridad en la misma máquina, debes supervisar el rendimiento cuidadosamente para asegurarte de que hay suficiente ancho de banda de E/S y capacidad de proceso para mantener las tres operaciones en la misma máquina.
P: Se recomiendan ventanas de desduplicación y copia de seguridad dedicadas e independientes. ¿Por qué no puedo habilitar la desduplicación mientras DPM realiza la copia de seguridad? Necesito realizar una copia de seguridad de mi base de datos SQL cada 15 minutos.
R: Deduplicación y DPM son operaciones intensivas en almacenamiento, y tener ambas ejecutándose al mismo tiempo puede resultar ineficaz y provocar escasez de E/S. Por lo tanto, para proteger las cargas de trabajo más de una vez al día (por ejemplo, SQL Server cada 15 minutos) y habilitar la desduplicación al mismo tiempo, asegúrate de que hay suficiente ancho de banda de E/S y capacidad informática para evitar el agotamiento de recursos.
P: En función de la configuración descrita, DPM debe ejecutarse en una máquina virtual. ¿Por qué no puedo habilitar la desduplicación directamente en volúmenes de réplica y volúmenes de instantáneas, en lugar de hacerlo en archivos VHDX?
R: Dedup realiza la desduplicación por volumen, operando en archivos individuales. Dado que la deduplicación optimiza a nivel de archivo, no está diseñada para admitir la tecnología VolSnap que DPM utiliza para almacenar los datos de su copia de seguridad. Al ejecutar DPM en una máquina virtual, Hyper-V asigna las operaciones de volumen DPM al nivel de archivo VHDX, lo que permite la desduplicación para optimizar los datos de copia de seguridad y proporcionar un mayor ahorro de almacenamiento.
P: La configuración de ejemplo anterior solo ha creado volúmenes de 7,2 TB. ¿Puedo crear volúmenes más grandes o más pequeños?
A: Dedup ejecuta un subproceso por volumen. A medida que el tamaño del volumen se hace más grande, la desduplicación requiere más tiempo para completar su optimización. Por otro lado, con volúmenes pequeños, hay menos datos en los que encontrar fragmentos duplicados, lo que puede dar lugar a un ahorro reducido. Por lo tanto, es aconsejable ajustar el tamaño del volumen en función del churn total y las capacidades del hardware del sistema para un ahorro óptimo. Puedes encontrar información más detallada sobre cómo determinar los tamaños de volumen usados con deduplicación en Dimensionamiento de volúmenes para Deduplicación en Windows Server. Para obtener información más detallada sobre cómo determinar los tamaños de volumen usados con desduplicación, consulta Tamaño de volúmenes para desduplicación de datos.