Windows Server 2012 R2 a supprimé 356 Go à 1,32 Go


13

J'expérimente la déduplication sur un espace de stockage Server 2012 R2. Je l'ai laissé exécuter la première optimisation de déduplication hier soir, et j'ai été heureux de voir qu'il a réclamé une réduction de 340 Go.

entrez la description de l'image ici

Cependant, je savais que c'était trop beau pour être vrai. Sur ce lecteur, 100% de la déduplication provenait des sauvegardes SQL Server:

entrez la description de l'image ici

Cela semble irréaliste, étant donné qu'il existe des sauvegardes de bases de données d'une taille 20x dans le dossier. Par exemple:

entrez la description de l'image ici

Il estime qu'un fichier de sauvegarde de 13,3 Go a été dédoublé à 0 octet. Et bien sûr, ce fichier ne fonctionne pas réellement lorsque j'ai effectué une restauration test.

Pour ajouter l'insulte à la blessure, il y a un autre dossier sur ce disque qui contient presque une To de données qui aurait dû beaucoup se déduper, mais ne l'a pas fait.

La déduplication de Server 2012 R2 fonctionne-t-elle?


5
Je vais devoir me souvenir de celui-là. "Bien sûr, je n'ai pas supprimé vos données parce que vous m'avez énervé. Je les ai dédupliées à 0 octet, c'est tout."
HopelessN00b

Est-il possible qu'il effectue une déduplication en supposant que les données sont relativement les mêmes d'une nuit à l'autre. Autrement dit, si vous avez la première et la dernière sauvegarde, la seule chose chaque nuit serait un instantané des différences, comme VSS. En théorie, il pourrait être possible de le dédoubler à 0 étant donné que les première et dernière copies pourraient être suffisantes pour régénérer le fichier au milieu. Mais comme la restauration a échoué, je vais attendre de voir ce que vous proposez comme explication. Mais votre test n'est pas prometteur ..
MikeAWood

@MikeAWood a également dédupliqué des sauvegardes de bases de données totalement différentes à 0 octet, ce qui est certainement faux. Comme vous l'avez souligné, l'une des choses pour lesquelles je voulais la déduplication est que 90% des sauvegardes de nuit en nuit sont identiques.
Mark Henderson

@MarkHenderson si vous configurez un nouveau lecteur et copiez tout sur celui-ci, cela fonctionne-t-il alors? Juste deviner paresseusement. Peut-être est-il similaire à DFS où le processus de visualisation des données initiales doit être effectué ou il ne fonctionnera pas correctement. Vos résultats sont étranges, sans aucun doute. J'espère que vous avez
compris

@MikeAWood - Je n'ai pas essayé ça. Depuis, j'ai supprimé ce disque et l'ai recréé avec différents paramètres de déduplication, donc je vais voir ce qui se passe ce soir quand un autre vidage s'exécute
Mark Henderson

Réponses:


5

La déduplication fonctionne.

Avec la déduplication, le champ Taille sur le disque perd tout son sens. Les fichiers ne sont plus des "fichiers" habituels mais des points d'analyse et ne contiennent pas de données réelles mais des métadonnées pour que le moteur de déduplication reconstruise le fichier. Je crois comprendre que vous ne pouvez pas obtenir d'économies par fichier, car le magasin de blocs de déduplication est par volume, de sorte que vous n'obtenez que des économies par volume. http://msdn.microsoft.com/en-us/library/hh769303(v=vs.85).aspx

Peut-être que votre travail de déduplication n'était pas encore terminé, si d'autres données n'étaient pas encore dédupliquées. Ce n'est pas super rapide, est limité dans le temps par défaut et peut être limité en termes de ressources en fonction de votre matériel. Vérifiez le calendrier de déduplication du Gestionnaire de serveur.

J'ai déployé dedup sur plusieurs systèmes (Windows 2012 R2) dans différents scénarios (SCCM DP, différents systèmes de déploiement, serveurs de fichiers génériques, serveurs de fichiers de dossiers personnels des utilisateurs, etc.) depuis environ un an maintenant. Assurez-vous simplement que vous êtes entièrement corrigé, je me souviens de plusieurs correctifs pour la fonctionnalité de déduplication (à la fois les mises à jour cumulatives et les correctifs) depuis RTM.

Cependant, certains problèmes empêchent certains systèmes de lire les données directement à partir de fichiers optimisés dans le système local (IIS, SCCM dans certains scénarios). Comme suggéré par yagmoth555, vous devez soit essayer Expand-DedupFile pour le désoptimiser ou simplement faire une copie du fichier (le fichier cible ne sera pas optimisé jusqu'à la prochaine exécution de l'optimisation) et réessayer. http://blogs.technet.com/b/configmgrteam/archive/2014/02/18/configuration-manager-distribution-points-and-windows-server-2012-data-deduplication.aspx https: //kickthatcomputer.wordpress .com / 2013/12/22 / no-input-file-specified-windows-server-2012-dedupe-on-iis-with-php /

Si votre sauvegarde SQL est réellement corrompue, je pense que c'est à cause d'un problème différent et non lié à la technologie de déduplication.


Merci d'avoir répondu. Votre réponse reflète mes propres conclusions. J'ai eu quelques malentendus sur la déduplication et ma méthodologie de test était défectueuse.
Mark Henderson

@Mark quelque chose sur vos malentendus et la méthodologie de test que vous pourriez partager ...? Peut-être dans un article de blog? Serait intéressant d'apprendre car je ne peux pas penser où vous (et donc moi) auriez pu vous tromper. EDIT: J'ai maintenant vu votre réponse ... mais un article de blog serait une bonne lecture si vous en avez un.
Ashley

1
@AshleySteel Je ne blogue plus vraiment. Il était une fois. Le tout s'est résolu à moi de ne pas comprendre comment fonctionne la déduplication de Windows Server ...
Mark Henderson

2

Il semble que j'ai peut-être sauté le pas en disant que ce type de déduplication n'est pas possible. Apparemment, c'est totalement possible, car en plus de ces sauvegardes SQL Server non compressées, j'ai également des sauvegardes de niveau instantané VMWare des VM hôtes.

Comme le suggère yagmoth555, j'ai exécuté un Expand-DedupeFilesur certains de ces fichiers de 0 octet et j'ai récupéré un fichier totalement utilisable à la fin.

J'ai ensuite regardé ma méthode de test pour savoir comment j'ai déterminé que les fichiers n'étaient pas bons, et j'ai trouvé une faille dans mes tests (autorisations!).

J'ai également ouvert un fichier de sauvegarde dédoublé de 0 octet dans un éditeur hexadécimal, et tout semblait OK.

J'ai donc ajusté ma méthodologie de test et tout semble réellement fonctionner. En le quittant, les dédoubles se sont améliorées et j'ai maintenant économisé plus de 1,5 To d'espace grâce à la déduplication.

Je vais tester cela plus en profondeur avant de donner un coup de pouce à la production, mais pour l'instant, cela semble prometteur.


0

Oui, mais je n'ai vu que le cas d'un db de cluster hyperv dédupliqué. 4 To à 400 g et la machine virtuelle était en cours d'exécution. L'OS a été entièrement corrigé.

Pour votre fichier de sauvegarde SQL, est-ce un vidage que vous pouvez y lire? Je vérifierais le contenu. Pour cette partie, je ne peux pas répondre à la façon dont il déduit le fichier ascii.


Ce sont des fichiers binaires, mais comme je l'ai déjà mentionné, tout ce qui s'y trouve est totalement corrompu. Je n'ai pas réellement vérifié le contenu dans un éditeur hexadécimal, et depuis j'ai supprimé ce lecteur et l'ai recréé avec différents paramètres de déduplication, pour voir ce qui se passe ce soir.
Mark Henderson

1
@MarkHenderson Il peut s'agir d'une corruption de bloc dans les métadonnées de déduplication car la taille était 0. Citée; "La déduplication augmente l'impact d'une corruption de bloc unique, car un bloc populaire peut être référencé par un grand nombre de fichiers. Imaginez qu'un bloc référencé par 1 000 fichiers soit perdu en raison d'une erreur de secteur; vous subiriez instantanément une perte de 1 000 fichiers. " Le cmd Expand-DedupFile exclura s'il s'agit d'un mauvais .bak ou d'une corruption
dedup
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.