Pourquoi les disques durs souffrent-ils d'une perte de performances due à une baisse de capacité?


15

Aujourd'hui, je regardais ma fiche technique de disque dur (un Western Digital 500GB WD5000BPKT) et j'ai remarqué que pour toute sa famille, la ligne "Performance" "Host to / from drive (soutenu)" diminue nominalement en lecture et en écriture en raison d'une diminution de la capacité:

entrez la description de l'image ici

Cela me fait me demander pourquoi. Je n'ai remarqué aucun autre paramètre qui diffère sur ce tableau, à l'exception de la capacité de l'appareil (750 Go à 160 Go). J'ai également cherché d' autres familles et j'ai trouvé le même comportement (Samsung et Seagate ne montrent pas ces paramètres de performance sur leurs fiches techniques).

Donc, considérant que tous les disques appartiennent à la même famille et sont essentiellement les mêmes, quelqu'un connaît-il la raison physique exacte de ce comportement?

Réponses:


17

La densité de stockage des disques durs plus gros est supérieure à celle des plus petits. Avec la même vitesse de rotation (7200 tr / min), cela signifie que les données peuvent être lues / écrites plus rapidement.

De la densité de stockage de la mémoire # Effets sur les performances - Wikipedia, l'encyclopédie gratuite :

L'augmentation de la densité de stockage d'un support améliore presque toujours la vitesse de transfert à laquelle ce support peut fonctionner. Cela est plus évident lorsque l'on considère divers supports basés sur disque, où les éléments de stockage sont répartis sur la surface du disque et doivent être physiquement tournés sous la "tête" afin d'être lus ou écrits. Une densité plus élevée signifie que plus de données se déplacent sous la tête pour tout mouvement mécanique donné.

En considérant la disquette comme un exemple de base, nous pouvons calculer la vitesse de transfert effective en déterminant la vitesse à laquelle les bits se déplacent sous la tête. Une disquette standard de 3½ "tourne à 300 tr / min, et la piste la plus intérieure d'environ 66 mm de long (rayon de 10,5 mm). À 300 tr / min, la vitesse linéaire du support sous la tête est donc d'environ 66 mm x 300 tr / min = 19800 mm / minute , ou 330 mm / s. Le long de cette piste, les bits sont stockés à une densité de 686 bits / mm, ce qui signifie que la tête voit 686 bits / mm x 330 mm / s = 226 380 bits / s (ou 28,3 Ko / s) .

Considérons maintenant une amélioration de la conception qui double la densité des bits en réduisant la longueur de l'échantillon et en conservant le même espacement des pistes. Cela entraînerait immédiatement un doublement de la vitesse de transfert car les bits passeraient sous la tête deux fois plus vite. Les premières interfaces de disquette ont été conçues à l'origine avec des vitesses de transfert de 250 kbit / s en tête et étaient déjà surperformées avec l'introduction des disquettes "haute densité" de 1,44 Mo (1 440 Ko) dans les années 80. La grande majorité des PC comprenait des interfaces conçues pour des disques haute densité fonctionnant à la place à 500 kbit / s. Ceux-ci ont également été complètement dépassés par les nouveaux appareils comme le LS-120, qui ont été obligés d'utiliser des interfaces à plus grande vitesse telles que l'IDE.

(c'est moi qui souligne)


Soyez prudent avec la comparaison avec une disquette. L'interface de la disquette (et du ST-506) contient des données brutes vers / depuis le contrôleur sur le PC hôte. Les lecteurs IDE et SATA ont des contrôleurs de disque intégrés qui tamponnent entièrement les données après la tête de lecture. Les taux de transfert PATA / SATA vers / depuis le PC hôte sont indépendants et totalement séparés des opérations de tête R / W. Ces taux de transfert «soutenus» dans le graphique sont des moyennes qui incluent le temps mort ou inactif sur l'interface (pendant que les secteurs sont accessibles / lus) ainsi que les transferts de données complets de 3 Gb / s.
sciure de bois

@sawdust: l'analogie de la disquette est simplement pour illustrer comment une densité plus élevée peut entraîner des vitesses plus élevées. Dire que le taux de transfert d'hôte à lecteur indépendant et totalement séparé du taux de média est un peu exagéré. Le taux de transfert maximal soutenu est moyenné sur une longue période de temps et généralement spécifié pour les lectures séquentielles. Cela permet de maintenir les commutateurs de tête / cylindre au minimum, de sorte que le débit de support est le facteur décisif.
Dennis

OK, ce n'était pas formulé clairement. Étant donné que les temps de transfert de secteur du tampon de tête de lecture vers le secteur et du tampon de secteur vers l'hôte sont additionnés, les deux sont mathématiquement corrélés au taux de transfert moyen. Mais ces deux opérations se produisent séquentiellement et non simultanément. Les données de secteur sont lues dans le tampon (à un taux basé sur la densité de bits du plateau). Il est ensuite validé. La correction d'erreur est appliquée si nécessaire, ou peut-être le secteur doit être relu. Ce n'est qu'après vérification que les données de secteur sont transférées à l'hôte (au rythme de l'interface, dans ce cas SATA II 3Gb / sec).
sciure

4

Eh bien, tous les disques sont censés avoir la même taille (comme en hauteur, largeur, profondeur). Ainsi, pour adapter plus de données à cette taille, les données doivent être compressées à une densité plus élevée.

Les pièces mobiles (comme la tête) des disques durs se déplacent probablement toutes à la même vitesse.

Ainsi, si vous augmentez la densité des données, mais que la vitesse à laquelle vous déplacez lesdites données reste constante, vous augmentez le débit global.


1
Oui, mais - un lecteur typique peut avoir un, deux ou trois plateaux. La capacité totale n'est pas un indicateur absolu de la densité des données. Voici un article ( rml527.blogspot.com/2010/10/… ) qui répertorie les disques Western Digital 2,5 pouces avec des densités de 160 Go, 250 Go, 320 Go et 500 Go par plateau.
Dave Becker

3

Je crois que le format avancé fait référence à l'utilisation de secteurs 4k au lieu de 512 octets. Entre autres choses, ce changement signifiait que moins de bits sur le plateau devaient être utilisés pour les codes ECC. Par conséquent, un peu moins de bits doivent être lus pour obtenir une quantité donnée de données du lecteur; avec tout le reste identique, cela entraînerait un taux de transfert maximal légèrement plus élevé. C'est probablement l'explication de la différence entre les deux disques de 500 Mo.


1

Eh bien, juste une supposition sauvage, mais:

Un disque dur est divisé en plusieurs pistes, chacune divisée en plusieurs blocs également gros.

Lors de la lecture des données, un disque dur déplace d'abord sa tête sur la piste de droite, puis attend jusqu'à ce que le disque ait tourné vers le bloc de droite. Pour une lecture consécutive de fichiers plus volumineux s'étendant sur plusieurs blocs et pistes, ce mouvement doit se produire assez souvent. (encore plus avec une fragmentation plus élevée)

Les disques plus gros ont un taux de données plus élevé stocké sur chaque piste ou contiennent un disque supplémentaire. De cette façon, la tête n'est pas obligée de bouger souvent, ce qui augmente efficacement le taux de transfert.

(lire les temps d'accès sur wikipedia )


1

En plus des densités de bits plus élevées, une autre réponse possible est que les plus grands disques durs ont PLUS de plateaux / disques. Avec plus de plateaux, vous voyez plus de bits en même temps sans avoir à déplacer les têtes de lecture. De plus, certains lecteurs sont équipés de plateaux 2 faces avec le même effet

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.