Lignes directrices pour le nombre maximum de disques dans un ensemble RAID?


13

Dans tous les niveaux RAID qui utilisent le striping, l'augmentation du nombre de disques physiques augmente généralement les performances, mais augmente également les risques de défaillance d'un disque de l'ensemble. J'ai cette idée que je ne devrais pas utiliser plus de 6 à 8 disques dans un ensemble RAID donné, mais c'est plus juste une connaissance transmise et non un fait dur par expérience. Quelqu'un peut-il me donner de bonnes règles avec des raisons derrière le nombre maximum de disques dans un ensemble?

Réponses:


10

Le nombre maximal recommandé de disques dans un système RAID varie beaucoup. Cela dépend d'une variété de choses:

  • La technologie de disque SATA tolère des baies plus petites que SAS / FC, mais cela change.
  • Limites du contrôleur RAID Le contrôleur RAID lui-même peut avoir des maximums fondamentaux. S'il est basé sur SCSI et que chaque disque visible est un LUN, la règle 7/14 reste vraie. S'il est basé sur FibreChannel, il peut avoir jusqu'à 120 disques visibles ou plus.
  • Processeur de contrôleur RAID Si vous optez pour tout type de RAID à parité, le processeur de la carte RAID sera le limiteur de la vitesse à laquelle vous pouvez écrire des données. Il y aura un maximum fondamental pour la carte. Vous le verrez lorsqu'un disque tombe en panne dans un LUN RAID5 / 6, car la baisse des performances affectera tous les LUN associés à la carte RAID.
  • La bande passante du bus U320 SCSI a ses propres limites, tout comme FibreChannel. Pour SCSI, conserver les membres RAID sur différents canaux peut améliorer le parallélisme et améliorer les performances, si le contrôleur le prend en charge.

Pour le RAID basé sur SATA, vous ne voulez pas avoir plus d'environ 6,5 To de disque brut si vous utilisez RAID5. Allez au-delà de et RAID6 est une bien meilleure idée. Cela est dû au taux d'erreur de lecture non récupérable. Si la taille de la baie est trop grande, les chances qu'une erreur de lecture non récupérable se produise pendant la reconstruction de la baie après une perte augmentent de plus en plus. Si cela se produit, c'est très mauvais. Le fait d'avoir RAID6 réduit considérablement cette exposition. Cependant, la qualité des disques SATA s'est améliorée ces derniers temps, ce qui peut ne pas rester vrai plus longtemps.

Le nombre de broches dans un tableau ne m'inquiète pas vraiment, car il est assez simple d'atteindre 6,5 To avec des disques de 500 Go sur U320. Si vous faites cela, ce serait une bonne idée de mettre la moitié des disques sur un canal et l'autre moitié juste pour réduire les conflits d'E / S côté bus. Les vitesses SATA-2 sont telles que même seulement deux disques transférés au débit maximum peuvent saturer un bus / canal.

Les disques SAS ont un taux MTBF inférieur à SATA (encore une fois, cela commence à changer), les règles y sont donc moins fermes.

Il existe des baies FC qui utilisent des disques SATA en interne. Les contrôleurs RAID y sont très sophistiqués, ce qui brouille les règles de base. Par exemple, la gamme de baies HP EVA regroupe les disques en «groupes de disques» sur lesquels les LUN sont disposés. Les contrôleurs placent délibérément des blocs pour les LUN dans des emplacements non séquentiels et effectuent un nivellement de la charge sur les blocs en arrière-plan pour minimiser les points chauds. Ce qui est une longue façon de dire qu'ils font beaucoup de travail pour vous en ce qui concerne les E / S à canaux multiples, les broches impliquées dans un LUN et la gestion de la redondance.

En résumé, les taux de défaillance des disques ne déterminent pas les règles relatives au nombre de broches dans un groupe RAID, contrairement aux performances. Pour la plupart.


3

Si vous recherchez des performances, il est important de comprendre l'interconnexion que vous utilisez pour connecter les disques au module RAID. Pour SATA ou IDE, vous envisagerez 1 ou 2 par canal, respectivement (en supposant que vous utilisez un contrôleur avec des canaux indépendants). Pour SCSI, cela dépend fortement de la topologie du bus. Le premier SCSI avait une limite de périphérique de 7 ID de périphérique par chaîne (alias. Par contrôleur), dont l'un devait être le contrôleur lui-même, vous auriez donc 6 périphériques par chaîne SCSI. Les nouvelles technologies SCSI permettent presque le double de ce nombre, vous devriez donc regarder 12+. La clé ici est que le débit combiné de tous les disques ne peut pas dépasser la capacité de l'interconnexion , sinon vos disques seront «inactifs» lorsqu'ils atteignent des performances optimales.

Gardez à l'esprit que les lecteurs ne sont pas le seul maillon faible ici; chaque interconnexion sans redondance se traduit par un point de défaillance unique. Si vous ne me croyez pas, configurez une matrice RAID 5 sur un contrôleur SCSI à chaîne unique, puis court-circuitez le contrôleur. Pouvez-vous toujours accéder à vos données? Ouais, c'est ce que je pensais.

Aujourd'hui, les choses ont un peu changé. Les disques n'ont pas beaucoup avancé en termes de performances, mais les progrès constatés sont suffisamment importants pour que les performances ne soient pas un problème à moins que vous ne travailliez avec des "fermes de disques", auquel cas vous parlez d'une infrastructure entièrement différente.et cette réponse / conversation est théorique. Ce qui vous inquiètera probablement le plus, c'est la redondance des données. RAID 5 était bon à son apogée en raison de plusieurs facteurs, mais ces facteurs ont changé. Je pense que vous constaterez que RAID 10 pourrait être plus à votre goût, car il fournira une redondance supplémentaire contre les pannes de disque tout en augmentant les performances de lecture. Les performances d'écriture souffriront légèrement, mais cela peut être atténué par une augmentation des canaux actifs. Je prendrais une configuration RAID 10 à 4 disques par rapport à une configuration RAID 5 à 5 disques tous les jours, car la configuration RAID 10 peut survivre à une (cas spécifique de) panne de deux disques, tandis que la matrice RAID 5 roulerait simplement et mourrait avec une panne de deux disques. En plus de fournir une redondance légèrement meilleure, vous pouvez également atténuer le «contrôleur en tant que point de défaillance unique» situation en divisant le miroir en deux parties égales, chaque contrôleur ne manipulant que la bande. En cas de panne du contrôleur, votre bande ne sera pas perdue, seulement l'effet miroir.

Bien sûr, cela peut aussi être complètement faux pour votre situation. Vous devrez examiner les compromis impliqués entre la vitesse, la capacité et la redondance. Comme l'ancienne plaisanterie d'ingénierie, «mieux-moins cher-plus vite, choisissez-en deux», vous constaterez que vous pouvez vivre avec une configuration qui vous convient, même si elle n'est pas optimale.


2

RAID 5 Je dirais 0 disque par baie. Voir http://baarf.com/ ou des déclarations similaires par un certain nombre d'autres sources.

RAID 6 Je dirais 5 disques + 1 pour chaque disque de secours par baie. Moins et vous pourriez aussi bien faire RAID 10, plus et vous poussez le facteur de risque et devriez passer à RAID 10.

RAID 10 va aussi haut que vous le souhaitez.


1

J'utilise 7 comme nombre maximum "magique". Pour moi, c'est un bon compromis entre l'espace perdu pour la redondance (dans ce cas, ~ 14%) et le temps pour reconstruire (même si le LUN est disponible pendant la reconstruction) ou augmenter la taille, et MTBF.

De toute évidence, cela a très bien fonctionné pour moi lorsque je travaille avec des boîtiers SAN à 14 disques. Deux de nos clients avaient des boîtiers de 10 disques, et le nombre magique 7 a été réduit à 5.

Dans l'ensemble, 5-7 a fonctionné pour moi. Désolé, aucune donnée scientifique de moi non plus, juste une expérience avec les systèmes RAID depuis 2001.


Donc, vous pourriez dire en toute sécurité "couper votre enceinte en deux", alors, cela ressemble. J'ai un boîtier à 12 disques, j'ai 10 disques, une matrice RAID 10 avec 2 disques de rechange, mais je n'ai pas encore eu à le reconstruire, heureusement.
Matt Simmons,

1

Le maximum effectif est la bande passante du contrôleur RAID.

Disons que le disque lit max à 70 Mo / sec. En période de pointe, vous ne pouvez pas pelleter les données assez rapidement. Pour un serveur de fichiers occupé (RAID 5) ou un serveur db (RAID 10), vous pouvez le faire rapidement.

SATA-2 a une spécification d'interface de 300 Mo / S, SCSI Ultra 320 serait plus cohérent. Vous parlez de 6 à 10 disques parce que vous n'atteindrez pas le pic trop souvent.


0

La limite de disques dans un RAID était autrefois déterminée par le nombre de périphériques sur un BUS SCSI. Jusqu'à 8 ou 16 périphériques peuvent être connectés à un seul bus et le contrôleur comptait comme un seul périphérique - il s'agissait donc de 7 ou 15 disques.

Par conséquent, de nombreux disques RAID étaient constitués de 7 disques (l'un était un disque de secours), ce qui signifiait qu'il restait 6 disques - ou 14 disques avec 1 disque de secours.

Donc, la chose la plus importante à propos des disques dans un groupe RAID est probablement le nombre d'IOPS dont vous avez besoin.

Par exemple, un disque SCSI à 10 000 tr / min peut exécuter environ 200 IOPS - si vous en aviez 7 dans un RAID 5 - vous perdriez 1 disque pour la parité, mais vous auriez alors 6 disques pour la lecture / écriture et un maximum théorique de 1 200 IOPS - si vous besoin de plus d'IOPS - ajoutez plus de disques (200 IOPS par disque).

Et les disques plus rapides 15k RPM SAS peuvent aller jusqu'à 250 IOPS, etc.

Et puis il y a toujours des SSD (30 000 IOPS par disques) et ils sont raidables (bien que très chers).

Et je pense que SAS a une valeur maximale folle pour le nombre d'appareils - comme 16 000 disques


0

Avec RAID6 et SATA, j'ai eu beaucoup de succès avec 11 disques ... Et un hot-spare (certains mauvais contrôleurs auront besoin de deux hot-spare pour faire une reconstruction de RAID6). Ceci est pratique car de nombreux JBOD se présentent en groupes de 12 disques comme le HP MSA60.


0

Jusqu'à ce que vous atteigniez la vitesse maximale du bus au point le plus étroit de la chaîne (carte de raid, maillons), cela peut donc avoir du sens. La même chose lorsque vous ajoutez un grand nombre de cartes réseau 1 GbE à votre bus PCI n'a aucun sens.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.