Sautez-vous une unité de rack entre les serveurs?


70

Il semble y avoir beaucoup de désaccord dans les mentalités concernant l’installation de serveurs montés en rack. Il y a eu des discussions sur les bras de câbles et autres accessoires pour montage en rack, mais je suis curieux de savoir:

Laissez-vous une unité de rack vide entre vos serveurs lorsque vous les installez? Pourquoi ou pourquoi pas? Avez-vous des preuves empiriques pour soutenir vos idées? Est-ce que quelqu'un est au courant d'une étude qui prouve de manière concluante que l'on est meilleur ou non?

Réponses:


81

Si vos serveurs utilisent un refroidissement continu pour refléter, comme le font la plupart des serveurs montés en rack, laisser des espaces peut réellement nuire au refroidissement. Vous ne voulez pas que l'air froid ait le moindre moyen de se rendre dans l'allée chaude, sauf par le serveur lui-même. Si vous devez laisser des espaces (problèmes d'alimentation, de poids, etc.), vous devez utiliser des panneaux d'obturation afin que l'air ne puisse pas passer entre les serveurs.


6
Oui, si vous laissez un vide, vous devez le remplir avec un panneau pour empêcher cela.
Thomas

2
= 1. Les serveurs et les racks montés en rack sont conçus pour la circulation de l'air avec tous les panneaux et panneaux et tout plein. un peu comme le flux d'air dans un PC est conçu pour avoir toutes les couvertures. contourner la conception en laissant des espaces et / ou en enlevant les panneaux et les couvercles est susceptible de faire plus de mal que de bien.
joeqwerty

23

Je n'ai jamais ignoré des unités de rack entre des périphériques montés en rack dans une armoire. Si un fabricant me demandait de ne pas utiliser de U entre deux appareils, je le ferais, mais je n'ai jamais vu une telle recommandation.

Je m'attendrais à ce que tout appareil conçu pour un montage en rack évacue sa chaleur par les panneaux avant ou arrière. Une partie de la chaleur sera acheminée par les rails et par le haut et le bas du châssis, mais je pense que ce sera très faible comparé au rayonnement de l'avant et de l'arrière.


6
En fait, si vous sautez des unités de rack, vous devez utiliser des caches entre chaque serveur, sinon vous obtiendrez un mélange d'air entre vos allées hautes et froides.
Doug Luxem

22

Dans notre centre de données, nous ne laissons pas de lacunes. Il y a de l'air frais qui monte du sol et des trous causent des problèmes de circulation d'air. Si nous avons un vide pour une raison quelconque, nous le recouvrons d’une plaque vierge. L'ajout de plaques vierges a immédiatement rendu les sommets de nos allées froides plus froids et de nos allées chaudes plus chaudes.

Je ne pense plus avoir les données ni les graphiques, mais la différence était très nette dès que nous avons commencé à apporter des modifications. Les serveurs situés en haut des baies ont cessé de surchauffer. Nous avons arrêté de faire la cuisine (ce que nous faisions à un rythme d’environ 1 / semaine). Je sais que les changements ont commencé après le retour de notre responsable de centre de données après une expo de centre de données vert Sun, où il a assisté à des séminaires sur le refroidissement, etc. Auparavant, nous utilisions des espaces vides, des racks partiellement remplis et des dalles perforées au sol à l'avant et à l'arrière des racks.

Même avec les bras de gestion en place, l'élimination des lacunes a mieux fonctionné. Toutes les températures internes de nos serveurs, partout dans la pièce, sont maintenant conformes aux spécifications. Ce n'était pas le cas avant que nous ayons normalisé notre gestion des câbles, éliminé les lacunes et corrigé le placement de nos carreaux de sol. Nous aimerions faire plus pour diriger l'air chaud vers les unités du CRAC, mais nous ne pouvons pas obtenir de financement pour le moment.


9

Je ne nous saute pas. Nous louons et nous coûtons de l'argent.

Aucune raison de chauffer ces jours-ci. Tout l'air frais entre à l'avant et à l'arrière. Il n'y a plus de trous d'aération dans les sommets.


1
Re: "Nous coûtons de l'argent." J'avais l'habitude de penser que l'espace était un facteur majeur dans la tarification des centres de données. Ensuite, j'ai eu un emploi dans le secteur de l'hébergement. Il s'avère que la plupart des coûts dans un environnement Colo proviennent des circuits électriques et des brasseurs.
JamesBarnett


5

Ne laissez pas d’espace si vous avez de l’air frais venant du sol et utilisez des espaces vierges dans l’espace non utilisé. Si vous ne disposez que d'un système de refroidissement à la fine pointe de la technologie utilisant une unité de climatisation standard, il est préférable de laisser des espaces pour minimiser les points chauds lorsque les serveurs chauds sont encombrés.


4
Si vos serveurs utilisent le refroidissement du ventilateur de l'avant à l'arrière, ce qui n'est pas du tout judicieux pour laisser des espaces vides, cela affectera le flux d'air.
Pauska

5

Nous avons 3 1/2 bâtis de nœuds de cluster et leur stockage dans une installation de colocation. Les seuls endroits où nous avons omis de choisir les unités sont l'endroit où nous devons acheminer le câblage réseau vers le rack central où se trouve le commutateur de cluster principal. Nous pouvons nous permettre de faire autant en termes d'espace, car les racks sont déjà saturés en puissance, il ne serait donc pas possible de leur envoyer plus de nœuds :)

Ces machines fonctionnent 24 heures sur 24, 7 jours sur 7, à 100% de leur CPU, et certaines d'entre elles ont jusqu'à 16 cœurs dans un boîtier 1U (Xeons 4x quad core) et je n'ai encore vu aucun effet négatif de ne pas laisser d'espaces entre la plupart d'entre eux.

Tant que votre équipement dispose d'un circuit d'air bien conçu, je ne vois pas en quoi il importerait.


5

J'ai de grands écarts au-dessus de mon UPS (pour l'installation future d'une deuxième batterie) et au-dessus de ma bandothèque (si j'en ai besoin d'une autre). En dehors de cela, je n'ai pas de lacunes et j'utilise des panneaux pour remplir les espaces vides afin de préserver le flux d'air.


3

Chaque tiers, mais cela est dû aux bras de direction et à la nécessité de les contourner plutôt que de chauffer. Le fait que chacun de ces serveurs dispose de 6 câbles Cat5 leur étant utiles n’aide en rien. Nous utilisons beaucoup de panneaux d'obturation et de barrages d'air au-dessus des bâtis pour empêcher la recirculation à partir de l'allée chaude.

De plus, l’espace est une chose qui ne manque pas dans notre centre de données. Il a été conçu pour une extension lorsque les serveurs 7-10U étaient standard. Maintenant que nous avons opté pour des grappes ESX denses en rack, il s’agit d’une ville fantôme.


OK, 6 câbles, voyons ... 2 interfaces de gestion, 2 interfaces iscsi et 2 .... dédiées au gestionnaire de cluster?
Matt Simmons

N'utilisez pas les bras de gestion et vous ne devez pas sauter d'unités. :)
Doug Luxem

1
6 câbles: 1x carte HP iLO, 1x ESX mgmt LUN, 4x VM Luns. En outre, des fibres pour le SAN. Nous n'avons pas encore quitté iSCSI. Si nous voulions déshabiller complètement les serveurs avant de les retirer, nous irions certainement sans les bras.
sysadmin1138

1
Après avoir vu votre centre de données, je me demande si vous configurez les choses dans une configuration d’allées froides traditionnelles d’allées chaudes plutôt que de vous disperser dans votre pièce géante si vous souhaitez obtenir de meilleures performances thermiques.
Laura Thomas

3

Je ne laisserais pas d'espaces entre les serveurs, mais je le ferai pour des choses comme les commutateurs de réseau local - cela me permet de placer des barres de gestion de câble 1U au-dessus et en dessous ... mais ce n'est définitivement pas fait pour le refroidissement.


2

Pas de lacunes, sauf lorsque nous avons sorti un serveur ou quelque chose d'autre et que nous n'avons pas pris la peine de le réorganiser. Je pense que nous sommes un peu plus petits que la plupart des gens ici, avec deux racks ne disposant que d’une quinzaine de serveurs plus quelques lecteurs de bande, commutateurs et onduleurs.


2

Aucune lacune autre que lors de la planification de l'expansion des systèmes san ou de choses du genre. Nous préférons mettre de nouvelles armoires à proximité des contrôleurs actuels.

Si le refroidissement est correct, il ne sera pas utile de laisser des espaces, sauf si le serveur est mal construit.


2

J'ai l'impression (peut-être à tort) qu'il s'agit d'une pratique plus répandue dans certains environnements de télécommunication où les allées chaudes / froides sont moins utilisées.

Cependant, il n'est pas adapté à un centre de données à haute densité et bien géré.


1

Je laisse généralement une unité vide après environ 5 UG de serveurs (c'est-à-dire 5x1ru ou 1x2ru + 1x3ru) et cela dépend de la configuration du refroidissement dans le centre de données dans lequel vous vous trouvez. Si vous effectuez un refroidissement devant le rack (c.-à-d. Une grille dans l’idée est que l’air froid est poussé du sol et que vos serveurs aspirent l’air froid à travers eux. dans cette situation, vous obtiendrez généralement un meilleur refroidissement en ne laissant pas de logements vierges (c’est-à-dire que vous utiliserez un cache d’Ur vierge. Toutefois, si vous effectuez un refroidissement par le panneau de plancher de votre rack, vous obtiendrez un refroidissement plus efficace en dissociant les serveurs. superposés pour tout le rack


1

Dans une situation où nous avions notre propre centre de données et où l'espace n'était pas un problème, je sautais un U (avec un espaceur pour bloquer le flux d'air) entre les zones logiques: les serveurs Web ont une section, base de données, contrôleur de domaine, courrier électronique, etc. et le serveur de fichiers en avait un autre, et les pare-feu et les routeurs en avaient un autre. Les commutateurs et les panneaux de brassage pour les ordinateurs de bureau périphériques se trouvaient dans leur propre rack.

Je peux me souvenir d'une occasion où j'ai sauté un U pour des raisons de refroidissement. Il s'agissait d'une solution de boucle de télévision par câble A / V dans une école secondaire, dans laquelle trois unités étaient chargées de desservir le système de télévision par câble dans une partie de l'immeuble. Après que l’unité supérieure ait dû être remplacée pour la troisième fois en deux ans en raison d’une surchauffe, j’ai effectué une "intervention chirurgicale" sur le rack afin de percer des trous de montage afin de pouvoir laisser 1 / 2U d’espace entre chacune des trois unités (par exemple total de 1 U espace total).

Cela a résolu le problème. Inutile de dire que cela était parfaitement documenté et, pour plus de précision, j'ai collé une feuille en haut de la feuille pour indiquer pourquoi les choses étaient comme elles étaient.

Il y a deux leçons ici:

  1. Laisser un espace pour le refroidissement ne se fait que dans des circonstances exceptionnelles.
  2. Utilisez un fournisseur de cas ou de serveur réputé. Faites attention à l’achat d’équipement qui essaie d’emballer 2 U de chaleur dans 1 U d’espace. Ce sera tentant, car le système 1U peut sembler beaucoup moins cher. Et soyez prudent lorsque vous achetez un boîtier hors marque qui n'a pas correctement pris en compte le flux d'air.

0

Je les ai empilés dans le seul rack que j'ai. Je n'ai jamais eu de problèmes avec ça, donc je n'ai jamais eu de raison de les espacer. J'imagine que la principale raison pour laquelle les gens les espacent est la chaleur.



0

J'ai déjà laissé un tiers d'unité entre deux commutateurs, principalement parce qu'ils avaient chacun une hauteur d'un tiers.

Si je les avais mis ensemble, la vitesse supérieure aurait été décalée de 1/3 de U.

En dehors de cela, je n'ai jamais laissé d'espace uniquement pour le refroidissement, mais uniquement pour la croissance future.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.