Quelle est la température correcte pour une salle de serveur?


63

Quand je travaillais dans notre salle des serveurs, j'ai remarqué qu'il faisait très froid.

Je sais que la salle des serveurs doit être froide pour compenser la chaleur des serveurs, mais il fait peut-être TROP froid.

Quelle est la température appropriée pour garder notre salle de serveur?


1
Ça dépend. De nombreux serveurs modernes sont parfaitement satisfaits de la température de fonctionnement à 45 degrés Celsius. Les USV doivent en sortir - les battteries ne l'aiment pas. Mais pour le serveur ... ça peut aller. Les vieilles machines s'étouffent à cette température.
TomTom

Réponses:


53

Les recommandations sur la température de la salle des serveurs varient considérablement.

Ce guide dit que:

Les recommandations générales suggèrent que vous ne devriez pas aller en dessous de 10 ° C (50 ° F) ni au dessus de 28 ° C (82 ° F). Bien que cela semble être une large plage, ce sont les extrêmes et il est beaucoup plus courant de maintenir la température ambiante entre 20 et 21 ° C (68 et 71 ° F). Pour diverses raisons, cela peut parfois être une tâche difficile.

Cette discussion sur Slashdot apporte une variété de réponses mais la plupart d’entre elles se situent dans la plage citée ci-dessus.

Mise à jour : Comme d'autres personnes l'ont commenté ci-dessous, Google recommande une température de 26,7 ° C (80 ° F) pour les centres de données.

En outre, la Société américaine des ingénieurs en chauffage, en réfrigération et en climatisation (ASHRAE) a récemment mis à jour la plage de température recommandée entre 18 ° C et 27 ° C (64,4 ° F et 80,6 ° F).

Cependant, cet article souligne qu'il n'y a toujours pas de consensus sur le sujet. Comme mentionné dans l'article, je voudrais souligner que:

Le fait de pousser le thermostat plus haut peut également laisser moins de temps pour récupérer après une panne de refroidissement et ne convient que pour les entreprises ayant une connaissance approfondie des conditions de refroidissement de leur installation.

La plupart des entreprises de l’OMI n’auraient pas une aussi bonne compréhension des conditions de refroidissement et il serait donc plus sûr, dans un environnement de petite entreprise, d’avoir des salles un peu plus fraîches.

NB: Il est important de noter qu'il y a beaucoup plus de facteurs à prendre en compte dans un serveur / salle informatique que la température, le débit d'air et l'humidité par exemple, sont également des préoccupations importantes.


1
En fait, Google recommande d’envisager de le réduire à 80 ° F pour économiser de l’énergie. Vous
trouverez

1
Merci de mettre à jour la réponse en précisant que, ma réponse initiale était davantage adaptée aux salles de serveur de bureau ordinaires - où une marge de manœuvre plus importante de l'OMI pourrait être requise en cas de panne de refroidissement (ou une plus grande attention portée au flux d'air, etc.
Mundeep,

36
Il est important de garder à l'esprit que Google fonctionne sur le modèle de défaillance attendu. Au lieu de serveurs coûteux et tolérants aux pannes comme la plupart des entreprises, Google utilise à la place un logiciel hautement personnalisé. Google s’attend totalement à ce que ses serveurs meurent régulièrement (mais le logiciel doit éviter la défaillance). Dans le modèle de calcul des coûts de Google, il peut donc être judicieux de faire fonctionner leurs salles de serveurs à 80 degrés, car l'augmentation des pannes matérielles (très économiques) est facilement compensée par les économies d'énergie. Quelques serveurs morts à 6 000 $ permettent-ils de réaliser des économies d’électricité dans votre entreprise?
David

quel est le problème avec <50 & deg; F? Je suis curieux, car je connais quelques centres de données dans des environnements «extrêmes» qui ne font que s’aérer vers l’extérieur pour se rafraîchir… et qui se souvient de Kryotech? la première entreprise à obtenir des PC grand public 1Ghz mais à sur-refroidir les processeurs Athlon 600Mhz à -40 & deg;
Warren

10

Les meilleures pratiques de centre de données de Google recommandent 80 degrés:

L'augmentation de la température de l'allée froide réduira la consommation d'énergie de l'installation. N'essayez pas de gérer votre allée froide à 70F; Réglez la température à 80 ° F ou plus - pratiquement tous les fabricants d’équipement le permettent.

Nous courons à 72 ans, mais là encore, je ne fais pas vraiment confiance à ce que notre propre chambre ait été conçue avec le flux d'air à l'esprit.


8

Comme d’autres l’ont dit, dans les années 70, le F est bon. Cependant, il est encore plus crucial de s’assurer que le rack et le matériel qu’il contient «respirent». Si de l'air chaud est emprisonné dans le rack - ou dans un châssis de serveur -, la température ambiante basse ne sera pas très utile.


4

Ma salle des serveurs est réglée à 69 degrés. Nous avons une unité de climatisation qui dessert cette pièce et fonctionne 24 heures sur 24, 7 jours sur 7 pour maintenir la pièce à 69 degrés toute l'année.


4

Toutes les salles de serveurs que j'ai vues se situent généralement entre 20 et 25 ° C, mais l'expérience m'a montré que le matériel est plus sensible aux variations que la température. J'ai souvent vu des pannes matérielles se produire après une hausse de 4 à 5 ° C, même entre 20 et 25.

La stabilité est donc essentielle, de même que la circulation de l'air.


4

18 ° C (65 ° F). C'est un peu plus froid qu'il ne le faut, mais si quelque chose ne se passe pas bien, cela nous laisse quelques précieuses minutes supplémentaires pour réagir avant qu'il ne fasse trop chaud.


2

N'oubliez pas que les conseils de Google à 80 ° F n'incluent pratiquement aucun coût pour arrêter un centre de données lorsqu'il surchauffe en raison d'une charge imprévue ou d'une défaillance de la climatisation. Ils incluent également un meilleur contrôle du flux d’air sur les composants critiques.


1

Nous aimons avoir entre 19 et 23 ° C et des alarmes à 28 °. Nous sommes un serveur lame à 98% de HP. Par conséquent, si nous atteignons ce niveau d’alarme, certains serveurs / boîtiers "réduisent leur puissance" pour réduire la consommation électrique globale ( ça s'appelle thermalogic).


1

D'après mon expérience, cela dépend de l'équipement. Je sais qu'une société avait trois salles de serveur. L'un était maintenu à environ 20 ° C, l'autre, avec moins de serveurs, à environ 23 ° C, et le troisième, avec seulement deux serveurs, à environ 20 ° C. Je n’ai jamais eu de problème pendant la période où j’étais là-bas, mais, comme d’autres l’ont déjà dit, il est probablement préférable d’utiliser une température inférieure à 75 ° C (75 ° F), car cela laisse un peu de marge de manœuvre si le climatiseur s’éteint.


0

Tout dépassement supérieur à 30 ° C au niveau des entrées d’air entraîne des avertissements de température (que nous surveillons). En général, cela signifie une température ambiante ambiante inférieure à 25 ° C.

En Australie, il semble qu'Emerson (Liebert) ait décidé que 21c serait la norme et chaque pièce dans laquelle je me suis rendu a été réglée de la même manière.

Si votre pièce est assez grande, jetez un coup d'œil sur les carreaux chauds / froids, obturateurs et similaires, ils peuvent vraiment améliorer l'efficacité du refroidissement.


0

Je suis dans la marine. Sur notre navire, nous avons gardé nos chambres à moins de 65 degrés Fahrenheit. Nous serions au milieu de la mer Rouge et il ferait 120 degrés à l'extérieur. Nous sortions de l'espace (à 62 degrés) avec un pull, des gants, un manteau et un caban et tout le monde nous regardait comme si nous étions fous. Tout le monde était rayé comme un t-shirt et transpirait comme un fou.

Le problème est que notre système de refroidissement n’élimine pas très bien l’humidité. Donc, si il fait humide à l'extérieur et que la température monte à 70 degrés ou plus, il commence à devenir collant dans l'espace.


6
Bonjour Justin, bienvenue sur ServerFault. Ce que vous avez écrit ici est une anecdote amusante, mais ce n’est pas vraiment une bonne réponse à la question. Une réponse aurait inclus des éléments à prendre en compte et / ou des recommandations de meilleures pratiques. Vous voudrez peut-être jeter un coup d'œil à ceci: serverfault.com/questions/how-to-answer
quux

0

Il n'y a pas de réponse définitive à cette question. Cela dépend beaucoup du type d'ordinateurs et de la conception du centre de données.

L'un des points clés de cette discussion limpide est que la vraie difficulté est de gérer les points chauds et le flux d'air .

Une température ambiante fraîche dans la pièce est un moyen facile de refroidir les milliers de points chauds de la pièce. Mais c’est inefficace: le centre de données refroidit l’ensemble de la pièce alors que tout ce qui est nécessaire est de refroidir les parties les plus chaudes des serveurs (processeurs, mémoire, stockage, sources d’alimentation , etc.). De nombreuses installations de colocation ont des clients avec des types de matériel disparates (115 V ou 208 V, bonnes conceptions, mauvaises conceptions).

Un centre de données doit également maintenir suffisamment d'air froid pour fournir une mémoire tampon en cas de panne de courant . Un tampon d'air froid signifie que l'onduleur et les générateurs fonctionnent moins. Imaginez qu'un centre de données perde 100% d'énergie (tous les nœuds tombent en panne, le refroidissement s'arrête également) en une seule fois. Les nœuds ne sont peut-être pas alimentés, mais le matériel met du temps à se refroidir et continue à émettre de la chaleur pendant un certain temps, ce qui peut rendre un centre de données très chaud.

Les organisations disposant de salles de serveurs chauffées utilisent souvent des armoires fermées et des conduits sophistiqués pour diriger l'air froid directement sur les nœuds chauds. Une infrastructure électrique spécialisée peut aider à réduire la chaleur produite par la conversion d'énergie. Cela maintient les nœuds suffisamment froids, même si la température ambiante dans la salle des serveurs est chaude. Ces organisations ont généralement un contrôle étroit sur la plupart des aspects de leur matériel et peuvent personnaliser l’ensemble du centre de données en fonction de leurs besoins. Ils peuvent faire des investissements et en tirer profit.


0

Premièrement: où mesurez-vous la température ambiante? ;-) Quelle est la température du côté froid du rack? quel est le côté chaud rack à? à quoi est-ce que la température d'admission de A / C à?

Cela dépend vraiment des appareils. (sentez la chaleur qui sort d'une xbox) La gestion thermique est une science, Regardez Honda (et bien d'autres) commencent à arroser les gaz d'échappement ;-) ...

Je vais vous dire ceci, des centres de données dans lesquels je suis allé:

Equnix maintient le froid de DC (une bonne expérience pour les visites des membres de l'exécutif)

RW les garde au chaud environ 80 pieds avec un air assez froid sortant du sol (meilleure conception de la salle / du coffre-fort et de la conception du système de meilleure qualité)

Coresite (du moins où je suis allé) est plus proche de RW, mais cela dépend du client et des clients. Certains CR à 80 d'autres à 70. (Iles froides toujours froides)



-2

La température que vous souhaitez vraiment surveiller est la température interne du serveur, et non la température ambiante externe. Surveillez la température de votre serveur (tous les serveurs ont des thermomètres internes qui transmettent des informations via l'interface du serveur) et ajustez votre température ambiante en conséquence. Cela prend en compte le débit d'air, etc. Il est judicieux de disposer d'un plan de refroidissement de secours, même les unités de climatisation portables peuvent sauver la vie en cas de défaillance du système de refroidissement principal.


7
C'est vraiment un mauvais conseil. Heureusement que le PO ne le verra probablement pas. Mais ignorer la température ambiante est un excellent moyen de transformer tous vos serveurs en des arrêts de porte coûteux lorsque vous refroidissez la pièce en dessous du point de rosée et que l'eau se condense sur toutes les surfaces métalliques. Je le recommande vivement pour les opérations de sabotage, car il est dévastateur et pratiquement impossible de prouver l'intention.
HopelessN00b

-5

J'ai trouvé 19-21 une bonne température. Google gère ses salles de serveurs à une température légèrement supérieure à celle que vous utiliseriez avec epxect, car elles trouvaient que le taux de défaillance légèrement supérieur était meilleur que de payer le supplément en refroidissement.


9
Ne fais pas ça. Répondez à une question trois ans et demi plus tard sans rien qui ne figure déjà dans les autres réponses.
HopelessN00b
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.