Les serveurs disposent certainement de fonctionnalités de ventilation et d’auto-refroidissement, pour autant il serait difficile de les qualifier de créatures à sang chaud. Chaque augmentation de 0,5 °C de la température ambiante résulte en une augmentation de 0,5 °C pour le CPU moyen. En d’autres termes, il existe une évidente corrélation entre la température du datacenter et celle de l’équipement des racks.
Quand, exactement, cela devient-il un problème ? Cela varie en fonction de l’équipement, pour autant la plupart des CPU risquent de fondre si un serveur est autorisé à fonctionner à des températures comprises entre 30 et 35 °C pendant plus de quelques minutes.
La majorité des datacenters visent des températures ambiantes plus basses, généralement en conformité avec la plage recommandée par l’ASHRAE : à savoir des températures comprises en 18 et 27 °C (la variabilité est influencée par des facteurs tels que l’humidité et le point de rosée). Cette plage est manifestement inférieure au point de non retour d’un CPU ; cependant, la température du datacenter dans les installations modernes à haute densité n'est guère statique d’un rack à l’autre. Les points chauds liés à des insuffisances en termes de flux d’air ainsi qu’à d’autres conditions perturbatrices peuvent entraîner des cas isolés d’équipements critiques sujets à un risque de surchauffe.
De plus, la question de température du datacenter ne se limite pas uniquement à ce qui se passe actuellement, mais également à ce qui pourrait se produire. Le passé nous fournit quantité de récits dramatiques résultant de défaillances d’unités CRAC et entraînant des pics de température dangereux. Il est certain que le fonctionnement de vos serveurs à des températures plus élevées s’avère plus efficace : cela permet autant d’économiser de l’argent que de préserver l’environnement. Cependant, un fonctionnement plus proche des limites signifie que les températures augmenteront à des niveaux dangereux beaucoup plus rapidement en cas de défaillance d’unités CRAC.
Le propos ici n’est pas de décourager les responsables de datacenter à faire fonctionner les équipements à chaud. Il s’agit plutôt de les encourager à s’assurer qu’ils disposent de la visibilité de la température nécessaire pour réagir rapidement s’ils découvrent des signes de température de rack dépassant les seuils de sécurité. L’équipement du datacenter ne se plaindra pas en cas de situation d’inconfort. Il s’arrêtera simplement, et vos opérations critiques avec.
Laissez parler la surveillance de la température en temps réel
L’ASHRAE recommande d’installer un minimum de six capteurs de température par rack. Trois à l’avant (en haut, au milieu et en bas) et trois à l’arrière afin de surveiller les températures d'admission et d'évacuation d'air. Les sites à haute densité utilisent souvent plus de six capteurs par rack afin de créer des modèles de température et de flux d’air plus précis, ce qui est fortement recommandé, en particulier pour les datacenters fonctionnant à une température ambiante de 26,6 °C.
Pourquoi donc ? Réponse simple : vous ne pouvez pas découvrir un point chaud si vous ne pouvez pas le voir. La surveillance de la température en temps réel connectée au réseau de votre datacenter informe le personnel désigné par SNMP, SMS ou e-mail dès que le seuil de température de sécurité est dépassé.
Et encore une fois, plus il y a de capteurs, mieux c’est. Il est appréciable de savoir que vous disposerez à tout moment d’un système d’alerte en temps réel pour vous prévenir. Il est encore mieux de pouvoir examiner un modèle généré par ordinateur alimenté par de nombreux capteurs de rack, afin de pouvoir remonter jusqu’à la cause de la déviation.
Pour autant, ne laissez pas vos serveurs attraper froid.
De fait, bien moins de responsables de datacenter s'inquiètent de températures plus froides que la moyenne étant donné la quantité de chaleur que les serveurs ont tendance à générer. Néanmoins, laisser la température descendre en dessous de 18,3 °C s’avère risqué pour une raison différente.
Des températures d’air ambiant plus basses peuvent contenir moins d’humidité. En conséquence, une humidité relative élevée dans un environnement à basse température entraînera de la condensation. Et comme la plupart d’entre nous le savent depuis le cours de sciences au collège, l’eau et l’électricité ne font pas bon ménage. L’humidité peut rapidement affecter, et cela de manière irréversible, le CPU et la carte mère d’un serveur.
Par conséquent, il est important d’envisager la gestion de la température du datacenter comme un acte d’équilibrage. Laisser les températures chuter sans tenir compte d’autres variables environnementales, à savoir l’humidité et le point de rosée, créera un risque inutile pour votre équipement. De plus, il existe rarement une justification pour une capacité de refroidissement allant en dessous de 18,3 °C. La dernière chose dont vous avez besoin en termes d’efficacité énergétique de l’alimentation (PUE) est que de l’énergie soit consommée pour refroidir votre site en dessous des températures recommandées.
Pour éviter que vos serveurs n’attrapent froid, assurez-vous d’associer à vos moniteurs de température un réseau de capteurs d’humidité et de point de rosée. En coordination avec vos capteurs de température, les responsables des sites seront informés en temps réel si l’humidité relative, ou la température, atteint un niveau introduisant un risque de condensation. À l’inverse, si les niveaux d’humidité sont trop faibles, l’air peut devenir suffisamment sec pour induire des charges électrostatiques pouvant endommager les composants électroniques sensibles.
Et oui, votre équipement de datacenter critique requiert effectivement beaucoup d’attention. Et cela ne changera probablement pas. Mais avec une surveillance complète du datacenter, vous saurez exactement ce dont vos serveurs ont besoin au moment où ils en ont besoin.