La révolution de la température de fonctionnement

En 10 ans, le datacenter a vécu une révolution particulièrement importante et que l’on oublie trop souvent : la température de fonctionnement des serveurs. Nous avons eu l’occasion d’en discuter durant l'événement Schneider à Paris (5 & 6 avril). 

La situation est très claire : le refroidissement a été entièrement repensé. Durant les premières générations, on pensait refroidissement mécanique donc climatisation. Puis des briques « vertes » furent peu à peu rajoutées pour faire du free cooling, de manière partielle. Le datacenter était pensé d’abord par l’urbanisation et le bâtiment puis le refroidissement. Aujourd’hui, le datacenter est pensé inversement : on conçoit l’architecture de refroidissement avant ou en même temps. 

Le free cooling est la technique la plus utilisée en lieu et place du refroidissement mécanique qui ne sert que quelques heures par jour et selon la température extérieure. Désormais, en France, il est possible d’utiliser le free cooling et donc d’opérer le datacenter à température ambiante que l’on soit à Lille ou à Marseille (oui, oui, Marseille).

Quand on parle de free cooling, on ne parle plus d’eau glacée imposée il y a encore 5-7 ans à des températures basses (maximum 5°). Désormais on parle d’eau tiède/chaude entre 20 et 30°. Ce qui est un changement radical. Cette eau suffit à refroidir les baies à 80 % du temps, en moyenne. 

Il ne faut pas oublier que la climatisation est le gros poste de dépenses et de consommation dans un datacenter, derrière les serveurs. Or, un fonctionnement à -20° ou un fonctionnement ambiant à 27°, cela change tout. Actuellement, les datacenters récentes s’opèrent entre 22 et 28 degrés. 

Cette élévation de la température de fonctionnement est possible en jouant sur 2 points clés :

-      les constructeurs de serveurs/matériels ont relevé leurs spécifications de température, aujourd’hui, il n’est pas rare de voir des préconisations jusqu’à 30°

-      le confinement des allées et des armoires : c’est un des enjeux majeurs. Le contrôle strict des allées chaudes et froides est essentiel avec séparation thermique. L’approche par conteneur (le conteneur physique pas le conteneur de type Docker) a été un accélérateur.

Schneider travaille étroitement avec les constructeurs pour optimiser au mieux le free cooling mais le constructeur reste maître de son matériel et des préconisations de fonctionnement. 

Se pose la question des datacenters anciennes générations qui reposent largement sur le refroidissement mécanique. Ces salles ont parfois plus générations de retard. Et tout va dépendre des opérateurs et propriétaires de ces datacenters, car ce sont des projets coûteux, car il faut revoir l’urbanisation de la salle, réorganiser les armoires, installer des conteneurs et du confinement, installer le système de free cooling. Sans aller jusqu’au free cooling le plus récent, il est possible d’optimiser le circuit frigorifique en déployant des compresseurs hautes performances et les nouveaux fluides. Il sera alors possible d’ajuster plus facilement les températures. Mais attention : une des limites sera la capacité des serveurs à fonctionner à ces nouvelles températures.

Pour optimiser le refroidissement, il faudrait modéliser les flux du datacenter, générer une cartographie précise, mais ces modèles sont peu utilisés quand il s’agit de mettre à jour un datacenter existant. Ce sont des études complexes et coûteuses. 

Merci à François de Schneider France (division climatisation, nouveaux marchés)