Serveurs immergés dans l’huile : des experts modèrent l’enthousiasme


Le refroidissement des serveurs par immersion dans l’huile est une technique prometteuse… à condition de la maîtriser. Tel est en tout cas l’avis de Georges Ouffoué, docteur en informatique, Julien Molina, spécialiste de l’optimisation énergétique et Nicolas Becquet, directeur de projets de conception de datacenters, tous trois salariés d’APL, un prestataire spécialisé dans l’agencement des data centers.

« Dans un contexte de densification des infrastructures numériques, avec l’arrivée des technologies telles que l’intelligence artificielle et le quantique l’immersion cooling – ou refroidissement par immersion des serveurs – pourrait être une alternative prometteuse pour réduire la consommation d’énergie et d’eau des data centers, au côté d’autres technologies telles que le Direct Liquid Cooling. »

« En revanche, l’immersion cooling n’est pas un système adéquat quand il est nécessaire de changer régulièrement des serveurs. La maintenance de ce type d’équipements nécessite l’intervention de personnels formés », écrivent-ils dans une tribune qu’ils ont fait parvenir à la rédaction du MagIT.

Parmi les exemples récents, l’hébergeur OVHcloud avait, fin 2022, fait la publicité de l’un de ses projets de R&D visant justement à immerger ses serveurs. L’année dernière, des tests avaient été menés. Mais, à date, OVHcloud semble encore privilégier en production des systèmes de type Direct Liquid Cooling qui consistent à faire circuler des tuyaux d’eau à la surface des composants les plus chauds. Dernièrement, Schneider Electric démontrait que ces dispositifs ne compliquent plus le remplacement des serveurs, grâce à un système de pression négative qui permet de simplement débrancher les tuyaux.

1 500 fois plus efficace que la ventilation

« Le refroidissement des serveurs est assuré par la circulation de l’huile par convection, ce qui limite l’utilisation de systèmes de climatisation énergivores. »
Georges Ouffoué, Julien Molina, Nicolas BecquetAPL

Évoquée comme un système de refroidissement expérimental depuis au moins 2018, l’immersion des serveurs dans un liquide a ceci d’intéressant qu’il suffit d’une pompe aussi peu énergivore que celle d’un aquarium domestique pour arracher les calories des composants électroniques avant qu’ils ne disjonctent en atteignant une température fatale de 70 °C.

« Le refroidissement des serveurs est assuré par la circulation de l’huile par convection, ce qui limite l’utilisation de systèmes de climatisation énergivores. Un système d’autant plus efficace que l’huile est un excellent conducteur de chaleur. Bien plus que l’air. À volume égal, les huiles synthétiques utilisées seraient capables d’absorber 1 500 fois plus d’énergie thermique. »

« Concrètement, la chaleur produite par les composants électroniques des serveurs (CPU, GPU…) est transférée à l’huile, qui elle-même évacue cette chaleur vers une boucle d’eau grâce à un échangeur. De fait, le besoin de climatisation (groupes froids) est considérablement réduit. Et l’absence de ventilateur sur chaque serveur rend ces derniers également moins énergivores », détaillent les experts, qui précisent que l’eau chaude peut être récupérée à des fins de chauffage ou refroidie par évaporation à l’air libre.

Accessoirement, des expérimentations menées par APL auraient démontré que l’immersion cooling avec un liquide diélectrique à base de silicone engendrerait entre 30 et 50 % moins d’émissions de CO2 que le refroidissement classique. Du moins en prenant en compte tout le cycle de vie – fabrication, transport, utilisation et fin de vie – des équipements et du liquide.

Peu de serveurs sont compatibles

Malgré leur efficacité et leurs quelques années d’existence, les systèmes de refroidissement par immersion restent pour autant peu répandus. En cause, leur mise en place qui n’a rien à voir avec celle des installations classiques dans les datacenters. Il ne s’agit plus de ranger horizontalement les serveurs dans des étagères qui montent jusqu’au plafond, mais de les plonger verticalement dans des bassines dont toute la longueur occupe surtout de la surface au sol.

Par conséquent, le principal cas d’usage du refroidissement par immersion est celui d’un maximum de puissance de calcul dans un minimum d’espace. 

« C’est le cas par exemple des solutions dédiées à l’intelligence artificielle, aux jeux en ligne, mais également de tous les centres de données avec supercalculateurs (laboratoires de recherche, aéronautique, finance pour certaines opérations spécifiques, santé…). Dans ces exemples, les baies peuvent aujourd’hui accueillir 50 kW, voire 100 kW, ou même encore plus », illustre l’équipe d’APL.

Par ailleurs, la conception des serveurs classique n’est pas compatible avec l’immersion. Les pâtes thermiques utilisées se dissolvent dans l’huile, les disques durs ne sont pas assez étanches (les SSD ne posent aucun problème en revanche) et les connexions optiques pourraient souffrir d’une réfaction de leur signal optique. Sans parler des BIOS qui sont programmés en usine pour déclencher une alerte quand on supprime les ventilateurs des serveurs, lesquels sont contre-productifs quand ils sont immergés.

Pas de standard ni de retour d’expérience

« La maintenance est plus délicate, car il faut faire attention à préserver l’intégrité de systèmes qui sont scellés. »
Georges Ouffoué, Julien Molina, Nicolas Becquet APL

Mais le problème principal que pointent les experts d’APL est la maintenance de ces systèmes d’immersion. « La maintenance est plus délicate, car il faut faire attention à préserver l’intégrité de systèmes qui sont scellés. De plus, manipuler le liquide diélectrique requiert du matériel : bacs de fuite, chiffons et gants, blouse de laboratoire, chariot de service, etc. »

« Par ailleurs, si certains liquides diélectriques sont conçus pour minimiser la corrosion, une évaluation approfondie des matériaux est toujours recommandée avant la mise en œuvre », préviennent les experts. Une tâche d’autant plus difficile « qu’il n’existe pas encore de normes ou de standards régissant l’immersion cooling », disent-ils.

Et d’ajouter qu’il existe encore trop peu d’études approfondies, sur les plans techniques et économiques, et trop peu de retours d’expérience sur des cas d’usage de l’immersion cooling « qui soient réussis et maîtrisés à une échelle significative. »

« Des initiatives de standardisation telles que celle de l’OCP (Open Compute Project) ont été lancées. À terme, ces initiatives permettront sans doute à la filière data center de maîtriser de bout en bout la conception, l’exploitation et la maintenance des infrastructures d’immersion cooling », concluent-ils.



Source link