L'IA, l'arme des Gafam face au défi climatique des data centers

L'IA, l'arme des Gafam face au défi climatique des data centers L'intelligence artificielle est utilisée par Google, Meta et Microsoft pour optimiser la consommation des serveurs en énergie et en eau. Elle permet aussi de concevoir des catalyseurs d'hydrocarbure à faible emprunte carbone pour les générateurs.

Les centres de données ont absorbé 1% de l'énergie totale produite à travers la planète en 2020. Un niveau, qui avec la hausse exponentielle des données stockées, pourrait atteindre un cinquième de la consommation mondiale en 2025, selon l'International Energy Agency. Et d'après un rapport du Sénat publié en en juin 2020, les data centers sont responsables de 14% de l'emprunte carbone du numérique en France. L'énergie absorbée par ces sites est principalement destinée à alimenter les serveurs dont la chaleur est ensuite majoritairement rejetée dans l'environnement, et ce quel que soit que soit le système de refroidissement : climatisation par air ambiant, par eau… A l'heure où le changement climatique ne fait plus débat, les grands acteurs de ce marché se tournent massivement vers les énergies vertes. En parallèle, ils misent sur l'IA pour optimiser leur dépense en énergie et liquide de refroidissement.

L'un des premiers à s'être engagé dans cette voie n'est autre que Google. Le groupe de Mountain View développe dès 2016 un moteur de recommandation pour optimiser l'efficacité énergétique (ou PUE) de ses centres de données. Basé sur deux ensembles de réseaux de neurones, il ingère des historiques de mesures glanée par des milliers de capteurs installés dans chaque data center : température, pression, puissance, débit de pompe… A cela vient s'ajouter des données météo. Une fois entraînés, les modèles anticipent sur une plage de quelques heures les conditions atmosphériques auxquelles les serveurs seront confrontés, puis recommandent des actions à mener pour améliorer le PUE. Des conseils identifiés en fonction des décisions prises dans le passé, puis affinés par le biais de simulations. Les résultats d'un premier déploiement ayant été probants, Google a depuis mis en place le système dans l'ensemble de ses data centers.

Ajuster le refroidissement en temps réel

En 2018, Google est passé à la vitesse supérieure avec le déploiement d'une IA d'optimisation en temps réel. Baptisée "système de contrôle automatisée de niveau 2", elle s'adosse aux travaux déjà réalisés. "Elle se traduit par des ajustements plus précis que ceux réalisés généralement par un humain", indique Joe Kava, vice-président des data centers chez Google dans les colonnes de DataCenter Knowledge. "Si par exemple la température extérieure passe de 22 à 24 degrés celsius, un opérateur humain n'aurait pas le réflexe de modifier les paramètres du système de refroidissement estimant que la température du bulbe humide en entrée du système est à peu près la même et que les conséquences seraient minimes en matière de PUE."

"L'objectif est de rationnaliser la conception des baies et l'agencement des serveurs pour minimiser le gaspillage en énergie, capacité réseau et refroidissement"

Fin 2021, Microsoft lui emboite le pas. Il déploie des "méthodes de détection d'anomalie", là encore à base d'IA. Les modèles en question ingèrent les données de télémétrie des équipements électriques et mécaniques des centres de données du groupe. "L'objectif est double : d'une part optimiser la consommation électrique et d'eau des équipements existants, d'autre part rationnaliser la conception des baies et l'agencement des serveurs afin de minimiser le gaspillage en énergie, en capacité réseau et en refroidissement", explique-t-on chez Microsoft.

Idem du côté de Meta. Le groupe de Mark Zuckerberg se tourne en parallèle vers l'apprentissage par renforcement pour limiter la quantité d'air utilisée par ses data centers à des fins de refroidissement. En fonction de la configuration des infrastructures de serveurs, de la chaleur produite, des données météo et de la température idéale à atteindre, il fait appel au reinforcement learning pour entrainer par essai-erreur un moteur de deep learning. L'enjeu ? Régler la captation de fluide au plus juste en vue, in fine, de réduire les volumes d'air chaud rejetés.

Un catalyseur d'hydrogène

Chez Meta, on recourt également à l'IA pour concevoir du béton plus vert destiné à la construction des centres de données. Le défi est de dénicher des alternatives au ciment, composant majeur du béton, dont la production implique de grande quantité d'énergie et l'émission d'un niveau élevé de CO2. Parmi ces alternatives, la R&D du groupe américain identifie les scories, le verre broyé ou encore la cendre volante issue de la combustion du charbon. Le rôle de l'IA ? Détecter la recette optimale parmi quelque 1 000 configurations différentes de mélanges. Et ce, en fonction des critères recherchés : résistance, isolation, durabilité du matériaux…

"Nous développons une IA pour prédire les interactions atomiques beaucoup plus rapidement que les simulateurs d'aujourd'hui"

Toujours dans la logique d'aboutir à des data centers plus verts, Meta, en lien avec l'Université de Carnegie, met au point des modèles d'apprentissage chimique visant à concevoir un catalyseur d'hydrogène à faible consommation d'énergie. Un hydrocarbure sans aucune émission de polluant (il ne génère que de l'eau) qui pourra ensuite venir alimenter les générateurs de secours des data centers de l'entreprise.

"Découvrir des catalyseurs est un processus ardu. En supposant qu'un catalyseur est créé à partir de trois des 40 métaux connus, il existe déjà près de 10 000 combinaisons d'éléments. Et sachant que chaque combinaison doit ensuite être testée en ajustant  les configurations et ratios d'éléments, on aboutit à des milliards de possibilités à tester", explique Larry Zitnick, chercheur au sein du laboratoire Meta AI. "Pour relever ce défi, nous développons une IA conçue pour prédire avec précision les interactions atomiques beaucoup plus rapidement que les simulateurs d'aujourd'hui. L'objectif étant de couvrir des milliards de catalyseurs possibles par an."

Microsoft, Google et Meta ont tous pris des engagements en matière de transition énergétique. Le premier s'engage à alimenter ses centres de données à 100% en énergies renouvelables (décarbonées) d'ici 2025, et le deuxième d'ici 2030. Quant à Meta, il affirme avoir atteint cet objectif dès 2020.