L'IA à l'épreuve de l'urgence climatique

L'essor fulgurant de l'intelligence artificielle (IA) depuis novembre 2022, soulève un défi de taille : comment concilier cette révolution avec l'impératif de durabilité énergétique ?

L'essor fulgurant de l'intelligence artificielle (IA) depuis novembre 2022, porté par des avancées technologiques majeures telles que ChatGPT, soulève un défi de taille : comment concilier cette révolution avec l'impératif de durabilité énergétique ? 

Derrière les promesses de gains de productivité se cache une réalité préoccupante. Selon un rapport de Schneider Electric, « The AI Disruption: Challenges and Guidance for Data Center Design », publié en décembre 2023, la consommation électrique mondiale liée à l'IA pourrait atteindre entre 14 et 19 gigawatts d'ici 2028, équivalant à celle de plus de 34 millions de foyers français !

Des besoins colossaux en calcul intensif

L'IA est une nouvelle révolution industrielle. Selon les prévisions du Gartner, les dépenses mondiales en logiciels d'IA augmenteront de 19,1 % par an en moyenne au cours des six prochaines années. Sa consommation énergétique est liée à la puissance de calcul nécessaire pour des algorithmes auto-apprenants, qui ingèrent et génèrent en continu d'immenses volumes de données ayant besoin d’infrastructures de calcul haute performance (HPC). 

Ces calculs intensifs se font essentiellement dans les data centers ou dans des centres spécialisés dans le supercalcul qui hébergent des infrastructures HPC extrêmement puissantes. Face à la complexité et à l'intensité de ces charges de travail, l'adoption de l’IA vient percuter les feuilles de route environnementales des entreprises en général et des géants du numérique en particulier.

Optimiser les infrastructures pour gagner en efficacité

Face à ce défi, il faut repenser la conception des infrastructures numériques. Concentrer les tâches les plus énergivores (entrainement et inférence des modèles d’IA) au sein d'infrastructures spécialisées, conçues pour délivrer des densités énergétiques élevées tout en optimisant la gestion thermique, permet déjà des gains d'efficacité substantiels.

Depuis plus d’une dizaine d’années, l’industrie des data centers améliore l’efficacité des opérations et des calculs qui y sont réalisés via, par exemple, la colocation haute densité. Associée à l'adoption de systèmes de refroidissement avancés tels que le refroidissement liquide direct (DLC), le refroidissement liquide assisté par air (AALC), elle garantit que les infrastructures numériques mutualisent l’approvisionnement énergétique, si possible renouvelable, et optimisent les besoins de refroidissement. 

Innover pour résoudre une équation complexe 

Au-delà de l’optimisation de l’infrastructure, d’autres leviers pourraient réduire l’empreinte environnementale de l’IA, depuis le design de l’architecture des data centers jusqu’au choix de ses matériaux de construction de ses bâtiments en passant par la réutilisation de la chaleur excédentaire inhérente à leur fonctionnement pour chauffer les bâtiments voisins.

Concrètement, l’utilisation de matériaux plus neutres tels que le béton bas carbone (où le clinker, ingrédient traditionnel du ciment responsable d’une part significative des émissions de CO2 du béton, est remplacé par des déchets de l’industrie sidérurgique), permet de réduire de 80% l’empreinte carbone liée à la construction d’un data center (source). 

Si les défis sont de taille, les enjeux économiques et sociétaux de l'IA en font une priorité à l’heure de l’urgence climatique. Charge à chacun d'accélérer la transition vers des infrastructures numériques plus efficientes, où les innovations de rupture puissent s'épanouir dans le respect de nos objectifs environnementaux. Seule une mobilisation coordonnée des acteurs publics, privés et académiques permettra de résoudre cette équation.