Le défi énergétique de l'IA pour les data centers

Avec l'émergence d'outils tels que ChatGPT, il devient évident que notre dépendance à l'égard de l'intelligence artificielle (IA),est sur le point de connaître une croissance significative.

L'IA est déjà profondément intégrée dans de nombreux aspects de notre quotidien, et les dernières recherches soulignent que la puissance de calcul de l'IA double tous les six à dix mois. Bien que l'attention se soit portée sur la manière dont l'IA va transformer les entreprises, les carrières et les modes de communication, il est crucial de reconnaître que tout cela ne sera possible qu'avec une infrastructure conçue pour répondre à cette demande croissante.

Les data centers et les réseaux périphériques sont essentiels au fonctionnement des applications d'IA, utilisant des grappes de calcul à haute performance, interconnectées par des réseaux à faible latence. Cela permet un traitement parallèle et des temps d'apprentissage rapides pour gérer efficacement les données complexes de l'IA. Cependant, cette activité intense nécessite une énergie stable et dégage une chaleur plus importante, nécessitant une infrastructure spéciale pour refroidir et alimenter électriquement efficacement l’infrastructure.

Une augmentation de la demande d’électricité qui souffle le chaud et le froid

Le calcul haute performance a transformé notre monde, et l'infrastructure numérique critique doit suivre le rythme. Chaque acteur de cet écosystème s'efforce de relever ce défi et de montrer l'exemple, surtout lorsque la technologie et le développement durable se rencontrent. Cela implique notamment de promouvoir l'utilisation d'énergies alternatives, de développer des réseaux hybrides et intelligents, ainsi que de concevoir des data centers innovants pour fournir des solutions fiables, tout en réduisant l’impact sur notre planète.

Selon le rapport 2022 Data Center Thermal Management Market Analysis d'Omdia, la demande énergétique des baies informatiques des data centers devrait passer de 5 à 7 kW à 50 kW ou plus. Cette augmentation représente une évolution significative.

À mesure que les supercalculateurs se miniaturisent, notre industrie s'attelle continuellement à résoudre le défi du refroidissement tout en améliorant l’efficience et en explorant l'utilisation de sources d'énergie alternatives pour répondre à la demande croissante. Plusieurs approches émergent dans ce contexte.

-          Une approche courante est le refroidissement à air, où l'on utilise des échangeurs de chaleur de porte arrière en combinaison avec le refroidissement à air. Cette méthode permet de transférer la chaleur à l'extérieur des serveurs.

-          Le refroidissement par immersion implique d'immerger les serveurs et autres composants dans un liquide ou un fluide diélectrique thermo-conducteur.

-          Le refroidissement liquide direct-to-chip fonctionne en faisant circuler un liquide de refroidissement à travers des plaques froides situées au-dessus des sources de chaleur à l'intérieur des ordinateurs. Ces plaques évacuent la chaleur lorsque le liquide circule, permettant ainsi de refroidir plus efficacement les composants.

Face à la croissance continue de l'IA, les centres de données doivent coordonner étroitement le refroidissement par liquide et par air, en adoptant une stratégie hybride pour optimiser l'efficacité et les performances.

IA et data centers : un couple indissociable

Les défis posés par la montée en puissance de l'IA mobilisent les ingénieurs. Certains data centers pourraient opter pour des rénovations, tandis que les futures installations exploreront vraisemblablement diverses conceptions pour relever les défis liés à la densité et à la dissipation de la chaleur.

L'IA est une technologie qui promet de transformer notre monde, mais son évolution exacte et ses implications restent à découvrir. Pour évaluer son potentiel, nous devons tenir compte de la capacité des data centers mondiaux à soutenir l'intelligence « informatique » croissante qu'elle nécessitera. Notre industrie doit donc continuer à évoluer en fournissant des solutions de refroidissement et d'alimentation dynamiques et innovantes, adaptées aux nouveaux défis des data centers, afin de soutenir le potentiel de l'IA.