Une pénurie d'énergie menace-t-elle le marché des puces ?
Nvidia enregistre un nouveau trimestre record, porté par l'essor de l'intelligence artificielle, à laquelle ses processeurs graphiques (GPUs) sont devenus nécessaires. Alors que Wall Street misait sur un chiffre d'affaires de 46 milliards de dollars pour le second trimestre (ce qui aurait déjà représenté une hausse de plus de 50% d'une année sur l'autre), celui-ci a finalement approché les 47 milliards. L'entreprise a vendu 600 000 exemplaires de son processeur Blackwell, sa puce la plus puissante, devenue essentielle pour entraîner et faire tourner les grands modèles d'IA générative. Elle est en route pour en vendre 2,7 millions sur l'année.
La seule ombre au tableau réside dans l'exclusion de Nvidia du marché chinois, l'un des plus porteurs au monde pour les infrastructures d'IA. Si un accord inédit entre Donald Trump et Nvidia devrait permettre à l'entreprise de commercialiser de nouveau sa puce bridée H20 dans l'empire du Milieu, moyennant une taxe de 15% versée directement au gouvernement américain, les espoirs d'un nouvel accord qui permettrait rapidement à l'entreprise d'y commercialiser des puces plus avancées ont toutefois été récemment douchés.
Des GPUs très gourmands en énergie
Mais davantage que la guerre commerciale sino-américaine, le principal danger pesant sur la croissance de Nvidia pourrait être son propre succès, qui exerce une forte pression sur la grille énergétique américaine. Lorsqu'il tourne à plein régime, un GPU Blackwell B200 peut consommer jusqu'à 1,2 kWh, trois fois plus que la génération précédente, Hopper. Un centre de données taillé pour l'IA peut en contenir des dizaines de milliers. En mai, Nvidia affirmait que certains hyperscalers (AWS, Microsoft Azure, Google Cloud…) installaient chacun et chaque semaine près de 1 000 racks NVL72, soit 72 000 GPUs Blackwell. Elon Musk affirme de son côté vouloir rassembler un million de GPUs Blackwell au service de xAI… A la consommation énergétique de ses puces doit en outre s'ajouter celle des dispositifs visant à les refroidir afin d'éviter les surchauffes, ce qui peut chiffrer entre 120 et 140 kWh par rack NVL72.
Un rythme difficile à tenir pour la grille énergétique américaine
Le problème posé par une telle consommation énergétique n'est pas seulement environnemental (bien que ce soit effectivement un vrai défi). Il n'est tout simplement pas certain que les Etats-Unis, où ces centres de données géants sont massivement déployés, soient capables d'accroître suffisamment leur production d'énergie pour répondre à cette hausse de la demande.
Ainsi, selon un calcul effectué par l'hebdomadaire britannique The Economist, entre février 2024 et février 2026, Nvidia devrait vendre 6 millions de puces Blackwell et 5,5 millions de "superpuces" combinant deux Blackwell et un processeur généraliste. Les Etats-Unis assurant environ la moitié de cette demande, ces puces, une fois installées, y accroîtront la demande d'énergie de 25 GW. C'est deux fois plus que ce que les énergéticiens américains ont ajouté sur la grille en 2022… Ce chiffre ne prend du reste pas en compte les puces de nouvelle génération Rubin, que Nvidia prévoit de lancer l'an prochain, et qui seront très certainement plus gourmandes en énergie encore. Ni les puces vendues par AMD, rival de Nvidia, qui sont également utilisées par les leaders de l'IA.
L'Agence Internationale de l'Energie (AIE) estime pour sa part que la demande mondiale d'électricité émanant des centres de données va plus que doubler d'ici 2030, pour atteindre 945 TWh, soit plus que la consommation du Japon aujourd'hui. Cette hausse sera principalement générée par l'IA : la demande d'électricité pour les centres de données taillés pour répondre aux besoins de cette technologie devrait quadrupler d'ici 2030, toujours selon l'AIE.
Des investissements bienvenus, mais encore insuffisants
Anticipant cette problématique, les entreprises de l'IA ont déjà commencé à investir de fortes sommes dans la construction de capacités énergétiques supplémentaires pour l'économie américaine. Nvidia, Meta, Amazon et Google ont tous mis des millions de dollars dans l'entretien de centrales nucléaires existantes ou la construction de nouvelles centrales afin d'alimenter les centres de données d'IA en énergie. Facebook investit dans le solaire et l'éolien, tandis qu'Elon Musk a récemment racheté une centrale électrique et que Meta prévoit d'alimenter son futur centre de données géant en Louisiane à l'aide de réserves de gaz naturel locales dont l'entreprise aidera à financer l'exploitation.
Les énergéticiens américains ont également mis la main à la poche. Entre l'année 2022, durant laquelle ChatGPT a entraîné un essor de l'IA, les dépenses en capital des 50 plus grosses entreprises d'électricité américaines ont augmenté de 30%. Selon S&P Global, elles prévoient d'ajouter l'équivalent de 123 GW en capacité de production, qui se cumuleront aux 565 GW actuels. Schneider Electric a récemment annoncé l'investissement de 700 millions de dollars aux Etats-Unis, notamment pour répondre à la demande d'énergie générée par l'IA.
Mais le temps presse. Elon Musk a récemment affirmé que l'IA pourrait se heurter à un manque d'énergie dès l'an prochain, tandis que le Département américain de l'Energie affirme que le risque de black-out sera multiplié par 100 d'ici 2030 en l'absence d'une hausse rapide de la production. L'IA a en outre déjà commencé à faire flamber les factures d'électricité aux Etats-Unis. A cet égard, la guerre que mène l'administration Trump au renouvelable, seule manière d'injecter rapidement de l'électricité dans le réseau, n'est pas une bonne nouvelle. Une hausse insuffisante de la production renchérirait considérablement le coût de l'IA, freinant l'adoption de la technologie, donc les commandes de puces que reçoit Nvidia. Si Jensen Huang peut pour l'heure dormir sur ses deux oreilles, nul doute que cette question constitue l'une de ses deux sources d'inquiétude pour l'avenir, avec l'accès au marché chinois.