Malgré DeepSeek, les dépenses dans les centres de données devraient battre tous les records en 2025

Malgré DeepSeek, les dépenses dans les centres de données devraient battre tous les records en 2025 Les géants technologiques dépensent sans compter pour satisfaire l'insatiable demande d'IA.

Le premier jour du Sommet de l'Action sur l'IA qui a lieu cette semaine à Paris, Emmanuel Macron a annoncé un investissement de 109 milliards d'euros dans cette technologie en France au cours des prochaines années. Un partenariat avec les Emirats arabes unis doit notamment déboucher sur la création d'un campus IA incluant un centre de données géant, d'une capacité de calcul d'un gigawatt, pour un investissement estimé entre 30 et 50 milliards d'euros.

De tels centres de données de pointe sont nécessaires pour entraîner et faire tourner les modèles algorithmiques les plus avancés, comme ceux d'OpenAI ou de Mistral. Mardi 11 février, Ursula van der Leyen remettait le couvert avec l'annonce d'un investissement de 200 milliards d'euros supplémentaires dans l'IA au niveau européen.

Des dépenses en hausse en 2025

Il faut dire que la France n'est pas la seule à appuyer sur la pédale de l'accélérateur en matière d'investissement dans les infrastructures d'IA. Les géants de la tech américains ont tous prévu de mettre la main au portefeuille cette année, après un exercice 2024 déjà marqué par des dépenses record. L'an passé, les trois géants du cloud américain (Amazon, Google et Microsoft) ont à eux trois investi 180 milliards de dollars dans la construction de centres de données, un chiffre colossal qui devrait pourtant être largement dépassé cette année.

Le 4 février dernier, Sundar Pichai, le patron de Google, a annoncé que ses dépenses d'investissement de capital (capex) devraient atteindre 75 milliards de dollars cette année, principalement consacrés aux centres de données, contre 53 milliards l'an passé. Amazon, Microsoft et Meta ont de leur côté prévu des dépenses respectives de 100, 80 et 65 milliards de dollars. Côté chinois, ByteDance, le propriétaire de TikTok, a décrété en janvier l'investissement de 614 millions de dollars dans un nouveau centre de données dédié à l'IA, dans la province de Shanxi.

Si la vague suscitée par DeepSeek a pu un moment faire supposer un changement de stratégie vers une IA plus frugale, l'effet semble pour l'heure inverse. Rien d'étonnant à cela, selon Antoine Chkaiban, analyste chez New Street Research, un cabinet d'intelligence de marché.

"Quand les coûts des transistors ont baissé d'un facteur deux tous les 18 mois pendant 30 ans, le marché des transistors n'a pas baissé, mais a au contraire augmenté par un facteur six, passant de 100 à plus de 600 milliards de dollars. De même, la baisse du prix du token dans l'IA va contribuer à augmenter la demande de puissance de calcul de façon significative. Le travail que DeepSeek a accompli s'inscrit dans une trajectoire continue d'optimisation, qui ne risque absolument pas de faire baisser la demande pour de nouveaux centres de données. La jeune pousse chinoise a créé la surprise en optimisant certaines choses que les autres n'avaient pas besoin d'optimiser, car elle n'avait pas accès aux meilleurs GPUs de Nvidia, mais tout cela s'inscrit dans une marche naturelle vers davantage d'efficacité."

Une insatiable demande de calcul

Face à une demande pour l'IA qui continue de croître et devrait exploser en 2025, les investissements records réalisés dans les centres de données sont en réalité à peine suffisants pour tenir la cadence. Goldman Sachs prévoit ainsi que l'usage des centres de données lié à l'IA devrait tripler entre fin 2024 et fin 2026. Microsoft, Google et Amazon ont tous récemment déclaré que la puissance de leur cloud était insuffisante pour satisfaire toute la demande qu'ils recevaient en matière d'IA, et que cela freinait la croissance de leurs divisions respectives consacrées à l'informatique en nuage.

La construction de centres de données est également poussée en avant par une politique volontariste menée par plusieurs grandes puissances dans l'IA, dont le projet Stargate. Annoncé en grandes pompes par Donald Trump, ce plan d'investissement de 500 milliards de dollars doit notamment permettre la construction de centres de données d'IA sur le sol américain. Un programme auquel la Chine a aussitôt répliqué avec son propre plan d'investissement de 1 000 milliards de yuans (136 milliards de dollars) visant à accroître la capacité de calcul disponible dans l'Empire du Milieu de 50 % sur 2025.

Enfin, face à l'émergence de plus petits acteurs agiles comme DeepSeek ou Mistral, les géants de la tech réagissent en utilisant leurs propres atouts : les réserves de cash dont ils disposent, la taille critique et l'expertise technologique qui leur permet d'ajouter de la puissance de calcul plus vite que n'importe qui d'autres. Suite à la sortie de DeepSeek, Mark Zuckerberg a par exemple déclaré suivre la jeune pousse chinoise de très près, tout en précisant que la capacité de son entreprise à investir lourdement dans les centres de données lui conférerait un avantage compétitif contre de petits concurrents plus souples et efficaces.

Les limites à l'appétit des big tech

Même les géants de la tech n'ont cependant pas une trésorerie inépuisable. Il est donc peu probable qu'ils puissent tenir éternellement ce rythme d'investissement effréné, selon Antoine Chkaiban. "A partir de 2026/2027, les hyperscalers auront probablement du mal à continuer de faire croitre leur capex à une pareille vitesse."

Un autre facteur limitant pourrait être la disponibilité des puces d'IA nécessaires pour équiper ces centres de données. "D'ici 2027, on aura environ un million de puces par centre de données d'IA, contre quelques centaines de milliers aujourd'hui." Nvidia détient un quasi-monopole sur leur conception, contesté seulement par AMD, une autre entreprise américaine. La fabrication étant quant à elle l'apanage de TSMC dans ses usines de Taïwan, même si une partie de la production a commencé à être déplacée aux Etats-Unis et en Europe.

"Nvidia est en train d'augmenter la vitesse à laquelle elle fabrique et vend son processeur Blackwell, mais elle ne pourra pas non plus accroître celle-ci de manière illimitée. C'est en effet un produit qui repousse très loin les barrières de l'innovation", estime Antoine Chkaiban. Pour ne plus dépendre de Nvidia, certains ont mis au point leurs propres puces d'IA en interne : c'est le cas de Google, avec son TPU, et d'Amazon, avec sa puce Trainium. Microsoft, Meta, ByteDance, OpenAI et Tesla/xAI ont également des projets allant dans ce sens, même s'il est peu probable qu'ils y parviennent tous, tant la conception de telles puces est un travail complexe, requérant des poches profondes et certains des meilleurs ingénieurs au monde.

TSMC devrait en revanche être capable d'absorber le surplus de demande sans trop de difficultés. "On comptera peut-être six ou huit centres de données équipés d'un million de puces chacun. Quelques millions, c'est tout à fait gérable pour TSMC, qui se prépare à satisfaire un tel niveau de demande", estime l'expert.

Une dernière limite pourrait enfin venir de la consommation énergétique des centres de données. Certes, ceux-ci deviennent de plus en plus efficaces avec le temps. Hannah Ritchie, sur son blog Sustainability by numbers, montre ainsi qu'"entre 2010 et 2018, la capacité de calcul des centres de données a augmenté de 550 % dans le monde, tandis que l'énergie consommée par ces derniers n'a cru que de 6 %", un écart qu'elle attribue notamment au fait que "la densité énergétique des puces utilisée aujourd'hui équivaut à 1 % de ce qu'elle était en 2008." Reste que face au défi du dérèglement climatique, la facture énergétique croissante des centres de données constituera un défi supplémentaire à gérer pour les big tech, qui a déjà conduit certaines entreprises, dont Meta, à investir dans la construction de centrales nucléaires pour alimenter leurs futurs centres de données d'IA.