En investissant dans OpenAI, Nvidia fait le pari de l'écosystème IA

En investissant dans OpenAI, Nvidia fait le pari de l'écosystème IA Les deux entreprises ambitionnent de construire un écosystème cohérent et intégré qui leur assure une domination totale sur le futur marché de l'IA.

A ceux qui pensaient que Nvidia ferait une pause après sa frénésie d'investissements au cours des dernières semaines, le champion international des puces d'IA vient d'apporter un cinglant démenti. 100 milliards : c'est la somme gigantesque que l'entreprise va investir dans OpenAI. Il s'agit ni plus ni moins du plus gros investissement jamais effectué dans une entreprise privée, pulvérisant les sommes précédemment investies par Microsoft (13 milliards de dollars) et Softbank (40 milliards) dans OpenAI.  Il va permettre à la société de Sam Altman d'accélérer la construction de centres de données pour l'IA, dont elle a un besoin insatiable, pour une puissance combinée de 10 gigawatts (GW). Soit l'équivalent de la consommation électrique annuelle d'un petit pays d'Amérique latine, comme le Costa Rica ou l'Uruguay, ou de dix réacteurs nucléaires.  Un investissement qui va permettre à OpenAI d'acheter des puces... Nvidia

Ces centres de données seront naturellement équipés de la nouvelle génération de puces Vera Rubin, qui remplacera la technologie Blackwell à partir du second semestre 2026. Autant dire que Nvidia devrait rapidement récupérer une bonne partie de son investissement. Tout autant que la confiance sans bornes que les investisseurs placent dans OpenAI, malgré les craintes d'une bulle de l'IA, cet accord témoigne de la formidable puissance financière qu'a conquise Nvidia. L'entreprise de Jensen Huang est devenue une véritable machine à cash grâce à sa domination sans partage sur les puces d'IA, que ni la menace d'une pénurie d'énergie, ni les attaques de la Chine ne semblent pouvoir entamer. Plusieurs enseignements supplémentaires peuvent toutefois être tirés de ce spectaculaire investissement. 

Un accord qui surfe sur la bulle de l'IA

On l'a vu : si Nvidia investit une somme gargantuesque dans OpenAI, elle va en récupérer une bonne partie via les commandes de puces que l'entreprise-mère de ChatGPT va lui passer pour équiper ses futurs centres de données flambant neuf. On peut dès lors s'interroger sur l'intérêt d'un accord qui consiste à transférer vers OpenAI de l'argent qui va ensuite revenir dans la poche de Nvidia.

Ce serait oublier que les deux entreprises ont tout à gagner à ce que la perception d'une course à l'IA qui s'accélère se renforce. La valorisation d'OpenAI, actuellement estimée à 500 milliards de dollars (du jamais vu pour une société privée) est notamment basée sur la perception que l'IA va radicalement transformer la société, et qu'OpenAI est l'une des mieux placées pour en tirer les bénéfices. Un investissement géant suivi de l'annonce d'une construction frénétique de centres de données surpuissants ne peut que renforcer cette perception. 

Nvidia, de son côté, a tout intérêt à ce que la course à l'IA continue de s'accélérer, puisque celle-ci conduit les entreprises comme OpenAI, Microsoft, Meta, Google, Anthropic ou encore Mistral à s'équiper en puces Nvidia, dans une course à l'armement où chacun craint de se faire dépasser par la concurrence. Il est donc probable que ce nouvel accord avec OpenAI convainque les rivaux de celle-ci de revoir leurs investissements en puces Nvidia à la hausse. 

OpenAI et Nvidia forgent un écosystème d'IA cohérent

Cette annonce montre également combien les deux géants de l'IA entendent forger un écosystème cohérent qui comprenne l'intégralité de la chaîne de valeur de l'IA. Au cours des derniers mois, OpenAI a investi 300 milliards de dollars pour acquérir de la puissance informatique auprès d'Oracle et commencé à plancher sur ses propres puces avec l'entreprise Broadcom.

Elle vient par ailleurs d'annoncer la création de cinq centres de données d'IA géants avec Oracle et Softbank dans le cadre du projet Stargate. Tout cela dénote une volonté de remonter la chaîne de valeur pour aller au-delà de la conception des modèles et maîtriser chaque étape, depuis la création des puces jusqu'à la construction et au fonctionnement des centres de données.  Nvidia fait de même. En l'espace d'une semaine, le géant des puces d'IA a investi 5 milliards de dollars dans Intel, seule entreprise américaine dotée de capacités de fonderie, ainsi que deux milliards de livres sterling dans les jeunes pousses britanniques de l'IA, témoignant là encore d'une volonté de maîtriser toujours plus de briques.

Dimitri Zabelin, spécialiste de l'IA chez Pitchbook, a d'ailleurs commenté l'accord avec OpenAI en affirmant qu'il montrait comment Nvidia "consolide son contrôle sur la chaîne de valeur de l'IA et renforce sa position de fournisseur indispensable". En effet, pour dominer le futur de l'IA, exceller dans une brique technologique spécifique sera insuffisant : il faudra proposer un écosystème puissant et cohérent.

C'est la thèse défendue par les chercheurs Jacobides, Brusoni et Candelon dans leur étude baptisée "The Evolutionary Dynamics of the Artificial Intelligence Ecosystem", parue dans la revue Strategy Science. Ils y analysent la façon dont le marché de l'IA est dominé par quelques entreprises "superstar" qui ont su mettre en place des écosystèmes complets et interconnectés, et mettent en valeur le rôle de l'intégration des différents stacks technologiques pour quiconque souhaite renforcer son monopole sur l'IA.  Selon eux, "le monde de l'IA est caractérisé par la domination d'un petit nombre de grandes entreprises technologiques, dont l'utilisation en aval de l'IA (par exemple, dans la recherche, les paiements, les réseaux sociaux) a soutenu une grande partie des récents progrès, et qui assurent également la fourniture en amont de la puissance de calcul nécessaire (cloud et edge). Ces entreprises dominent les principales institutions académiques dans la recherche en IA, ce qui renforce encore leur position." 

Ce qui vaut pour les géants du cloud vaut aussi pour Nvidia. Au-delà de la puissance de ses processeurs graphiques, pour l'heure inégalée, celle-ci tire par exemple sa force de son écosystème, que la société développe patiemment depuis déjà une vingtaine d'années. Un écosystème qui comprend des communautés de développeurs qui s'entraident et conçoivent des librairies ; des sociétés qui entraînent de grands modèles d'IA et des modèles plus petits ; et des clients de taille comme les Gafam qui mettent en place les briques logicielles nécessaires pour déployer les GPUs de Nvidia dans leurs centres de données. Elle cherche désormais à aller plus loin en étant aussi présente dans les modèles d'IA, à travers son investissement dans OpenAI, et la production (via Intel). 

Le pari judicieux d'OpenAI sur Nvidia

Les auteurs de l'étude citée plus haut estiment en outre que les dernières évolutions du marché de l'IA autour de l'inférence et de l'informatique en périphérie favorisent, dans cette course à l'écosystème dominant, les acteurs comme Nvidia au détriment des géants historiques du marché du cloud. " A mesure que l'informatique en périphérie — c'est-à-dire réalisée sur des appareils locaux plus petits, comme des caméras et des téléphones — se généralise, les fabricants de puces tels que Nvidia et les fabricants d'appareils comme Huawei peuvent valoriser leurs dispositifs compatibles avec l'IA et leurs nouvelles architectures de puces, qui rendent les fonctions Edge plus performantes. "

En se rapprochant de Nvidia à mesure qu'elle s'éloigne de Microsoft, son partenaire privilégie historique, OpenAI ferait selon cette lecture un pari gagnant sur l'avenir…