L'IA entre dans une course effrénée aux écosystèmes géants
Un de plus. Moins d'un mois après l'annonce de son partenariat avec Nvidia, OpenAI a signé un nouvel accord avec un géant des semi-conducteurs. Il s'agit cette fois-ci d'AMD, qui constitue actuellement le seul rival sérieux de Nvidia sur les puces consacrées à l'IA de pointe. OpenAI s'engage à acheter pour 6 gigawatts de puces, ce qui représente plusieurs dizaines de milliards de dollars d'investissement, et à prendre une participation à hauteur de 10% dans le capital d'AMD, qui se situe autour de 270 milliards de dollars.
Cette annonce démontre une fois de plus qu'AMD constitue désormais un acteur avec qui compter dans l'écosystème des grands modèles de langage. Cette entreprise fondée en 1969, ringardisée il y a à peine dix ans, a réussi une formidable remise en selle sous la direction de Lisa Su, l'actuelle directrice générale (qui est également la cousine de Jensen Huang, le patron de Nvidia), au point d'être aujourd'hui la seule société capable de proposer un écosystème rival de celui de Nvidia sur l'IA.
OpenAI mène la danse
Si l'accord montre qu'AMD est un acteur à prendre sérieusement en considération, il illustre aussi la position encore inférieure de la société par rapport à Nvidia, selon Dylan Patel, expert chez SemiAnalysis, un cabinet spécialisé dans la recherche sur les puces.
"Le diable se cache dans les détails : il est aisé de voir qui disposait de la main haute lors des négociations, et ce n'était pas AMD. Quand Nvidia et OpenAI ont signé un accord, Nvidia a obtenu des parts d'OpenAI. Ici, c'est OpenAI qui obtient 160 millions de parts à un prix avantageux de 0,01 dollar l'unité ! Il s'agit en fait d'une ristourne déguisée, réglée en actions AMD. Cela signifie que si cette dernière avait vendu ses puces au prix fort, OpenAI serait probablement restée chez Nvidia."
Multiplication des accords
L'annonce survient alors que les acteurs de l'IA et des semi-conducteurs se livrent à une véritable frénésie d'accords. Mi-septembre, Nvidia a annoncé l'investissement de 100 milliards de dollars dans OpenAI au cours de la prochaine décennie, tandis que l'entreprise-mère de ChatGPT s'est engagée à construire et déployer l'équivalent de 10 gigawatts de puissance en puces Nvidia, ce qui représente la quantité colossale de 4 à 5 millions de cartes graphiques !
L'entreprise de Jensen Huang n'a toutefois pas l'intention de mettre tous ses œufs dans le même panier. Le patron de Nvidia a d'ores et déjà déclaré qu'il participerait à la prochaine levée de fonds de xAI, via laquelle Elon Musk ambitionne de lever 20 milliards de dollars. Un investissement de deux milliards de la part de Nvidia a été évoqué, annonce qui, une fois confirmée, sera très certainement assortie d'une commande faramineuse de processeurs graphiques de la part de xAI. En effet, celle-ci ne ménage pas ses moyens pour rassembler de la puissance de calcul et l'énergie nécessaire pour l'alimenter.
De son côté, l'entreprise de Sam Altman s'est également associée à Broadcom, un autre acteur américain des semi-conducteurs avec qui OpenAI collabore depuis dix-huit mois pour fabriquer ses propres puces sur-mesure, dédiées à l'inférence. OpenAI s'est engagée à acheter 10 gigawatts de puissance de calcul supplémentaires auprès de Broadcom, ce qui devrait représenter un investissement de 500 milliards de dollars.
Power is power
Il est intéressant de noter que pour chacun de ces accords, on ne raisonne plus d'abord en termes de nombre de semi-conducteurs achetés, mais en gigawatts, c'est-à-dire en matière de puissance énergétique nécessaire pour satisfaire aux besoins toujours plus insatiables des géants de l'IA. Autrement dit, ces derniers ne peuvent plus se contenter de résonner en matière de puissance informatique : ils doivent penser de manière systémique, en prenant en compte les centres de données et l'énergie nécessaire pour les alimenter. La gourmandise énergétique de l'IA constitue en effet l'un des plus grands défis auxquels fait face l'industrie, défi qui oblige les acteurs à financer des capacités de production énergétique.
Dans un tel contexte, investir dans les infrastructures de l'IA n'implique plus seulement de mettre la main sur les semi-conducteurs les plus performants (cela reste bien sûr une condition sine qua non, que reflètent les positions indétrônables qu'occupent le taïwanais TSMC et le néerlandais ASML), mais aussi d'exceller en matière de génération d'énergie, de performance énergétique et d'intégration des réseaux. Cette logique systémique a été bien comprise par AMD, comme l'illustre le rachat du spécialiste des serveurs ZD Systems l'an passé.
L'IA à l'ère des écosystèmes
Car au-delà de l'aspect énergétique, ces accords en cascade montrent aussi à quel point aucun acteur de l'IA, aussi puissant soit-il, n'est capable de dominer à lui seul le marché. Chacun a besoin des autres pour asseoir sa domination sur la partie la plus vaste possible de l'écosystème. Sans les processeurs graphiques de Nvidia, OpenAI, xAI, Google et consorts sont incapables d'entraîner et faire tourner leurs grands modèles de langage. Et ceux-ci sont soumis à une demande si forte que chacun ressent le besoin d'assurer son approvisionnement en s'asseyant à la table des négociations avec Jensen Huang.
Mais l'écosystème de l'IA, de par son gigantisme, a aussi besoin de la puissance énergétique nécessaire pour faire tourner les serveurs (ce qui explique les investissements des big tech dans les infrastructures énergétiques) ; des sociétés détenant le savoir-faire nécessaire pour produire les puces à l'échelon industriel (d'où l'accord récent entre Mistral et ASML et celui entre OpenAI et TSMC) ; de talents rares et précieux (d'où la multiplication des "acqui-hires") ; et même de la force diplomatique des gouvernements pour débaucher de juteux contrats à l'étranger. Rappelons la façon dont Nvidia a récemment décroché de gros contrats au Royaume-Uni et dans les pays du Golfe suite à des visites de Donald Trump sur place. Les efforts déployés par Jensen Huang pour se mettre le président américain dans la poche prennent soudain tout leur sens…
Toutes ces entreprises sont ainsi à la fois concurrentes et partenaires, dans une sorte de marché oligopolistique géant dans lequel chacun sait ne pouvoir gagner à lui tout seul, mais s'efforce cependant de s'arroger la part la plus grosse possible du gâteau en étendant au maximum son contrôle sur son écosystème. Tant que le marché continue de croître, cette dynamique permet aux acteurs de nourrir leur croissance respective et d'accéder à l'expertise technique nécessaire pour continuer d'avancer sur un marché de plus en plus complexe. Mais l'interdépendance croissante entre les acteurs et la logique autoréalisatrice de ces accords (l'action d'AMD a bondi de 25% suite à l'annonce de son partenariat avec Nvidia) renforce également le risque de bulle et les conséquences cataclysmiques qu'aurait l'éclatement de cette dernière en cas de ralentissement du marché…