Bourse, Gafam, Etats-Unis… Le chinois DeepSeek dynamite l'édifice IA mondial

Bourse, Gafam, Etats-Unis… Le chinois DeepSeek dynamite l'édifice IA mondial Un petit laboratoire d'IA chinois fait aussi bien que les modèles les plus avancés au monde. De quoi remettre en question la domination et le modèle économique des géants américains sur l'IA ?

Coup de tonnerre dans le monde de l'IA. DeepSeek, jeune pousse chinoise de l'IA générative, a pris tout le monde de cours avec la sortie de son dernier LLM, R1, conçu pour résoudre des problèmes complexes. Publiée la semaine dernière en open source, elle a suscité un vent de panique de l'autre côté de l'Atlantique (Lire notre article DeepSeek V3 et R1 : deux IA chinoises qui en imposent, même aux meilleurs).

Et pour cause : alors que le modèle affiche des performances similaires à celles des meilleurs LLMs américains, et notamment o1, la crème de la crème d'OpenAI, la jeune pousse chinoise affirme n'avoir utilisé que 2 048 processeurs graphiques (GPUs) de Nvidia, et déboursé seulement 5,6 millions de dollars pour développer ce modèle comptant 671 milliards de paramètres. Une bagatelle par rapport aux 25 000 processeurs graphiques et 100 millions de dollars dépensés par OpenAI pour entraîner son modèle GPT-4. 

Une révolution copernicienne dans l'IA

Et ce n'est pas tout. Du fait des restrictions mises en œuvre par les Etats-Unis sur les puces d'IA pour freiner l'avancée des entreprises de l'empire du Milieu dans l'IA générative, DeepSeek a entraîné son modèle avec des puces moins puissantes que celles qu'utilisent les géants américains. La puce H800 est en effet une version bridée de la Nvidia H100, conçue par le groupe pour s'adapter aux sanctions américaines interdisant l'exportation de puces trop puissantes vers la Chine. 

L'application de chatbot grand public, que propose également DeepSeek, sur le modèle de ChatGPT, n'a dans ce contexte pas tardé à faire le buzz et est actuellement numéro 1 de l'App Store aux Etats-Unis. 

DeepSeek propose également des versions distillées de son modèle R1, qui comprennent moins de paramètres et peuvent tourner sur du matériel plus léger, comme une Nvidia RTX 3080, utilisée par les gamers. "DeepSeek vient de démontrer que le paradigme "toujours plus gros, toujours plus fort" qui faisait jusqu'à présent consensus dans l'IA n'est pas forcément le bon. Et cela change totalement la donne. R1 semble même meilleur que 4o, le modèle multimodal vitrine d'OpenAI, alors qu'il peut tourner sur un simple GPU de gaming", n'en revient pas John, ingénieur en IA au sein d'une grande entreprise de la Silicon Valley. 

Vers un éclatement de la bulle de l'IA ? 

L'entrée en fanfare de ce nouvel acteur chinois sur le marché de l'IA remet ainsi en cause un paradigme que l'on croyait acquis, et qui semblait largement favoriser les géants technologiques américains et leur réserve de cash virtuellement inépuisable. A savoir que développer un modèle de fondation capable de rivaliser avec ce qui se fait de mieux sur le marché nécessiterait d'investir des sommes faramineuses en équipement de pointe et en puissance de calcul, créant ainsi une barrière à l'entrée favorisant les acteurs déjà bien établis. Un paradigme qui, associé au buzz généré par l'IA générative et aux perspectives de transformations majeures induites par cette technologie, a conduit les investisseurs à porter aux nues la valorisation des Gafam. 

Avec l'arrivée de DeepSeek, les bases qui ont conduit à la suprématie de ces entreprises à Wall Street semblent d'un seul coup plus fragiles. Comme le résume Gary Marcus, expert américain de l'IA, dans un article paru sur son blog : "Le prix des LLMs vient de baisser drastiquement, et par conséquent le besoin de s'équiper massivement en matériel spécialisé a aussi diminué. Il n'y a pratiquement plus de barrière à l'entrée : toute nouvelle domination technique est amenée à rester éphémère, quelques mois ou semaines, et non plus quelques années." 

De quoi faire éclater la bulle de l'IA, pointée de longue date par de nombreux analystes ? Ce lundi matin, force est de constater que la plupart des valorisations des grands noms de la tech américaine au Nasdaq avaient pris un coup. "Les appels API sur DeepSeek coûtent deux cents fois moins cher que chez OpenAI. Il pourrait donc bien s'agir de l'aiguille qui va faire crever la bulle. Ce qui ne signifie pas la fin de l'IA, mais le réajustement de la valeur fantasmée sur la valeur réelle. Ici, on est peut-être en train de se rendre compte qu'une société comme OpenAI, qui a levé des fonds sur une valeur estimée à 150 milliards de dollars, vaut en réalité beaucoup moins que ça…", estime Gilles Moyse, docteur en IA et fondateur de la jeune pousse Récital.

Les data center Nvidia obsolètes ?

D'autant que, lancés à pleine vitesse dans la course à l'IA, les géants de la tech ont mis en place des investissements faramineux pour construire de nouveaux centres de données taillés pour l'IA générative, équipés d'une puissance de calcul colossale et nourris de dizaines de milliers de processeurs graphiques dernier cri de chez Nvidia. Meta a par exemple prévu d'investir dix milliards de dollars dans la construction d'un centre de données taillé pour l'IA générative dans le nord de la Louisiane. Amazon, de son côté, doit débourser onze milliards dans un projet similaire dans l'Indiana. 

Un autre grand perdant pourrait bien être Nvidia, qui dispose d'un monopole sur les processeurs graphiques les plus avancés, et dont l'action a dévissé de 12% dès l'ouverture de la bourse de New-York pour finir la journée avec une perte de capitalisation de près de 600 milliards, un record. "Nvidia s'est enrichie en vendant des pelles (d'une qualité exceptionnelle) au milieu d'une ruée vers l'or, mais risque de subitement se retrouver dans un monde où l'on a besoin de beaucoup moins de pelles", estime Gary Marcus.

Certains analystes sont toutefois plus optimistes quant à l'impact qu'aura l'arrivée de DeepSeek sur le géant américain des cartes graphiques, et plus généralement sur les investissements dans les centres de données équipés de ses puces. "L'IA est une course, et l'optimisation des modèles, qui est d'ailleurs une évolution naturelle du marché, ne signifie pas que les entreprises lancées dans cette course vont dépenser moins, mais plutôt que l'on va parvenir à faire mieux avec le même nombre de puces", estime pour sa part Antoine Chkaiban, expert infrastructures chez New Street Research, un consultant spécialisé dans les technologies numériques.

"Les hyperscalers dépensent actuellement entre 15 et 20% de leur chiffre d'affaires annuel dans les centres de données, en majorité pour faire de l'IA. Je ne m'attends pas à ce que ça baisse, mais plutôt à ce que ça monte à 25%." 

La stratégie américaine en question

Le succès de DeepSeek constitue en revanche un désaveu cinglant à la stratégie d'endiguement que mènent depuis la première administration Trump les Etats-Unis contre la Chine, à travers toute une vague de sanctions visant à priver les entreprises chinoises de l'accès aux meilleures puces américaines. L'annonce montre que non seulement ces sanctions n'ont pas empêché la Chine de progresser à pas de géant, mais qu'elles ont même contraint les chercheurs chinois à se montrer plus créatifs et innovants pour compenser le manque de capacités matérielles. Pour Gary Marcus, "cette stratégie conçue pour freiner la Chine dans la course à l'IA pourrait bien être l'un des pires retours de flamme de l'histoire." 

L'annonce survient en outre quelques jours seulement après l'annonce du projet Stargate par l'administration Trump, un gigantesque plan d'investissement de 500 milliards de dollars dans l'IA, une somme qui sera principalement consacrée à la construction de centres de données pour l'IA aux Etats-Unis, avec OpenAI, SoftBank et Oracle comme entreprises partenaires. En remettant en cause l'équation liant nécessairement IA plus puissante à plus grosses capacités de calcul, et donc de dépenses, l'annonce de DeepSeek sème désormais le doute sur la pertinence d'une telle approche. 

Quelques zones d'ombre 

Si DeepSeek fait trembler le monde de l'IA, il convient toutefois de rester prudent suite aux annonces de la société chinoise. "Nous ne sommes pour l'heure pas certains du nombre de GPUs que la société a utilisés, ses déclarations sont à prendre avec des pincettes", tempère Antoine Chkaiban. 

"Le fondateur de DeepSeek, Liang Wenfeng, qui est à la tête d'un fonds d'investissement, présente DeekSeek comme un simple projet annexe, et sort dans la foulée un papier de recherche qui présente une avancée sidérante avec 150 auteurs… C'est un peu bizarre", estime pour sa part John, l'ingénieur de la Silicon Valley.

"Il faut attendre que la communauté teste le modèle et se l'approprie pour en savoir davantage. Il est possible que les résultats publiés soient un petit peu surévalués, mais même à supposer que ce soit le cas, cela constitue une avancée remarquable", ajoute-t-il.