Un an après, il y a bien eu un effet Deepseek (et même deux), mais pas celui que vous croyez

Un an après, il y a bien eu un effet Deepseek (et même deux), mais pas celui que vous croyez L'arrivée de l'IA chinoise n'a nullement découragé les investissements pharaoniques dans les infrastructures de l'IA mais elle a facilité de nouveaux usages et l'essor de la Chine.

Fin janvier 2025, le chinois DeepSeek déboulait dans le monde de l’IA comme un chien dans un jeu de quilles. Avec son IA économe, la start-up de l’empire du Milieu semblait rebattre les cartes et remettre en cause les investissements pharaoniques des big tech dans les infrastructures nécessaires à l’entraînement des modèles d’IA. S’il était ainsi possible d’entraîner un modèle compétitif avec des moyens matériels limités, à quoi bon investir des dizaines de milliards de dollars dans la construction de centres de données géants équipés de puces Nvidia dernier cri ? Une idée visiblement partagée par Wall Street, les valeurs de la tech ayant subi un mini-krach boursier dans les heures suivant l’annonce de la jeune pousse chinoise.

Pourtant, le reste de l’année n’a nullement confirmé ces craintes, bien au contraire. Les dépenses totales d’investissement en capital dans l’IA d’Amazon, Microsoft, Alphabet, Oracle et Meta sur 2025 se sont élevées à 443 milliards de dollars, en hausse de 73% par rapport à l’année précédente, qui représentait déjà une hausse de 63% par rapport à 2023. Alors, l’événement DeepSeek a-t-il eu l’effet d’un pétard mouillé ?

Un effet d’aubaine au service de nouveaux usages

Davantage que surestimé, le phénomène DeepSeek a en réalité été mal interprété. La baisse du coût des tokens n’a pas entraîné une baisse des investissements dans les infrastructures, mais au contraire créé une fenêtre d’opportunité pour développer de nouveaux cas d’usage inenvisageables avec des coûts de tokens trop élevés, contribuant ainsi à une hausse des investissements.

"A l’heure où l’on introduit des modèles de raisonnements partout, les ordres de grandeur ont radicalement changé. On n’est plus sur des centaines de tokens par requête, mais sur des milliers, et probablement bientôt des millions. Ainsi, sur un marché où la demande est illimitée, on dépense tout ce que l’on peut se permettre de dépenser. De la même façon, la baisse des coûts des transistors n’a pas fait baisser la taille du marché des semiconducteurs, bien au contraire", décrypte Antoine Chkaiban, consultant chez New Street Research, un cabinet d'intelligence de marché.

En réduisant les coûts d’inférence par un facteur allant de 20 à 50 par rapport à GPT-4, DeepSeek a rendu l’IA accessible à de nouveaux usages (traduction vidéo, IA agentique, etc.) à un coût moindre, conduisant les hyperscalers à appuyer plein gaz sur le champignon.

C’est le fameux paradoxe de Jevons, ou effet rebond : lorsque le progrès technologique permet d’augmenter l’efficacité avec laquelle une ressource est employée, la demande totale augmente, entraînant davantage d’investissement.

Une étape plus qu’une rupture

Maintenant que la poussière est retombée, DeepSeek apparaît par ailleurs davantage comme une étape significative vers une hausse de l’efficience de l’IA, que comme un véritable point de rupture.

"La force de DeepSeek a moins consisté dans l’innovation disruptive en tant que telle que dans la capacité à rassembler plusieurs méthodes d’optimisation existantes (et déjà appliquées pour certaines par des entreprises comme Mistral), comme la distillation de modèles, la compression de matrices d’attention, le mixture of experts (MoE), l’arithmétique de basse précision, et à les combiner pour être plus efficaces", détaille Antoine Chkaiban. 

Ces méthodes ont depuis inspiré les communautés de développeurs et les hyperscalers : les plateformes AWS Bedrock, Azure AI et Vertex AI déploient ainsi les modèles DeepSeek-R1 et V3 pour l’inférence.

La montée en puissance de l’open source chinois

DeepSeek a en revanche marqué une étape fondamentale sur un autre aspect : celui de la montée en puissance des modèles open source chinois sur l’IA, qui commencent aujourd’hui à rivaliser avec les modèles propriétaires américains.

La jeune pousse chinoise Moonshot AI vient ainsi de dévoiler Kimi K2.5, qui revendique des capacités de génération vidéo et d’IA agentique surpassant les trois principaux modèles d’IA américains que sont Claude (Anthropic), GPT (OpenAI) et Gemini (Google).

Au même moment, le géant du commerce en ligne Alibaba a annoncé son dernier modèle d’IA générative, Qwen3-Max-Thinking, qui selon le géant chinois surpasserait les modèles des géants américains au "Humanity’s Last Exam", un test de référence pour les grands modèles de langage, considéré comme le plus difficile à ce jour. Les actions cotées à Hong Kong du géant technologique chinois Baidu ont quant à elles grimpé à leur plus haut niveau en près de trois ans, suite à la sortie de son dernier modèle d’IA générative, Ernie 5.0. Le géant chinois compte encore accélérer l’allure avec l’entrée en bourse de sa filiale Kunlunxin, dédiée aux puces d’IA, qui ambitionne de rivaliser avec les américains Nvidia et AMD.

Selon les récentes déclarations de Demis Hassabis, PDG de Google DeepMind, les modèles open source chinois ne seraient plus qu’à "quelques mois" de ceux développés aux Etats-Unis.

Le monde de l’IA se trouve ainsi confronté à un paradoxe intéressant, dans lequel la puissance capitaliste américaine propose des modèles propriétaires, tandis que le régime communiste chinois entend rivaliser avec des modèles ouverts. Pour Antoine Chkaiban, le pari de la Chine sur l’open source suit une stratégie classique déployée par les acteurs qui cherchent à rattraper leur retard dans un écosystème technologique donné. "Miser sur l’open source est le meilleur moyen de développer son écosystème lorsqu’on est en retard. AMD fait la même chose pour tenter de concurrencer Nvidia, qui propose de son côté une technologie fermée."

De l’importance du full stack

Mais au-delà de la question consistant à savoir si les modèles chinois sont ou non plus performants que leurs homologues américains, le prochain point d’interrogation sur le marché de l’IA est celui de la monétisation, et plus spécifiquement de la partie de la chaîne qui va dégager le plus de valeur ajoutée : la couche semi-conducteurs, la couche cloud, les modèles en eux-mêmes ou les applications.

"A mon sens, ceux qui vont l’emporter seront ceux qui sauront se positionner à tous les niveaux, sur le full stack, car les systèmes sont aujourd'hui tellement imbriqués qu’il faut innover harmonieusement sur tous les plans pour progresser." Google, qui conçoit ses propres puces, possède son cloud, ses modèles et ses applications, est à cet égard avantageusement positionné, tandis que les Chinois pâtissent du manque d’accès à la meilleure technologie existante sur les puces d’IA, celle de Nvidia. C’est pourquoi l’empire du Milieu met les bouchées doubles pour rattraper son retard à ce niveau.