Inférence, NemoClaw, robots… Que retenir de la keynote de Jensen Huang
C’est, sans surprise, affublé de sa traditionnelle veste en cuir, devenue aussi célèbre que le col roulé noir de Steve Jobs, que Jensen Huang, patron de Nvidia, a fait son entrée sur la scène de sa mégaconférence annuelle GTC ce 16 mars, pour une présentation suivie religieusement par les professionnels et amateurs du monde entier, comme celles du patron d’Apple attiraient jadis ceux qui voulaient connaître l’avenir du smartphone et des objets connectés.
"Nvidia est désormais une entreprise-plateforme, dont la puissance repose sur son écosystème et les applications construites sur celui-ci", a attaqué d’emblée le patron de l’entreprise la mieux valorisée au monde, avant de dérouler une présentation riche en références à ses entreprises partenaires et à ses clients.
Exploiter les données non structurées
Si Jensen Huang insiste sur l’aspect plateforme d’applications, c’est parce qu’il est convaincu que l’avenir de l’IA se joue dans l’application rapide de celle-ci aux données des entreprises. "Snowflake, Databricks, toutes ces entreprises forment la couche de données structurées qui constitue la base sur laquelle l’IA se construit et peut opérer. Mais la véritable révolution va se produire avec la lecture et l’exploitation des données non structurées, qui représentent 90% des données générées et ne pouvaient jusqu’à présent pas être facilement indexées ni exploitées. Avec les progrès de l’IA générative, cela devient possible."
Mais pour cela, l’industrie a besoin d’une nouvelle approche car, selon ses propres mots, "la loi de Moore a perdu de son élan". L’informatique accélérée et l’optimisation des algorithmes constituent selon lui la réponse permettant de réduire les coûts tout en augmentant l’échelle et la vitesse. A cet égard, le patron de Nvidia voit grand. Nulle crainte d’une bulle de l’IA dans son discours. L’an dernier, Nvidia avait indiqué avoir identifié environ 500 milliards de dollars de commandes pour Blackwell et Rubin d’ici 2026. "Je vois au moins 1 000 milliards de dollars d’ici 2027", déclare désormais Jensen Huang. Mais Nvidia ne prévoit pas seulement de vendre plus de puces : elle prévoit aussi de vendre des puces différentes.
Le point d’inflection de l’inférence est arrivé
Jensen Huang a en effet évoqué trois grandes ruptures qui ont selon lui eu lieu dans le monde de l’IA au cours des dernières années. L’apparition de ChatGPT, d’abord, qui a inauguré l’ère de l’IA générative, capable non plus seulement de comprendre, mais de créer. Claude Code, ensuite, qui a transformé la façon dont les développeurs informatiques travaillent : "Il n’y a pas un seul de nos ingénieurs qui n’utilise pas quotidiennement des outils comme Claude Code et Cursor", a-t-il affirmé. Enfin, l’IA est selon lui entrée dans l’âge de l’inférence, où le but n’est plus de créer de nouveaux modèles toujours plus puissants, mais de faire tourner les modèles existants sur un grand nombre d’applications au quotidien, pour traiter toujours plus de données et extraire toujours plus de valeur.
"Or, chaque fois que l’IA génère une image, répond à une requête ou tape des lignes de code, elle consomme des tokens”, a développé le patron de Nvidia, pour qui "les tokens sont la nouvelle matière première. Plus de tokens signifie des modèles plus intelligents. Il faut donc baisser au maximum leurs coûts."
Le rôle des centres de données est du même coup selon lui en train de changer. Autrefois des endroits où l'on stockait des fichiers, ils deviennent des usines à produire des tokens le plus rapidement possible, pour permettre de faire de l’inférence à des coûts raisonnables. C’est tout l’objectif du nouveau système Vera Rubin, qui viendra remplacer cette année l’actuelle génération Blackwell, et pourra selon Jensen Huang délivrer dix fois plus de tokens par seconde, au service d’IA factories toujours plus puissantes et efficaces.
Nvidia + Groq
C’est également avec l’inférence en ligne de mire que Nvidia a massivement investi dans Groq, un spécialiste des puces dédiées à celle-ci. Lors de sa présentation, Jensen Huang a dévoilé un nouveau produit, Nvidia Groq 3, associant les puces de Groq et celles de Nvidia, au service de performances démultipliées.
"Alors que les systèmes agentiques génèrent désormais des jetons à un rythme exponentiel et que l'accord de licence avec Groq est sur le point de débloquer de nouveaux niveaux de performance d'inférence à faible latence, le GB200 NVL72 (puce de Nvidia dédiée à l’inférence, ndlr) se trouve au cœur du déploiement d'infrastructure le plus important de l'histoire de la technologie, et le leadership de Nvidia en matière d'inférence ne fait que se renforcer", commente Dan Ives de Wedbush, un expert spécialisé dans les nouvelles technologies.
En plus d’apporter à Nvidia son expertise sur l’inférence, Groq va par ailleurs l'aider à résoudre les problèmes de production qui contraignent la croissance de ses ventes. Les puces de Groq sont en effet fabriquées par Samsung Electronics plutôt que par TSMC, qui produit la grande majorité des puces de Nvidia et peine à satisfaire la demande de l'entreprise. Contrairement aux puces de Nvidia, celles de Groq ne nécessitent en outre pas de mémoire à haute bande passante, actuellement en pénurie.
Un système d'exploitation pour l’IA
Pour développer son écosystème, Nvidia a également annoncé un partenariat avec OpenClaw, un agent autonome capable d’effectuer des tâches de bureautique et de messagerie, et de se connecter à différents écosystèmes cloud ou sur site. Jensen Huang y voit un futur système d'exploitation pour l’IA. "OpenClaw a ouvert la prochaine frontière de l'IA à tous et est devenu le projet open source à la croissance la plus rapide de l'histoire", a-t-il déclaré. "Comme Mac et Windows sont les systèmes d'exploitation de l'ordinateur personnel, OpenClaw est le système d'exploitation de l'IA personnelle. C'est le moment que l'industrie attendait, le début d'une renaissance du logiciel." De ce partenariat est né NemoClaw, une version sécurisée pour les entreprises, afin de protéger les informations sensibles, en évitant les fuites de données liées aux agents.
Après quelques annonces plus futuristes et grandiloquentes, dont un projet de centre de données dans l’espace, Jensen Huang a affirmé, vidéo à l’appui, que des puces Nvidia toujours plus puissantes allaient bientôt permettre l'avènement de "l’IA physique", c’est-à dire des robots, annonçant du même coup plusieurs partenariats autour de robots-taxis et joignant le geste à la parole en faisant monter sur scène un petit robot représentant Olaf, un personnage du dessin animé La reine des neiges. "Les parcs d’attraction comme Disneyland pourront bientôt être équipés de robots de ce genre, imitant à la perfection des personnages de dessin animé", a-t-il prédit.
La conférence s’est achevée sur un étrange final, avec un clip vidéo représentant une version cartoonesque de Jensen Huang réuni avec des robots et un crabe Moltbook autour d’un feu de camp, chantant une musique de country parlant de tokens et d’IA open source tout en s’accompagnant au banjo. On laissera le lecteur apprécier… ou non.