Pourquoi Nvidia investit dans une jeune pousse japonaise de l'IA
Le géant des puces dédiées à l'IA vient de participer à un investissement de 100 millions de dollars dans Sakana AI, qui développe de petits modèles d'IA peu gourmands en données.
Avec l'essor de l'IA générative, qui a fait exploser ses ventes et précipité son action à des niveaux stratosphériques, le spécialiste des processeurs graphiques (GPUs) Nvidia est désormais assis sur une montagne de cash. Et la société de Jensen Huang commence à s'en servir, notamment en investissant dans des acteurs prometteurs de l'IA, dont, très récemment, une jeune pousse japonaise baptisée Sakana AI.
Nvidia a en effet participé à un tour d'investissement de 100 millions de dollars dans la start-up, auquel s'est joint, entre autres, Lux Capital, un fonds en capital-risque new-yorkais. Jeune pousse de l'IA générative, âgée d'un an à peine, Sakana AI a pour particularité de chercher à combiner plusieurs petits modèles d'IA travaillant de concert, plutôt qu'un grand modèle de fondation comme ceux d'OpenAI, Anthropic ou Google. Suite à son investissement dans la société, Nvidia va l'assister dans sa recherche et dans la mise en place d'infrastructures d'IA au Japon, en particulier des centres de données.
"Il s'agit d'une véritable collaboration via laquelle nous allons étroitement travailler avec leurs équipes d'ingénieurs et de chercheurs pour développer notre R&D, mais aussi passer la prochaine frontière en matière de puces d'IA" a déclaré David Ha, cofondateur et dirigeant de l'entreprise, ancien de Google Brain à Tokyo, dans une interview accordée suite à la levée de fonds.
Construire un écosystème occidental de l'IA
Le choix de Nvidia d'investir dans cette jeune pousse japonaise est riche en enseignements. D'abord, il souligne la volonté des Etats-Unis de construire un bloc occidental unifié autour de l'IA face à la Chine. S'il est davantage connu pour ses robots que pour ses algorithmes d'IA de pointe, le Japon constitue malgré tout une puissance non négligeable dans ce secteur, avec des sociétés pesant dans la chaîne de valeur des semi-conducteurs, comme Towa et Tokyo Ohka Kogyo. Ainsi, bien sûr, que le conglomérat Softbank, connu pour ses investissements tous azimuts dans les technologies de pointe, qui a en juillet dernier racheté le spécialiste britannique des puces d'IA Graphcore.
Dans leur stratégie visant à limiter l'accès de la Chine aux microprocesseurs de pointe, nécessaires pour entraîner les derniers modèles d'IA, les Etats-Unis sont ainsi parvenus à embrigader le Japon, obtenant de l'Empire du Milieu qu'il restreigne l'exportation de 23 composants clefs de la chaîne de valeur des semi-conducteurs vers la Chine. Ils font en outre pression pour que des interdictions supplémentaires soient mises en place. Les Pays-Bas, qui abritent la pépite ASML, se sont également joints aux sanctions.
En œuvrant en faveur de la construction d'un écosystème japonais de l'IA, Nvidia apporte sa pierre à cet édifice. "L'une des raisons qui nous ont incité à lancer notre entreprise au Japon est le facteur géopolitique. Le Japon cherche à développer son écosystème autour de l'IA et nous voulons faire partie de cette aventure", a ainsi confié David Hua.
La structuration d'un camp occidental autour de l'IA passe aussi par le cloud, dont les trois plus gros acteurs mondiaux (AWS, Microsoft Azure et Google Cloud) sont américains. En mai dernier, lors d'une visite du président kényan William Ruto à Washington, Joe Biden s'est ainsi félicité du fait que Microsoft allait construire un centre de données géant au Kenya pour y déployer son offre cloud. Le fait que la construction de centres de données spécialisés dans l'IA au Japon soit évoquée dans le cadre de l'investissement de Nvidia n'est donc pas anodin.
Vers une IA générative moins gourmande en énergie
À mesure que l'IA générative prend son essor, sa facture énergétique suscite une inquiétude croissante. Une récente étude de Goldman Sachs souligne ainsi que l'IA va requérir une hausse de 160% de la consommation énergétique des centres de données d'ici 2030. Selon d'autres estimations, cette technologie pourrait consommer autant d'énergie que les Pays-Bas dès 2027. Une gourmandise notamment due au fait que les modèles d'IA générative requièrent beaucoup plus d'énergie pour accomplir une tâche spécifique qu'un logiciel spécialisé sur une seule tâche.
Plusieurs solutions pour limiter la facture sont à l'étude, comme la montée des centres de données verts, ou encore les efforts déployés par Nvidia pour rendre ses processeurs plus efficaces et donc plus économes en énergie. Mais aussi l'usage de modèles d'IA générative plus petits et spécialisés, comme ceux que s'efforce de concevoir Sakana AI.
"Plusieurs d'entre nous sommes des anciens de Google, et nous avons pu constater que les efforts autour du développement de l'IA se concentraient sur des modèles toujours plus gros, avec toujours plus de données et de besoins en énergie. De notre côté, nous nous sommes dits qu'il y avait d'autres manières de faire avancer l'IA et les modèles de fondation. C'est ce qui nous a déterminés à lancer Sakana AI", a déclaré David Ha.
Vers l'inférence
À mesure que l'IA générative va être déployée au sein des entreprises et utilisée par le grand public, moins d'efforts vont être mis en œuvre pour entraîner des modèles de fondation comme celui de ChatGPT, et davantage pour faire de l'inférence, c'est-à-dire faire fonctionner l'IA générative au quotidien, au service de tâches concrètes. Colette Kress, directrice financière de Nvidia, a ainsi récemment annoncé que l'inférence a compté pour 40% des ventes de la division "centres de données" de la société, qui comprend notamment les puces puissantes dédiées à l'IA, au deuxième trimestre.
Le fait que Nvidia s'intéresse à une société comme Sakana AI, dont les petits modèles pourraient être non seulement plus efficaces, mais aussi plus flexibles et capables de s'adapter à leur environnement, donc idéaux pour l'inférence, n'est ici pas non plus anodin.
De l'importance de l'écosystème Nvidia
Enfin, cet investissement souligne la force principale de Nvidia qui, d'avantage que l'efficacité de ses GPUs, explique son avance sur AMD et Intel dans le domaine des puces d'IA : la puissance de son écosystème, que la société développe patiemment depuis déjà une vingtaine d'années. Un écosystème qui comprend des communautés de développeurs qui s'entraident et conçoivent des librairies ; des sociétés qui entraînent de gros modèles d'IA et des modèles plus petits ; et des clients de taille comme les Gafam qui mettent en place les briques logicielles nécessaires pour déployer les GPUs de Nvidia dans leurs centres de données.
En enrichissant son écosystème à travers ce nouvel investissement, Nvidia entretient donc son avantage compétitif sur ses rivaux, à l'heure où son concurrent AMD s'efforce également de renforcer son réseau.