Jeff Boudier (Hugging Face) "La robotique fait désormais partie intégrante de la stratégie d'Hugging Face"
Jeff Boudier, chief product and growth officer de Hugging Face, détaille pour le JDN, à l'occasion de re:Invent, comment la licorne française étend son influence dans l'IA tout en accélérant désormais dans la robotique.
JDN. Hugging Face est le champion de l'open source, mais vous êtes une entreprise valorisée à 4,5 milliards de dollars. Aujourd'hui, quel est le vrai moteur de votre revenu ?
Jeff Boudier. Nous comptons aujourd'hui plus de 12 millions d'AI builders : des chercheurs, des data scientists, des ingénieurs en machine learning et, de plus en plus, des développeurs logiciels. Ils utilisent quotidiennement la plateforme pour accéder, exploiter et partager leurs propres modèles, datasets et applications. Cet accès au Hugging Face Hub est essentiellement gratuit. Cependant, pour les particuliers et les entreprises ayant des besoins plus spécifiques, nous proposons des services payants. Si vous êtes l'un de nos 12 millions d'utilisateurs, vous pouvez souscrire à notre abonnement Pro pour environ 9 dollars par mois. Cela vous donne accès à des avantages comme les Hugging Face Inference Providers pour consommer des modèles, ou à Spaces, notre plateforme d'applications IA, avec du "compute" premium.
Mais l'élément le plus récent, et dont la croissance est la plus rapide, concerne notre offre pour les organisations. Plus de 300 000 organisations se sont créées organiquement sur la plateforme pour collaborer et construire en privé. Nous évoquons souvent les 2 millions de modèles ouverts, publics et en libre accès, mais nous hébergeons un volume équivalent de modèles, datasets et applications privés. Au total, environ 6 millions de repositories sont actuellement hébergés sur Hugging Face.
Vous avez lancé LeRobot, votre incursion dans la robotique open source. Pourquoi ce pari ? Pensez-vous que la prochaine vague de l'IA aura lieu dans le monde physique ?
Cela fait sans doute un peu plus d'un an que nous avons identifié une opportunité incroyable dans la robotique, un secteur encore largement dominé par du rule-based automation code. Nous avons constaté que les modèles de machine learning appliqués au contrôle des robots commençaient non seulement à donner d'excellents résultats, mais présentaient aussi des caractéristiques similaires à celles qui ont fait le succès des Transformers dans le NLP.
"LeRobot a été créé pour reproduire ce que nous avons fait pour le texte il y a sept ans : simplifier le passage de la recherche à la pratique"
L'idée est d'utiliser un modèle pre-trained, que l'on peut adapter efficacement. Qu'il s'agisse d'un bras à six degrés de liberté ou d'une base mobile, la mission peut consister, par exemple, à saisir un téléphone et à le retourner. L'environnement, le robot ou la tâche peuvent varier, mais en partant du même modèle, il est possible d'atteindre un bon taux de réussite après seulement une cinquantaine d'essais.
LeRobot a été créé pour reproduire ce que nous avons fait pour le texte il y a sept ans : simplifier le passage de la recherche à la pratique. Plutôt que de devoir recoder l'implémentation d'une publication scientifique, LeRobot permet d'appliquer directement ces modèles à l'AI Robotics. Vous partez d'une base existante, vous l'affinez via la téléopération, et vous obtenez rapidement une solution adaptée à votre environnement.
Combien de collaborateurs travaillent-ils actuellement sur LeRobot ?
Environ 20% de nos équipes travaillent sur des projets liés à la robotique. Cela couvre aussi bien la partie software, autour de LeRobot, que le hardware. Nous avons commencé par fournir du matériel open source à la communauté. Par là, nous entendons des plans de référence et des "blueprints" pour imprimer les pièces chez soi, une "BOM list" pour acheter les éléments que l'on ne peut pas fabriquer soi-même, ainsi que les instructions d'assemblage.
Le bras SO101 est selon moi la plateforme robotique open source la plus réussie à ce jour. Que ce soit en nombre d'unités fabriquées ou en quantité de données générées, ce succès n'a été possible que grâce à un design totalement open source, adopté et amélioré par la communauté. Pour ceux qui ne souhaitent pas imprimer les pièces, assembler le robot ou gérer la partie logicielle, nous avons commencé à vendre des robots prêts à l'emploi. Le meilleur exemple en est le Reachy Mini.
Cette année, Hugging Face a acquis Pollen Robotics, le fabricant du Reachy 2. A partir du Reachy 2, qui coûte environ 70 000 dollars, nous avons conçu une version grand public : le Reachy Mini, un robot accessible aux alentours de 300 dollars. Il suffit de le brancher à un ordinateur pour exécuter des modèles depuis le Hub Hugging Face. Il est doté de l'ouïe, d'un haut-parleur, d'une caméra, d'une tête avec six degrés de liberté et d'antennes expressives. C'est le compagnon ou l'outil pédagogique idéal pour expérimenter l'IA sans avoir à construire un robot entier. Le Reachy Mini a rencontré une popularité surprenante : dès son lancement, nous avons enregistré plus de 5 000 commandes. L'équipe de Pollen s'active pour tout expédier avant Noël. C'est un développement vraiment enthousiasmant.
La robotique est-elle devenue pour vous une nouvelle ligne de revenu ?
Oui, c'est déjà le cas. C'est clairement intégré à notre stratégie actuelle.
Vous multipliez les partenariats avec les éditeurs de modèles (Meta, Mistral, Google, Nvidia…). Concrètement, qu'est-ce que ces alliances apportent à Hugging Face ?
Nous distinguons plusieurs types de collaborations. Hugging Face étant la plateforme de référence pour la publication de modèles, nous nous efforçons de simplifier ce processus pour tous les model providers, qu'il s'agisse d'Alibaba avec Qwen, de Meta avec LLaMA et SAM, ou d'Amazon avec les modèles Chronos.
"Un nouveau repository est créé toutes les dix secondes sur Hugging Face"
Nous avons aussi des partenariats importants, comme celui avec AWS depuis cinq ans, pour aider leurs clients à utiliser nos outils facilement. Concrètement, nous mettons à disposition des versions prêtes à l'emploi de nos technologies, nous intégrons Hugging Face dans leurs services principaux et nous collaborons avec leurs équipes pour que nos modèles fonctionnent au mieux sur leurs machines. Toutes ces activités visent à accroître l'adoption de nos outils par les clients AWS. Aujourd'hui, cela représente des dizaines de pétaoctets de modèles, de datasets et d'applications servis, soit des milliards de requêtes par mois. C'est énorme.
Vous hébergez aujourd'hui des milliers de modèles open source, dont certains très sensibles. Comment assurez-vous la sécurité de l'ensemble des modèles présent sur la plateforme ?
Un nouveau repository est créé toutes les dix secondes sur Hugging Face. Le contrat de base est le suivant : Hugging Face sécurise les dépôts publics, tandis qu'il incombe à l'entreprise de sécuriser son propre usage. De notre côté, nous exécutons plusieurs contrôles pour chaque modèle publié : scanner de malwares, détection de données personnelles et inspection des fichiers Pickle. Pickle est un format de sérialisation des poids du modèle, très utilisé avec PyTorch, mais qui présente un risque d'exécution de code arbitraire. C'est pourquoi nous développons Safetensors comme alternative sécurisée, que nous essayons d'imposer comme standard.
Nous collaborons également avec des spécialistes de la sécurité IA comme Protect AI, JFrog ou VirusTotal, dont les résultats d'analyse sont visibles directement dans l'onglet 'Files' des modèles.
On voit, dans l'IA open source comme propriétaire, une tendance à la sortie de SLM (small language models). Est-ce la fin de la course au gigantisme ? Les entreprises ont-elles vraiment besoin de modèles à 100 milliards de paramètres pour leurs tâches quotidiennes ?
Je ne parlerais pas d'un nouveau paradigme qui remplacerait tout le reste. Toutefois, beaucoup de cas d'usage reposant aujourd'hui sur des modèles massifs et coûteux fonctionneraient aussi bien, voire mieux, avec des modèles plus petits et spécialisés. C'est la tendance des deux ou trois prochaines années.
La vision de Hugging Face n'est pas celle d'un modèle unique résolvant tous les problèmes de l'humanité, mais plutôt de millions de modèles conçus pour effectuer une tâche précise, de manière plus fiable et économique. Nous voulons que chaque entreprise puisse construire ses propres outils. Il ne s'agit pas nécessairement de créer un nouveau frontier model, mais de partir d'un modèle existant adapté à la problématique et de le personnaliser simplement.