Thomas Wolf (Hugging Face) "Hugging Face veut démocratiser la robotique grâce à l'open source"

Devenue incontournable pour tous les acteurs de l'IA, Hugging Face ambitionne de rendre également la robotique accessible au plus grand nombre. Sson cofondateur détaille les ambitions de la startup.

Thomas Wolf est cofondateur et directeur scientifique de Hugging Face. © JDN

JDN. Qui utilise Hugging Face aujourd'hui entre chercheurs, développeurs, start-up et grandes entreprises ?

Thomas Wolf.  Au départ, Hugging Face s'adressait surtout aux chercheurs. Puis la communauté s'est élargie avec l'arrivée des hobbyistes. Avec le temps, les usages se sont équilibrés et beaucoup d'utilisateurs s'en servent à la fois dans un cadre professionnel et personnel.

Aujourd'hui, toute personne qui construit quelque chose dans l'IA passe par Hugging Face, qu'il s'agisse de développeurs indépendants, de start-up, de grandes entreprises, d'ONG ou de gouvernements. En septembre, nous avons lancé l'Enterprise Hub, une version du Hub pensée pour les grands comptes, qui inclue des fonctions comme le contrôle des accès, des ressources privées ou une sécurité renforcée. Nous comptons déjà plus de 2 000 entreprises clientes de toutes tailles, de Nvidia à de jeunes start-up.

Est-ce que votre plateforme attire aussi des non-initiés à l'IA, qui ne sont pas forcément ingénieurs ?

Effectivement. Hugging Face repose sur trois grands piliers. Le premier, ce sont les modèles, utilisés par ceux qui veulent intégrer de l'IA dans leurs applications sans dépendre de solutions fermées. Le deuxième, ce sont les datasets, utiles pour entraîner ces modèles. Et le troisième, ce sont les applications, qu'on appelle les "spaces". Il y en a près de 100 000, accessibles à tous.

Nous pouvons voir cela comme une sorte "d'App Store de l'IA". Il suffit d'écrire ce que vous cherchez, comme un outil pour supprimer l'arrière-plan d'une photo ou générer un personnage 3D à partir d'un prompt, et vous trouverez une application pour ce besoin. Tout cela fonctionne via une interface no code, directement sur notre plateforme. Certaines de ces apps rencontrent beaucoup de succès, comme Comic Factory, qui permet de créer des bandes dessinées.

Hugging Face propose de nombreuses fonctionnalités gratuites. Comment financez-vous la plateforme ? Faut-il s'attendre à une restriction progressive de l'accès à certaines options ?

C'est une question que nous recevons depuis longtemps, et la réponse reste non. Nous n'avons pas prévu de restreindre l'accès aux fonctionnalités gratuites, car notre modèle économique fonctionne bien. Nous générons des revenus via du consulting auprès de très grands comptes comme Amazon ou Nvidia, ainsi qu'avec notre offre dédiée aux entreprises, le Hub Enterprise. Nous proposons aussi des abonnements individuels, par exemple pour les développeurs qui souhaitent bénéficier de plus de puissance de calcul pour exécuter leurs applications.

"Nous générons aujourd'hui un flux de trésorerie positif"

La majorité des apps présentes sur la plateforme sont développées par la communauté. Certaines tournent sur nos ressources partagées, d'autres sur des serveurs dédiés si leur créateur a opté pour une formule payante. En conclusion, notre modèle est solide. D'autant que nous avons levé des fonds en août 2023 et que nous générons aujourd'hui un flux de trésorerie positif.

Est-ce que vous entraînez en interne vos propres grands modèles d'IA ?

Non, nous n'entraînons pas de modèles dits "frontier", comme GPT-4. A l'inverse, nous nous concentrons sur des modèles plus petits, conçus pour fonctionner localement sur vos appareils. Nous pensons que leur potentiel est énorme. Je suis personnellement très enthousiaste à l'idée de développer des LLM plus légers, qui n'ont pas besoin de mémoriser l'ensemble d'Internet et peuvent s'appuyer sur des outils externes pour accomplir leurs tâches.

Est-ce qu'OpenAI vous semble encore hors d'atteinte malgré ses moyens colossaux ?

Jusqu'à l'an dernier, beaucoup pensaient qu'OpenAI avait une avance trop importante. Mais l'arrivée de DeepSeek a changé la perception de nombreux acteurs. Pour l'open source, cela a été un peu l'équivalent du "moment ChatGPT", en termes d'impact. L'écart entre les modèles open source et les modèles fermés continue de se réduire. Bien sûr, il restera toujours un léger décalage. Tout est public dans l'open source, ce qui permet aux acteurs fermés de s'en inspirer pour proposer des versions un peu meilleures.

 C'est comme si un élève travaillait avec un livre ouvert, et que son voisin n'avait plus qu'à lire la réponse et l'améliorer. Mais ce décalage devient de moins en moins significatif. Aujourd'hui, pour les entreprises, le choix du modèle n'est plus un enjeu central. Elles peuvent passer de GPT à Claude ou Gemini sans difficulté. Et grâce à l'open source, elles peuvent choisir leur propre infrastructure, leurs propres puces, etc.

Pourquoi avoir racheté, en avril dernier, la start-up bordelaise Pollen Robotics, et quelles sont vos ambitions dans la robotique ?

Rémi Cadène, ancien de Tesla, nous a rejoints en mars de l'année dernière pour développer des solutions logicielles dédiées à la robotique. Notre objectif est de créer une librairie standard autour des policies, les algorithmes qui contrôlent les robots.

"Nous travaillions déjà avec Pollen Robotics, et l'idée de les intégrer s'est faite naturellement"

Nous avons lancé une bibliothèque open source, baptisée LeRobot, en mai 2024, visant à standardiser les jeux de données et à rendre la robotique accessible grâce à l'IA. Elle commence à fédérer une vraie communauté, composée de chercheurs mais aussi de passionnés. Plus de 100 contributeurs y participent, et notre serveur Discord rassemble déjà 8 000 membres. Nous travaillions déjà avec Pollen Robotics, et l'idée de les intégrer s'est faite naturellement. Pollen est expert en hardware open source, nous en software open source, la complémentarité était évidente.

Vous avez récemment annoncé la sortie de deux robots open source, HopeJR et Richie Mini. A qui s'adressent-ils ?

Avec HopeJR, un humanoïde à 3 000 euros, et Richie Mini, proposé à 300 euros, nous cherchons à proposer des robots à un prix relativement accessible, surtout si l'on compare avec Optimus de Tesla, annoncé à plusieurs dizaines de milliers de dollars, ou ceux de Boston Dynamics, qui dépassent les centaines de milliers. Notre objectif est de démocratiser la robotique, en particulier auprès des développeurs software. Nous voulons leur offrir une plateforme, des jeux de données, et des robots abordables pour expérimenter, apprendre ou créer. Avant le rachat de Pollen Robotics, cette dernière commercialisait déjà Richie 2, un robot humanoïde vendu autour de 70 000 euros, destiné aux laboratoires de recherche ou à des industriels souhaitant, par exemple, l'entraîner pour automatiser certaines tâches.

Quelle est l'implication de Hugging Face dans les bras robotiques open source comme le SO100, dont le coût estimé est inférieur à 100 euros ?

À l'origine, ce projet vient d'un membre de notre communauté, qui a adapté un bras robotisé pour qu'il soit simple à construire et peu coûteux. Nous avons ensuite publié en open source les plans du SO‑100, un bras imprimable en 3D que chacun peut fabriquer soi-même. Quelques entreprises ont décidé de le produire et de proposer des kits à la vente, mais de notre côté, nous ne commercialisons rien et nous ne tirons aucun revenu de ce projet. Nous laissons le soin à des entreprises tierces de le faire. Bien sûr, toute personne ayant une imprimante 3D peut télécharger gratuitement les plans et assembler le bras un coût estimé inférieur à 100 euros. En avril 2025, nous avons lancé le SO‑101, une version plus robuste. La version prête à l'emploi est programmable et entièrement compatible avec notre librairie LeRobot, pour un coût estimé inférieur à 500 dollars.

Pensez-vous que la robotique puisse devenir centrale dans votre activité ?

Je ne pense pas. La robotique reste un pari, alors que nous vivons dans une ère dominée par Internet, où les modèles les plus utilisés resteront sans doute liés à des usages textuels comme les LLMs. Cela dit, nous espérons voir l'open source progresser aussi dans le domaine de la robotique, car il y a énormément à explorer, que ce soit pour le divertissement, les tâches domestiques ou des applications industrielles.

"La robotique reste un pari, alors que nous vivons dans une ère dominée par Internet"

Avec notre librairie LeRobot, nous cherchons à standardiser les jeux de données pour permettre aux chercheurs, entrepreneurs ou hobbyistes d'entraîner leurs robots à partir d'une base commune. Cela facilite le partage de données et ouvre la voie au transfert d'un dataset d'un robot à un autre, ce qui est encore difficile aujourd'hui. En mutualisant ces ressources, nous pourrons créer de meilleurs modèles. A plus long terme, la robotique pourrait aussi permettre à Hugging Face de diversifier ses revenus, par exemple avec la vente de robots.

Quels sont les grands axes de développement pour Hugging Face dans les prochaines années ?

Nous allons continuer à investir dans les petits modèles, un segment largement délaissé par les grands acteurs technologiques. Ces entreprises préfèrent vendre du token à l'usage, plutôt que de fournir directement les modèles à leurs clients. De notre côté, nous voulons continuer à partager autant que possible, en publiant les recettes, les jeux de données d'entraînement et tous les éléments nécessaires pour que la communauté puisse créer, adapter et reproduire ces modèles. Nous sommes convaincus que plus il y a de partage, plus l'ensemble de l'écosystème progresse.

Thomas Wolf est cofondateur et directeur scientifique de Hugging Face, où il pilote les initiatives open source, éducatives et expérimentales. Défenseur de la science ouverte, il est co-auteur du livre Natural Language Processing with Transformers (O'Reilly). Diplômé de l'Ecole Polytechnique, il a travaillé au Lawrence Berkeley National Lab avant de réaliser une thèse en physique à la Sorbonne et à l'ESPCI. Il a ensuite exercé comme conseil en brevets après un diplôme en droit à Panthéon-Sorbonne