Sid Kouider (Nextmind) "Après avoir décodé les intentions des gens, Nextmind veut décoder leur imagination"

Créateur d'une interface cerveau-ordinateur, Nextmind travaille à industrialiser son invention en préparant une nouvelle levée de fonds. Son fondateur dit tout sur son projet à la Minority Report.

JDN. Nextmind a créé le premier dispositif portable permettant de contrôler une interface par la pensée. Comment est née cette interface cerveau-ordinateur ?

Sid Kouider est fondateur et CEO de Nextmind © Nextmind

Sid Kouider. Nextmind a vu le jour en 2017 au sein du laboratoire de l'école Normal Sup. Les travaux portaient essentiellement sur la neurophysiologie et l'analyse des ondes cérébrales. Ces travaux avaient pour objectif de comprendre les mécanismes du cerveau comme l'attention, la perception, etc. Les avancées récentes en matière de Machine Learning et de miniaturisation des capteurs nous ont permis de concevoir un premier prototype. Notre interface neuronale permet d'accomplir des actions simples sur un écran d'ordinateur, comme changer de chaîne, déplacer des objets ou baisser le volume, uniquement grâce à son cerveau. Nextmind est désormais une start-up parisienne qui compte une vingtaine de collaborateurs.

Comment fonctionne cette technologie, qui a la particularité d'être entièrement basée sur l'analyse de l'activité cérébrale sans avoir recours à une technologie de Eye Tracking ?

L'idée est de décoder, en temps réel, les éléments sur lequel un utilisateur se concentre. Autrement dit traduire les signaux cérébraux provenant du cortex visuel. Nextmind a développé son propre dispositif hardware car les casques EEG (électro-encéphalogramme, ndlr) que l'on trouve dans le milieu hospitalier sont souvent assez volumineux, et nécessitent du gel ainsi qu'un temps d'installation assez long. Notre appareil, équipé de capteurs et connecté en Bluetooth, s'installe en quelques secondes avec un bandeau autour de la tête. Il est non-invasif et permet de mesurer l'activité électrique du cerveau lorsqu'une personne se concentre sur un élément précis. Nous allons dans un premier temps capter les ondes cérébrales pour les décoder. Nos algorithmes de Machine learning vont ensuite analyser ces données afin de les convertir en temps réel en action sur l'ordinateur.

Lors du CES20, vous aviez annoncé la vente de 1 000 premiers kits de développement à 399 dollars. Où en-êtes-vous aujourd'hui et quel est le profil des acheteurs ?

"Nous visons les secteurs du jeu vidéo, de la réalité virtuelle, le marché du handicap et l'Internet des objets"

Ces kits sont aujourd'hui vendus en Europe et aux US. Nous observons d'ailleurs un intérêt croissant en provenance des Etats-Unis. Concernant le profil des acheteurs, il s'agit pour l'heure essentiellement de développeurs issus du secteur du jeu vidéo et de la réalité virtuelle. Des profils plutôt créatifs, qui cherchent à créer des expériences immersives. Nous travaillons par exemple avec des artistes VR mais aussi avec des personnes qui cherchent à créer de nouvelles expériences dans le domaine du cinéma ou de l'évènementiel. A la rentrée, trois projets artistiques devraient être créés avec notre technologie. Ces projets sont utiles pour faire la démonstration de notre technologie et ainsi permettre au grand public de tester notre interface neuronale.

Pourquoi ce focus sur le secteur du jeu vidéo ?

Le jeu vidéo a toujours été propice à l'innovation. Cela a été le cas par le passé avec l'intégration de la technologie de reconnaissance de gestes de la Kinect par exemple. Il s'agit d'un marché d'early adopters avec une appétence réelle pour la technologie et pour la découverte de nouvelles expériences.

Outre le jeu vidéo, à quels autres cas d'usages pensez-vous ?

Nous discutons et faisons du co-développement avec des acteurs de la réalité augmentée et de la réalité virtuelle. Nous pensons également adapter notre technologie au marché du handicap. Un autre cas d'usage intéressant est l'IoT. Au lieu d'interagir uniquement avec un écran, un utilisateur pourrait interagir, via son cerveau, avec des objets connectés. Imaginez par exemple que vous puissiez ouvrir des portes, allumer la lumière, ouvrir votre robinet ou valider votre ticket dans le bus simplement par la pensée. C'est pourquoi nous travaillons beaucoup à la miniaturisation de notre dispositif. Certains constructeurs automobiles envisagent déjà de l'intégrer au sein de la voiture autonome de demain. Ainsi, non seulement le passager ne poserait pas les mains sur le volant, mais il ne poserait plus non plus les mains sur l'interface.

Quel modèle de revenus envisagez-vous pour commercialiser et distribuer cette technologie ?

"Des constructeurs automobiles envisagent d'intégrer cette technologie au sein de leur future voiture autonome"

Notre modèle est un modèle de licence. Il est assez proche de celui de Primesense, la société israélienne qui a développé la technologie de détection de mouvement de la Kinect. L'entreprise avait licencié sa technologie à Microsoft tout en la développant pour d'autres usages. Nous voulons que notre technologie soit intégrée dans la roadmap technologique du plus grand nombre d'entreprises possible, que ce soit à travers notre propre dispositif ou dans des appareils de sociétés tierces. L'objectif est que notre interface neuronale puisse toucher le plus large public. Le fait d'avoir davantage d'utilisateurs va également nous permettre d'améliorer la performance de nos algorithmes de machine learning, qui sont alimentés avec ces données totalement anonymisées.

Cette technologie sera-t-elle capable, dans le futur, de lire les pensées ? Pourrait-on, par exemple, imaginer de ne plus avoir besoin d'utiliser un clavier pour écrire du texte ?

Pour l'instant nous ne décodons pas encore les pensées. Nous traduisons uniquement le focus intentionnel actif d'une personne en action. Nous avons déjà franchi une première étape importante en permettant de contrôler un ordinateur avec son cerveau en temps réel sans dispositif invasif. La seconde étape consistera à décoder l'imagination. C'est un problème de taille d'un point de vue des neurosciences et du machine learning, mais que nous devrions pouvoir résoudre au cours des prochaines années.

Nous comprenons de mieux en mieux le fonctionnement du cerveau, et le machine learning nous offre désormais de nouvelles possibilités. Cependant, les algorithmes et les capteurs ne sont pas encore suffisamment évolués. Les freins sont donc davantage technologiques que théoriques. Mais c'est, d'après moi, une question de temps. Se poseront ensuite des questions liées à l'éthique qu'il faudra aussi prendre en compte.

Après avoir levé près de 4,6 millions d'euros en décembre 2018, une nouvelle levée de fonds est-elle prévue ? Nextmind doit déjà susciter de l'intérêt de la part de potentiels acquéreurs. Votre volonté est-elle de rester indépendant ?

Nous avons effectivement démarré des discussions pour une nouvelle levée de fonds. Nous annoncerons probablement quelque chose dans les mois à venir. Ces fonds devraient nous permettre de scaler notre activité. L'objectif sera de continuer à améliorer la technologie et de recruter. Concernant un éventuel rachat, nous n'y pensons pas à ce stade. Nous sommes concentrés sur le développement de la prochaine version de notre produit. Notre objectif est de démocratiser les neurotechnologies en créant la meilleure plateforme au monde dans ce secteur. Il s'agit pour Nextmind de continuer à innover.

Sid Kouider est un neuroscientifique français et CEO de Nextmind. Entre 2008 et 2018 il dirige le Lab sur "La conscience et le cerveau" au sein de l'Ecole Normale Supérieure. Parmi les différents travaux menés au sein de ce lab, naîtra le projet Nextmind en 2017, une interface cerveau-ordinateur dont la technologie permet de décoder l'activité électrique du cerveau pour les convertir en une action sur l'ordinateur. Il est titulaire d'un Phd en Sciences Cognitives obtenu à l'Ecole Normale Supérieure