Au CES, l'IA jusqu'au bout des doigts

Au CES, l'IA jusqu'au bout des doigts Mains, vision, cerveau… Des start-up ont présenté des technologies qui utilisent l'IA pour améliorer les capacités du corps humain ou corriger ses déficiences.

Après s'être immiscée dans de nombreux secteurs économiques, l'intelligence artificielle s'attaque au corps humain. Au Consumer Electronics  Show de Las Vegas (CES), qui a ouvert ses portes ce 7 janvier, des start-up utilisent les progrès de l'IA pour créer, avec la complicité d'objets connectés, le genre d'interfaces entre hommes et machines qui étaient autrefois cantonnées aux laboratoires.

C'est la start-up américano-chinoise BrainCo qui a, sans doute, présenté un des projets les plus aboutis sur le sujet. Issue du laboratoire d'innovation d'Harvard et fondée il y a trois ans, la société a développé des algorithmes de machine learning capables de comprendre l'activité du cerveau et des terminaisons nerveuses. De quoi lui permettre de conçevoir une main artificielle robotique qui peut être utilisée par toute personne amputée (jusqu'au coude) et contrôlée presque instinctivement. Une vingtaine de minutes de calibrage, lors de l'installation, suffisent à la maîtriser, assure l'entreprise. "Les personnes amputées disposent toujours des nerfs qui commandent les mouvements de la main dans le reste de leur bras",  rappelle Molei Wu, ingénieur chez BrainCo. Les algorithmes de l'entreprise catégorisent les signaux émis par les nerfs en fonction du mouvement souhaité et les transforment en commandes à destination de la main robotique.

Le JDN a assisté à une démonstration avec des amputés utilisateurs de la technologie. Ils sont capables de réaliser toutes sortes de mouvements élaborés, quoi qu'un peu lents : serrer une main, attraper un objet, lever le doigt de leur choix, faire se toucher le pouce et l'index... Vendue entre 10 et 15 000 dollars, la main a été approuvée par les autorités de santé chinoises et est en cours d'autorisation aux Etats-Unis, pour un début de commercialisation espéré en juin.

BrainCo développe un autre produit plus grand public, toujours à base d'IA, mais cette fois-ci pour le cerveau. Il s'agit d'une sorte de bandeau à mettre sur la tête qui détecte l'état de concentration, de relaxation ou de stress de l'utilisateur, accompagné d'une appli qui affiche des conseils de méditation et des données historiques. L'activité électrique du cerveau (électroencéphalographie) associée à ces différents états d'esprit a été observée chez plusieurs milliers de personnes lors de la phase de R&D afin d'entraîner des algorithmes de machine learning à reconnaître ces différents sentiments.  Ces derniers affinent également, pour chaque utilisateur, leur capacité de détection à mesure que le bandeau est utilisé. BrainCo a noué un partenariat avec Formula Medecine, qui assure le suivi médical de pilotes de Formule 1, pour intégrer le bandeau à ses programmes d'entraînement.

Toujours dans le cerveau, le Français NextMind s'attache, lui, à détecter ce qu'il voit, pour déclencher des actions physiques ou numériques sans bouger un cil. NextMind est un projet issu des travaux en neuroscience cognitive du CNRS, où Sid Kouider, fondateur de la start-up, était directeur de recherche. NextMind a conçu un bandeau qui fixe un capteur sur l'arrière du crâne, où se trouve le cortex visuel. En analysant le signal électrique de cette région du cerveau, l'appareil peut comprendre ce que regarde quelqu'un et déclencher des actions en fonction des endroits où se pose le regard.

Le capteur de NextMind. © JDN

L'entreprise a intégré son bandeau aux casques de réalité virtuelle pour utiliser le regard comme commande en plus des manettes. Elle imagine également des applications dans le secteur des transports par exemple, pour contrôler le tableau de bord d'une voiture en gardant les mains sur le volant ou surveiller le niveau d'attention des pilotes d'avion. La start-up, qui a levé 4 millions d'euros fin 2018, commencera à vendre son appareil au deuxième trimestre 2020 aux développeurs et l'ouvrira au grand public une fois qu'un écosystème d'applications satisfaisant aura émergé. Son concurrent chinois BrainUp, également présent sur le salon, développe un appareil et des fonctionnalités similaires.

Un Ctrl+F pour aveugles

A l'inverse de NextMind, Orcam s'adresse à ceux qui ne voient pas. Cette société israélienne créée par les fondateurs de Mobileye utilise la même technologie que le géant des aides à la conduite, la vision par ordinateur, mais la met au service des aveugles et mal voyants. Elle a conçu Orcam My Eye, une caméra miniature qui s'attache sur une branche de lunettes. Dotée d'une petit haut-parleur et connectable à des écouteurs en Bluetooth, elle est capable de lire n'importe quel texte dans 35 langues. L'utilisateur malvoyant peut mettre le doigt devant un texte et l'appareil commencera à le lire quelques secondes plus tard. La recherche de mots dans un texte est également disponible via une commande vocale, qui fera démarrer la lecture à partir de la phrase dans laquelle se trouve le mot-clé. Pour une personne totalement aveugle, un bouton permet de lire tout texte présent devant soi, aussi bien un journal que des panneaux de signalisation.

L'appareil, qui fonctionne complètement hors ligne, renseigne aussi sur les éléments qui entourent l'utilisateur. Lors d'une démonstration, il nous a par exemple indiqué : " un homme et six personnes se trouvent devant vous ". En plus des personnes (et de leur sexe si elles se trouvent assez près), Orcam reconnaît les couleurs, les portes, les verres et les escaliers. A la manière du jeu " tu gèles – tu brûles ", l'appareil émet un signal sonore différent si l'utilisateur s'approche ou s'éloigne d'un objet qu'il tente d'attraper. Orcam a commencé à développer un autre appareil, Orcam Ear, cette fois-ci à destination des malentendants, dont les aides auditives fonctionnent mal dans des environnements bruyants. Une petite caméra portée autour du cou se synchronise aux appareils auditifs pour associer les mouvements des lèvres qu'elle filme devant elle aux voix qui les émettent, tout en excluant les bruits ambiants inutiles qui parasitent l'audition. Valorisée plus d'un milliard de dollars après sa dernière levée de fonds fin 2018, Orcam affirme avoir vendu "plusieurs dizaines de milliers " d'appareils.

Ce genre de technologies existent depuis des années, mais elles étaient auparavant expérimentales, très onéreuses ou peu pratiques parce qu'elles nécessitaient d'encombrants dispositifs de mesure et de captation. "Les progrès du machine learning et de la miniaturisation du hardware rendent le business viable et permettent d'en faire davantage. Par exemple, des mesures en temps réel de l'activité cérébrale. Ce qui était auparavant impossible", analyse Sid Kouider fondateur de NextMind. Augmenté, optimisé, le corps n'a plus le droit de bugger.