Les robots agiles, la prochaine grande révolution humaine Des robots malvoyants...

Vouloir jouer les sauveurs en accomplissant des missions trop dangereuses pour l'Homme, c'est une chose. Mais les robots agiles ont encore du chemin à parcourir avant de devenir les équivalents bioniques des humains et besogner à côté d'ouvriers faits de chair et d'os. En particulier parce que tous ont du mal à interpréter correctement les images transmises par leurs capteurs visuels et lasers.

"En ce qui concerne la vision, les robots ne sont pas beaucoup plus performants qu'une larve de mouche"

De fait, "l'intelligence artificielle a été très efficace dans des domaines qui étaient autrefois considérés comme l'apanage des humains, par exemple la planification et la pensée rationnelle, mais pauvre pour reproduire les capacités sensorielles des systèmes biologiques. En ce qui concerne la vision, les robots ne sont pas beaucoup plus performants qu'une larve de mouche", illustre le professeur de génie biomédical Michele Rucci.

Au Laboratoire de perception active qu'il dirige à l'Université de Boston, lui et son équipe étudient "le système visuel de l'Homme et essayent de reproduire les principes qui font son succès". Un travail qui a notamment démontré "que les mouvements oculaires microscopiques que les humains exécutent continuellement sont des étapes très importantes du traitement de l'information".

Michele Rucci et ses étudiants ont donc répliqué ces micro-mouvements oculaires sur un robot. Conclusion : "plutôt que d'utiliser une seule image, nous avons démontré que l'on peut tirer profit de la circulation de l'information qui émerge pendant de petits mouvements de tête et des yeux similaires à ceux effectués par l'Homme" pour mieux appréhender la perception en trois dimensions. Comment ? Accrochez-vous : "Ces mouvements offrent des informations de profondeur sous forme de parallaxe, ce qui facilite grandement la récupération des informations 3D, la segmentation de l'image et la ségrégation figure-fond." Ouf.

le robot eyerover est doté d'une plateforme informatique conçue pour simuler le
Le robot EyeRover est doté d'une plateforme informatique conçue pour simuler le cerveau humain © Courtesy of Brain Corporation

Autres travaux qui devraient booster la capacité des robots à traiter des données et donc améliorer leurs compétences perceptuelles, ceux portant sur les puces neuromorphiques. Ces dernières reproduisent physiquement un réseau de neurones afin de gérer les data simultanément, à la manière d'un cerveau humain.

Traiter et mémoriser simultanément, c'est notamment le but de l'EyeRover, de l'américain Brain Corporation. Ce robot ressemble peut-être à un jouet sur roues, il n'en est pas moins doté d'une plateforme informatique conçue pour simuler le cerveau humain. Dans la même veine, la start-up Vicarious, installée à San Francisco, tente de bâtir un système qui voit et apprend comme notre cerveau grâce à des neurones virtuels disposés en couches hiérarchiques.

Et les scientifiques n'entendent pas s'arrêter à la vue : demain, nos alter ego bioniques seront également dotés de l'ouïe. Aux quatre coins du monde, des chercheurs travaillent sur des algorithmes de localisation des sources sonores.