L’IA émotionnelle au service de la personnalisation des interactions

Quand les entreprises misent sur l’intelligence artificielle pour identifier, interpréter et répondre aux émotions et humeurs de l’être humain.

D’ici 2022, l’appareil que nous utilisons au quotidien en saura plus sur nos émotions que nos proches. En effet, les nouvelles tendances montrent bien que l’intelligence artificielle émotionnelle (ou IA émotionnelle) peut faire de cette prédiction une réalité.

L’IA émotionnelle, aussi appelée informatique affective, permet aux objets de tous les jours d’identifier, d’analyser, de traiter et de répondre aux émotions et aux humeurs, du bonheur à l’amour en passant par la peur et la honte. Derrière cette technologie, la possibilité d’élaborer des expériences utilisateurs plus personnalisées, comme un réfrigérateur intelligent qui interprète l’humeur du moment de l’utilisateur pour lui proposer des aliments qui y sont adaptés.

Bientôt, les chargés de planification technologique stratégique pourront s’appuyer sur ces technologies pour concevoir et commercialiser la gamme d’appareils de demain. 

L’IA émotionnelle intégrée aux assistants personnels virtuels

S’il existe déjà des technologies d’IA émotionnelle, leur usage tarde encore à se généraliser. Au vu de l’essor des assistants personnels virtuels (VPAs) à l’image de Siri d’Apple par exemple, leur démocratisation devrait trouver un terreau favorable dans les systèmes de conversation, c’est-à-dire les technologies utilisées pour dialoguer avec des humains.

Les VPA modernes s’appuient sur le traitement et la compréhension du langage naturel pour répondre aux commandes et questions exprimées par la voix de leur possesseur. Or, ils ne sont pas en mesure d’analyser le contexte comme il le faudrait pour appréhender son humeur et y répondre. Doter ces VPA de capacités d’identification des émotions leur permettra d’analyser des données en fonction des expressions du visage, des intonations de la voix et des modèles comportementaux. Tout ceci participe à enrichir considérablement l’expérience utilisateur et à donner corps à des interactions plus simples et plus naturelles.

Des prototypes et des produits commerciaux ont d’ores et déjà vu le jour, à l’image de l’application de reconnaissance vocale de Beyond Verbal ou de l’assistant personnel virtuel Hubble pour les maisons connectées.

Les assistants personnels robotisés (APR) sont eux aussi voués à développer l’IA émotionnelle. Beaucoup présentent déjà certains traits empruntés à l’être humain qui pourraient servir de socle à la création d’une nouvelle génération apte à s’adapter à des contextes émotionnels et des personnes différentes. Plus l’APR interagit avec un utilisateur spécifique, plus il se forgera une personnalité.

Certains de ces projets doivent encore prendre une forme concrète. Des entreprises comme IBM et des start-up telles qu’Emoshape s’efforcent de mettre au point des techniques pour conférer aux systèmes robotisés des traits de caractère semblables aux nôtres. Les robots Sanbot de Qihan Technology et Pepper de SoftBank Robotics apprennent à distinguer les différentes émotions qui peuvent gagner les humains et à y répondre. Ainsi, si un APR sent de la déception au cours d’une interaction, il y réagira en présentant ses excuses.

Enrichir l’expérience utilisateur partout

L’IA émotionnelle fera bientôt son apparition sur d’autres appareils et technologies ancrés dans le quotidien du grand public; à commencer par les logiciels éducatifs et les outils de diagnostic, les jeux vidéo et la voiture autonome. Autant de domaines dans lesquels l’IA émotionnelle est soit en cours de développement soit en phase d’expérimentation.

Le jeu vidéo Nevermind, par exemple, s’appuie sur une technologie de « rétroaction biologique » pour décrypter les expressions faciales du joueur et adapter le niveau de difficulté en conséquence. Plus le joueur est stressé, plus le jeu devient ardu. A contrario, plus il est détendu, plus l’IA est indulgente.

Les voitures commencent elles aussi à adopter des systèmes embarqués capables d’adapter la réactivité de leurs freins au niveau d’anxiété qu’elles perçoivent chez le conducteur. Dans les deux cas, l’analyse en temps réel des émotions se fait par l’entremise de capteurs visuels et de logiciels de reconnaissance émotionnelle dotés l’intelligence artificielle.

Stimuler l’adoption de l’IA émotionnelle dans la santé et l’automobile

Les acteurs de la santé et de l’automobile commencent d’ores et déjà à évaluer si – et dans quelle mesure – il est de leur intérêt d’adopter des technologies de détection des émotions.

Comme le montrent les exemples ci-dessus, les constructeurs automobiles songent eux à doter leurs modèles de systèmes qui détecteront l’état d’esprit du conducteur et ses émotions. Ceci permettra d’améliorer la sécurité routière en apportant une réponse adaptée à sa colère, à sa frustration, à sa somnolence ou encore à son anxiété.

Dans le domaine de la santé, les textiles et objets aptes à détecter les émotions pourraient superviser la santé mentale des patients 24h/24, 7j/7 et alerter immédiatement les médecins et le personnel soignant en cas de besoin. Sans compter que ces appareils permettront aux médecins et au personnel soignant de superviser des tendances de santé mentale et de décider quand et comment communiquer avec les patients sous leur responsabilité.

Les rares plateformes qui permettent aujourd’hui de discerner et de traiter des émotions ont été mises au point en interne et sont conçues pour répondre à quelques cas d’usage isolés. Depuis quelques années, certaines grandes marques internationales s’en servent pour analyser la façon dont leurs produits et leur marque sont perçus.

Dans les deux prochaines années, on peut s’attendre à voir les géants de la technologie et des médias faire équipe pour renforcer leurs capacités et proposer des outils qui auront une incidence positive sur la vie de tous.

Source : Smarter With Gartner