L'IA émotionnelle n'est plus une fiction mais un marché porteur
L'intelligence artificielle permet désormais de détecter mais aussi d'imiter des émotions humaines en fonction d'un contexte donné. Les premiers produits sur étagères sont désormais disponibles.
L'intelligence artificielle émotionnelle, un concept qui semble sortir tout droit d'un roman de science-fiction, s'ancre de plus en plus dans la réalité technologique et commerciale. Cette branche de l'intelligence artificielle, qui vise à développer des systèmes capables de détecter, d'interpréter et même de simuler les émotions humaines, suscite un intérêt croissant au sein de la communauté scientifique et des entreprises.
L'idée d'équiper les machines de la capacité de comprendre les émotions humaines remonte aux premières réflexions sur l'intelligence artificielle. Toutefois, c'est dans les années 1990 que Rosalind Picard, professeure au MIT Media Lab, a formalisé ce concept dans son ouvrage "Affective Computing". Elle postulait alors que pour améliorer l'interaction entre l'homme et la machine, il était crucial que les machines puissent reconnaître et exprimer des émotions.
Aujourd'hui, les technologies d'IA générative sont utilisées pour analyser les expressions faciales, la tonalité de la voix et même les mots utilisés dans les communications écrites pour en déduire des états émotionnels. Des systèmes de reconnaissance faciale avancés utilisent par exemple des réseaux de neurones pour identifier des micro-expressions qui trahissent des sentiments comme la joie, la tristesse ou la colère. Parallèlement, des technologies de traitement du langage naturel (NLP) permettent d'évaluer le contenu émotionnel des écrits et des conversations.
Les hyperscalers avancent leurs pions
En pratique, ces outils se déploient via des API qui intègrent l'analyse des émotions dans des applications plus larges, souvent dans le but d'améliorer l'expérience utilisateur ou d'optimiser les interactions client. C'est notamment le cas de l'Emotion API du cloud Azure de Microsoft, de l'interface de NLU de Watson, de la Cloud Vision API de Google ou encore du service Rekognition d'Amazon Web Services. Un panorama de solutions dressé par PitchBook dans une récente étude (Enterprise Saas Emerging Tech Research).
En parallèle s'est développé un écosystème de start-up autour de l'IA émotionnelle. Porte-drapeau de ces acteurs, Uniphore a levé p 610 millions de dollars depuis sa création en 2008. "Cette société a développé un copilote IA doté d'une profondeur émotionnelle visant à établir la confiance à travers toutes les fonctions de l'entreprise : service client, ventes, marketing, finance, RH, produits et achats. La plateforme […] recouvre l'analyse tonale, l'analyse de sentiment, l'IA multimodale et l'IA comportementale", détaille PitchBook. Le cabinet d'analyse cite d'autres start-up : Realeyes, MorphCast, VoiceSense, Superceed, audEERING ou encore Opsis.
"Le besoin croissant d'outils marketing avancés stimule considérablement le marché de la détection et de la reconnaissance des émotions"
D'après le cabinet d'étude Mordor Intelligence, le marché de la détection et de la reconnaissance des émotions va passer de 57,25 milliards de dollars en 2024 à 139,44 milliards de dollars en 2029, soit une progression de 144%.
L'IA émotionnelle ouvre de nouveaux horizons dans plusieurs secteurs. Dans la santé, par exemple, elle pourrait révolutionner la prise en charge psychologique en fournissant des outils pour mieux comprendre les états émotionnels des patients, souvent difficiles à verbaliser. Dans le secteur des services, la détection des émotions pourrait faciliter un service client plus personnalisé et empathique.
Les assistants intelligents en ligne de mire
L'une des applications les plus parlantes de l'IA émotionnelle reste sans doute dans le domaine des assistants intelligents. Grâce à cette technique, ces systèmes pourraient ajuster leurs réponses en fonction de l'humeur perçue de l'utilisateur, offrant ainsi un soutien plus adapté et personnel. Par exemple, un assistant pourrait proposer de jouer une musique apaisante s'il détecte que l'utilisateur est stressé.
Un autre exemple est celui des systèmes de surveillance de l'humeur des employés. Comme le laisse entrevoir une étude du Gartner parue en 2019, certaines entreprises utilisent déjà l'IA émotionnelle pour évaluer le bien-être de leurs employés en analysant les expressions faciales dans les vidéos des réunions ou les intonations vocales dans les appels téléphoniques.
L'IA émotionnelle marque une étape importante dans l'évolution de l'intelligence artificielle, offrant des possibilités qui étaient inimaginables il y a seulement quelques annéesAux technologues, législateurs, psychologues et à la société civile de garantir que l'IA émotionnelle serve à enrichir l'expérience humaine sans compromettre les droits individuels.