Le cognitive computing, l'IA qui vise à égaler l'humain

Le cognitive computing, l'IA qui vise à égaler l'humain Où en est la recherche en informatique cognitive ? Quels en sont les premiers résultats ? Peut-elle prétendre aboutir à une intelligence artificielle forte ?

Le cognitive computing est souvent présenté comme l'un des plus grands défis de l'informatique actuelle. Il vise à doter un système numérique de capacités de raisonnement proches de celles d'un humain. Traduction : créer une IA forte. Pour y parvenir, le cognitive computing combine principalement deux technologies : le deep learning, notamment appliqué au traitement automatique du langage (NLP), et l'intelligence artificielle symbolique.

"Dans le deep learning, l'IA symbolique permet d'intégrer la notion de connaissances à la fonction d'activation des neurones", explique au JDN Vincent Perrin, partner ecosystem technical leader chez IBM. Des connaissances qui rendent de facto une partie des résultats du modèle explicables et maitrisables, ce qui est loin d'être vrai dans le cas d'un réseau de neurones purement probabiliste. "Pour certaines applications, type questions-réponses, cette méthode améliore par ailleurs le niveau de confiance que les utilisateurs vont avoir dans la mesure où les résultats s'appuient sur une logique de causalité (et pas seulement sur une approche probabiliste, ndlr)", poursuit Vincent Perrin. En contraignant le réseau à suivre des règles métier, elle peut en outre contribuer à limiter certains biais inhérents à l'apprentissage profond.

Apprendre avec toujours moins de données

Présentée comme l'un des principaux leviers du cognitive computing, l'IA neuro-symbolique surpasse le deep learning traditionnel dans des domaines tels que la reconnaissance et l'analyse d'images et de vidéo. Il a également été démontré que ce type de modèle, baptisé logical neural networks (LNN), atteint un niveau de précision bien supérieur à celui d'un réseau de neurones profond classique avec des volumes de données d'entraînement plus faibles. "D'où une phase d'entrainement plus rapide et moins consommatrice en capacités de calcul", ajoute Vincent Perrin (lire le blog post d'IBM sur le sujet).

Reste que la finalité du cognitive computing est de tendre vers une IA forte. "Nous en sommes encore très loin. L'intelligence artificielle générale reste cantonnée à la recherche théorique", rappelle Didier Gaultier. Pour le directeur IA de Business & Decision (groupe Orange), les chercheurs en IA forte devraient se détacher de la neurobiologie. "Cette analogie peut certes donner des idées au départ, mais nos connaissances dans ce domaine sont très insuffisantes pour nous permettre de le modéliser le cerveau", argue le data scientist. "Il a été découvert que chacune de nos cellules stocke probablement les millions d'années d'évolution du corps humains. Il s'agit là d'un niveau de complexité qui n'est pas à notre portée aujourd'hui."

"Prenons l'exemple des assistants Alexa ou Siri. Il s'agit d'IA multi-contextuelles qui mettent en œuvre des réseaux de neurones en cascade"

Existe-t-il d'autres solutions pour atteindre l'intelligence artificielle forte ? Plusieurs pistes d'évolution se dessinent. Dans un premier temps, l'IA neuro-symbolique pourrait venir s'appliquer aux grands réseau de neurones orientés NLP (Bert, GPT-3, LaMDA...). "L'idée est de parvenir à des modèles de traitement du langage généralisables à un grand nombre de cas d'usage, tout en étant plus sûrs en termes de résultats. Mais aussi à des IA plus frugales en ressources machine", explique Vincent Perrin.

Ensuite, les LNN pourraient évoluer vers des modèles capables eux-mêmes de générer des connaissances. "L'idée est d'obtenir en sortie du réseau de nouvelles règles métier qui seraient ensuite réutilisées comme nouvelles fonctions d'activation des neurones", avance Vincent Perrin.

Les neurosciences : une impasse ?

Last but not least, l'IA forte pourrait également trouver sa planche de salut dans les mathématiques. "Par exemple, nous en sommes au tout début de la recherche fondamentale en matière de réseaux de neurones en nombres complexes, ou espaces hilbertiens", évoque Didier Gaultier, chez Business & Decision. "Ces environnements peuvent potentiellement permettre de modéliser un volume très nettement supérieur d'informations avec des capacités de calcul moindres."

Autre piste évoquée par Didier Gaultier, à la portée de la recherche appliquée cette fois : combiner les modèles d'apprentissage. "Prenons l'exemple des assistants Alexa ou Siri. Il s'agit d'IA multi-contextuelles qui mettent en œuvre des réseaux de neurones en cascade : le premier pour activer le haut-parleur, le deuxième pour déterminer la question, le troisième pour y répondre, etc." Même si le défi de bâtir une IA forte est encore loin d'être relevé, le cognitive computing n'est déjà plus de la science-fiction.