Les neurosciences ont inspiré l'intelligence artificielle : le modèle neuronal et les concepts – [2/2]

Les interactions entre les domaines de l'IA et des neurosciences ont permis de grands progrès dans la mesure où l'IA qui a été inspirée par l'étude du calcul neuronal chez l'homme et les animaux.

Les domaines de la neuroscience et de l'intelligence artificielle (IA) ont une histoire longue et étroitement liée. Dans cette seconde partie nous verrons qu'une meilleure compréhension des cerveaux biologiques joue un rôle essentiel dans la construction de machines dites "intelligentes". Les interactions entre les domaines de l'IA et des neurosciences ont permis de grands progrès dans la mesure où l'IA qui a été inspirée par l'étude du calcul neuronal chez l'homme et d'autres animaux.

Et si l’on compare le fonctionnement d’un cerveau et de l’informatique dans leurs composantes respectives ?

La configuration du cerveau humain est le moteur de l’intelligence artificielle même si cette dernière est loin d’atteindre la complexité de l’encéphale humain… "Les machines ne 'pensent' pas toutes seules : elles ont besoin de l'intervention humaine pour le faire" selon la neurobiologiste Catherine Vidal.

Description et modèle d'un neurone et d’un neurone formel

Les réseaux neuronaux artificiels sont une modélisation au plus près du réel fonctionnement des réseaux de neurones biologiques d’où émergent les associations implicites du cerveau. Transposer leur structure dans des systèmes informatiques permettrait aux programmes d’acquérir par eux-mêmes des connaissances implicites. Une bonne compréhension du fonctionnement des neurones biologiques permettrait de mieux comprendre leurs équivalents en informatique.

Un neurone biologique est une cellule nerveuse capable de transmettre des informations à d’autres neurones au travers de ses différentes connexions (synapses). Il comprend à sa base une structure formée de ramifications, les dendrites, qui reçoivent des signaux électriques en provenance d’autres neurones.

Le cône d’implantation ou d’émergence (à la base du corps cellulaire), fait la somme des signaux (excitations) reçues. Quand les signaux atteignent ou dépassent un certain seuil, le neurone produit à son tour un influx nerveux qui excite d’autres neurones en traversant l’axone et les ramifications terminales. La fréquence d’envois d’influx nerveux par un neurone dépend de la somme des excitations reçues : plus cette dernière est élevée, plus la fréquence est grande.

 Il existe plusieurs types de neurones (Pyramide, Panier, Purkinje, etc.) avec des fonctionnements différents (sensoriel, moteur, etc.) et qui sont interconnectés entre eux et forment des réseaux.

Figure : Représentation d’un neurone biologique ©  Nicolas Rougier
© Nouamane Cherkaoui

Par ailleurs, Les réseaux de neurones artificiels sont simplement des systèmes inspirés du fonctionnement des neurones biologiques. Le plus célèbre d’entre eux est le perceptron multicouche (écrit également multicouches), un système artificiel capable d’apprendre par… l’expérience et qui a été modélisé par Franck Rosenblatt en 1957.

Le neurone artificiel est donc appelé aussi neurone formel et qui reprend le fonctionnement du neurone biologique. En somme, c’est un dispositif à plusieurs entrées et une sortie qui modélise certaines propriétés du neurone biologique, mais ce n’est qu’avec l’augmentation de la puissance de calcul courant des années 2000 que le perceptron a pu être utilisé et a été démocratisé.

Note : la valeur de sortie du neurone formel est une fonction non linéaire, généralement à seuil, d'une combinaison de valeurs d'entrée dont les coefficients de pondération sont ajustables.[1]

Principes généraux

Un neurone est une unité de calcul. Elle peut comporter 1 ou plusieurs entrées et 1 sortie calculée grâce à différentes caractéristiques :

  • Des entrées (X ou E) peut varier de 0 à 1, (-1 à 1 avec la fonction sigmoïde[2]), la sortie applique le même fonctionnement
  • Chacune des entrées à un poids (W) accordé à chacune des entrées et permettant de modifier l’importance de certaines par rapport aux autres.
  • Une fonction d’agrégation, qui permet de calculer une unique valeur à partir des entrées et des poids correspondants.
  • Un seuil (ou biais), permettant d’indiquer quand le neurone doit agir.
  • Une fonction d’activation, qui associe à chaque valeur agrégée une unique valeur de sortie dépendant du seuil.   
  • Le résultat du calcul du neurone n’est autre que la somme des produits de toutes les entrées et des poids, le tout passé par un "filtre" que l'on appel fonction d'activation (sortie).

Autre précision et différence notable, la notion de temps, importante en biologie, n’est pas prise en compte pour la majorité des neurones formels.

Le neurone formel peut donc se résumer sous la forme suivante [3]:

Figure : Schématisation des fonctions d’un neurone formel © Nouamane Cherkaoui

Sur la base de ces fonctions et principes de fonctionnement, nous pourrons comparer un neurone biologique et un neurone artificiel comme ci-après :

Figure : Mise en correspondance (adapté par Nouamane Cherkaoui) d’un neurone biologique et d’un neurone artificiel © Claude Touzet – 1992 [4]
Figure : Comparaison des réseaux de neurones naturels et artificiels – (adapté par Nouamane Cherkaoui) Source : Exposé Esprit - Intelligence Artificielle, M. Zaibi et M.T. Jebara © Exposé Esprit - Intelligence Artificielle, M. Zaibi et M.T. Jebara

Le cerveau humain est certainement plus performant car il utilise un modèle de traitement de l’information en parallèle et en masse ce qui est très différent des traitements actuels en informatique. Le fait que la mémoire soit diffuse, rend le cerveau plus robuste qu’un ordinateur et au regard de certaines dégradations (le cerveau perd quelques centaines de milliers de neurones par jour sans une dégradation significative de ses performances).

Les concepts importants autour de l’IA

L'Intelligence Artificielle reproduit les 4 capacités cognitives humaines : percevoir, comprendre, agir, apprendre. Elle se décline essentiellement en deux domaines : l’apprentissage machine ou « Machine Learning » et l’apprentissage profond « Deep Learning ». En plus de ces deux techniques, plusieurs concepts (vu d’une manière diffuse et globale plus haut) tournent autour pour former ce que l’on appelle les domaines de l’IA qui regroupent de nombreux processus et diverses applications :

Figure : Interactions entre Intelligence Artificielle, Machine Learning et Deep Learning © Nouamane Cherkaoui

Qu'est-ce que le machine learning ?

Le Machine Learning (apprentissage automatique) est un sous-champ de l'IA qui explore l'étude et la construction de algorithmes pour apprendre et faire des prédictions sur les données sans être explicitement programmé.

Les 4 types d’apprentissage du Machine Learning :

Les 4 types d’apprentissage du Machine Learning  © Nouamane Cherkaoui
  • L'apprentissage supervisé (supervised learning), est le plus populaire pour l'apprentissage automatique car plus facile à comprendre et plus simple à mettre en œuvre. Avec des données sous forme d'exemples avec des étiquettes, l’algorithme d'apprentissage est alimenté d’exemples de paires exemple-étiquette, ce qui permet à l'algorithme de prédire l'étiquette pour chaque exemple et de lui indiquer s'il a prédit la bonne réponse ou non. Au fil du temps, l'algorithme apprendra à approximer la nature exacte de la relation entre les exemples et leurs étiquettes. Une fois pleinement formé, l’algorithme d’apprentissage supervisé sera capable d’observer un nouvel exemple jamais vu auparavant et de prédire une bonne étiquette pour celui-ci. Ce modèle d'IA est utilisé pour identifier des contenus de vidéos ou de prédire le prix de vente d'une maison en fonction d'un historique.
  • L'apprentissage non-supervisé (unsupervised learning), le système est formé avec des données non étiquetées et sans donner les bonnes réponses.  C’est très instructif lorsque nous ne savons pas ce que nous cherchons dans les données traitées. L’algorithme essaye de modéliser des relations et des règles, détecter des modèles, et résumer et regrouper les points de données permettant de générer des informations significatives et de mieux décrire les données aux utilisateurs. Regroupement de clients par catégories, classification des spams, fraude par typologie, etc.
  • L'apprentissage semi-supervisé (semi-supervised learning) consiste à fournir de nombreux exemples au système, ainsi que la bonne réponse pour certains d'entre eux. Utiliser les données non-annotées pour compléter l’apprentissage supervisé. Cette approche permet à Google ou à Facebook de "reconnaître" des personnes sur différentes photos de la même personne.
  • L’apprentissage par renforcement (reinforcement learning) est né du mariage de la psychologie expérimentale[5] et les neurosciences computationnelles[6]. Les méthodes algorithmiques de l’apprentissage par renforcement reposent sur des principes simples issus de l’étude de la cognition humaine ou animale pour permettre de faire faire à des agents automatisés des tâches dans un cadre de programmation générique. Le système s'améliore à force de punitions et de récompenses. C'est ainsi qu'un robot apprend à marcher seul, ou qu'un bot dans un jeu vidéo se perfectionner comme un être humain qui apprend à marcher ou à faire du vélo.

Qu'est-ce que le deep learning ?

Le deep learning (ou apprentissage profond) est une forme d’IA dérivée du Machine Learning et qui repose sur la capacité d'une technologie (machine) à apprendre par elle-même à partir de données brutes : traitement de texte, reconnaissance vocale ou faciale, etc.

Depuis les premiers travaux d’AlainTuring, différentes techniques de Machine Learning ont été développées pour créer des algorithmes capables d’apprendre et de s’améliorer de manière autonome. C’est sur les RNA (Réseaux de Neurones Artificiels), vus précédemment que reposent les algorithmes du deep learning avec un fonctionnement qui s’inspire du cerveau humain. Ces réseaux de neurones artificiels sont constitués de plusieurs neurones artificiels (couches) connectés entre eux et plus le nombre de neurones est élevé, plus le réseau est « profond ». Ce fonctionnement permet au système d’apprendre à reconnaître les lettres avant de s'attaquer aux mots dans un texte, ou détermine s'il y a un visage sur une photo avant de découvrir de quelle personne il s'agit.

Figure : À travers un processus d’autoapprentissage, le Deep Learning est capable d’identifier un chat sur une photo. À chaque couche du réseau neuronal correspond un aspect particulier de l’image. ©  MapR, C.D, Futura [7]

En effet, le réseau de neurones est entraîné à reconnaître le contenu d'une image et en fonction du résultat, la "force de connexion" entre chaque neurone est corrigée. Ainsi, le réseau de neurones se perfectionne jusqu'à ne plus faire d'erreur de reconnaissance. Sur l’exemple de la reconnaissance de la photo du chat, le réseau de neurones doit être entraîné en compilant un ensemble d’images d’entraînement. Cet ensemble va regrouper des milliers de photos de chats différents, mélangés avec des images qui ne sont pas des chats. Ces images sont ensuite converties en données et transférées sur le réseau. Les neurones artificiels assignent ensuite un poids aux différents éléments. La couche finale de neurones va alors rassembler les différentes informations pour déduire s’il s’agit ou non d’un chat. Les bonnes réponses confirmées par un humain sont gardées en mémoire et s’il y a des erreurs, le poids est corrigé.

Ce processus est répété des milliers de fois jusqu’à ce que le réseau soit capable de reconnaître un chat sur une photo dans toutes les circonstances. Au bout d'un certain nombre d'images et de correction le système peut reconnaître l'animal sur des photos qu'il n'a jamais vues. Cette technique d’apprentissage est appelée « supervised learning » ou apprentissage supervisé expliqué précédemment.

Le deep learning, se base aussi sur d’autres technologies comme la reconnaissance d’images ou la vision robotique

"Le deep learning est très puissant mais aussi très couteux" selon le Cigref. "Il convient de le conserver pour les classes les plus importantes et utiliser d'autres algorithmes de machine learning qui peuvent aboutir à un résultat suffisant à moindre coût"[8].

La révolution majeure apportée par le deep learning est que la machine est capable d'apprendre par elle-même, contrairement à la programmation qui se contente d'exécuter à la lettre des règles prédéterminées ou des instructions explicites.

Les applications sont nombreuses, notamment pour la reconnaissance vocale ou visuelle, moteurs de recherches ou la traduction des conversations orales en temps réel. Les tests en cours sur la voiture autonome, le pilotage automatique des drones ou l’imagerie médicale se basent toutes sur les avancées du deep learning.

IA Faible ou forte ?

Malgré les avancées notables en matière d’IA et les dernières « défaites humaines » (échecs, Jeu de Go, etc…), elle reste encore très éloignée de ce qui est nommé par les chercheurs « IA Forte » à savoir une IA capable de reproduire et de dépasser l’intelligence humaine.

En reprenant notre exemple de reconnaissance de l’image du chat, il aura fallu injecter 100.000 images de l’animal pour avoir un taux de reconnaissance de 95% alors qu’un enfant a besoin de 2 voire 3 images pour le reconnaitre sans aucune erreur.

Les projets en cours en matière d’IA sont définis comme des projets d'intelligence artificielle faible (Narrow AI en anglais). Cela signifie que l'intelligence artificielle créée par deep learning ou machine learning se concentre sur une tâche précise. L’IA faible vise essentiellement à reprendre le plus fidèlement possible, à l’aide d’un programme informatique, le résultat d’un comportement spécifique prévu à l’avance, sans aucune forme d’improvisation. C’est un système qui imite un comportement intelligent dans un domaine précis.

L'IA forte ou générale (Artificial General Intelligence – AGI en anglais) serait une intelligence artificielle dotée de conscience, de sensibilité, ou d'esprit, voire une machine capable d'appliquer l'intelligence à tout problème, ce qui est loin d’être une réalité aujourd’hui.

L’AGI intègre un grand nombre de capacités humaines plus conséquentes, notamment linguistiques et de raisonnement. D’autres moyens et méthodes doivent être utilisés et certainement plusieurs années de recherches avant d’avoir des réalisations en ce sens.

Dans l’attente de cette perspective, nous avons des questions sur la sécurité, l’éthique et les impacts économiques et sociaux de cette IA faible subsistent.

©  Nouamane Cherkaoui

D’autres articles seront consacrés aux cas pratiques d’application de l’IA dans plusieurs secteurs, les projections des usages de l’intelligence artificielle jusqu’à 2030 ainsi que la déclinaison des différentes applications.

  • Références : 

[1] www.futura-sciences.com

[2] En mathématiques, la fonction sigmoïde (dite aussi courbe en S) et représente la fonction de répartition de la loi logistique. Elle est souvent utilisée dans les réseaux de neurones parce qu'elle est dérivable. Fonctions et propriétés graphiques à voir sur wikipedia.org

[3] L'Intelligence Artificielle pour les développeurs Concepts et implémentations en C# (2e édition) – Virginie Mathivet

[4] www.touzet.org

[5] Modèles de conditionnement animal : renforcement de comportement menant à une satisfaction (recherches initiées vers 1900 par Pavlov, Skinner et le courant béhavioriste).

Renforcement = satisfaction, plaisir ou inconfort, douleur.

[6] Renforcement des poids synaptiques des transmissions neuronales (règle de Hebbs, modèles de Rescorla et Wagner dans les années 60, 70). Renforcement = corrélations activités neuronales.

[7] www.futura-sciences.com

[8] CIGREF : Gouvernance de l'intelligence artificielle dans les grandes entreprises.