22/11/01
Les
réseaux neuronaux à l'assaut du monde des algorithmes
Précédemment: La
programmation génétique
Comme son nom l'indique,
le schéma des réseaux neuronaux s'inspire du
mode de fonctionnement
du système nerveux. Cette
représentation a pour origine l'observation directe
de la structure du cerveau et de ses ramifications dans
l'ensemble des organismes vivants. Bref, du mode d'organisation
et de connexion des neurones les uns avec les autres.
Il va de soit que ces recherches se situent à
un niveau purement physique et chimique, et ne prétendent
pas pour l'heure investir le domaine de l'émotion,
ou même de l'intelligence -encore qu'il faudrait
commencer par s'entendre sur le concept. Fruit du travail
de plusieurs équipes de chercheurs d'universités,
parmi lesquelles figure celle de l'Ecole
Polytechnique de Bobo-Dioulasso (Burkina Faso),
la théorie des réseaux neuronaux s'applique
principalement au monde de l'intelligence artificielle...
avec comme objectif de concevoir des logiciels basés
sur ce modèle.
Aggréger
plusieurs informations en une seule
Décrits par McCulloch et Pitts dans un livre
paru en 1943 sous le titre "Unité de la Logique
du Seuil" (Threshold Logic Unit), les réseaux
neuronaux visent plus précisément à
reproduire
les modes de communication entre les neurones. Schématiquement,
un neurone reçoit des signaux en provenance de
plusieurs de ses équivalents par le biais de
canaux appelés synapses. Il compile ces informations
en une seule, puis transmet celle-ci au neurone suivant
via son unique canal de sortie.
A partir de cette description, McCulloch et Pitts expliquent:
"un réseau neuronal est un ensemble d'éléments
simples de traitement (ou noeuds) connectés entre
eux, dont la fonction est comparable à celle
d'un neurone dans le monde animal." Et d'ajouter:
"la capacité de traitement du réseau
est stockée au niveau de ces interconnexions.
Cette fonction de gestion s'appuie sur un processus
d'adaptation ou d'apprentissage qui est fonction d'une
série de modèles de référence."
Appliquée au monde informatique, la structure
de McCulloch et Pitts se traduira au final par la mise
en place de processus de traitement en réseau
capables d'accueillir plusieurs types de variables en
entrée et de leur appliquer des algorithmes en
vue d'aboutir à un résultat unique.
Deep
Blue, le système de Big Blue doué aux
échecs
Avec la croissance exponentielle des capacités
de calcul, les projets s'inspirant de la théorie
de McCulloch et Pitts affichent des ambitions de plus
en plus élevées. Certes, les possibilités
des programmes demeurent limitées. Couvrant certaines
fonctions d'analyse et d'auto-apprentissage, les première
solutions réalisées assurent par exemple
des saisies automatiques à partir de textes manuscrits,
d'autres s'attaquant à la reconnaissance de forme
ou encore à l'assistance au diagnostic relatif
à l'embarqué. Le programme le plus connu
dans ce domaine est sans doute celui du supercalculateur
d'IBM, Deep Blue, qui vint à bout du champion
d'échecs Garry Kasparov en 1997... Pourtant,
la réalité est encore bien loin de celle
de David: le petit robot enfant de IA (Intelligence
artificielle), le dernier film de Steven Spielberg...
|