La naissance d'une science : les origines de l'intelligence artificielle – [1/2]

L'idée a toujours été de créer une machine à l'image de l'Homme et ce depuis l'apparition de la civilisation. Avec la notion de "l'esprit est dans la machine" plusieurs civilisations ont intégré le concept d'IA au gré des croyances et des inventions.

Deus ex machina - Ἀπὸ μηχανης θεός 

Depuis les civilisations antiques égyptiennes, grecques et chinoises (les automates anthropomorphes et les robots serviteurs du dieu Héphaïstos), les algorithmes de Babylone ou des mathématiciens grecs (Euclide et Eratosthène) jusqu’à l’invention de l’algèbre (de l’arabe "Al-Jabr") par Al-Khwarizmi en passant par l’arithmétique binaire de Leibniz et l’analyseur différentiel de James Thomson, on voit bien que l’histoire ne commence pas au XXe siècle et toutes ces avancées ont servi cette nouvelle-ancienne discipline : l’IA. Mais les avancées les plus significatives en termes de recherche en IA sont indéniablement l’œuvre de Marvin Lee Minsky, de John McCarthy et surtout d’Alain Turing[1] (Cf. test de Turing) qui ont permis une avancée majeure dans la conceptualisation de cette nouvelle science.

Sans débattre dans cet article de la vraie nature de cette "intelligence" qui doit porter en elle sa propre indépendance, ce que l’on nomme communément "intelligence artificielle" porte une nouvelle révolution industrielle, qui place le numérique au centre des stratégies non seulement des entreprises (innovation et e révolution des usages) mais également entre les Etats (recherches, brevets et transferts technologiques). Cette révolution impacte considérablement la productivité et la croissance de différents secteurs et domaines d’activité allant de l’agriculture à la santé ou encore la finance, mais son rayonnement ne date pas d’aujourd’hui et présente des défis majeurs à relever jusqu’à façonner notre manière d’interagir, de travailler, de consommer, de se soigner, de se financer et aussi de se déplacer.

A titre d’exemple, dans le domaine de la santé, les avancées technologiques issues de l’intelligence artificielle (IA) grâce à la combinaison de la puissance informatique, de l’explosion des données disponibles et des algorithmes de plus en plus performants ont permis et permettront certainement des avancées spectaculaires. Ces évolutions touchent la recherche médicale, la découverte de nouveaux médicaments, la précision des diagnostics, en passant par la prévention en temps réel, les soins au chevet des patients ainsi que leur suivi. L’IA a bouleversé tous les aspects de la santé telle que nous les avons connus auparavant.

De nouveaux modèles d’affaires et usages liés à l’IA naissent chaque jour avec leurs lots de bouleversements dans un cadre plus mondialisé et concurrentiel. Se posent dès lors les questions liées à l’éthique (quelles données peuvent être exploitées et par qui ? qui en est propriétaire ?…), à la sécurité, au cadre normatif partagé pour encadrer le développement de l’IA et gérer en commun cette masse de données qui circule à grande échelle et leurs usages tout en protégeant les données personnelles d’une commercialisation sauvage et non maîtrisée.

Les questions posées par l’IA et les méthodes utilisées sont les mêmes qui ont guidé d’autres disciplines depuis leur origine, à savoir la philosophie, les mathématiques, la psychologie, la linguistique et l’informatique.

© Société Générale

Retour vers les origines de la naissance d’une nouvelle science

L'intelligence artificielle, aussi appelée l’intelligence informatique est définie comme “l'intelligence des machines et des logiciels”[2]. Elle s'appuie sur l'hypothèse selon laquelle il est possible de décrire l'intelligence de l’Homme et par conséquent, des machines (ou des logiciels) comme capables de la simuler. En résumé, c’est la science dont le but est de faire faire par une machine des tâches que l'homme accomplit en utilisant son intelligence.

La notion voit le jour dans les années 1950 grâce au mathématicien Alain Turing et cette terminologie (IA) est apparue en 1956 grâce à John McCarthy[3] mais certains lui préfèrent celle de l'informatique heuristique ou de programme intelligent.

En effet, l'informatique est la science du traitement de l'Information et ce traitement l’assimile à l’IA dès lors qu’il ne peut être ramené à une méthode simple, précise et algorithmique.

Un algorithme est une suite d'opérations ordonnées, bien définies, exécutables sur n’importe quel ordinateur, et qui permet d'arriver à la solution requise en un temps raisonnable. L’IA est la partie de l’informatique consacrée à l’automatisation des comportements intelligents.

© Société Générale

Les machines ou logiciels capables de raisonner, planifier, apprendre, percevoir et traiter les informations comme l'esprit humain peuvent donc penser et agir à la place de l’Homme. Calculer, programmer, effectuer des diagnostics médicaux, établir les meilleures prévisions météorologiques et jouer avec un ordinateur font dorénavant partie de notre vie quotidienne.

La création de machines, robots et logiciels intelligents se trouve au cœur des explorations scientifiques et des inventions dans plusieurs secteurs : robotique, télécommunications, logiciels, santé, finance, industrie, transports, aviation, services, défense ou loisirs. En réalité, de nombreux systèmes, applications et technologies ont été développés dans l'univers de l'IA, mais ne sont pas considérés comme des produits de l’IA ; on leur attribue plutôt des appellations spécifiques telles que l'infographie intelligente, l'apprentissage machine, le cybercommerce, cybernétique, etc. (il s'agit de “l'effet IA”) [5].

L'intelligence artificielle n’est pas un domaine isolé et spécifiques en soi. C’est un champ d'étude interdisciplinaire réunissant l'informatique, les neurosciences, la psychologie, la linguistique et la philosophie. Grâce à cette multidisciplinarité, les impacts de l’IA sur l’économie et la société sont certes difficiles à mesurer mais ces applications sont à l’origine de transformations profondes déjà visibles ou en cours.

Pour tout comprendre…

Au départ il y avait l’Homme mais surtout son cerveau !

Le cerveau ou encéphale est le principal organe du système nerveux. C’est au niveau du cerveau que s’intègrent toutes les informations sensitives et sensorielles qui parviennent à l’individu, aussi bien de l’extérieur que l’intérieur du corps, par l’intermédiaire des nerfs sensitifs et des voies de la sensibilité.

L’encéphale humain est un système complexe et binaire qui compte 100 milliards de neurones (cellules cérébrales) avec en moyenne 10.000 connexions les unes aux autres. Pour simplifier, les neurones sont reliés entre eux par les synapses qui transmettent les informations et qui ne peuvent être qu’en mode activées ou inactivées. Chaque information utilise un réseau de neurone dédié.

La construction d’un cerveau humain nécessite 15 ans selon le neurobiologiste Jean-Pierre Changeux. "C’est moins une question de technologie que d’échelle", pour l’écrivain Dan Brown[5].

Depuis l’apparition de l’Homme, son cerveau a évolué en termes de poids, de diamètre et de capacités cognitives. L’Homo Sapiens a 3 fois la capacité cognitive de l’Australopithecus. Néanmoins, malgré le fait que le cerveau de l’Homo Neanderthalensis dont la taille moyenne est de 1600 cm3, supérieure de 17% à celui des Homo Sapiens (1450 cm3), il n’est pas plus forcément plus intelligent.

L’anatomie du cerveau par l’IRM : Dimitri PIANETA © Société Générale

Durant des millions d’années, le cerveau humain a évolué en augmentant son poids, son volume et le nombre de circonvolutions. La taille de la boite crânienne est restée limitée par l’évolution qui a privilégié chez l’Homo Sapien un bassin plutôt étroit, favorable à la bipédie (station debout) et donc un passage possible, au moment de la naissance, de la tête nouveau-née, qui ne pourrait être plus grande[6]. L’idée que la taille de notre crâne limite l’intelligence humaine, est totalement fausse. Notre cerveau fonctionne comme une éponge et c’est le nombre de neurones et des connexions entes ces derniers qui font de nous des êtres intelligents.

De fait ce fonctionnement du cerveau, du système nerveux et cette utilisation des réseaux de neurones sont à la base de la neurobiologie, la neuroscience et actuellement du développement de la neuro-technologie.

Ce qu’on appelle aujourd’hui les RNA (réseau de neurones artificiels) sont issus pour une grande partie de ces sciences. Il s’agit d’une modélisation mathématique et algorithmique qui simule au plus près les propriétés des neurones, assimilés à des unités de calcul. Les RNA sont des réseaux fortement connectés de processeurs élémentaires, fonctionnant en parallèle. Chaque processeur calcule une sortie unique sur la base des informations qu'il reçoit.

Les réseaux de neurones artificiels sont fortement inspirés par le système nerveux biologique. On peut entraîner un réseau de neurone artificiel pour une tâche spécifique (reconnaissance de caractères par exemple) en ajustant les valeurs des connections (ou poids) entre les éléments neuronaux.

© Société Générale

Grâce aux RNA habituellement utilisés en physique, plusieurs applications dans divers domaines sont aujourd’hui possibles car aucune hypothèse de départ n’est exigée sur les variables, mais aussi parce que cet outil est adapté pour traiter des problèmes complexes non structurés :

- Le Traitement du signal audio-numérique (TSA) - traitement de l'image et du signal : application du réseau neuronal multicouche convolutionnel (conceptualisé par Yan le Cun) dont l’architecture des connexions est inspirée de celle du cortex visuel des mammifères pour la reconnaissance de caractères et de signatures, reconnaissance des formes et des motifs. En effet, la classification automatique des images consiste à attribuer automatiquement une classe à une image à l’aide d’un système de classification. On retrouve ainsi la classification d’objets, de scènes, de textures, la reconnaissance de visages, d’empreintes digitale et de caractères grâce à deux principaux types d’apprentissage utilisés (supervisés et non-supervisés). Dans l’apprentissage supervisé, chaque image est associée à une étiquette qui décrit sa classe d’appartenance. Dans l’approche non supervisée les données disponibles ne possèdent pas d’étiquettes et la démarche consiste à inférer des connaissances sur les données sur la seule base des échantillons d'apprentissage et sans cible (recherche de structures naturelles dans les données).

Pour le traitement du signal, les modèles et algorithmes distinguant le signal contenant de la parole ou du bruit et même la différentiation entre plusieurs des langues se sont bien développés pour offrir des applications opérationnelles de plus en plus performantes : transcription/traduction automatique, reconnaissance automatique de la parole (ASR), synthèses vocales, transformation de voix et identification du locuteur, reconnaissance vocale et d’indices paralinguistiques[7].

Autre application importante à mentionner et qui relève du domaine biomédical et l’usage de l’électromyographie (EMG), en particulier les méthodes d’analyse spectrale, de modélisation paramétrique et de classification, ont conduit à l’élaboration d’un outil d’aide au diagnostic pour des signaux EMG recueillis en surface[8].

- Le contrôle : grâce au couplage des réseaux de neurones artificiels (RNA) et les algorithmes génétiques pour modéliser et détecter des pannes machines, la surveillance des SI (serveurs et réseaux dans centres d’hébergement et d’exploitation) mais aussi des machines dans les différents secteurs industriels en raison de la nécessité de garantir la continuité du service, la fiabilité des machines et la diminution des risques de perte de production dus aux pannes est devenue possible. L’utilisation des signaux vibratoires et d’émission acoustique, est tout à fait commune dans le domaine de la surveillance conditionnelle des machines tournantes. La comparaison des signaux d'une machine fonctionnant en conditions nominales et défectueuses, permet de détecter les défauts comme le déséquilibre de masse, bande de frottement de rotor, déviation d'alignement d'axe….

- L’optimisation :

  • En finance les applications sont diverses, tarifications des assurances et son adaptabilité au risque du client, détection des fraudes, gestion de portefeuille et prédictibilité des indices, prévision des défaillances d’entreprises, prédiction des cours, évaluation du risque de crédit (à l’octroi ou en cours de vie) et surtout en trading où certaines méthodes classiques, comme les indicateurs ou les moyennes mobiles sont dépassées.
  •  En matière de gestion du trafic : Les applications développées à ce jour dans le domaine des transports ont concerné surtout des problèmes d'ingénierie transports ; la prévision du trafic voyageur mensuel sur une ligne de métro ou de train, la modélisation quotidienne du trafic sur un tronçon autoroutier en utilisant des informations sur le calendrier et les vacances scolaires, de pic de pollution (circulation alternée), etc.

- La simulation : modélisation hybride pour la simulation thermique des bâtiments et aussi d’améliorer les prévisions météorologiques. Sur ce dernier point, des chercheurs de laboratoires français[9] ont démontré qu’en utilisant des réseaux de neurones et des observations des satellites, il est possible de générer des données d’humidité du sol avec des propriétés optimales pour être assimilées et ainsi contribuer à l’amélioration des prévisions météorologiques à courte ou moyenne échéance.

- La modélisation des apprentissages et l’adaptation des méthodes de l'enseignement par l’utilisation des traces d’apprentissage et la personnalisation automatique des parcours. En effet, l’IA a révolutionné l’apprentissage personnalisé par le biais d’un concept nommé : l’adaptive Learning. Les évaluations progressives à travers cet outil permettent de cibler les parties de la formation les moins bien assimilées afin de fournir plus d’explications ciblées et des exercices d’application mieux calibrés. Ce bon dosage permet de mieux suivre la progression des étudiants et de baisse le risque de décrochage.

-  L’automatisation (ou robotisation) : On peut dire que la robotique est l'un des domaines les plus anciens et les plus influencés par l'IA. L’algorithme en lui-même est un robot et c’est pour cela que l’abréviation bot est souvent utilisée dans certaines applications impliquant un échange chatbot. Pour illustrer le lien entre la robotique et l’IA, la première est matérielle dans son fonctionnement et renvoie aux fonctions motrices alors que la seconde est principalement immatérielle reposant sur des fonctions cognitives. Les applications les plus connues de la robotique sont surtout présentes dans l'industrie lourde. Celle-ci qui est fortement mécanisée avec des robots qui remplacent la main-d'œuvre humaine pour plus d'efficacité, de rapidité et de précision, en particulier dans les tâches répétitives et dangereuses, notamment la soudure, le montage et la manutention. Ce sont des techniques d'apprentissage machine qui ont permis à ces robots, plus au moins autonomes et intelligents (avec supervision humaine dans la plupart des cas), de réaliser ces tâches et dont les applications ont été étendues même l’exploration spatiale ou des fonds maritimes. Autre point de convergence entre l’IA et la robotique se trouve dans les tests en cours sur la voiture autonome.

- La miniaturisation : en effet, grâce aux évolutions de la nanotechnologie des applications de l’IA dans des domaines comme l'optique, la biologie, la médecine, la chimie l'électronique, la mécanique ou encore l’environnement peuvent s’accélérer. La fabrication et la manipulation de structures et de systèmes matériels à l'échelle des nanomètres[10]. Le couplage avec la robotique, l’informatique et les RNA seront les relais d’usage d’objets plus légers, facile à transporter, qui consomment moins d’énergie, moins chers et produisant moins de déchets. Par exemple les applications en médecine dans l’utilisation des nanocristaux pour localiser une biopuce ou localiser des tumeurs ou l’utilisation des nanorobots comme outils de diagnostic et d’administration de médicaments.

Grâce à ces outils et méthodes liées aux RNA, plusieurs autres applications médicales ont été possibles avec des résultats probants (détection de pathologies, aides aux personnes dépendantes, etc.).

Références :

[1] A. Turing, « Computing Machinery and Intelligence », Mind, vol. LIX, n°236, 1950.

[2] Artificial intelligence, Wikipédia

[3] Il est le principal pionnier de l’intelligence artificielle avec Marvin Lee Minsky ; il incarne le courant mettant l’accent sur la logique symbolique. John McCarthy est le principal pionnier de l’intelligence artificielle avec Marvin Lee Minsky ; il incarne le courant mettant l’accent sur la logique symbolique. www.actuia.com 

[4] AI effect, Wikipedia

[5] Origine de Dan Brown – Octobre 2017

[6] Sciences & Vie - QR n°22 « Le génie & ses mystères »

[7] Roland Badeau, Charbit et Gérard Blanchet, Traitement du signal audio-numérique, Support de cours, ATIAM, Telecom Paris Tech, septembre 2012.

Francis Cottet, Traitement des signaux et acquisition de données, Dunod, 1997.

[8] Travaux pratiques de traitent du signal – Vol 1 - Marie Chabert et Corinne Mailhes - 2010

[9] Le Centre d’Études Spatiales de la Biosphère (CESBIO/OMP, UPS/CNES/CNRS/IRD), le Laboratoire d’Études du Rayonnement et de la Matière en Astrophysique et Atmosphères (LERMA, CNRS/ Observatoire de Paris/ENS/UPMC/UCP) et le Centre National de Recherches Météorologiques (CNRM, Météo-France/CNRS).

[10] 1 = échelle humaine – 10(9) = échelle astronomique (distance terre-lune) – 10(-9) = échelle nanométrique