L'intelligence artificielle générale : la quête du Graal de l'IA

L'intelligence artificielle générale : la quête du Graal de l'IA Comment définir une IAG ? A quelle échéance est-elle atteignable ? Quels sont les défis à relever pour l'atteindre ? Le point.

Souvent considérée comme le Saint Graal de l'IA, l'intelligence artificielle générale (IAG) vise à créer des machines dotées d'une intelligence comparable à celle de l'être humain, capable de raisonner, apprendre, et agir de manière autonome dans une variété infinie de domaines. Alors que l'intelligence artificielle spécialisée brille dans des tâches spécifiques (reconnaissance et génération de textes ou d'images, retranscription, traduction...), l'IAG promet une flexibilité et une adaptabilité sans précédent.

L'IAG se distingue par sa capacité à exécuter toute tâche intellectuelle qu'un humain peut accomplir dans tous les domaines. Cela inclut la compréhension du langage naturel, la résolution de problèmes, la créativité, et même des capacités émotionnelles et sociales. Contrairement à l'IA spécialisée, qui fonctionne selon des règles et des données préétablies dans un domaine spécifique, l'IAG nécessite une compréhension et une adaptation continues aux nouveaux environnements et situations.

Avancées et défis

Les avancées récentes en IA, à l'image de GPT-4 d'OpenAI ou encore des projets de DeepMind de Google, démontrent des progrès significatifs vers une intelligence plus flexible et généraliste. GPT-4, par exemple, a montré des capacités impressionnantes dans des domaines variés comme les mathématiques, la programmation et le raisonnement juridique. Le modèle surpasse même les performances humaines dans certains tests de créativité​​. Une étude publiée par le New England Journal of Medicine en novembre 2023 montre que GPT-4 sait diagnostiquer correctement 52,7% des cas cliniques complexes. En comparaison, un panel de lecteurs humains de revues médicales n'a su réaliser un diagnostic positif que dans 36% des cas.

Cependant, ces systèmes ne sont pas encore de véritables IAG. ChatGPT par exemple n'est pas considéré comme une IAG. Le chatbot d'OpenAI développé sur la base de GPT-4 est un exemple avancé d'IA spécialisée, conçue principalement pour comprendre et générer du texte de manière cohérente et contextuellement appropriée. Bien que ses capacités soient impressionnantes, et qu'il puisse simuler une compréhension humaine dans de nombreux domaines d'interaction, il fonctionne sur la base de modèles pré-entraînés et est limité aux données sur lesquelles il a été entraîné. Il ne possède pas la capacité d'apprendre de manière autonome ou de comprendre et résoudre des problèmes dans une gamme aussi large et profonde que le ferait un humain, ce qui est une caractéristique clé de l'IAG.

Le futur

Des recherches continuent d'explorer les voies vers l'IAG. Reste que les prédictions des experts varient grandement sur le sujet. Certains sont optimistes, envisageant des avancées majeures dans les prochaines décennies, tandis que d'autres soulignent les obstacles fondamentaux qui restent à surmonter, notamment en matière de compréhension de la conscience et de la cognition humaine.

A l'occasion de l'Hawking Fellowship Award 2023 en novembre dernier, Sam Altman a affirmé que beaucoup de travail restait à abattre avant d'atteindre l'IAG. Le président d'OpenAI se déclare même pessimiste quant à la faisabilité d'une telle entreprise : "Dans la limite du raisonnable, je ne pense pas que les avancées que nous envisageons nous amèneront à l'IAG à court terme, et encore moins à une super-intelligence (c'est-à-dire une IAG dépassant les capacités humaines, ndlr)".

Les débats portent également sur les implications éthiques et sociales de l'IAG. La possibilité d'une "explosion d'intelligence", qui aboutirait à une IAG, soulève des questions sur le contrôle, la sécurité, et l'impact sur la société. Sur ce point, de nombreuses sommités de la Silicon Valley ont signé en mars 2023 une lettre ouverte demandant un moratoire d'au moins six mois sur le développement des IA avancées, le temps nécessaire pour créer un cadre réglementaire et éthique. Selon ces personnalités, ces IA pourraient devenir incontrôlables et présenter des risques importants pour la société. Parmi les signataires figurent Elon Musk mais aussi Steve Wozniak, cofondateur d'Apple, Yoshua Bengio, une figure de l'IA, ou encore Raja Chatila, professeur émérite à la Sorbonne et membre du Comité national pilote d'éthique du numérique.

Applications potentielles

Reste que l'IAG a le potentiel de révolutionner pratiquement tous les domaines de la vie humaine. En médecine, elle pourrait diagnostiquer des maladies avec une précision et une rapidité inégalées (bien supérieures aux résultats évoqués ci-dessus), notamment en proposant des traitements personnalisés. Dans le domaine de la recherche scientifique, elle pourrait accélérer la découverte de nouveaux médicaments et technologies. L'IAG pourrait également transformer l'éducation, en fournissant un enseignement personnalisé à chaque apprenant, et avoir un impact dans les industries créatives, en générant de nouvelles formes d'art et de divertissement.

Cependant, pour chaque application prometteuse, il existe des risques et des défis éthiques à considérer. La gestion de ces risques nécessitera des cadres réglementaires robustes, une conception éthique de l'IA, et une surveillance continue pour s'assurer que les bénéfices de l'IAG l'emportent sur les coûts potentiels.

L'IAG reste un objectif ambitieux, un phare lointain guidant la recherche en IA. Les avancées actuelles, bien qu'impressionnantes, mettent en lumière le chemin restant à parcourir. Pour atteindre cette intelligence artificielle dite générale, capable de comprendre, d'apprendre et d'agir de manière autonome dans n'importe quel domaine intellectuel humain, la communauté scientifique doit non seulement repousser les frontières de ce qui est technologiquement possible, mais aussi naviguer dans les complexités éthiques et sociales que ces développements impliquent. La route vers l'IAG est donc pavée d'innovations continues, de collaborations interdisciplinaires, et d'un dialogue ouvert entre technologues, législateurs, et la société dans son ensemble, afin de s'assurer que les avancées en IA bénéficient à l'humanité tout en minimisant les risques potentiels.