Superintelligence : faut-il vraiment stopper une course dont on ne connaît pas encore la ligne d'arrivée ?
Faut-il stopper une course à l'IA dont on ignore l'arrivée ? 700 experts le pensent. D'autres rétorquent qu'une pause ferait perdre un avantage crucial. Entre prudence et progrès, le débat est ouvert.
Ils s’appellent Geoffrey Hinton, pionnier de l’apprentissage profond et ancien chercheur de Google ; Yoshua Bengio, directeur de l’Institut québécois d’intelligence artificielle (Mila) et co-lauréat du prix Turing ; et Stuart Russell, professeur d’informatique à l’Université de Californie, Berkeley, spécialiste de la sécurité des systèmes intelligents.
Tous trois figurent parmi les principaux signataires d’un appel international (1) de plus de 700 experts et personnalités réclamant une pause dans le développement des intelligences artificielles dites “superintelligentes”.
À leurs côtés, des entrepreneurs, des philosophes et des personnalités publiques s’unissent pour alerter sur une dérive possible : une course à la puissance algorithmique menée sans véritable gouvernance, ni compréhension de ses conséquences.
Un appel à ralentir avant le point de non-retour
Les signataires plaident pour « l’arrêt temporaire de tout développement d’intelligence artificielle dont les capacités dépasseraient celles des systèmes actuels », tant qu’aucun consensus scientifique ne garantit leur sécurité. Il ne s’agit pas de rejeter l’innovation, mais de marquer une pause, le temps d’évaluer les conséquences d’une évolution technologique qui semble désormais dépasser notre capacité de compréhension.
Alors que les grands acteurs du secteur, OpenAI, Google DeepMind, Anthropic ou encore Baidu se livrent à une surenchère de modèles toujours plus complexes, les chercheurs craignent une dérive : l’avancée technologique pour elle-même, au détriment de la maîtrise humaine.
Un concept aussi fascinant qu’indéterminé
Le mot superintelligence cristallise ces inquiétudes. Il désigne une IA dont les facultés surpasseraient celles de l’humain dans presque tous les domaines : raisonnement logique, créativité, planification stratégique, voire sens moral. Mais la réalité est plus floue : personne ne sait vraiment ce que serait une telle entité, ni comment la mesurer. Est-ce une intelligence capable d’auto-amélioration sans supervision ? Une conscience émergente ? Ou simplement un système plus performant que nos modèles actuels ? Ce flou sémantique est au cœur du problème : comment stopper ce que l’on peine à définir ? Depuis les travaux du psychologue Howard Gardner, on sait qu’il n’existe pas une intelligence unique, mais une pluralité d’intelligences(2) : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle ou encore naturaliste. Chaque individu mobilise une combinaison singulière de ces formes d’intelligence, qui ne se réduisent pas à des performances de calcul ou de raisonnement abstrait.
Mais une course mondiale sans arbitre…
Suspendre cette progression apparaît pour beaucoup comme une utopie. Comment instaurer une pause mondiale alors que les intérêts économiques et géopolitiques divergent ? Les États-Unis, la Chine et l’Union européenne se livrent à une compétition féroce pour dominer le secteur stratégique de l’intelligence artificielle. Ralentir unilatéralement, c’est risquer de perdre un avantage décisif. Mais pour les signataires, l’absence de coordination internationale rend justement la pause indispensable. Mais pour les signataires, l’absence de coordination internationale rend justement la pause indispensable.
Ils appellent à la création d’une instance publique et indépendante chargée de superviser les développements les plus avancés. Une idée qui fait écho, en Europe, au AI Act, le règlement récemment adopté par l’Union européenne. Ce texte pionnier établit une classification des systèmes d’IA selon leur niveau de risque et impose des obligations strictes de transparence, de traçabilité et de contrôle humain.
Mais pour beaucoup d’experts, ce cadre demeure insuffisant face aux défis d’une intelligence artificielle potentiellement auto-améliorante. L’IA Act fixe des règles de conformité, mais il ne traite pas encore de la question de la superintelligence, qui échappe à toute grille d’évaluation actuelle. L’appel à la prudence devient alors une exigence éthique : penser avant d’accélérer.
Une ignorance lucide ou comment admettre l’incertitude
Les chercheurs reconnaissent eux-mêmes l’ironie de la situation : ils redoutent un phénomène qu’ils ne savent pas encore décrire. La superintelligence est pour l’heure un horizon théorique, presque une projection de nos angoisses et de nos ambitions. Mais c’est justement cette incertitude qui justifie la prudence. Si nous ignorons la nature exacte de la ligne d’arrivée, faut-il vraiment continuer à courir sans regarder où nous posons le pied ? La question n’est plus seulement technologique. Elle est philosophique, politique et profondément humaine. La possibilité d’une superintelligence interroge moins notre capacité à inventer qu’à nous gouverner nous-mêmes. Peut-être est-ce là le signe d’une véritable intelligence : savoir s’arrêter avant que la machine ne pense (et n’agisse) à notre place.
(1) Lettre ouverte publiée par l’organisation Future of Life Institute (FLI) le 22 octobre 2025, intitulée « We call for a prohibition on the development of superintelligence (…) » https://superintelligence-statement.org/
(2) Gardner, H. (2004). Les formes de l’intelligence : La théorie des intelligences multiples