Intelligence artificielle : vers un cadre éthique mondial ?

Le développement exponentiel des systèmes d'intelligence artificielle implique qu'un cadre éthique puisse être posé.

S’acquittant de tâches de plus en plus complexes, l’intelligence artificielle (IA) et les algorithmes qui l’accompagnent connaissent actuellement une progression exponentielle. Reposant sur le maniement de grandes quantités de données, l’IA devient de plus en plus générative, de plus en plus autonome et – en quelque sorte – de plus en plus « sensible ». Cette dynamique puissante nous place dès à présent devant une série de défis éthiques, lesquels appellent à l’édification de principes – pour ne pas dire de pratiques – responsables. Quels sont ces défis, et de quelle manière peut-on les relever ?

L’IA : des implications éthiques larges

Première constatation : les implications éthiques de l’IA sont extrêmement larges. Elles relèvent tout à la fois de l’équité et de la transparence dans les systèmes d’intelligence artificielle, de responsabilisation, du respect des données et donc de la vie privée. L’IA appelle à l’autonomie et au contrôle humains, à une réflexion sur l’impact social ainsi que sur l’inclusion. L’Intelligence Artificielle nécessite en outre que la sûreté comme la sécurité soient strictement garanties, dans un monde marqué par une forte augmentation de la cybercriminalité.

La cybersécurité est ainsi l’un des sujets phare des années à venir, en lien avec l’essor de l’IA. Le rapport 2022 de CyberEdge Group a révélé que plus de la moitié des entreprises françaises avaient dû faire face à une attaque par ransomware au cours de l’année précédant l’étude. 45,5% des personnes interrogées lors d’un récent sondage ont déclaré que leur organisation avait subi entre une et cinq cyberattaques réussies lors des 12 mois écoulés (source : Statista). Cette dynamique devrait se poursuivre : d’ici à 2027, les coûts mondiaux de la cybersécurité devraient augmenter de 23% par an (source : Statista). Dans un tel contexte, sachant que 8 applications sur 10 développées dans la zone EMEA rencontrent des failles de sécurité critiques, l’IA offre certaines solutions. La remédiation, parce qu’elle suggère des correctifs de manière automatisée, en est une. Grâce à elle, des univers tels que le cloud natif – amplement utilisés par les entreprises et relativement faillible – peuvent être rendus plus stables, et ainsi relativement préservés.

Vers une « IA éthique » : 5 principes clés

Ce large panorama des défis nous invite à aborder l’intelligence artificielle à l’aune des conceptions morales que nous nous en faisons. Il s’agit ici de parler d’une « IA éthique », c’est-à-dire d’un domaine multidisciplinaire qui implique la collaboration d’experts et de parties prenantes en IA, en philosophie, en droit, en politique ou encore en sciences sociales. Le déploiement de ce domaine de réflexion nécessite une évaluation, une adaptation et un dialogue permanents pour garantir l’alignement de nos systèmes d’intelligence artificielle sur des valeurs sociétales.

Pour ce faire, cinq principes clés peuvent d’ores et déjà être édictés :

  1. L’équité des systèmes, afin de permettre à l’IA d’être impartiale, c’est-à-dire de traiter l’ensemble des individus sans discrimination ;
  2. La transparence, pour rendre ces systèmes à la fois compréhensibles et explicables, et ainsi de garantir toute responsabilité dans les actions menées ;
  3. La protection de la vie privée et la gouvernance des données, afin de garantir un consentement éclairé ainsi que des pratiques sécurisées ;
  4. L’imputabilité, afin de responsabiliser les développeurs, les organisations et les utilisateurs pour ce qui relève de la conception, du développement et de l’utilisation des systèmes d’IA ;
  5. La robustesse et la sécurité, pour gérer les défaillances, les erreurs ou certains comportements involontaires.

Implications éthiques de la sensibilité de l’IA

Un tel cadre a le mérite de poser de précieux premiers jalons. Il convient toutefois d’anticiper dès à présent ceux qui nous attendent dans un avenir proche, en lien avec le déploiement annoncé d’une intelligence artificielle qui deviendrait selon certains experts tout à la fois sensible et singulière. De quoi s’agit-il exactement ? Tout simplement d’une IA qui atteindrait puis dépasserait le niveau d’intelligence qui est celui des êtres humains. Sujet tout à la fois technologique, scientifique et philosophique (parfois romanesque), l’« IA sensible » renvoie de facto à la notion d’autonomisation de la machine vis-à-vis de l’être humain. Prendre en considération cette potentialité implique de réfléchir aux conséquences générées par l’émergence de systèmes d’IA super-intelligents, que ces conséquences soient sociétales, économiques ou encore politiques. Là encore, un cadre éthique est à poser sur ce devenir incertain, en lien avec des notions telles que la responsabilité morale d’une IA sensible, ses droits, les relations renouvelées entre l’homme et la machine, voire sur des notions telles que l’égalité ou l’inclusion. Autant de sujets complexes, profonds, qui nécessitent que des éléments éthiques soient clairement posés.

Comment le faire ? Quelle méthodologie adopter ? Engager une réflexion sur l’IA et son évolution au cœur de nos sociétés impose dès à présent que des dialogues larges et transparents puissent être menés. Cela impose que les êtres humains s’accordent eux-mêmes sur les systèmes de valeurs qu’ils partagent, sur des notions (souvent à géométrie variable dans nos pays) telles que la dignité humaine par exemple.

Ce large éventail de préoccupations a des répercussions évidentes sur les cadres règlementaires définis à l’échelle mondiale ainsi que sur nos modes de gouvernance. Une collaboration entre élus, spécialistes, experts, représentants des organisations sociales et économiques est un prérequis. Il s’agit également d’encourager le débat et la coopération à une échelle globale, mondialisée, étant entendu que tous les pays sont directement ou indirectement concernés – particulièrement par des questions de cybersécurité. Un exercice d’intelligence collective inédit donc, mais dont l’humanité ne pourra sans doute pas faire l’économie dans les années à venir.