La réglementation de l'IA est-elle un frein à l'innovation ?
Au niveau mondial, trois visions politiques de l'IA s'affrontent : d'une part les États-Unis, modèle faiblement réglementaire, où le monde des données est dominé par des acteurs privés ; d'autre part la Chine, où l'Etat utilise les données de ses citoyens pour les surveiller et les contraindre ; et enfin l'Union européenne, qui cherche à se positionner comme une vision alternative.
À l'ouest, l'utilisation des données personnelles sans cadre a provoqué scandale sur scandale au cours de la dernière décennie : depuis la révélation que Facebook fait des expériences de sociologie sur ces utilisateurs sans les en avertir jusqu'à la manipulation d’élection, par exemple avec le scandale Cambridge Analytica. À l'est, le pouvoir chinois utilise sans vergogne les données pour surveiller, manipuler et contraindre sa population, s'appuyant notamment sur la reconnaissance faciale pour persécuter et emprisonner les populations Ouighours.
L'Union européenne, de son côté, élabore des réglementations, essaye de rester un pôle attractif pour la recherche, et peine à avoir des entreprises qui se positionnent au niveau de Google ou Baïdu. Néanmoins, grâce à l'"Effet Bruxelles", ses réglementations influencent le paysage des données dans le monde.
Le règlement le plus connu concernant le numérique en provenance de l'Union Européenne est certainement la RGPD : Règlement Général sur la Protection des Données. Ce texte impose l'information et le consentement du public, et limite les données personnelles qui peuvent être récoltées et leur usage. Une deuxième réglementation est actuellement à l'étude, ciblant plus particulièrement l'IA et ses applications.
L'une des grandes craintes autour de ces deux règlements concerne le risque de réduction de l'innovation. Le RGPD et le nouveau texte à l’étude risquent-ils de limiter l'innovation des entreprises européennes ?
Ce problème n'est pas à négliger, car l'un des enjeux de la souveraineté numérique est également d'avoir des alternatives européennes aux entreprises américaines des GAFA. De son côté, la Chine dispose déjà des BATX (Baïdu, Alibaba, Tencent, Xiaomi), qui leur permet de ne pas dépendre de Google, Amazon, Facebook et Apple. Il est à noter que la situation est différente en Chine, marché fermé et en partie interdit aux acteurs américains (ce qui ne va pas sans poser d’autres problèmes), et en Europe, marché ouvert. L’Europe n’a donc pas, à l’heure actuelle, de réelle alternative aux GAFA, ce qui provoque des débats houleux à chaque fois qu'un État doit choisir un prestataire pour l'hébergement de données publiques : que ce soit sur le Health Data Hub, pour les données de l'éducation nationale, mais le problème se pose également dans les autres pays de l’Union Européenne.
Contraindre l'innovation semble signifier tuer dans l'œuf les futurs Facebook, Google... qui pourraient naitre sur le sol européen. Cependant, cette vision est simpliste. En effet, force est de constater que le marché Européen a vécu de nombreuses années sans le règlement RGPD, introduit en 2016, mais n'a pas vu l'avènement d'un Facebook (fondé en 2004) ou Google (1998) à la française. Les marchés européen et nord-américain fonctionnent différemment : que ce soit au niveau de la recherche ou du financement des petites entreprises (on pense au Small Business Act états-uniens).
Mais cette réglementation (qu'il s'agisse de la RGPD ou du règlement établissant des contraintes concernant l'IA) sont aussi une façon de réitérer l'attachement à l'éthique et les limites acceptables de l'intelligence artificielle, comme de la collecte de données. C'est également un traitement salutaire contre la tentation d’un nouveau scientisme, qui voudrait tout résoudre avec de l'intelligence artificielle. Il faut le dire et le redire avec force : non, l'IA n'est pas la solution à tous les problèmes. Elle n'est pas non plus, n'en déplaise au CEO de Google, Sundar Pichai, une révolution plus profonde que l'invention de l'électricité. Elle est un outil efficace quand il est bien utilisé, mais qui montre aussi ses limites : ainsi, des chercheurs ont récemment montré que beaucoup d'algorithmes de détection du Covid sur des radiographies étaient peu robustes. Ces résultats étaient prévisibles, en raison de la trop faible diversité du jeu de données d'origine. Introduire une réglementation rappelant ces risques et appelant à une plus grande attention face à l'IA notamment dans des secteurs critiques tels que la santé, l'éducation ou la finance n'est pas un risque pour l'innovation : c'est une garantie d'éviter des erreurs potentiellement graves.
Pas plus la RGPD que le nouveau règlement n’empêchent de mener des expérimentations, dans la limite de l'information des personnes dont les données personnelles sont utilisées, mais elles remettent à leur juste place les enjeux humains qui sont derrière. Les données personnelles et l’IA doivent être utilisées à bon escient. Promulguer et appliquer ces textes, c’est aussi une façon de restaurer la confiance des citoyens dans l’IA, leur redonner le pouvoir sur leurs données, et, in fine, permettre que l’innovation se fasse sereinement.