IA Générative : la course mondiale à la réglementation

L'UE avance sur son projet de loi sur l'IA, qui pourrait bien devenir la première législation internationale spécifique en la matière. Mais où en sont les autres puissances ? Etat des lieux.

A ce jour, il n'existe pas de législation mondiale spécifique au domaine de l’intelligence artificielle générative, bien que beaucoup d’acteurs (organisations internationales, gouvernements, institutions etc.) demandent la mise en place rapide des réglementations pour guider son utilisation.

Cependant, en ce qui concerne le domaine plus étendu de l’IA, de nombreux pays ont commencé à élaborer leur propre législation, en se concentrant sur différents aspects tels que l'éthique, la sécurité, la protection des données et la transparence. Le  rapport de l’Université Stanford « Artificial Intelligence Index Report 2022 » notait une croissance impressionnante du nombre des initiatives législatives applicables au domaine de l’IA (de 1 en 2016 à 18 en 2021). L’Espagne, le Royaume Uni et les États-Unis ont enregistré le plus grand nombre de lois relatives à l‘IA, avec 3 résolutions adoptées par chaque pays.

En Europe, des experts data comme Alexander Hanff, membre de l’European Data Protection Board, ont déjà attiré l’attention sur le fait que l’utilisation des données disponibles sur Internet pour entraîner les modèles génératifs n’est pas une pratique légale. "Ce n’est pas parce que quelque chose est en ligne qu’il est légal de le prendre. Récupérer des milliards de points de données de sites avec des termes et conditions qui, en eux-mêmes, disaient que les données ne pouvaient pas être récupérées par un tiers, est une violation du contrat. Ensuite, vous devez également tenir compte des droits des individus à ce que leurs données soient protégées en vertu du RGPD, de la directive ePrivacy et de la Charte des droits fondamentaux de l’UE," déclarait-il.

Le Commissaire européen Thierry Breton, qui prépare actuellement la réglementation européenne sur l’intelligence artificielle (Artificial Intelligence Act), a déclaré que celle-ci devrait inclure une réponse aux préoccupations concernant les risques liés à ChatGPT. L'Union européenne avait publié en avril 2021 une proposition de réglementation sur l'IA qui visait à interdire certaines applications de l'IA considérées comme dangereuses, à exiger une transparence accrue et une évaluation de l'impact sur les droits fondamentaux, et à renforcer les exigences de conformité pour les systèmes d'IA à haut risque. Attendue pour 2024, cette législation pourrait devenir la première norme internationale sur le sujet, en prolongeant le règlement général sur la protection des données (RGPD) mis en place par l’UE en 2018. Le Digital Services Act, adopté en 2022 par la Commission européenne, peut aussi compléter la réglementation sur l’AI en imposant aux plateformes numériques (y inclus les moteurs de recherche) une obligation de transparence et de diligence.

Aux États-Unis, le National Institute of Standards and Technology (NIST) a publié en janvier 2023 une feuille de route pour guider l'élaboration de réglementations sur l'IA, qui met l'accent sur l'interopérabilité, la confidentialité et la sécurité. En même temps, des politiciens comme Anna Eshoo ou Ted Lieu ont exprimé des préoccupations sur la sécurité des AI et le besoin d’un cadre législatif plus solide pour répondre aux problématiques de plus en plus complexes liées à l’utilisation des AI génératives.

D'autres pays comme la Chine, le Canada ou le Japon ont également élaboré leur propre législation sur l'IA.