Quels enjeux éthiques et règlementaires pour l'IA au sein de l'Union européenne ?

Dans un contexte où la codirectrice de l'équipe d'éthique de l'intelligence artificielle de Google a été licenciée pour s'être interrogée sur les algorithmes utilisés par le géant américain dans ses produits, il est urgent d'éviter les dérives facilitées par cette technologie. Retour sur les enjeux actuels liés à l'élaboration d'un cadre règlementaire et éthique de l'IA par l'Union européenne début 2021.

En décembre 2020, la codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google a été licenciée suite à sa prise de position en la matière dans un article scientifique. Timnit Gebru s’était en effet interrogée sur l’éthique des algorithmes de Natural Language Processing (NLP) utilisés par Google dans plusieurs produits.

Défenderesse de la diversité dans l’industrie technologique, la chercheuse universitaire étudiait l’adéquation entre les données collectées et la finalité de leur traitement au sein de puissants algorithmes. L’article à l’origine de sa démission « forcée » revenait sur la collecte exponentielle de données personnelles, scrappées automatiquement sur le net. A l’origine d’avis subjectifs, cette collecte de données pouvait orienter les modèles d’IA et entraîner des décisions discriminatoires, racistes ou sexistes.

Le sujet n’est pas nouveau mais face aux progrès de l’IA, il est urgent d’agir afin d’anticiper les dérives des projets en la matière. L’Union européenne travaille à encadrer l’usage de l’intelligence artificielle à fin de préserver les droits des individus et sauvegarder les principes de notre démocratie. Retour sur les enjeux actuels liés à l’élaboration d’un cadre règlementaire et éthique de l’IA par l’Union européenne, très attendu en ce début 2021. 

1.      Une stratégie européenne basée sur l’excellence et la confiance

Suite à la signature d’une déclaration de coopération de 24 Etats-membres, la Commission européenne a présenté le 25 avril 2018 sa stratégie en matière d’IA. Cette stratégie européenne vise avant tout l’élaboration d’un cadre solide face à la concurrence mondiale en ce domaine. Afin de permettre à l’Europe devenir un acteur économique majeur, l’objectif de l’UE est d’avoir une approche coordonnée contribuant à améliorer la qualité de vie de ses citoyens et répondre aux défis liés à la transition numérique.

En juin 2018, la Commission européenne a nommé un comité consultatif de 52 experts, le groupe de hauts experts (GEHN IA) pour travailler sur des règles ayant trait à sur l'équité, la sécurité et la transparence de l'intelligence artificielle. Afin d’accompagner ces experts dans leur mission de pilotage, la Commission a créé une Alliance européenne pour l’IA, composée aujourd’hui de plus de 4000 membres (universitaires, entreprises, société civile, citoyens, décideurs de l’UE...).

Le 8 avril 2019, le GEHN IA a présenté ses Lignes directrices pour un système d’IA digne de confiance, reposant sur trois piliers :

  • Une IA licite : pour assurer le respect de la loi et de la réglementation
  • Une IA robuste : pour garantir une mise en œuvre sécurisée et fiable
  • Une IA éthique : pour contribuer à la création d'une société démocratique, garante de l'autonomie humaine

Ce troisième pilier, que constitue l’éthique, n’est pas aisé à définir. Principe éminemment philosophique et sociologique, sa définition varie selon les systèmes, les cultures et les individus. La recherche d’une éthique « universelle » de l’IA, admise par le plus grand nombre voire par tous, est au cœur des préoccupations doctrinales, sous réserve d’être pensée par un panel représentatif.

Suite à une étude comparée d’une vingtaine de lignes directrices sur l’éthique de l’IA de plusieurs pays, le Dr Thilo Hagendorf conclue à leur manque d’efficacité. En effet, l’auteur met en avant :

  • L’absence de diversité au sein de la communauté pensant l’éthique (exemple : la proportion de femmes participant aux lignes directrices est seulement de 37%) ;
  • L’influence des sources de ces travaux sur leur contenu (industrie, gouvernement, communauté scientifique...) ;
  • La complexité de traduction de principes éthiques et juridiques en langage machine.

Début 2021, ce constat doctrinal a été acté par le Parlement européen dans sa résolution sur l’utilisation de l’IA dans les domaines civils et militaires : « Les lignes directrices en matière d’éthique ne permettent pas de garantir l’effectivité de la protection des individus ».

Pour parvenir à un véritable niveau de confiance, l’UE indique qu’il convient notamment de respecter :

  • L’autodétermination totale et effective de l’humain : les systèmes d’IA ne devant pas contraindre, conditionner ou régenter les individus avec lesquels ils interagissent sans justification ;
  • L’explicabilité : la nécessité de transparence des processus et des objectifs des systèmes d'IA auprès des personnes concernées ;
  • La prévention de toute atteinte : protection de la dignité humaine, de l’intégrité mentale et physique ;
  • L’équité : sur le plan matériel par une répartition égale et juste des bénéfices et des coûts, en veillant à l’absence de discrimination et de stigmatisation ; sur le plan procédural par la préservation du droit de contester les décisions prises par des systèmes d’IA avec des recours en justice effectifs.

2.      Une règlementation européenne garante des droits fondamentaux

-        Penser des règles d’après les valeurs fondamentales en Europe

La préoccupation européenne d’établir un cadrage éthique de l’IA n’est pas partagée par certains pays concurrents, dont les solutions vont parfois à l’encontre des droits fondamentaux des citoyens. Cet enjeu de définir un cadre juridique pour une « IA éthique » en Europe a remis au premier plan la nécessité d’élaborer des règles garantes des droits fondamentaux.

Le Conseil de l’Europe, dont la mission est, pour rappel, de promouvoir la démocratie et protéger les droits de l'homme a très tôt identifié l’impact possible de l’IA sur les droits fondamentaux.  Dès décembre 2018, son groupe de travail a élaboré la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires. Le 25 janvier 2019, son comité consultatif a établi un rapport intitulé : « Intelligence artificielle et protection des données : enjeux et solutions possibles » rappelant que le principal cadre juridique applicable était celui de la Convention 108 pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du 28 janvier 1981.

Lors de l’adoption le 12 février 2019 d’une résolution sur une politique industrielle globale sur l’intelligence artificielle et la robotique (dite résolution Ashley Fox), le Parlement européen a acté les enjeux sociétaux, économiques et juridiques liés à l’IA, invitant les Etats-membres à suivre ses recommandations. Le 8 avril 2019, le GEHN IA établissait des Lignes directrices (op. cit.) en matière d‘éthique pour une IA digne de confiance,

Publié le 19 février 2020, le Livre blanc de la Commission européenne intitulé « Intelligence artificielle – Une approche européenne de l'excellence et de la confiance » a rappelé que l'IA pouvait porter atteinte aux valeurs sur lesquelles l’UE est fondée et entraîner des violations des droits fondamentaux (tels que les droits à la liberté d'expression, la dignité humaine, l'absence de discrimination fondée sur le sexe, l’origine raciale ou ethnique, la religion ou les convictions, le handicap, l’âge ou l’orientation sexuelle). En conséquence, la Commission européenne a rappelé qu’il convient d’établir des règles en cohérence avec les « valeurs fondamentales de l'UE », dont le respect des Droits de l'homme de l’article 2 du traité sur l'Union européenne (TFUE)

Publiant un rapport sur les impacts et les conséquences de l’intelligence artificielle sur les droits fondamentaux en décembre 2020, l’Agence Européenne des Droits Fondamentaux (FRA) revient sur cette nécessité de conciliation des systèmes d’IA avec la protection des données, la non-discrimination, la dignité humaine, l’accès à la justice et la protection des consommateurs.

Le 20 janvier 2021, à l’occasion de l’adoption d’une résolution sur l’utilisation de l’IA dans les domaines civils et militaires, le Parlement européen a réaffirmé que :

  • le cadre commun devrait « garantir le respect de la dignité humaine et des droits de l’homme, tels qu’ils sont consacrés dans la charte des droits fondamentaux de l’Union européenne », « assorti de définitions harmonisées et de principes éthiques communs » et de « valeurs humanistes intrinsèquement européennes et universelles » ;
  • l’IA est un « progrès scientifique qui ne doit pas entraîner de régression du droit » et que cette technologie ne devait « en aucun cas enfreindre les droits fondamentaux, la démocratie et l’Etat de droit »
  • l’IA devrait « viser à assurer la sécurité juridique des citoyens » en ce qu’elle « ne saurait remplacer l’être humain dans le processus judiciaire lorsqu’il est question de rendre des jugements [définitifs] », devant rester « responsable, équitable, traçable, fiable et gouvernable » ;
  • l’IA utilisée dans un tel contexte doit faire l’objet d’un contrôle humain effectif, pouvant être corrigée, interrompue ou désactivée par une personne humaine à tout moment en cas de comportement imprévu, d’intervention accidentelle, de cyberattaque ;
  • la prise de décision autonome ne devrait pas exonérer l’être humain de sa responsabilité et que l’identité de la personne responsable de la décision devait toujours pouvoir être établie.

Compte tenu de la vitesse à laquelle évolue l'IA, la Commission européenne favorise un cadre réglementaire permettant une marge pour d’éventuels aménagements sur les aspects les plus techniques de cette technologie.

-        Concilier algorithmes et protection des données personnelles

Dans son rapport de juin 2020, le groupe de hauts experts préconisait la définition de règles sur la transparence algorithmique, la responsabilité et l'explicabilité des systèmes d'IA, tout évoquant la crainte des entreprises d’une application trop stricte des principes de protection des données aux solution d’IA.

Selon ce rapport, il était reconnu que le Règlement européen sur la protection des données (RGPD) fournit des dispositions juridiquement contraignantes, à travers ses grands principes, au développement de l'IA. Toutefois, les experts indiquaient que cet essor technologique pourrait interférer avec ces mêmes principes :

  • Sur le principe de limitation de finalité et l’absence de traitement ultérieur incompatible : les experts craignent l’entrave à la réutilisation d’informations utiles, la limitation de nouvelles perspectives et la difficile évaluation de traitements ultérieurs compatibles en IA.
  • Sur les principes de minimisation des données et de limitation du stockage : le big data et l’IA induisent une importante collecte de données et à une durée de conservation qui pourraient être considérées excessives au regard du RGPD. Fournir des résultats plus précis peut parfois résulter d’un traitement de volumes importants de données diverses.
  • Sur le principe de transparence : en matière d’information des personnes, les entreprises craignent une incompréhension des individus sur les algorithmes et leur fonctionnement.
  • Sur le droit de contester une décision automatisée : Des craintes résident sur les cas de contestation, hors cas de l’article 22 du RGPD, des décisions non entièrement automatisées ou les décisions produisant des effets non considérés comme strictement juridiques.
  • Sur le principe de responsabilité : un responsable de traitement doit démontrer sa responsabilité de fond et de forme (notion d’accountability) mais, dans le contexte de l'IA, il n'y a pas de signification communément admise d’être « responsable » envers une personne concernée.
  • Sur les principes de protection des données by default et by design : Les fournisseurs de technologies identifient souvent les risques potentiels et devraient être tenus directement responsables pour leurs actions. Il est recommandé d'étendre les obligations de conformité aux données protection pour l'ensemble des acteurs, responsables de traitements et sous-traitants (directs et ultérieurs).

-        Créer des méthodes et outils pour évaluer l’impact des projets d’IA

Ce foisonnement doctrinal sur l’IA serait inefficace sans considération pratique. En ce sens, les initiatives européennes et nationales, publiques comme privées, souhaiter aider les opérationnels (chefs de projets, data scientists, DPO…) à identifier les risques éthiques et à vérifier la conformité des projets d’IA avec la règlementation préexistante.

A l’échelle de l’UE, à travers ses travaux disponibles sur une plateforme en ligne, le GEHN IA a élaboré en juillet 2020 un outil pratique (The Assessment List on Trustworthy Artificial Intelligence) permettant d’analyser les critères issus de ses lignes directrices sur l’éthique. Chaque professionnel et entreprise du secteur peut ainsi réaliser une auto-évaluation de ses projets d’IA afin d’implémenter les exigences clés dans la pratique.

Au Royaume-Uni, l’ICO a publié en août 2020 un guide proposant un référentiel d’audit des systèmes d’IA  (« AI Auditing Framework »). Reprenant les obligations du RGPD et de sa loi nationale de 2018 sur la protection des données, l’ICO recommande que les organisations adoptent une approche fondée sur le risque lors de l’évaluation des systèmes d’IA, notamment ceux liés à la protection des données dès la conception des modèles, afin d’obtenir les meilleurs résultats en matière de conformité.

Enfin, plusieurs organismes privés travaillent sur des méthodes d’évaluation de l’éthique dans les projets embarquant de l’IA, comme l’Ethical Impact Assessment (EIA). Ce type d’évaluation permet aux entreprises d’analyser les impacts sociaux, juridiques, économiques actuels et futurs de la solution d’IA développée.

-        Adopter une approche globale en raison de la pluralité des sujets sur l’IA

La pluralité des recommandations thématiques liées à l’IA et impose à l’UE d’établir un cadre règlementaire « global ».

A titre d’exemple, en octobre 2020, l’Assemblée parlementaire du Conseil de l'Europe a adopté une série de recommandations sur les thèmes suivants :

  • La nécessité d’une gouvernance démocratique de l’intelligence artificielle
  • La prévention des discriminations résultant de l’utilisation de l’intelligence artificielle
  • La justice par algorithme – le rôle de l’intelligence artificielle dans les systèmes de police et de justice pénale
  • L’intelligence artificielle dans le domaine de la santé : défis médicaux, juridiques et éthiques à venir
  • L’intelligence artificielle et les marchés du travail : amis ou ennemis ?
  • Les aspects juridiques concernant les « véhicules autonomes »
  • L’interface cerveau-machine : nouveaux droits ou nouveaux dangers pour les libertés fondamentales ?

Soutenant les travaux du Comité ad hoc sur l’intelligence artificielle (CAHAI), l'Assemblée a invité le Comité des Ministres, l’instance statutaire de décision du Conseil de l’Europe, à élaborer un « instrument contraignant sur l’intelligence artificielle [qui soit] fondé sur une approche globale, portant sur toutes les phases du cycle de vie des systèmes d’IA, s’adressant à l’ensemble des parties prenantes et comprenant des mécanismes pour garantir l’application de cet instrument ».

-        Un cadre règlementaire en collaboration avec les initiatives des Etats-membres

Selon la stratégie énoncée en 2018, l’UE doit adopter un cadre règlementaire en matière d’IA n’entraînant pas de fragmentation du marché intérieur. Un morcellement juridique porterait en effet atteinte aux objectifs de confiance et de sécurité juridique souhaités en la matière.

Les initiatives des Etats-membre se sont en effet multipliées. Les autorités de protection et de contrôle des données personnelles nationales, comme de nombreuses associations et entrepreneurs du secteur de l’IA, participent au florilège doctrinal et pratique auquel l’UE se doit de rester attentive dans l’attente de la publication de son instrument juridique contraignant.

Par exemple, la Commission fédérale Allemande pour l’éthique des données a préconisé un système de réglementation fondé sur cinq niveaux de risque, allant d'une absence de réglementation pour les systèmes d’IA les plus inoffensifs à une interdiction totale pour les plus dangereux. Le Danemark a également lancé un prototype de label éthique en matière de données. Malte a mis en place un système volontaire de certification pour l'IA.

En France par exemple, suite à la mission confiée à la CNIL par la Loi pour une République numérique, la consultation publique de 2017 en matière d’IA avait retenu l’importance de deux principes : la loyauté et la vigilance appliquées aux algorithmes. En ce sens, la proposition était d’inscrire ces principes clés dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique.

L’élaboration de ce cadre réglementaire européen doit notamment permettre à l’UE de :

  • susciter la confiance à l’égard de l'IA et d’accélérer l’adoption de cette technologie
  • promouvoir sa capacité d’innovation et sa compétitivité
  • garantir le respect de la législation, des principes et des valeurs de l'UE

Le rapport du député M. Cédric Villani et l'adoption du plan « AI for humanity » ont permis à la France d’être force de propositions en Europe.

Le livre blanc précité de la Commission européenne contenait également un plan de 70 actions conjointes en faveur d’une coopération plus étroite et plus efficace avec les États dans des domaines clés (recherche, investissement, commercialisation, données, coopération internationale…). Son exécution devrait prendre fin en 2027.

Enfin, la Commission européenne avait proposé de consacrer un montant ambitieux en soutien au développement de l’IA dans le cadre du programme pour une Europe numérique et des actions de recherche dans le cadre du programme Horizon Europe pour la période 2021-2027.

Lors du Sommet Web Summit de Lisbonne, la Banque Européenne d'Investissement et le Fonds Européen d'Investissement ont en ce sens lancé un nouveau mécanisme d’investissement d’une enveloppe de 150 millions d’euros, destiné à soutenir les entreprises en intelligence artificielle dans toute l’Europe, en plus du projet InnovFin qui avait été mis en place.

Ce cadre règlementaire est toujours en cours d’élaboration. Le 20 octobre 2020, le Parlement a adopté une résolution concernant un cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes indiquant la nécessité de mettre en place un cadre règlementaire relatif à l’IA :

  • efficace et harmonisé ;
  • respectant les principes de nécessité et de proportionnalité;
  • fondé sur le droit de l’Union, la Charte et le droit ;
  • pour établir des normes égales dans toute l’Union et protéger efficacement les valeurs de l’Union;
  • s’appliquant à l’intelligence artificielle, à la robotique et aux technologies connexes, y compris les logiciels, les algorithmes et les données utilisés / produits par ces technologies;
  • qui respecte le cadre juridique actuel de l’Union, notamment en matière de protection de la vie privée et des données à caractère personnel ;
  • faisant l’objet de contrôle réguliers, ainsi que de mises à jour.

En ce début 2021, chaque acteur reste dans l’attente de la proposition règlementaire afférente de la Commission européenne.

-        L’action de l’UE dans un contexte international compétitif

La stratégie de l’UE est également d’affirmer également son rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA.

En 2018, la CNIL a réaffirmé son souhait de porter la discussion sur la gouvernance éthique de l’IA à l’échelle internationale. En parallèle de ses travaux, l’UE a en effet pris une part active à l’élaboration des principes éthiques dans les travaux internationaux (OCDE, G20, l'Organisation des Nations unies pour l'éducation, l’UNESCO, l’OCDE, l’OMC, l’ONU…).

La Commission est convaincue que la coopération internationale sur les questions d’IA doit obéir à une approche qui promeut le respect des droits fondamentaux dans le monde entier.

L’enjeu pour l’UE est aujourd’hui de rattraper son retard par rapport aux Etats-Unis et à la Chine, et de rester compétitive face aux stratégies de ces pays en la matière. Pour rappel, le gouvernement américain avait investi en 2016 plus de 970 millions d’euros dans la recherche en matière d’IA.