Quelles seront les IA interdites en Europe après l'entrée en vigueur de l'AI Act ?

Quelles seront les IA interdites en Europe après l'entrée en vigueur de l'AI Act ? L'AI Act va bannir l'usage de plusieurs intelligences artificielles en Europe dont l'utilisation est considérée comme "contraire aux valeurs de l'Union."

La recherche en intelligence artificielle n'est pas la seule à progresser, la régulation avance elle aussi, en tentant de garder le rythme. En avril 2021, bien avant le succès de ChatGPT et consort, la Commission européenne publie un premier document visant à uniformiser les règles d'utilisation de l'IA au sein du Vieux Continent. L'objectif affiché est de poser un cadre réglementaire afin de prévenir les "nouveaux risques" ou "conséquences négatives pour les personnes ou la société" présentés par le développement de ces systèmes. "Il est dans l'intérêt de l'UE de préserver son avance technologique et de faire en sorte que les Européens puissent bénéficier de nouvelles technologies dont le développement et le fonctionnement respectent les valeurs de l'Union et les droits et principes fondamentaux", explique Bruxelles.

Après de long échanges au Parlement pendant plus de deux ans, les eurodéputés sont parvenus à une version commune de l'Ai Act le 14 juin dernier. Toutefois, afin de finaliser les accords, et d'établir une version finale du texte, des représentants du Parlement, du Conseil et de la Commission continuent de s'accorder sur les derniers détails. Dans les grandes lignes, le règlement actuellement présenté sur le site officiel d'EUR-Lex, prévoit d'identifier trois types de "systèmes d'IA" :

  • des intelligences artificielles interdites.
  • des intelligences artificielles à hauts risques "qui présentent un risque élevé pour la santé, la sécurité ou les droits fondamentaux des personnes physiques"
  • des intelligences artificielles moins risqués qui devront faire preuve de transparence.

Pas de techniques subliminales ni de crédit social

Les IA prochainement interdites concernent des cas d'usage très spécifiques. Le législateur parle pour ces systèmes d'IA de risques "inacceptables" en Europe. Les risques sont clairement matérialisés par l'AI Act et portent notamment sur plusieurs aspects du comportement humain. Sera notamment interdit le système d'IA à base de techniques subliminales "au-dessous du seuil de conscience d'une personne" qui modifie le comportement humain au risque de causer un préjudice physique ou psychologique. On peut penser notamment à un système qui insère subtilement des messages dans des vidéos pour influencer les spectateurs à acheter certains produits.

De façon logique également, les systèmes d'IA visant à exploiter les vulnérabilités "dues à l'âge ou au handicap physique ou mental" d'un groupe de personnes afin d'altérer leur comportement susceptible de causer un préjudice (physique ou psychologique) seront interdits.

Dans un autre cadre, les 27 vont également interdire les systèmes d'intelligence artificielle utilisés pour "évaluer ou à établir un classement de la fiabilité de personnes physiques" pendant une période donnée en fonction de "leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites." Cette disposition vise à prévenir le développement et l'utilisation d'un outil siilaire à celui actuellement déployé en Chine. Appelé "Système de crédit social", l'outil expérimenté depuis 2014 au sein de l'empire du Milieu collecte des données sur le comportement financier, social et politique des citoyens pour leur attribuer une note de crédit social. Cette note détermine leur accès à certains services publics et privés. Il repose sur un réseau de surveillance de masse utilisant l'intelligence artificielle, la reconnaissance faciale et d'autres technologies de pointe. La note peut être augmentée par des comportements approuvés par le Parti communiste chinois et diminuée pour des comportements jugés indésirables.

La reconnaissance faciale autorisée sous conditions

Côté sécuritaire, le texte interdit également l'utilisation de système "d'identification biométrique à distance" en direct, dans le cadre d'un usage répressif. On parle ici, entre les lignes, de l'usage de la reconnaissance faciale. Trois exceptions viennent toutefois nuancer la règle. D'abord la recherche de victimes potentielles spécifiques de la criminalité et notamment les enfants disparus. Ensuite la prévention d'une menace "spécifique, substantielle et imminente" pour la vie ou la sécurité physique de personne ou la prévention d'une attaque terroriste. Enfin, le système peut être autorisé pour suivre les auteurs présumés d'infractions pénales graves (terrorisme, traite des êtres humains, viol, meurtre ou peines passibles de 3 ans de prison).

Cas d'interdiction

Exceptions

Utilisation de techniques subliminales pour altérer le comportement de manière préjudiciable

Aucune

Exploitation des vulnérabilités de groupes pour altérer leur comportement de manière préjudiciable

Aucune

Notation sociale par les pouvoirs publics conduisant à un traitement préjudiciable

Aucune

Utilisation de la reconnaissance biométrique à distance dans les espaces publics à des fins répressives (reconnaissance faciale notamment)

- Recherche ciblée de victimes potentielles

- Prévention d'une menace imminente

- Détection d'auteurs d'infractions graves

- Sous réserve d'autorisation préalable et de proportionnalité

Pour mettre en place un tel système de reconnaissance faciale, les autorités compétentes devront évaluer le risque de préjudice en l'absence d'utilisation de la technologie, afin de déterminer si le recours à la reconnaissance faciale se justifie pour prévenir/limiter ce préjudice potentiel. Plus le risque et l'ampleur du préjudice sont élevés, plus l'utilisation de la technologie peut se justifier.

Ce jugement doit par ailleurs tenir compte des conséquences en matière de "droits et libertés" sur les personnes concernées. Avant d'utiliser la reconnaissance facile, les pouvoirs publics devront avoir obtenu une autorisation préalable de l'autorité judiciaire (un juge par exemple) ou d'une autorité administrative (une autorité de protection des données par exemple). Toutefois, en cas d'urgence dûment justifiée, il sera possible de commencer à utiliser le système sans autorisation préalable.