Premières réponses du législateur et des acteurs face à la déferlante des deepfakes

Contrer les deepfakes, qui constituent un danger pour la démocratie, les personnes ou leurs biens, implique une réponse à plusieurs niveaux : juridique, technique et politique. Où en sommes-nous ?

Les deepfakes représentent déjà depuis plusieurs années un phénomène inquiétant. Le développement exponentiel de l’IA et la possibilité pour tous de générer des contenus synthétiques en quelques prompts précis ne font qu’amplifier le phénomène.

  • ·        Les deepfakes : de quoi parlons-nous ?

Le deepfake est tiré des termes deep learning et fake. Renommé « l’hypertrucage » en France, il est défini comme étant une technique de synthèse mono- ou multimédia reposant sur l'intelligence artificielle permettant notamment de superposer ou de fusionner des images, des fichiers vidéo ou audio existants sur d'autres fichiers (montage) mais également, cause des difficultés récentes, de créer artificiellement des contenus ressemblants à des situations réelles à partir de commandes textuelles.

La montée en puissance de deepfakes toujours plus sophistiqués est un danger non seulement pour la démocratie, en ce qu’elle permet l’ingérence numérique d’acteurs malveillants dans les processus électoraux, mais également pour les personnes elles-mêmes, avec en particulier l’émergence de l’hypertrucage pornographique.

  • ·        Les deepfakes : risque pour la démocratie

Selon une étude de 2022 menée par les Universités d'Oxford, de Brown et de la Royal Society[1], 78 % des personnes en présence d’une vidéo hypertruquée ne la distingueraient pas d’une vidéo authentique, les progrès technologiques accentuant ce phénomène[2]. À l’heure de l’élection du 47ème Président des États-Unis et à l’approche des élections parlementaires européennes, il est primordial de se soucier de la préservation de débats constructifs car construits sur une même réalité. Plus concrètement, les deepfakes peuvent contrarier le processus électoral. Ainsi, l’Etat du New Hampshire enquête actuellement sur des appels vraisemblablement générés par IA ayant reproduit la voix du Président Joe Biden pour inciter les électeurs du Parti démocrate à ne pas se rendre aux primaires.

La France prévoyait déjà, à l’article 27 de la loi du 29 juillet 1881 sur la liberté de la presse, l’interdiction de la diffusion de « fausses nouvelles ».  Plus récemment, c’est la loi du 22 décembre 2018[3] qui a créé un référé spécifique permettant de faire cesser en urgence la diffusion de fausses informations en période électorale et a soumis, de manière générale, les plateformes à une obligation de lutte et de facilitation de signalement de ces fausses nouvelles. De nombreuses difficultés d’application sont toutefois à déplorer. Au niveau européen, le DSA[4] propose à l’article 35 k) que les très grandes plateformes en ligne et les moteurs de recherche apposent un « marquage bien visible pour garantir qu’un élément d’information généré ou manipulé soit reconnaissable » comme tel. Cette mesure ne constitue toutefois qu’une voie d’action parmi d’autres pour les entreprises concernées. Consciente des risques pour l’UE, la Commission européenne a adopté une recommandation en 2023[5] incitant les partis politiques de l’Union à affirmer leur volonté de s’abstenir de tout comportement manipulateur impliquant « la production d’hypertrucages générés par IA ». De son côté, l’IAI Act[6] oblige les utilisateurs des systèmes d’IA à signaler les contenus générés ou manipulés pouvant « être perçus à tort comme authentiques ou véridiques » (article 52). La subjectivité d’une telle appréciation interroge néanmoins.

Du côté des acteurs privés, Meta et OpenAI communiquent sur la mise en place de marqueurs, notamment sur les métadonnées des contenus générés par le modèle DALL·E 3[7]. Toutefois, la plupart des réseaux sociaux suppriment les métadonnées lors de l’import et ces marqueurs ne fonctionnent que sur les images.

  • ·        Les deepfakes préjudiciables aux personnes et aux biens

Les atteintes aux personnes via les deepfakes ne sont pas non plus négligeables. Leur trace la plus visible à l’heure actuelle est le fake porn ou hypertrucage pornographique. D’après une étude menée par l’association Deeptrace[8], 96% des vidéos hypertruquées sont pornographiques et visent des femmes dans 99% des cas. Très récemment, il aura fallu plus de 47 millions de vues, 24 000 partages et 17 heures pour que le réseau social X intervienne sur la diffusion d’un hypertrucage mettant en scène la popstar mondialement connue Taylor Swift nue.

En France, le Code pénal sanctionne d'un an d'emprisonnement et de 15 000 euros d'amende le fait de publier un montage reprenant l’image d’une personne sans son consentement s’il n’est pas évident qu’il s’agit d’un montage ou s’il n’en n’est pas fait mention (article 226-8). Un projet de loi « sécurité de l’espace numérique » vise à appréhender plus précisément le « contenu visuel ou sonore généré par un traitement algorithmique » dans les mêmes circonstances, ce qui serait par ailleurs la première intégration de l’IA dans le Code pénal. Ce projet tend également à porter à deux ans d’emprisonnement et 60 000 euros d’amende de tels contenus lorsqu’ils présentent « un caractère sexuel ».

Déjà en vigueur, une loi du 7 juillet 2023[9] a étendu par ailleurs le périmètre de la LCEN[10] en ce qu’elle impose aux fournisseurs de services de communication au public de lutter contre la diffusion de ces montages et de faciliter leur signalement. Les bénéfices concrets d’une telle avancée sont néanmoins à nuancer dans la mesure où les démarches de déréférencement peuvent être complexes pour les victimes[11].

Enfin, le,deepfake est également une nouvelle arme considérable pour le phishing et les arnaques au président comme l’a démontré l’exemple récent de l’employé d’une multinationale de Hong Kong ayant viré, à la suite d’une visioconférence hypertruquée, 25,5 millions de dollars sur les comptes bancaires de cybercriminels. Tandis que la France fait appel au régime classique de l’usurpation d’identité (article 226-4-1 du Code pénal) et de l’escroquerie (article 313-1 du Code pénal) voire de la prohibition de la prospection commerciale non-consentie (article 12 du RGPD), les États-Unis ont réagi promptement à ces pratiques en protégeant le consommateur des appels générés par IA[12].

S’il convient de s’interroger sur l’efficience des réponses techniques et juridiques, il faut également s’assurer que le remède n’est pas pire que le mal.  Dans le cadre des débats démocratiques, dans quelle mesure les réponses apportées ne risquent-elles pas d’entraver la liberté d’expression pour des contenus en réalité satiriques ou simplement provocateurs incitant à la réflexion ?

Remerciements à Romane Cussinet, Élève-avocate des départements Propriété intellectuelle et Droit des technologies numériques du cabinet ALERION AVOCATS, pour sa contribution.

 
 

[1] Andrew Lewis, Patrick Vu, Raymond M. Duch et Areeq Chowdhury, Do Content Warnings Help People Spot a Deepfake? Evidence from Two Experiments, The Royal Society - The online information environment, 19 janvier 2022.

[2] Version 6.0 de Midjourney.

[3] Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, dénommée également loi fake newsou loi infox.

[4] Le Digital Services Act ou Règlement sur les services numériques est entré en application le 25 août 2023 afin d’encadrer la mise en ligne de contenus et de produits illicites par les très grandes plateformes et de protéger les utilisateurs.

[5] Recommandation (UE) 2023/2829 de la Commission du 12 décembre 2023 relative à des processus électoraux inclusifs et résilients dans l’Union, au renforcement du caractère européen des élections au Parlement européen et à une meilleure garantie de leur bon déroulement.

[6] Une version définitive de l’Artificial Intelligence Act ou Règlement sur l’intelligence artificielle a été adoptée le 2 février 2024 par le Comité des représentants permanents de l’UE pour encadrer le développement et l’exploitation des systèmes d’IA.

[7] Cf. « Tech Accord to Combat Deceptive Use of AI in 2024 Elections » : accord du 17 février 2024 entre 20 entreprises de la BigTech sur les comportements diligents à adopter quant à l’IA en période électorale.

[8] Henry Ajder, Giorgio Patrini, Francesco Cavalli et Laurence Cullen, The state of Deepfakes: Landscape, Threats, and Impact, DEEPTRACE, septembre 2019.

[9] Loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne.

[10] Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique.

[11] HCE (Haut Conseil à l’Égalité entre les Femmes et les Hommes), Pornocriminalité : mettons fin à l’impunité de l’industrie pornographique, Rapport n°2023-09-27 VIO-59 publié le 27 septembre 2023

[12] Communiqué du 31 janvier 2024 de la FCC (Commission Fédérale Américaine des Communications) jugeant illégaux les appels automatisés générés par IA.