Et si le fake prenait le contrôle ?

Informations, photos, vidéos... La falsification envahit notre société. Le deepfake est l'un des outils principaux au service de cette tendance. Il permet, grâce à l'IA de générer des données hyper crédibles qui induisent en erreur. Comme dans un jeu du faussaire et du policier, il s'agit de démêler le vrai du faux. Bienvenue dans Fake Wars !

Nous sommes tous conscients que les images et les informations peuvent être (et sont) de plus en plus falsifiées dans notre société. Actuellement, on peut distinguer deux types de faux, les faux générés de façon manuelle comme les fake news, et les faux automatiques. Dans le second cas, on va utiliser des approches basées sur l’intelligence artificielle, connues sous le nom de deepfake.

Le deepfake, ou en français hyper-trucage, est une technique d’intelligence artificielle qui consiste à générer de la donnée synthétique très réaliste. Il peut s’appliquer à différents types de données, par exemple une image, une vidéo, un son (musique, voix…), ou encore de l’écriture.

On peut ainsi générer une image réaliste à partir d’un dessin, coloriser des images, transférer un style, restaurer une image, ou encore donner à un visage des expressions, changer le genre de la personne, et même échanger des visages. Dans la vidéo ci-dessous, le visage de Jack Nicholson est remplacé par celui de Jim Carrey dans plusieurs scènes avec des résultats étonnants… et inquiétants.

De la même façon, dans “la Grande métamorphose” de Canteloup sur TF1, le visage de l’animateur est remplacé par la personnalité politique qu’il imite. Avec cette technologie, n’importe qui peut entrer dans la peau d’un président (voir ci-après), ou même ressusciter les morts, comme ce fut le cas dans le film Fast and Furious (2015), quelques mois après la disparition de l’acteur Paul Walker dans un accident de voiture.

Quelle est la recette du deepfake ?

Le deepfake existe depuis 2017 (par exemple l’application Face Swap de Snapchat). Alors quoi de nouveau ? Désormais, il n’est plus nécessaire d’être un grand spécialiste des effets spéciaux : une IA s’occupe de tout, grâce au mécanisme des réseaux de neurones profonds appelés Generative Adversarial Networks (GAN).

Les GAN s’inspirent des études sur la théorie des jeux. Dans les GAN, il y a deux modèles antagonistes : générateur et discriminateur. Le générateur cherche à tromper le discriminateur en générant des données similaires aux données réelles (données d’apprentissage).

L’apprentissage d’un GAN peut être assimilé aux interactions entre un faussaire et un policier : Le faussaire cherche à produire des œuvres ou des billets semblables aux vrais, tandis que le policier cherche à identifier les faux des vrais. Dans cet exemple, la qualité de production du faussaire dépend du policier, car plus le policier est bon, plus le faussaire doit améliorer ses faux. Il en est de même pour le policier, puisque sa capacité de détection dépendra de la qualité des faux. Plus les faux seront de bonne qualité, plus il devra trouver de nouvelles caractéristiques permettant de distinguer les faux des vrais.

Alors comment contrer ces fakes ?

De nouveaux projets et travaux ont pu voir le jour depuis l’avènement des deepfakes. Les nouveaux algorithmes ont poussé la communauté à réfléchir à des moyens permettant de détecter ces deepfakes. Le projet le plus prometteur pour la détection de deepfakes visuels est le DFDC (DeepFake Detection Challenge) porté par Facebook et mis à disposition sur Kaggle. L’objectif de ce projet communautaire est de pouvoir faire émerger des algorithmes détectant les deepfakes. Durant cette compétition, plus de 2000 équipes ont participés. Des algorithmes de différentes qualités ont ainsi pu voir le jour. Le meilleur modèle présenté possède une capacité de détection d’environ 75%.

Par ailleurs d’autre initiatives intéressantes ont émergé. Par exemple, Twitter alerte ses utilisateurs si un tweet contient une fausse information. Nous avons également en France des initiatives de ce genre, par exemple chez CheckNews, qui ont pour objectif de démystifier les fausses informations. La société commence donc à muter, et à se préparer à "l’ère des fakes".

Quelles sont les bonnes pratiques à mettre en place ?

Pour le moment, les faux générés de façon automatique restent identifiables par un humain. Malgré tout, des outils vont commencer à voir le jour pour les détecter. Mais les faux faisant le plus de dégâts pour le moment sont ceux générés manuellement. La façon la plus simple de les identifier est de croiser les informations de différentes sources. Cela demande du temps mais ça reste la meilleure solution.

Avec les nouveaux algorithmes de NLP (traitement du langage naturel) l’extraction des informations d’un document est facilitée. De ce fait, on peut imaginer un futur où des modèles permettront de croiser plusieurs documents afin de valider ou non les informations d’un article.

A n’en pas douter, les travaux pour générer des faux vont se multiplier à l’avenir, mais les ressources et solutions pour contrer leurs impacts négatifs sur la société sont également amenés à un développement exponentiel.

Bienvenue dans Fake Wars !