Des deepfakes faux candidats à l'embauche mais vrais pirates

Des deepfakes faux candidats à l'embauche mais vrais pirates Le FBI alerte sur une nouvelle utilisation frauduleuse des deepfakes. Après les personnalités publiques, les victimes sont les entreprises.

Tom Cruise en couple avec Paris Hilton, Jim Carrey qui remplace Jack Nicholson dans Shining, Barack Obama qui insulte Donald Trump… Les deepfakes font partie des contenus stars des réseaux sociaux. Mais désormais, le FBI tire la sonnette d'alarme. Après la publication d'un premier avertissement à propos de l'usage des deepfakes le 10 mars 2021, l'Internet Crime Complaint Center, composé de personnels du FBI et du Bureau of Justice Assistance, réitère ses mises en garde contre cette technologie. Il dénonce l'utilisation des deepfakes durant les entretiens d'embauche à distance. En pratique, l'arnaque consiste à faire embaucher un deepfake dans l'équipe informatique d'une entreprise pour un poste 100% télétravaillé. Une fois réussi, le pirate derrière le deepfake peut ensuite accéder aux données confidentielles de l'entreprise. En particulier celles des employés et des bases de données RH. A minima, ils pourront ensuite s'en servir pour escroquer les personnes concernées, ou mieux, l'entreprise elle-même.

Dommage collatéral, lors de l'entretien d'embauche, le visage de quelqu'un est utilisé à son insu.

Dommage collatéral, lors de l'entretien d'embauche, le visage de quelqu'un est utilisé à son insu. Une situation qui peut causer de nombreux préjudices aux personnes concernées. "Les victimes ont signalé l'utilisation de leur identité et les vérifications d'antécédents avant l'embauche ont permis de découvrir que les informations personnelles identifiables (coordonnées bancaires, informations médicales, identifiants…, ndlr) de certains des candidats appartenaient à une autre personne", indique le FBI.

Le FBI finit par délivrer des conseils aux entreprises amenées à s'entretenir à distance avec des candidats à l'embauche : "lors des entretiens, les mouvements des lèvres de la personne que l'on voit interrogée à la caméra ne sont pas complètement synchronisés avec l'audio de la personne qui parle. Parfois, des gestes tels que la toux, l'éternuement, ou d'autres actions auditives ne sont pas alignés avec ce qui est représenté visuellement."

Dans un rapport publié en avril 2022, Europol avertissait que les deepfakes "facilitent la prolifération de crimes" et que les outils à disposition des forces de l'ordre n'étaient pas suffisants pour identifier un deepfake.