Déjouer les deepfakes : l'IA en première ligne
Les deepfakes menacent l'économie via la fraude financière. Les entreprises doivent renforcer la détection, la formation et adopter une vigilance accrue pour limiter les risques, en utilisant l'IA.
Les images et vidéos générées par l’IA représentent une menace grandissante pour la société et l’économie. Elles sont de plus en plus faciles à produire et bien plus difficiles à distinguer du réel. Jusqu’à présent, le débat s’est principalement focalisé sur les deepfakes à visée politique, utilisés par des acteurs malveillants pour tenter d’influencer les démocraties. Or, en Europe, au Royaume-Uni, dans l’UE et en Inde, ces craintes se sont révélées largement infondées. Pourtant, les données indiquent une explosion des deepfakes au niveau mondial, avec une augmentation de 300 % en 2024. En France, ce chiffre atteint près de 140 % en comparaison avec l’année précédente.
Désormais, l’inquiétude se porte sur un danger bien plus concret : l'usage des deepfakes dans la fraude financière, qui menace aussi bien les entreprises que les individus. Si les sociétés sont conscientes des risques liés à l’identification des nouveaux clients—où la vérification d’identité et la surveillance des fraudes sont des étapes essentielles—elles restent largement démunies face aux escroqueries par hameçonnage et usurpation d’identité dopées à l’IA. Aux États-Unis, l’usurpation d’identité a été la première catégorie de fraude en 2023, entraînant 2,7 milliards de dollars de pertes déclarées, selon la Federal Trade Commission. Et plus ces techniques se perfectionnent, plus les victimes se multiplient. Une prise de conscience s’opère néanmoins chez les dirigeants : selon une étude Deloitte, 15,1 % des cadres interrogés ont déjà été confrontés à au moins un incident de fraude financière impliquant l’utilisation de deepfakes en 2023, et 10,8 % à plusieurs.
Deepfakes et fraude : un risque croissant, une réponse encore trop faible
Le phénomène ne fait que s’intensifier : plus de la moitié des cadres interrogés (51,6 %) s’attendent à une augmentation du nombre et de l’ampleur des attaques impliquant les deepfakes visant les données financières et comptables. Pourtant, peu de mesures concrètes sont prises. Pire encore, un cinquième des répondants (20,1 %) avouent n’avoir aucune confiance dans leur capacité à réagir efficacement face à ces fraudes.
Si les outils de détection des deepfakes jouent un rôle clé pour empêcher les fraudeurs externes de contourner les processus de vérification à l’intégration, les entreprises doivent aussi se prémunir contre les menaces internes. Une approche de "faible confiance" dans les demandes financières ou les décisions critiques, combinée à de nouveaux outils numériques boostés par l’IA, devient essentielle pour détecter les escroqueries par phishing et usurpation d’identité. Cela implique bien plus qu’une simple adoption technologique : la formation, l’éducation et une refonte de notre approche des contenus visuels et audio sont nécessaires. Ce changement doit être impulsé à tous les niveaux de l’organisation, du sommet jusqu’aux équipes opérationnelles.
Une stratégie holistique de deepfake
Les invraisemblances socioculturelles : Le contexte et la logique constituent peut-être le meilleur outil pour lutter contre les fraudes de type « deepfake ». Chaque partie prenante, à chaque étape, doit considérer l'information avec un nouveau scepticisme. Dans le cas récent où un employé du service financier a versé 25 millions de dollars à la suite d'un appel vidéo avec un faux directeur financier, on peut se demander pourquoi le directeur financier demande 25 millions de dollars et dans quelle mesure cette demande sort de l'ordinaire. Cela est certainement plus facile dans certains contextes que dans d'autres, car le fraudeur le plus efficace concevra son approche de manière à ce qu'elle semble correspondre au comportement normal d'une personne.
Les entreprises doivent adopter un scepticisme généralisé, soumettant vidéos et appels aux mêmes vérifications que les e-mails. Former les employés et encourager une double validation des contenus audio et visuels permettent de mieux repérer les incohérences. Observer les signes biologiques—comme le clignement des yeux ou les mouvements naturels de la gorge—reste un moyen efficace de déceler les anomalies. Briser les schémas habituels en demandant des gestes inhabituels ou en modifiant l’éclairage peut aussi exposer les manipulations. Enfin, des outils comme For Fakes’ Sake pour l’image ou Pindrop pour l’audio aident à détecter les deepfakes, bien qu’aucune méthode ne soit infaillible face à leur évolution rapide.
Un scepticisme systématique face aux deepfakes
À l’ère de l’information synthétique de masse, les entreprises doivent appliquer le même niveau de vigilance aux contenus visuels et sonores qu’aux nouveaux contrats, à l’intégration des clients et au filtrage des acteurs illicites. Face aux menaces internes et externes, l’adoption d’outils de vérification basés sur l’IA, couplée à des programmes de formation et de sensibilisation renforcés, est essentielle pour limiter les risques financiers liés aux deepfakes.