Deepfake et services financiers : il est temps d'agir !

Le deepfake, qui consiste en la manipulation de vidéos, de sons et d'images générées par l'intelligence artificielle, est aujourd'hui une menace redoutable pour les institutions financières.

Qui pourrait oublier l’escroquerie vécue par ce cadre qui a transféré 25 millions de dollars, croyant avoir échangé avec des collègues de confiance lors d’un appel vidéo ? Chacun des participants n’était autre qu’un deepfake habilement conçu. Un tel degré de tromperie montre que même les mesures de sécurité les plus sophistiquées peuvent être contournées, exposant non seulement les institutions financières à des pertes considérables, mais aussi à des dommages irréparables à leur réputation.

Aujourd'hui, les fraudeurs parviennnent à déjouer les mesures de sécurité traditionnelles avec une facilité déconcertante. Ainsi, plus que jamais, la vérification de l’identité est essentielle tout au long du parcours utilisateur, de la première connexion jusqu’aux transactions à haut risque.

Les deepfakes, une menace grandissante

Les deepfakes sont devenus l’outil privilégié des cybercriminels. En 2023, la fraude liée aux deepfakes a connu une hausse spectaculaire de 3 000 % aux États-Unis ; les chiffres sont similaires dans le monde entier. Cette technique permet aux acteurs malveillants de se faire passer pour des cadres en entreprise, d’infiltrer des entretiens d'embauche mais aussi de manipuler les processus de vérification d'identité.

Les services financiers, une cible malheureusement privilégiée

À mesure que les banques et les institutions financières adoptent des modèles numériques, la surface d'attaque s'élargit. Les méthodes traditionnelles de vérification de l'identité - mots de passe, codes à usage unique et reconnaissance faciale de base - ne font pas le poids face à la tromperie alimentée par l'IA. Les deepfakes peuvent être utilisés pour contourner les contrôles KYC (Know Your Customer), frauder les systèmes d'approbation des prêts, manipuler des virements électroniques avec des montants conséquents ou créer des identités synthétiques réutilisables pour des activités criminelles collectives. 

Au-delà des pertes financières, les attaques par deepfake dégradent la confiance des clients. Un seul incident très médiatisé suffit à entacher la réputation d'une banque, éroder la confiance des investisseurs, et inciter les régulateurs à mener une enquête approfondie.

S’organiser face aux deepfakes

Pour lutter contre les deepfakes, les institutions financières doivent moderniser leurs capacités de vérification d’identité tout au long des parcours d’accès des utilisateurs. Aujourd'hui, elles peuvent s’appuyer sur des solutions avancées de vérification d’identité. Elles leur permettront de s'assurer que les systèmes de reconnaissance faciale font la distinction entre une personne réelle et une image ou une vidéo synthétique. En analysant les micro-expressions et les mouvements subtils, les tentatives de deepfake pourront être neutralisées.

Ces solutions aident aussi à contrôler la correspondance des justificatifs d’identité présentés avec ceux enregistrés dans les dossiers officiels émis par le gouvernement, la banque et/ou les soins de santé.

De plus, elles permettent aussi de lier l’identité d’un individu à son portefeuille numérique, empêchant toute manipulation d’identité non autorisée et permettant à des tiers certifiés d’augmenter le niveau d’assurance au bon moment, sur le bon canal.
 

Déterminer à qui et à quoi faire confiance

Les institutions financières doivent adopter une approche à plusieurs niveaux pour garantir l'identité, qui ajuste de manière dynamique les exigences de vérification en fonction du risque.

Grâce à la détection de fraude basée sur l'IA, les entreprises peuvent analyser en temps réel les anomalies dans les schémas vocaux, les expressions faciales et les incohérences vidéo pour faire la différence entre les utilisateurs légitimes et les attaques par deepfake.

En outre, l'autorisation dynamique renforce la sécurité en déléguant la gestion des accès à des systèmes externes, en utilisant des données contextuelles pour prendre des décisions d'accès en temps réel. Même si un deepfake contourne l'authentification initiale, cette approche peut bloquer les transactions à haut risque non autorisées.

Responsabiliser les employés et les clients

La technologie seule ne suffit pas : sensibiliser l’être humain est essentiel. Former les employés à reconnaître les deepfake, en repérant les changements subtils dans le style de communication ou des écarts par rapport aux protocoles standard, peut les aider à être plus vigilants et moins susceptibles d’être trompés.

Les clients doivent également être protégés. De nombreuses organisations financières les informent sur les escroqueries émergentes : ainsi lorsqu’ils détectent un potentiel risque, ils sont plus enclins à accepter des niveaux de sécurité plus élevés, comme la vérification de demandes inhabituelles via des canaux secondaires tels que les appels directs à la banque.

Vers des services financiers plus sécurisés

Face à la montée des deepfakes, les institutions financières doivent rester vigilantes et garder une longueur d'avance en s’appuyant sur l'authentification adaptative, sur des solutions d'identité numérique, et sur la formation continue. Une solide stratégie de vérification de l'identité (IDV) reste la meilleure défense pour prévenir ces attaques.

En adoptant la détection des fraudes par l'IA et l'autorisation dynamique, les institutions financières peuvent anticiper les attaques de type deepfake et protéger leurs actifs, tout en préservant la confiance indispensable à l'ère du numérique.