L'intelligence artificielle pour combattre le blanchiment d'argent et le financement du terrorisme

L'ACPR exhorte depuis plusieurs années les institutions financières à adopter l'intelligence artificielle pour lutter plus efficacement contre le blanchiment et le financement du terrorisme.

Pour les banques et assurances, confrontées à une inflation des effectifs dédiés à la lutte contre la criminalité financière, l’IA offre une formidable opportunité pour maîtriser les coûts opérationnels et transformer de façon profonde la culture et les habitudes de travail d’un secteur jusqu’à récemment relativement traditionnel. 

Les institutions financières, maillons essentiels de la lutte contre le blanchiment 

Les institutions financières participent pleinement à la lutte contre le blanchiment et le financement du terrorisme (LCB-FT). Elles vérifient l’identité et la conformité de toutes leurs relations, assurent un profilage de tous leurs clients et une surveillance continue de leurs transactions et activités.

Grâce à leurs outils de contrôle et de détection, les équipes LCB-FT des banques analysent quotidiennement de nombreuses alertes et signalent aux autorités les activités suspectes, via des "déclarations de soupçon" adressées aux cellules de renseignement financier (par exemple TRACFIN en France reçoit environ 200.000 déclarations de soupçon par an).

Ces déclarations aident les autorités à investiguer, identifier, puis démanteler des réseaux et nuire efficacement aux activités criminelles sous-jacentes au blanchiment (trafic de stupéfiant, trafic d'êtres humains, corruption, fraude fiscale, etc.) et au terrorisme. 

Le défi de la détection et des faux positifs 

Les banques et assurances font face à un véritable casse-tête : elles supportent des coûts chaque année plus élevés pour se conformer aux politiques de lutte contre le blanchiment, qui ne cessent d'évoluer (nouvelles directives européennes, sanctions liées à la guerre en Ukraine ...). 

Les équipes de sécurité financière doivent traiter des volumes croissants d'alertes, dont une majorité de dossiers sans suite, appelés "faux positifs". Ceux-ci représentent parfois jusqu'à 95% des alertes, et nuisent à la productivité mais aussi à la vigilance des analystes LCB-FT.  

La détection des schémas de blanchiment est de fait extrêmement complexe. Les organisations criminelles font usage de sociétés écran, d’hommes de paille et de mules, et exploitent toutes les possibilités offertes par l’industrie financière pour brouiller leurs traces (ouverture de comptes en ligne, paiements instantanés, cryptomonnaies, cartes prépayées ...). 

Les systèmes traditionnels de détection fonctionnent grâce à des scénarios relativement statiques, construits généralement avec des règles métier et des seuils de montant. Ces scénarios détectent aisément les activités de blanchiment les plus grossières, mais peinent à alerter sur les schémas plus évolués, au prix d’un nombre très important de faux positifs. A l’inverse, les criminels font preuve d’une grande agilité : ils s'adaptent à ces contrôles, et recourent sans cesse à de nouveaux schémas plus difficilement détectables. 

L'évolution des mentalités 

Les équipes de conformité et de sécurité financière sont souvent encore équipées d'outils vieillissants et peu performants. Plus "conservatrices" à propos des nouvelles technologies que leurs collègues luttant contre les fraudes au paiement, du fait du caractère juridique de leur activité, elles ont longtemps été réticentes à adopter les technologies d'intelligence artificielle. 

Les mentalités évoluent très vite depuis quelques années : les équipes rajeunissent, mais surtout, les organismes de régulation et de contrôle ont considérablement contribué à faire tomber les préventions et les tabous : ils exhortent les banques et les assurances à améliorer leurs dispositifs grâce à l’IA. 

En France, l'ACPR - l'autorité de contrôle des banques et assurances - utilise elle-même un outil basé sur le « machine learning » pour ses audits, et encourage les institutions qu'elle supervise à utiliser largement les possibilités offertes par la « data science ». 

Donner une autre dimension à la performance de détection

Le recours à l'intelligence artificielle améliore notablement la détection et élimine une grande partie des faux positifs. Par exemple, il est classique qu’un modèle de machine learning permette de détecter deux fois plus d'activités suspectes tout en divisant par deux le nombre d'alertes à analyser. 

Ceci s'explique par plusieurs facteurs : 

L'IA permet d'analyser de très grandes quantités de variables et de signaux tout au long du cycle de vie du client, contrairement aux approches traditionnelles exclusivement fondées sur des règles. 

Le machine learning peut par exemple analyser les données des entrées en relation, enrôlements de nouveau téléphone mobile, comportements digitaux, géolocalisations, modifications de plafonds, souscriptions de produits, encaissements, paiements, contreparties … pour détecter les signaux faibles d’une activité risquée. 

L’IA permet aussi de micro-segmenter les clients au travers de centaines de caractéristiques comme la profession, le secteur d'activité, les revenus, l’âge, l’adresse, les produits, l’exposition internationale, ... pour établir des profils de clients risqués.

L'utilisation de scores générés par des modèle d'IA dans des scénarios LCB-FT permet de profiter du meilleur des deux approches : 

Grâce aux règles, les équipes de pilotage gardent une grande réactivité en cas de besoin d'évolution des contrôles, et peuvent implémenter une politique de risque claire. 

Grâce aux scores de modèles d'IA, il est possible de simplifier grandement la maintenance des règles, d'augmenter la performance des scénarios, mais aussi de donner à chaque alerte une priorité de traitement basée sur les risques. 

Les clés du succès 

Beaucoup d’institutions en sont encore au stade de l’expérimentation ; certaines implémentent des modèles de machine learning complétant leur dispositif actuel, par exemple pour prioriser et filtrer les alertes générées par des règles. 

Il est cependant important de ne pas s'arrêter à des solutions palliatives. Implémenter un dispositif cible intégré permet de réaliser des gains importants et un retour sur investissement rapide.

Pour assurer la réussite d’un tel projet, il faut prévoir, dès la phase de cadrage du projet :

d’alimenter le dispositif avec une grande quantité de données issues des parcours utilisateurs et des référentiels internes et externes ;

de penser à assurer l'explicabilité, la transparence, et l'auditabilité des modèles et des alertes générées ;

d’intégrer les exigences du RGPD et de l'AI Act européen sur les systèmes d'IA à hauts risques. 

Intégrer l’humain

La migration d’un dispositif LCB-FT permet aussi – voire surtout – de transformer en profondeur et d’optimiser le travail quotidien des équipes en charge. Pour cela, il est crucial de bâtir un dispositif cible favorisant la collaboration et facilitant le travail des experts métier, des data scientists, des analystes LCB-FT et des informaticiens : 

Les experts métiers doivent pouvoir explorer en toute autonomie les données d’historiques ou de référentiel dans un « data lake conformité » : analyser un nouveau pattern, tester de nouvelles stratégies, créer des reportings internes ou réglementaires, afficher des graphes relationnels pour étudier les liens entre personnes, sans nécessité de recourir à l’aide de l’équipe informatique. 

Experts métier et data scientists doivent pouvoir collaborer sur le même « data lab » pour bâtir ensemble des modèles d’IA. Les décideurs métiers doivent pouvoir évaluer et valider en quelques clics un nouveau modèle pour le publier en production, sans intervention de l’équipe informatique, grâce à une solution « ML Ops ». Ils doivent pouvoir le faire en toute confiance, grâce à une simulation interactive de la performance des modèles et scénarios (prédiction du nombre de faux positifs, des activités suspectes détectées, etc.). 

Ces fonctionnalités sont disponibles dans des solutions « no code » à destination des métiers.