Conformité, éthique et sécurité : les banques, les fintechs et l'IA
Conformité, éthique et sécurité : les banques, les fintechs et l'IA. Alors que l'IA est de plus en plus importante pour les institutions financières, gardons à l'esprit quelques considérations clés.
Alors que l’intelligence artificielle est de plus en plus importante pour les institutions financières, il convient de garder à l’esprit quelques considérations clés.
L'Intelligence Artificielle (IA) suscite une série de commentaires souvent alarmistes ou caricaturaux. Certains observateurs pensent que l’IA inaugurera des décennies d'innovation et amènera autant de bouleversements que l’avait fait Internet. D'autres sont mal à l'aise face à la technologie et à son potentiel de conséquences négatives, voire catastrophiques.
Mais ces gros titres passent à côté de l'essentiel en ce qui concerne la plupart des banques aujourd’hui, où l'IA a déjà des applications très pratiques et bénéfiques.
Pour les établissements financiers, les priorités résident dans la conformité, la stabilité et la sécurité. Tout le reste, même la fonctionnalité, vient plus tard. Les enjeux sont trop nombreux, qu’il s’agisse des dépôts des clients, des risques de réputation et des éventuelles amendes réglementaires, pour qu'il puisse en être autrement.
Dans ce contexte, avant de nouer un partenariat avec des fintechs exploitant l’IA, les banques ont tout intérêt à observer quatre points de vigilance.
1. Un investissement cohérent et à long terme
Sans doute, des start-ups révolutionnaires émergeront du cycle actuel de battage médiatique autour de l'IA, mais beaucoup échoueront : elles ne résolvent aucun problème, n'utilisent pas réellement l'IA, ne sont que des enveloppes autour de ChatGPT, etc.
A l’inverse, certaines entreprises technologiques ont progressivement développé des capacités d'IA au fil des ans, qu’elles continuent d’entraîner avec des algorithmes propriétaires et de faire évoluer en phase avec les besoins du marché.
Les banques qui veulent s’associer à une fintech tirant parti de l’IA ont intérêt à privilégier la seconde catégorie. Ces mêmes banques doivent être convaincues que la solution est suffisamment stable et fiable pour préserver la réputation de leur organisation, sans parler des données personnelles des clients. Cela signifie que la solution doit avoir été testée de manière approfondie dans des situations réelles, dans des cas extrêmes, à grande échelle, au fil du temps. Il faut également être en mesure d'expliquer comment une solution aboutit à une décision, car il s'agit d'une exigence de nombreux régulateurs.
2. Une technologie construite et entretenue en interne
Prenons les cas d’onboarding (KYC ou connaissance du client) ou de lutte contre le blanchiment d'argent (AML). De nombreuses solutions tierces utilisent des API et des technologies de base conçues par d'autres entreprises. C’est un vrai problème, car ce qui se passe avec les données, où elles sont stockées et dans quelle mesure elles sont sécurisées, n'est pas toujours clair.
D’autres acteurs ont adopté une approche différente, développant eux-mêmes leur propre technologie et conservant toutes les données d'entraînement en interne. Cela présente un certain nombre d'avantages.
D'abord, de pouvoir expliquer facilement à un régulateur comment les décisions sont prises et comment le modèle fonctionne. C'est important au regard de la réglementation européenne.
Ensuite, d’empêcher que les données puissent être partagées avec des tiers ou utilisées sans accord. Enfin, d’augmenter la capacité à contrôler, tester, modifier et développer les solutions au profit des clients finaux.
3. Une approche structurée de l'intégrité des données et des pratiques éthiques
L'IA soulève une série de questions éthiques qui font souvent l'actualité. Par exemple, certaines entreprises ont développé des outils de reconnaissance faciale qui peuvent relier l'image d'une caméra de surveillance d'une personne à son identité en ligne. De même, il y a eu de nombreuses questions très médiatisées autour de la reconnaissance faciale des personnes selon leurs origines ethniques ou leur genre. Être assimilé à un tel sujet représente un énorme risque réglementaire, réputationnel et financier.
La gouvernance des données et de leur exploitation par l’IA est donc essentielle. Ainsi, dans un processus d’onboarding, les données d’entraînement ne doivent pas provenir de sources contraires à l’éthique ; elles doivent être représentatives des clients finaux qui les utilisent. Et les données des clients ne doivent pas pouvoir être utilisées à des fins illégitimes ou contraires à l'éthique par des tiers.
4. Un être humain dans la boucle aux bons moments
L'IA peut effectuer de nombreuses tâches plus rapidement et mieux que les humains. Mais il y a toujours des risques et des zones grises, et le fait d'être trop peu impliqué dans une solution d'IA peut entraîner des problèmes. Par exemple, avec certaines vérifications biométriques, on peut adopter une approche conservatrice et bloquer toute correspondance partielle ou indéterminée, au risque de bloquer également des clients légitimes. A l’inverse, on peut être trop confiant et ne pas remarquer l'évolution de la fraude. Il est donc important d’introduire des contrôles humains à des moments clés, y compris si une décision est indéterminée.
Nous en sommes convaincus : les fintechs et les services financiers qui utilisent l'IA de manière conforme, sûre et fiable peuvent révolutionner l'industrie et offrir des avantages tangibles pour leurs clients tout en maintenant la confiance et la sécurité. Des atouts essentiels pour s’imposer parmi les gagnants de demain.