L'éthique de l'IA dans l'assurance, plus qu'une question de principe !

Si des guides éthiques de l'IA sont établis par l'UE, il est également important que chaque secteur prenne en main cette problématique. Alors à quand, un code de conduite sur les pratiques de l'IA applicable à l'assurance ?

L'IA est bel et bien en passe de devenir la 4è révolution industrielle, après celle engendrée par l'arrivée des ordinateurs et d'Internet. Ainsi le cabinet PwC estimait, il y a peu, que l'intelligence artificielle pourrait augmenter le PIB mondial de 15 700 milliards de dollars d'ici à 2030.  La croissance du marché français de l'IA confirme cette tendance avec une hausse affichée de 80% entre 2017 et 2018.

Il est facile de comprendre cet engouement. L’IA permet à la fois d’optimiser et de perfectionner nombre de tâches en traitant et liant entre elles de grandes quantités de données et d'informations souvent disparates.

Pleinement conscients des possibilités offertes par l’IA, les acteurs du marché de l'assurance investissent d’ailleurs significativement dans ces technologies.

L’IA une question de compréhension

La question de la confiance quant au mode de fonctionnement de l'intelligence artificielle mobilise toutefois un nombre croissant d'acteurs dans tous les secteurs, y compris celui de l’assurance. Car si les outils d'intelligence artificielle permettent de prendre de meilleures décisions, plus rapidement et avec plus de précision, leur mode de fonctionnement peut aux yeux de certains demeurer opaque. En effet, l’IA apprend et évolue à partir des données sur lesquelles on l’entraîne sans que l’on puisse avoir accès au fonctionnement de l’algorithme.

Pour ne pas verser dans l’effet « boite noire », il est essentiel de garder à l’esprit que l’IA n’est pas une solution en soi. C’est un outil, une pièce du puzzle, et cette distinction n’est pas toujours facile à faire. Ainsi dans le cas des solutions adaptées aux exigences de la détection de la fraude et de l’automatisation de la gestion des sinistres, l’IA, reste le meilleur moyen d’atteindre le résultat escompté mais elle n’a de sens que si elle fait partie d’un dispositif global mixant technologie et savoir-faire humain.

Un écosystème d’excellence dédié à l’IA

Toutefois ce manque de lisibilité a amené de nombreuses instances à se pencher sur la question de l’éthique de l’IA. En 2019, un groupe de 52 experts réunis par la Commission européenne a ainsi publié ses « règles éthiques pour une IA de confiance ». La Commission souhaite soutenir le développement et l’adoption d’une l’intelligence artificielle éthique et digne de confiance dans tous les secteurs économiques à condition qu’elle soit « éthique, durable, axée sur le facteur humain et respectueuse des valeurs et droits fondamentaux ». Son but est de mettre en lumière les avantages qu’offre l’IA aux entreprises et à la société tels que les gains d’efficacité et de productivité, la compétitivité.

Si des guides éthiques de l’IA sont établis par l’UE, il est également important que chaque secteur prenne en main cette problématique et adapte les règles aux spécificités de son secteur. Alors à quand, un code de conduite sur les pratiques de l’IA applicable à l’assurance ?

Des règles simples pour une auto-régulation efficace

Afin de répondre à ces questionnements, il n’est pas forcément nécessaire de mettre en place une politique éthique spécifique, cependant, il est important de souligner que ce sont les choix opérés a priori, du développement d’une solution IA, qui permettent de réduire de manière significative la probabilité de biais. Les algorithmes ne doivent pas être des boîtes noires destinées à résoudre un problème de bout en bout. Il faut déconstruire le problème en de multiples sous-problèmes et les traiter chacun séparément afin de garder la maîtrise du comportement global de l’IA. Dans l’exemple de la détection de fraudes, les algorithmes doivent être conçus pour identifier des comportements suspects, pas simplement des corrélations statistiques entre variables. Par exemple le département de résidence de l’assuré, même s’il peut avoir une corrélation avec le risque de fraude, ne définit en aucun cas un comportement. Cette variable n’est donc pas utilisée.

Il est également essentiel de préciser que, dans cette application concrète, l’IA n’est pas conçue pour prendre la décision finale sur la réalité effective d’une fraude ou d’un abus. La technologie doit être capable d’aider un gestionnaire à travailler de manière plus efficace et plus rapide afin qu’il puisse apporter toute leur valeur ajoutée sur les cas les plus complexes. L’IA établit un score de suspicion définissant la probabilité qu’un sinistre ou qu’une prestation santé soit frauduleuse, ainsi que les indicateurs ayant permis de remonter cette alerte. Cette information est ensuite transmise à un gestionnaire anti-fraude qui analyse le résultat et mène l’investigation jusqu’à son terme.

La recherche d’éthique peut également se traduire par l’anonymisation des données avant de les intégrer à un algorithme. Les données personnelles sont très souvent importantes pour créer des variables, mais ensuite le choix des variables utilisées par l'algorithme relève toujours d’une décision humaine. Une décision prise à la fois par les data scientists mais également par l’ensemble des garde-fous (audit) mis en place afin de s’assurer qu’aucune variable discriminante tels le genre, l'origine ethnique (supposée à partir du nom), la religion, ... ne soit intégrée aux algorithmes. Quant au respect de la vie privée, dans certains domaines, c'est à la législation de choisir ce qui peut être utilisé ou non par les algorithmes. 

Amélioration de l'expérience et de la relation client, automatisation des processus de gestion, analyse de risques ou encore détection de fraude, les cas d’applications de l’IA utilisées à l’assurance sont de plus en plus nombreux et les acteurs du marché ont pleinement conscience des innovations apportées par cette technologie. Mais, il est important de garder en tête qu’elle n’a qu’un objectif : automatiser toutes les tâches chronophages pour faciliter le quotidien des employés.