MAMMOth, ça ne trompe pas : enseignements d'une reconnaissance faciale sans biais

IDNow

Projet européen MAMMOth : comment réduire les biais en reconnaissance faciale et améliorer la fiabilité, l'équité, la transparence et la conformité des systèmes d'IA.

Si l’intelligence artificielle améliore chaque jour l’efficacité de nombreux processus, son déploiement soulève encore des inquiétudes légitimes : les jeux de données qui alimentent ses algorithmes peuvent être incomplets, n’inclure que des informations partielles ou faussées, et par conséquent, nuire à la neutralité. Ces biais pèsent sur les algorithmes, et participent à reproduire des stéréotypes existants, et amplifier des discriminations systémiques en les automatisant.

Les risques sont particulièrement grands s’agissant de reconnaissance faciale : comme le relevait MIT Media Lab en 2018, les taux d'erreur des logiciels de reconnaissance faciale étaient beaucoup plus élevés pour les femmes noires (34 %) que pour les hommes blancs (moins de 1%) en raison de la prévalence des images d’hommes blancs dans les bases de données d’entraînement. Mis au service, entre autres, des services de police et des systèmes de surveillance, ces algorithmes biaisés peuvent entraîner des erreurs lourdes de conséquences.

Même sans parler d’erreurs critiques, ces biais peuvent avoir des incidences dans la vie quotidienne : des applications bancaires aux dispositifs de sécurité dans les aéroports, la reconnaissance faciale, quand elle se déroule sans heurt, peut faire d’une étape d’identification contraignante une expérience fluide et satisfaisante. Ainsi, tout biais démographique est plus qu’un simple défaut technique. C'est une atteinte au droit à l'égalité d'accès aux services numériques essentiels, tels que l'ouverture d'un compte bancaire ou l'inscription à des services sociaux ou de santé.

C’est dans ce contexte que le projet MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems) a vu le jour en novembre 2022, porté par l’Agence exécutive européenne pour la recherche et 12 partenaires européens issus du monde académique, associatif et privé, pour analyser les biais présents dans les systèmes d’IA et développer des outils d’analyse et de correction pour y répondre. 3 ans plus tard, l’heure est au bilan.

Des décisions plus juste pour une reconnaissance plus inclusive

Les analyses menées dans le cadre de MAMMOth ont permis de mettre en lumière un problème central : la sous-représentation de pans entiers de la population dans les jeux de données qui alimentent les outils d’IA créé des écarts de performance en matière de reconnaissance, notamment dans les cas de vérification d’identité, où les variations des teintes des photos d’identité peuvent nuire à la fiabilité des résultats pour certains groupes démographiques.

En développant des méthodes permettant d’élargir la diversité des données en y intégrant des photos d’identité artificielles représentant un plus large panel de carnations, l’écart de précision entre peaux claires et foncées a pu être réduit de plus de 50 %. D’un point de vue industriel, cela est synonyme d’une meilleure expérience utilisateur pour nombre de leurs clients.

Une meilleure prévention des fraudes

En dehors des considérations éthiques, les systèmes biaisés sont également une porte ouverte aux vulnérabilités. Si les outils de reconnaissance faciale laissent des pans entiers de la population sur le carreau, ils produisent parallèlement des angles morts exploitables par les fraudeurs.

En entraînant mieux les modèles, les tests menés dans le cadre de MAMMOth ont permis une hausse de 8 % de la précision de vérification, sans augmentation du volume de données nécessaires. L’homogénéisation des performances algorithmiques permet de réduire les zones grises et de prévenir les failles potentielles.

Une IA plus transparente

L’un des apports majeurs du projet est la mise au point d’outils permettant de documenter et d’expliquer les décisions des algorithmes. La boîte à outils MAI-BIAS développée dans MAMMOth fournit un cadre standardisé pour évaluer l’équité d’un modèle avant sa mise sur le marché.

En plus de rendre les algorithmes intelligibles en garantissant leur transparence, cette démarche aide les entreprises à se mettre en conformité avec la loi européenne sur l’intelligence artificielle, facilitant les audits, et permettant aux organisations de justifier clairement la fiabilité de leurs systèmes.

Une correction continue

La lutte contre les biais ne peut pas se limiter à un audit ponctuel. Un cadre éthique et équitable doit assurer une surveillance continue et un réentrainement régulier des modèles IA à mesure qu’ils se développent pour éviter l’émergence de certaines dérives tout au long du cycle de vie du modèle.

Pour les entreprises, ce monitoring est une garantie stabilité et de conformité, qui leur permet de déployer des systèmes évolutifs capables de rester fiables, quel que soit l'évolution des volumes de données, des usages et des conditions d’acquisition des images.

Des enseignements en héritage 

Les avancées techniques permises par le projet dépassent largement le cadre de la reconnaissance faciale, car les outils et techniques mis au point peuvent être reproductibles et adoptées par toutes les organisations soucieuses de réduire les biais présents dans les modèles IA qu’elles utilisent. Et la liste des secteurs qui peuvent en tirer parti est longue : services financiers, de santé, d’éducation, d’e-commerce, de mobilité… les enseignements tirés par MAMMOth posent des bases solides pour améliorer la fiabilité et l’équité d’une multitude de systèmes, au bénéfice direct des utilisateurs.

Ainsi, intégrer des considérations éthiques dans ses processus de surveillance des algorithmes n’est pas un frein à l’innovation, mais un moteur de croissance. En plus d’offrir un avantage comparatif en termes de réputation aux entreprises et organisations qui se soucient des biais, les modèles retravaillés dans le cadre de MAMMOth ont montré qu’une IA plus responsable peut être déployée à grande échelle, sans sacrifier la performance.

En prônant une utilisation de l’IA non seulement performante mais juste, les entreprises font un choix stratégique. Elles renforcent la confiance de leurs clients, et se différencient sur un marché où la responsabilité algorithmique s’impose comme un nouveau standard.