Robots recruteurs et discrimination : vers un cadre législatif pour les IA de recrutement
Ces dernières années, le développement phénoménal des intelligences artificielles s'est petit à petit étendu au monde des ressources humaines.
De nombreuses sociétés proposent aujourd'hui des IA capables de supporter voire même remplacer des acteurs des RH. A titre d’exemple, certaines sociétés vendent les services d’IA capables de lire et classifier des CV, d’autres des IA capables de filmer un candidat à l’embauche et analyser sa personnalité sur la base de ses mimiques faciales. Ces nouveaux outils, créés pour assister ou remplacer l’humain, bien que promettant des processus plus justes, rapides et moins discriminants, suscitent néanmoins des inquiétudes. Face à leur émergence croissante, de plus en plus d’Etats mettent en place une réglementation spécifique visant à encadrer davantage le recours à l’IA dans les RH.
Un encadrement initié aux Etats-Unis
L’Etat fédéral américain de l’Illinois apparait comme l’un des pionniers en matière de réglementation des systèmes d’IA utilisés dans le cadre de recrutement. En effet, le 1er janvier 2020, une loi est entrée en vigueur imposant différentes obligations aux employeurs ayant recours à des outils d’IA pour les entretiens vidéo. L’employeur doit informer le candidat qu’un outil d’IA est utilisé, lui en expliquer son fonctionnement, obtenir son accord à une telle utilisation et conserver la vidéo enregistrée dans des conditions strictes.
Le Maryland a également adopté une loi en réponse aux préoccupations concernant l'IA sur le lieu de travail. Depuis le 1eroctobre 2020, la loi du Maryland exige que les employeurs obtiennent le consentement d'un candidat avant d'utiliser, pendant un entretien, un service de reconnaissance faciale dans le but d’analyser les réactions des candidats.
Enfin, la ville de New York a adopté une loi le 11 décembre 2021 pour une entrée en vigueur prévue au 1er janvier 2023 en vue d’encadrer l’utilisation de l’IA pour faciliter le recrutement de salariés. En vertu de cette loi, un système d’IA de recrutement devra faire l’objet d’un audit préalable à son utilisation afin de détecter les possibles biais pouvant entraîner des discriminations. De plus, les candidats et salariés de la ville de New York devront être informés de l’utilisation d’un tel système lors du processus d’embauche ou de promotion, ainsi que des qualifications et caractéristiques qui seront utilisées par ledit système.
L’initiative européenne concrétisée par l’Artificial Intelligence Act
Consciente des enjeux et des risques liés à l’utilisation de l’intelligence artificielle, notamment sur le lieu de travail, la Commission européenne a présenté une proposition de Règlement européen établissant des règles harmonisées le 21 avril 2021.
Cette proposition de Règlement introduit un classement des systèmes d’IA selon quatre niveaux de risques et les outils d’IA utilisés dans le cadre du recrutement sont classés dans les systèmes dits « à haut risque » pour lesquels de nombreuses obligations pesant sur les fournisseurs sont prévues.
Ainsi, la proposition de Règlement européen leur impose des contraintes avant et après la mise sur le marché ou la mise en service de l’outil. Ces obligations concernent tant le suivi des risques liés à l’utilisation de l’IA ainsi que leur gestion, que l’établissement d’une documentation technique détaillée, l’information des utilisateurs pour leur permettre d’interpréter les résultats du système et de l’utiliser de manière appropriée mais également un contrôle humain et une obligation de robustesse, exactitude et sécurité.
En parallèle de ces obligations, les fournisseurs de tels outils doivent également mener des actions correctives, en informer les autorités compétentes, que les Etats-Membres devront désigner à terme, coopérer avec elles et mettre à leur disposition un certain nombre de documents pendant une durée de dix ans suivant la mise sur le marché ou la mise en service du système d’intelligence artificielle. Enfin, la proposition de Règlement européen leur impose également d’établir un système de surveillance post-commercialisation afin d’évaluer la performance du système d’IA ainsi que le respect des exigences prévues par le Règlement tout au long de sa vie.
La proposition de Règlement prévoit également des sanctions en cas de non-respect des exigences qu’elle pose. Ainsi, tout manquement est passible d’une amende administrative pouvant aller jusqu’à 20 millions d’euros ou, si le contrevenant est une entreprise, jusqu’à 4 % de son chiffre d’affaires annuel total, le montant le plus élevé étant retenu. Des sanctions particulières sont prévues en cas de manquement à l’obligation de surveiller, détecter et corriger les biais par la politique de gouvernance des données ou à celle d’informer les autorités nationales compétentes. Les différentes sanctions sont amoindries pour les institutions, agences et organes de l’Union.
Une absence de législation spécifique en France
A ce jour, aucune législation ou proposition de législation spécifique n’a été amorcée en France et la question des discriminations faites par des IA dans le cadre de recrutement se trouve ainsi régie par les dispositions générales du code du travail relatives à l’interdiction des discriminations.
En conclusion, bien que prometteuses, les technologies d’IA appliquées aux ressources humaines commencent à soulever des inquiétudes fortes chez les acteurs étatiques. En effet, un exemple célèbre est celui d’une multinationale qui avait développé, puis abandonné, un algorithme de recrutement qui, bien que ne prenant pas en compte le genre et la race des candidats, favorisait considérablement les candidats pratiquant un certain sport majoritairement pratiqué par des hommes blancs. Face à ce genre de dérive, il est très probable qu’un cadre législatif spécifique, lié à l’utilisation des IA dans le domaine des RH, puisse bientôt voir le jour.