Les systèmes d'IA à haut risque dans la gestion des ressources humaines et du travail : un enjeu critique

L'IA transforme les RH, mais l'UE impose un cadre strict avec l'IA Act dès août 2026 pour protéger les droits des salariés face aux systèmes à haut risque.

L'intelligence artificielle (IA) transforme les pratiques RH, notamment dans le recrutement, la gestion des performances et la planification de carrière. Toutefois, ses décisions peuvent influencer directement les trajectoires professionnelles, ce qui a conduit l'Union européenne à établir un cadre réglementaire strict à travers l'IA Act, dont les dispositions entreront en vigueur en août 2026 pour les systèmes à haut risque. Ce règlement vise à protéger les droits de l’homme, et notamment ceux des salariés et à encadrer l'utilisation de l'IA.

L’IA à haut risque dans le recrutement et la gestion des performances

Les systèmes d'IA utilisés pour sélectionner des candidats ou évaluer les performances des employés sont classés par défaut à haut risque. Par exemple, des logiciels d’analyse de CV ou d’évaluation vidéo peuvent introduire des biais si les données d'entraînement sont partiales. Le règlement impose des audits réguliers et des évaluations d'impact pour prévenir ces biais. De même, les systèmes d’IA qui surveillent les performances des employés doivent faire l'objet d'une supervision humaine pour éviter que les décisions ne reposent uniquement sur des critères automatisés.

Accès à la formation et surveillance biométrique

L'IA peut également gérer l'accès des employés à des formations, ce qui pourrait renforcer des inégalités si des biais existent. Le règlement impose aux entreprises de veiller à ce que les données utilisées soient pertinentes et régulièrement mises à jour. La reconnaissance faciale, utilisée pour surveiller les comportements ou contrôler les accès, est strictement encadrée, et son usage en temps réel dans des espaces publics est limité à des cas de nécessité absolue.

Obligations des fournisseurs et des déployeurs d’IA

Le règlement européen distingue les obligations des fournisseurs et des déployeurs de systèmes d'IA.

Les fournisseurs de systèmes d’IA à haut-risque doivent respecter plusieurs obligations strictes. Tout d'abord, ils doivent classer leurs systèmes selon leur niveau de risque, des systèmes interdits à ceux à risque minimal. Les systèmes à haut risque doivent se conformer à des exigences techniques, incluant une documentation détaillée, un marquage, un enregistrement du système auprès des autorités, des évaluations de conformité, et une gestion des risques rigoureuse.

La transparence est essentielle : les utilisateurs doivent être informés qu’ils interagissent avec une IA avant son activation, et des instructions d'utilisation claires doivent être fournies. En parallèle, les fournisseurs doivent réaliser des évaluations d'impact pour identifier et limiter les risques pour les droits des utilisateurs.

Après le déploiement, une surveillance post-commercialisation est requise pour suivre les performances, signaler les incidents et rectifier les éventuelles défaillances. Enfin, les fournisseurs doivent enregistrer leurs systèmes dans un registre officiel, garantissant ainsi la traçabilité et facilitant l'intervention des autorités en cas de problème.

Quant aux déployeurs, ils sont responsables de l’utilisation éthique des systèmes et doivent former le personnel à leur bonne utilisation. Ils doivent également respecter des droits fondamentaux, tels qu’éviter toute forme de discrimination et mettre en place des mécanismes de contrôle. Enfin, ils doivent surveiller les performances et évaluer l'efficacité et la conformité des systèmes d'IA déployés doivent être mise en place.

Dans certains cas, une entreprise peut cumuler les deux rôles et doit alors se conformer aux deux ensembles d’obligations. Cela s’applique notamment aux entreprises qui développent leurs propres systèmes d'IA en se basant sur un système existant pour un usage interne.

Vers une IA responsable et conforme

L'IA Act renforce les obligations de conformité et de transparence des systèmes d'IA à haut risque, en mettant l’accent sur les évaluations d’impact. D’autres règlementations demeurent applicables telles que la consultation des comités sociaux, et le respect des normes de protection des données, comme le RGPD. L’objectif est de garantir une utilisation éthique et responsable de l’IA dans les entreprises, tout en protégeant les droits fondamentaux des employés.

L'IA Act marque ainsi un pas important vers une régulation de l'IA en Europe, conciliant innovation technologique et protection des droits humains.