Exceptions à la qualification de systèmes d'IA à haut risque dans la gestion des ressources humaines et du travail

L'IA Act de l'UE, en vigueur le 2 août 2026, impose un cadre strict pour les systèmes d'IA à haut risque, tout en prévoyant des exceptions pour certains usages, même sensibles comme les RH

L’adoption de l’IA Act, dont les dispositions relatives aux systèmes à haut risque entreront en vigueur le 2 août 2026, a permis à l’Union européenne d’établir un cadre réglementaire strict pour les systèmes d’IA à haut risque. Cependant, ce cadre prévoit des exceptions qui permettent à certains systèmes d’IA de ne pas être qualifiés de haut risque, même s’ils sont utilisés dans des contextes sensibles comme la gestion des ressources humaines (RH) et du travail visés par l’Annexe III de l’IA Act.

Définition des systèmes d'IA à haut risque

Les systèmes d'IA à haut risque sont ceux qui, en raison de leur impact potentiel sur les droits fondamentaux, la santé et la sécurité des individus, sont soumis à des exigences réglementaires strictes. Toutefois, l’IA Act stipule qu’un système d’IA visé à l’annexe III n'est pas considéré comme étant à haut risque lorsqu'il ne présente pas de risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, notamment lorsqu'il n'a pas d'incidence significative sur le résultat de la prise de décision.

Les exceptions mentionnées dans l'IA Act comprennent plusieurs conditions spécifiques qui permettent de déroger à cette qualification.

Systèmes d’IA destinés à accomplir une tâche procédurale étroite

Les systèmes d’IA qui effectuent des tâches procédurales étroites peuvent être exemptés de la classification à haut risque. Ces systèmes sont généralement conçus pour exécuter des fonctions très ciblées et limitées, sans prendre de décisions significatives qui pourraient affecter les individus.

Par exemple, dans le domaine des ressources humaines, les systèmes de traitement administratif utilisant l’IA pour automatiser le tri des candidatures, en vérifiant que les documents répondent aux critères d'éligibilité, peuvent être considérés comme réalisant des tâches procédurales étroites. Comme ils ne prennent aucune décision d'embauche sans évaluation humaine, ils ne présentent pas de risque significatif.

Systèmes d’IA destinés à améliorer le résultat d’une activité humaine préalablement réalisée

Les systèmes d’IA qui ont pour but d’améliorer des résultats d’activités déjà menées par des humains sont également exemptés de la classification à haut risque. Cela signifie que ces systèmes ne remplacent pas l’évaluation humaine, mais fournissent des outils d’assistance.

Par exemple, dans le domaine RH, un outil d’analyse de performance dans le domaine des ressources humaines, qui offre des recommandations fondées sur des évaluations humaines antérieures tout en laissant le pouvoir décisionnel à un superviseur, serait exempté. De cette manière, l'IA agit comme un soutien à la décision plutôt que comme un substitut, ce qui contribue à réduire les risques associés.

Systèmes d’IA destinés à détecter des constantes dans la prise de décision

Un autre critère stipule que les systèmes d’IA qui détectent des constantes ou des écarts par rapport à des normes établies ne sont pas considérés comme à haut risque tant qu'ils ne se substituent pas à l’évaluation humaine sans un examen approprié.

Dans le domaine RH, des systèmes d’IA qui analysent les feedback des employés sur leur environnement de travail pour repérer des tendances comme l'absentéisme ou le turnover, peuvent être considérés comme tels. Ces systèmes contribuent à éclairer les décisions, sans toutefois les influencer directement.

Systèmes d’IA destinés à exécuter une tâche préparatoire

Les systèmes d’IA qui se concentrent sur des tâches préparatoires pour des évaluations pertinentes dans le cadre des cas d'utilisation visés à l'annexe III sont également exemptés de la qualification à haut risque. Cela signifie qu'ils peuvent être utilisés pour collecter et traiter des informations sans prendre de décisions basées sur ces données.

Par exemple, un outil utilisé dans les ressources humaines qui compile des données et prépare des rapports pour aider les recruteurs à mieux comprendre les tendances de recrutement, sans prendre de décisions finales, peut être exempté de la classification à haut risque.

Systèmes d’IA ne pratiquant pas de profilage

Il est également important de noter que tout système d’IA qui effectue du profilage de personnes physiques est toujours considéré comme à haut risque, indépendamment des autres conditions. Le profilage, qui consiste à traiter des données personnelles pour évaluer certains aspects d'une personne, pose des préoccupations éthiques et de droits fondamentaux.

Par exemple, un système d’IA dans les ressources humaines qui utilise des données personnelles pour prédire le succès d’un candidat en se basant sur des critères historiques de performance pourrait être considéré comme à haut risque en raison du profilage qu'il implique.

Les exceptions à la classification des systèmes d’IA à haut risque, telles que définies par l’IA Act, sont essentielles en gestion des ressources humaines. Elles encadrent l'utilisation de l'IA tout en favorisant l'innovation, mais il est crucial de respecter les droits fondamentaux et la dignité humaine, en gardant l'intervention humaine au centre des préoccupations.

A ne pas négliger, les entreprises doivent documenter leurs évaluations lorsque l'IA n'est pas jugée à haut risque, en effectuant un suivi rigoureux, des audits réguliers, et en maintenant la transparence avec les employés pour garantir une utilisation éthique et conforme. Bien que complexe, le cadre réglementaire de l’IA Act offre l'opportunité de créer un environnement de travail innovant et respectueux des droits individuels.