L'Impact des nouvelles lignes directrices de la Commission européenne sur les systèmes d'IA en milieu de travail
En février 2025, les entreprises doivent appliquer les nouvelles interdictions de l'IA précisées par la Commission européenne.
En ce mois de février 2025, les entreprises utilisant des technologies d’intelligence artificielle (IA) en milieu de travail doivent porter une attention particulière aux nouvelles lignes directrices de la Commission européenne sur les pratiques d’IA interdites, publiées le 4 février. Ces directives précisent notamment l’interprétation des interdictions imposées par le Règlement sur l’IA, entré en vigueur en août 2024, et qui commencent à s’appliquer ce mois-ci même.
Clarification clef : l’interdiction de la reconnaissance émotionnelle basée sur les données biométriques
Une question préoccupait de nombreuses entreprises ces derniers mois : les outils d’analyse du langage et du ressenti dans le cadre professionnel étaient-t-ils interdits ? La réponse, confirmée dans ces nouvelles directives, est que seules les IA inférant des émotions à partir de données biométriques (expressions faciales, voix, rythme cardiaque, etc.) sont interdites dans les environnements de travail et d’éducation (article 5(1)(f) de l’AI Act).
En revanche, les outils d’analyse de sentiment qui évaluent la tonalité des communications écrites, comme les feedbacks des employés ou les interactions du service client, ne sont pas concernés par cette interdiction. Cette distinction est essentielle pour les entreprises utilisant l’IA dans l’analyse des retours d’expérience des employés ou l’évaluation de l’engagement des équipes.
Les systèmes d’IA à haut risque en milieu de travail
Les nouvelles directives rappellent également que certains systèmes d’IA utilisés dans le recrutement, l’évaluation des performances et la gestion du personnel sont classés comme "à haut risque". Cela signifie que les employeurs doivent garantir une supervision humaine, car les décisions automatisées ne peuvent être prises sans intervention humaine appropriée. Ils doivent également mettre en place des mesures de transparence afin que les employés soient informés des décisions prises par l’IA et aient le droit d’en contester les conclusions. Enfin, ils doivent évaluer et gérer les risques liés aux biais et à la discrimination potentielle. Ces obligations s’appliquent particulièrement aux entreprises développant ou utilisant des IA pour l’embauche, la promotion ou la résiliation de contrats.
Pourquoi ces directives sont cruciales en février 2025
Nous sommes dans une phase clé de transition réglementaire. Au fur et à mesure des avancées réglementaires, des dispositions spécifiques entrent en application pleinement. Pour les entreprises qui développent ou utilisent des systèmes d’IA en gestion des ressources humaines, il est donc essentiel d’évaluer dès maintenant leur conformité avec les nouvelles exigences, et ce dans un cadre qui reste très mouvant, avec la publication (pratiquement quotidienne à ce stade) de nouvelles lignes directrices.
Les entreprises doivent identifier les outils IA utilisés et vérifier s’ils impliquent des données biométriques ou des traitements considérés comme "à haut risque". Elles doivent également adapter leurs pratiques pour s’assurer d’une supervision humaine et d’une transparence accrue. Enfin, elles doivent se préparer aux contrôles réglementaires, car les autorités de surveillance commenceront à appliquer les sanctions prévues pour non-conformité.
Les nouvelles directives de la Commission européenne viennent clarifier des aspects critiques de l’AI Act et offrent une feuille de route pour les entreprises utilisant l’IA en milieu de travail. Les employeurs doivent dès maintenant anticiper ces changements pour éviter tout risque juridique et renforcer la confiance de leurs employés dans l’utilisation des nouvelles technologies.
Le compte à rebours vers l’application du Règlement sur l’IA a commencé. L’heure est à l’action !