L'IA au travail : les pratiques interdites par l'UE pour protéger les droits des employés
L'UE interdit des pratiques d'IA au travail pour préserver les droits des employés : techniques subliminales,exploitation des vulnérabilités, analyse des émotions et systèmes de classification sociale
Les systèmes d'intelligence artificielle (IA) prennent une place prépondérante dans le milieu de l'emploi, avec des applications variées allant du recrutement à la gestion des performances des employés. Cependant, l'UE, à travers son règlement européen sur l'intelligence artificielle (IA) du 13 juin 2024, impose des limites strictes sur certaines utilisations jugées dangereuses ou contraires aux droits fondamentaux des travailleurs. L’Article 5, qui devient applicable le 2 février 2025, définit une série de pratiques interdites, visant à préserver la dignité humaine, la protection des données personnelles et à prévenir les discriminations.
Des techniques subliminales pour une manipulation invisible des employés
Un exemple frappant de système prohibé concerne l'utilisation de techniques subliminales. Ces systèmes, qui manipulent le comportement des employés à leur insu, pourraient par exemple influencer leurs décisions par des messages invisibles intégrés dans des environnements virtuels ou via des interfaces homme-machine. L'objectif, souvent caché, est de fausser les décisions des travailleurs en leur imposant des choix qu'ils n'auraient pas pris en toute conscience. Cela peut entraîner des répercussions graves, qu'elles soient d'ordre psychologique (pression induite) ou financier (acceptation de conditions défavorables).
Protection contre l'exploitation des fragilités sociales des employés
L'exploitation des vulnérabilités des travailleurs constitue une autre interdiction majeure. Par exemple, cibler des employés en situation de précarité économique ou appartenant à des minorités ethniques avec des systèmes d’IA qui influencent leurs choix professionnels, pourrait altérer leur capacité à négocier des conditions de travail justes, ou même les amener à accepter des emplois mal rémunérés ou peu sécurisés. L'objectif de ces pratiques, bien que parfois non intentionnel, est souvent de tirer parti de la faiblesse sociale ou économique des individus.
Interdiction des systèmes d'évaluation émotionnelle
Un autre domaine sensible est celui des systèmes d'évaluation émotionnelle en entreprise. Ces technologies, qui visent à analyser les émotions des employés à partir de leurs expressions faciales ou de leurs données biométriques, sont expressément interdites. Un exemple d'utilisation interdite serait une entreprise qui tente d’évaluer le niveau d’engagement ou de stress des employés lors d'une réunion, en analysant leurs expressions faciales en temps réel via des caméras. De telles pratiques, bien que présentées comme des outils d'amélioration de la performance, posent des risques sérieux en matière de discrimination et d'intrusion dans la vie privée.
Interdiction des systèmes de scoring comportemental en entreprise
Enfin, les systèmes de classification sociale qui attribuent des scores aux employés en fonction de leur comportement ou de leurs interactions sociales, sont également interdits. Ces systèmes pourraient, par exemple, suivre les interactions d'un employé avec ses collègues sur une longue période, pour en déduire un score de "coopération" ou de "productivité". Ces scores pourraient ensuite être utilisés pour accorder ou refuser des promotions, ce qui engendre des risques de traitement discriminatoire ou injustifié, déconnecté du contexte initial dans lequel ces données ont été recueillies.
Ces interdictions illustrent la volonté de l'UE de placer des garde-fous autour de l’utilisation des technologies d'IA en milieu de travail, afin de garantir que les droits des travailleurs ne soient pas sacrifiés au profit de l'efficacité ou du contrôle des performances. Les employeurs devront ainsi ajuster leurs pratiques et se conformer aux exigences réglementaires sous peine de sanctions importantes.