Intelligence artificielle et relations de travail : opportunités et nouveaux défis juridiques pour l'entreprise
L'usage croissant de l'IA transforme l'entreprise et les relations professionnelles. Pour les employeurs, cette mutation impose de garantir les droits des salariés et la performance collective.
L’IA s’impose dans de nombreux secteurs comme un levier de performance et d’automatisation de certaines tâches au service des employeurs. Son usage tend à redéfinir le quotidien des entreprises, de la gestion des ressources humaines à la production en passant par la relation client.
Certaines tâches répétitives sont désormais confiées à des algorithmes, modifiant la nature même de nombreux postes. Si la démocratisation de l’IA dans l’entreprise permet l’émergence de nouvelles compétences, voire de nouveaux métiers, elle laisse également apparaitre des sources d’inquiétudes, telles que la transformation des postes de travail, voire la réduction des effectifs. Dans ce contexte, les employeurs doivent accompagner les salariés dans l’évolution de leur emploi (article L.6321-1 du Code du travail), mais aussi veiller à prévenir les risques psychosociaux liés à la transformation numérique.
Un outil stratégique à encadrer dans l’intérêt des entreprises et du dialogue social
Utilisée à bon escient, l’IA constitue un avantage concurrentiel pour les entreprises décidée à en comprendre et maitriser les rouages. Elle permet une meilleure réactivité, une réduction des coûts, et une amélioration des processus de décision. Toutefois, sa mise en œuvre n’est pas sans risques : atteinte à la vie privée, biais discriminants, perte de contrôle sur les données traitées, fuites d’informations sensibles, etc. Ces différents risques peuvent affecter la réputation et engager la responsabilité de l’entreprise.
L’employeur reste responsable du bon usage des outils technologiques déployés dans l’entreprise. Il lui appartient de s’assurer de leur conformité au Règlement Général sur la Protection des Données (RGPD), notamment en matière de finalité des traitements, de minimisation des données et de transparence.
L’enjeu est éthique : les salariés peuvent percevoir l’IA comme une menace ou une source d’iniquité. La transparence sur les outils utilisés, leur finalité et leur fonctionnement est donc essentielle pour maintenir un climat de confiance et un dialogue social serein.
Recrutement, évaluation, surveillance : l’IA dans le viseur du droit du travail
Les employeurs recourent à l’IA pour optimiser le recrutement, évaluer les performances ou encore surveiller l’activité de leurs salariés. Bien que ces pratiques puissent se révéler efficaces, elles doivent se conformer aux principes fondamentaux du droit du travail.
En particulier, outre l’information consultation préalable du Comité Social et Economique (« CSE »), les salariés doivent être informés de tout dispositif de surveillance (article L.1222-4 du Code du travail).
Par ailleurs, la CNIL rappelle que tout traitement de données personnelles doit respecter le RGPD, notamment en matière de proportionnalité et de finalité. L’usage d’un algorithme dans le cadre d’une évaluation ou d’une sanction disciplinaire soulève des questions de transparence, de fiabilité et de contrôle. Les salariés doivent pouvoir comprendre les décisions de l’employeur prises à leur égard et les contester si nécessaire. De son côté, l’entreprise doit être en mesure de justifier par des raisons objectives et vérifiables la décision prise.
L’enjeu d’un nouveau cadre légal à l’échelle européenne
Face à la rapidité des évolutions technologiques, le cadre juridique peut sembler à la traine, voire déjà obsolète. Des initiatives émergent au niveau européen, avec le règlement sur IA (« AI Act »), qui prévoit des obligations spécifiques pour les systèmes à “haut risque”, notamment ceux utilisés dans le domaine de l’emploi. A titre d’exemple, lorsque l’IA est utilisée pour l’évaluation automatisée de la performance des salariés, le fournisseur du système est tenu de mettre en place un système de gestion des risques tout au long du cycle de vie du système. Ce système doit notamment permettre d’identifier les risques pour les droits fondamentaux, d’actualiser régulièrement l’analyse des risques et de documenter toutes les actions entreprises en ce sens, à des fins de traçabilité et de contrôle. Cette exigence vise à prévenir les discriminations, et à garantir le traitement équitable dans la relation de travail.
En France, les juridictions commencent à se prononcer sur des litiges impliquant des algorithmes décisionnels en entreprise, mais une réflexion plus large s’impose pour sécuriser l’usage de ces technologies dans le respect du code du travail. Récemment, le Tribunal Judiciaire de Nanterre a ordonné, pour la première fois à notre connaissance, la suspension d’un projet de déploiement d’outils d’IA considérant que l’entreprise n’avait pas conduit l’information consultation du CSE avant la mise en œuvre du projet (TJ Nanterre, 14 février 2025, n°24/01457).
La nécessité d’accompagner et de former des acteurs économiques de l’entreprise
L’adhésion des salariés aux outils d’IA suppose une information claire, une formation adéquate et une implication en amont des représentants du personnel. L’entreprise gagne à investir dans la formation des équipes, afin de garantir un usage sécurisé des systèmes d’IA.
Les employeurs ont un rôle central à jouer pour garantir une transition numérique inclusive, éthique et respectueuse des principes fondamentaux du droit du travail. L’IA doit être pensée comme un outil au service d’un modèle de travail collaboratif.
--
Cet article a été co-écrit avec Anne Ragu, avocate collaboratrice senior au sein du cabinet K&L Gates.