Systèmes d'IA à risque limité dans le milieu du travail : quels enjeux ?

La régulation de l'IA encadre les systèmes à risque limité, influents mais sans risques majeurs, avec des obligations pour leurs fournisseurs et utilisateurs.

Avec l’évolution rapide des technologies d’intelligence artificielle (IA), la réglementation de ces systèmes est devenue un enjeu majeur, notamment dans le contexte professionnel. En parallèle des systèmes à haut risque nécessitant une réglementation stricte et hautement détaillée, il existe également une catégorie de systèmes à risque limité. Ces systèmes, bien que potentiellement influents, ne présentent pas de risques significatifs pour la santé, la sécurité ou les droits fondamentaux des individus. Pour autant, ces systèmes ne sont pas neutres dans le milieu du travail et la réglementation impose certaines obligations aux fournisseurs et déployeurs.

Définition des systèmes à risque limité

Les systèmes d'IA à risque limité sont ceux qui, par leur nature ou leur usage, ne présentent pas de risque élevé de préjudice pour les travailleurs. Selon l’IA Act, ces systèmes peuvent inclure des outils d’aide à la décision, des systèmes d’analyse de données ou des logiciels de gestion qui soutiennent les processus humains sans en remplacer l’évaluation critique.

Un critère clé pour déterminer qu'un système est à risque limité est qu'il intervient uniquement après la décision humaine, sans influencer le résultat de cette décision. Cela signifie que ces systèmes fournissent des recommandations, des analyses ou des informations supplémentaires pour éclairer la prise de décision, mais ne prennent pas de décisions autonomes qui pourraient affecter directement les individus.

Les outils d'évaluation de la satisfaction des employés incluent, par exemple, un système d’IA capable d'analyser les réponses des employés à des enquêtes de satisfaction, sans pour autant prendre de décisions basées sur ces résultats. Un autre exemple serait un système qui retranscrit une analyse de performance de façon sophistiquée.

Obligations des fournisseurs et déployeurs

Bien que les systèmes à risque limité ne soient pas soumis aux mêmes exigences que les systèmes à haut risque, des obligations demeurent pour garantir une utilisation éthique et conforme.

Les obligations des fournisseurs concernent la documentation technique : fournir une documentation complète sur le fonctionnement du système d’IA, y compris ses capacités et ses limites. Ils doivent aussi faire preuve de transparence, c’est-à-dire d’informer les utilisateurs sur l'utilisation du système et fournir des instructions claires sur son fonctionnement. Les fournisseurs doivent également réaliser une évaluation d’impact sur les droits des individus si le système est utilisé pour traiter des données personnelles. Enfin, les fournisseurs doivent assurer une surveillance post-commercialisation en mettant en place des mécanismes pour suivre les performances du système après sa mise sur le marché et signaler les incidents éventuels.

Obligations des déployeurs :

Les déployeurs doivent s'assurer que le système d'IA est utilisé conformément aux instructions fournies par le fournisseur. Ils doivent former le personnel sur les implications de l'utilisation du système et les limites de l'IA. La surveillance des performances fait également partie des obligations des déployeurs car ils doivent évaluer régulièrement l’efficacité et la conformité du système d'IA déployé. Enfin, ils doivent consulter des représentants du personnel, c’est-à-dire Impliquer les comités sociaux d'entreprise (CSE) dans le processus de mise en œuvre afin de garantir que les droits des employés soient respectés et que les implications sociales soient prises en compte.

Rôle du Comité Social et Économique (CSE)

Le CSE joue un rôle clé dans la réglementation de l'utilisation des systèmes d'IA dans le milieu du travail. Son implication est essentielle pour assurer la transparence (les employés soient informés des systèmes d'IA utilisés et de leur impact potentiel sur leur travail. Elle est également essentielle pour promouvoir le dialogue social en facilitant les échanges entre la direction et les employés sur l'utilisation de l'IA, en abordant les préoccupations et en suggérant des améliorations. Enfin l’implication de la CSE est importante pour surveiller les impacts en évaluant l'impact des systèmes d'IA sur les conditions de travail et proposer des mesures correctives si nécessaire.

Conformité au RGPD

Bien qu’à risque limité, les systèmes d'IA à risque limité doivent également se conformer aux exigences du Règlement Général sur la Protection des Données (RGPD). Cela implique tout d’abord la protection des données personnelles en s’assurant que les données collectées et traitées par le système d'IA respectent les droits des individus, notamment en matière de consentement, d'accès et de rectification. En outre, cela implique aussi la minimisation des données en limitant la collecte de données aux seules informations nécessaires au fonctionnement du système. Enfin, cela implique la transparence pour informer les employés sur la manière dont leurs données sont utilisées et traiter leurs préoccupations concernant la confidentialité.

Conclusion

Les systèmes d'IA à risque limité offrent des opportunités significatives pour améliorer l'efficacité et la productivité dans le milieu du travail. Cependant, leur utilisation doit être accompagnée de mesures réglementaires appropriées pour garantir le respect des droits des travailleurs et des normes éthiques. Les obligations des fournisseurs et déployeurs, la consultation des CSE, et la conformité au RGPD sont des éléments essentiels pour assurer une intégration harmonieuse de ces technologies dans le monde professionnel. En respectant ces cadres, les entreprises peuvent tirer parti des avantages de l'IA tout en préservant la dignité et les droits de leurs employés.