IA, RH et éthique : comment y voir clair pour ne pas se bruler les ailes ?

ChatGPT, AI Act... Les choses s'accélèrent en matière d'IA et d'éthique. Mais quels sont les réels risques de dérives ? Et qu'en est-il pour les datas RH hautement sensibles ?

Impossible de parler d’IA ces derniers mois sans évoquer le succès planétaire de ChatGPT : chacun a, pour ainsi dire, découvert ou redécouvert la force et le potentiel de l’IA à travers cet outil. Le grand public a pu comprendre à quel point nous avancions vite en matière d’intelligence et de machine learning. S’il est vrai que ce succès a été fulgurant, il a aussi été révélateur de beaucoup d’inquiétudes en matière d’éthique et de respect des droits de chacun.

Le secteur des RH ne passe pas à côté de cette évolution technologique ultra-rapide et de nombreuses HR Tech, telle que la nôtre, se sont engouffrées dans cette mouvance : se servir de la data pour mieux manager voire optimiser nos prises de décisions ! Cette accélération, déjà bien intégrée sur le marché nord-américain, donne lieu ici à beaucoup d’interrogations auxquelles l’UE tentera de répondre, via son prochain AI Act.

Alors, posons-nous les bonnes questions : l’IA est-elle factuellement neutre, comme on l’a longtemps expliqué ? Et peut-elle être réellement encadrée et disciplinée ?

Si la machine n’a pas d’émotion, elle reste paramétrée par l’humain

Longtemps, on a cru que l’IA était une nouvelle forme d’intelligence neutre car dépourvue de tout type d’émotions. Et il est vrai qu’un algorithme ne pourra être influencé par une émotion ou un trait de personnalité ! Malgré tout, on oublie trop souvent qu’une IA est construite via des données (qui peuvent être plus ou moins objectives, faussées, malmenées), via l’algorithme en lui-même et les ingénieurs et data scientists qui travaillent dessus. 

Plus on avance sur le développement de l’IA, plus les chercheurs se rendent compte que de nombreux biais peuvent surgir lors des différentes étapes du cycle de production de l’IA. Les biais les plus connus sont ceux liés aux données elles-mêmes, fruits de rapports de force et parfois d’inégalités sociales. Les données ne sont pas neutres ! Qu’il s’agisse du moment de la collecte de ces datas ou de celui de leur exploitation, certaines données peuvent être orientées, manipulées, voire subjectives. Et attention, tout ne se décide pas au moment de la construction de l’algorithme, des biais peuvent très bien apparaitre au moment de son usage, par les utilisateurs eux-mêmes : les personnes peuvent parfois ne pas interpréter et exploiter la décision algorithmique de la bonne manière. Prenons le recrutement, par exemple. Des études ont démontré que même de puissants et performants algorithmes (visant à détecter les meilleurs profils), pouvaient reproduire les préjugés des recruteurs ! Que faut-il en conclure ? Si les machines ne peuvent discriminer de manière intentionnelle et délibérée, des effets discriminatoires peuvent être détectés si l’apprentissage ou l’usage du système s’appuient sur des décisions humaines biaisées.

Reprenons notre exemple du recrutement : si l’on ne peut parler de discriminations directes, on peut évoquer une discrimination indirecte lorsque l’IA est mal utilisée et conduit à désavantager certaines personnes. Le problème est là : l’IA a conduit à créer une nouvelle forme de discrimination en dehors du droit, du moins pour le moment.  Des exemples récents ont mis à jour ces lacunes juridiques. L’algorithme de crédit de Goldman Sachs a, par exemple, essuyé de nombreuses critiques, en raison de sa tendance à privilégier les hommes aux femmes quant à l’attribution de crédits bancaires, il aurait été plus généreux avec messieurs.

Vers une IA plus éthique…

Devant toutes ces nouvelles problématiques, l’éthique de l’IA a réuni plusieurs communautés académiques sur ces enjeux. En matière de non-discrimination par exemple, la sous-discipline du FairML s’intéresse aux instruments techniques (métriques et algorithmes) pour lutter contre les biais évoqués précédemment, des outils du moins plus concrets et tangibles que les comités ou chartes souvent mis en avant. Depuis plusieurs années, bien avant ChatGPT, il y a des tentatives d’encadrement de la conception, du déploiement et de la gouvernance de l’IA.

Le projet AI Act, qui est au cœur des discussions en ce moment, prévoit d’imposer des obligations aux fournisseurs et aux utilisateurs de ces systèmes afin de garantir le respect de la législation en matière de protection des droits fondamentaux tout au long du cycle de vie des systèmes d’IA. Mais il faudra aussi avancer sur le cadre purement juridique, aujourd’hui, seule le droit anti-discrimination « classique » et la réglementation relative à la protection des données posent un cadre et empêchent les dérives, mais, comme on l’a vu plus haut, ces éléments ne suffisent plus !

Rappelons ici que de nombreuses entreprises n’ont pas attendu ces débats, et se sont déjà engagées en prenant les devants pour rendre leurs algorithmes plus éthiques. Certaines ont très tôt pris conscience de l’existence des fameux biais algorithmiques et sont plus attentives aux phases pendant lesquelles les données sont collectées et nettoyées. Elles sont aussi très regardantes sur les modélisations, les choix opérés par les constructeurs de l’algorithme. Enfin, lors de la phase d’exploitation, d’utilisation de l’IA, il est essentiel d’identifier les potentiels biais résiduels car certaines peuvent être corrigés en ayant recours à des métriques de biaisement. Certaines peuvent même aller jusqu’à parfois revoir entièrement leur copie en décidant de construire un autre algorithme plus inclusif, moins risqué.

Alors si l’on devait donner quelques conseils avant de se lancer dans la construction d’une IA dédiée à la gestion RH…

Je dirais, avant toute chose, qu’il faut :

  • Eviter l’utilisation de données interdites ou dites « trop sensibles » au sein des algorithmes.
  • Respecter judicieusement le règlement RGPD établi et suivi par la CNIL.
  • « Débiaiser » le plus possible les logiques algorithmiques tout en ayant conscience du risque qui pré-existe sur les données elles-mêmes.
  • Superviser les traitements algorithmiques chaque mois afin de permettre à tout utilisateur de comprendre ce traitement et prendre les bonnes décisions.
  • Dans la mesure du possible, intégrer à votre outil une vue de supervision de l’éthique relatif aux traitements de vos algorithmes.

Et pour conclure, j’ajouterais l’importance de conserver la prise de décision par l’être humain, qui peut sembler logique, mais l’évolution technologique est si rapide, qu’il semble malgré tout essentiel, de le rappeler ici. L’IA doit être mobilisée à bon escient, de manière réfléchie, comme un outil de conseil et de support à ses actions uniquement. Nous n’en sommes qu’aux prémices finalement de ce que l’IA peut nous apporter (soyons-en certains), une ère de transformation complète des modes de travail et de collaboration s’est amorcée. Elle sera bénéfique sous condition d’une utilisation sensée et éclairée.