IA générative dans les RH : comment maîtriser les risques ?

L'intelligence artificielle générative a fait une entrée fracassante dans les ressources humaines depuis l'arrivée de ChatGPT fin novembre 2022.

En promettant des gains de productivité importants, elle séduit de nombreuses entreprises. Mais cette technologie présente aussi des zones d’ombre. Trois risques majeurs font de cet outil une arme à double tranchant. 

Un usage vertueux des IA génératives reste-t-il possible en RH ? Oui mais... Voici ce qu’il faut savoir sur ce sujet ! 

L’IA générative en RH : pour quoi faire ? 

Le terme « d’IA générative » décrit les systèmes d’intelligence artificielle capables de générer du contenu original, comme du texte, des images ou un signal audio. Récemment, l’essor des modèles d'apprentissage automatique, en particulier les Large Language Models (LLMs) comme GPT et Mistral, ou les modèles de diffusion comme Midjourney, a bouleversé notre représentation de l’intelligence en générant des réponses textuelles semblant rivaliser avec celles d’un expert humain. 

4 usages principaux des IA génératives sont possibles dans le domaine RH : formuler des suggestions, faciliter la création de contenus, faire le lien entre des données isolées ou rédiger des résumés.  

Pour autant, la prudence reste de mise avec les nouvelles technologies. Les IA restent sujettes à des erreurs, des biais et des suggestions inappropriées.  

Risque 1 : fiabilité des résultats ou le défi des hallucinations   

Les réponses produites par un LLM sont avant tout des prédictions : le modèle génère en boucle le prochain bloc de texte le plus probable après les instructions de l’utilisateur (la prompt), en se basant sur les données sur lesquelles il a été entrainé, c’est-à-dire toute une partie d’internet. Cette nature probabiliste implique qu’il n’y a pas, à date, de réelle « compréhension » par l'IA des informations produites. On est encore loin d’une intelligence « générale », c’est-à-dire capable d’apprendre et d’effectuer n’importe quelle tâche cognitive propre aux humains. 

Sans compréhension réelle des sujets abordés, les modèles actuels ne savent donc pas déterminer lorsque l’instruction qu’ils reçoivent ne trouve pas de réponse dans leurs données d’entrainement. En clair, ils sont incapables de dire « je ne sais pas ». À la place, ils génèrent un texte grammaticalement correct, présentant le même niveau de confiance exprimée que d’habitude, mais contenant des informations inexactes, voire complètement fausses. Ce phénomène porte le nom « d’hallucinations ». 

Selon les domaines abordés et la complexité des instructions, les LLMs peuvent atteindre des taux d’hallucination très importants. Sur des questions spécifiques au droit américain, GPT-4 a par exemple enregistré un taux d’hallucinations pouvant dépasser 40 %[1]! Les meilleurs modèles spécialisés du marché hallucinent eux jusqu’à 33%[2].  

Dans le contexte RH, de telles erreurs peuvent entraîner un flux de suggestions non pertinentes, contre-productives, voire risquées selon les cas d’usage. En tant que RH, des données fiables sont essentielles pour prendre des décisions éclairées. Suivre des recommandations erronées pourrait nuire à la qualité de son travail, jusqu’à potentiellement mettre en difficulté l’entreprise : un grand nombre de données RH s’accompagne d’une valeur juridique (contrat de travail, etc.) ; une qualité dégradée ou une modification inexacte exposent au risque de non-conformité (et aux sanctions associées). 

L’intégration d’une supervision humaine rigoureuse est donc indispensable pour éviter les dérives. Les IA génératives doivent être considérées comme des outils d’aide, et non comme des décideurs. Pas d’automatisation à l’horizon, donc, mais des recommandations associées à un contrôle humain constant permettant de garantir des résultats fiables et pertinents, en maintenant l’IA à son rôle d’assistant à votre service. 

Risque 2 : compromettre la confidentialité des données  

L’entrainement des modèles d’IA ne s’arrête pas à leur mise sur le marché. Les modèles sont régulièrement mis à jour pour être au fait des derniers évènements, sans quoi ils ne pourraient pas répondre à des questions portant sur l’actualité récente. Les conversations sont également réutilisées pour améliorer la pertinence de leurs résultats. Il existe donc un risque de fuite de données quand ces dernières sont directement fournies aux modèles, en particulier aux versions gratuites ne disposant pas des options de non-rétention des données, souvent payantes. Il faut donc être très attentifs aux licences des modèles utilisés, ainsi qu’à la qualité des engagements de compliance des fournisseurs de modèles. 

68 % des Français qui utilisent les IA génératives en entreprise le font à l'insu de leur supérieur hiérarchique (étude IFOP – TALAN, 2023). Parmi eux, combien travaillent dans un Service RH ? La moindre faille de confidentialité peut conduire à une violation du RGPD et de l’AI Act, exposer l’organisation à des amendes et nuire à sa réputation d’employeur (fuite de données confidentielles du type rémunération, etc.).    Les RH doivent considérer la sécurité des données des collaborateurs en tant que priorité absolue. 

Risque 3 : l’évolution des coûts, la grande inconnue 

Le modèle économique des IA génératives reste incertain, notamment en ce qui concerne les coûts. Les modèles d’IA ont pour l’instant deux types de tarification.  

Pour un usage conversationnel classique (comme ChatGPT), on paye un abonnement fixe chaque mois qui donne accès à une quantité importante d’instructions par modèle pour le mois. 

Pour un usage intégré aux solutions professionnelles, la tarification est similaire aux forfaits mobiles du début des années 2000. Le prix dépend de deux facteurs : la quantité de données qu’on envoie au modèle, et la quantité de données qu’il génère. Concrètement, plus une demande est complexe, récurrente ou traite un volume important de données, plus elle coûtera cher. Cela complexifie les prévisions budgétaires, en particulier pour les départements RH qui doivent souvent composer avec des budgets serrés. 

Une entreprise cherche à optimiser ses processus RH tout en maintenant un budget équilibré. Mais que se passe-t-il si les coûts des outils explosent soudainement ? Le cabinet Gartner indique en 2024 que les dépenses pourraient atteindre cinq à dix fois les estimations initiales[3].    La plupart des acteurs travaillent pour l’instant à perte, et des hausses de prix sont à prévoir [4], d’autant qu’ils parient tous sur le fait qu’augmenter la quantité et la qualité des données d’entrainement d’un modèle (et donc son coût) améliorera la qualité du texte généré. Du premier LLM ayant coûté 900$ à Gemini Ultra dont l’entrainement atteindrait les 200 millions de $, la tendance est claire. A noter, l’utilisation de l'open-source permet d'éviter de payer les coûts d'entraînement, donc ces prévisions restent à considérer avec réserve. 

Choisir un éditeur de SIRH qui propose des solutions IA intégrées et transparentes sur les coûts est un gage de sécurité financière pour éviter les mauvaises surprises. Ce risque est sous contrôle avec un partenaire de confiance. Chez Skillup , nous avons choisi d’embarquer l’IA dans notre solution de gestion des talents sans surcoût et de manière native.   

Les garde-fous et bonnes pratiques pour un usage éthique et efficace  

Pour les RH, l’IA générative représente des opportunités formidables, mais sous réserve d’être encadrée par des garde-fous rigoureux. L’anonymisation des données personnelles, la supervision humaine, et la gestion maîtrisée des coûts sont des prérequis essentiels à une utilisation responsable. 

L’intérêt des modèles d’IA générative reste globalement limité si l'utilisateur ne leur apporte pas des données restreintes et adaptées à l'instruction communiquée. Un trop-plein, ou une instruction trop longue, contribueront à une dégradation drastique de la qualité de la réponse apportée [5]

Alors comment déterminer la quantité d’informations à fournir à un modèle et les composantes d’un bon prompt ? Les approches permettant d'aiguiller au mieux un LLM portent le nom de prompt engineering (techniques d’écriture et de découpages d’instructions), de fine tuning (fournir au modèle des exemples valides et invalides), de RAG (Retrieval Augmented Generation, c’est-à-dire fournir au modèle les données les plus précises possibles) et d’agents IA (des LLMs auxquels on associe une capacité de planification, de mémorisation et d’exécution de programmes). Elles sont complexes à mettre en place sans équipe technique et exigent une expertise métier selon le sujet... dont, sans surprise, les ressources humaines. 

Dans les faits, charger des comptes-rendus d’entretien ou l’export Excel d’une campagne ne sera pas suffisant pour créer de la valeur avec une IA. Il sera nécessaire d’initier une réflexion sur le format et la quantité de données à fournir, ainsi que sur les consignes pour le travail à mener. 

Prenons un exemple : la rédaction de fiches de poste adaptées au contexte de l’entreprise. Il s’agit souvent d’un travail fastidieux couvrant des recherches, de la collecte d’informations, un travail d’écriture, etc. Certains RH nous ont partagé y consacrer plusieurs heures par fiche pour un résultat pas toujours satisfaisant. 

Il est possible de s'appuyer sur ChatGPT pour obtenir bien plus rapidement un résultat satisfaisant, mais cela nécessitera des actions répétitives pour intégrer les résultats manuellement dans vos référentiels. Une solution plus efficace est d'utiliser un outil intégrant l'IA, qui suggère les compétences disponibles dans votre référentiel, crée les compétences manquantes, définit les niveaux attendus et génère un contenu adapté à votre entreprise. 

Voilà le secret d’une utilisation réussie de l’IA : allier compétences techniques, expertise métier et pratiques de sécurité, pour garantir une utilisation optimale des données sans compromettre leur confidentialité. En résumé, le combo gagnant, c’est un RH équipé d'un SaaS RH qui gardera un œil vigilant sur les avancées des modèles d'IA aux capacités en évolution rapide, et dont les implications en termes de coût sont encore incertaines. Avec l’application progressive de l’AI Act, ces garde-fous ne sont pas des options pour un usage responsable et éthique. 

Sources : 

[1] https://www.arago.app/lia-et-droit-une-etude-detaille-lampleur-des-hallucinations/ 

[2] https://dho.stanford.edu/wp-content/uploads/Legal_RAG_Hallucinations.pdf?ref=arago.app 

[3] https://siecledigital.fr/2024/09/11/gartner-alerte-sur-les-couts-caches-de-lia-generative-et-son-impact-sur-la-productivite/ 

[4] https://cafetech.fr/2024/09/30/openai-anticipe-5-milliards-de-dollars-de-pertes/ 

[5] https://intelligence-artificielle.developpez.com/actu/363774/L-etude-d-Apple-prouve-que-les-modeles-d-IA-bases-sur-le-LLM-sont-defectueux-car-ils-ne-peuvent-pas-raisonner-Nous-n-avons-trouve-aucune-preuve-de-raisonnement-formel-dans-les-modeles-de-langage/