GenAI en entreprise : favoriser une adoption collective pour éviter les risques du Shadow AI

L'adoption de l'IA générative en entreprise et les risques associés au "Shadow AI". Mathieu souligne l'intérêt suscité par l'IA générative et ses bénéfices potentiels en termes de processus métiers.

Lorsque l'IA générative a été dévoilée au grand public, elle a d’emblée suscité la curiosité de tous et entraîné une large expérimentation. Cette tendance s'est alors rapidement propagée au monde de l'entreprise, les employés commençant à tester leurs capacités à générer de nouvelles idées et à booster leur productivité sur un ensemble de tâches quotidiennes comme la rédaction de contenus ou la recherche d’information. Les capacités bluffantes de ces outils et la simplicité de l’usage, en simple langage naturel, se sont alors répandues comme de la poudre au sein des entreprises qui ont vite identifié les potentiels bénéfices en matière de productivité, d’accès à la connaissance ou encore pour réinventer leurs processus métiers. Néanmoins, ces gains ne peuvent être réalisés qu'en adoptant une stratégie d’IA coordonnée, au risque de ne pas profiter pleinement de cette révolution technologique. 

Une adoption transparente et coordonnée pour réduire les risques du Shadow AI

Dans une récente étude menée par Salesforce, 58% des employés français déclarent avoir déjà utilisé des outils d’IA n’ayant pas été formellement approuvés par leur employeur. Pire, la moitié (49%) d’entre eux ont eu recours à des outils que leur entreprise a explicitement interdits. Cette adoption non coordonnée d'une technologie, qui pourrait accéder à des données d'entreprise potentiellement sensibles, risque de créer un phénomène que nous appelons le "Shadow AI". Le Shadow AI fait ici référence à l'utilisation non autorisée ou non encadrée d'outils d'IA générative par les employés, sans supervision des services informatiques et juridiques. Sans stratégie globale et formation des employés, une telle situation pourrait exposer l'entreprise à des risques substantiels. 

L'un des principaux risques du Shadow AI est l'absence de partage de bonnes pratiques et les usages inappropriés. Cette approche fragmentée et individualisée de l'adoption de l'IA générative contribue à créer une entreprise à deux vitesses. D'un côté, des employés qui exploitent ces dernières innovations sans partager leurs connaissances avec leurs collègues ; de l'autre, des non-utilisateurs réticents qui prennent du retard sur leurs homologues "augmentés". Sans stratégie globale pour former les employés, ceux qui expérimentent de manière individuelle pourraient se sentir frustrés s'ils se sentent incapables d'extraire des informations utiles pour les accompagner dans l’atteinte de leurs objectifs. Cette frustration pourrait alors amener certains d’entre eux à abandonner complètement les outils d'IA, au détriment de l'innovation et de leur formation personnelle. 

Cependant, des risques plus graves surviennent lorsque les employés utilisent ces puissants outils sans supervision ni discernement. Les outils d'IA sont encore susceptibles de produire des résultats erronés ou inexacts, voire des "hallucinations". Se fier à des résultats erronés, sans faire preuve de jugement humain, peut conduire à une prise de décision incorrecte et exposer l’entreprise à des risques juridiques ou financiers. La sécurité des données est une autre préoccupation majeure. Une récente étude de Veritas a révélé que 31% des répondants ont admis avoir partagé des informations potentiellement sensibles avec des outils de GenAI. Les abonnements à des comptes professionnels d’IA comprennent généralement des accords pour garantir que les données de l'entreprise ne soient pas utilisées pour entraîner les modèles d'IA. A l’inverse, les comptes personnels, souvent utilisés dans le cas du Shadow AI, ne disposent généralement pas de ces garanties. Cela signifie que toute donnée d'entreprise partagée via un compte personnel pourrait être utilisée par inadvertance pour entraîner le modèle d'IA, voire exposer l’entreprise à des sanctions relatives au règlement général de protection des données européen (RGPD). 

La stratégie d’IA doit inclure des garde-fous mais encourager l'expérimentation

Pour relever ces défis, les entreprises doivent adopter une stratégie d’IA coordonnée et transparente appliquée à l’ensemble des services. Tout d’abord, il est essentiel que les équipes informatiques identifient des fournisseurs de confiance et conviennent de conditions claires concernant le traitement des données sensibles. Par ailleurs, s'associer à des éditeurs de solutions d’IA qui ont des principes d'IA robustes, incluant des règles de sécurité des données et de prévention des cyber-risques, atténuerait les risques juridiques et financiers potentiels. Mais les structures disposant de ressources financières et humaines suffisantes peuvent opter pour le développement d’une solution d'IA sur mesure en exploitant les grands modèles de langages existants. De cette manière, elles pourraient créer une IA puissante parfaitement intégrée à leur propre écosystème de données et aux processus de l'entreprise, améliorant ainsi véritablement la productivité de l’ensemble des métiers et libérant du temps pour les tâches plus stratégiques.

Enfin, pour tirer le meilleur parti de leurs investissements dans l'IA, les entreprises n'ont nul choix que de développer un programme complet de formation des employés aux meilleures pratiques d'intégration de l'IA dans leur travail quotidien. Cela garantit que tous les employés puissent bénéficier des avantages offerts par ces technologies et que celles-ci contribuent véritablement à rendre l’entreprise plus compétitive. 

De plus, chaque équipe compte généralement au sein de l’effectif un utilisateur de la première heure, dont la curiosité et la passion pour les nouvelles technologies le placent en avance sur ceux qui expérimentent plus timidement. Ces employés, de concert avec leurs équipes informatiques, peuvent endosser le rôle de véritables ambassadeurs de l'IA au sein de l'entreprise pour partager leurs découvertes et les meilleures pratiques avec leurs collègues afin de favoriser un environnement d'apprentissage plus collaboratif.

Une fois les bases d'une stratégie d’IA complète posées, les entreprises pourront se tourner vers l'avenir : comment passer de l'adoption à l'innovation en exploitant l'IA pour repenser les processus, la collaboration et les flux de travail au sein de l’entreprise. C’est dans ce cadre et limites établies par l’entreprise que les employés vont pouvoir véritablement expérimenter l'automatisation des tâches routinières et ainsi consacrer plus de temps au travail qui apporte le plus de valeur à l'entreprise. Pendant ce temps-là, l'industrie dans son ensemble devra poursuivre ses réflexions concernant les implications éthiques et sociales à long terme de l'IA sur les effectifs. Alors que les entreprises devront elles aussi commencer à réfléchir à la manière de s'assurer que l'IA vienne augmenter équitablement les capacités humaines et ouvrir ainsi un important débat sur l'avenir du travail.