Comment surmonter les craintes des entreprises en matière d'adoption de l'IA, aussi réelles et légitimes soient-elles

Les discussions autour de l'IA ne portent pas seulement sur les opportunités offertes par la technologie, mais aussi sur la manière de l'utiliser correctement.

Sans surprise, le sujet le plus discuté du moment chez les DSI est l'intelligence artificielle. Mais les discussions ne portent pas seulement sur les opportunités offertes par la technologie et sur les domaines dans lesquels il faut investir en premier lieu ; elles portent aussi majoritairement sur la manière d'utiliser correctement l'IA.

Vues les promesses d’amélioration de l’efficacité et de la productivité, il faut évidemment s’intéresser de très près à cette technologie et l’expérimenter. Pourtant, de sérieuses questions subsistent quant aux biais de l’IA, la gouvernance et à la sécurité de tels projets. Les responsables informatiques se débattent donc entre la peur de laisser passer une opportunité (FOMO – fear of missing out) et la peur de se planter (FOMU – fear of messing up).

Une récente étude Juniper Networks/Wakefield Research s’est intéressée à la perception et aux usages en matière d'IA auprès de cadres d’organisations internationales. Les résultats soulignent les défis bien réels qui doivent être relevés au sein des entreprises dans tous les secteurs d'activité : 80 % des personnes interrogées ont déclaré qu'il n'est peut-être pas possible de savoir si les résultats de l'IA de leur entreprise sont exacts.  78 % ont affirmé que les employés font plus confiance à l'IA qu'ils ne le devraient. Ou encore 99 % ont déclaré avoir ressenti une forme de pression pour mettre en œuvre cette technologie (82% estimant cette pression assez élevée).

Cela dit, l'IA diffère beaucoup des autres technologies de rupture de ces dernières décennies, telles que le cloud, l'internet des objets (IoT) et la téléphonie mobile.

L'IA ne se limite pas à la mise en œuvre d'un nouvel outil ou d'une nouvelle application à des fins d'efficacité ; il s'agit également d'analyser l'impact qu'elle peut avoir sur l'ensemble de l'organisation. La peur de l'inconnu et l'incertitude concernant les conséquences font de l'adoption de l'IA un défi bien plus complexe et stimulant pour les DSI que la plupart des percées technologiques précédentes.

Pression pour la mise en œuvre de l'IA

81 % des personnes interrogées ressentent une pression de la part de la direction pour mettre rapidement en œuvre l'intelligence artificielle (IA) dans un large éventail d'applications.

Ce n'est pas une surprise, mais c'est un bon rappel de l'ampleur de la pression que subissent les DSI et les responsables de l’implémentation de technologies au sein des différents types d’organisations. En 2023, l'afflux de solutions d'IA générative a rendu plus tangibles les transformations permises par l'IA, tandis que les grands modèles de langage (LLM) ont rendu l'IA plus accessible. Les DSI et les chefs d'entreprise sont sur les dents car ils ont conscience que si le battage médiatique est justifié et qu'ils n'agissent pas rapidement, ils risquent d'être désavantagés par rapport à la concurrence. Bien que l'urgence soit palpable et qu’il faille éviter le risque d'être distancé, il est important de procéder avec prudence.

Il est préférable de commencer dans une zone de confort, où l'échelle est gérable car il faut viser la précision et itérer rapidement. Il est même possible de s’essayer à des paris raisonnables et d’essayer des choses qui n'étaient pas possibles auparavant – à défaut de faire des progrès notables, cette approche permet d’apprendre et de s’améliorer tout au long du processus.

Perception de la précision de l'IA

80 % des personnes interrogées se demandent s'il est même possible de savoir si les résultats de l'IA sont exacts ou non, et 44 % des personnes interrogées craignent que leur entreprise s’appuie trop sur l’IA, alors même que 37% craignent les risques de biais et d’approximations et 34% le risque de non-respect de la conformité réglementaire.

Une partie de ces craintes et de ces doutes s'explique par des préoccupations quasi universelles concernant les données utilisées comme source d'information pour l'IA. Depuis qu'OpenAI a lancé ChatGPT, l'industrie s'est empressée de rattraper son retard et l'IA générative a eu un impact considérable sur la façon dont les gens perçoivent l'IA en général. Cela est dû en grande partie à l'attention portée par les médias à des sujets tels que les hallucinations de l'IA et l'inévitable partialité du contenu utilisé pour former les LLM.

Mais l'histoire ne s'arrête pas là

Bien sûr, lorsque l’on envisage une solution d'IA générative qui repose sur des données récupérées, il est essentiel de distinguer différentes catégories de problèmes pour prendre en compte de manière appropriée le risque de biais. La formation de ce type de LLM exige également que les responsables examinent comment les données seront intégrées dans le modèle, comment l'IA est testée et qui utilise les modèles une fois qu'ils sont terminés.

Il existe des techniques telles que la génération augmentée par récupération (RAG) qui permettent d’orienter le modèle vers des réponses que l’on sait être exactes, ainsi que des solutions de type « human-in-the-loop » qui contribuent à garantir l'exactitude des résultats.

Les solutions spécialisées d'IA et d'apprentissage automatique qui dépendent de données opérationnelles plus fiables répondent à une autre logique. Par exemple, dans le contexte de données factuelles et opérationnelles informatiques (mesures, rapports d’erreurs standardisés, etc), et sans réelles implications morales ou éthiques, il est plus facile d’avancer dans les projets puisque les données peuvent être considérées comme spécialisées, exactes et a priori non biaisées.

Confiance des employés dans les résultats de l'IA

84% pensent que les employés font confiance à l'IA sans en comprendre le fonctionnement et 78% disent que les employés font confiance à l'IA plus qu'ils ne le devraient.

Il est intéressant de noter que l'une des difficultés rencontrées par de nombreuses entreprises dans le monde de l'IA réside dans la confiance aveugle que les collaborateurs semblent avoir dans cette technologie émergente. Heureusement, il est relativement simple de répondre aux préoccupations liées à la confiance. La direction doit donner la priorité à la formation et à la pédagogie qui permettent aux employés d'acquérir les connaissances nécessaires pour la prise de décisions éclairées dans l'utilisation de l'IA dans des situations en fonction des enjeux.

Déploiement rapide vs latence de mise en œuvre

81 % des personnes interrogées ont déclaré s'être senties pressées de mettre en œuvre la technologie, et 75 % ont indiqué qu'elles pensaient que les politiques de leur entreprise ne permettaient pas de suivre le rythme de l’IA, qu’il s’agisse de gérer les risques ou de retirer des avantages potentiels de l'IA.

Si l'on considère la rapidité avec laquelle les solutions évoluent et ce dont elles sont capables, il est compréhensible que la volonté d'intégrer rapidement l'IA crée un point de tension dans de nombreuses entreprises. Il est également compréhensible que les politiques relatives à une technologie aussi puissante soient souvent un point d'achoppement.

Il faut toutefois garder à l'esprit qu'il n'est pas nécessaire de réinventer complètement la roue en ce qui concerne l'IA et les politiques de l'entreprise. Au contraire, il est plus intéressant d'envisager les politiques en termes d'évolution plutôt que de révolution. Par exemple, la plupart des entreprises disposent déjà de politiques claires sur les données que les employés peuvent ou ne peuvent pas partager avec des tiers. Dans de nombreux cas, il est possible de simplement reformuler les politiques en termes clairs en notant qu'elles s'appliquent également aux outils externes d'IA générative. Il faut également prendre en compte les politiques d'achat de logiciels et ajouter des addendas pour des examens complémentaires pour toutes les solutions intégrant l’IA intégrée.

Perturbation de la relation au travail

77 % des personnes interrogées s'attendent à ce que la mise en œuvre de l'IA entraîne davantage de responsabilités pour les employés. Et 74 % pensent que l'IA aura à minima un certain impact sur la création de futures opportunités de progresser au sein de l’entreprise.

Il est indéniable que l'IA, comme toute nouvelle technologie de rupture, finira par remplacer les personnes pour de nombreux types de tâches. Mais il est également inévitable que l'IA entraîne de nouveaux besoins en matière de compétences et d’emplois. Pour continuer d’avancer, il est important de développer les compétences liées aux responsabilités qui ne peuvent pas être traitées avec des statistiques – car même si l'IA générative se manifeste en langage naturel, elle ne fait rien d’autre que d’effectuer principalement des opérations statistiques.

La capacité des individus à gagner en efficacité et à améliorer celle des personnes qui less entourent à l'aide d'outils d'IA est rapidement devenue une compétence recherchée et commercialisable. Les personnes qui restent engagées et qui continuent à améliorer leurs compétences se verront offrir le plus d'opportunités.

Que nous réserve l’avenir ?

Si le  concept d'IA existe depuis plus de 70 ans, ce n'est qu'au cours des dernières années qu'il a percé dans la conscience du grand public. L'année 2023 a marqué le tournant où l'IA est passée du domaine de la science-fiction à celui d'une exigence commerciale élémentaire. Au-delà du battage médiatique, une chose est sûre : 2024 sera l'année où nous en apprendrons beaucoup sur la manière dont l'IA est susceptible de remodeler le monde.

D'ici là, nous devons absolument réfléchir aux domaines dans lesquels l'IA est réellement utile et donner la priorité aux solutions à fort impact et à faible risque, et l’optimisation des processus réseau en fait partie, afin de poser les bases d'un succès sur le long terme dans l’utilisation de l'IA.