ChatGPT : Une nouvelle ère dans la relation homme/algorithme

Sachant que les annonces concernant les modèles d'IA génératives sont quotidiennes, il est urgent de prendre du recul, et de chercher les " invariants ".

Impossible d’être passé à côté de ChatGPT depuis sa sortie en novembre dernier. Et entre l’arrivée de GPT4, la réaction de Google (Bard), les nouveaux entrants (Claude), ne comptez pas pour que ça se calme. Sachant que les annonces concernant les modèles d’IA génératives sont quotidiennes, il est urgent de prendre du recul, et de chercher les « invariants » : quelles que soient les avancées de ces modèles, que changent-ils sur le long terme ? Une chose est sûre : c’est une innovation qui va transformer profondément la manière dont nous interagissons avec les algorithmes. 

Un accès inédit à l’intelligence humaine 

ChatGPT, c’est d’abord l’accès à l’intelligence humaine : pour la première fois, nous avons un accès direct à une interface qui a absorbé une large partie de la connaissance écrite (d’une manière que personne n’arrive véritablement à décrire), et qui se met à votre niveau pour la restituer (il suffit de préciser votre question : « comme si j’avais 5 ans » ou « sachant que j’ai une thèse sur le sujet »). Désormais, expertise et pédagogie cohabitent plus facilement.  

Comment fonctionne chatGPT ? A la base de tous les modèles de langages (les LLMs) réside un mécanisme statistique simple qui propose le prochain mot le plus probable, pour construire de proche en proche des phrases. La différence clé entre les LLMs de première génération et chatGPT, c’est un ensemble d’étapes d’entrainement qui vise à « aligner » ce dernier : le rendre propre à un usage conversationnel, et agir en concordance avec des objectifs abstraits, comme : être utile, être honnête, ne pas causer de mal. Notez que cet alignement se fait à travers le jugement d’humains. L’intelligence humaine est donc présente à la fois dans la base de connaissance, et dans l’éducation des « valeurs » enseignées aux modèles. 

Nous n’en sommes qu’aux balbutiements de l’intégration de ces modèles dans les usages de l’entreprise, mais il est clair que leur rôle sera central dans toutes nos interactions digitales, à tel point qu’on peut imaginer une nouvelle fracture numérique entre les entreprises utilisant cette technologie et les autres.  

Une responsabilité accrue pour l’utilisateur  

ChatGPT, c'est l’interface ultime : ce n’est plus l’utilisateur qui s’adapte à l’interface, mais l’inverse. Allons plus loin : avec les modèles génératifs de texte, les langues naturelles sont en passe de devenir les nouveaux langages de programmation (notons qu’ils aident déjà à la programmation). C’est dire que considérer cette technologie comme une extension des moteurs de recherche est extrêmement limitant.  

Autre facteur de changement déterminant : cette flexibilité incroyable de l’outil donne plus de responsabilité à l’utilisateur : posez-lui des questions binaires (oui ou non), et vous vous exposez directement au fait qu’il peut fournir une réponse erronée. Interagissez sur un mode plus ouvert, et vous obtiendrez les bénéfices d’une discussion. Dans toute discussion, votre interlocuteur (qu’il soit humain ou algorithmique) peut avoir des avis contraires, et surtout dire des choses inexactes. Il n’en reste pas moins que l’exercice est enrichissant.  

La vitesse d’adoption de cette technologie ravive de nombreuses craintes, notamment celle du contrôle des faits. On se posait à raison les mêmes questions quand Internet est apparu (n’importe qui peut écrire une page web !), quand Wikipédia a pris son essor (est-ce que la gouvernance de cette encyclopédie est sérieuse ?), et quand on a réalisé que les moteurs de recherche donnaient des résultats différents en fonction des utilisateurs (en nous exposant à ce qui a été appelé la « Filter Bubble »). Il est vrai que la question du contrôle des faits est accrue avec ces modèles génératifs : on ignore les sources de données précises qui ont servi à construire la réponse du modèle. Alors, comment réagir ?  

Voyons cela comme une opportunité : il semble plus utile à court terme de renforcer nos mesures d’autodéfenses intellectuelles que d’attendre que la science n’ait résolu le sujet de la transparence des modèles génératifs. 

Comment s’emparer de cette innovation ?     

Pour exploiter pleinement de cette innovation, un des enjeux majeurs pour les entreprises est que ces modèles puissent accéder à leurs propres bases de connaissance. Cela soulève une question importante : la fuite potentielle d’informations critiques. Plusieurs fournisseurs commencent à offrir un cadre contractuel acceptable. Pour les données vraiment critiques, plusieurs alternatives existent, avec des niveaux de complexité, de sécurité, et de performances variables. 

Au-delà de l’intégration avec les sources de données de l’entreprise, la question de l’interopérabilité des modèles génératifs avec les services «classiques» de l’entreprise (notamment leurs APIs) va devenir cruciale. En résumé, un nouvel écosystème d’outils est en train d’éclore, allant jusqu’à modifier la manière de programmer et d’interopérer des services. 

Il est également important de prendre en compte le coût de l’usage de ces modèles, potentiellement élevé. Une trajectoire possible est de valider les usages avec des services «clé en main», pour progressivement les remplacer avec des modèles Open Source, ré-entrainés sur vos données, afin de diminuer les coûts et de protéger les données.  

Les modèles génératifs vont bouleverser la manière de travailler de vos collaborateurs : ceux-ci vont tous devenir « managers » de leurs outils : le « faire » sera moins important que le « quoi faire » et le « faire faire ». C’est un sérieux challenge de transformation des entreprises que de préparer ses salariés à ces nouvelles attentes. 

Reste le sujet de l’acceptabilité. Comment accepter que les professionnels prennent des décisions basées sur un outil dont on sait qu’il est fréquemment inexact ? Tout d’abord, limitez la portée du risque de mauvaise réponse (pas de chatGPT dans un système critique, pour le moment !). Ensuite, plusieurs approches sont possibles : la première est d’affiner les modèles et retravailler leur « alignement » (c’est-à-dire leur adéquation avec les missions que vous leur donnez). La deuxième est de contrôler la sortie des modèles (avec un système plus rigide, à base de règles, ou une autre IA orientée « audit »).  

Et demain ?  

Le développement de ces nouveaux modèles d’IA se poursuit à un rythme effréné, qui effraie même jusqu’à ses concepteurs, comme en témoigne les récentes lettres ouvertes, signées par de nombreux chercheurs, enjoignant à faire une pause dans le développement des modèles génératifs.  

Un récent rapport de Goldman Sachs indique que 2 emplois sur 3 (en Europe et aux Etats-Unis) pourraient être affectés par les modèles génératifs, et que ceux-ci pourraient se substituer à un quart du travail réalisé. C’est dire le potentiel de transformation par ces outils de la société. 

L'avenir de l’IA et celle de notre société sont donc liés, et la régulation doit se mettre en place à tous les niveaux : mondial, national, à l’échelle de chaque entreprise et de chaque utilisateur. Après la gouvernance des données, sujet au cœur des entreprises actuellement, vient donc naturellement la question de la gouvernance de l’IA. Un programme ambitieux en perspective, qui nécessitera une approche systémique, multiculturelle, et responsable.