L'IA générative, industrie des fake news ou génie de l'automatisation ?

Les IA génératives se révèlent être des aides intéressantes pour les collaborateurs. Cependant, leur utilisation suscite aussi un grand nombre de débats et controverses.

Depuis son explosion partout dans le monde en décembre dernier, il est désormais impossible d'ignorer ce qu’est une IA générative. Capable de répondre à des questions, de résoudre des problèmes et de créer du contenu - pour ne citer que quelques-unes de ses compétences – les chatbots comme ChatGPT et autres générateurs de contenus divers comme Midjourney se révèlent être des aides intéressantes pour les collaborateurs, et ce dans un grand nombre de secteurs. Qu'ils soient utilisés pour éviter de parcourir Internet pendant des heures à la recherche de la réponse à une question, pour rédiger un article de blog ou simplement pour lancer une session de brainstorming sur un nouveau produit, ils peuvent certainement contribuer à réduire les coûts et à économiser du temps et des ressources.

Cependant, leur utilisation suscite aussi un grand nombre de débats et controverses. L'un des principaux sujets de préoccupation concerne l'emploi : si l'IA peut réaliser à l’identique une tâche, voire la faire mieux qu’un être humain, pour une fraction du coût, les chefs d'entreprise sont-ils susceptibles de remplacer les humains par cette technologie ? Goldman Sachs prédit ainsi que jusqu'à 300 millions d'emplois à temps plein pourraient être réduits ou perdus à cause de l'IA et de l'automatisation. Toutefois, la situation n'est pas aussi simple que le laissent entendre certains des points de vue les plus pessimistes.

Les IA génératives sont-elles une machine à « fake news » ?

Le génie comme le défaut des IA générative résident dans le fait qu'elles ne fonctionnent pas comme un simple moteur de recherche. Bien que le processus initial soit le même - collecte d'informations à partir d'une base de données – l’IA crée ensuite une réponse en faisant une série de suppositions basées sur les informations qu'elle trouve, plutôt que de restituer à l’identique, comme le fait un moteur de recherche. Bien que les réponses générées soient claires et semblent exactes - en fait, certaines sources affirment que ces IA atteignent un taux d'exactitude de 99 % - comment s’assurer de leur véracité ? Après tout, lorsque ChatGPT par exemple est interrogé par un utilisateur, cela signifie qu’il ne dispose pas lui-même de la réponse.

Le fait est que les informations peuvent être mal interprétées ou mal communiquées dans la série de suppositions que l’IA génère pour fournir une réponse conversationnelle à une question. ChatGPT par exemple n'est pas encore en mesure de comprendre la complexité du langage humain à 100 %. Ce qui sous-entend quelques erreurs de formulation mais aussi une perte de sens pouvant conduire à des informations inexactes. Les IA génératives fourniront toujours une réponse à une question posée, et ce, même si elles ne disposent pas d’informations sources – elles peuvent aussi inventer.

Pour cette raison, la réponse peut sembler à première vue correcte et, par conséquent, être considérée comme un fait. Si elle est ensuite publiée en ligne ou utilisée pour tout type de travaux, elle sera considérée comme un fait et contribuera à « l’industrie des fake new, laquelle représenterait aujourd’hui 62 % de l'ensemble des informations disponibles sur l'internet.   

Cette proportion importante de "fake news" est également préoccupante lorsqu'il s'agit pour ChatGPT de trouver les informations nécessaires pour répondre à la question. Si plus de la moitié des informations sur Internet sont fausses, il est très probable que l’IA utilise ces sources lors de la collecte des données pour répondre à une question. Par conséquent, même s'il interprète correctement les informations, il peut toujours fournir une réponse erronée.

En outre, avec plus de 100 millions d'utilisateurs à travers le monde, la probabilité que les utilisateurs lui posent les mêmes questions est élevée. Bien qu'il ne donne pas exactement la même réponse à chaque fois, l'utilisation d'informations provenant de la même base de données donnera des réponses similaires, de sorte que si celles-ci sont inexactes, des informations erronées pourraient se retrouver sur Internet à plusieurs reprises. Une fois qu’une information a été reprise plusieurs fois, elle devient en quelque sorte un fait, même si celle-ci induit les personnes en erreur.

Alors que faire des IA génératives ?

Certaines entreprises, voire même certains états, considèrent que ces erreurs sont la preuve de la nécessaire interdiction d’utilisation des IA génératives comme ChatGPT. Pourtant, bannir ces technologies n'est pas nécessairement la meilleure solution. Avec un travail de fond sur la vérification des informations et l’intégration de bases de données à jour, les IA génératives peuvent être de véritables opportunités pour les entreprises de prospérer sans augmenter drastiquement les investissements. En effet, certaines tâches très répétitives ou chronophages peuvent être grandement facilitées par ces solutions. Il en est de même pour la création de campagnes, de nouvelles stratégies, pouvant être accélérées par ces outils.

Pour autant, cela ne signifie pas que nous assisterons au « Grand remplacement » de l’humain par les IA. Pour l’heure, et jusqu’à ce que ChatGPT et consorts deviennent aussi précis et riche d’informations que le cerveau humain, les IA génératives doivent être prises pour ce qu’elles sont : des adjuvants, des collègues, pouvant prendre en charge les tâches les plus chronophages de la journée. En pensant à une ère où l’IA serait entraînée pour éviter les erreurs, elle ne disposera pas de la capacité de raisonnement fine de l’humain, et cela est valable pour tous les chatbots et autres technologies d’automatisation.

Au regard du développement très rapide de ces technologies, de nouvelles versions étant annoncées tous les deux à trois mois, il est intéressant d’appliquer le principe de prudence : dans l’adoption généralisée à l’entreprise, en posant un cadre d’utilisation strict, et aussi dans l’usage des informations récoltées pour conserver une analyse éclairée, sans faits erronés. Et ce d’autant plus que des usages « positifs » ne cessent d’être vantés, notamment dans le domaine de la cybersécurité, les « red teams » s’exerçant à tester leurs idées au moyen d’IA génératives !