Michael Stora (Psychanalyste) "Les IA peuvent rapidement vous enfermer dans une bulle informationnelle"
Michael Stora est psychologue et psychanalyste, spécialiste des questions numériques. Il interviendra à l'occasion du Mastercard Innovation Forum le 5 novembre prochain en partenariat avec le JDN.
JDN. Comment l'IA modifie-t-elle le rapport à l'information ?

Michael Stora. L'utilisation de l'IA dans le domaine de l'information n'est pas nouvelle, notamment aux États-Unis où de nombreuses expérimentations ont déjà été menées. Ces initiatives ont révélé à la fois des avantages et des inconvénients. Comme toute innovation technologique, l'IA engendre des avancées prometteuses mais aussi des développements préoccupants qui nous obligent à repenser la nature même de l'information. Bien que l'information soit idéalement produite par des journalistes, l'IA peut apporter une aide précieuse dans certains domaines.
Par exemple, l'IA s'est avérée utile pour des tâches autrefois confiées aux journalistes débutants ou stagiaires, comme la rédaction de bulletins météo ou d'annonces simples. L'IA générative peut compiler ces informations et publier des bulletins pour lesquels le talent journalistique n'est pas primordial. Cela permet aux jeunes journalistes de se consacrer à des tâches plus enrichissantes, un peu comme on a libéré les stagiaires des corvées de photocopies.
Un autre aspect intéressant concerne la lutte contre la désinformation. Paradoxalement, alors que l'IA peut générer des fake news, des chercheurs ont développé des systèmes d'IA capables de les démasquer grâce à un travail de recoupement. Cela illustre comment l'IA peut être utilisée pour contrôler ses propres dérives. Cependant, cela soulève également une question cruciale : peut-on faire confiance à l'IA pour contrôler d'autres IA ?
Quel rôle l'intelligence artificielle joue-t-elle dans l'accroissement de l'infobésité ?
L'IA peut effectivement contribuer à cette surcharge d'informations, mais la question des canaux de diffusion est également cruciale. Cette dérive est inquiétante, particulièrement pour les journalistes, car Internet a modifié notre rapport au temps. La contraction espace-temps propre à Internet privilégie la rapidité au détriment de la qualité. On peut se demander pourquoi il faut être informé quelques minutes seulement après l'AFP, sans avoir vérifié l'information.
Cependant, pour les passionnés d'information, certaines IA proposent des services intéressants. Par exemple certains agents conversationnels peuvent fournir une information sur un sujet donné à partir de cinq sources différentes, offrant ainsi des points de vue variés. C'est une approche similaire à ce qu'Arte avait proposé dans son journal, en traitant un sujet unique à travers cinq reportages différents. Cela permet d'avoir une information plus nuancée et enrichie, que ce soit sur l'actualité politique ou des faits divers, en incluant des avis d'experts.
Les modèles d'intelligence artificielle comme GPT ou Gemini peuvent-ils améliorer la qualité de l'information ? Ou risquent-ils de rendre les contenus plus superficiels en traitant plus de sujets sans vraiment les approfondir ?
C'est un problème majeur : trop d'informations tuent l'information. Une information n'est vraiment intéressante que lorsqu'elle permet de nuancer le propos. Or, nous sommes dans une société qui se polarise énormément. Si l'information elle-même contribue à cette polarisation, même en visant l'objectivité, cela pose problème. La question de l'objectivité journalistique est complexe pour l'humain. Un journaliste doit tendre vers l'objectivité tout en ayant son propre point de vue. Même le choix de la ponctuation révèle déjà une subjectivité humaine. Cette imperfection est ce qui rend l'humain riche.
De plus, les IA peuvent rapidement repérer vos préférences, vous enfermant dans une bulle informationnelle. Comment y échapper ? Les points de vue différents permettent à l'être humain de s'ouvrir au monde. Si on s'intéresse à l'information, c'est qu'on s'intéresse au monde qui nous entoure, pas uniquement à soi-même. Cela soulève également la question de la "boîte noire" de l'IA. Pourquoi telle information est-elle choisie plutôt qu'une autre ? La plupart des développeurs d'IA ne veulent pas révéler les secrets de leur entrainement, car le choix informationnel d'une IA constitue déjà un point de vue en soi.
OpenAI, avec ChatGPT, semble s'inscrire dans une idéologie progressiste, tandis qu'Elon Musk, via XAI et sa plateforme X (anciennement Twitter), adopte une approche clairement conservatrice. Pensez-vous que cette polarisation de l'IA va se poursuivre ?
L'idéal serait d'avoir accès à des points de vue différents sur une même information, permettant ainsi une compréhension plus large et nuancée des sujets. Cependant, la polarisation croissante de l'IA pose un réel problème, pouvant radicaliser des personnes initialement modérées en les exposant constamment à des informations orientées. Face à ce risque, certains ont proposé l'idée de "purifier" l'IA, en la réinitialisant régulièrement pour qu'elle retrouve un point de vue modéré. C'est une piste intéressante parmi d'autres à explorer en termes d'éthique et d'IA.
Il faut être conscient que lorsque l'aspect émotionnel l'emporte sur l'intelligence, cela peut mener à toutes sortes de dérives, comme on le voit avec les théories du complot et les fake news. D'ailleurs, lors des dernières élections législatives, certains partis politiques ont utilisé l'IA pour produire de nombreuses vidéos de propagande très élaborées.
N'y a-t-il pas un risque de déshumanisation lorsque l'on lit des articles rédigés par IA ?
Absolument. C'est un point intéressant. Les journalistes sont formés aux 5W (Who, What, When, Where, Why), mais l'IA est particulièrement déficiente sur le "Why". Ce "Why" est justement là où s'exprime la personnalité du journaliste, sa capacité d'analyse et son aptitude à avoir un point de vue nuancé, pas simplement binaire. C'est là que réside le véritable talent journalistique. Même si certaines IA sont considérées comme plus imaginatives que d'autres, j'ai constaté, en les utilisant à titre personnel et professionnel, la pauvreté de leur imaginaire. En tant que psychanalyste, je peux affirmer que l'être humain n'est pas binaire. Il peut être à la fois 0 et 1, une complexité que l'IA, en l'absence d'un véritable ordinateur quantique, ne peut pas encore reproduire.
Le journaliste, grâce à son talent littéraire, son histoire personnelle et sa sensibilité, apporte une dimension beaucoup plus riche et personnelle à ce cinquième W. C'est un élément crucial pour le lecteur. D'ailleurs, certains organes de presse reviennent sur leur décision d'utiliser l'IA pour des articles de fond, constatant ses limites actuelles. L'IA est incapable d'empathie, qui va au-delà de la simple capacité à ressentir la souffrance d'autrui. L'empathie implique une façon de penser qui intègre la dimension affective du journaliste.