Liberté d'expression : pourquoi la régulation des chatbots IA inquiète

Liberté d'expression : pourquoi la régulation des chatbots IA inquiète Des Etats-Unis aux Pays-Bas, en passant par le Royaume-Uni et la Chine, de nombreux pays cherchent à encadrer les chatbots d'IA, pointant des risques pour les mineurs, mais aussi autour de la désinformation et des manipulations électorales.

Les chatbots d’IA ont déferlé comme un tsunami sur la planète suite au lancement de ChatGPT fin 2022. Depuis, les gouvernements du monde entier se creusent les méninges pour déterminer comment réguler au mieux cette technologie.

Quelques régulations ont déjà été passées, tandis qu’un panel d’autres sont en cours d’élaboration. Partant généralement de bonnes intentions, elles suscitent toutefois l’inquiétude des défenseurs de la liberté d’expression, qui craignent que les gouvernements aient la main un peu trop lourde ou utilisent ce prétexte pour renforcer davantage l’encadrement de la parole sur l’Internet, alors que la liberté d’expression en ligne est déjà en chute libre depuis des années.

Aux Etats-Unis, Donald Trump contre “l’IA woke”

Aux Etats-Unis, la volonté de mieux encadrer les chatbots d’IA constitue l’un des rares sujets qui unit républicains et démocrates dans un paysage politique américain à couteaux tirés. Résultat, deux lois actuellement en cours d’élaboration ont de bonnes chances de voir le jour. La première, le CHAT Act (pour Children Harmed by AI Technology) vise avant tout à protéger les mineurs contre les contenus sexuels et la manipulation permise par les agents d’IA. Plusieurs cas d’adolescents s’étant suicidés après avoir noué une relation fusionnelle avec un chatbot ont défrayé la chronique et imposé la nécessité de mieux encadrer ces dispositifs.

Sur le modèle du Kids Online Safety Act (ou KOSA), une loi plus générale visant à protéger les mineurs sur l’internet, elle aussi en cours d’élaboration, le CHAT Act doit notamment imposer aux opérateurs de chatbots de vérifier l’âge de leurs utilisateurs et de mettre en place diverses restrictions pour les mineurs, dont une interdiction de tous types de contenus à caractère sexuel. Ils seront également contraints de mettre en place des mécanismes de réponse adaptés lorsqu’un utilisateur émet des propos suicidaires, en l’invitant par exemple à appeler un numéro de prévention pour le suicide.

Une seconde loi en préparation, l’AWARE Act (pour AI Warnings and Resources for Education) doit permettre la création de ressources éducatives pour aider les mineurs et leurs parents à bien comprendre le fonctionnement des chatbots d’IA pour les utiliser sans risques. Ces deux lois visent également à proposer un cadre unifié au niveau fédéral, alors que certains Etats, comme la Californie, New York et la Caroline du Nord, ont commencé à passer leurs propres législations.

Mais la politique de l’administration Trump est aussi marquée par une volonté de lutter contre l’IA “woke” : estimant que les chatbots d’IA comportent des biais de gauche, les républicains entendent leur imposer une plus grande neutralité. "Les Américains ne veulent pas de fariboles marxistes et woke dans leurs modèles d’IA", a ainsi déclaré Donald Trump en juin avant de signer un décret obligeant les branches du gouvernement à n’utiliser que des agents d’IA observant une stricte neutralité idéologique. Un audit régulier des chatbots utilisé par les agences fédérales doit être mis en place, et ceux qui manqueraient à leurs obligations de neutralité ne pourront plus être utilisés.

David Sacks, qui pilote la stratégie de l’administration Trump sur l’IA, a fait écho aux propos du président en accusant la startup Anthropic, dont le chatbot Claude est l’un des plus populaires, d’avoir créé une "IA woke". Les critiques émises par le président et son camp, si elles répondent à un agenda idéologique, ne sont pas totalement infondées : plusieurs études, dont une de l’université de Stanford, montrent que les chatbots d’IA, y compris Grok, penchent plutôt à gauche dans leurs réponses.

Reste que la volonté du gouvernement de réguler et sanctionner les IA pour leur affiliation idéologique suscite des craintes non seulement pour la liberté d’expression en ligne, mais aussi pour la capacité de l’industrie américaine de l’IA à innover.

"Les algorithmes ne peuvent jamais être entièrement exempts d’idéologie, surtout si c’est le gouvernement qui définit ce qui relève de celle-ci. Une véritable approche respectueuse de la liberté d’expression permettrait à divers modèles de coexister, reflétant des valeurs différentes, plutôt que d’imposer l’uniformité par le biais de la commande publique", affirment Jacob Mchangama et Jordi Calvet-Bademunt de The Future of Free Speech, un lobby de l’Université Vanderbilt.

"Cette volonté irréaliste de neutralité pourrait facilement glisser vers un contrôle des opinions à mesure que de plus en plus d’entreprises cherchent à décrocher des contrats gouvernementaux et à obtenir ses faveurs.
Le Premier Amendement a précisément été conçu pour empêcher les acteurs gouvernementaux de dicter quels points de vue sont acceptables. Le leadership américain dans l’IA et la liberté d’expression dépend du maintien d’un engagement ferme envers ces principes."

L’approche européenne inquiète aussi

Vu d’Europe, les diatribes du président américain et de ses alliés contre “l’IA woke” font sourire, tandis que sa propension à utiliser la loi à des fins politiques est perçue comme dystopique. Mais l’Europe n’est pourtant pas immunisée contre l’encadrement de l’IA à pour répondre à un agenda politique.

En octobre, par exemple, la Data Protection Authority néerlandaise a mis en garde contre l’usage des chatbots d’IA en période électorale, pointant un risque de manipulation des électeurs. Les chatbots sont "non fiables et clairement biaisés", s'inquiète l’autorité, qui affirme que plusieurs des principaux chatbots d’IA, dont ceux d'OpenAI, de xAI et de Mistral, avaient donné des recommandations orientées idéologiquement à des utilisateurs en amont de diverses élections.

Si la critique n’est pas émise pour les mêmes raisons, elle fait néanmoins écho à celle de l’administration Trump : les chatbots d’IA ne seraient pas suffisamment neutres politiquement.

Davantage que la mise en place de nouvelles lois, ce sont les régulations déjà existantes dans l’UE et la façon dont elles peuvent s’appliquer aux chatbots qui suscitent l’inquiétude de certains défenseurs de la liberté d’expression. Irene Khan, la Rapporteuse spéciale des Nations unies sur la promotion et la protection du droit à la liberté d’opinion et d’expression, a récemment souligné dans un rapport comment les obligations prévues dans l’IA Act et le DSA présentaient des risques d’abus susceptible de nuire à la liberté d’expression en ligne, y compris dans le cadre du déploiement de l’IA. "Les lois et les politiques sont souvent élaborées avec une connaissance sous-optimale du préjudice en ligne et sans données, recherches ou consultations publiques adéquates. Les Etats ont eu recours à des mesures disproportionnées, [...] et adopté des lois vagues et trop larges pour incriminer, bloquer, censurer et réfréner les discours en ligne, réduisant ainsi l’espace civique."

Plus de 100 experts (universitaires, politiques, avocats, journalistes…) ont en outre récemment cosigné une lettre ouverte aux décideurs de l’UE pointant que les régulations en place, en particulier le DSA, risquaient de créer un écosystème de censure nuisible à la liberté d’expression en ligne.

Des craintes que partagent les chercheurs de The Future of Free Speech. "Sous le DSA, des signaux d’alerte précoces sont déjà apparus : menaces de fermeture de plateformes en réaction aux émeutes qui ont suivi la mort d’un jeune d’origine nord-africaine tué par la police française ; assimilation de la désinformation à des contenus illégaux dans le contexte du conflit à Gaza ; ou encore menaces à l’encontre de X et d’Elon Musk pour avoir interviewé Donald Trump durant la campagne des élections présidentielles américaines de 2024", détaillent Jacob Mchangama et Jordi Calvet-Bademunt, pour qui cet arsenal risque demain d’être utilisé pour épurer certains contenus jugés controversés des chatbots d’IA.

Selon eux, "au lieu de restreindre les contenus politiques produits par l’IA, les régulateurs européens devraient se concentrer sur la garantie du pluralisme au sein même du marché de l’intelligence artificielle."

Cela peut passer, par exemple, par la promotion de modèles open source, afin d’éviter que l’IA demeure entre les mains d’une poignée de grandes entreprises technologiques. "Le pluralisme disperse le pouvoir et réduit le risque qu’une seule autorité ou entreprise puisse instrumentaliser les productions de l’IA à des fins politiques."