Les procès en diffamation, nouveau casse-tête des géants de l'IA
OpenAI peut-elle être reconnue coupable de diffamation si ChatGPT colporte une fausse information blessante sur une personnalité publique, une entreprise ou un particulier ? Cette question doit sans doute causer des maux de tête aux départements juridiques des grandes entreprises américaines de l’IA, alors que plusieurs affaires ont fait couler de l’encre et que les procès commencent à s’accumuler.
En octobre, la sénatrice du Tennessee Marsha Blackburn, connue pour sa volonté de mieux réguler les Big Tech, a envoyé une lettre incendiaire à Google. L’élue républicaine avait en effet découvert que le chatbot Gemma, conçu par l’entreprise, lui attribuait une fantaisiste affaire de viol sur un policier. Google s’est promptement excusé et a retiré Gemma de son AI Studio.
Procès en cascade
Cette fois-ci, les choses ne sont pas allées plus loin. Mais d’autres ont sauté le pas, à l’instar de Robert Starbuck. Au mois d’avril, cet influenceur de droite américain a attaqué Meta en justice, dénonçant une image assortie d’un texte, tous deux générés par le grand modèle de langage Llama, qui l’accusaient d’avoir participé aux émeutes du 6 janvier, alors qu’il se trouvait en réalité chez lui, dans le Tennessee. Plutôt que de risquer un procès, Meta a trouvé un accord à l’amiable (une procédure courante outre-Atlantique), impliquant notamment le recrutement de M. Starbuck comme conseiller de Meta AI, afin précisément de limiter les erreurs et cas de diffamation.
En 2023, déjà, l’animateur radio américain Mark Walters avait poursuivi OpenAI en justice après que ChatGPT avait affirmé à tort à l’un de ses confrères, le journaliste Frederik Riehl, que M. Walters avait détourné les fonds d’une organisation à but non lucratif. La plainte a toutefois été classée sans suite, au motif que M. Riehl n’avait pas cru les faits imputés par ChatGPT à M. Walters et avait pu rapidement vérifier qu’ils étaient faux.
Mais des allégations erronées peuvent parfois avoir des conséquences bien plus graves. L’entreprise Wolf River Electric, un spécialiste américain de l’installation de panneaux solaires, a constaté l’an passé qu’un nombre inhabituel de clients avaient annulé leur contrat. Après enquête, l’entreprise s’est rendu compte que Gemini partageait une fausse information selon laquelle le gouvernement lui avait intenté un procès pour des pratiques de vente trompeuses. Du fait du mode IA inséré dans Google, cette infox apparaissait en tête des résultats chaque fois qu’un utilisateur tapait le nom de l’entreprise dans la barre de recherche. Wolf River Electric, qui affirme avoir perdu 25 millions de chiffres d'affaires en 2024 à cause de cette erreur, est actuellement en procès contre Google.
Recours à l’article 230 et au Premier amendement ?
Face aux procès intentés aux Etats-Unis, plusieurs lignes de défense sont à la disposition des Big Tech. La première consiste à invoquer l’article 230. Issu d’une loi mise en place en 1996, l’article protège les plateformes web en stipulant qu’elles ne sont pas responsables des contenus illicites qui y sont publiés. Cela signifie, par exemple, qu’un Américain ne peut pas attaquer Google en justice pour avoir référencé un lien vers un site web l’accusant d’être un agresseur sexuel, ou s’en prendre à Facebook si l’article en question y est partagé par des utilisateurs du réseau social. Il n’est toutefois pas certain que l’article 230 puisse s’appliquer dans le cas présent, étant donné que ce sont les chatbots conçus par ces entreprises qui génèrent les contenus litigieux, et non des utilisateurs humains.
La jurisprudence américaine (rappelons que le droit américain est très jurisprudentiel) n’a à cet égard pas encore tranché, selon Mitch Jackson, un avocat américain. "L’article 230 est une défense potentielle qui n’a pas encore été vraiment testée par les tribunaux. La question clé est : qui est le 'fournisseur de contenu informationnel' de la réponse de l’IA ? Si je publie un commentaire diffamatoire sur un forum, je suis le fournisseur de contenu informationnel et le forum (en tant que service informatique interactif) bénéficie d’une immunité. Mais avec ChatGPT, il n’y a pas d’auteur humain pour la phrase diffamatoire qu’il vient de générer. C’est le modèle lui-même qui a produit ce langage. OpenAI (ou Google, ou qui que ce soit) a créé le modèle et conçu son fonctionnement. On pourrait donc dire que la société d’IA est en fait le développeur, donc le fournisseur de contenu, de cette sortie spécifique. La Section 230 ne protège pas une entreprise lorsqu’elle est responsable (même partiellement) du contenu en question", détaille-t-il.
Une autre option consisterait à évoquer le Premier amendement, qui défend la liberté d’expression contre la censure exercée par le gouvernement. Contrairement à une idée reçue, le Premier amendement n’offre par une protection totale et inconditionnelle : en l’occurrence, la diffamation n’est pas protégée par celui-ci. Répandre des mensonges sur quelqu’un avec la volonté de nuire est donc passible de poursuite.
"Cependant, les entreprises d’IA pourraient invoquer le Premier Amendement de manière plus nuancée. Elles pourraient affirmer que les productions de leur IA constituent une forme de discours algorithmique ou de génération de contenu qui devrait bénéficier d’une certaine protection afin d’éviter de freiner l’innovation et le débat public. Ou elles pourraient prétendre que les rendre responsables de chaque affirmation incorrecte produite par leur IA constitue en fait une action gouvernementale qui étoufferait excessivement la liberté d’expression", estime Mitch Jackson. Là encore, le débat n’est pas encore tranché, et les prochaines décisions des tribunaux américains permettront de se faire une meilleure idée.
Un droit français plus problématique pour les Big Tech
Ces affaires sont toutefois loin d’être cantonnées aux Etats-Unis. En Europe, Arve Hjalmar Holmen, un citoyen norvégien, a lancé via l’ONG NOYB (None of Your Business), spécialisée dans la défense de la vie privée numérique, une procédure contre OpenAI après que ChatGPT a faussement affirmé qu’il avait tué deux de ses fils.
En Irlande, où la plupart des Big Tech ont installé leur siège social européen, le journaliste télé Dave Fanning a lui aussi lancé une procédure contre Microsoft pour un fil d’actualité généré par l’IA de l’entreprise l’accusant à tort d’agression sexuelle. Paul Tweed, un avocat irlandais, représente de son côté plusieurs particuliers européens qui attaquent Meta, Google et OpenAI pour des affaires de diffamation en lien avec des chatbots d’IA.
"Le Digital Services Act est très clair : tout ce qui concerne la définition du caractère illicite du contenu est renvoyé au droit national, qui dans le cas présent doit donc définir ce qui relève ou non de la diffamation", explique Eric Le Quellenec, avocat spécialisé dans le droit du numérique, associé chez Flichy Grangé Avocats.
Que dit la loi française concernant les possibilités d’actions en diffamation contre un chatbot ? "Contrairement au droit américain, le droit français n’exige pas que l’auteur d’une diffamation soit animé d’une volonté malveillante autonome. Le caractère intentionnel de l’infraction se trouve ainsi quasi systématiquement établi, l’auteur pouvant difficilement soutenir qu’il ignorait la portée de ses propos", explique Matthieu Chirez, avocat au barreau de Paris, associé du cabinet JP Karsenty et associés.
"De ce fait, le régime français apparaît sensiblement plus protecteur que le régime américain. Cette différence notable pourrait conduire les juridictions françaises à retenir plus facilement l’intention de diffamer que cela n’a été le cas dans l’affaire Mark Walters contre OpenAI", estime l’avocat.
Mais là encore, la nouveauté de la technologie soulève des questions nouvelles que le droit français va devoir appréhender. "Les contentieux futurs devraient soulever des questions inédites, parmi lesquelles, d’une part, la manière dont le droit appréhendera le phénomène dit des "hallucinations" de l’IA, c’est-à-dire la génération d’informations entièrement fictives ; et d’autre part la manière dont seront évaluées les sources utilisées par l’IA pour élaborer ses réponses."
L’entrée en vigueur de l’IA Act ouvre à cet égard une autre possibilité à certains plaignants européens : attaquer non pas pour diffamation, mais pour diffusion d’une fausse information. Cela ne vaut toutefois que dans le cas où l’IA créée une infox de toute pièce, pas dans le cas où elle se contente de reprendre des sources non fiables. "Si l’IA hallucine, il devient alors en théorie possible d’engager la responsabilité de la société qui se trouve derrière celle-ci, en évoquant le dénigrement commercial si c’est une entreprise qui est victime de l’infox par exemple", estime Eric Le Quellenec.