Contenus générés par ChatGPT : qui est responsable en cas d'erreur ?

Contenus générés par ChatGPT : qui est responsable en cas d'erreur ? La question de la génération de contenus par l'IA sur des sujets sensibles de type Your Money Your Life pose des questions difficiles au secteur législatif.

Les contenus YMYL, pour Your Money Your Life (votre argent, votre vie), reçoivent un traitement particulier de la part de Google, puisque considérés comme pouvant potentiellement impacter le quotidien de l'utilisateur. Une page Internet fait donc partie de cette définition lorsqu'elle est susceptible, selon Google, de pouvoir affecter le bonheur ou le bien–être de l'internaute. Sont ainsi rattachés à l'YMYL des plateformes de transaction commerciale et financière, des sites spécialisés dans le domaine médical, des plateformes juridiques, ou encore des articles d'actualité en lien avec des sujets comme la science ou la politique.

Rappelons que les facteurs EEAT (Experience, Expertise, Authoritativeness, et Trustworthiness, pour expérience, expertise, autorité, et confiance) constituent les métriques essentielles que Google prend en compte pour positionner les sites répondant aux critères d'YMYL. Cela veut dire que l'auteur du contenu doit être expert ou faire appel à un ou plusieurs experts pour rédiger son contenu. L'auteur doit être quelqu'un de reconnu pour la qualité de ses informations. Le site en question doit contenir des éléments comme les mentions légales et les politiques de confidentialité. L'auteur doit aussi avoir un vécu direct pour écrire certains sujets, comme le partage d'expérience.

"De manière générale, les pages YMYL peuvent engager la responsabilité de leurs auteurs"

En cas d'erreur sur les contenus YMYL, jusqu'à présent, la responsabilité revenait à l'auteur. "De manière générale, les pages YMYL peuvent engager la responsabilité de leurs auteurs si celles-ci communiquent de fausses informations et créent une situation trompeuse pour le lecteur", explique David Joseph Atias, avocat associé du département IT/Data chez DJS Avocats. "Ceci est d'autant plus vrai dans certains domaines comme celui du conseil en investissement financier, et dès lors que les informations constituent un délit d'exercice illégal de conseil en investissements financiers." Ainsi, selon le Code monétaire et financier, le délit d'exercice illégal de conseil en investissements financiers est réprimé comme le délit d'escroquerie. Le fautif encourt jusqu'à cinq ans de prison et 375 000 € d'amende.

Mais, avec l'arrivée de l'IA pour générer des contenus, comme ChatGPT, comment savoir dorénavant qui est le responsable d'erreurs sur les contenus sensibles ? La question n'est pas anodine, quand on sait les sommes en jeu et que, par exemple, selon un récent sondage de Lily Ray, consultante SEO chez Amsive Digital, 74% des référenceurs interrogés pensent qu'un contenu YMYL généré par l'IA serait moins fiable.

Avant d'élucider cette question, il faut essayer de comprendre ce qu'est l'intelligence artificielle au niveau juridique. "Le parlement européen considère que l'IA est tout outil qui est utilisé par une machine afin de reproduire des comportements qui sont liés aux humains, tels que le raisonnement, la planification ou la créativité", explique David Joseph Atias. "L'IA a en effet une propriété qui est propre : c'est un outil automatisé qui va s'améliorer par lui-même."

Dans le cas de la génération de contenus par l'IA, nous sommes donc loin des critères requis par Google pour bien positionner les sites YMYL dans ses Serps. Ce contenu ne devrait même pas être générés par une IA. Mais, on l'a vu récemment avec Cnet par exemple, qui proposait des contenus YMYL générés par l'IA et édités par des humains, nous ne sommes à l'abri de rien concernant la méthode de rédaction de ces types de contenus.

Qui sera alors responsable en cas d'erreur dans les textes ? Pour l'instant, les conditions d'utilisation d'OpenAI, créateur de ChatGPT, pour ne parler que de lui, sont claires. Elles stipulent que l'utilisateur est responsable du contenu. C'est à lui de s'assurer qu'il n'enfreint pas de loi ou les conditions d'utilisation d'OpenAI. L'avis de non responsabilité précise qu'il ne garantit pas que ses services soient sans erreur.

Si, en cas d'erreur de l'IA sur un contenu YMYL, ChatGPT souhaite se dédouaner en amont, les responsabilités peuvent être multiples, estime David Joseph Atias. "Comme dans tout process aujourd'hui, il y a des chaînes de responsabilité. Chacun peut intervenir à un certain degré en termes de responsabilité. Peut être que l'intervention de l'un ou de l'autre est plus prépondérante, mais cela, on ne peut pas le déterminer. Il n'y a pas de texte juridique qui permet de dire en matière d'IA en cas d'erreur si telle ou telle personne est responsable."

L'IA Act et les systèmes IA à haut risque

Si on ne peut déterminer la responsabilité réelle de chacun, comment se prémunir en cas d'erreur des systèmes d'IA ? "Nous avons les outils juridiques actuellement en France pour prévenir de tels préjudices, si préjudice il y a", rappelle Gaël Mahé, avocat en droit du numérique et data protection chez Haas Avocats. "Par exemple, pour les deepfakes, on peut recourir au droit à l'image.  Pour les systèmes d'IA, on peut aussi plus généralement utiliser la responsabilité sans faute ou pour faute. Ce qui est trompeur et complexe, c'est que les systèmes d'IA sont utilisés dans une multitude de domaines. In fine, cette pluralité de secteurs implique une multitude de subtilités et de sujets où la responsabilité peut s'appliquer.

A titre d'exemple, un débat se tient actuellement chez les artistes concernant la question de la propriété intellectuelle, dans la mesure où l'IA peut utiliser certaines œuvres pour générer des contenus. Mais il n'est pas impossible qu'un texte législatif apparaisse sur la question des agents conversationnels de type transformateur génératif pré-entraîné comme ChatGPT. La jurisprudence devra elle aussi appréhender les questions complexes qu'impliquent les systèmes d'IA sur certaines questions. Toutefois, dans les prochains mois, voire dans les années proches, il me semble qu'un texte législatif national portant spécifiquement sur les agents conversationnels de type transformateur génératif pré-entraîné type ChatGPT ou Google Bard semble peu probable même si cela n'est pas à écarter. "

"Nous avons les outils juridiques actuellement en France pour prévenir de tels préjudices, si préjudice il y a"

Sur le terrain juridique, des premiers efforts ont été faits pour répondre au problème, notamment au niveau européen. L'IA Act, un règlement européen sur le même modèle que le RGPD, se concentre sur le système d'IA à haut risque. De façon synthétique, la qualification de "haut risque" renvoie à tous les risques importants liés à la santé, la sécurité ou les droits fondamentaux des personnes, ce qui reste relativement large. L'IA Act met en place des obligations portant sur le fournisseur de l'IA et des exigences et garanties concernant le système d'IA en elle-même. A l'instar du RGPD,  le vrai levier de l'IA Act se situe au niveau de ses sanctions. Mais, pour Gaël Mahé, ChatGPT, par exemple, ne pourrait pas actuellement être qualifiée d'IA dite à haut risque, même si certaines utilisations et articulations avec cette IA pourraient faire évoluer cette qualification. D'ailleurs, en dehors des systèmes d'IA à haut risque "le projet de règlement prévoit pour le moment seulement un régime de transparence pour les systèmes d'IA d'hypertrucage où des contenus pouvant être perçus comme authentiques sont en réalité générés ou manipulés artificiellement", explique-t-il.