Identifier une création par IA, une tâche vraiment impossible ?

Identifier une création par IA, une tâche vraiment impossible ? Les géants de l'IA réfléchissent à apposer des filigranes sur les contenus générés par IA. Une méthode encore loin de faire ses preuves.

La solution est-elle plus complexe que le problème ?  Alors que la quantité de données générée par les IA est amenée à dépasser celle déjà produite par les humains en quelques années, les géants de l'intelligence artificielle envisagent d'apposer des filigranes sur les contenus produits par IA. Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont été convoqués devant la maison blanche en juillet dernier et se sont engagés à prendre des mesures fortes pour garantir la sécurité et l'éthique des systèmes d'IA. Les poids lourds du secteur se sont notamment engagés à développer des techniques robustes pour identifier les contenus produits par des IA. Une obligation qui passe à coup sûr par le marquage par filigrane, ou watermark en anglais.

Ces tatouages numériques, invisibles la plupart du temps, permettent d'identifier avec une certitude plus ou moins élevée, les productions créées à l'aide de l'intelligence artificielle. Si ces techniques sont relativement efficaces avec les contenus audiovisuels comme la génération d'images ou de vidéos, ce n'est pas le cas avec les textes produits par IA. La nature même du support ne permet pas d'apposer un filigrane permanent reconnaissable par la suite. Techniquement, aucune solution n'est viable et sûre à 100 %, notent l'ensemble des experts que nous avons sollicités.

Aucun filigrane n'est totalement fiable

Plusieurs techniques ont déjà été expérimentées par les laboratoires d'IA pour tenter de marquer numériquement les textes produits par ChatGPT et consort. "Il est possible de jouer sur le codage de caractères. Par exemple, faire changer l'espacement de la police très subtilement dans un texte, ou l'espacement interligne. Il existe également la méthode de la parité qui consiste à imposer un nombre de mots pairs ou impairs par ligne, une méthode invisible. Il est également possible de recourir à l'utilisation d'espaces supplémentaires à certains endroits. Et puis, il y a carrément la méthode qui consiste à jouer sur le codage ASCII ou unicode des lettres en ajoutant des bits par exemple", liste Didier Gaultier, directeur du département Data Science & IA chez Orange Business.

Toutes ces méthodes, relativement efficaces, ont un talon d'Achille commun. Elle repose sur une même norme, vieille de 60 ans, la norme ASCII. Avec quelques connaissances basiques en édition de texte, il est possible de supprimer complètement la majorité des techniques de marquages. Pour l'encodage, "il suffit de faire un copier-coller du texte en texte brut et de le recoller dans une page Word vierge. La méthode de la parité peut être mise à mal si on change la justification et enfin les espaces supplémentaires peuvent être facilement repérés et supprimés en comptant les espaces", rappelle le spécialiste. Aucune de ces méthodes n'est donc actuellement infaillible.

Les détecteurs d'IA inefficaces

Pour parer ces faiblesses, les géants américains de l'IA ont commencé à développer des outils censés détecter les textes générés par IA en se basant sur des modèles probabilistes. Le 31 janvier dernier, OpenAI était fier d'annoncer la sortie de Classifier, son outil maison de détection de textes générés par IA. Six mois plus tard, la société présidée par Sam Altman annonçait finalement la fermeture du service en raison du "faible taux de précision" de son modèle.

Pour fonctionner, la majorité des outils actuels se basent sur la richesse du vocabulaire utilisé, la fréquence d'utilisation de certains mots ou encore la récurrence de certaines tournures. Par exemple, GPT-3.5 a tendance à utiliser avec une régularité déconcertante les expressions "Il est important",  "Il est donc essentiel", "en outre", "cependant", "en effet", "toutefois", "en conséquence", "en somme" ou "en conclusion."

"Actuellement, sur le marché, il existe entre 10 ou 20 fournisseurs de service qui proposent de détecter du texte généré par une IA. Selon mes propres tests, aucun d'entre eux n'est véritablement fiable", assure Marius Sandbu, cloud evangelist chez Sopra Steria Novège. Ces systèmes ont tendance à confondre les textes générés par des locuteurs utilisant un vocabulaire plus limité. "Les détecteurs GPT classent souvent à tort les écrits en anglais non natifs comme étant générés par l'IA, ce qui soulève des questions quant à l'équité et à la robustesse", conclut même une étude relayée dans la revue Patterns.

De plus, la hausse croissante du nombre de paramètres utilisés pour entraîner les modèles d'intelligence artificielle devrait améliorer encore un peu plus la qualité des textes générés, rendant toujours plus complexe leur détection. "Le texte qui était généré dans la première génération de GPT était vraiment médiocre. Il s'est considérablement amélioré et il continuera à s'améliorer", prédit Scott Cadzow, chair du groupe Securing AI à l'ETSI (Institut européen des normes de télécommunications).

Quelles solutions ?

OpenAI le reconnait officiellement pour la première fois : "Bien que certains (dont OpenAI) aient publié des outils censés détecter les contenus générés par l'IA, aucun d'entre eux n'a prouvé qu'il était possible de distinguer de manière fiable les contenus générés par l'IA de ceux générés par l'homme." Partant de ce précepte quelles sont les solutions ? Didier Gaultier invite à prendre le problème à l'envers. Comme il est impossible de certifier à 100 % qu'un contenu n'est pas généré par une IA, pourquoi ne pas certifier les textes produits par un humain ? "La solution ne consiste pas à watermarker les documents générés, mais au contraire à authentifier les originaux grâce à des systèmes de signature. C'est la solution la plus logique", assure-t-il.

De son côté, Scott Cadzow plaide plus volontiers pour la formation, de l'école à l'entreprise : "Les élèves doivent apprendre comment utiliser l'IA afin de pouvoir l'utiliser efficacement. Les enseignants doivent apprendre à reconnaître quand l'IA est utilisée pour tricher." Plus globalement, l'ensemble de la société devrait aiguiser son esprit critique. "Nous ne devrions pas blâmer l'outil, mais plutôt son utilisation", argue le responsable.