Carole Boyer, Laure de Lataillade et Bertrand Gié (Geste) "Les éditeurs ont beaucoup à gagner à unir leurs forces pour se protéger des crawlers d'IA"

Le Geste lancera le 14 octobre un groupe de travail dédié au blocage et à la monétisation des robots d'IA. Les explications avec Carole Boyer, responsable juridique, Laure de Lataillade, CEO et Bertrand Gié, président du Geste.

JDN. Le Geste veut sensibiliser les éditeurs à l'importance d'unir leurs forces dans le traçage et le contrôle des crawlers des IA génératives. Pourquoi ?

Carole Boyer, responsable juridique, Laure de Lataillade, CEO et Bertrand Gié, président du Geste. © Geste

Bertrand Gié. Les IA représentent une révolution peut-être aussi importante qu'Internet. Elles changent radicalement et très rapidement la manière dont nous consommons l'information. Or, ces IA se servent régulièrement des contenus des éditeurs pour entrainer leurs modèles et les nourrir d'information fraîche. C'est pourquoi des accords visant à rémunérer les éditeurs, qu'ils soient noués sur une base individuelle ou collective, doivent vite se mettre en place. Les éditeurs ne peuvent plus se permettre d'attendre, ils ont tiré les leçons des droits voisins pour lesquels ils se battent depuis 15 ans sans pour autant obtenir des résultats satisfaisants sur tous les fronts. C'est pour cela qu'au Geste il nous parait fondamental que les régulateurs se saisissent de ce sujet pour soutenir les éditeurs en équilibrant le rapport de forces, aujourd'hui totalement asymétrique. Il est aussi nécessaire que les éditeurs unissent leurs forces sur les aspects de maîtrise et de contrôle des crawlers d'IA.

Pourquoi faut-il s'unir sur la maîtrise des crawlers ? A quoi pensez-vous concrètement en poussant cette idée ?

Carole Boyer. Il est important que les éditeurs s'accordent sur un standard à adopter vis-à-vis de ces IA dont l'attitude est très agressive. Prenons l'exemple du signal d'opt-out. La présence de ce signal permet d'indiquer très clairement et officiellement que l'éditeur ne donne pas d'accès libre à ses contenus, mais qu'une négociation peut être envisagée. La même règle du jeu étant adoptée partout, même si chacun décidait de négocier seul de son côté, au moins tous auraient la certitude que personne ne laisse ces IA venir scrapper des contenus librement. Par ailleurs, si les IA continuent malgré l'opt-out de scrapper du contenu, ce que beaucoup d'éditeurs constatent, elles sont en tort. En cas de litige, l'opt-out permet de constituer un corpus probatoire.

Laure de Lataillade. Prenons le cas des systèmes de blocage mis en place par certains éditeurs, que ces IA contournent, en changeant sans cesse d'identité. C'est un véritable jeu du chat et de la souris auquel on assiste aujourd'hui. En mutualisant leur veille sur l'identité de ces crawlers, les éditeurs auront beaucoup plus de chance de limiter le pillage, en attendant de parvenir à mettre en place des contrats de licence.

Bertrand Gié. Nous avons beaucoup à gagner à mettre en commun ces informations et à adopter les mêmes standards de protection. Demain lorsque les éditeurs s'uniront pour négocier et exiger des contreparties, ils parleront le même langage et seront beaucoup mieux écoutés.

Après un travail préliminaire, vous constatez que des nombreuses solutions de protection des contenus des éditeurs existent mais qu'elles ne se valent pas. Pouvez-vous nous en dire plus ?

Carole Boyer. Ces nombreuses solutions n'adressent pas toutes les mêmes problèmes. Certaines sont là pour permettre la signalisation de l'opt-out, d'autres servent au blocage alors que d'autres encore commencent à émerger pour intégrer des fonctionnalités de monétisation et de contractualisation en temps réel.  Prenons l'exemple des solutions de bots mitigation, qui existent depuis très longtemps. Il n'y a de fait pas de solution de blocage parfaite sur le marché, mais ce sont de premières pistes de réponse, qui de plus évoluent rapidement. Certains acteurs arrivent déjà à détecter des comportements suspects à bloquer, voire des robots tournants, des fonctionnalités qu'ils mettent en place en complément des listes de blocage. Même si nous constatons que certains acteurs cherchent à émerger plus que d'autres notamment en s'attaquant à toutes les facettes de ce problème, nous ne souhaitons pas mettre en avant un acteur plus qu'un autre, nous sommes agnostiques. L'important, c'est que les éditeurs accèdent à une information exhaustive et qu'ils s'emparent de ces sujets.

Laure de Lataillade. Un travail de classification systématique de ces solutions est nécessaire, c'est ce que nous nous efforçons de faire à travers la mise en place d'un tableau exhaustif des solutions d'opt-out, de blocage et de contractualisation/monétisation. Mais il nous faut également aller plus loin afin de définir des règles de gouvernance.

Si, comme le soutiennent de nombreux experts, les solutions de blocage de crawlers ne règlent pas le problème, pourquoi les adopter ?

Bertrand Gié. Pour certains acteurs, comme Google, partenaire indispensable sur le search, il est très compliqué en effet de disposer d'outils suffisamment granulaires pour faire la part des choses entre le scrapping pour le search et celui servant à alimenter Gemini. D'une manière générale cependant, même si les crawlers finissent de fait par contourner les solutions de blocage, l'objectif en déployant ces dernières est de leur compliquer la tâche. Par ailleurs, pour ceux qui mettent en place des signaux techniques d'opt-out, ces entreprises d'IA ne pourront plus dire qu'elles ne savaient pas que ce n'était pas autorisé.

Que pensez-vous de l'initiative de l'IAB Tech Lab AI Content Monetization Protocols (CoMP) ? Avez-vous identifié d'autres initiatives qui sortent du lot ?

Bertrand Gié. L'initiative de l'IAB Tech Lab, c'est une très bonne nouvelle et probablement une des pistes émergentes les plus solides pour avancer collectivement vers une standardisation.

Carole Boyer. L'initiative de l'IAB Tech Lab est la plus complète proposée jusque-là sur le marché. Elle adresse toute la chaîne de valeur. Après, une fois que toutes les questions techniques auront été réglées et que l'on se mettra d'accord sur le standard à adopter, le cœur du sujet sera le prix que l'on arrivera à déterminer pour le coût par crawl.

Laure de Lataillade. Il faudra prendre en compte dans le prix tous les préjudices que les IA occasionnent aux éditeurs, comme la baisse du trafic et la perte de contact qualifié. Le Geste prendra part aux travaux de l'IAB Tech Lab.

Quelle est la prochaine étape pour vous ?

Laure de Lataillade. Le Geste lancera le 14 octobre un groupe de travail dédié au blocage des robots d'IA et à la monétisation avec des experts juridiques, techniques et business pour avancer collectivement et faire émerger une réponse sectorielle concrète à ce problème. Nos réflexions pourront nourrir les travaux de l'IAB Tech Lab.

Bertrand Gié. Ce groupe de travail est une manière pour nous de formaliser et de consolider un travail intensif que le Geste mène depuis plus d'un an. Avec ce groupe, nous entendons continuer d'alerter et surtout mettre en commun les savoir-faire de ceux qui sont plus en avance afin de mesurer collectivement l'ampleur du problème et de se mettre d'accord sur les compensations et autres mesures à demander.

Quel est le niveau de maturité des éditeurs sur ces questions ?

Bertrand Gié. Tous les éditeurs ne peuvent consacrer des ressources et du temps à ces questions aussi cruciales soient-elles, d'où l'importance des initiatives comme celle du Geste. En revanche, tous les éditeurs sans exception sont conscients des bouleversements engendrés par l'IA. Ce qui les amène à mettre en place de manière plus ou moins généralisée les protocoles d'opt-out, y compris dans le but d'envisager des actions en justice avec l'aide de leurs syndicats comme cela a été le cas pour l'Alliance et le SEPM vis-à-vis de Common Crawl.