Anthony Katsur (IAB Tech Lab) "IAB Tech Lab va investir plusieurs millions de dollars dans l'agentique en 2026"

De passage à Paris à l'occasion du Forum d'Alliance Digitale, le patron de l'IAB Tech Lab a donné le ton des travaux 2026 : les agents d'IA feront l'objet de nombreux standards sans pour autant dénaturer l'écosystème de l'achat média programmatique.

JDN. Beaucoup d’acteurs s’interrogent sur la pertinence des DSP et SSP à l’ère des chatbots et des agents d’IA. Que leur répondez-vous ?

Anthony Katsur est le CEO de l'IAB Tech Lab © IAB Tech Lab

Anthony Katsur. L’intelligence artificielle n’est pas un fait nouveau dans cette industrie : les fondamentaux des SSP et DSP sont dans le machine learning. Les SSP et les DSP sont des agents qui représentent respectivement les éditeurs et les annonceurs, et cela ne cessera pas d’exister. C’est comme dans les marchés financiers, quelle que soit la nature de la transaction, vous aurez toujours besoin de plateformes qui servent, d’un côté, l’offre, de l’autre la demande. Le changement à venir concerne surtout les interfaces. Ces dernières seront davantage utilisées avec le langage naturel grâce aux LLM et notamment pour l’analyse des données des campagnes. Je pense aussi que le sell side se renforcera dans l’offre d’une plus grande lisibilité pour la prise de décision grâce aux plateformes de curation, qui fourniront une densité d’informations sur les impressions encore plus importante.

Mais pour beaucoup d’analystes les chatbots d’IA grignoteront progressivement les audiences de l’open web et lanceront leur propre business publicitaire…

L’open web, et notamment les médias d’information premium, coexistera avec les chatbots d’IA. Le trafic déclinera, c’est sûr. Je suis en contact avec de nombreux éditeurs partout dans le monde et tous constatent des baisses de trafic. Mais cette chute de trafic ne sera pas la règle pour tous les types d’information. Il est évident  que les consommateurs ne seront plus très nombreux à consulter un site pour une recette de cuisine. Les verticales en lien avec le lifestyle sont les plus touchées : le voyage, la cuisine, sont des segments qui voient des baisses de trafic allant de 20 à 60% aux Etats-Unis, de 10 à 30% au Royaume-Uni et de 10 à 25% en Allemagne.

La situation n’est pas la même en revanche pour les actualités ou le sport. Un consommateur qui veut savoir dans quelle salle de cinéma aller voir le film à l’affiche n’ira pas consulter un site. Mais pour accéder à une critique détaillée de ce film, il lira probablement le journal. Pour un premier jet servant à planifier son voyage, il fera appel à un chatbot. Mais au moment où il ira vraiment réserver son resort, il ira consulter le site de ce dernier pour apprécier les images des plages et des chambres, et s’assurer des détails des prestations… Il y aura par conséquent toujours une place pour la navigation web telle qu’elle existe aujourd’hui. L’impact d’une baisse forte de trafic sera ressenti surtout par la mid et long-tail d’internet. Malheureusement, les sites de ces catégories soit disparaitront soit seront rachetés.

Où en sont les travaux du groupe de travail AI Content Monetization Protocols (CoMP) lancé cet été ?

Le groupe de travail dédié au CoMP avance et notre objectif est d’accélérer fortement en 2026. Nous en sommes encore aux prémices. Je suis convaincu que nous pouvons améliorer sensiblement la manière dont les LLM interagissent avec les éditeurs, et je ne pense pas que le crawling soit la meilleure manière de le faire, ni pour les éditeurs ni pour les LLM. Il nous faut changer la manière dont cette relation se passe techniquement afin de rendre possible un modèle économique qui soit juste pour les éditeurs et efficace pour les LLM sur le long terme. Le but de CoMP est de mettre en place une série d’API et un protocole afin de permettre aux éditeurs de mieux contrôler l’accès des LLM aux contenus et surtout de mieux mesurer la manière dont ces derniers sont utilisés et à quelle fréquence. Et c’est seulement à ce moment-là, avec ces données-là précisément, que les éditeurs pourront analyser la valeur de ce qui est effectivement utilisé afin de négocier avec les LLM. Le but pour nous est donc de permettre aux deux parties de définir d’autres modèles économiques, qui iront plus loin que la seule approche de type pay per crawl.

En attendant, les éditeurs doivent continuer de bloquer les crawlers des IA avec lesquels ils ne parviennent pas à mettre en place de contrat de licence. Il est impératif d’empêcher l’accès gratuit afin de favoriser la naissance de ce marché. Mais ce serait plus efficace si tous les éditeurs faisaient front commun. Les initiatives réglementaires protectrices des droits d’auteur sont également nécessaires, mais elles ne vont pas assez vite et la technologie peut aider à accélérer la mise en place d’un système vertueux pour toute l’industrie. Pour cela, nous avons besoin de l’adhésion des LLM.

Est-ce que les entreprises d’IA se montrent plus intéressées au CoMP depuis le lancement ?

Google et Meta participent à nos réunions, ils nous écoutent, ils sont conscients des enjeux que cela représente pour les éditeurs. Open AI, Perplexity et Anthropic n’y participent pas encore.

Que pensez-vous du Dynamic Content Ledger lancé par Bid Switch (Criteo) ?

C’est intéressant. C’est une nouvelle initiative d'une entreprise parmi de nombreuses autres. Mais ce qui est fondamental c'est que les éditeurs doivent être payés pour l’utilisation de leurs contenus. C’est la priorité.

Agentic RTB Framework Specification (ARTF) v 1.0 est ouvert aux commentaires. Est-ce le moyen de rendre possible l’utilisation d’agents d’IA sur l’achat média programmatique en temps réel ?

L’ARTF est une architecture dite "conteneurisée" qui permet une communication plus rapide et un échange de données plus efficace entre les technologies, ces dernières fonctionnant au sein d’un même serveur. Nous l’avons initiée il y a un an déjà. C’est un moyen de rendre le programmatique plus performant en réduisant le temps nécessaire pour un échange d’informations entre SSP et DSP. Cela devient crucial vu que le nombre d’échanges augmente et que le volume de données sur une seule et même impression est appelé à augmenter. Cela est également fondamental pour éviter tout problème de latence dans le cas d’événements live. En juin dernier nous avons intégré le model contexte protocol (MCP) nativement dans l’ARTF afin de permettre aux agents d’IA de communiquer des informations aux enchères avec un temps de latence minimal. Les modèles d’IA peuvent désormais parler au protocole RTB, c’est juste génial ! Nous créons avec ces containers les fondements d’une interface agentique dans le RTB. Nous prévoyons de prendre en charge le protocole Agent2Agent (A2A) dans le cadre de l’ARTF V2 en 2026.

Pouvez-vous nous dire deux mots sur l’User Context Protocol (UCP) cédé à l’IAB Tech Lab par Liveramp ?

L’UCP est une approche qui nous permettra de gérer la transmission des données d’identité des audiences dans une optique agentique, et merci Liveramp pour cela ! Il est encore tôt pour en dire plus. Nous allons nous investir fortement dans l’UCP en 2026 pour sortir un premier projet de standard au premier trimestre.

Que pensez-vous d’AdCP et pourquoi l’IAB Tech Lab n’y est pas impliqué ?

L’IAB Tech Lab n’a pas été invité à prendre part à AdCP, même si toutes les entreprises qui sont membres de cette initiative sont également membres de l’IAB Tech Lab, à l’exception de Scope3. Cette initiative cherche à tout recréer à partir de zéro, ce qui à notre sens n’est pas nécessaire. Il existe bon nombre de standards qui peuvent être mis à profit comme OpenDirect et AdCOM (Advertising Common Object Model, ndlr). L’IA agentique sera bien sûr d’une grande utilité pour rationaliser le flux de travail de l’industrie, elle améliorera le media planning et la précision avec laquelle les impressions seront sélectionnées et achetées. Mais pour cela, il n’est pas nécessaire de partir de zéro. Pour ce qui est de deals directs, principal objet d’AdCP,  OpenDirect et AdCOM répondent déjà à ce besoin d’automatisation et peuvent servir de base pour l’intégration d’agents d’IA.

Quelle est votre ambition pour 2026 ?

Nous allons investir très lourdement dans l’agentique en 2026, quelque chose comme plusieurs millions de dollars. Notre feuille de route sera très fortement agentique.  Nous avons certes déjà lancé plusieurs initiatives mais le plus important est à venir pour rendre possible une approche agentique de l’achat média en temps réel, de l’achat direct et de la transmission de données sur les audiences. Nous envisageons également de lancer dès 2026 des outils agentiques open source destinés à faciliter la préparation créative et la réconciliation. Rendez-vous en janvier pour en savoir plus !