Paul-Antoine Strullu (Scope3) "L'IA agentique dans l'achat média n'implique pas de changer les tuyaux et l'infrastructure"

Paul-Antoine Strullu, head of EMEA chez Scope3, reconnait en revanche que l'essor des agents IA dans le ciblage pourra favoriser l'émergence de chemins beaucoup plus directs entre les annonceurs et les éditeurs.

JDN. Scope3 accélère sur l'achat média agentique en annonçant une solution de ciblage peu de temps après la brand safety et suitability. Avez-vous mesuré les résultats de vos solutions ?

Paul-Antoine Strullu est head of EMEA chez Scope3. © Scope3

Paul-Antoine Strullu. Nous menons en ce moment même des tests sur l'open web, sur la catégorie news notamment, et sur les réseaux sociaux avec des clients qui ont des campagnes live aux Etats-Unis. Nous observons les résultats pour le volet brand safety et suitability et cela marche (les premiers résultats seront présentés au marché prochainement, ndlr). Cela nous paraît tenable également d'un point de vue écologique et financier. Car se pose également la question du coût de ces modèles et de notre capacité à industrialiser cette solution. Dès le deuxième semestre, nous pourrons dévoiler aussi les résultats de la solution Brand Stories, qui se concentre sur le ciblage des campagnes. Mais ce qui est sûr, c'est que les décisions d'achat qui seront prises avec l'IA agentique ne seront plus les mêmes. Il y aura un autre avantage majeur : ramener le langage à la réalité des annonceurs en le rendant moins technique.

Dans le cas des réseaux sociaux, le sentiment du marché c'est que le choix des inventaires à exclure se fait sans transparence, c'est un peu black box sur la base de mots et de catégories supprimés du ciblage de manière un peu arbitraire. Grâce à l'IA, nous voulons offrir un cadre de transparence des décisions prises : si c'est un agent IA qui prend cette décision, on peut ouvrir le capot et montrer comment il l'a fait. Par ailleurs, sur Meta précisément, on pourra aller plus loin de la simple vérification pour véritablement bloquer les contenus qui ne correspondent pas aux critères.

Comment procédez-vous ?

L'acheteur média soumet aux LLM son prompt, dans lequel il fixe ses critères en langage naturel. Et c'est ce même moteur d'IA qui se chargera de faire le tri en analysant les contenus en ligne, leur granularité et leur ton. Dans le cas de la brand safety et suitability, qui sont les premiers cas d'usage que nous avons lancés, en mars dernier, cela permet de ne plus se limiter aux listes d'exclusion de mots-clés et de catégories de contenus. Ces dernières sont très figées et ont atteint leur limite, causant aux publishers d'importants manques à gagner. Les LLM ont une capacité de compréhension qui dépasse de loin ce à quoi les annonceurs avaient accès jusqu'à présent. Prenons l'exemple du mot-clé "eau". Au lieu de le bloquer, l'annonceur pourra demander à l'IA d'afficher sa campagne uniquement auprès de contenus qui traitent de ce sujet de manière positive et constructive.

Dans le cas du ciblage, le media trader nourrit d'abord le LLM avec des éléments sur la marque, ses objectifs, les contenus qui s'alignent, etc. Une phase d'échange entre le LLM et le trader permet de définir le meilleur plan. Le LLM se charge ensuite du reste.

Et concernant votre intégration à l'écosystème des plateformes publicitaires ? Comptez-vous à terme vous substituer à certains maillions de cet écosystème ?

Les outils qui sont mis à disposition des professionnels de l'achat média changent parce qu'ils sont désormais basés sur les LLM. Mais ce n'est pas parce qu'on change le cerveau et la décision prise que l'on change la structure. Il s'agit toujours de pousser les segments choisis dans les plateformes publicitaires. Nous ne sommes ni SSP ni DSP. Nous sommes intégrés à tout cet écosystème. Et nous pensons que l'avènement de l'agentique dans l'achat média n'implique pas de changer les tuyaux et l'infrastructure.

Mais en prenant des décisions d'achat, les LLM ne se substituent-ils pas un peu aux fonctionnalités des DSP ?

Ils remplacent en effet une partie du câblage et des logiques des DSP. Mais les DSP avec lesquelles nous sommes intégrés ne sont pas contre ces logiques, de la même manière qu'elles ont accepté par le passé de s'intégrer à des entreprises de machine learning qui venaient ajouter une couche d'intelligence au bidding, comme Scibids. Nous vivons une formidable vague d'innovations et d'autres sociétés feront de même.

Ceci étant, demain, pourquoi rester figé dans la structure actuelle ? Vu qu'Internet est en train de changer, pourquoi ne pas aller réserver sa campagne directement dans l'ad server de l'éditeur ? Aujourd'hui, les éditeurs réfléchissent déjà à des contenus qui soient d'une meilleure compréhension par les agents d'IA. Si la demande augmente, rien n'empêche que l'écosystème dans son ensemble évolue dans cette direction.

On peut aussi imaginer que cela se fasse en dehors du programmatique (en "nogrammatique"). Le bidding et les protocoles n'ont pas résolu toutes les difficultés et les challenges de ce marché. Demain on peut très bien imaginer que l'IAB Tech Lab propose un nouveau protocole, différent du RTB.

La pub ne risque-t-elle pas de migrer vers les LLM directement au lieu de se placer chez les publishers ?

Cette histoire n'est pas encore écrite. Il est encore tôt pour connaître vers quel modèle se dirige le marché. Scope3 lance des solutions au même rythme des évolutions de l'IA. Et l'univers de la communication et du marketing doit lui aussi s'emparer du sujet. Aux Etats-Unis, d'autres start-up proposent des solutions d'IA agentique appliquées au media trading. L'IA et Internet fusionnent. On ne peut plus séparer l'un de l'autre et cela s'applique aussi à l'achat média qui doit se réinventer. C'est ce que nous nous efforçons de faire.