Ere Post Cookies Tiers : réinventer la chaine de valeur

A l'heure où l'économie mondiale doit faire face à des événements inattendus et dont l'ampleur n'avait été anticipée par personne, depuis deux ans, l'écosystème du marketing digital est confronté à plusieurs défis qui l'obligent à se transformer en profondeur.

D’abord avec le Règlement Général sur la Protection des Données et les législations comparables adoptées à travers le monde et qui constituent une véritable lame de fond visant à protéger les données personnelles des internautes et les usages qui en sont faits. Et dans un futur proche, avec la quasi-disparition des cookies tiers alors qu’ils sont la matière première indispensable sur laquelle s’appuient les technologies de centaines de sociétés et qu’ils sont devenus une catégorie de donnée personnelle. Comment survivre dans cette nouvelle ère sans cookie tiers ? Cela signifie-t-il que les navigateurs pourraient être les seuls à tirer leur épingle du jeu ? Car, il faut bien préciser que les cookies tiers vont en partie disparaître mais pas les cookies 1st-party, c’est-à-dire ceux attachés à un seul domaine/éditeur.

Dans ce contexte, deux approches diamétralement opposées se font face :

Si les cookies tiers ne peuvent plus être exploités à une large échelle, les options pour diffuser de la publicité ciblée paraissent se réduire drastiquement et la publicité contextuelle, diffusée sur des sites ou des pages en fonction des types de contenus ou des profils supposés des internautes, semble dès lors avantagée. La publicité peut être également basée sur des cohortes, c’est-à-dire des groupes d’internautes créés en fonction de leur activité en ligne. Dans le « cas du contextuel », les techniques de diffusion telles que celles utilisées avant le lancement de la technologie programmatique peuvent redevenir la norme; les « deals directs » entre des éditeurs catégorisés comme étant référents et les annonceurs seraient alors favorisés. Dans le « cas des cohortes », c’est le navigateur qui déciderait des règles de classification des internautes et les mettrait à disposition de l’industrie. Si la volumétrie augmente, les entreprises adtechs ne peuvent plus se différencier par leur savoir-faire puisqu’aucun ciblage précis en temps réel n’est possible. Cela fait courir le risque d’un détournement de la valeur et d’une précarisation d’une large majorité d’acteurs au profit de quelques-uns.

La seconde approche consiste à créer une relation unique avec l’internaute. Cet internaute crée un identifiant unique associé à un cookie first party. C’est déjà le cas des réseaux sociaux qui vendent l'accès à une audience qualifiée. Mais dans l’ère post cookies tiers, si ce même internaute accepte le partage de ses données personnelles selon les règles du RGPD, sa donnée prend une valeur maximale et les réseaux sociaux voient leur position dominante se renforcer d’autant plus. 

Quelles alternatives pour créer un écosystème sûr pour les internautes et, en même temps, plus équilibré et juste pour les éditeurs, les annonceurs et leurs partenaires adtech ?

Tout d’abord, continuer à fédérer autour d’initiatives d’autorégulation de l’industrie elle-même : ce fut le cas pour le « Transparency and Consent Framework » de l’IAB Europe dès 2018 pour répondre à l‘enjeu du RGPD. Aujourd’hui les discussions des membres de l’IAB ont donné naissance au projet Rearc. Il s’agit de construire un nouveau standard qui permettrait de continuer à opérer efficacement en l’absence de cookies tiers sans pour autant privilégier les seuls acteurs ayant une relation directe avec les internautes ou ceux ayant déjà une position dominante dans l’écosystème digital.

Plusieurs pistes sont évoquées, dont celle d’un « universal ID » mais qu’est-ce qu’un cookie tiers si ce n’est un identifiant universel ? Dans ce contexte, si protecteurs des données personnelles s’opposent aujourd’hui aux cookies tiers, comment pourraient-ils accepter le concept d’un « universal ID »? Serait-il plus probable d’envisager plusieurs identifiants, aucun n’étant lui-même « universel ». 

Un second enjeu réside dans la capacité à relier différents identifiants. Les acteurs déjà spécialisés dans les technologies de « mapping » pourront mettre à profit leur savoir-faire pour mener à bien ces opérations permettant de réconcilier des audiences, le cas échéant.  L’ensemble donnant naissance à de la donnée déterministe, c’est-à-dire qualifiée, connue, identifiée.

Mais à l’échelle du web, cette donnée restera limitée et extrêmement minoritaire.

Une solution pour augmenter le volume de données exploitables réside dans la capacité d’extrapoler de façon pertinente les caractéristiques d’une audience connue mais limitée pour trouver une audience ayant les mêmes caractéristiques mais à une échelle bien plus large. Ce sont des technologies d’intelligence artificielle qui permettent de créer de la donnée probabiliste. Seuls quelques acteurs sont aujourd’hui en capacité de réaliser de telles opérations et ils vont devoir continuer à innover et à complexifier leurs modèles pour répondre à ce nouvel enjeu.

La combinaison de données déterministe et probabiliste paraît indispensable pour permettre aux annonceurs de continuer à diffuser des campagnes pertinentes à une large échelle. Cependant, beaucoup de sociétés dépendront du consentement explicite de l’internaute pour réaliser ces opérations. La « brique » du consentement selon les règles du RGPD continuera à être l’une des conditions préalables à tout traitement impliquant des données personnelles et les outils de gestion du consentement, ou CMPs, sont des acteurs qui joueront probablement un rôle primordial dans les mois à venir.

La capacité à être présent aux différentes étapes d’une nouvelle chaîne de valeur sera un avantage concurrentiel certain et, même si l’équation n’est pas simple dans cette ère post cookies tiers, c’est une réelle opportunité pour les acteurs qui sauront innover, se réinventer, créer ou renforcer les liens avec les internautes.