NLP & Programmatique : le duo gagnant du ciblage sémantique

Les différentes évolutions du marché de la programmatique poussent à considérer des alternatives aux méthodes de ciblage utilisées jusqu'à maintenant. Parmi ces alternatives, la NLP apporte au ciblage contextuel la précision et la granularité qui lui manquait jusqu'à maintenant.

Tout d'abord, qu'est-ce que la NLP ? Non ce n’est pas l’abréviation anglaise de la programmation neuro-linguistique, et bien que la règle du sigle en 3 lettres soit respectée, le NLP ne devrait pas non plus chercher à concurrencer les MHD, SCH ou autres PNL au sommet des top 50 Spotify. Le NLP – pour Natural Language Processing – c’est le traitement automatique du langage naturel, une branche de l’intelligence artificielle visant à faire lire et comprendre le langage humain à l’ordinateur. Ce domaine a de nombreuses applications :  que ce soit les chatbots, les call centers automatisés, l’outil de traduction Google Translate ou bien les assistants personnels comme Siri ou Alexa, tous utilisent différentes techniques du Natural Language Processing. Chez Qwarry, nous appliquons cette discipline au ciblage publicitaire : tout notre travail est de faire comprendre à nos algorithmes le contenu mais aussi le sentiment de chaque page sur laquelle nous pouvons afficher des publicités, afin de diffuser le message publicitaire de nos annonceurs dans des contextes affinitaires et brand-safe.

C’est toutefois une tâche difficile que de faire comprendre à la machine la complexité du langage humain. C’est pourquoi pendant les décennies qui ont suivi l’apparition du concept d’intelligence artificielle - suite aux travaux d’Alan Turing dans les années 1950 - le domaine a lentement progressé. Dès 1948, Turing avait eu l’intuition des réseaux de neurones, une forme d’algorithme qui - en s’inspirant du fonctionnement des neurones biologiques - est en mesure de résoudre des problèmes mathématiques. Il a fallu attendre les années 1980 pour que soit utilisée la descente de gradient permettant l’entraînement des réseaux de neurones. Dix ans plus tard Yann LeCun applique cette technique à la reconnaissance de documents, marquant ainsi la première application fonctionnelle et performante des réseaux neuronaux. Enfin, en 2006 débutent les entraînements de réseaux neuronaux sur GPU : les capacités de calcul du processeur graphique, bien supérieures à celles des processeurs classiques (CPU), permettent enfin de répondre aux besoins des réseaux neuronaux, notamment le traitement de grandes quantités de données nécessaire à un apprentissage efficace.

Après quelques années, les réseaux de neurones démontrent leur efficacité et se démocratisent, faisant ainsi passer le Deep-learning de concept théorique à réalité technologique. Il aura donc fallu près de 60 ans entre la définition de ce concept par Alan Turing et son utilisation quotidienne. Aujourd’hui le NLP comprend une pléthore de techniques : traduction automatique, analyse syntaxique, correction orthographique, reconnaissance automatique de la parole… qui permettent de répondre à une multitude de besoins.

Le programmatique est un des domaines qui pourraient le plus bénéficier des avancées de du NLP. Différents éléments – que ce soient les directives européennes dont découlent les récentes recommandations de la CNIL, ou bien les prises de position des GAFA et des différents navigateurs internet - convergent vers la même finalité : la disparition progressive des cookies et des traqueurs publicitaires tels que nous les avons connus jusque-là. Des voix s’élèvent d’ailleurs face à ces tendances, considérant qu’elles ne feront que renforcer les GAFA et vont marquer la fin de l’internet « gratuit » tel qu’on le connait, puisque les éditeurs vont perdre avec les cookies leur principal apport de revenus.

Cette vision est toutefois alarmiste et principalement défendue par des entreprises dont l’activité dépend aujourd’hui des cookies : on est donc en droit de se demander si ces critiques sont sincères ou bien si elles sont un refus déguisé de s’adapter aux changements du marché. Car ces changements sont avant tout un défi excitant pour les acteurs de l’Adtech : trouver de nouvelles solutions permettant de combiner pertinence du ciblage et respect de la vie privée des internautes.  Le NLP, qui apporte une dimension supplémentaire au ciblage publicitaire en y associant une compréhension du contenu de la page mais aussi du sentiment associé à ce contenu, est une de ces alternatives. Cela présente une granularité plus importante qui dépasse le simple keywording ou le ciblage contextuel, souvent généraliste et manquant de précision. Le NLP, en contextualisant les intérêts des internautes, permet d’œuvrer à la construction d’un écosystème publicitaire plus viable et durable, réconciliant performance et expérience utilisateur en respectant les données privées de chaque internaute.