Référencement par les IA génératives : la course est lancée mais quelles sont les règles ?

Converteo

Le GEO remplace le SEO : être cité par les IA devient clé. Mais opacité, risques de manipulation et dépendance publicitaire exigent transparence, régulation et pratiques éthiques.

Le nouveau graal, si vous cherchez à vendre un produit, un service ou une idée, n'est plus d'être en haut des résultats de Google, mais d'obtenir de ChatGPT ou Mistral que l'IA vous cite dans une conversation avec ses millions d'utilisateurs.

Pour y arriver, certains seront prêts à tout pour percer les secrets des algorithmes d’IA, décrypter leur fonctionnement, et employer toutes sortes de techniques pour être là où l'attention se porte désormais. Ces techniques portent déjà un nom, le Generative Engine Optimization ou GEO, sigle hérité de son ancêtre, le SEO pour "Search Engine Optimisation", l'optimisation des moteurs de recherche.

Après 20 ans de SEO, l'histoire semble en effet se répéter. Occasion et nécessité, selon nous, de tirer les leçons de ce passé récent, du rôle des sociétés qui fabriquent ces technologies et des risques d'abus de ceux qui cherchent à les manipuler à leur profit.

Une mécanique floue 

Reconnaissons d’emblée que nous ne sommes qu’à la préhistoire du GEO. Les grands modèles de langage évoluent à une vitesse vertigineuse et, en quelques semaines, les règles du jeu peuvent être bouleversées. Le récent passage de GPT-4 à GPT-5 qui a entraîné une chute de 52 % du trafic envoyé vers les sites externes en est le parfait exemple.

Le suivi et l’analyse de ce référencement, pierre angulaire de toute stratégie d'optimisation, est extrêmement difficile. Contrairement aux méthodes SEO, qui permettent de suivre des mots-clés précis dans des outils comme la “Search Console”, les LLM ne fournissent actuellement aucune donnée sur les requêtes de leurs utilisateurs. Pire encore : deux utilisateurs posant la même question peuvent obtenir des réponses radicalement différentes. Comment, dans ces conditions, mesurer efficacement sa présence ?

Ce grand flou doit inciter à la prudence. Pourtant, la peur de rater le train en marche est parfois grande et peut pousser à se précipiter, à "faire du GEO" à tout prix, quitte à oublier quelques leçons d’un passé pourtant bien récent.

20 ans d’optimisation web remis en question

Avant d’adopter une position plus constructive vis-à-vis des marques et experts cherchant à améliorer leur présence dans les résultats de son moteur de recherche, Google a longtemps refusé d’admettre qu’il était seulement possible de déployer des techniques d’optimisation, allant jusqu’à refuser d’employer le terme même de “SEO” dans toutes ses communications quand le marché n’avait que ses trois lettres en tête : sa technologie était neutre, les contenus les plus pertinents étaient en tête des résultats, circulez.

Cette posture a duré... jusqu'à ce que la réalité rattrape le discours. Les techniques d’optimisation, certaines vertueuses, d'autres agressives et toxiques, permettaient bel et bien de remonter tout en haut. Il a fallu une pression juridique et réglementaire pour que la firme de Moutain View finisse par ouvrir, partiellement, son "capot", clarifie certaines règles et contribue à faire un peu le ménage, distinguant la bonne optimisation de la recherche de manipulation.

Si les moteurs de recherche traditionnels continuent de générer en 2025 le plus gros du trafic comparé aux grands modèles de langage, ces nouvelles portes d’entrée par l’IA pourraient provoquer, selon Gartner, une baisse de 25 % du trafic des moteurs de recherche d’ici à 2026 seulement. 

La machine est lancée, et semble prendre un chemin trop bien connu fait de publicités intégrées aux résultats et d’absence de transparence sur le fonctionnement de l’algorithme. 

« Ces outils-là, il n’y en a pas des milliers, [ils] ont un pouvoir extrêmement important sur la manière dont les gens vont s'informer, consommer, se former un esprit critique », reconnaît Audrey Herblin-Stoop, directrice de la communication de Mistral AI, interviewée dans le podcast Changement d’époque en cours. « C'est très important qu'on regarde l'évolution des agents conversationnels et qu'on y mette davantage de transparence, de respect de la vie privée et d'outils de choix pour les gens qui les utilisent » expliquait-elle.

Comment croire, en effet, demain, à la neutralité des échanges avec une IA, quand la publicité est à leur porte, ou quand des manipulations via l'injection massive de contenu généré par d’autres IA est déjà avérée ?

Au-delà de Google, l'expérience Booking.com est instructive : pendant des années, la plateforme a pu classer les hôtels selon des critères opaques, privilégiant les hôtels aux plus fortes commissions plutôt que les meilleurs prix absolus. Il a fallu, là aussi, une réglementation européenne pour imposer plus de transparence

Les fournisseurs de plateformes LLM prendront-ils les devants ou attendront-ils d'y être contraints ?

Des paramètres changeants et des efforts pouvant être réduits à néant 

Le scénario le plus redouté est celui d’une forme de chantage à la publicité : "Votre audience s'effondre ? Payez pour rester visible”, le modèle bien connu du gratuit devenant payant une fois l'addiction installée. Aux États-Unis, les premières alertes émergent : certains éditeurs de logiciels SaaS commencent à signaler des baisses significatives de trafic web, pouvant aller jusqu'à 75 %, soulevant des inquiétudes légitimes sur leurs modèles d'acquisition. Mais combien de temps avant que ces mêmes entreprises ne se voient proposer des solutions payantes pour remédier au problème créé par les fournisseurs de LLM eux-mêmes ?

Cette perspective soulève des questions plus fondamentales : qui hiérarchise l'information ? Qui décide de ce qui est pertinent ? Comment garantir que les contenus fournis par une technologie ne soient pas sous influence ? Et au milieu de tout cela : comment les marques ou les individus peuvent-ils s'assurer que ce qui est dit sur eux soit juste et ne fasse pas l’objet de manipulation ?

Construire des garde-fous pour éviter les dérives du passé

Face à cette situation, trois typologies d’acteurs doivent prendre leurs responsabilités :

  1. Les éditeurs de LLM (OpenAI, Anthropic, Mistral, Google...) doivent anticiper et proposer dès à présent des outils et méthodes de nature à créer de la transparence, installer des garde-fous, pour préserver l'équilibre entre leurs intérêts légitimes et ceux de l'écosystème de l’information. Une grande partie de l'avenir du web en dépend.
  2. Les régulateurs doivent agir rapidement. Le Digital Services Act européen offre un cadre, mais il faut aller plus loin : imposer la transparence sur les critères de recommandation, garantir un droit de regard et de rectification pour les marques et les citoyens, et enfin anticiper les dérives avant qu'il ne soit trop tard.
  3. Les acteurs du marché de la publicité et de la recommandation numérique (annonceurs, agences, cabinets de conseil) doivent adopter une posture éthique au moment d’accompagner leurs clients sur ces nouveaux territoires. Oui, il faut tester, apprendre, optimiser, mais pas à n'importe quel prix. Il est nécessaire d’établir collectivement les pratiques acceptables et les distinguer des manipulations toxiques.

L'émergence du GEO peut devenir une opportunité de construire, dès maintenant, un écosystème plus vertueux, plus transparent. Mais cette opportunité ne se concrétisera que si l’ensemble des parties prenantes tirent les leçons du passé, se parlent et agissent ensemble.

Nous défendons une vision éthique dans laquelle la fin ne justifie pas tous les moyens, et où les techniques émergentes du GEO dessinent aussi le futur de l'accès à l'information.  Saisissons cette chance de faire les choses bien, collectivement.