SEO : 5 utilisations d'agents IA par les référenceurs français
Les agents IA prennent de plus en plus de place chez les SEO. Leurs intérêts sont multiples. Ils peuvent gérer des tâches chronophages, comme lister des éléments d’après des critères précis dans une large liste. Ils peuvent résoudre des problèmes complexes, comme la détection statistique d’anomalies pour identifier des variations inhabituelles. Ils sont aussi censés s’améliorer avec le temps, grâce à leur capacité d’apprentissage.
De l’artisanal par défaut
Pour faire face à leurs différents besoins, les SEO ont développé des outils spécifiques. "Ce que je vois de plus en plus, ce sont des agents réalisés par des équipes pour des besoins spécifiques", confie Sylvain Peyronnet, cofondateur de Babbar.tech. "Il y a d'ailleurs de plus en plus d'entreprises qui se lancent dans le métier de réalisation de tels systèmes, en partie à défaut de produits réalisés en série. On trouve en revanche des modèles (Claude, ChatGPT), des outils plus ou moins IA (Jasper, Surfer SEO, YourTextGuru, etc.) et des frameworks pour automatiser et qui parfois vont être agentiques (Zapier, n8n, Make, Draft&Goal, etc.)." Le but est d’avoir une structure stable et pertinente. Notons que, pour bien fonctionner, les agents IA reposent généralement sur trois modules interconnectés. Celui lié à la perception fonctionne comme les "sens" des agents. Celui attaché au raisonnement dissèque et interprète les données collectées par le module précédent. Enfin, le module d’action sert de hub d'exécution. "Un agent, c'est techniquement du code qui va agir de manière autonome, avec une boucle analyse-décision-exécution-ajustement", résume Sylvain Peyronnet.
1. Rechercher
Créé par les équipes de Sylvain Peyronnet, l’agent IA de link building autonome se sert des données de la Google Search Console. "Il va chercher les mots-clés émergents du site analysé. Il regarde les backlinks des concurrents. Ensuite, il va aller voir parmi ces liens ceux qui sont achetables. L’agent fabrique alors la liste de ceux à acheter. Il recherche également ceux qui semblent accessibles via une discussion par mail. Il envoie alors le premier mail. Attention cependant, prévient Sylvain Peyronnet, car "la principale limite réside dans l'accès aux bases des plateformes, mais la gestion des séquences mails est également problématique. Et il y a un fort risque de spam sur le volume."
2. Contrôler
Un autre exemple concerne un ensemble d'agents qui tournent en continu pour alerter sur les régressions SEO d'un site web volumineux. "Ils vont regarder la Search Console pour les critères techniques, d'autres les backlinks, d'autres encore le trafic", explique Sylvain Peyronnet. "Les informations qu'ils remontent de manière asynchrone sont reprises par un agent "chef" qui va créer une synthèse et l'envoyer aux parties prenantes. Il prend parfois la décision d'alerter les bonnes personnes très rapidement." Si le travail est bien fait, l’agent peut même préconiser des solutions. Par exemple, en vérifiant de manière autonome tous les critères Discover en cas de disparition d'une partie du trafic venant de cette source. Cependant, des dispositions sont à prendre pour le bon fonctionnement de cet ensemble. "Sur ce type de d'agents, les problématiques sont techniques, mais aussi organisationnelles : qui est la bonne partie prenante que dois contacter l'agent ? On passe souvent sous silence ce dernier point, mais un agent qui réalise des tâches pour une entreprise s'inscrit dans la communication entre parties prenantes. Cela doit être pensé, au même titre qu'on penserait à comment un salarié interagit avec ses collègues."
3. Acheter
Autre cas d’usage, raconté par Jérémy Lacoste, directeur général chez Eskimoz France : la création d’agents autonomes permettant l'achat en 3 clics sur un spot. Pour cela, l’agent analyse l'autorité de domaine du top 10 d’une bibliothèque de liens thématiques sur un mot-clé donné. Il calcule un score maison, provenant de l’agrégation d’une dizaine de variables (trafic, Domain Rating, notation de domaine, Trust Flow, Citation Flow, récence...). Puis il se connecte à certains fournisseurs leaders de backlinks, via une API. En plus du temps économisé, l'agent permet aussi une baisse constatée en moyenne de 15 % des budgets netlinking. "Au niveau limite, nous ne sommes pas encore connectés à l'ensemble des places de marché", confie Jérémy Lacoste.
4. Avertir
Pour le suivi et la notification de positions, des agents sont aussi mis en place chez Eskimoz. Leur but, créer des alertes dans leur application mobile ou envoyer un email. Dans ce sens, sont installées des balises des tops mots-clés ou des tracker sur l'architecture technique du site. "Ensuite, pour densifier nos analyses, nous intégrons également des MCP d'outils du marché, de type Semrush, Ahrefs ou SimilarWeb", détaille Jérémy Lacoste. Des API d'outils, comme DataForSEO et SerpAPI, leur fournissent aussi de la data. Au niveau de l’instruction à suivre, la règle donnée à l’agent IA est : "Crée une alerte s’il y a une baisse de X position sur tel mot-clé". "Tout est évidemment customisable", précise Jérémy Lacoste. "Il existe parfois la tentation par certains clients de mettre en place trop d'alerting, ce qui devient difficilement pilotable. Quelle bonne décision prendre si on reçoit quotidiennement un certain nombre d’alertes ? Il vaut mieux choisir ses combats."
5. Analyser
Des GPTs personnalisés peuvent aussi être mis en place. C’est ce qu’a réalisé Philippe Laine, consultant SEO et GEO chez Wizenco. "J’en teste certains, comme SEO Assist | SEO GPT | SEO CORE AI, ou Quality Raters SEO Guide", révèle-t-il. "Mais surtout, je crée mes propres GPTs pour chaque client, en fonction de son secteur et de ses problématiques. Je ne traite pas le SEO d'un jeu vidéo à l'international comme celui d'un marathon à Montpellier." Notons que des soucis peuvent surgir, comme le manque de données en temps réel et de métriques SEO, ou des problèmes d’hallucinations.