Le traitement du signal au secours de la sémantique

Comment fonctionnent les outils dit "sémantiques" et que peuvent-ils vous apporter ? Avantages et inconvénients de l'optimisation des textes via un enrichissement.

Qu'est-ce au juste que la "sémantique" dont vous entendez beaucoup parler en ce moment dans le milieu SEO ?

En fait, la communauté SEO n'avait peut-être pas de meilleur candidat que ce terme pour parler de l'enrichissement d'un texte. Toutefois, en réalité, les SEO essayent non pas d'apporter du sens à un texte, mais de faire en sorte que Google le reconnaisse comme "en phase" avec certaines requêtes d'internaute. Il vous faut garder cela à l'esprit pour bien comprendre ce que peuvent vous apporter les outils disponibles sur le marché.

Pour Google, il suffit que le texte ressemble à un texte "pertinent". De toute façon, chaque internaute y va ensuite de sa sensibilité pour interagir avec le texte…

Toujours du côté moteur, le profilage des internautes est limité par ce que ceux-ci pensent vraiment de votre texte, de ce qu'ils étaient venus y trouver et de ce qu'ils lisent en général sur le sujet. Si un moteur peut "analyser" les actions-réactions, les motivations humaines profondes sont bien plus abstraites pour lui.

Nous sommes donc bien au niveau de la forme et pas du fond.
Que faire alors pour montrer à Google que vous êtes en phase avec l'internaute que vous souhaitez toucher ?

Vous passez parfois par des outils qui regardent quels autres termes sont utilisés, statistiquement, dans un ensemble de pages répondant à la requête. Nous parlons alors de "sac de mots"… Vous devrez donc ajouter quelques-uns de ces mots à votre texte si celui-ci ne les a pas déjà.

La faiblesse de la démarche est que ces outils regardent un ensemble de pages comme un tout et que dans le "tout" peuvent se trouver des pages qui se contredisent entre elles, qui parlent de toute autre chose, etc. 

La perception de Google étant sur la forme, même en effectuant une sélection soignée parmi les termes proposés, rien ne dit que votre sélection, faite avec votre raison et donc sur le fond, corresponde à ce que Google cherche à trouver sur la forme dans votre page…

De plus, cela peut enfermer votre page dans l'approximation actuelle de la SERP et ce n'est pas en principe ce que vous voulez. Vous ne voulez pas d'une page qui représente bien la moyenne des pages, mais d'une page qui soit la meilleure.

D'autres démarches existent. Vous pouvez aussi vous servir de champs lexicaux, LSI et consorts. 

Tous ces outils peuvent donner des idées de rédaction, et ce n'est pas si mal que ça. Mais cela n'a pas grand-chose à voir avec le SEO  (ce qui ne veut pas dire que rafraîchir le contenu de sa page sera sans effet). Pour aider le SEO, certains outils vous poussent à la suroptimisation, particulièrement sur la requête principale. Il faudra donc garder son jugement et se montrer prudent, car ce n'est plus de la sémantique, mais du Keyword Stuffing. A contrario, YourText.Guru à ce niveau est très respectueux de la survie de votre page dans le temps, et c'est bien. Par ailleurs, côté techno, YTG va plus loin que les outils classiques en travaillant avec les vecteurs de contexte.

Le traitement du signal, une autre approche

Il s'agit d'un modèle de résolution et non pas d'une réalité physique. L'implémentation du modèle a été réalisée en logique floue.

Il est possible de comparer les termes importants d'une page à ce qui est nommé parfois les "éléments du discours". Quand nous examinons ces "éléments du discours" sur plusieurs pages, nous pouvons voir si un signal passe d'une page à l'autre au sein d'une même SERP. Comment ces éléments se déforment-ils ? Comment se propagent-ils ? Quels sont les éléments qui changent et de quelle façon ? Quels effets sur le positionnement ? etc.

Dans cette approche, nous allons chercher à trouver quelles lexies précises devraient contenir la page idéale. Par définition, cette page idéale n'existe pas encore, mais nous allons essayer de la prédire. Si nous y arrivons, cela vous donnera une longueur d'avance… 

Sans entrer dans les détails, nous traçons des chemins à l'intérieur du corpus pour trouver des singularités qui serviront aux prédictions. Par filtrages successifs, l'intention dominante de la SERP est isolée et il ne s'agit donc plus de la somme de toutes les intentions comme avec les outils classiques.

Vous gagnerez à donner au système non pas juste une expression-clé, mais une formulation plus "française" de celle-ci. Le résultat est une suite de lexies plus ou moins "certaines" dans la détermination du signal "idéal".

Nous les classons dans 3 catégories : - lexies omniprésentes,  - lexies déterminantes,  - autres lexies. 

Les lexies déterminantes ont le rôle le plus important dans le signal ; elles sont à la fois presque "certaines", mais "non trouvées ensemble" dans les pages actuelles. Le moteur va sans doute parier sur la coexistence de ces lexies précises…

Pour vous cela ne change rien puisque de toute façon, toutes les lexies du metamot doivent être utilisées, mais le nombre de lexies déterminantes permet de savoir, par exemple, si le sujet de la page est bien formulé (partant du principe que c'est le sujet qui a été donné au système pour le calcul).

Nous avons nommé ce signal "metamot"*, car il s'agit d'un mot constitué de plusieurs mots (lexies), où tous doivent être utilisés. Par l'utilisation simultanée de toutes les lexies du metamot, le signal envoyé est significatif et permet de construire du maillage interne par propagation du signal trouvé. Il est aussi très facile de concevoir des cocons "sémantiques" basés sur ce même signal.

*Vous trouverez les metamots sur cocon.se
Conclusion

L'enrichissement des textes n'en est qu'à ses débuts et de nombreuses avancées sont à attendre du travail fait par les uns et par les autres. Le temps où nous parlions de sémantique consistait à utiliser des synonymes du mot-clé principal est à présent révolu… C'est plutôt bien, non ?