Amplification de la puissance naturelle d'un site, étape 1

Comment concevoir ou réparer un site pour lui donner un socle SEO solide ?

Cette chronique fait suite à la précédente " Quel trafic obtenir, avec la sémantique SEO, sur une thématique concurrentielle ? ".
Je vous propose d’entrer davantage dans le détail du point 1 de ladite chronique. Il concernait les causes possibles des fuites de « jus » de votre site web. Un grand nombre de questions me sont parvenues. J’ai décidé, finalement, de décrire les causes les plus courantes rencontrées.
Du même coup, vous pouvez voir cette chronique comme un guide. Propriétaire d’un site ou agence web, vous êtes concerné.Via la search console, Google vous envoie souvent des signalements d’erreurs. Ces anomalies se cantonnent aux pages 404, à la compatibilité mobile, problèmes de données structurées, etc. Ces points sont importants, certes. Vous devez effectivement les corriger dès que vous en avez connaissance.Pour autant, ce ne sont pas les seuls. Il y en a d’autres, tout aussi cruciaux. Mais si vous décidez de gaspiller votre site, Google s’en fout. Enfin, pas tout à fait. Il en profitera pour vous pénaliser via des positions parfois déplorables. Vous serez sanctionné malgré tout le travail éditorial que vous aurez fourni…
Pourtant, un site avec un socle fait « dans les règles de l’art » peut changer beaucoup de choses. 
Sans faire offense aux agences web, les sites livrés ne sont généralement pas compatibles SEO. Ils ne sont pas armés pour aller se bagarrer en haut des SERPS.
Pour faire monter le site, le référenceur devra développer un netlinking très offensif. Google finira, à un moment ou à un autre, par le dégager…
Il y a la publicité oui. Dans ce cas, vous redonnez sans cesse votre chiffre d’affaires à Google. À quoi bon avoir un site, alors ?Objectif : boucher les fuites et autres gaspillages. Le but est que votre site devienne un amplificateur naturel de son propre jus.
Explications du phénomène :
Ce qui suit est valable pour la sémantique seule, le netlinking ou les deux. Un site qui fuit de partout gâchera une grande partie du travail SEO.Votre portefeuille s’en ressentira tout autant que votre site.Ainsi, si vous arrosez une de vos pages de liens, seule cette page y gagnera. Je ne vous recommande pas cela à haute dose. En effet, le jus se diffusera plutôt mal dans le reste du site. 
Seule la page ciblée montera. Un site étanche, au contraire, permettra de faire mieux circuler le « jus » dans le site. Il produira son effet de page en page. D’une part, vous ne perdrez pas le jus reçu. D’autre part, il pourra circuler sur le site et ainsi se renforcer. Vous êtes alors deux fois gagnant.Ce principe de base en SEO n’a pas changé. Plus le jus circule dans votre site, plus ce dernier va s’amplifier.
De quel jus parlons-nous ?
Vocabulaire : jus = puissance transmise passant via les liens de page en page. Dans l’idée de départ, le jus est un transfert de popularité.Le jus transmissible par une page est plus ou moins plafonné. Il dépend de la puissance de celle-ci.Un signal est émis chaque fois qu’une page fait un lien vers une autre. La première donne du crédit, de la valeur à la seconde. Ce don n’engendre aucune perte pour autant. Nous pouvons dire la chose suivante. Un lien génère de la puissance, mais sans en prélever à la page le faisant.
Vous allez penser que c’est curieux. En réalité, cette « puissance » est représentative du succès supposé d’une page. C’est une sorte de probabilité de la trouver sur le web.Une page populaire fait un lien vers une autre page. Elle va donc faire bénéficier cette dernière de sa popularité. 
Pourquoi perdrait-elle alors la sienne ? Elle ne fait qu’indiquer au lecteur qu’il peut compléter son parcours. Cette nouvelle page est indubitablement dans le prolongement de celle qu’il vient de lire.
Ce phénomène de transmission de popularité explique le mécanisme d’amplification sans lien extérieur. Un site peut accroître sa visibilité sans autre recours que le maillage interne.
  1. De nombreuses pages en cascade se transmettent du jus au sein d’un site. 
  2. Ces mêmes pages refont ensuite un lien vers la page de départ.
  3. Alors, cette page va recevoir une popularité supplémentaire à celle qu’elle avait déjà. C’est ainsi que nous constatons, au final, une amplification. Cela n’a rien de magique. Ce phénomène se rapproche de l’engouement humain !
Ne rêvez pas toutefois. Ce phénomène finit par se tasser, car sinon l’amplification serait infinie. En pratique, cette dernière se calme après une quarantaine d’itérations. Itération correspond, ici, au suivi du lien par notre ami Google.
Si un internaute n’a aucune raison de cliquer sur un lien, car nous ne lui avons rien promis, alors pourquoi transmettre de la popularité ? Il en est de même si nous lui avons promis quelque chose et que la promesse n'est pas tenue. C’est pour mimer ce comportement humain de transmission de popularité que Google a implémenté de la prédiction dans la valeur des liens.
Jadis, cela se faisait via des « ancres exactes », mais celles-ci ne sont plus très actives en maillage interne, Google en veut davantage.En fait, cliquer sur un mot ne dit rien de la raison qui vous pousse à le faire…
Vous comprenez pourquoi j’affirme que la seule sémantique qui vaille la peine d’être travaillée sur un site est la sémantique prédictive. Il faut être capable de faire une promesse au moteur et être capable de la tenir. Bien sûr, cette promesse dérive du comportement des internautes, du moins de ce que Google en comprend.
Pourquoi Google fait-il cela seulement maintenant ? En fait, il a commencé il y a quelques années, mais en y allant doucement afin de ne pas tout écrouler. C’est grâce notamment au déploiement du machine-learning qu’il a pu élaborer son système. 
(Note : j’ai réussi à prendre de vitesse Mr Google. En effet, ma propriété intellectuelle sur les metamots précède de quelques mois la publication des brevets de Google sur les vecteurs de contexte. Tel est pris qui croyait prendre.)
Passons au concret maintenant
Il va falloir s’attaquer à 2 types de problèmes :Type 1 : Des liens faits à tort et à travers; il va falloir alors beaucoup en supprimer.Type 2 : Les pages qui se démultiplient de façon infinie alors qu’elles sont identiques ou presque.Ces deux soucis peuvent rendre un site mort d’avance quoi que vous fassiez ensuite… Il ne faut donc pas prendre les choses à la légère.
1er type de problème : mauvaise organisation des liens.
Si une page A envoie plusieurs liens vers une même page B, seul le premier des liens transmettra du jus (par approximation). Mais le jus transmis est plus ou moins proportionnel au nombre de liens se trouvant dans la page, tous liens confondus. Ceci inclut les liens doublés, les liens nofollow, etc. 
Donc plus il y a de liens dans une page, moins le jus transmissible par lien sera disponible. Si plusieurs liens pointent vers le même emplacement, seul le premier est comptabilisé.
Ceci est tout à fait cohérent, car un internaute clique rarement sur plusieurs liens exactement au même moment.Il va en choisir un et le suivre. En première approximation, plus il y a de liens, moins il y a de chances pour qu’un lien précis soit cliqué. L’internaute se moque bien de savoir si le lien est ou pas nofollow. Idem s’il a été mis à plusieurs endroits dans la page.
S’il y a 100 liens dans une page, un lien n’a donc que 1 % de chance d’être cliqué.Du même coup, si tous les liens sont doublés, cela revient à diviser par deux la puissance de chaque lien (grossièrement). Bien entendu c’est tout-à-fait volontaire de la part de Google pour éviter ce qui se nommait jadis « PageRank sculpting ». Mais aujourd’hui, c’est surtout cohérent vis-à-vis d’une navigation normale d’un internaute que Google tente de simuler.
Le travail d’élimination des pertes va être de limiter au maximum le nombre de liens qui ne servent à rien. Les cas sont multiples, et notre check-list va vous le montrer. Une fois la quantité de liens rationalisée, nous pourrons bénéficier réellement des effets de la sémantique et du maillage. Sinon, nous travaillerions dans le vide et nous n'en récolterions pas les fruits.
Maintenant que vous savez pourquoi nous allons travailler sur les liens internes existants, vous êtes à même de trouver la motivation pour vous y mettre !
La check list
  • Exemple 1 : le plus important n’est-il pas que l’internaute vous contacte ? Oui, mais même sans savoir pourquoi il le ferait ? Allez, nous mettons le lien contact un peu partout sur la page. D’ailleurs, peut-être même que nous pourrions doubler, voire tripler certains liens du menu ? C’est tellement mieux de tout démolir, hein ? 
À l’échelle d’un site, c’est juste une catastrophe, car le jus transmissible est plafonné par le jus de la page. Autrement dit, très rapidement, de page en page, il n’y a plus rien à transmettre.
Vous imaginez le tableau : 1 % de 1 % de 1 %, cela ne fait plus grand-chose au final…Donc, une gestion non réfléchie des liens internes et le site se traîne malgré les liens reçus.Vos pages doivent être passées au crible. Chaque lien ne doit être présent qu’une seule fois, choisissez le meilleur endroit, mais ne le mettez qu’une seule fois.
  • Exemple 2 : s’il n’y avait que la navigation générale que nous pouvions utiliser pour démolir le site, ce ne serait pas drôle. Allez tiens, nous allons aussi nous servir des pages de listing pour perdre du potentiel ! Vous savez, ces pages qui sont sensées permettre à l’internaute d’aller vers le produit qu’il va acheter…
Ce serait dommage que Google montre le produit dans ses résultats de recherche ! Nous risquerions d'être bien référencés, ce serait tellement dommage. Donnons-nous donc toutes les chances d'être le plus loin possible dans les SERPS. Pour ce faire, nous mettons un lien vers le produit sur la miniature, un sur le nom du produit, encore un autre sur « voir le produit ». Cela nous fait mini 3 liens vers la même page, c’est au top du gaspillage !
Solution : mettez donc le lien sur le bloc entier qui contient vignette, nom du produit, description et le bouton d’action. Donc un seul lien sur le bloc qui contient cet ensemble.
  • Exemple 3 : pourquoi ne pas donner à l’internaute la possibilité de partager chacun des produits dès le listing ? L’internaute n’a pas encore vu le produit et vous voudriez déjà qu’il le partage ? Sérieux ? Dans la fiche produit, je ne dis pas, mais pas une fois par produit dans les listings ! Pourquoi ? Non seulement cela a rarement de sens, mais c’est une perte sèche pour le site !
  • Exemple 4 : ce serait dommage que l’internaute puisse accéder rapidement à un produit, donc, mettez-lui seulement 10 produits par page. Écoutez donc Google quand il vous dit que presque personne ne va au-delà de la page 2 (et déjà en page 2…). Pourquoi cela ne serait-il pas également vrai sur votre site ? Idéalement, fuyez les paginations, donc afficher tout sur une seule page chaque fois que possible. Pour autant, oubliez complètement l'infinite-scroll.
  • Exemple 5 : tiens, je vais faire un lien vers un site sur toutes mes pages vers un partenaire. Une page spécifique pour l’ensemble de ceux-ci serait plus avisée.
  • Exemple 6 : les liens « vicieux » : vos en-têtes de menu sont cliquables, mais ne mènent nulle part dans certains cas. Pourtant dans le code source nous trouvons href=‘#’ ou autre. C’est quoi ce truc ? C'est juste pour signaler que nous pouvons cliquer sur le menu pour le déplier ! Il est vrai que si nous ne lui disons pas, l’internaute ne saura jamais que les menus peuvent s’ouvrir ! Il existe d’autres façons d’avoir le déroulement du menu via l’en-tête de menu sans faire appel à un sharp-href !
  • Exemple 7 : appel à une fausse solution, le lien nofollow. Nous trouvons souvent cela vers les pages contacts, mentions légales, CGV, etc. Le gag est que ces pages sont souvent avec la balise robot INDEX, c’est tellement cohérent ! Bannissez par définition tous les liens internes nofollow de votre site. Toutes les pages peuvent servir à amplifier le jus… même celles-ci ! (il existe une exception pour le nofollow, nous la verrons plus loin)
Ce ne sont que quelques exemples, la liste n’étant malheureusement pas exhaustive.
2e type de problème : pages identiques dupliquées en masse.
  • Les filtres à facette sont pratiques pour l’internaute. Toutefois il vous faut prendre garde, car l’explosion combinatoire est le plus souvent au rendez-vous. Il n’est, en effet, pas rare de voir certains sites avoir un nombre infini de pages. Ceci est à comprendre parfois au sens propre du terme. Et tout ça à cause de ces foutus paramètres qui sont mis dans l’url. L’usage d’un FORM plutôt qu’un href est préférable, mais ne rendez pas visibles les paramètres du filtre. Pour le développeur, cela signifie de passer les paramètres en POST et non en GET. Ainsi l’url restera identique, même si vous activez un ou plusieurs filtres, ou types de tri. Les filtres à facette font des ravages. Google s’acharnant à visiter des pages qui ne lui apportent rien de nouveau. Toutes sont dupliquées, et ce crawl se fait au détriment du celui sur les pages permettant d’amplifier le site via leurs liens. Il n’y a pas une seule façon de résoudre le souci, mais plusieurs. En tous les cas, c’est souvent extrêmement grave sur un site ecommerce.
  • L’accès à l’espace utilisateur sur une page dédiée via un bouton « mon compte » par exemple.
Là, souvent, nous embarquons avec le lien, un paramètre en fonction de la page où vous êtes, etc. Là aussi, vous aurez une démultiplication d’une seule et même page. Placez en conséquence le lien vers le compte en nofollow et mettez-la page de connexion en noindex

Pour ma part, je pense qu’un site où aucun paramètre n’est visible dans l’url est un objectif à avoir. Pour info, c'est ce qui se trouve à droite du « ? » dans l’url. Si ce n’est pas possible, il faut se débrouiller pour que ces pages ne soient pas vues des robots. Il n’y a pas qu’une seule solution pour cela.

Conclusion

Nous disons souvent que les riches sont radins. Je ne sais pas si c’est moral, mais pour votre site, cela l’est : Halte aux gaspillages !

La prochaine chronique traitera du contenu (point 2 de la chronique précédente). Je suis convaincu que le plus affranchi des rédactrices/rédacteurs va apprendre des choses insoupçonnées…