JavaScript et pénalités sur les liens : Google répond à vos questions

JavaScript et pénalités sur les liens : Google répond à vos questions Grâce au JDN, les professionnels du search peuvent interroger Google sur les sujets qui les préoccupent. Chaque mois, Vincent Courson, outreach specialist chez Google, répond à leurs questions. Voici la sélection d'octobre.

Pour comprendre ce que Google veut, il ne suffit pas de bien le connaître, il faut parfois lui parler. C'est ce que le JDN et Vincent Courson, outreach specialist chez Google, vous proposent dans un nouveau rendez-vous mensuel. Postez à tout instant vos questions via notre formulaire, les plus représentatives des thématiques qui intéressent les professionnels seront sélectionnées et envoyées à l'expert. Voici ses réponses, sans filtre. 

Vincent Courson, outreach specialist chez Google. © VC

Si le JavaScript est exécuté juste après le chargement de la page, est-il interprété par le moteur de recherche (ou ce n'est que ce que rend le serveur qui est interprété) ?

Vincent Courson. Excellent timing pour cette question ! Nous venons de publier de la documentation explicitant comment Googlebot comprend les sites full-JavaScript, et listant des méthodes pour l'aider à mieux l'interpréter. Direction la documentation en question (en anglais uniquement pour le moment).

En (très) gros, Googlebot ne voit initialement que ce que le serveur lui donne. Donc dans le cas d'un site full-JavaScript, il y a un certain risque qu'il ne voie que la "coquille" plutôt que le contenu qui est généré côté client, dans le navigateur (et qui constitue généralement la majorité du contenu consommable d'un document full-JS). Cela dit, Googlebot exécute tout de même le JavaScript dans un second temps, afin de comprendre au maximum le contenu complet de la page. Pour une grande partie des sites JavaScript, cette exécution sera suffisante. On pourra utiliser la Search Console ou le test d'optimisation mobile pour voir des erreurs éventuelles. Si des erreurs remontent, lisez la documentation d'aide au débugging (en anglais uniquement). Si ces erreurs ne sont pas faciles ou impossibles à supprimer côté JavaScript, vous pouvez envoyer une version pré-rendue de votre contenu au user-agent du Googlebot, tout en servant le contenu traditionnel (HTML+JS) aux autres user-agents.

Si je crée des sites web pour des clients et que je mets un lien sur tous ces sites clients vers mon site pro, pour indiquer que j'ai créé ces sites, vais-je être pénalisé par Google ?

Vincent Courson. Les liens de type "Web Design par xyz," c'est une sacrée histoire ! À l'origine, les créateurs de sites web voulaient obtenir de la visibilité : si le visiteur d'un site trouvait ce dernier clair, beau, et engageant, il pouvait se référer au pied de page qui comprenait généralement un lien vers le créateur du site. La logique est claire pour le créateur du site : se faire de la pub directement auprès d'une audience bien ciblée. Mais rapidement, ce type de liens a été détourné et utilisé principalement comme spams. De nombreuses agences ont généralisé l'usage de ces liens, sur des ancres sur-optimisées, en leur donnant une visée "SEO-first", loin de l'utilité originelle du lien (qui facilitait la navigation). Du coup, j'imagine que la question vient de là : la sur-optimisation de ces liens a créé des soucis par le passé, car Google a appliqué des actions manuelles contre les liens artificiels.

Aujourd'hui, l'objectif originel est toujours d'actualité : certaines personnes pourront toujours potentiellement cliquer sur ces liens pour entrer en contact avec le Web Designer à l'origine du site qu'ils sont en train de visiter. Donc, il peut être tout à fait légitime d'inclure ce type de liens sur les sites de ses clients. Mais afin de s'assurer que Google n'y voit pas de système de liens, nous recommandons d'inclure un tag "nofollow" dessus. Ainsi, pas de risque, et le but originel d'obtention de trafic qualifié est toujours rempli.

À noter : le conseil de Google reste le même depuis des années : mieux vaut prioriser des tactiques et stratégies qualitatives sur le long terme plutôt que de tenter de trouver des raccourcis. En SEO, il y a rarement de techniques "rapides et faciles" qui soient pérennes.

Les anciens sites développés sans PHP en pur HTML sont-ils à présent moins bien (ou mieux...) indexés par Google, ou cela n'a aucune incidence ?

Vincent Courson. Je vois cette question comme étant plus générale : le choix de techno a-t-il un impact sur le SEO ? HTML5 ou PHP ? ASP ou PHP ? Server-side rendering ou client-side rendering ?

En général, une certaine techno ne sera pas "par défaut" mauvaise pour le SEO. Et l'inverse est vrai : il n'y a pas de techno particulièrement indispensable pour le SEO. En revanche, n'importe quelle techno a le potentiel d'être mauvaise pour le SEO si elle est mal mise en place : les moteurs de recherche doivent comprendre le contenu et promeuvent des sites rapides, mobiles, qui affichent un contenu qualitatif utile à l'internaute. Quelle que soit la technologie utilisée, ces conditions devront être remplies pour que le site soit vu comme qualitatif par les moteurs de recherche. Les outils Google comme l'outil d'inspection d'URLs de la Search Console ou le test d'optimisation mobile seront donc essentiels afin de s'assurer que l'on coche toutes ces cases.

Dans la Search Console, comment peut-on demander de réindexer une liste d'url ? Actuellement pour ce type de demande, nous devons le faire url par url : ceci est très chronophage pour les sites conséquents.

Vincent Courson. À l'origine, la Search Console n'a pas été créée dans l'optique de faire de la soumission d'URLs à grande échelle. La voie "normale" pour indiquer à Google quelles URLs indexer consiste à :

  • Travailler sur l'accessibilité du site : pas d'erreurs serveur, une bande passante suffisante pour le Googlebot, etc... Plus d'infos.
  • Créer et uploader des sitemaps complets et sans erreurs. Plus d'infos.
  • S'assurer que la structure interne du site est logique et permet une navigation facile pour vos utilisateurs ainsi que pour le Googlebot.

Pour traiter les URLs individuellement et les faire réindexer, par exemple après de récentes modifications, l'outil d'inspection d'URL (ancien "explorer comme Google") est la meilleure solution, avec demande d'indexation. Notez cependant que ce n'est pas parce qu'on envoie une demande dans l'outil d'inspection d'URL que la page sera réindexée automatiquement. Parfois, ça ne le sera pas.