SEO : Google révèle comment ses robots comprennent les JavaScripts

Une nouvelle fonctionnalité de Google Webmaster Tools permet de voir précisément ce qu'explorent les robots de Google, y compris les ressources liées aux JavaScripts.

Google vient de bien enrichir ses Outils pour les webmasters. "Explorer comme Google", dans le menu "Exploration" des Google Webmasters Tools propose d'insérer une URL du site relié au compte, et de l'explorer comme le ferait un robot de Google, puis de l'afficher comme il le voit. Il est possible de préciser le type de Googlebot, ordinateur ou smartphone.

Une fois l'URL à crawler indiquée, outre la réponse HTTP renvoyée par le serveur au robot, Google Webmaster Tools va aussi pouvoir afficher ce que voit le robot, c'est-à-dire le "résultat de l'exploration de la page par Googlebot". Pour afficher ce rendu, explique aujourd'hui Mountain View, "les robots de Google vont aussi essayer de trouver les ressources extérieures impliquées, comme les images, les fichiers CSS et JavaScript, mais aussi les autres ressources indirectement embarquées via CSS et JavaScript". Certains observateurs ont ainsi pu se rendre compte comment les robots de Google pouvaient, dans une certaine mesure, accepter des cookies.

Sous le rendu, l'outil de Google indique aussi que "certaines ressources n'ont pas pu être obtenues par Googlebot pour cette page" et les liste. Des scripts de type JavaScript peuvent ainsi apparaître à cet endroit, Google donnant la raison ("refusée par le fichier robot.txt") pour laquelle la ressource n'a pas été obtenue par son robot.

Serveurs / Google