"Techniques de référencement web" : les bonnes feuilles "Techniques de référencement web" : les bonnes feuilles sur l'Ajax et le JavaScript
L'extrait qui suit est issu de l'ouvrage d'Alexandra Martin et de Mathieu Chartier, "Techniques de référencement web : Audit et suivi SEO" qui vient de paraître chez Eyrolles. Il s'agit plus précisément d'un passage du chapitre "Facteurs Bloquants et pénalités Google" concernant l'Ajax et le JavaScript non optimisés.
Plus d'informations sur l'ouvrage et ses auteurs sur la dernière page "En savoir plus" de ce dossier.
Facteurs bloquants et pénalités Google : Ajax et JavaScript non optimisés
Des codes en JavaScript peu ou mal optimisés peuvent causer des problèmes de lecture pour les robots des moteurs de recherche. Le langage Ajax étant fondé sur JavaScript et XML, il subit les mêmes conséquences et posent aussi ses propres problèmes en matière de compréhension par les crawlers.
En réalité, deux principaux soucis se posent lorsque nous utilisons JavaScript ou Ajax :
des liens sont incompris voire illisibles pour les robots et ne peuvent donc pas être suivis ;
des contenus sont dissimulés dans les scripts Ajax et donc non pris en compte par les moteurs de recherche.
En effet, l'avantage de l'Ajax est de pouvoir charger des contenus sans forcer le rechargement des pages web, ce qui confère une grande liberté aux utilisateurs mais aussi un confort d'utilisation sans faille.
En revanche, le fait de charger tout ou partie des pages web en fonction des actions de l'internaute (clic, survol, etc.) peut causer des pertes de lisibilité ou de visibilité auprès des robots. Prenons l'exemple le plus courant en Ajax, celui du chargement dynamique des contenus via un clic ou de façon automatique avec un scroll à la manière de Twitter. Si nous regardons de près, nous observons qu'au chargement de la page, quelques dizaines de tweets sont chargés et une fois un certain palier atteint, Twitter charge en Ajax un autre groupe de tweets, et ainsi de suite.
La conséquence de ce type de chargement est assez évidente : Google ne peut lire que le premier groupe de tweets lorsqu'il parcourt la page mais perd tous les autres contenus.
Ajax donne du fil à retordre
Dans le cas du JavaScript classique, il faut garder à l'esprit que l'idéal est de ne jamais concevoir une navigation avec des liens dans ce langage, sauf si votre souhait est justement de dissimuler des contenus ou de bloquer les robots. Nous devons imaginer qu'un site devrait être consultable même si JavaScript était désactivé dans le navigateur, bien que cela soit devenu une utopie de nos jours tant jQuery et JavaScript sont présents dans les pages web.
Ajax donne davantage de fil à retordre car les cas de figure sont nombreux et quasiment tous différents. La première idée qui nous vient à l'esprit serait de charger l'intégralité des contenus utiles au chargement de la page et un script ne ferait qu'afficher des parties supplémentaires au fur et à mesure de notre parcours. Ceci fonctionnerait parfaitement mais si nous possédons un grand nombre de contenus, nous risquons fortement de surcharger la page mais aussi de ralentir la vitesse de chargement pour les visiteurs. Cette solution est donc peu envisageable dans une majorité de cas.