SEO : les outils utilisés par cinq e-commerçants français Cédric Cherchi (Homelidays) : "Ahrefs permet de dresser un profil de backlinks complet"

Appartenant au groupe américain HomeAway depuis 2009, Homelidays.com est spécialisé dans les locations de vacances entre particuliers en Europe. C'est Cédric Cherchi, responsable SEO de Homelidays, qui a répondu à nos questions.

JDN. Quel(s) outil(s) utilisez-vous pour analyser vos backlinks ?

Les équipes SEO de Homelidays ont pendant longtemps utilisé uniquement des outils comme BuzzStream ou la suite SEOClarity afin de superviser les backlinks "connus" pointant vers nos sites.

Cependant, comme Google prend de plus en plus en compte l'environnement relationnel des sites, nous nous efforçons d'étendre notre mission de veille à l'ensemble de nos backlinks. Pour cela nous utilisons plusieurs outils.

Par exemple : Google Webmaster Tools. Les liens remontés ne sont pas exhaustifs. Toutefois, comme l'a dit John Mueller : le Google Webmaster Tools contient tous les liens dont on devrait se soucier. En cas de doute avec un lien, c'est donc ici que l'on creuse en premier. Ensuite, nous faisons appel à Ahrefs, dont les données sont bien plus complètes. Nous utilisons cet outil afin de dresser notre profil de backlinks complet.

Nous complétons les données collectées sur Ahrefs grâce à l'API Mozscape (de SeoMoz). Cet outil nous permet de qualifier l'énorme base de données de backlinks dont nous disposons. C'est ensuite grâce à un outil développé en interne que nous pouvons analyser les données et adopter une démarche proactive sur le suivi de nos backlinks.

le site de homelidays est spécialisé dans les locations de vacances
Le site de Homelidays est spécialisé dans les locations de vacances ©  Homelidays - capture

Quel(s) outil(s) utilisez-vous pour suivre vos positions dans les résultats ?

La personnalisation des résultats de recherche de Google a rendu le suivi du positionnement moins
pertinent qu'auparavant. Toutefois, les études de visibilité demeurent importante pour évaluer notre part de marché ainsi que celles de nos concurrents.

Pour ce faire, nous avons commencé par identifier plusieurs centaines de milliers de mots clés appartenant au marché de la location de vacances occupé par Homelidays, dont les sites sont disponibles dans sept pays. Nous faisons régulièrement appel à une agence pour effectuer un suivi régulier des résultats de recherche sur ces mots clés (relevés des positions).

Pour compléter et analyser ces résultats, nous avons développé en interne un outil afin d'associer les positions obtenues à des taux de clics (estimés) ainsi qu'à des potentiels de recherche (dont les estimations sont disponibles sur Adwords). Cela nous permet de produire des études de marché basées sur la visibilité (en termes de trafic et non de positions) de nos marques et de celle de nos concurrents, et même de contrôler l'apparition de nouveaux acteurs. 

Quel(s) outil(s) utilisez-vous pour auditer/analyser les éléments "on site" (code HTML, maillage, etc.) ?

Bien que les sites de Homelidays aient déjà fait l'objet de beaucoup d'attention pour en améliorer la qualité, ceux-ci évoluent constamment. Nous devons non seulement chercher régulièrement de nouvelles opportunités d'optimisation, mais aussi identifier toute trace d'une quelconque régression, par exemple suite à la mise en ligne d'une nouvelle fonctionnalité.

"Pour analyser les éléments internes aux sites, nous avons développé un crawler"

Pour cela nous utilisons aussi plusieurs outils, et notamment un crawler développé in-house. Nous avons déjà utilisé plusieurs crawlers disponibles sur le marché, comme Xenu ou ScreamingFrog, qui sont de bons outils. Cependant, l'intérêt d'internaliser le développement de ce type d'outil est de pouvoir mieux en adapter les capacités à nos besoins. Nous devons notamment pouvoir crawler plusieurs centaines de milliers d'URL, et catégoriser les résultats.

Nous utilisons également un analyseur de fichiers de logs HTTP, également développé en interne. Les données obtenues nous permettent d'examiner le trafic issu des moteurs de recherche, mais surtout de suivre le crawl de nos URL par les robots d'indexation. Cet outil est extrêmement utile afin de cerner la façon dont les moteurs "comprennent" nos sites. Il est également très utile pour identifier les possibles "spider traps", les freins au crawl.

En couplant la base de cet outil avec celle de notre crawler, nous pouvons comparer les URL disponibles sur nos sites avec celles réellement prises en compte par les moteurs (calcul du taux de crawl), et d'identifier celles qui génèrent effectivement du trafic (pages utiles). Le suivi de ces indicateurs nous permet de superviser l'état de santé général de nos sites.

Enfin, pour des besoins très ponctuels et des analyses précises de nos templates, nous utilisons également quelques extensions Firefox, comme Web Developer, Firebug, LiveHTTP, Search Status ou YSlow.