Les logiciels préférés des référenceurs Mathieu Regnat (Brioude) : "Majestic SEO est très performant pour l'analyse des backlinks"

mathieu regnat est consultant chez brioude internet référencement.
Mathieu Regnat est consultant chez Brioude Internet Référencement. © Brioude.

 Spécialiste du SEO, Mathieu Regnat est consultant en webmarketing et spécialiste des solutions d'e-commerce chez Brioude Internet Référencement. Créée en 1998, cette agence revendique aujourd'hui 800 clients PE, PME et grands comptes.

Google Webmaster Tools

"Google Webmaster Tools est l'étape obligatoire pour tout site. "GWT" permet de regrouper énormément d'informations sur la façon dont Google prend en compte les sites. Ces informations nous permettent entre autres de déterminer rapidement :

 Les erreurs d'explorations (page en 404, problème de redirection...),
 Les balises prioritaires en doublon,
 Les backlinks,
 L'état d'indexation du site (prise en compte du sitemap, fréquence de crawl...).

Majestic SEO 

Majestic SEO est l'un des outils les plus performants pour l'analyse des backlinks. Cette application est payante, mais nous permet de faire un état des lieux des liens entrants. Depuis la mort de Yahoo Site Explorer, il nous était devenu compliqué d'avoir une vue sur l'évolution de la notoriété d'un site. GWT donne des indications, mais les données ne sont pas toujours fiables.

Avec Majestic SEO, nous allons pouvoir récupérer les liens les plus efficaces, les domaines les plus prolifiques en backlinks, les pages bénéficiant du plus grand nombre de liens, et connaître l'évolution dans le temps du volume de ces liens entrants. Le but est évidemment de pouvoir contrôler et orienter nos campagnes de linkbuilding.

GSiteCrawler et Xenu

A noter qu'il reste aussi des outils de crawl intéressant tel que GSiteCrawler pour l'élaboration de fichier sitemap, et qui est de mon point de vue le plus efficace dans cette tache, tout en effectuant un crawl rapide.

Dans le même genre, mais pas forcément pour la même finalité, je recommande Xenu. Là aussi, il s'agit d'un crawler, mais qui est plus orienté sur la détection d'anomalie d'un site. Il peut-être utile dans la détection de liens cassés, de redirections, de balises prioritaires en double (title et meta description) ou encore de temps de chargement trop long...

Autre avantage, il permet de connaitre, pour une page donnée, les autres pages qui proposent un lien sur celle-ci. C'est par exemple très utile lorsque l'on veut retrouver les liens pointant sur une page supprimée."