Pourquoi votre site a besoin d’un audit SEO Inbound

Le SEO a évolué, Google prend en compte les signaux sociaux et utilisateurs en plus des critères historiques dans son algorithme. La technique ne suffit plus, Google pénalise la suroptimisation et la duplication via les filtres Penguin et Panda.

Pour optimiser un site durablement et éviter une prochaine pénalité, le SEO doit s’allier avec les leviers Inbound Marketing et ce travail devrait commencer par un bon audit SEO inbound.
Cela a toujours été la direction de Google d’adapter la pertinence de son algorithme en fonction de l’utilisateur mais aujourd’hui son importance est telle qu’une vraie synergie est nécessaire entre le référencement naturel et les autres canaux Inbound marketing à savoir l’optimisation des réseaux sociaux (SMO) , le marketing de contenu (Content Marketing), l’expérience utilisateur, l’e-reputation sans oublier l’analytics et l’e-mail marketing pour transformer le trafic en conversions.

Inbound quoi ?

l’idée est de devenir un centre d’attraction naturel en adaptant sa stratégie marketing auprès d’une audience précise. Ca c’est pour une définition personnelle et un peu compliquée. Mais en réalité c’est simple et c’est pas nouveau, l’inbound Marketing est composé des leviers marketing qui permettent de :

  • Attirer naturellement son audience vers son site via le SEO, le SMO, du contenu de qualité
  • Fidéliser et convertir en suscitant l’intérêt via l’expérience utilisateur, l’e-réputation, du contenu engageant et l’e-mail marketing.
  • Analyser son funnel de prospection pour optimiser en continu sa stratégie via le web/social analytics , et les outils de CRM.

L’évolution Inbound consiste à donner une cohérence à des leviers qui ne communiquent pas forcément ensemble et à leur donner un objectif commun, celui de convertir.
Le SEO dans tout ça, est sans doute le levier Inbound le plus exigeant, mêlant expertise technique et marketing. Le SEO est aussi le levier avec le meilleur taux de conversion dans 9 sur 10 des industries d’après une étude de Bizible.

Ce qui a changé

L’évolution de Google ne s’est pas faite du jour au lendemain, il y a plus de 100 mises à jour du moteur de recherche par an et les changements d'aujourd’hui ne sont ne sont finalement que l’émergence progressive de critères mis en place il y a plusieurs années. Ce qui change c’est qu’aujourd’hui leur importance est significative et non plus relayé à un rang secondaire derrière des critères historiques comme la simple répétition de mots clés ou le nombre de liens.

Le dilemme de Google a toujours été d’allier contraintes techniques, vitesse de crawl, pertinence des résultats et monétisation aussi.... Google ayant une puissance de calcul plus importante qu’auparavant, les critères plus qualitatifs, demandant plus de traitements informatiques, prennent plus d’importance comme la prise en compte:

  • De l’usage d'un document par l’internaute,
  • Presque temps réel des signaux sociaux,
  • D'algorithmes sémantiques plus évolués (co-citation, hilltop, topic sensitive pagerank),
  • Du trustrank et de l'authorrank.

Google est en effet capable de récupérer les indicateurs du comportement d’un visiteur sur une page. Via ses nombreux services et en prenant simplement son navigateur Chrome, google peux connaitre le temps passé d’un visiteur sur une page, le taux de rebond vers google, le taux de clics, etc…
Ces mesures rentrent directement dans les critères de positionnement d’une page dans les SERPS.
La synergie du SEO avec des domaines traitant d’expérience utilisateur (ergonomie, design émotionnel, …) et aussi de content marketing, prend alors tout son sens.

Les signaux sociaux sont un facteur de crawl et de positionnement. Lorsque un article est posté sur Google+, Google va crawler immédiatement le lien vers l’article avant même de suivre le lien via le site ou le CMS.
Spécialement pour la recherche personnalisée et la recherche d’actus chaudes, les signaux sociaux ont un impact sur les positions dans les pages de résultats. Matt cutts, l’ambassadeur de Google, l’a d’ailleurs confirmé en 2010 en affirmant que les signaux provenant de Twitter et Facebook avaient leur importance. Il l’a récemment démenti en janvier dernier, il faut dire que google+ est sorti entre temps. Est-il objectif ? Tout le monde n’utilisant pas Google+, ces données leur suffisent elles ?... Ne pas croire à tout ce que dit Matt Cutts.

Le pagerank traditionnel fait place au topic sensitive pagerank. Pas complètement, mais tandis que le pagerank est un algorithme purement quantitatif basé sur le nombre de liens entrants et faisant encore partie intégrante des facteurs actuels de google,  Le topic sensitive pagerank ajoute une bonne dose de sémantique et de contextualisation, de sorte qu’une même page peux posséder plusieurs pagerank différents sur plusieurs sujets différents.
L’algorithme de hilltop propose, dans la même lignée, de privilégier les documents recevant des liens de la même thématique.
La co-citation se passe purement et simplement des liens. Le simple fait qu’un terme A soit souvent cité par (B,C,D,…) sur un sujet N le rend pertinent sur ce sujet. Par exemple, si votre marque est souvent citée proche de certains mots clés, alors votre marque sera pertinente pour ces mots clés, même si aucun lien renvoie vers votre site.

Le trustrank pour noter de l'autorité d'une marque. L'authorrank est l'équivalent pour les auteurs, c'est une note de Google pour juger de l'autorité d'un auteur sur un sujet. Un article écrit par un auteur qui fait autorité sur un sujet, aura plus de chances de se positionner sur Google. On comprend facilement l’influence de l’e-reputation et de la visibilité sur les réseaux sociaux sur ces critères SEO.

Ces « pas si » nouveaux algorithmes font qu’on comprend mieux l’importance de créer une marque forte, de créer du contenu engageant, partagé sur les réseaux sociaux afin de recevoir des liens naturels, thématiques et d’être cité sur des blogs. Et encore, je n’ai pas parlé de Panda, penguin ou du colibri (hummingbird) qui sont plus connus.

Ce qui ne marche plus

La corollaire c’est que beaucoup de choses ne marchent plus, plus aussi bien, voire sont pénalisables. J’en cite que quelques uns : la répétition de mots clés (keyword stuffing), les textes en bas de page sur l’ensemble du site, les échanges de liens, le contenu crée automatiquement (content spinning), inscription dans les annuaires, l’achat de liens,…

Si vous utilisez une de ces techniques ou avez un doute sur votre SEO, il est peut-être temps d’en changer et faire un audit SEO inbound de votre site. Il est possible que jusqu’à maintenant votre site n’ait pas été pénalisé, car en parallèle le site cumule du bon contenu et autres bonnes pratiques.

Mais Google affine régulièrement ses algorithmes ou filtres et ses niveaux d’exigences. Si au prochain penguin par exemple, qui ne saurait tarder, vous passez en dessous de son seuil de tolérance, c’est la pénalité assurée. Dans ce cas, vous aurez une période de vache maigre avant d’avoir une chance de revenir comme avant. On peux en sortir, mais comme on dit, vaux mieux prévenir que guérir.

Ce qui marche toujours

Parfois un site peut être pénalisé, sans savoir pourquoi, car il n’y a pas eu forcément de pratiques douteuses ou celles vus plus haut. Mais simplement de l’ignorance. C’est souvent le cas lorsque le responsable SEO ou l’agence SEO n’a pas fait un travail d’analyse rigoureux et en profondeur du site.

Dans le cas d’une pénalité Panda qui pénalise avant tout la duplication de contenus, un fort ratio de pages dupliquées(ou near duplicate) peuvent être crawlées et indéxées par Google, simplement à cause d’un disfonctionnement du CMS du site et passé inaperçu. Et j’en viens au titre de ce paragraphe, ce qui marche toujours c’est de crawler en profondeur un site et de le catégoriser afin de déceler ce type de pages , entre autres.

Même si le SEO évolue et continuera d’évoluer (non le SEO n'est pas mort), certains critères sont solidement ancrés et pour longtemps comme l’optimisation du maillage interne (PR sculpting), l’optimisation du crawl de googlebot, la suppression des pages inutiles, ou l’optimisation des performances.

L’optimisation des performances est typiquement un critère inbound marketing car il a des avantages a plusieurs niveaux

·        C’est un critère de crawl, un site rapide verra plus de pages crawlées par google et verra son potentiel de pages actives augmenter.

·        C’est un critère de conversion, la patience d’un internaute se limitant à quelques secondes , une page chargée rapidement est bon pour l’expérience utilisateur et in fine, pour la conversion d’un prospect en client. C’est encore plus important sur mobile où la bande passante est plus limitée.

·        C’est un critère de positionnement, depuis avril 2010, la vitesse de chargement est officiellement un signal pris en compte par google.

Ce qui marche toujours biensûr, c’est de créer du bon contenu, un peu pour les moteurs, mais surtout pour l’utilisateur. Créer du contenu recherché par votre audience, engageant et partagé sur les réseaux sociaux. Dans ce cas là aussi, un juste équilibre des leviers SEO, content marketing et SMO est nécéssaire.

Le site web est au centre de la stratégie Inbound Marketing, et il doit disposer des fondations SEO solides afin d’accueillir efficacement les stratégies de contenu, sociales et utilisateur.

Les étapes d’un audit seo inbound

 Audit technique

L’audit technique consiste à donner des réponses sur plusieurs points essentielles pour que googlebot puisse explorer correctement les pages stratégiques du site et pour que sa perception ne soit pas troublée par des facteurs bloquants ou néfastes. Plus concrètement il s’agit d’analyser les performances, les codes réponses, la navigation, le maillage interne, la profondeur des pages importantes, le crawl sur des pages inutiles, etc… L’objectif est que Google puisse faire son travail dans les meilleurs conditions possibles afin de valoriser au maximum les contenus générateurs de trafic. A quoi bon avoir du bon contenu si google le voit pas ou s’il est noyé dans les méandres d’un site qui lui est incompréhensible.

Audit de linking externe

Il s’agit d’analyser les liens externes pointant vers le site. C’est un travail essentiel, notamment dans le cadre de la pénalité penguin. L’objectif est de rééquilibrer un profil de liens de manière naturelle en supprimant des liens néfastes et en saisissant des opportunités d’avoir de bons liens.

Audit de contenus
Ça consiste dans l’analyse des pages dupliquées ou qui ont un contenu très proche, pénalisables par Panda, dans l’analyse des contenus recherchés par les visiteurs, la proposition de chantiers de croissance consistant à créer de nouvelles pages (nouvelles sous-catégories, pages hubs,…), l’enrichissement de pages pauvres en contenu, le balisage sémantique (microformats), la structuration du contenu.
C’est le nerf de la guerre qui permettra au site d’augmenter durablement son trafic.

Audit social

Il s’agit d’analyser la présence du site sur les réseaux sociaux, la visibilité de la marque avec un focus sur l’ereputation, le respect des bonnes pratiques en terme d’engagement social, le balisage social (opengraph), les contenus les plus partagés.

Audit expérience utilisateur
ça consiste à créer une expérience agréable pour l’utilisateur, ce qui a des effets positifs sur le SEO, la conversion, la fidélisation et même l’engagement social : Respect des bonnes pratiques en matière d’ergonomie et de navigation, analyse des fonctionnalités (moteur de recherche interne, newsletter, formulaire,…), analyse de la compatibilité sur les différents supports, conseils sur l’accessibilité.

Audit recherche universelle
La place de la recherche universelle est omniprésente et plus ou moins importante an fonction du type de site. On retrouve la recherche locale, les images, google actus, le ecommerce, la vidéo. Chacun de ses points relèvent de recommandations spécifiques.

Audit mobile

Je fais de plus en plus une partie dédiée au mobile, car c’est devenu majeur dans une stratégie inbound Marketing, vu le nombre grandissant de mobinautes. Un site mobile dédié, un site responsive ? Ca dépend. Comment allier SEO mobile, contenu et expérience mobile ?

Il y a également l’ASO (App Store Optimization) qui consiste à améliorer la visibilité des applications dans le google store et l’apple store. C’est un peu le SEO des applications, et c’est devenu un enjeu important.

Cette structure et méthodologie d’audit SEO inbound n’est pas figée, elle doit dépendre des objectifs du client et du site. L’idée est de donner des recommandations cohérentes entre les différents leviers Inbound Marketing, une feuille de route claire pour mener à bien cette stratégie et construire une visibilité durable.