Pourquoi votre site a besoin d’un audit SEO Inbound
Le SEO a évolué, Google prend en compte les signaux sociaux et utilisateurs en plus des critères historiques dans son algorithme. La technique ne suffit plus, Google pénalise la suroptimisation et la duplication via les filtres Penguin et Panda.
Pour optimiser un site durablement et éviter une prochaine pénalité, le SEO doit s’allier avec les leviers Inbound Marketing et ce travail devrait commencer par un bon audit SEO inbound.Cela a toujours été la direction de Google d’adapter la pertinence de son algorithme en fonction de l’utilisateur mais aujourd’hui son importance est telle qu’une vraie synergie est nécessaire entre le référencement naturel et les autres canaux Inbound marketing à savoir l’optimisation des réseaux sociaux (SMO) , le marketing de contenu (Content Marketing), l’expérience utilisateur, l’e-reputation sans oublier l’analytics et l’e-mail marketing pour transformer le trafic en conversions.
Inbound quoi ?
l’idée est de devenir un centre d’attraction naturel en adaptant sa stratégie marketing auprès d’une audience précise. Ca c’est pour une définition personnelle et un peu compliquée. Mais en réalité c’est simple et c’est pas nouveau, l’inbound Marketing est composé des leviers marketing qui permettent de :
- Attirer naturellement son audience vers son site
via le SEO, le SMO, du contenu de qualité
- Fidéliser et convertir en suscitant l’intérêt
via l’expérience utilisateur, l’e-réputation, du contenu engageant et l’e-mail
marketing.
- Analyser son funnel de prospection pour
optimiser en continu sa stratégie via le web/social analytics , et les outils
de CRM.
L’évolution Inbound consiste à donner une cohérence à
des leviers qui ne communiquent pas forcément ensemble et à leur donner un objectif
commun, celui de convertir.
Le SEO dans tout ça, est sans doute le levier Inbound le
plus exigeant, mêlant expertise technique et marketing. Le SEO est aussi le
levier avec le meilleur taux de conversion dans 9 sur 10 des industries d’après
une étude de Bizible.
Ce qui a changé
L’évolution de Google ne s’est pas faite du jour au lendemain, il y a plus de 100 mises à jour du moteur de recherche par an et les changements d'aujourd’hui ne sont ne sont finalement que l’émergence progressive de critères mis en place il y a plusieurs années. Ce qui change c’est qu’aujourd’hui leur importance est significative et non plus relayé à un rang secondaire derrière des critères historiques comme la simple répétition de mots clés ou le nombre de liens.
Le dilemme de Google a toujours été d’allier contraintes techniques, vitesse de crawl, pertinence des résultats et monétisation aussi.... Google ayant une puissance de calcul plus importante qu’auparavant, les critères plus qualitatifs, demandant plus de traitements informatiques, prennent plus d’importance comme la prise en compte:
- De l’usage d'un document par l’internaute,
- Presque temps réel des signaux sociaux,
- D'algorithmes sémantiques plus évolués (co-citation, hilltop, topic sensitive pagerank),
- Du trustrank et de l'authorrank.
Google est en effet
capable de récupérer les indicateurs du comportement d’un visiteur sur une page.
Via ses nombreux services et en prenant simplement son navigateur Chrome,
google peux connaitre le temps passé d’un visiteur sur une page, le taux de
rebond vers google, le taux de clics, etc…
Ces mesures rentrent directement
dans les critères de positionnement d’une page dans les SERPS.
La synergie du
SEO avec des domaines traitant d’expérience utilisateur (ergonomie,
design émotionnel, …) et aussi de content marketing, prend alors tout son sens.
Les signaux sociaux
sont un facteur de crawl et de positionnement. Lorsque un article est posté
sur Google+, Google va crawler immédiatement le lien vers l’article avant même de
suivre le lien via le site ou le CMS.
Spécialement pour la recherche personnalisée et la recherche d’actus chaudes,
les signaux sociaux ont un impact sur les positions dans les pages de
résultats. Matt cutts, l’ambassadeur de Google, l’a d’ailleurs confirmé en 2010 en
affirmant que les signaux provenant de Twitter et Facebook avaient leur
importance. Il l’a récemment démenti en janvier dernier,
il faut dire que google+ est sorti entre temps. Est-il objectif ? Tout le
monde n’utilisant pas Google+, ces données leur suffisent elles ?... Ne pas
croire à tout ce que dit Matt Cutts.
Le pagerank
traditionnel fait place au topic sensitive pagerank. Pas complètement, mais
tandis que le pagerank est un algorithme purement quantitatif basé sur le
nombre de liens entrants et faisant encore partie intégrante des facteurs
actuels de google, Le topic sensitive pagerank ajoute une bonne dose de sémantique et de contextualisation, de sorte
qu’une même page peux posséder plusieurs pagerank différents sur plusieurs
sujets différents.
L’algorithme de hilltop propose,
dans la même lignée, de privilégier les documents recevant des liens de la même
thématique.
La co-citation se passe purement et
simplement des liens. Le simple fait qu’un terme A soit souvent cité par
(B,C,D,…) sur un sujet N le rend pertinent sur ce sujet. Par exemple, si votre
marque est souvent citée proche de certains mots clés, alors votre marque sera
pertinente pour ces mots clés, même si aucun lien renvoie vers votre site.
Le trustrank pour noter de l'autorité d'une marque. L'authorrank est l'équivalent pour les auteurs, c'est une note de Google pour juger de l'autorité d'un auteur sur un sujet. Un article écrit par un auteur qui fait autorité sur un sujet, aura plus de chances de se positionner sur Google. On comprend facilement l’influence de l’e-reputation et de la visibilité sur les réseaux sociaux sur ces critères SEO.
Ces « pas si » nouveaux algorithmes font qu’on comprend mieux l’importance de créer une marque forte, de créer du contenu engageant, partagé sur les réseaux sociaux afin de recevoir des liens naturels, thématiques et d’être cité sur des blogs. Et encore, je n’ai pas parlé de Panda, penguin ou du colibri (hummingbird) qui sont plus connus.
Ce qui ne marche plus
La corollaire c’est que beaucoup de choses ne marchent plus, plus aussi bien, voire sont pénalisables. J’en cite que quelques uns : la répétition de mots clés (keyword stuffing), les textes en bas de page sur l’ensemble du site, les échanges de liens, le contenu crée automatiquement (content spinning), inscription dans les annuaires, l’achat de liens,…
Si vous utilisez une de ces techniques ou avez un doute sur votre SEO, il est peut-être temps d’en changer et faire un audit SEO inbound de votre site. Il est possible que jusqu’à maintenant votre site n’ait pas été pénalisé, car en parallèle le site cumule du bon contenu et autres bonnes pratiques.
Mais Google affine régulièrement ses algorithmes ou filtres et ses niveaux d’exigences. Si au prochain penguin par exemple, qui ne saurait tarder, vous passez en dessous de son seuil de tolérance, c’est la pénalité assurée. Dans ce cas, vous aurez une période de vache maigre avant d’avoir une chance de revenir comme avant. On peux en sortir, mais comme on dit, vaux mieux prévenir que guérir.
Ce qui marche toujours
Parfois un site peut être pénalisé, sans savoir pourquoi, car il n’y a pas eu forcément de pratiques douteuses ou celles vus plus haut. Mais simplement de l’ignorance. C’est souvent le cas lorsque le responsable SEO ou l’agence SEO n’a pas fait un travail d’analyse rigoureux et en profondeur du site.
Dans le cas d’une pénalité Panda qui pénalise avant tout la duplication de contenus, un fort ratio de pages dupliquées(ou near duplicate) peuvent être crawlées et indéxées par Google, simplement à cause d’un disfonctionnement du CMS du site et passé inaperçu. Et j’en viens au titre de ce paragraphe, ce qui marche toujours c’est de crawler en profondeur un site et de le catégoriser afin de déceler ce type de pages , entre autres.
Même si le SEO évolue et continuera d’évoluer (non le SEO n'est pas mort), certains critères sont solidement ancrés et pour longtemps comme l’optimisation du maillage interne (PR sculpting), l’optimisation du crawl de googlebot, la suppression des pages inutiles, ou l’optimisation des performances.
L’optimisation des performances est typiquement un critère inbound marketing car il a des avantages a plusieurs niveaux
· C’est un critère de crawl, un site rapide verra plus de pages crawlées par google et verra son potentiel de pages actives augmenter.
· C’est un critère de conversion, la patience d’un internaute se limitant à quelques secondes , une page chargée rapidement est bon pour l’expérience utilisateur et in fine, pour la conversion d’un prospect en client. C’est encore plus important sur mobile où la bande passante est plus limitée.
· C’est un critère de positionnement, depuis avril 2010, la vitesse de chargement est officiellement un signal pris en compte par google.
Ce qui marche toujours biensûr, c’est de créer du bon contenu, un peu pour les moteurs, mais surtout pour l’utilisateur. Créer du contenu recherché par votre audience, engageant et partagé sur les réseaux sociaux. Dans ce cas là aussi, un juste équilibre des leviers SEO, content marketing et SMO est nécéssaire.
Le site web est au centre de la stratégie Inbound Marketing, et il doit disposer des fondations SEO solides afin d’accueillir efficacement les stratégies de contenu, sociales et utilisateur.
Les étapes d’un audit seo inbound
Audit techniqueL’audit technique consiste à donner des réponses sur plusieurs points essentielles pour que googlebot puisse explorer correctement les pages stratégiques du site et pour que sa perception ne soit pas troublée par des facteurs bloquants ou néfastes. Plus concrètement il s’agit d’analyser les performances, les codes réponses, la navigation, le maillage interne, la profondeur des pages importantes, le crawl sur des pages inutiles, etc… L’objectif est que Google puisse faire son travail dans les meilleurs conditions possibles afin de valoriser au maximum les contenus générateurs de trafic. A quoi bon avoir du bon contenu si google le voit pas ou s’il est noyé dans les méandres d’un site qui lui est incompréhensible.
Audit de linking externeIl s’agit d’analyser les liens externes pointant vers le site. C’est un travail essentiel, notamment dans le cadre de la pénalité penguin. L’objectif est de rééquilibrer un profil de liens de manière naturelle en supprimant des liens néfastes et en saisissant des opportunités d’avoir de bons liens.
Audit de contenus
Ça consiste dans l’analyse des pages dupliquées ou qui ont
un contenu très proche, pénalisables par Panda, dans l’analyse des contenus
recherchés par les visiteurs, la proposition de chantiers de croissance
consistant à créer de nouvelles pages (nouvelles sous-catégories, pages hubs,…),
l’enrichissement de pages pauvres en contenu, le balisage sémantique (microformats),
la structuration du contenu.
C’est le nerf de la guerre qui permettra au site d’augmenter durablement son trafic.
Il s’agit d’analyser la présence du site sur les réseaux sociaux, la visibilité de la marque avec un focus sur l’ereputation, le respect des bonnes pratiques en terme d’engagement social, le balisage social (opengraph), les contenus les plus partagés.
Audit expérience
utilisateur
ça consiste à créer une expérience agréable pour l’utilisateur,
ce qui a des effets positifs sur le SEO, la conversion, la fidélisation et même
l’engagement social : Respect des bonnes pratiques en matière d’ergonomie
et de navigation, analyse des fonctionnalités (moteur de recherche interne, newsletter,
formulaire,…), analyse de la compatibilité sur les différents supports, conseils
sur l’accessibilité.
Audit recherche
universelle
La place de la recherche universelle est omniprésente et
plus ou moins importante an fonction du type de site. On retrouve la recherche
locale, les images, google actus, le ecommerce, la vidéo. Chacun de ses points
relèvent de recommandations spécifiques.
Je fais de plus en plus une partie dédiée au mobile, car c’est devenu majeur dans une stratégie inbound Marketing, vu le nombre grandissant de mobinautes. Un site mobile dédié, un site responsive ? Ca dépend. Comment allier SEO mobile, contenu et expérience mobile ?
Il y a également l’ASO (App Store Optimization) qui consiste à améliorer la visibilité des applications dans le google store et l’apple store. C’est un peu le SEO des applications, et c’est devenu un enjeu important.
Cette structure et méthodologie d’audit SEO inbound n’est pas figée, elle doit dépendre des objectifs du client et du site. L’idée est de donner des recommandations cohérentes entre les différents leviers Inbound Marketing, une feuille de route claire pour mener à bien cette stratégie et construire une visibilité durable.