Référencement naturel : les 10 commandements de Google Mise à jour Panda : ce que conseille Google
4) Proposer du contenu et des services "de qualité"
Avec la mise à jour Panda de l'algorithme de Google, le chapitre "Proposer du contenu et des services de qualité" du guide SEO de Google revêt une importance décuplée pour les webmasters et référenceurs.
"Créer du contenu attrayant et utile aura sans doute plus d'impact sur votre site Web que chacun des autres points traités dans ce guide", y explique Google. En référencement, le contenu est Roi, comme le rappelle l'expert en SEO David Degrelle, PDG de l'agence 1ère Position, dans ses conseils pour se préparer à l'activation en France de la mise à jour de l'algorithme de Google.
Un contenu de qualité va attirer l'attention, puis être relayé par d'autres internautes, qui le diffuseront ensuite avec de précieux backlinks sur les blogs, les forums, les réseaux sociaux, etc. C'est ce que Matt Cutts, porte-parole du moteur de recherche, appelle le linkbait. Une sorte de Graal pour le SEO.
Pour y parvenir, plusieurs leviers sont essentiels pour Google : il faut "proposer des services exclusifs", et "produire du contenu actualisé". Avec Panda, ces indicateurs semblent avoir vu leur importance augmenter.
Google précise une nouvelle fois ne pas aimer "les sites qui "réchauffent" ou même copient du contenu existant sans valeur ajoutée ou peu utile pour les utilisateurs ". Google se réserve le droit de sanctionner de tels sites, et très sévèrement, comme le montre l'activation de Panda au Royaume-Uni.
Quant à "rédiger du texte facile à lire", afin de viser le plus grand nombre, cela se traduit par un autre conseil concret : mélanger les mots clefs, pour qu'ils soient à la fois généralistes et spécialisés. Google AdWords propose d'ailleurs un générateur de mots clés très utile, entre autres pour cet usage
5) Bien désindexer des pages – et pas uniquement avec le fichier robots.txt
Comme le rappelle l'expert en SEO Alexandre Garnier, depuis la mise à jour Panda, le fichier robots.txt, qui empêche les robots de Google d'indexer le contenu, a été surnommé non sans humour "bambou", en référence à la nourriture du Panda. Il risque en effet d'être utilisé par de nombreux webmasters désireux de "cacher" certains de leur contenu à Google.
Afin d'empêcher l'exploration de certaines pages d'un site, Google fournit aux webmasters un générateur de fichier robots.txt. Mais, il existe d'autres moyens pour protéger son site rappelle Mountain View. Un fichier .htaccess protège également les mots de passe des répertoires. La suppression de contenu ayant déjà fait l'objet d'une exploration est également possible depuis le Google Webmaster Tool. Matt Cutts a détaillé dans une vidéo tous les aspects importants à surveiller pour chacune des méthodes de blocage d'URL.
Que faut-il cacher au moteur ? Les réponses peuvent diverger, mais le contenu dupliqué ou les d'URL créées suite à l'utilisation de services de proxy sont bannies : Google connaît et punit ces techniques de Black Hat SEO
Google déconseille également l'indexation "de pages ressemblant à une page de résultats de recherche" d'un moteur interne à un site. Mais certains comparateurs de prix, d'ailleurs récemment sanctionné par Panda, ou d'autres sites indexent toujours les résultats de page de recherche d'un moteur interne...