Les dessous de l'abandon de Google Website Optimizer
Google Website Optimizer était un précurseur des solutions d’optimisation de conversation par A/B testing. Quelles sont les raisons qui ont poussé Google à l’arrêter pour migrer ses fonctionnalités directement dans sa solution de Web Analytics ? Quels enseignements peut-on en tirer ?
L’annonce officielle le 1er juin 2012 de l’arrêt de Google Website Optimizer (GWO) était aussi inattendue qu’abrupte : en coupant définitivement son service d’A/B testing le 1er août, Google n’a laissé que deux mois (!) à ses utilisateurs pour trouver une alternative. Certes, un remplaçant officiel, Content Experiments, est disponible dans Google Analytics depuis juillet mais ses fonctionnalités sont très limitées. Surtout, nombre d’entreprises adeptes de GWO n’utilisent pas Google Analytics et n’ont pas l’intention de migrer vers cette solution : satisfaites d’outils analytics plus haut de gamme comme AT Internet NX Analyzer ou Adobe Omniture, elles sont désormais contraintes de migrer vers une nouvelle solution d’A/B testing dans un laps de temps très court pour continuer leurs tests. Pourquoi donc Google a pris une telle décision?
GWO:
un outil gratuit mais délaissé par son créateur
J’ai
toujours été surpris du peu d’attention dont semblait souffrir le
produit de testing de Google. Certes, étant un outil gratuit, GWO ne
pouvait offrir le même niveau de fonctionnalités que celui de
solutions plus puissantes. Pour autant, on aurait pu penser que le
produit serait nettement plus abouti compte-tenu du talent des
ingénieurs de Google.
Le
principal problème de GWO résidait dans sa manière de gérer
techniquement l’A/B testing. Pour simplifier, on peut dire que GWO
fonctionnait soit par redirections d’URL (réalisés par
JavaScript), soit par taggage de zones spécifiques dans le code HTML
et entrée des variations directement en HTML sur le back-office de
GWO. Dans les deux cas, utiliser l’outil nécessitait des
connaissances techniques poussées. Et la contrainte de retaggage du
site, à chaque nouvel A/B test, était extrêmement pénalisante: à
moins d’une forte réactivité des intégrateurs (uniquement
envisageable chez des acteurs de petite taille), un test A/B devait
être planifié longtemps à l’avance..
Du coup, GWO était utilisé principalement par des équipes techniques, qui avaient la main sur le code HTML du site et la possibilité de le mettre à jour, alors que l’esprit même de l’A/B testing et des méthodes d’optimisation est d’être sous la responsabilité des équipes marketing, seules garantes du taux de conversion de sites web marchands. Ce seul problème était déjà suffisant à éliminer GWO pour de nombreux utilisateurs potentiels.
GWO
a aussi donné depuis quelque temps la nette impression qu’il se
languissait, au point de s’interroger sur le support réel accordé
par son créateur. Certains utilisateurs se rappelleront l’e-mail
de février 2012 qui, en substance, disait: “Nous
vous prions de nous excuser, mais il est possible que certains des
tests effectués au cours des quinze derniers jours n’aient pas
fonctionné correctement”.
Même si la complexité des systèmes informatiques actuels implique
forcément des bogues occasionnels, on était en droit d’attendre
mieux de Google et d’une solution déployée sur des milliers de
sites web !
Malgré
quelques fonctionnalités intéressantes, telle que la possibilité
de réaliser des tests multivariés, on peut donc affirmer que GWO
était un parent pauvre au sein de la famille de produits Google. Les
mauvaises langues assureront que c’était volontaire de la part
d’une société qui réalise la quasi totalité de son chiffre
d’affaires dans le domaine de la publicité, et donc de
l’acquisition. Il est vrai que Google Analytics, qui est plus
directement liée au trafic et donc à l’acquisition, est une
solution nettement plus aboutie que ne l’était GWO. Cependant, je
ne crois pas à cette explication.
Le
problème crucial du reporting
La
vraie décision derrière la migration de GWO vers Content
Experiments tient à la logique du reporting. Alors que Google
dispose d’une solution analytics particulièrement aboutie (Google
Analytics), GWO avait ses propres rapports, développés séparément.
Bien entendu, il était potentiellement possible d’intégrer les
résultats de GWO dans GA, mais ce n’était pas le comportement par
défaut
(ce qui signifie que 95% des utilisateurs ne s’en servaient pas).
J’ai
toujours défendu le point de vue qu’intégrer dans une même
solution les fonctionnalités d’A/B testing et celles d’analyse
de trafic web et de comportement utilisateur, est une aberration. En
effet, les solution de web analytics sont nécessairement plus
avancées que les solutions d’A/B testing (elles sont apparues bien
avant) et réalisent donc un certain nombre d’opérations bien
mieux que ne le font, ou ne le feront, les solutions pures de
testing. Plutôt que de reproduire maladroitement des
fonctionnalités, mieux vaut s’intégrer aux outils dédiés du
marché. Par exemple au niveau des objectifs: il est extrêmement
rare de vouloir améliorer une métrique unique lors d’A/B tests :
certes, il y a un objectif principal à atteindre, mais il est tout
aussi essentiel de vérifier la non-dégradation de métriques
secondaires. Or, l’endroit naturel pour configurer ces objectifs
reste la solution web analytics : pourquoi refaire dans un autre
outil un travail qui a parfois demandé des mois et qui est par
ailleurs structurel et très sensible?. La segmentation est un autre
excellent exemple de fonctionnalité qui a sa place naturellement
dans la solution web analytics, de même que les alertes e-mail
souhaitées par certains managers. En utilisant le dashboard
forcément minimaliste d’un outil d’A/B testing, le client n’a
pas accès à l’intégralité des données pouvant être remontés
par les tests : dans ce cas, l’outil d’A/B testing devient
même contre-productif car il diminue la valeur ajoutée totale qu’il
peut apporter à ses clients!
En résumé, une solution d’A/B testing doit se focaliser sur ses points forts et ne pas se disperser en reproduisant un reporting de toute facon bien plus avancé dans NX Analyzer, Omniture ou GA.
Google,
loin de vouloir abandonner la promotion de l’A/B testing et des
méthodologies data-driven, veut au contraire, à terme, amener
beaucoup plus d’acteurs à passer à ce genre de pratiques. Pour
cela, il était effectivement nécessaire d’oublier son outil
historique, non intégré, et de le regrouper au sein de Google
Analytics où il trouve sa place naturelle.
Il
sera intéressant de voir comment Content Experiments va s’enrichir
au sein de Google Analytics. Il est possible qu’elle devienne une
solution de testing particulièrement aboutie, ce que n’aurait
jamais été le cas de GWO. Évidemment, ce changement implique qu’il
ne sera plus possible d’utiliser l’A/B testing de Google avec des
solutions web analytics tierces. Pour les acteurs dans ce cas de
figure, la décision de Google est cruelle, mais assez logique.
Google ne fait désormais plus de cadeaux à ses concurrents sur le
terrain du Web Analytics.