Les dessous de l'abandon de Google Website Optimizer

Google Website Optimizer était un précurseur des solutions d’optimisation de conversation par A/B testing. Quelles sont les raisons qui ont poussé Google à l’arrêter pour migrer ses fonctionnalités directement dans sa solution de Web Analytics ? Quels enseignements peut-on en tirer ?

L’annonce officielle le 1er juin 2012 de l’arrêt de Google Website Optimizer (GWO) était aussi inattendue qu’abrupte : en coupant définitivement son service d’A/B testing le 1er août, Google n’a laissé que deux mois (!) à ses utilisateurs pour trouver une alternative. Certes, un remplaçant officiel, Content Experiments, est disponible dans Google Analytics depuis juillet mais ses fonctionnalités sont très limitées. Surtout, nombre d’entreprises adeptes de GWO n’utilisent pas Google Analytics et n’ont pas l’intention de migrer vers cette solution : satisfaites d’outils analytics plus haut de gamme comme AT Internet NX Analyzer ou Adobe Omniture, elles sont désormais contraintes de migrer vers une nouvelle solution d’A/B testing dans un laps de temps très court pour continuer leurs tests. Pourquoi donc Google a pris une telle décision?

GWO: un outil gratuit mais délaissé par son créateur

J’ai toujours été surpris du peu d’attention dont semblait souffrir le produit de testing de Google. Certes, étant un outil gratuit, GWO ne pouvait offrir le même niveau de fonctionnalités que celui de solutions plus puissantes. Pour autant, on aurait pu penser que le produit serait nettement plus abouti compte-tenu du talent des ingénieurs de Google.

Le principal problème de GWO résidait dans sa manière de gérer techniquement l’A/B testing. Pour simplifier, on peut dire que GWO fonctionnait soit par redirections d’URL (réalisés par JavaScript), soit par taggage de zones spécifiques dans le code HTML et entrée des variations directement en HTML sur le back-office de GWO. Dans les deux cas, utiliser l’outil nécessitait des connaissances techniques poussées. Et la contrainte de retaggage du site, à chaque nouvel A/B test, était extrêmement pénalisante: à moins d’une forte réactivité des intégrateurs (uniquement envisageable chez des acteurs de petite taille), un test A/B devait être planifié longtemps à l’avance..

Du coup, GWO était utilisé principalement par des équipes techniques, qui avaient la main sur le code HTML du site et la possibilité de le mettre à jour, alors que l’esprit même de l’A/B testing et des méthodes d’optimisation est d’être sous la responsabilité des équipes marketing, seules garantes du taux de conversion de sites web marchands. Ce seul problème était déjà suffisant à éliminer GWO pour de nombreux utilisateurs potentiels.

GWO a aussi donné depuis quelque temps la nette impression qu’il se languissait, au point de s’interroger sur le support réel accordé par son créateur. Certains utilisateurs se rappelleront l’e-mail de février 2012 qui, en substance, disait: “Nous vous prions de nous excuser, mais il est possible que certains des tests effectués au cours des quinze derniers jours n’aient pas fonctionné correctement”. Même si la complexité des systèmes informatiques actuels implique forcément des bogues occasionnels, on était en droit d’attendre mieux de Google et d’une solution déployée sur des milliers de sites web !

Malgré quelques fonctionnalités intéressantes, telle que la possibilité de réaliser des tests multivariés, on peut donc affirmer que GWO était un parent pauvre au sein de la famille de produits Google. Les mauvaises langues assureront que c’était volontaire de la part d’une société qui réalise la quasi totalité de son chiffre d’affaires dans le domaine de la publicité, et donc de l’acquisition. Il est vrai que Google Analytics, qui est plus directement liée au trafic et donc à l’acquisition, est une solution nettement plus aboutie que ne l’était GWO. Cependant, je ne crois pas à cette explication.

Le problème crucial du reporting

La vraie décision derrière la migration de GWO vers Content Experiments tient à la logique du reporting. Alors que Google dispose d’une solution analytics particulièrement aboutie (Google Analytics), GWO avait ses propres rapports, développés séparément. Bien entendu, il était potentiellement possible d’intégrer les résultats de GWO dans GA, mais ce n’était pas le comportement par défaut (ce qui signifie que 95% des utilisateurs ne s’en servaient pas).

J’ai toujours défendu le point de vue qu’intégrer dans une même solution les fonctionnalités d’A/B testing et celles d’analyse de trafic web et de comportement utilisateur, est une aberration. En effet, les solution de web analytics sont nécessairement plus avancées que les solutions d’A/B testing (elles sont apparues bien avant) et réalisent donc un certain nombre d’opérations bien mieux que ne le font, ou ne le feront, les solutions pures de testing. Plutôt que de reproduire maladroitement des fonctionnalités, mieux vaut s’intégrer aux outils dédiés du marché. Par exemple au niveau des objectifs: il est extrêmement rare de vouloir améliorer une métrique unique lors d’A/B tests : certes, il y a un objectif principal à atteindre, mais il est tout aussi essentiel de vérifier la non-dégradation de métriques secondaires. Or, l’endroit naturel pour configurer ces objectifs reste la solution web analytics : pourquoi refaire dans un autre outil un travail qui a parfois demandé des mois et qui est par ailleurs structurel et très sensible?. La segmentation est un autre excellent exemple de fonctionnalité qui a sa place naturellement dans la solution web analytics, de même que les alertes e-mail souhaitées par certains managers. En utilisant le dashboard forcément minimaliste d’un outil d’A/B testing, le client n’a pas accès à l’intégralité des données pouvant être remontés par les tests : dans ce cas, l’outil d’A/B testing devient même contre-productif car il diminue la valeur ajoutée totale qu’il peut apporter à ses clients!

En résumé, une solution d’A/B testing doit se focaliser sur ses points forts et ne pas se disperser en reproduisant un reporting de toute facon bien plus avancé dans NX Analyzer, Omniture ou GA.

Google, loin de vouloir abandonner la promotion de l’A/B testing et des méthodologies data-driven, veut au contraire, à terme, amener beaucoup plus d’acteurs à passer à ce genre de pratiques. Pour cela, il était effectivement nécessaire d’oublier son outil historique, non intégré, et de le regrouper au sein de Google Analytics où il trouve sa place naturelle.

Il sera intéressant de voir comment Content Experiments va s’enrichir au sein de Google Analytics. Il est possible qu’elle devienne une solution de testing particulièrement aboutie, ce que n’aurait jamais été le cas de GWO. Évidemment, ce changement implique qu’il ne sera plus possible d’utiliser l’A/B testing de Google avec des solutions web analytics tierces. Pour les acteurs dans ce cas de figure, la décision de Google est cruelle, mais assez logique. Google ne fait désormais plus de cadeaux à ses concurrents sur le terrain du Web Analytics.