eMarchands, devez-vous avoir peur des robots ?

eMarchands, devez-vous avoir peur des robots ? Ils faussent les KPI, surchargent les serveurs et portent atteinte à la sécurité des utilisateurs. Mais tous ne sont pas mauvais.

De plus en plus, les bots envahissent le Web et l'e-commerce. Ces logiciels informatiques opèrent de manière autonome et automatique sur les sites marchands. "Ils représentent en moyenne 50% du trafic web aujourd'hui. Il faut les bloquer et les réguler avant qu'ils n'arrivent sur les plateformes", explique Fabien Grenier, cofondateur et directeur général de Datadome, start-up qui s'est fait une spécialité de la chasse aux robots. Illustration chez PriceMinister-Rakuten : "Nous avions l'intuition qu'une très grande partie de nos ressources était consommée par un trafic mal identifié", raconte Fabien Versavau, directeur général adjoint, qui a finalement diagnostiqué que 75% de son trafic était généré par des robots en février 2017. Même son de cloche chez Cairn.info, un vendeur en ligne de revues de sciences humaines et sociales. "Depuis quelques années, on observe une augmentation de la présence des bots qui représentent jusqu'à 50% des accès à nos serveurs", dévoile Jean-Baptiste De Vathair, directeur des opérations du site. Lors des Enjeux de la Fevad, Ilan Benhaïm, cofondateur de Vente-privée, a également alerté sur le danger de ces "trafics inutiles et néfastes". 

Chez PriceMinister, 75% du trafic était généré par des robots en février 2017

Cela ne veut pas pour autant dire que les audiences des sites de vente en ligne sont fausses. En effet, parmi ce trafic important généré par des robots, 15% risque de polluer les analytics des marchands, selon Datadome. Seuls les bots qui exécutent du JavaScript faussent les prises de décision marketing. C'est-à-dire ceux qui ouvrent les pages web comme un humain. Imaginez : ils avancent dans le tunnel de vente, passent des commandes sans aboutir à un paiement ou remplissent un panier. Pourquoi faire ? Principalement, ils prennent des informations à des fins financières comme les prix, les catalogues et les cookies. "Au niveau publicitaire, sur les sites premium dont les e-marchands, nous détectons entre 5 et 10% de trafic invalide. C'est-à-dire un trafic composé de robot mais aussi des mauvaises pratiques d'éditeurs", nuance Romain Bellion, cofondateur et directeur technique d'Adloox, une société spécialiste du tracking de bannière publicitaire.

Ainsi la majorité des bots reste invisible pour des outils d'analytics comme Google Analytics. Car la plupart des robots n'exécutent pas de JavaScript mais viennent sur le site incognito. Ils pèsent uniquement sur les ressources serveurs des marchands et sur les bandes passantes. "En bloquant ces bots, on peut réaliser jusqu'à 30% d'économie sur les coûts d'hébergeurs", promet Fabien Grenier de chez Datadome.

Cette présence de bots peut ralentir la performance du site

Une économie qui varie selon les e-commerçants. "Ils pèsent sur notre infrastructure, c'est certain. En revanche, les réguler nous permet surtout de retarder la montée en capacité de nos serveurs", tempère Jean-Baptiste De Vathair de chez Cairn. Avec le risque qu'en cas de pic d'audiences, cette présence de bots puisse ralentir la performance du site (la webperf), voire planter les API et rendre inaccessible des services.

Encore plus dangereux, Blablacar a observé des pics de trafics inhabituels ces derniers mois. La cause : des robots-hacker qui essayent de prendre le contrôle des comptes de ses clients. Leur objectif est d'obtenir des données personnelles comme le nom, prénom, l'adresse et surtout des moyens de paiement. Baptisés Impersonators, ces bots testent massivement sur les sites marchands des logins volés sur le Web. Dans la mesure où les internautes utilisent souvent le même code sur différentes plateformes, le taux de succès de ces piratages avoisine les 8%, estime Datadome.

Le taux de succès des robots-hacker avoisine les 8%

Tous ne sont pas aussi malveillants.  "Il y a de mauvais… et de bons robots", distingue Fabien Grenier. Comme le crawler de Google qui indexe les pages des sites web pour le référencement. Certains viennent des réseaux sociaux. D'autres peuvent provenir d'agences qui font de la veille pour les annonceurs ou des concurrents qui scannent les prix. Voilà pourquoi il faut pouvoir distinguer le bon grain de l'ivraie et les filtrer.

Et aussi :