Google passe en Chromium 74 pour le rendu des sites en JavaScript

Google passe en Chromium 74 pour le rendu des sites en JavaScript En actualisant la version de Chromium utilisée pour le rendering des pages Internet, le géant de Mountain View progresse dans sa compréhension des fonctionnalités en JavaScript.

Les référenceurs l'attendaient depuis plusieurs mois. Lors de la keynote d'ouverture de Google I/O dédiée aux développeurs, le 7 mai, Google a annoncé que dorénavant, Googlebot utiliserait la dernière version de Chromium pour le rendu des pages. Pour mémoire, avant cette annonce, la version utilisée était  Chromium 41, développée en 2015. "Entre temps, beaucoup de fonctionnalités des frameworks de JavaScript, comme Angular, ont vu le jour et n'étaient pas prises en compte, ce qui creusait l'écart entre l'expérience utilisateur sur un navigateur récent et la version de Chromium utilisée par Googlebot", précise Olivier Papon, créateur de Seolyzer.io, un outil d'analyse du crawl.

Olivier Duffez, fondateur de Webrankinfo se réjouit : "Le rendu sera plus réaliste dans les cas où le JavaScript utilisé par le site n'était pas pris en compte par Chrome 41 et à condition qu'il le soit par la nouvelle version de Chromium". Cependant, pour les sites recourant massivement au JavaScript "la double vague d'indexation reste d'actualité", nuance le consultant SEO Aymen Loukil en parlant des deux phases nécessaires à Google pour indexer une page SPA (single page application, n'utilisant que CSS et JavaScript, sans HTML) : le crawl et le rendering. "Cette annonce indique simplement que le rendering va se faire avec les dernières nouveautés côté navigateur", pointe Julien Deneuville, consultant SEO et data chez Databulle.

Concrètement, les référenceurs vont pouvoir gagner du temps dans l'implémentation du lazyloading, qui requérait jusqu'alors un nettoyage laborieux du code des polyfills. Par ailleurs, "l'UI/UX, c'est-à-dire les effets visuels tels que les slideshows, accordéons, effets de style, mises en avant du contenu, accordéons, onglets (cachés/visibles), va être mieux comprise par GoogleBot", précise Laurent Tulpan, chef de projet digital chez Coeur du Web. En revanche, l'obfuscation, pratique consistant à dissimuler des liens ou du code aux yeux des crawlers en les passant en JavaScript, risque de perdre en efficacité, puisque Google sera en mesure de les identifier.