L'hyperscale a le vent en poupe ! Quels en seront les prochains bénéficiaires ?

La popularité des services de cloud et de big data a nécessité de trouver une architecture adaptée aux nouveaux usages et de garantir un fonctionnement optimal pour un coût plus abordable. La réponse à ces enjeux ? L'hyperscale.

Cette technologie révolutionnaire n’est pas prête à freiner sa lancée : le nombre de data centers adaptés à l’hyperscale devrait être deux fois plus important en 2021 qu’en 2015 d’après une étude menée par Synergy Research.

Si elle était jusqu’ici encore principalement réservée aux Gafa, cette technologie se démocratise doucement et pourrait bien devenir un axe d’innovation majeur pour d’autres grandes entreprises. A la clef, une vraie mutation énergétique et une transformation en profondeur à venir dans la gestion des serveurs sur les 10 prochaines années.

Une technologie éprouvée auprès des Gafa

Mais qu’entend-on par hyperscale ? Cette approche permet aux data centers d’entreprise de prendre en charge des milliers de serveurs virtuels, contrairement à un data center plus classique qui ne peut contenir qu’une centaine d’unités. Il s’agit d’un vrai progrès pour les entreprises permettant un gain d’espace physique considérable, une baisse drastique de la consommation énergétique et une plus grande réactivité face aux pics d’activités. L’hyperscale permet aux entreprises de gagner en flexibilité en activant ou désactivant ses machines selon les besoins. Les entreprises peuvent ainsi utiliser la quasi-totalité des capacités des serveurs en cas de forte affluence ou désactiver une partie de leurs unités lors d’une période creuse. Avec des coûts d’utilisation et de refroidissement très importants sur chaque machine, les économies réalisables grâce à l’hyperscale sont considérables.

Cette technologie est aujourd’hui principalement réservée aux Gafa dont les activités nécessitent une infrastructure puissante et solide, capable de gérer un nombre incommensurable de dataoctets. Ces « hyperscalers » ont implémenté cette technologie en passant d’une logique de « time-to-market » à une approche de « time-to-project » : la nécessité de mettre en place ces projets rapidement pousse les Gafa à déployer leurs serveurs sans attendre les fournisseurs de composants. Une illustration de l’importance de l’hyperscale pour ces grandes organisations qui n’hésitent pas à le mettre au centre de leur stratégie globale.

Nous pourrions penser que l’hyperscale est une technologie de niche réservée aux plus grandes marques. Mais l’innovation de l’hyperscale ne pourrait-elle pas également bénéficier à d’autres organisations ?

A la conquête des grands fournisseurs de cloud

Comme le cloud il y a 15 ans, l’hyperscale est voué à se démocratiser et à s’ouvrir à d’autres typologies d’entreprise. Qui sont donc ces nouveaux hyperscalers 2.0 ? Les principaux bénéficiaires en vue sont les grands fournisseurs de plateformes cloud tels que OVHcloud, Scaleway ou encore Criteo. Ces sociétés ont tout à gagner de l’hyperscale. Si ces entreprises ne possèdent pas les mêmes architectures informatiques que les Gafa et n’ont pas les mêmes besoins technologiques, elles ont cependant la nécessité constante de trouver la meilleure technologie au meilleur prix pour rester compétitives et offrir les services adaptés à leurs clients.

Grâce à l’hyperscale, ces fournisseurs peuvent, tout comme les Gafa, améliorer leurs offres en les rendant plus accessibles grâce à une consommation énergétique drastiquement réduite et une meilleure gestion des pics d’activités. En désactivant les serveurs inutilisés, ces sociétés peuvent réaliser d’importantes économies d’échelle, notamment sur les coûts de refroidissement pouvant atteindre 30% du coût de l’énergie du processeur. Pour y parvenir, les fournisseurs de solutions hyperscale doivent être capables d’en personnaliser le design pour l’adapter à l’architecture de cette nouvelle vague d’hyperscalers. C’est cette compétence qui fera la différence et permettra à la technologie de se démocratiser.

Et après, quelles innovations pour l’hyperscale ?

L’hyperscale a encore de beaux jours devant elle et l’innovation constante autour de cette technologie permettra aux data centers et aux serveurs de profiter d’améliorations non négligeables. Aujourd’hui, l’évolution de l’hyperscale est conduite par deux facteurs :

  • la densité des data centers physiques dont la surface réservée n’est pas extensible
  • la recherche de l’efficience énergétique pour pallier la consommation très importante des centres de données.

Les grands constructeurs cherchent à améliorer sans cesse ces deux aspects, notamment en travaillant sur le design des serveurs adaptés à l’hyperscale. A la clef, une innovation non seulement sur les machines embarquant l’hyperscale, mais également pour les serveurs traditionnels qui profiteront des améliorations drivées par la technologie pour réduire leur propre consommation tout en améliorant leurs performances sur l’espace physique qui leur est alloué.

Autre bonne nouvelle : la consommation énergétique des data centers embarquant la technologie hyperscale est restée stable ces dernières années, d’après l’étude de Synergy Research. Nous prévoyons une migration progressive des data centers d’entreprises vers l’hyperscale pour résoudre les problèmes d’efficacité énergétique qui représentent non seulement un coût exorbitant mais également un frein à une approche plus écologique.

L’hyperscale n’est pas une technologie à la mode ou de passage : c’est une approche qui va bien au-delà de la simple performance. En tant que fer de lance de l’innovation sur l’ensemble des technologies liées aux serveurs, l’hyperscale est l’un des axes majeurs pour répondre aux grands défis énergétiques de notre monde. Avec une demande en croissance constante en services cloud, ce n’est qu’une question d’années avant de pouvoir démocratiser l’hyperscale au plus grand nombre.