COP 21 2015 : l’inexorable dégradation du bilan carbone du Cloud

Alors que les TIC représenteront 1,97% des émissions de CO2 d’ici 2030, les datacenters à eux seuls représenteront 28,8% des émissions de CO2 dues aux TIC. Ils engloutissent déjà 2% de la production mondiale d’électricité.

Alors que les TIC représenteront 1,97% des émissions globales de CO2 d’ici 20301, ordre de grandeur similaire à celui du trafic aérien civil(2), il est estimé que les datacenters à eux seuls représenteront 28,8% des émissions de CO2 dues aux TIC(3). Ces datacenters, dont le nombre ne cesse d’augmenter du fait de la politique 100% Cloud promue par la grande majorité des acteurs de l’IT, engloutissent d’ores et déjà 2% de la production mondiale d’électricité et cette consommation devrait s’accroît.

Les datacenters : trous noirs de la production électrique

Le volume de données croît au rythme effréné de 42% par an. Le principal ressort de cette croissance est démographique et s’explique par la multiplication du nombre d’internautes (3,2 milliards dans le monde aujourd’hui).

Avec 43% de la population mondiale connectée, soit une proportion 7 fois supérieure à celle de l’année 2000(5), des hauts débits télécoms qui favorisent l’accès distant à des fichiers gourmands en espace de stockage (musique, vidéo, nouveaux services en ligne – réseaux sociaux, Uber, AirBnB), une dématérialisation accrue des contenus et usages, et une démultiplication du nombre d’objets connectésles besoins de stockage et de traitements de données n’ont eu cesse de croître pendant ces quinze dernières années. Le stockage dans le Cloud en datacenter répond à cette demande grandissante, mais il va sans dire que l’empreinte environnementale du Cloud est loin d’être neutre.

Les datacenters ont d’énormes besoins en électricité pour alimenter les serveurs informatiques hautes performances qu’ils hébergent, ainsi que la climatisation intensive permettant de réguler leur températureLes centres d’hébergement américains accaparent ainsi 2,5% de la production nationale d’électricité, tandis qu’en France ils consomment 7% de l’électricité produite sur le territoire(6). Face à la multiplication de leur nombre, on s’attend à une croissance de la demande d’électricité de l’ordre de 80% sur les cinq prochaines années. Sachant que plus de deux tiers de l’électricité(7) sont encore produits à partir de combustibles fossiles…

Si l’on tend vers une inexorable dégradation du bilan carbone du Cloud, il faut tout de même saluer les initiatives remarquables.

De véritables avancées vers le « Green IT »

Il serait injuste de passer sous silence les efforts de l’industrie pour réduire son empreinte environnementale, d’autant que, selon la dernière étude Marketwatch en date, la croissance attendue du marché du « Green Data Center » aux Etats-Unis serait de 30,8% sur la période 2015-2022. Si l’on doit définir la notion de « Green Data Center », on retiendra qu’il s’agit d’une infrastructure de stockage qui sauvegarde, gère et redistribue des données informatiques en utilisant des méthodes qui favorisent une efficacité énergétique maximum contre un impact environnemental minimal.

Diverses avancées technologiques(8) sont alors intégrées aux datacenters, notamment pour réduire la consommation énergétique liée aux systèmes de refroidissement : sélection d’équipements peu énergivores et de composants tolérants aux variations de température, ou bien utilisation de techniques telles que le cold corridor, le free cooling direct ou encore la variante indirecte de ce processus (un échangeur thermique extrait la chaleur des serveurs via un circuit d’eau glacée), etc.

Des initiatives ont également vu le jour : la mairie de Paris prévoit de récupérer l’énergie d’un datacenter avoisinant pour chauffer la piscine de la Butte aux Cailles. La région Pays de la Loire propose d’établir des datacenters dans ses galeries troglodytes(9), en souterrain, pour un refroidissement à très faible consommation énergétique grâce à la fraîcheur ambiante.

Les progrès du Green IT ont conduit à une amélioration des indicateurs d’efficacité énergétique des datacenters au cours des dernières années. Si l’on considère que le PUE (Power Usage Effectiveness – ratio entre l’énergie totale consommée par l’ensemble du centre d’exploitation, avec climatisation, et la partie étant effectivement consommée par les systèmes informatiques exploités : serveurs, stockage, réseau) était auparavant de 2,5, un progrès est notable.

Toutefois, même si progrès il y a, le PUE s’établit encore bien trop souvent entre 1,5 et 2, et les initiatives actuelles restent trop marginales pour endiguer le déficit énergétique global.

Ces avancées restent insuffisantes face :

- aux limites de la mutualisation

Les centres d’hébergement sont conçus pour garantir la continuité de l’exploitation des données, applications ou équipements qu’ils hébergent, ce qui les conduit à dupliquer la plupart des équipements électriques, informatiques et télécoms, démultipliant ainsi leur consommation énergétique par la même occasion. L’apparition de processeurs plus denses au cours de la dernière décennie et de serveurs très énergivores, comme les « blades », a doublé les besoins en densité des datacenters (500 W/m2 en moyenne en 2005, contre plus de 1000 W/m2 en 2015), expliquant ainsi que le PUE d’un bon nombre de datacenters s’établisse encore, comme mentionné plus tôt, entre 1,5 et 2.

- à des choix d’implantation aggravants

Les datacenters sont majoritairement établis en périphérie des zones de forte densité de population, là où les problèmes d’environnement sont les plus aigus (près de 70% des émissions de CO2 dans le monde sont produits en agglomération(10)). En France, près de 30% des centres d’hébergement sont implantés à Paris ou en proche banlieue. Il convient ici de saluer l’implantation d’un centre Facebook en Suède alimenté par des énergies renouvelables.

- aux lois naturelles qui, appliquée au Cloud, permettent d’anticiper qu’une politique 100% Cloud ne sera pas tenable

Le Cloud n’échappe pas aux lois naturelles. En écologie, la « capacité de charge » est la taille maximale de la population d’un organisme qu’un milieu donné peut supporter. Nul besoin d’être un mathématicien averti pour comprendre qu’avec un taux de croissance exponentiel, la population de serveurs concentrée dans un datacenter (ici, le milieu donné) va rapidement exiger plus de ressources – densité de fibres optiques, électricité, eau,… – que son milieu de pourra fournir. Cela pourrait rapidement perturber leur fonctionnement et impacter leur qualité de service.

Andrew Ellis, professeur de l’université de Birmingham, prédit déjà, dans le cadre de son programme de recherche PEACE (Petabit Energy Aware Capacity Enhancement), un ralentissement de la croissance des flux Internet d’ici 2023 du fait d’une pénurie des débits télécoms, notamment en raison des datacenters qui concentrent les flux de requêtes de la planète sur des artères de télécommunication d’ores et déjà saturées. La fibre optique n’est pas la seule ressource à devenir pénurique. Faute d’alimentation électrique suffisante, les datacenters de première génération enregistrent des pannes à répétition à la moindre canicule et ne peuvent répondre aux besoins d’évolution de leurs clients. Ainsi, outre son impact environnemental catastrophique, une politique 100% Cloud ne peut conduire à moyen terme qu’à une dégradation de la qualité de service et à une augmentation substantielle du coût des dits services pour l’utilisateur final.

La solution, c’est une politique Cloud intelligente et hybride à l’échelle macro

Nul ne peut nier les bénéfices du Cloud et le rôle que jouent les datacenters dans la chaîne de production des services associés. Mais en toute chose, il faut savoir raison garder. Il est devenu indispensable aujourd’hui, à l’heure où la politique du 100 % Cloud bat son plein, de prendre le temps d’évaluer si la mutualisation des données en data center est la solution la plus pertinente pour chaque cas de figure.

La concentration des populations autour de mégalopoles est la cause principale de nos problèmes écologiques actuels. Il s’agit maintenant de profiter de cette expérience pour ne pas reproduire les mêmes erreurs. Les machines n’ont nul besoin de proximité pour communiquer : les datacenters doivent héberger les ressources lorsque leur mutualisation fait sens, par exemple pour bon nombre de TPE. Cette concentration doit engendrer moins de besoins en infrastructure immobilière, en équipement, en énergie, en télécom, et coûter moins cher que si ces ressources devaient être exploitées séparément. Si la quantité de données concentrée est telle que les besoins s’en trouvent décupler, mieux vaut privilégier un stockage en Cloud privé, sur le site de l’entreprise cliente.

Au lieu de se lancer à corps perdu dans une politique 100% Cloud généralisée, ne vaudrait-il pas mieux prendre le recul nécessaire pour valoriser une approche hybride indispensable, et un Cloud intelligent, prenant en compte le profil des sociétés et données à héberger ?


 Sources :
1) Global e-Sustainability Initiative – #SMARTer2030 – ICT Solutions for 21st Century Challenges
2) Source
3) Global e-Sustainability Initiative – #SMARTer2030 – ICT Solutions for 21st Century Challenges
4) Greenpeace USA – Clicking Clean: How Companies are Creating the Green Internet
5) Source
6) Etude Qarnot Computing
7) Etude Observ ER 2013
8) Source
9) Source
10) Source

Autour du même sujet