Data Centers : chiffre d’affaires par baie et par Watt

On peut déterminer à quand remonte le début de l'attention portée à l'économie d’énergie dans les datacenters. Mars 2006. C’est à ce moment que se déclenche une série de pannes électriques chez un hébergeur d’hébergeurs, la filiale française de Redbus InterHouse. Le lieu : Courbevoie.

A cette époque, Redbus hébergeait les serveurs de grands prestataires comme Amen et OVH. Plusieurs coupures de courant spectaculaires se produisent, dont l’une survient trop tôt après une précédente pour que les onduleurs aient eu le temps de se recharger. Des milliers de sites web sont impactés, on estime que 30 à 50% du web français est tombé en panne. Cette méga panne laisse un souvenir amer. Après avoir évoqué une défaillance humaine, des audits font apparaître que les serveurs-lames se montraient trop gourmands en alimentation électrique.

Intel proposait des processeurs qui étaient gros consommateurs de courant, comme les Pentium IV, dont tout  le monde se disait pourtant satisfait : pour 300-400 euros par mois, somme très accessible, on avait une baie complète dans laquelle il était facile de loger 42 serveurs, et personne ne se préoccupait de la consommation électrique. Les baies bon marché rentabilisaient les installations de datacenters où de gros investissements avaient été consentis.

Les pannes à répétition chez Redbus furent le déclencheur d’une prise de conscience : les excès devaient cesser, il fallait s’évertuer, pour chaque baie, à rester sous le seuil de consommation prévu par le constructeur, disons par exemple 1500 Watts par baie.  Les charges devaient être étalées sur davantage de baies, et d’autres efforts de remises aux normes s’imposaient : onduleurs, dispositifs de sécurité, ce à quoi il faut ajouter sur la période plus récente une hausse du prix du mètre carré en ville. Tout ce financement se fit par des hausses de tarifs, on vit un hébergeur multiplier soudainement ses tarifs par deux.

La chasse aux watts superflus


Avant ces événements certains avaient commencé à considérer que les serveurs consommaient trop. Par souci de consommer moins, ceux-ci n’avaient par exemple aucun processeur Pentium IV,  lui préférant ceux d’AMD, alors moins gourmands. Nous observions que des hébergeurs s’équipaient de machines Dell à processeur Xeon, pour une consommation de 500-600 watts, tandis que d’autres obtenaient les mêmes résultats avec seulement 100 watts. A présent, tout le monde s’est à peu de choses près aligné, tout le monde a mis un terme à la surconsommation d’énergie. Il faut savoir que quand un serveur consomme 100 watts, son alimentation utilise 120 watts, et qu’avec tous les dispositifs de sécurité et de climatisation autour on arrive à 300 watts de consommation pour une machine.

Il y a des décisions d’apparence simple qui contribuent à l’économie et à l’efficacité. Par exemple, configurer sur les serveurs des ventilateurs tournant à la vitesse minimum, ce qui fait économiser 10 à 15 watts par machine. Autre exemple de choix simple : ne jamais utiliser de double alimentation, parce que le supplément d’énergie consommé alors serait de l’ordre de 10-20%. Avec deux alimentations, chacune tourne à la moitié de sa capacité car chacune a un rendement optimal à une certaine utilisation, sans oublier les pertes énergétiques. La double alimentation est un argument commercial, sans plus.

Virtualiser, optimiser

Nous voyons donc, en résumé, que sur le plan purement matériel il peut se produire, si l’on n’y prend pas garde, une accumulation de facteurs impactant négativement la consommation : serveurs à double processeur, machines anciennes non optimisées, doubles alimentations, ventilateurs non réglés...Mais ce n’est pas tout.

Si vous désirez réduire l’énergie consommée, vous avez le choix. Soit vous prenez des serveurs basse consommation et vous en logez beaucoup dans une baie pour vendre au final du service moins cher. Soit vous vous tournez vers la virtualisation : c’est le choix que nous avons fait. Placer tout l’effort sur le matériel engendre des inconvénients et ajoute de la complexité : il faut gérer ce matériel, les pannes, le stock. Pour schématiser,  la virtualisation consiste à prendre une grosse machine consommant certes une dose d’énergie non négligeable, mais en la transformant en plusieurs petites machines. Cette approche possède elle aussi ses petits inconvénients, qu’il faut apprendre à gérer. Par exemple, comme il y a plusieurs clients sur une seule machine, il suffit que l’un d’eux utilise beaucoup de ressources pour impacter les autres. Nous échappons à ce problème par une gestion des serveurs par nos propres équipes.

En tant qu’hébergeur, il faut être capable d’opérer des répartitions et d’optimiser les sites des clients. A l’inverse, lorsque c’est le client qui gère directement son serveur, nous n’avons pas la main sur les réglages d’optimisation : il peut arriver que subsistent dans certains programmes des écritures fréquentes sur le disque dur et que personne ne s’en rende compte, alors que cela ralentit tous les clients.

Mais quand c’est nous qui sommes en charge du serveur, nous recherchons tous les moyens d’optimisation, notamment d’optimisation des ressources. Si un client vient vers nous pour demander un deuxième serveur, nous pouvons parfois optimiser le serveur existant et éviter l’achat d’un second serveur. Auparavant, on changeait les serveurs, ou on en rajoutait. Désormais nous allons plutôt consolider les serveurs et virtualiser. Le but du jeu est de réaliser le maximum de chiffre d’affaires par watt consommé, alors que naguère les gens du métier cherchaient à réaliser le maximum de chiffre d’affaires par baie. Il y a un changement de paradigme. Bénéfice consommateur de l’approche par la virtualisation et l’optimisation : le client n’a pas vu de hausse sur son tarif depuis longtemps !