Concilier centre de données et Green IT

Les outils d'urbanisation, cartographie et recensement se complètent pour donner en permanence une vision claire des appareils branchés, de leur emplacement et des ressources qu'ils mobilisent.

Cartographier les infrastructures et les équipements pour maitriser l'efficacité énergétique

Pour connaître l'efficacité énergétique d'un parc de serveurs dans un centre de données, il faut connaître ses composants, mais aussi ses infrastructures et les interactions permanentes qui influencent la consommation énergétique.

Au moment de lancer un audit de leurs infrastructures informatiques, les directions informatiques se heurtent à l'inadaptation des outils traditionnels. L'accroissement exponentiel des informations et la difficulté à réconcilier recensement et représentation graphique mettent souvent un point d'arrêt à toute démarche de recensement. De la simple connaissance du parc installé aux interactions fines entre ses composants, de l'optimisation des interventions à la projection à plus long terme, l'outil d'urbanisation s'impose naturellement dans les démarches économiques et environnementales dans lesquelles les acteurs du secteur s'engagent peu à peu.

Première étape dans l'optimisation d'un centre de données : la connaissance de l'existant

Le recensement des infrastructures et équipements, dans un centre de données, peut être envisagé sous deux approches : une approche a priori, qui a l'avantage de ne réclamer qu'un suivi efficace du delta d'informations après un recensement parallèle au déploiement, actualisé à la mise en service et à chaque évolution, et bien sûr en fonction de l'occupation des baies ; une approche a posteriori, répondant à des besoins variés (optimisation électrique, mise en place d'une comptabilité analytique pointue, amélioration de la valorisation des sites, etc).
On peut ajouter à cette liste l'attachement croissant à une image plus "verte", à l'heure où les centres de données géants commencent à prendre leur place dans la liste des grands pollueurs.

L'approche a priori, si elle est plus logique sur le papier, ne coule pas pour autant de source. Les estimations de consommation s'avèrent très vite compliquées et en partie imprévisibles, et leur niveau d'imprécision augmente avec le peuplement du centre de données. Cette approche se retrouve donc contrariée par des fluctuations qui ne peuvent être constatées qu'a posteriori. En pratique, on doit souvent se contenter de détailler au maximum les parties quantifiables, les grandeurs plus volatiles étant prises en compte sous forme de fourchettes ou de calculs prévisionnels actualisables.

Quelle que soit l'approche choisie, l'outil par excellence est tout sauf spécialisé : il s'agit d'Excel.  Tant qu'on reste dans le quantifiable, ce logiciel donne entière satisfaction, le succès de la démarche étant principalement lié à la qualité du recensement et du suivi. Malheureusement, la prise en compte incomplète de l'immatériel se traduit notamment par des relevés centrés sur les baies et sur les infrastructures, laissant de côté la nature essentiellement géographique d'un centre de données.

Or, l'optimisation globale passe par une urbanisation réfléchie et planifiée. Les constats alarmistes sur l'efficacité énergétique des centres de données le prouvent : c'est une étape indispensable pour allouer les ressources selon les impératifs de résilience et les engagements de niveaux de services. Logiquement, la vue en plan est donc le complément idéal des feuilles de calcul utilisées comme outil de recensement. Mais les solutions logicielles existantes ne fournissent pas de solution d'intégration avec l'approche plus comptable d'une feuille de calcul. Les démarches de recensement basées sur des outils génériques tendent ainsi à dériver soit vers la surenchère de tableaux, soit vers la pléthore de graphiques, sans pour autant donner une vision claire de la situation. Qui plus est, l'occultation des données dynamiques (flux d'air chaud et de refroidissement, notamment) rend ce type de solution inopérant dans le cadre d'une démarche Green IT.

C'est là qu'intervient le logiciel d'urbanisation : non content de cumuler les visions analytique et graphique, il les réconcilie en leur permettant de s'appuyer constamment l'une sur l'autre. Il en résulte une réduction évidente du risque d'erreur ou d'omission. Un outil spécialisé améliore en outre la pertinence de l'information, en fournissant un modèle de données adapté au contexte, ciblé mais évolutif. Enfin, la solution intégrée raisonne dans le sens montant, de l'infrastructure permanente à l'équipement provisoire, ce qui évite des omissions comme le coût du câblage, pourtant très affecté par les fluctuations du coût des matières premières.

1.     Sensibilisation à la consommation


Pour être rentable, l'infrastructure d'un centre de données doit être proportionnée, disponible, abordable, et exploitée au mieux. C'est ce que l'ensemble de recommandations britannique ITIL (Information Technology Infrastructure Library) regroupe sous le terme de gestion de capacité (capacity management). Une fois les infrastructures en place, la taille et la disponibilité de l'ensemble en termes de fiabilité ne sont plus guère modifiables. En revanche, disponibilité et rentabilité peuvent être améliorées par une connaissance fine et évolutive de l'infrastructure, de son contenu et de leurs interactions. Dans le cadre d'une démarche Green IT, il faut évidemment se concentrer sur la consommation énergétique, sans pour autant négliger les coûts de production, de maintenance et de destruction des équipements.

Au cours de la décennie écoulée, la facturation des centres de données était centrée sur la place occupée par les serveurs. Des postes de dépense jugés secondaires comme la consommation électrique ou le câblage étaient alors traités en bloc. Mais l'augmentation des coûts de l'énergie et des matières premières est venue changer la donne. Comme dans une copropriété, les dépenses énergétiques sont noyées dans les charges. Dans la mesure où elles sont considérées comme inévitables, elles ne sont pas remises en cause. Mais les choses bougent et la montée en puissance du cloud computing semble devoir accélérer la croissance des centres de données.

Au premier abord, la consommation énergétique liée à l'informatique est systématiquement sous-estimée. Cela tient non seulement à la consommation des matériels, mais aussi à leur planning d'exploitation : un serveur consomme jusqu'à 150 fois plus qu'un poste client. En effet, les serveurs sont à la fois très performants, redondants et fortement sollicités. Mais en centre de données, on raisonne en 24/7, multipliant ainsi par 3 ou 4 le temps d'activité par rapport à un appareil qui fonctionne en heures ouvrées. Au final, la consommation annuelle d'un serveur peut donc être jusqu'à 400 fois supérieure à celle d'un poste client.

2.     Gestion des équipements inactifs


Ironiquement, du point de vue des infrastructures, ce ne sont pas forcément les équipements actifs qui sont les plus inefficaces. Il est courant de trouver dans beaucoup de centre de données des équipements inutilisés. Certaines études parlent de 10 % d'inutilisation. Or, un équipement inactif consomme de l'énergie. Cette consommation invisible est inutile, mais tout à fait significative. Le chiffre de 10 % ne doit pas surprendre, dans la mesure où les études de cabinets de conseil s'accordent à souligner de fortes lacunes dans la connaissance du contenu des centres de données.

Logiquement, le chiffre est pain béni pour les outils spécialisés, qui réduisent considérablement la méconnaissance de l'activité des équipements : les outils d'urbanisation, cartographie et recensement se complètent pour donner en permanence une vision claire des appareils branchés, de leur emplacement et des ressources qu'ils mobilisent.

Là où ils vont plus loin que les outils génériques, c'est qu'ils associent étroitement vision analytique et graphique, tout en prenant en compte d'entrée de jeu une durée d'utilisation prévisionnelle. À l'issue de celle-ci, les rappels automatiques viennent rappeler à l'exploitant qu'il est temps de désinstaller les matériels en fin de vie.

3.     Dissipation thermique et impact carbone


L'activité d'un serveur est étroitement liée à celle des postes clients, elle-même difficile à mesurer ; l'inconnue est de taille. Seuls les minima et maxima sont relevés, complétés par des moyennes.

Mais la consommation n'est pas la seule zone d'ombre : cette marge d'erreur déjà significative est multipliée par un nombre important d'équipements, et la capacité de refroidissement, elle-même fortement consommatrice d'énergie, est dimensionnée directement en fonction des estimations de dissipation thermique.

Pour la répartition thermique, il faut recourir à la fois à des outils de design et de simulation pour prévoir la localisation des points chauds et à des outils de gestion pour optimiser le refroidissement nécessaire par une urbanisation astucieuse. Un logiciel d'urbanisation basé sur un SIG(1), s'inscrit dans cette vision, en fournissant des données à la fois géographiques et alphanumériques fiables à ces outils spécialisés.

Faute d'informations précises, il est difficile de quantifier les émissions de CO2 dans les entreprises, certaines sociétés sont déjà soumises à des quotas de carbone, beaucoup calculent même déjà leurs émissions, mais pas dans le contexte de l'IT. Les chiffres sont pourtant éloquents : à l'heure actuelle, un simple ordinateur portable émet jusqu'à 23 fois plus de CO2 pendant sa conception que pendant sa courte vie active, statistiquement limitée à 2,5 ans. La connaissance et le suivi des matériels installés permettent de prendre ceux-ci efficacement en compte dans le bilan carbone, en comptabilisant leur impact pendant l'intégralité de leur cycle de vie.

4.     Logiciels d'urbanisation : dynamique contre statique


Le logiciel d'urbanisation est la brique logicielle la plus adaptée pour gérer la capacité du centre de données. C'est le seul outil capable de faire efficacement le lien entre les données de recensement et la cartographie. Pour maîtriser l'évolution du bâtiment, il faut connaître son contenu, anticiper son évolution, optimiser son usage. Par la méconnaissance des équipements installés, on introduit de l'inefficience dans le centre de données qui les héberge.

Par nature, le logiciel d'urbanisation offre une vision dynamique de la situation. Les outils classiques (utilisés pour la gestion cartographique des baies) sous-entendent une démarche a posteriori, dans la mesure où ils n'orientent pas l'utilisateur dans l'évolution de son parc.
À l'inverse, les outils d'urbanisation partent du principe qu'à l'issue d'un audit, le principal intérêt des données est de seconder l'utilisateur dans la gestion de son parc et de l'orienter activement dans ses choix. Ils visent moins à fournir à l'infogéreur un catalogue de ses données qu'à l'orienter vers une efficacité énergétique maximale.

5.     Déploiement
En termes de processus, les outils génériques avouent rapidement leurs limites : même en tablant sur une excellente délégation des tâches de recensement, l'ampleur des données collectées exige rapidement un gros effort d'organisation.

Pour être complet, l'outil d'urbanisation doit pouvoir importer en amont des données de recensement et des graphiques, mais aussi réinjecter ou échanger en aval des informations dans des outils de gestion de parc informatique, de relevé de mesures ou de simulation thermique. Contrairement aux solutions génériques, le logiciel d'urbanisation implique une approche dynamique des données. Non seulement il cumule les rôles d'inventaire et de bibliothèque de plans, mais il prend l'existant comme point de départ vers une gestion prévisionnelle du centre de données


ROI

Mais l'outil ne fait pas tout. Quel que soit l'outil de gestion, il faut avoir les bonnes données et cela représente toujours un effort de départ important. Il est rare que toutes les données nécessaires aient été collectées et organisées à l'avance. Dans les faits, il est plus rapidement rentable de mettre l'outil en place sur un nouveau centre de données que sur un site installé, tout audit étant forcément long et coûteux.

Le client final peut commencer à faire des projections dès que le logiciel d'urbanisation lui renvoie les données adéquates. Comme le centre de données, le prestataire en cartographie des équipements et des ressources facture au m2, unité de valeur par excellence du secteur. Le client peut ainsi imputer directement la prestation d'optimisation sur la surface qu'il occupe. Mais contrairement à un investissement en matériel, une démarche qualité ne permet pas le calcul direct d'un ROI : il est facile de mettre un prix sur une surface ou un service, mais l'amélioration de la qualité s'avère beaucoup plus difficile à apprécier.

Une meilleure connaissance d'un centre de données peut indéniablement influer positivement sur sa durée de vie. Mais que ce soit dans le cadre d'une démarche qualité ou environnementale de type Green IT, le ROI est difficile à calculer.

7.     Les législations contraignantes en ligne de mire
Le centre de données est encore une notion assez abstraite, même pour nombre de professionnels de l'informatique. En revanche, il est déjà connu du grand public, mais surtout en tant que gros pollueur. En janvier 2009, le physicien Alex Wissner-Gross (Harvard University, co-fondateur du site co2stats.com) avait déclenché la polémique, lorsque le résultat de ses recherches fut repris par un quotidien britannique : l'empreinte carbone de deux recherches sur Google y était comparée à celle d'une bouilloire, soit une quinzaine de grammes d'émission carbone... Résultat des courses une fois la polémique retombée : personne n'est en mesure d'avancer des chiffres fiables.

Ce constat surprenant est symptomatique de l'état de l'art : l'automobile est devenue synonyme de pollution il y a cinquante ans, le bâtiment il y a vingt ans, et l'informatique en est à ses premiers pas. De fait, aucune législation vraiment contraignante n'existe à ce jour en Europe, à une époque où le thème des économies d'énergie est pourtant très porteur, encore amplifié par la crise de 2008. En revanche, la Commission Européenne a commencé à encourager les démarches volontaires par la publication du Code of Conduct on Data Centres Energy Efficiency2. À défaut de législation ou de normalisation, ce mémorandum semble faire consensus en matière de formalisation de l'efficacité énergétique.

 

1) Système d'Information Géographique, logiciel ou ensemble de logiciels capable d'organiser les informations alphanumériques selon une logique géographique, et de produire les cartes et plans qui s'y rapportent.

2 La démarche européenne est partie de l'estimation impressionnante de la consommation énergétique sur le continent : un quasi-doublement sur la décennie qui commence, pas moins. La Commission s'avère en revanche plus optimiste sur le terrain de l'amortissement des investissements nécessaires, mais sans avancer de chiffres, jusqu'à présent. Il est intéressant de constater que le CoC, bien que faisant la distinction entre équipements et infrastructures, les considère comme un tout sur lequel il faut raisonner globalement pour obtenir de vrais gains. Dans le cadre des calculs, les deux composantes doivent bien être analysées séparément, du fait de l'unité de mesure choisie. L'efficacité énergétique de l'infrastructure du centre de données (DCiE, pour Data Center infrastructure Efficiency) est définie comme le rapport entre la consommation de l'équipement informatique et la consommation totale de l'installation. Le CoC précise que l'unité est provisoire, d'autres modes d'évaluation étant en cours de validation. L'ensemble de ce code de bonne conduite, officiellement en version 1.0, relève manifestement du projet en cours. Pour l'heure, la Commission ne délivre d'ailleurs qu'un label qui mesure les progrès accomplis, et non le niveau de l'efficacité énergétique d'un site. Il constitue surtout un ensemble de bonnes pratiques à mettre en place pour favoriser les économies d'énergie, en attendant l'émergence éventuelle d'un label Green IT au niveau européen.