L’optimisation des investissements : approche ascendante de conception du datacenter de nouvelle génération

Créer un centre de données nécessite la mise en place d'une architecture ascendante : des produits alignés sur les besoins du datacenter mais néanmoins avec une marge suffisante pour faire évoluer cette architecture.

Le datacenter est l'objet de toutes les attentions de par l'intense transformation dont il fait l'objet. Il apparait donc légitime de faire le point sur les différentes réflexions en cours le concernant.

Le modèle de datacenter repose toujours sur le concept de l'information, mais avec de nouvelles exigences en termes de disponibilité totale et continue. En effet, l'existence même des entreprises publiques comme privées en dépend plus que jamais. La notion de sécurité est également primordiale. Les informations doivent être correctement protégées et gérées avec précaution. La crédibilité d'un datacenter s'évalue désormais sur les critères de disponibilité des données, de gestion et de confidentialité.
 
Cette exigence est également valable pour la plupart des contextes et des secteurs. Les données médicales, par exemple, doivent être accessibles en permanence et leur nature confidentielle exige un haut niveau de protection. Il en va de même pour le secteur bancaire : les clients doivent pouvoir consulter leurs comptes à tout moment avec des garanties de sécurité maximales. Et dans le contexte de la mondialisation du commerce, les données doivent être accessibles par tout le monde, partout dans le monde et à toute heure du jour et de la nuit.
 
A ces critères viennent se rajouter les exigences d'efficacité de fonctionnement et de maîtrise des coûts. C'est dans cet objectif que les développeurs créent toujours plus d'applications sur le datacenter directement et non plus sur les serveurs des services. Cette stratégie simplifie nettement les efforts de maintenance logicielle et matérielle.
 
Cette liste (non exhaustive) d'exigences est complétée par l'évolution et la stabilisation des nouvelles technologies et particulièrement de la virtualisation, lesquelles se traduisent par d'importantes économies d'investissement et de gestion. Ceci explique pourquoi les services informatiques des entreprises donnent aujourd'hui la priorité à la création de structures de datacenter à la fois robustes, rentables et performantes.
 
Qu'il s'agisse de créer un datacenter de nouvelle génération ou de faire évoluer les systèmes en place vers un nouveau modèle de datacenter, il faut tout d'abord définir le cahier des charges : autrement dit les capacités et les volumes d'activité que l'infrastructure va devoir supporter au fil des ans. A ce stade, il convient de prendre des décisions appropriées à trois niveaux : le stockage (les disques), la puissance de calcul (les serveurs) et l'infrastructure (le réseau).
 
Nous allons examiner ici l'infrastructure réseau, laquelle doit pouvoir faire face aux contraintes actuelles et futures relatives aux données.
 
Par infrastructure, on entend le réseau de transport de données indispensable pour transmettre les informations aux différents services concernés.
 
Pour garantir le bon fonctionnement du service d'un bout à l'autre de la structure du Datacenter, l'infrastructure doit absolument satisfaire plusieurs critères spécifiques :

- haut débit,
- temps d'attente quasi nuls,
- interaction avec les autres instances (serveurs, disques, applications/machines virtuelles),
- faibles coûts de déploiement et d'exploitation,
- réserves de capacités,
- évolutivité,
- simplicité de fonctionnement,
- disponibilité et continuité du service,
- faible consommation d'énergie,
 
Idéalement, ces caractéristiques sont fondées sur les besoins actuels et anticipés, que l'infrastructure doit satisfaire de manière optimale. En effet, une structure trop légère ou sous-estimée risque d'occasionner des sinistres de grande ampleur et finira par coûter très cher.
 
Mais comment appréhender des projets aussi décisifs avec des budgets limités ? Et comment être certain que, dans 5 ou 10 ans, l'infrastructure réseau sera toujours compatible avec les développements techniques et sociaux à venir et qu'elle pourra exécuter les nouvelles "applications phares" ?
 
Les datacenter des entreprises ne peuvent pas tous rivaliser en taille avec ceux d'un fournisseur d'accès ou d'un gros moteur de recherche. Mais tous, à leur échelle, partagent les mêmes caractéristiques.
 
Dès lors, on peut partir de solutions petites mais puissantes pour créer l'infrastructure du réseau de données d'un datacenter. Et si la société se développe, si son modèle de fonctionnement change, l'infrastructure doit pouvoir s'adapter, sans imposer de limites et sans qu'il faille la repenser.
 
Pour y parvenir, une approche ascendante du choix de la solution d'infrastructure est recommandée. Autrement dit, privilégier les produits parfaitement alignés sur les besoins du datacenter et qui permettent de le faire fonctionner à petite échelle, avec des investissements minimum. Ils doivent néanmoins garantir d'emblée de hautes performances, en prévoyant une marge suffisante pour faire évoluer l'infrastructure, en y ajoutant des modules par exemple.
 
Côté investissement, les solutions de commutation fixes s'avèrent plus avantageuses que les solutions modulaires en châssis. Il existe d'ores et déjà des systèmes haute densité moins encombrants qu'un rack avec jusqu'à 24 ports 10 GbE. Mais comment faire quand les 24 ports 10 GbE ne suffiront plus ? Ce qui arrivera relativement rapidement.
 
C'est là qu'intervient le concept d'empilage, lequel permet de faire évoluer et grandir l'infrastructure en établissant des connexions entre les armoires de données. Cela revient à combiner plusieurs commutateurs fixes, comme au sein d'un châssis virtuel. Lorsque le développement du datacenter imposera d'aller plus loin encore, si la structure est suffisamment modulaire, il sera plus facile de la faire évoluer autour de cœurs de réseau suffisamment robustes pour supporter l'interconnexion de plusieurs types de trafic.
 
La modularité, dans une configuration ascendante, dépend aussi du type de système d'exploitation des équipements réseau. Un système d'exploitation Unix, par exemple, est modulaire par nature, et offre toute la stabilité, la flexibilité et la robustesse qu'exigent les applications les plus stratégiques. Au moment de choisir les équipements, il faut également vérifier que le système d'exploitation est équipé des outils indispensables (XML, langages de programmation - ex. Script -, etc.) à l'automatisation du réseau et aux intégrations ultérieures. Le système d'exploitation doit pouvoir être utilisé avec n'importe quel type d'application, de service ou de solution aux problèmes de fonctionnement risquant de survenir à tout moment du cycle de vie du datacenter.
 
Par rapport au GbE, les ports 10 GbE participent à la réduction du coût d'infrastructure, surtout dans le cas du redéploiement de câblages cuivre UTP de Cat. 6a ou Cat. 7 avec des commutateurs 10GBASE-T.
 
Le câblage d'un datacenter doit permettre des extensions, en prévoyant des réserves de câblages cuivre et fibre optique et la prise en charge des futures technologies de mise en réseau. La standardisation est en bonne voie, elle est même imminente. En effet, de nouveaux standards sont en cours de développement à l'IEEE (Institute of Electrical and Electronics Engineers) sur les interfaces haut débit 40 GbE et 100 GbE. Pour le datacenter, il faut privilégier des équipements avec des chipsets intégrés, développés pour garantir la compatibilité avec ces nouvelles interfaces réseau haut débit.
 
L'orientation des standards est un autre point à ne pas perdre de vue au moment de concevoir les infrastructures réseau de datacenter. Il est vivement recommandé d'opter pour des solutions basées sur les standards de l'industrie, qui faciliteront l'intégration à l'infrastructure du réseau de données de types de services ou de périphériques (serveurs, disques) compatibles avec les environnements Ethernet, FCoE ou iSCSI.
 
Quant à la maîtrise des coûts, y compris à long terme, il ne faut surtout pas négliger les efforts de maintenance et d'administration de l'infrastructure réseau. Pour les alléger, il existe des systèmes qui permettent de tout gérer comme un châssis virtuel et distribué, avec des réserves de capacités à tous les niveaux. 
 
Enfin, dans la phase de conception, il est important de ne pas négliger les économies d'énergie potentielles, avec le double objectif de réduire les coûts d'exploitation et de protéger l'environnement. Il faut également privilégier les équipements qui consomment naturellement peu, et que l'on peut programmer pour qu'ils consomment encore moins en cas de ralentissement d'activité et donc de sollicitations réduites du datacenter. 

Autour du même sujet