L’Hyper-convergence, au service des DSI les plus innovantes

L’Hyper-convergence est devenue l’un des sujets phares du moment. Le point sur les toutes dernières évolutions de cette technologie, et sur ses promesses en termes de réduction des coûts.

Comme le Cloud il y a 5 ans ou le Big Data depuis 2 ans, l’Hyper-convergence est devenue l’un des sujets phares du moment. L’hyper-convergence est souvent associée, à tort, à diverses technologies et plateformes. A l’heure où les entreprises commencent à en comprendre les enjeux, et alors que les champions du secteur enregistrent des croissances record, il est temps de clarifier cette notion d’hyper-convergence.

Jusqu’à ces dernières années, chacun des équipements séparés composant l’infrastructure était encore, a priori, doté de ses propres ressources (unité centrale, mémoire DRAM, stockage) pour gérer les pics de charge intermittents des applications. L'efficacité d'un unique pool de ressources partagées offerte par la virtualisation des serveurs reste cependant limitée à la couche des serveurs. Tous les autres produits sont des îlots de ressources informatiques non partagés et sur-approvisionnés. Résultat : l’infrastructure globale est sous-exploitée, les coûts d'acquisition sont élevés, et la puissance ainsi que l'espace nécessaires aux data centers restent importants. Pour faire simple, de nombreuses ressources sont gaspillées dans les environnements traditionnels actuels.

La transformation la plus significative de l’IT peut selon moi être résumée avec deux notions : « Convergence » et « Software-Defined Data Center » (SDDC - Centre de données virtualisé). Ces notions répondent aux réalités d'aujourd'hui en termes d'encombrement, de complexité et de coût ; l’objectif étant de simplifier l'IT en l’organisant et en la « synthétisant », et de réduire le coût total de possession. Mais jusqu'il y a peu, les notions de convergence et de SDDC représentaient davantage une promesse à venir qu'une réalité que les clients pouvaient déployer dans leurs data centers.

C’est ainsi que la mutation des infrastructures IT a commencé, par l'intégration des briques d’infrastructure traditionnelles - serveurs physiques, serveurs virtualisés, stockage, réseaux - dans un système pré-intégré et fourni sous la forme d’un rack (ce que l’on nomme Convergence 1.0).  
L'étape suivante a été la convergence du calcul et du stockage avec des disques SSD et des lecteurs de disque dur au niveau local afin de garantir un stockage partagé, avec plusieurs serveurs hôtes hyperviseurs (on parle ici de Convergence 2.0).  Des solutions efficaces mais limitées, car ne tenant pas compte des données et toujours soumises aux questions de compatibilité de l’infrastructure.

Les deux premières générations de convergence ont délivré une partie seulement du concept global, sans parvenir à apporter les résultats escomptés. Elles ont certes permis de simplifier la gestion et de réduire les temps de déploiement, mais elles n'ont pas véritablement résolu les problèmes majeurs d'encombrement et de complexité.

Aujourd'hui, la technologie évolue encore pour réellement hyper-converger les infrastructures existantes et intégrer l’ensemble des briques dans une seule et même appliance, jusqu’aux données (Et là seulement, nous pouvons parler de Convergence 3.0 ou Hyper-convergence).

Pour que la convergence puisse réellement tenir ses promesses, il faut passer à l’Hyper-convergence en déployant une nouvelle architecture de données englobant les éléments suivants :

  • Une parfaite convergence de toutes les fonctionnalités de l'infrastructure au sein d'un seul et unique pool de ressources partagées. Cela inclut la déduplication, la compression,  l’optimisation et la protection des données (sous forme logicielle ou appliance) ainsi que l’optimisation WAN entre data centers. Ces systèmes envahissent les environnements IT et  ne sont pas intégrés aux concepts de convergence 1.0 et 2.0

  • Une architecture de données innovante qui :

- résout le problème des IOPS (opérations d'E/S par seconde), améliore la performance et réduit la latence

- gère la mobilité des données au niveau global

- réduit les capacités de stockage nécessaires, ainsi que l'espace et la puissance associés

  • Une gestion globale fédérée

Mettre en œuvre un tel niveau de convergence (3.0) n'est pas une tâche facile. Cela exige une architecture de données entièrement repensée, conçue intrinsèquement pour garantir la performance, l’évolutivité, l’efficacité maximale des données dans un environnement administrable de façon unifiée.

L’Hyper-convergence représente donc logiquement l'étape suivante de l'évolution de la convergence. En consolidant toutes les fonctionnalités IT requises par les infrastructures en un seul pool de ressources x86, elle offre une simplification considérable et des économies sur le coût total de possession. Ce faisant, la convergence 3.0 tient les promesses du SDDC au niveau technologique.