L’Hyper-convergence, au service des DSI les plus innovantes
L’Hyper-convergence est devenue l’un des sujets phares du moment. Le point sur les toutes dernières évolutions de cette technologie, et sur ses promesses en termes de réduction des coûts.
Comme le Cloud il y a 5 ans ou le Big Data depuis 2 ans, l’Hyper-convergence est devenue l’un des sujets phares du moment. L’hyper-convergence est souvent associée, à tort, à diverses technologies et plateformes. A l’heure où les entreprises commencent à en comprendre les enjeux, et alors que les champions du secteur enregistrent des croissances record, il est temps de clarifier cette notion d’hyper-convergence.Jusqu’à ces dernières années, chacun des équipements séparés composant l’infrastructure était encore, a priori, doté de ses propres ressources (unité centrale, mémoire DRAM, stockage) pour gérer les pics de charge intermittents des applications. L'efficacité d'un unique pool de ressources partagées offerte par la virtualisation des serveurs reste cependant limitée à la couche des serveurs. Tous les autres produits sont des îlots de ressources informatiques non partagés et sur-approvisionnés. Résultat : l’infrastructure globale est sous-exploitée, les coûts d'acquisition sont élevés, et la puissance ainsi que l'espace nécessaires aux data centers restent importants. Pour faire simple, de nombreuses ressources sont gaspillées dans les environnements traditionnels actuels.
La transformation la plus significative de l’IT peut selon moi être résumée avec deux notions : « Convergence » et « Software-Defined Data Center » (SDDC - Centre de données virtualisé). Ces notions répondent aux réalités d'aujourd'hui en termes d'encombrement, de complexité et de coût ; l’objectif étant de simplifier l'IT en l’organisant et en la « synthétisant », et de réduire le coût total de possession. Mais jusqu'il y a peu, les notions de convergence et de SDDC représentaient davantage une promesse à venir qu'une réalité que les clients pouvaient déployer dans leurs data centers.
C’est ainsi que la mutation des
infrastructures IT a commencé, par l'intégration des briques d’infrastructure
traditionnelles - serveurs physiques, serveurs virtualisés, stockage,
réseaux - dans un système pré-intégré et
fourni sous la forme d’un rack (ce que l’on nomme Convergence 1.0).
L'étape suivante a été la convergence du calcul et du stockage avec des disques
SSD et des lecteurs de disque dur au niveau local afin de garantir un stockage
partagé, avec plusieurs serveurs hôtes hyperviseurs (on parle ici de Convergence
2.0). Des solutions efficaces mais limitées, car ne tenant pas compte des
données et toujours soumises aux questions de compatibilité de l’infrastructure.
Les deux premières générations de convergence ont délivré une partie seulement du concept global, sans parvenir à apporter les résultats escomptés. Elles ont certes permis de simplifier la gestion et de réduire les temps de déploiement, mais elles n'ont pas véritablement résolu les problèmes majeurs d'encombrement et de complexité.
Aujourd'hui, la technologie évolue encore pour réellement hyper-converger les infrastructures existantes et intégrer l’ensemble des briques dans une seule et même appliance, jusqu’aux données (Et là seulement, nous pouvons parler de Convergence 3.0 ou Hyper-convergence).
Pour que la convergence puisse réellement tenir ses promesses, il faut passer à l’Hyper-convergence en déployant une nouvelle architecture de données englobant les éléments suivants :
- Une
parfaite convergence de toutes les fonctionnalités de l'infrastructure au
sein d'un seul et unique pool de ressources partagées. Cela inclut la
déduplication, la compression,
l’optimisation et la protection des données (sous forme logicielle
ou appliance) ainsi que l’optimisation WAN entre data centers. Ces systèmes
envahissent les environnements IT et
ne sont pas intégrés aux concepts de convergence 1.0 et 2.0
- Une architecture de données innovante qui :
- résout le problème des IOPS (opérations d'E/S par seconde), améliore la performance et réduit la latence
- gère la mobilité des données au niveau global
- réduit les capacités de stockage nécessaires, ainsi que l'espace et la puissance associés
- Une gestion globale fédérée
Mettre en œuvre un tel niveau de convergence (3.0) n'est pas une tâche facile. Cela exige une architecture de données entièrement repensée, conçue intrinsèquement pour garantir la performance, l’évolutivité, l’efficacité maximale des données dans un environnement administrable de façon unifiée.
L’Hyper-convergence représente donc logiquement l'étape suivante de l'évolution de la convergence. En consolidant toutes les fonctionnalités IT requises par les infrastructures en un seul pool de ressources x86, elle offre une simplification considérable et des économies sur le coût total de possession. Ce faisant, la convergence 3.0 tient les promesses du SDDC au niveau technologique.