Et si VMware et les machines virtuelles n'avaient jamais existé...

A l'heure où les data centers sont repensés, il est intéressant de comprendre comment la virtualisation a révolutionné notre approche en termes d'espace et de ressource.

L'hyperviseur de VMware est une innovation née au sein d'une start-up californienne qui a donné naissance à un marché de plusieurs milliards de dollars. Des dizaines d'années de progrès technologiques constants ont permis d’améliorer la technologie gérant la virtualisation, mais c'est VMware qui a généralisé le principe en 2001, en rendant les systèmes x86 virtuels. Le marché a été transformé par ce concept consistant à créer une couche d'abstraction matérielle pour extraire l'instance des serveurs du matériel physique et ainsi explorer de nouvelles façons de construire les serveurs et les datacenters.

Et si ces développements n’avaient jamais existé ? Où en serions-nous aujourd'hui ? Ce marché si fructueux a vu le jour parce qu’il devenait nécessaire. La première itération d'une infrastructure de data centers a atteint son apogée au moment où l’ordinateur est devenu un outil aussi usuel qu’un crayon et où les terminaux mobiles sont apparus. Lorsque chaque employé a commencé à avoir son PC, les responsables informatiques n'ont pas eu d'autre choix que de suivre avec des services toujours plus rapides et optimisés. Puis nous avons vu arriver les smartphones, les ordinateurs portables, et enfin les tablettes. L'explosion des données s'en est suivie avec des photos, des vidéos, des e-mails et bien d'autres données non structurées et gourmandes en espace de stockage dans l’infrastructure.

La virtualisation a offert un peu de répit aux administrateurs des serveurs. Inutile d’en racheter toujours plus ou de gaver les data centers au-delà de leurs limites. La virtualisation a permis d'augmenter les capacités en s'appuyant sur les ressources existantes. Elle a ouvert de nouvelles perspectives, permettant aux administrateurs de visualiser les ressources et de les déplacer au sein des serveurs, ou entre les serveurs selon les besoins. Le concept de la virtualisation a révolutionné les centres de données. Les administrateurs ne sont plus contraints de surdimensionner les systèmes pour satisfaire des exigences de performance toujours plus grandes, ni de gaspiller des ressources pour des unités centrales et de la mémoire. Fini d'installer un serveur physique parce qu'il ne peut pas exécuter efficacement plusieurs applications sur une seule instance Windows. Sans virtualisation, les responsables informatiques n’auraient d’autre choix que de multiplier les ressources.

Une voie moins évoluée

Quelle serait notre réalité sans virtualisation ? Davantage de fournisseurs de services gérés, créant et entretenant peut-être davantage de parcs de serveurs dans des zones rurales. Il est possible que les développeurs aient investi dans des outils de gestion ou de mesure pour suivre les serveurs et les charges. Le stockage et les serveurs auraient peut-être évolué différemment, avec une prédominance de concepts comme les serveurs lames, ou avec des avancées en matière d'efficacité du stockage. Tout cela aurait façonné le marché différemment de ce que l’on connaît aujourd’hui. Les data centers auraient pu être plus grands. Les férus de mainframe et d’Unix auraient probablement encore le vent en poupe. Il ne faut pas oublier que ces systèmes traitent maintenant depuis les années 1950 les I/O très rapidement et qu'ils sont capables de gérer de nombreuses charges simultanées sur une même plateforme. Bien entendu, Ils ne se caractérisent pas par leur souplesse et leur manque d'encombrement.

Un monde sans VMware est aussi un monde dans lequel les outils de gestion se seraient développés différemment. La console de gestion vCenter et d'autres fournissent les données nécessaires à tout environnement informatique moderne. C'est une raison importante du succès de VMware, un corollaire de la valeur ajoutée offerte par la virtualisation des charges. Pouvoir visualiser l'état des charges dans les datacenters permet de gagner du temps et de l'espace.

La question est de savoir si un environnement informatique traditionnel sans virtualisation serait plus ou moins « patché » et anxiogène qu'il ne l'est aujourd'hui avec la virtualisation. Sans, il y aurait une multitude de responsables informatiques et d'administrateurs empêtrés dans la complexité des environnements informatiques traditionnels, sans porte de sortie. Avec la virtualisation, les départements informatiques disposent de moyens plus efficaces pour stocker et gérer les charges, mais nombre d'entre eux sont toujours confrontés aux limites des anciens équipements matériels et à d'obscurs processus de sauvegarde. Sans virtualisation, les plateformes intégrées ne se seraient pas non plus développées telles qu'on les connaît aujourd'hui. L'hyperviseur est la première d'une longue lignée d'innovations informatiques ayant abouti à d'importants gains d'efficacité et de flexibilité ; des avantages toujours plus importants pour les entreprises.

Notre réalité aujourd'hui est virtuelle, mais les éléments physiques qui ancrent les charges virtuelles peuvent être un fardeau. La virtualisation des serveurs n'a pas extrait le stockage de la machine virtuelle. Le dimensionnement du stockage est toujours une tâche manuelle qui rattache la machine virtuelle au matériel physique en créant des inefficiences. Les plateformes intégrées, comme l'hyper-convergence, sont la cible de la prochaine vague d'innovation : la technologie hyper-convergée extrait les règles de stockage de la couche d'infrastructure pour optimiser la mobilité des charges virtualisées. Même si elle est révolutionnaire, la virtualisation n'a cependant pas permis de résoudre le problème des silos dans l'informatique.

En revanche, les plateformes intégrées se sont révélées être une grande avancée pour l'informatique. Basée sur le concept de la consolidation, l'hyper-convergence, par exemple, intègre tous les éléments informatiques situés sous l'hyperviseur dans une seule et unique solution extrêmement évolutive. Mais sans l'innovation de VMware, les environnements informatiques seraient toujours aux prises avec les bons vieux cycles de l'informatique traditionnelle. L'hyper-convergence, qui s'appuie sur les réalisations de VMware, est la nouvelle avancée révolutionnaire. L'innovation se nourrit de l'innovation. Toutes ces idées innovantes facilitent la vie des administrateurs et leur permettent de se consacrer à des activités à plus forte valeur ajoutée.

Sans la virtualisation, les équipes informatiques seraient bien plus ralenties par les problèmes de stockage liés aux applications et seraient retenues par des serveurs sous-exploités. La promesse de l'hyperviseur était d'ouvrir de nouvelles perspectives dans les relations entre le matériel et les logiciels et dans leurs liens de dépendance.

A présent, les plateformes intégrées et l'hyper-convergence permettent aux utilisateurs informatiques et aux développeurs de repenser entièrement l'infrastructure des datacenters. Cette nouvelle réalité virtuelle transforme notre approche en termes d'espace et de ressources. L'innovation ne s'arrête cependant pas là, elle se poursuit inexorablement. Une fois encore, c'est l'avenir de l'informatique qui est en jeu. Les responsables informatiques doivent aujourd'hui imaginer des moyens d'améliorer la souplesse et la mobilité en tirant parti des innovations pour créer le data center ultra-moderne dont ils ont besoin.