Virtualisation : quelle solution choisir ?

Pour répondre aux besoins des entreprises en matière de transformation du système d'information, constructeurs, spécialistes du stockage et des applications entrent sur le marché. Avec quelle légitimité ?

Sans doute le concept technologique le plus en vogue en matière d'infrastructure, la virtualisation des serveurs et des postes de travail x86 (entrée de gamme, machines Intel et AMD), est un concept nouveau qui attire désormais tous les acteurs du monde informatique.

Tout part de VMware, premier sur ce segment de marché. L'entreprise propose un concept simple, issu du monde mainframe et grands systèmes : séparer par une couche d'abstraction le logiciel du matériel, et proposer aux entreprises de créer ainsi des images virtuelles de leurs systèmes et de leurs environnements applicatifs. Pour vendre ce concept, il faut en imaginer les débouchés.

Or, depuis quelques années, le matériel est devenu une commodité et le système d'information tend à être morcelé. En moyenne, les ressources (processeurs et mémoires) d'un serveur standard en entreprise ne sont sollicitées qu'à 20% sur l'ensemble de la journée. Plutôt que de racheter sans cesse du matériel, ce qui augmente les coûts d'exploitation, la virtualisation de serveur se propose donc de mieux l'utiliser.

En passant par des couches virtuelles, l'entreprise peut attribuer dynamiquement les ressources aux différentes applications en fonction des règles métiers définies. Les applications peuvent être isolées dans une bulle virtuelle, et donc relancées en cas de dysfonctionnement sans que cela n'impacte le bon fonctionnement du système d'exploitation. Le concept plaît et VMware est racheté par EMC pour plus d'un milliard de dollars.

Finalement, plusieurs petits acteurs se lancent, bientôt suivis par les grands de l'infrastructure (Dell, IBM, HP, Sun...). "Aujourd'hui, si on ne cite que les acteurs incontournables de la virtualisation entre matériel et logiciel, il n'y a que VMware. Microsoft arrive avec l'artillerie lourde sur ce marché, même s'ils ne sont pas encore incontournables. Ils sont accompagnés par un tas de petits acteurs comme Virtual Iron, Virtuozzo ou Xen qui s'est récemment fait racheter par Citrix", déclare David Milot, directeur du conseil en technologies pour l'Europe chez Unisys.

La reconfiguration dynamique : clé de différenciation sur ce marché encombré

Les petits acteurs prennent déjà le parti de la spécialisation pour se différencier d'un Vmware omniprésent : simplicité de l'hyperviseur, couverture de systèmes d'exploitations marginaux, légèreté du moteur... "La clé de la différenciation sur ce marché consiste à pouvoir offrir une reconfiguration dynamique d'une machine virtuelle sans perte en environnement de production. C'est la capacité à pouvoir choisir plus de processeurs ou de mémoire en fonction de la sollicitation de l'application", affirme David Milot.

Pour les clients, les critères de choix d'une solution de virtualisation sont la maturité de l'offre et la capacité à piloter la solution. Aujourd'hui, la virtualisation est principalement utilisée en environnement de développement et de test. Mais elle se prépare désormais à entrer en production, donc la stabilité est la première des choses à regarder. Le pilotage est aussi important car une fois que l'environnement virtuel est en place, le client doit savoir ce qui tourne dessus.

"J'ai vu des clients se retrouver dans des situations où ils ne savaient plus ce qu'ils faisaient fonctionner exactement et sur quelle couche. En matière d'outils de pilotage, on retrouve des choses chez Vmware, mais aussi chez Microsoft avec System Center, ou des solutions concurrentes comme chez Scalent ou Enigmatec. C'est un axe majeur qui conditionne l'adoption de la technologie", estime le spécialiste.

Scalent, par exemple propose de pouvoir booter depuis des images sur des SAN, puis changer la configuration d'une machine. Enigmatec propose quant à lui une solution de gestion des règles métiers, de manière à s'assurer que les applications puissent recevoir le maximum de ressources lorsqu'elles en ont besoin.

A ces offres purement orientées serveurs, on retrouve des offres de virtualisation de stockage. Elles répondent à un autre besoin : celui de pouvoir répartir de manière automatique le stockage des données sur les baies de disques existantes en fonction de la qualité demandée par l'applicatif. Il existe également la virtualisation du poste client qui consiste à stocker OS et applications sur serveur, puis à utiliser les ressources matérielles du poste pour les exécuter à distance.

Or, peu d'acteurs disposent d'une gamme complète de solutions de virtualisation qui couvrent aussi ces besoins. Microsoft, par exemple, en tant que fournisseur d'OS, se positionne naturellement sur la virtualisation du poste client et la virtualisation de serveur, mais pas sur la virtualisation de stockage. EMC, fait exactement le contraire, mais complète son portefeuille avec Vmware.

"IBM, Dell, Sun et HP vendent des serveurs, proposent des solutions de stockage et des services aux entreprises. Il est donc logique qu'ils communiquent autour de la virtualisation. D'autre part, chacun cherche une raison de légitimer une position de spécialiste sur la question. Chez IBM, ils expliquent par exemple qu'ils faisaient déjà de la virtualisation sur mainframe, ce qui est vrai, et qu'ils connaissent donc bien ce domaine", constate David Milot.
 

IBM, Dell, Sun et HP cherchent à proposer plus de services autour de la vente de serveurs, ce qui implique une stratégie de virtualisation

"Chez Sun, c'est un peu la même chose. En tant que spécialiste de la JVM, qui n'est autre que de la virtualisation, ils se présentent comme des spécialistes du domaine applicatif. Et Solaris est capable d'opérer avec des OS différents. Dell, lui, n'a pas de solutions spécifiques mais ses machines embarquent des jeux d'instructions pour optimiser la virtualisation. Et Dell voit la virtualisation comme un accélérateur pour proposer ses machines, généralement moins robustes que la concurrence mais aussi moins chères, sur des applications lourdes de type bases de données", ajoute David Milot.

"Pour HP, c'est un peu la même problématique qu'IBM. Ils doivent couvrir l'ensemble de la logique de virtualisation s'ils veulent pouvoir continuer à se positionner sur l'offre serveurs, logiciels et services. C'est un pré-requis pour vendre non seulement des boîtes mais aussi des solutions", termine David Milot. Le problème de ces offres constructeurs vient du fait qu'elles sont souvent non-interopérables, au contraire des offres d'un éditeur spécialisé dans ce domaine, comme VMware par exemple.

Mais les constructeurs font valoir leur expérience en matière d'infrastructure pour proposer des services aux clients : analyse du parc, identification des applications candidates à la virtualisation, proposition d'architecture, transformation du physique au virtuel, pilotage et administration dynamique, puis calcul du ROI.

Et même s'ils partent avec un certain retard, puisque les grands clients ont, pour la plupart, commencé des tests avec d'autres produits que les leurs, Virtual Server, Vmware ESX, Xen, Virtuozzo ou Virtual Iron. Cependant, en intégrant la vente de logiciels de virtualisation aux prix des serveurs, ils pourraient rapidement couper l'herbe sous le pied des spécialistes de la virtualisation.

D'autre part, les entreprises disposent parfois de solutions de virtualisation, sans même en avoir conscience. "Dans les architectures IBM, les contrôleurs intègrent des briques de virtualisation. De même au sein de baies Symetrix ou sur des serveurs DMX. C'est quelque chose de presque endémique", souligne David Milot.
 

Coté stockage, des pure player du secteur (Datacore, Network Appliance, FalconStor, Symantec-Veritas...) se mêlent aux offres des constructeurs. Enfin, sur le domaine applicatif et gestion de parc, on retrouve également des pure players comme BEA, Citrix et Computer Associates à coté d'IBM Tivoli ou de HP OpenView. Mais pour le moment, personne n'émerge en particulier.

Il faut pourtant espérer pour les clients que cette profusion ne nuise pas à l'interopérabilité et la durée de vie des solutions. Certains acteurs privilégient d'ailleurs les partenariats pour le moment, plutôt que de lancer leur propre offre (CA, BEA, Network Appliance...).