Passer à la virtualisation en douceur, mode d’emploi

Pour réussir leur virtualisation informatique, les DSI doivent déterminer les objectifs à atteindre et opter pour une technologie alignée sur les aspirations de l’entreprise. Un mot d'ordre: évitez les initiatives révolutionnaires et les décisions précipitées.

La virtualisation offre aux entreprises la possibilité de réduire leurs coûts, le nombre de leurs serveurs, leur consommation d’électricité, leurs besoins de refroidissement et, par conséquent, leur empreinte carbone, tout en gagnant en productivité. La solution est attractive, que ce soit par convictions écologiques, pour améliorer son image de marque ou encore pour gagner en compétitivité.
Le principe est simple : permettre aux entreprises de faire le meilleur usage possible de leurs ressources système en
consolidant leurs applications sur un nombre plus restreint de serveurs. Ces technologies désactivent automatiquement les ressources physiques qui ne sont pas immédiatement nécessaires, au gré du trafic ou de la demande de l’infrastructure du datacenter, pour une utilisation plus efficace et écologique des ressources.

Migrer vers un environnement virtuel

La virtualisation se banalise et il faut donc agir en conséquence. En effet, plus ce marché murit, plus les DSI gagnent en savoir-faire et sont conscients des potentiels de la technologie, de ses limites et de ce qu’ils peuvent attendre des fournisseurs. Il incombe d’ailleurs à ces derniers d’informer les clients des meilleures pratiques. Les entreprises ont donc tout intérêt à leur poser un maximum de questions.
Elles doivent commencer par déterminer de manière réaliste la part de leur charge de travail pouvant être virtualisée. En effet, rares sont celles qui migrent immédiatement la majorité de leur charge de travail vers un environnement virtuel. Elles commencent généralement par les charges les moins stratégiques, pour se familiariser avec la plate-forme, avant de virtualiser d’autres applications, pour finir par les plus critiques.
Il est préférable, dans un premier temps, d’éprouver la plate-forme et les services de support du fournisseur. Car l’on sait que les principaux fournisseurs du secteur n’ayant pas convaincu par leurs services de support n’ont pas fidélisé, leurs clients ayant même souvent dû repousser leur projet de virtualisation.

La virtualisation ne doit pas être abordée tel un projet autonome. Elle suppose en effet de revoir radicalement le fonctionnement des centres de données et les processus de provisioning connexes. Ce sont d’ailleurs plus les processus que les technologies qui compliquent l’implémentation d’un tel environnement.
Parmi ceux-ci, citons le déploiement, le transfert et la copie des applications entre les différentes plates-formes. Toutes ces applications tentent simultanément d’accéder à la capacité de traitement et de mémoire de l’environnement. Pour mieux en comprendre le fonctionnement, il est recommandé de déployer des logiciels qui offrent une parfaite visibilité sur toute l’architecture informatique et permettent ainsi aux administrateurs d’anticiper les conflits et de surveiller les indicateurs de performance, afin de donner la priorité aux applications les plus stratégiques dans le respect des objectifs de performance fixés.

Le coût réel d’une virtualisation

Les économies financières : tel est le premier motif d’adoption de la virtualisation. En réduisant les coûts tout en accroissant la productivité, la virtualisation constitue une solution économique, alignée sur les objectifs métiers des entreprises. Si elle exige des investissements initiaux, sa rentabilité peut être extrêmement avantageuse, à condition de réduire suffisamment l’espace mobilisé par le centre de données, le nombre de systèmes matériels nécessaires, les frais de maintenance et de main d’œuvre, ainsi que les coûts de gestion. Ce n’est qu’ainsi que la virtualisation permet véritablement d’alléger les coûts d’exploitation.
Opter pour une solution permettant des économies substantielles, plus respectueuse de l’environnement peut servir l’image d’une entreprise, mais aussi lui rapporter gros. En effet, supprimer plusieurs serveurs physiques peut libérer un espace rack considérable, ce qui se traduit par des économies substantielles, en particulier pour ceux qui louent cet espace auprès d’un fournisseur de datacenter. La réduction de la consommation d’électricité, des besoins de refroidissement et de l’encombrement au sol peut diminuer de moitié les coûts supportés par une entreprise qui possède son propre centre de données.

Un environnement virtuel requiert certes des efforts d’administration, mais nettement moins de maintenance. Inutile en effet de redémarrer un à un les serveurs physiques. Le système virtuel permet en outre d’ajouter de nouvelles applications à distance, sans interrompre les systèmes. Ainsi, les techniciens peuvent intégrer des interfaces réseau et accroître la capacité des systèmes sans même être aux côtés de l’administrateur.
L’ajout de capacité de traitement et de mémoire au sein d’un environnement physique nécessite la manipulation d’équipements, l’installation de matériels et le redémarrage. En environnement virtualisé, cette procédure ne dure plus des heures mais quelques minutes seulement grâce à l’accès à distance. Ce gain de temps et de productivité plus la réduction des frais de déplacement se traduisent par des économies. La virtualisation abaisse également les coûts de main d’œuvre en désencombrant les centres de données, permettant aux administrateurs de se concentrer sur des tâches plus stratégiques.

Quelle sécurité pour les données ?

La virtualisation fait naître de nouvelles craintes en matière de sécurité. Lorsqu’une entreprise migre de nouvelles charges de travail vers un environnement virtuel, elle augmente son recours à la technologie et l’exposition de ses données. Quand, avec un environnement matériel, un pirate peut n’accéder qu’à un seul serveur, il aura accès à tous les serveurs virtualisés par l’entreprise s’il s’attaque à un environnement virtuel.
Les risques de sécurité peuvent aussi bien émaner du personnel de l’entreprise que de malveillances externes.
A présent que les employés souhaitent pouvoir connecter leurs terminaux personnels au réseau de l’entreprise, il devient impératif pour les entreprises de contrôler scrupuleusement l’accès à leurs données depuis ces périphériques. Il existe à cet égard des solutions qui maintiennent les données à distance des ordinateurs et terminaux pour qu’elles ne quittent pas l’environnement virtuel. Les salariés peuvent ainsi consulter les données à l’écran, mais n’ont aucun moyen de les copier ou de les exporter.

Certains fournisseurs ont mis au point des infrastructures d’instauration des règles de sécurité au niveau du
kernel : chaque machine virtuelle est isolée des autres VM, ainsi que de l’hyperviseur. L’implémentation KVM (Kernel-based Virtual Machine) renforce ainsi la protection des systèmes contre les bugs de l’hyperviseur, potentiellement exploitables par les pirates en vue d’accéder aux hôtes et autres terminaux virtualisés.

Risque de dépendance vis à vis du fournisseur

Les fournisseurs ont longtemps proposé des piles technologiques propriétaires, rarement compatibles avec les technologies tierces, au point que la virtualisation peut constituer une véritable barrière en l’absence de standards ouverts prédéfinis.
Or, la dépendance vis-à-vis d’un fournisseur impacte souvent les coûts d’investissements et la rentabilité informatique.

Parce qu’elles rendent la migration des charges de travail entre différentes plates-formes impossible et l’extraction de données des environnements virtuels difficile, les offres propriétaires entravent au final les entreprises. Quand l’infrastructure s’avère plus avantageuse pour le fournisseur informatique que pour l’utilisateur, les clients ont le plus grand mal à se libérer des contraintes de la technologie propriétaire. Pire encore, certains des acteurs clés de ce segment imposent des modèles de licence plus stricts encore, qui prévoient la facturation des charges de travail haute densité, limitant de fait la capacité de mémoire allouable à chaque UC en fonction de la licence du client. Ce modèle défie l’un des principes fondateurs de la virtualisation : la flexibilité. Avec des charges de travail fluctuantes, personne ne peut prévoir ses besoins à long terme.

Opter pour l’Open Source et une politique basée sur les standards ouverts, qui met l’accent sur l’interopérabilité et la portabilité, permet de garder le contrôle de son environnement.
Grâce à la flexibilité des technologies de virtualisation, il est possible de satisfaire immédiatement les besoins les plus urgents et de commercialiser plus rapidement de nouvelles offres.

Dans tous les cas, la virtualisation est la clé de voûte d’une stratégie informatique durable, qui offre une transition naturelle vers le Cloud Computing. Idéale pour se préparer à passer au Cloud, c’est la plate-forme toute trouvée pour migrer les charges de travail les plus critiques.

 


Autour du même sujet