Passer à la virtualisation en douceur, mode d’emploi
Pour réussir leur virtualisation informatique, les DSI doivent déterminer les objectifs à atteindre et opter pour une technologie alignée sur les aspirations de l’entreprise. Un mot d'ordre: évitez les initiatives révolutionnaires et les décisions précipitées.
La virtualisation offre aux entreprises la possibilité de réduire leurs
coûts, le nombre de leurs serveurs, leur consommation d’électricité, leurs besoins
de refroidissement et, par conséquent, leur empreinte carbone, tout en gagnant
en productivité. La solution est attractive, que ce soit par convictions
écologiques, pour améliorer son image de marque ou encore pour gagner en
compétitivité.
Le principe est simple :
permettre aux entreprises de faire le meilleur usage possible de leurs
ressources système en consolidant leurs applications sur un nombre plus
restreint de serveurs. Ces technologies désactivent automatiquement les
ressources physiques qui ne sont pas immédiatement nécessaires, au gré du
trafic ou de la demande de l’infrastructure du datacenter, pour une utilisation
plus efficace et écologique des ressources.
Migrer vers un environnement virtuel
La virtualisation se banalise et il
faut donc agir en conséquence. En effet, plus ce marché murit, plus les DSI
gagnent en savoir-faire et sont conscients des potentiels de la technologie, de
ses limites et de ce qu’ils peuvent attendre des fournisseurs. Il incombe
d’ailleurs à ces derniers d’informer les clients des meilleures pratiques. Les
entreprises ont donc tout intérêt à leur poser un maximum de questions.
Elles doivent commencer par déterminer de manière
réaliste la part de leur charge de travail pouvant être virtualisée. En effet,
rares sont celles qui migrent immédiatement la majorité de leur charge de
travail vers un environnement virtuel. Elles commencent généralement par les
charges les moins stratégiques, pour se familiariser avec la plate-forme, avant
de virtualiser d’autres applications, pour finir par les plus critiques.
Il est préférable, dans un premier
temps, d’éprouver la plate-forme et les services de support du fournisseur. Car
l’on sait que les principaux fournisseurs du secteur n’ayant pas convaincu par
leurs services de support n’ont pas fidélisé, leurs clients ayant même souvent
dû repousser leur projet de virtualisation.
La virtualisation ne doit pas être abordée tel un projet autonome. Elle
suppose en effet de revoir radicalement le fonctionnement des centres de
données et les processus de provisioning connexes. Ce sont d’ailleurs plus les
processus que les technologies qui compliquent l’implémentation d’un tel
environnement.
Parmi ceux-ci, citons le déploiement, le transfert et la copie des
applications entre les différentes plates-formes. Toutes ces applications
tentent simultanément d’accéder à la capacité de traitement et de mémoire de
l’environnement. Pour mieux en comprendre le fonctionnement, il est recommandé
de déployer des logiciels qui offrent une parfaite visibilité sur toute
l’architecture informatique et permettent ainsi aux administrateurs d’anticiper
les conflits et de surveiller les indicateurs de performance, afin de donner la
priorité aux applications les plus stratégiques dans le respect des objectifs
de performance fixés.
Le coût réel d’une virtualisation
Les économies financières : tel
est le premier motif d’adoption de la virtualisation. En réduisant les coûts
tout en accroissant la productivité, la virtualisation constitue une solution
économique, alignée sur les objectifs métiers des entreprises. Si elle exige
des investissements initiaux, sa rentabilité peut être extrêmement avantageuse,
à condition de réduire suffisamment l’espace mobilisé par le centre de données,
le nombre de systèmes matériels nécessaires, les frais de maintenance et de
main d’œuvre, ainsi que les coûts de gestion. Ce n’est qu’ainsi que la
virtualisation permet véritablement d’alléger les coûts d’exploitation.
Opter pour une solution permettant des
économies substantielles, plus respectueuse de l’environnement peut servir
l’image d’une entreprise, mais aussi lui rapporter gros. En effet, supprimer
plusieurs serveurs physiques peut libérer un espace rack considérable, ce qui
se traduit par des économies substantielles, en particulier pour ceux qui
louent cet espace auprès d’un fournisseur de datacenter. La réduction de la
consommation d’électricité, des besoins de refroidissement et de l’encombrement
au sol peut diminuer de moitié les coûts supportés par une entreprise qui
possède son propre centre de données.
Un environnement virtuel requiert
certes des efforts d’administration, mais nettement moins de maintenance.
Inutile en effet de redémarrer un à un les serveurs physiques. Le système
virtuel permet en outre d’ajouter de nouvelles applications à distance, sans
interrompre les systèmes. Ainsi, les techniciens peuvent intégrer des
interfaces réseau et accroître la capacité des systèmes sans même être aux
côtés de l’administrateur.
L’ajout de capacité de traitement et
de mémoire au sein d’un environnement physique nécessite la manipulation
d’équipements, l’installation de matériels et le redémarrage. En environnement
virtualisé, cette procédure ne dure plus des heures mais quelques minutes
seulement grâce à l’accès à distance. Ce gain de temps et de productivité plus
la réduction des frais de déplacement se traduisent par des économies. La
virtualisation abaisse également les coûts de main d’œuvre en désencombrant les
centres de données, permettant aux administrateurs de se concentrer sur des
tâches plus stratégiques.
Quelle sécurité pour les données ?
La virtualisation fait naître de nouvelles
craintes en matière de sécurité. Lorsqu’une entreprise migre de nouvelles
charges de travail vers un environnement virtuel, elle augmente son recours à
la technologie et l’exposition de ses données. Quand, avec un environnement
matériel, un pirate peut n’accéder qu’à un seul serveur, il aura accès à tous
les serveurs virtualisés par l’entreprise s’il s’attaque à un environnement
virtuel.
Les risques de sécurité peuvent aussi bien émaner du
personnel de l’entreprise que de malveillances externes. A présent que les employés
souhaitent pouvoir connecter leurs terminaux personnels au réseau de
l’entreprise, il devient impératif pour les entreprises de contrôler
scrupuleusement l’accès à leurs données depuis ces périphériques. Il existe à
cet égard des solutions qui maintiennent les données à distance des ordinateurs
et terminaux pour qu’elles ne quittent pas l’environnement virtuel. Les
salariés peuvent ainsi consulter les données à l’écran, mais n’ont aucun moyen
de les copier ou de les exporter.
Certains fournisseurs ont mis au point des
infrastructures d’instauration des règles de sécurité au niveau du kernel : chaque machine virtuelle est isolée
des autres VM, ainsi que de l’hyperviseur. L’implémentation KVM (Kernel-based
Virtual Machine) renforce ainsi la protection des systèmes contre les bugs de l’hyperviseur, potentiellement exploitables par les
pirates en vue d’accéder aux hôtes et autres terminaux virtualisés.
Risque de dépendance vis à vis du fournisseur
Les fournisseurs ont longtemps proposé
des piles technologiques propriétaires, rarement compatibles avec les
technologies tierces, au point que la virtualisation peut constituer une
véritable barrière en l’absence de standards ouverts prédéfinis.
Or, la dépendance vis-à-vis d’un
fournisseur impacte souvent les coûts d’investissements et la rentabilité
informatique.
Parce qu’elles rendent la migration
des charges de travail entre différentes plates-formes impossible et
l’extraction de données des environnements virtuels difficile, les offres
propriétaires entravent au final les entreprises. Quand l’infrastructure
s’avère plus avantageuse pour le fournisseur informatique que pour
l’utilisateur, les clients ont le plus grand mal à se libérer des contraintes
de la technologie propriétaire. Pire encore, certains des acteurs clés de ce
segment imposent des modèles de licence plus stricts encore, qui prévoient la
facturation des charges de travail haute densité, limitant de fait la capacité
de mémoire allouable à chaque UC en fonction de la licence du client. Ce modèle
défie l’un des principes fondateurs de la virtualisation : la flexibilité.
Avec des charges de travail fluctuantes, personne ne peut prévoir ses besoins à
long terme.
Opter pour l’Open Source et une
politique basée sur les standards ouverts, qui met l’accent sur
l’interopérabilité et la portabilité, permet de garder le contrôle de son
environnement. Grâce à la flexibilité des technologies de virtualisation, il
est possible de satisfaire immédiatement les besoins les plus urgents et de
commercialiser plus rapidement de nouvelles offres.
Dans tous les cas, la virtualisation
est la clé de voûte d’une stratégie informatique durable, qui offre une transition
naturelle vers le Cloud Computing. Idéale pour se préparer à passer au Cloud,
c’est la plate-forme toute trouvée pour migrer les charges de travail les plus
critiques.