La réalité virtuelle du cloud ou "l’informatique après la virtualisation"

Economies d'énergie, flexibilité, exploitation facilitée... Les avantages de la virtualisation sont nombreux. Toutefois, ces points forts s'accompagnent de nouvelles responsabilités et de nouveaux risques.

Il était une fois un monde où l’informatique était simple : chaque employé s’installait devant son ordinateur et toutes ses données étaient stockées dans un espace physique sécurisé. Lorsqu’un nouvel employé était engagé, il suffisait d’investir dans un nouvel ordinateur.

Tout a changé avec l’émergence de la virtualisation.

Le concept clé de la virtualisation, à l’instar du cloud, est l’abstraction.  Une fois le lien direct entre expérience utilisateur et équipement matériel aboli, l’ordinateur devient plus personnalisé et indépendant que jamais, disponible à tout moment et en tout lieu.

Mais pour comprendre où en est la virtualisation aujourd’hui et ce qui la rapproche du cloud computing, il convient avant tout de revenir sur son histoire, de comprendre ses avantages et de tirer les leçons de l’expérience qui en a été faite jusqu’ici.

Consolidation

Les premiers avantages de la virtualisation, mis en avant alors même que le concept n'en était qu'à ses prémices, sont les économies financières et la consolidation. Permettant l'hébergement de plusieurs machines et appliances virtuelles en un même emplacement, éliminant ainsi les redondances, la virtualisation promettait des gains phénoménaux et immédiats.  Et il ne s'agissait que d'une évolution naturelle pour les entreprises, simple à expliquer et à justifier à toutes les parties prenantes.

Cette technologie a permis à la plupart des entreprises de consolider jusqu'à 20 serveurs sur un seul, 40 pour certaines voire plus encore. Un seul serveur est ainsi devenu capable d'assumer la charge de travail de 20 serveurs minimum, les dispensant d'alimenter en électricité, de refroidir et de maintenir 19 serveurs, soit une réduction de 95 %. Mais pour profiter pleinement de la consolidation, encore fallait-il pouvoir rendre les machines virtuelles aussi compactes que possible, pour permettre à davantage d'entre elles de se partager un même hôte virtuel.   

De nouvelles solutions permettent justement de limiter la taille des machines virtuelles à l'aide de techniques comme la déduplication, la compression, le réalignement et la défragmentation. Avec des machines virtuelles 30 à 80 % moins volumineuses, l'intérêt de la limitation des ressources de stockage devient une évidence.  
  
Ce redimensionnement des machines virtuelles permet non seulement à davantage de machines virtuelles de se partager un même hôte, mais réduit également les ressources informatiques mobilisées et la capacité d'alimentation électrique requise pour sauvegarder, stocker et transférer des images virtuelles.

Alors que l'équipement informatique compte pour près de 9% de la consommation d'électricité totale d'une entreprise et que les centres de données consomment jusqu'à 1 000 fois plus d'électricité qu'un environnement de bureau équivalent, comment ne pas se laisser séduire par un tel potentiel d'économies ? Les résultats d'une étude de chercheurs de l'université Stanford révèle même que les seuls serveurs consomment 0,6 % de la facture d'électricité totale des États-Unis (1,2 % si l'on inclut l'électricité consommée pour leur refroidissement).

Flexibilité

Les entreprises apprécient également la flexibilité sans précédent offerte par cette technologie.  La possibilité de créer ou supprimer des machines virtuelles à la demande, quelle que soit la configuration requise, a fini de les convaincre rapidement.

Le déploiement d'un nouveau serveur à chaque ajout d'une application implique l'obtention d'une approbation budgétaire, le déclenchement des processus d'achat et une configuration sur le réseau pour chaque machine physique. Les administrateurs informatiques ne peuvent alors consacrer que peu de temps aux besoins des utilisateurs. En donnant la priorité aux ressources virtuelles, les entreprises s'efforceront d'abord d'exécuter les nouvelles applications sur une machine virtuelle, à moins qu'une machine physique dédiée soit absolument requise.  

Ressources consolidées en pools

Un datacenter traditionnel se compose d'un nombre élevé de serveurs physiques, ce qui complique l'analyse des événements en cours. Les infrastructures virtuelles gèrent quant à elles l'intégralité de l'environnement comme s'il s'agissait d'un grand pool de ressources et permettent ainsi aux administrateurs de s'informer avec précision sur tous les événements du pool de ressources. Ils disposent d'aperçus extrêmement détaillés de l'infrastructure et peuvent recevoir des messages d'alerte et rapports sur les problèmes matériels potentiels, la performance d'une machine virtuelle et celle de l'hôte.

Cette visibilité sur la performance de l'environnement informatique, offerte par les outils de gestion de la virtualisation, aide les entreprises à gagner en proactivité. Elle permet également aux responsables informatiques de prendre des décisions plus éclairées sur l'allocation du budget et des ressources en s'appuyant sur des statistiques de la performance de toute l'infrastructure nettement plus détaillées qu'avec un environnement physique. 

Toutefois, comme bien souvent, ces avantages s'accompagnent de nouvelles responsabilités et de nouveaux risques pour tous ceux maîtrisant mal ces nouveaux outils.  La virtualisation, et par conséquent le cloud, tous deux intrinsèquement liés, amorcent actuellement un nouveau tournant dans leur histoire.

Multiplication des serveurs


Vous l'aurez compris, la possibilité de créer une nouvelle machine virtuelle en partant de rien confère un pouvoir extraordinaire. Toutefois, il n'existe encore aucune technologie qui dispenserait totalement d'utiliser des équipements matériels. Tôt ou tard, la question du juste rapport entre ressources et performance refait surface.

L'avènement de l'infrastructure virtuelle a favorisé la multiplication du nombre de serveurs virtuels au sein des entreprises.  Très rapidement, la tentation de pouvoir fournir des machines virtuelles à loisir a fini par faire exploser leur nombre.  Aussi, il n'est pas rare qu'une multinationale dispose de centaines de machines inutilisées dans son environnement, qui restent en veille. Or, même en veille, ces machines s'avèrent étonnamment gourmandes en ressources, notamment en capacité de mémoire, en espace disque et en temps et en ressources mobilisés pour garantir la protection des données.

Et ces machines en veille sont autant de failles puisqu'elles n'exécutent pas les mises à jour de sécurité requises. A chaque réactivation, elles mettent donc l'entreprise en péril.

La multiplication non-maîtrisée des serveurs peut réduire à néant tous les avantages offerts par la virtualisation.  Heureusement, un peu d'astuce et de bons outils d'administration suffisent généralement à éliminer ce risque.

Backup 2.0

La virtualisation révolutionne également la gestion des tâches de type sauvegarde, restauration et réplication au sein des entreprises. Les solutions de sauvegarde traditionnelles sur supports physiques ne s'appliquaient qu'aux données stockées sur un serveur. Tant qu'il était possible de récupérer les données perdues, cette méthode restait fiable. Ceci dit, les environnements virtuels offrent un panel de possibilités bien plus large.

En effet, à chaque sauvegarde de machines virtuelles, c'est tout l'environnement de serveurs qui peut être copié, systèmes d'exploitation, applications et données inclus. Fini le temps où panne rimait avec nouveaux équipements matériels et reconfiguration totale de la machine. La restauration d'une machine virtuelle est aussi simple que celle d'un simple fichier sur une nouvelle machine hôte.  

Il devient ainsi extrêmement abordable d'assurer la continuité des opérations d'une entreprise et la reprise de ses activités après sinistre. Les machines virtuelles peuvent être stockées hors site, puis réintégrées rapidement à l'environnement de production en cas de problème. 
Comme dans tout autre environnement, les entreprises doivent mettre en place une stratégie de sauvegarde efficace et veiller à ce que les machines virtuelles soient sauvegardées de manière suffisamment régulière pour garantir l'exploitabilité et la pertinence des données sauvegardées.

Accords de niveaux de services (SLA)


La virtualisation a mis la reprise après sinistre et la continuité des opérations à la portée de toutes les entreprises, et donc le respect des accords de niveaux de service. Les services informatiques disposent à présent d'une plate-forme suffisamment flexible pour optimiser l'infrastructure et adopter une approche proactive de la gestion des services, leur permettant de prévenir plutôt que de guérir.

Et comme les utilisateurs y gagnent en performance, les accords de niveaux de service, qui garantissaient jusque-là la seule disponibilité, jouent à présent un véritable rôle dans le maintien de la performance de toute l'entreprise. Avec une infrastructure virtuelle, les ressources informatiques sont gérées comme s'il s'agissait d'un grand pool. Une application peut donc se voir attribuer davantage de ressources en cas de pic d'activité. 

Il est possible de définir des règles pour affecter des niveaux de ressources garantis à telle ou telle application. Les administrateurs informatiques ont alors le champ libre pour optimiser l'infrastructure sur la base des retours d'information des utilisateurs et des indicateurs de performance.

Le cloud

Le cloud est similaire aux technologies de virtualisation à bien des égards, mais s'applique à une plus grande échelle.  Un cloud peut être déployé de quantité de manières différentes. C'est ce qui le distingue de la virtualisation. Même le principe de l'abstraction reste le même.  Les services d'un cloud se créent de manière dynamique, en fonction des besoins, à partir de ressources de plusieurs datacenters. Un cloud se compose généralement de serveurs, réseaux et systèmes de stockage virtuels.
Il ne dispense donc pas les administrateurs des tâches de sauvegarde, même si leurs habitudes ont la peau dure.  A titre d'exemple, ils ne doivent plus penser la protection des données en termes de systèmes de fichiers mais en termes d'images. Une nouvelle approche fort avantageuse dans ce nouveau contexte. 

Avant de créer une infrastructure de cloud ou de pouvoir en tirer le meilleur parti, les entreprises vont devoir tirer les leçons de leur expérience de la virtualisation et les appliquer à plus grande échelle en faisant appel à leur imagination.
La "magie" du cloud, s'il en est, repose sur l'affectation dynamique de toutes les ressources, provisionnées à la volée et en temps réel, en réponse aux fluctuations de la demande des utilisateurs et applications.  Dans ce contexte, des outils de surveillance plus précis s'imposent, à même de déclencher le reprovisioning en temps réel de tout type de ressources. 

Ce tout nouveau monde informatique, virtuel et abstrait, exige avant tout une gestion précise et efficace.  Si cette gestion a toujours constitué une priorité, sa nécessité se confirme à l'aube de la nouvelle ère de l'informatique, qui promet d'être riche en nouvelles capacités informatiques.Ce n'est qu'ainsi que nous pourrons réellement profiter de toutes les possibilités offertes par le cloud computing et les technologies virtuelles dans leur ensemble.