Le Cloud Computing global n’existe pas et ne devrait pas fonctionner avant 5 ou 10 ans.
Depuis 30 ans, l’informatique a connu une mue extraordinaire. Malheureusement, le phénomène a pris une ampleur telle que sous le terme vendeur « d’innovation technologique », on trouve tout et n’importe quoi. Notamment des concepts marketing plus ou moins inspirés.
Partant du principe que son existence reposait sur l’évolution technologique, ce secteur n'a cessé d'inventer, de concevoir des algorithmes toujours plus puissants et surtout de vouloir développer des solutions de « rupture ». Cette stratégie étant jugée absolument nécessaire pour pouvoir croître et prospérer.
On pouvait penser que l’éclatement
de la bulle Internet au début des années 2000 avait apporté au secteur une
certaine sagesse en limitant les excès. Mais ce que nous vivons actuellement
avec le Cloud Computing fait craindre que nous n’avons pas tiré toutes les
leçons des erreurs du passé. Pourquoi s’en prendre à une « nouvelle
technologie », en l’occurrence le « Cloud Computing » dont tout
le monde (client, fournisseur de solution, prestataires de services...)
souligne les avantages tant en termes économiques, techniques que productifs et
même écologiques ? Et bien parce que contrairement, à ce que veulent faire
croire certains, le Cloud Computing global n’existe pas et pire, il ne devrait
pas fonctionner avant 5 ou 10 ans.
Ce que nous faisons actuellement,
c’est de la virtualisation plus ou moins complexe, mais qui ne peut en aucun
cas être définit comme du Cloud Computing. Car faire du Cloud Computing, ce
n’est pas seulement installer un logiciel de virtualisation pour gérer les
serveurs de l’entreprise, les solutions de stockage ou la messagerie. Ce n’est
pas non plus donner les clés de son système d’information à un prestataire de
service ; charge à ce dernier de l’administrer via un nuage mutualisé.
Non, le Cloud Computing, c’est bien
plus que cela. C’est un ensemble qui sous-entend une virtualisation de toutes
les ressources d’infrastructure informatique de l’entreprise (sécurité, réseau,
base de données, logicielle, serveur…). En clair, l’intégration
cohérente d’une architecture complexe qui va venir remplacer complètement une
salle informatique cliente. C’est aussi changer la vision qu’une entreprise
peut avoir de son système d’information perçu comme un outil de productivité et
non comme une charge financière et humaine.
Techniquement, seuls deux éléments (NAS et serveurs) sur au moins six
(Load Balancer, Firewall, switchs, routeurs…) qui composent une infrastructure
complète sont aujourd’hui virtualisables en masse et à la demande, et ce, pour
un coût exorbitant (soit entre 20 et 30% des ressources hardware en sus des
coûts de licence). Et dans de nombreux cas de plateformes, la virtualisation
partielle ne peut être adoptée comme un élément de simplification
d’administration ou d’aide au développement.
Dans un contexte économique morose, où les DSI cherchent à rationaliser
leurs dépenses au maximum, cette partialité a pour conséquence d’en freiner
grandement l’adoption. Dans l’éventualité où toutes les entreprises
adopteraient ces outils de virtualisation partielle, il serait difficile de se
détacher entièrement et simplement de la couche hardware : ce qui ne
répondrait donc qu’en partie à l’image d’un Cloud omniprésent.
Aussi, la taille des réseaux domestiques et mobiles est encore très
insuffisante pour pouvoir faire transiter les flux générés par une utilisation
de masse des terminaux légers.
Illustrons cette matérialité: un aficionado de Dirt 3 (jeu vidéo de rallye automobile) joue au travers de
trois écrans en qualité Full HD et utilise un terminal léger qui consommerait
90Mbit/s de bande passante, sa petite sœur regarde la télévision en qualité
Full HD (30Mbit/s supplémentaires), le père consulte les cours de la bourse en
temps réel et continu depuis Bloomberg (35Mbit/s) et la mère suit les dernières
actualités (5Mbit/s): au total, cette famille consomme alors un minimum
de 160 Mbit/s de bande passante avec un burst probable de 40 Mbits/s
supplémentaires. Le véritable Cloud devrait permettre à ce foyer d’utiliser des
technologies similaires n’importe où et n’importe quand. Seulement, avec une
telle consommation, les infrastructures déjà existantes ne pourraient servir
que quelques millions de personnes tout au plus.
Une offre globale de Cloud
Computing n’existe pas encore sur le marché car les technologies nécessaires à
sa mise en place ne sont pas totalement fonctionnelles et parfois même, ne sont
pas même compatibles entre elles. Par ailleurs, ce genre d’intégration ne peut
se faire sans un accompagnement au changement au sein même de l’entreprise.
Selon moi, le Cloud Computing
d’aujourd’hui est une avancée «marketing » se traduisant par une
version Internet 3.0, puisqu’il s’agit de fournir toujours plus de services
d’une manière plus « évoluée » au travers de la toile.
Le succès du Cloud Computing n’est qu’une question de
temps mais les clients doivent connaître la vraie nature de ce qu’on leur
propose et ne pas s’engager vers des choix qu’ils pensent pérennes alors qu’ils
ne sont que temporaires voire incompatibles avec l’existant. Le Cloud Computing
est une très belle idée sur le papier mais si nous continuons à le survendre
alors que les technologies ne sont pas encore matures et que les entreprises ne
sont pas totalement prêtes, nous risquons de voir revenir une bulle
spéculative, à l’image de celle de 2001.
En effet, il y a dix ans, cette bulle
a eu lieu essentiellement à cause de l’absence des technologies et/ou des
infrastructures permettant l’accès au réseau et à la délivrance du contenu de
masse. Par syllogisme, les clients (internautes) n’existaient pas non plus.
Cette nouvelle bulle serait catastrophique pour une industrie dont on espère
plutôt qu’elle sera l’un des moteurs de la reprise économique.