Le Cloud Computing global n’existe pas et ne devrait pas fonctionner avant 5 ou 10 ans.

Depuis 30 ans, l’informatique a connu une mue extraordinaire. Malheureusement, le phénomène a pris une ampleur telle que sous le terme vendeur « d’innovation technologique », on trouve tout et n’importe quoi. Notamment des concepts marketing plus ou moins inspirés.

Partant du principe que son existence reposait sur l’évolution technologique, ce secteur n'a cessé d'inventer, de concevoir des algorithmes toujours plus puissants  et surtout de vouloir développer des solutions de « rupture ». Cette stratégie étant jugée absolument nécessaire pour pouvoir croître et prospérer.
On pouvait penser que l’éclatement de la bulle Internet au début des années 2000 avait apporté au secteur une certaine sagesse en limitant les excès. Mais ce que nous vivons actuellement avec le Cloud Computing fait craindre que nous n’avons pas tiré toutes les leçons des erreurs du passé. Pourquoi s’en prendre à une « nouvelle technologie », en l’occurrence le « Cloud Computing » dont tout le monde (client, fournisseur de solution, prestataires de services...) souligne les avantages tant en termes économiques, techniques que productifs et même écologiques ? Et bien parce que contrairement, à ce que veulent faire croire certains, le Cloud Computing global n’existe pas et pire, il ne devrait pas fonctionner avant 5 ou 10 ans.
Ce que nous faisons actuellement, c’est de la virtualisation plus ou moins complexe, mais qui ne peut en aucun cas être définit comme du Cloud Computing. Car faire du Cloud Computing, ce n’est pas seulement installer un logiciel de virtualisation pour gérer les serveurs de l’entreprise, les solutions de stockage ou la messagerie. Ce n’est pas non plus donner les clés de son système d’information à un prestataire de service ; charge à ce dernier de l’administrer via un nuage mutualisé.
Non, le Cloud Computing, c’est bien plus que cela.
C’est un ensemble qui sous-entend une virtualisation de toutes les ressources d’infrastructure informatique de l’entreprise (sécurité, réseau, base de données, logicielle, serveur…). En clair, l’intégration cohérente d’une architecture complexe qui va venir remplacer complètement une salle informatique cliente. C’est aussi changer la vision qu’une entreprise peut avoir de son système d’information perçu comme un outil de productivité et non comme une charge financière et humaine.
Techniquement, seuls deux éléments (NAS et serveurs) sur au moins six (Load Balancer, Firewall, switchs, routeurs…) qui composent une infrastructure complète sont aujourd’hui virtualisables en masse et à la demande, et ce, pour un coût exorbitant (soit entre 20 et 30% des ressources hardware en sus des coûts de licence). Et dans de nombreux cas de plateformes, la virtualisation partielle ne peut être adoptée comme un élément de simplification d’administration ou d’aide au développement.
Dans un contexte économique morose, où les DSI cherchent à rationaliser leurs dépenses au maximum, cette partialité a pour conséquence d’en freiner grandement l’adoption. Dans l’éventualité où toutes les entreprises adopteraient ces outils de virtualisation partielle, il serait difficile de se détacher entièrement et simplement de la couche hardware : ce qui ne répondrait donc qu’en partie à l’image d’un Cloud omniprésent.
Aussi, la taille des réseaux domestiques et mobiles est encore très insuffisante pour pouvoir faire transiter les flux générés par une utilisation de masse des terminaux légers.
Illustrons cette matérialité: un aficionado de Dirt 3 (jeu vidéo de rallye automobile) joue au travers de trois écrans en qualité Full HD et utilise un terminal léger qui consommerait 90Mbit/s de bande passante, sa petite sœur regarde la télévision en qualité Full HD (30Mbit/s supplémentaires), le père consulte les cours de la bourse en temps réel et continu depuis Bloomberg (35Mbit/s) et la mère suit les dernières actualités (5Mbit/s): au total, cette famille consomme alors un minimum de 160 Mbit/s de bande passante avec un burst probable de 40 Mbits/s supplémentaires. Le véritable Cloud devrait permettre à ce foyer d’utiliser des technologies similaires n’importe où et n’importe quand. Seulement, avec une telle consommation, les infrastructures déjà existantes ne pourraient servir que quelques millions de personnes tout au plus.
Une offre globale de Cloud Computing n’existe pas encore sur le marché car les technologies nécessaires à sa mise en place ne sont pas totalement fonctionnelles et parfois même, ne sont pas même compatibles entre elles. Par ailleurs, ce genre d’intégration ne peut se faire sans un accompagnement au changement au sein même de l’entreprise.
Selon moi, le Cloud Computing d’aujourd’hui est une avancée «marketing » se traduisant par une version Internet 3.0, puisqu’il s’agit de fournir toujours plus de services d’une manière plus « évoluée » au travers de la toile.

Le succès du Cloud Computing n’est qu’une question de temps mais les clients doivent connaître la vraie nature de ce qu’on leur propose et ne pas s’engager vers des choix qu’ils pensent pérennes alors qu’ils ne sont que temporaires voire incompatibles avec l’existant. Le Cloud Computing est une très belle idée sur le papier mais si nous continuons à le survendre alors que les technologies ne sont pas encore matures et que les entreprises ne sont pas totalement prêtes, nous risquons de voir revenir une bulle spéculative, à l’image de celle de 2001.
En effet, il y a dix ans, cette bulle a eu lieu essentiellement à cause de l’absence des technologies et/ou des infrastructures permettant l’accès au réseau et à la délivrance du contenu de masse. Par syllogisme, les clients (internautes) n’existaient pas non plus. Cette nouvelle bulle serait catastrophique pour une industrie dont on espère plutôt qu’elle sera l’un des moteurs de la reprise économique.