Avec l'Utility Computing, la salle blanche
d'une entreprise risque fort de ressembler à un pot de yaourt
vide ? Disparues les batteries de serveurs, envolés les systèmes
de stockage : le vent du changement n'a épargné
que le réseau ethernet et les postes clients. Mais où
est donc passé le coeur de l'infrastructure ? Chez un
prestataire, qui devient par conséquent le principal responsable
de la qualité du service de l'infrastructure informatique.
En résumé, l'entreprise se souciera uniquement de la
façon d'utiliser la puissance du système, et non plus
de la façon de la produire.
Les avantages ? Ceux de l'externalisation,
à commencer par la flexibilité : si la conjoncture
se retourne, il est facile de se débarrasser du coût
d'une infrastructure outsourcée, sans souci d'amortissement.
A l'opposé, si l'activité croit de façon spectaculaire,
il est possible de demander au prestataire une montée en
puissance rapide, sans risque de surinvessement. De son côté,
le prestataire gère beaucoup mieux que ses clients les aléas
conjoncturels : il compense les déboires de l'un par
le succès de l'autre, et maintient une activité relativement
stable.
Big Blue, évidemment
La flexibilté
a un autre atout : elle permet au client de s'aventurer dans
des expériences plus risquées, puisqu'il peut se désengager
aussi facilement qu'il ne s'engage. Reste à savoir si cet
avantage se paye au prix fort. Et il semble que non : les spécialistes
de l'Utility Computing revendiquent des prix moyens inférieurs
à ceux d'un système internalisé. Ce qui se
vérifie - dans certains cas - sur le terrain.
Le concept de l'Utility Computing a
son gourou en la personne d'IBM, qui clame que dans 20 ans la majorité
des entreprises auront massivement externalisé leur infrastructure
informatique. D'autres géants des services ont d'ailleurs
emboité le pas à Big Blue, sans toutefois tenir un
discours aussi radical.
Vrai/faux Utility
Computing
HP propose ainsi des services d'Utility Computing qui diffèrent
de ceux d'IBM. Avec HP, toute l'infrastructure informatique demeure
chez le client, mais les machines sont télé-administrées.
L'entreprise ne paye que pour ce qu'il utilise ... ou au moins
en a-t-il l'impresion : HP n'ayant pas la possibilité
d'utiliser pour d'autres clients les ressources inemployées,
elle est obligée de facturer l'intégralité
du matériel, d'une façon ou d'une autre. Chez HP,
l'Utility Computing en est donc réduit à un simple
modèle financier.
La méthode de Big Blue est tout
autre. Signe qui ne trompe pas : la facture qu'IBM envoye à
American Express pour son infrastructure d'Utility Computing ne
ressemble à aucune autre facture. C'est une véritable
marque de fabrique : en sus d'un coût fixe, on y trouve
un taux variable pour l'usage des mainframes, l'hébergement
du web, la quantité de stockage utilisée, le temps
de Hotline comptabilisé, et surtout le nombre d'heures de
calculs mobilisées sur les processeurs d'IBM. Le client paye
réellement que pour ce qu'il consomme.
Un pari risqué
Ce tour de force a un coût pour IBM : le géant
doit régulièrement agrandir ses parcs de ressources,
qui sont conçus pour être extrêmement flexibles,
et pour pouvoir accepter plusieurs clients sur chaque machine. Heureusement,
la conjoncture semble favorable aux ambitions de Big Blue :
la compagnie n'a qu'à se baisser pour cueillir à faible
coût les salles blanches des opérateurs de télécom
en faillite...
Mais le pari demeure risqué :
reste à convaincre les clients potentiels qui se posent une
foule de questions pertinentes. Quelle sera la qualité du
service s'il est hébergé à distance ?
Qui prendra en charge le choix et l'implémentation de l'infrastructure ?
Si c'est le prestataire, l'entreprise ne risque-t-elle pas de perdre
un précieux savoir faire, et d'être à la merci
des choix technologiques de son founrisseur ? (IBM pourrait
par exemple profiter de sa position pour faire payer ses développements
au prix fort, et pour imposer son offre logicielle). N'est-il pas
gênant de laisser des informations stratégiques transiter
par les salles blanches du prestataire ? Ses infastructures
sont-elles résistantes aux attaques informatiques ?
Autant de points sur lesquels IBM va devoir rassurer.
Le marché
décolle à peine
En attendant, le marché de l'Utility Computing peut être
qualifié de 'niche commericale'. Aucune enteprise n'a opté
pour une externalisation complète, et la plupart des marchés
remportés concernent seulement l'un des trois pôles
majeurs d'une infrastructure : le stockage, la gestion du réseau
et la gestion des ordinateurs.
IBM est le seul à maîtriser
les trois, mais chaque pôle a son spécialiste :
Inkra Networks s'est fait un nom dans l'outsourcing des problématiques
réseau ;
Jareva,
Moonlight, Terraspring et Think Dynamics ont une compétence
reconnue pour la gestion des ordinateurs. Storage Networks est le
spécialiste de l'externalisation du stockage.
Un coup de Poker pour
IBM
La bataille de l'Utility Computing ne fait donc que commencer. La
permière cible d'IBM sera les très grandes enteprises -
qui sont particulièrement demandeuses d'externalisation. Le
coeur de cible : les grands comptes pour qui l'informatique
n'est pas la ressource la plus stratégique, et qui prévoient
un grand changement d'architecture sous peu. Ce sont eux qui décideront
de l'avenir de l'Utility Computing. Et sans doute aussi un peu de
la santé d'IBM - extrêmement impliqué dans
cette aventure. [Nicolas Six, JDNet]