Louer un supercalculateur pour quelques jours : si l'idée pouvait
sembler farfelue chez les grands comptes il y a dix ans, le
concept s'impose naturellement aux directeurs informatiques
depuis cinq ans. Pour répondre à un besoin extraordinaire ou
régulier, la location de capacité de calcul donne de la souplesse
au système d'information.
Pourtant, les supercalculateurs ont toujours été rattachés aux
principes du calcul scientifique, la science utilisant des ressources
colossales pour accélérer ses travaux de recherche.
D'ailleurs,
le classement des 500 premiers supercalculateurs au monde prouve
que cette association reste d'actualité. Sur les dix plus puissantes
machines déployées dans le monde, toutes appartiennent à des
instances gouvernementales de recherche (lire l'article
du 24/06/2005).
Mais
depuis trois ans, la maturité de l'offre, l'évolution des besoins
et des mentalités des dirigeants amènent les constructeurs
à tenter l'expérience de la location de supercalculateur auprès
des grands comptes.
"Le positionnement d'une offre comme Grid
Computing Capacity On Demand, n'est pas de réaliser des tâches
quotidiennes pour des progiciels de gestion, mais de supporter
des pics de charge inhabituels", confirme Philippe Bricard,
responsable des activités innovantes chez IBM Europe du Sud.
"Aujourd'hui, cette offre s'adresse à des gens dans l'industrie
comme le secteur automobile qui l'utilise pour de la simulation
de crash de véhicules, l'aéronautique pour les mêmes raisons,
l'exploitation pétrolière sur des simulations d'exploitation
de nappes", renchérit le responsable d'IBM. Dans d'autres secteurs,
la demande émerge seulement comme dans la finance ou l'industrie
pharmaceutique.
HPC1
met 1 teraflop à destination des entreprises |
"Il y a un an, nous avons mis à la location un supercalculateur
d'1 teraflop, ou mille milliards d'opérations par seconde. Cette
machine installée en France, est basée sur des technologies
et des applications standards de manière à s'assurer que les
programmes de nos clients fonctionneront correctement sur cette
machine.
La capacité n'est d'ailleurs pas figée et pourra évoluer
dans le futur selon les besoins", déclare Philippe Devins, directeur
des ventes HPC chez HP.
Basées sur une tarification au CPU et à l'heure, ces offres
s'appuient en standard sur des environnements Linux, très populaire
dans le monde du calcul scientifique et des supercalculateurs,
Unix (AIX ou Solaris) et parfois Windows.
Côté processeur, en
dehors de traditionnels modèles x86, Xeon d'Intel et
Opteron d'AMD, chaque constructeur met en avant ses puces hautes
performances : IBM avec les Power PC et les Blue Gene, Sun avec
les Sparc, HP avec Itanium.
Avec l'arrivée des grilles de calculs, la notion de supercalculateur
s'est petit-à-petit élargie au calcul haute performance. Le
concept de la grille consiste à exploiter les ressources inutilisés
d'un parc informatique en reliant entre eux serveurs ou PC sous-exploités
et éventuellement des sites distants.
Les
grilles de calcul comme alternative complémentaire |
"Tout va dépendre du type d'applications à externaliser. Dans
le cas du calcul scientifique par exemple, les données se montrent
relativement indépendantes et se prêtent bien au jeu de la grille.
En entreprise, plusieurs bases de données réparties peuvent
également correspondre à ce type de schéma. Mais dans le cas
de l'automobile et de la simulation de crash, les calculs sont
liés les uns aux autres et s'y prêtent moins bien", affirme
Jean-Yves Migeon, responsable marketing Datacenter chez Sun.
Afin d'offrir toujours plus de souplesse à l'entreprise, les
constructeurs s'appuient désormais sur des infrastructures logicielles
complexes, administration de grappes, virtualisation et provisionning.
Le client peut dès lors choisir d'exploiter lui-même ses données
ou de laisser ce travail au constructeur. Dans le premier cas,
il peut optimiser à sa manière le déroulement des batchs tandis
que dans le second cas, il économise des ressources en personnel.
L'externalisation de calculs complexes engendre toutefois une
problématique forte de sécurité. "Nous constatons encore des
résistances vis-à-vis de la confidentialité des données. C'est
une offre relativement nouvelle et moins mature que le calcul
scientifique. La force de l'existant chez les grands compte
en matière de serveurs haut de gamme, fait qu'il n'y ont pas
recours systématiquement. La plupart des sociétés préfèrent
encore avoir le contrôle de leur infrastructure", note Jean-Yves
Migeon.
La
sécurité négociée par des
engagements contractuels |
Pour résoudre cette barrière, chaque constructeur se propose
d'accompagner le client dans sa démarche d'externalisation.
"Nous offrons un accès direct aux machines à nos clients. Un
chef de projet chez nous s'occupe de l'ouverture des comptes
et de la partie sécurité. Nous fournissons des VPN avec SSH
et du HTTPS si besoin. Nous définissons ensemble les contraintes
nécessaires, par exemple si l'application est mono ou multi-utilisateurs",
ajoute Philippe Devins.
Que ce soit chez IBM, Sun ou HP, un centre de calcul fournit
à la fois puissance processeur et espace de stockage. Chez Sun,
la tarification débute à 1 dollar / processeur et par heure
ou 1 dollar / gigaoctet / mois. Un ratio performance prix qui
a donc beaucoup chuté. "Il y a cinq ans, il aurait fallu 50
millions de francs pour louer 1 teraflops. Aujourd'hui, cela
coûte 50 000 euros pour dix jours", souligne Philippe Devins.
Si chez les clients, toutes les conditions sont réunies pour
que la demande s'envole, les constructeurs doivent encore éprouver
la rentabilité de la location de supercalculateurs. "Il faut
trouver des clients dont les saisonnalités des pics de charge
sont différentes et complémentaires. Sinon la machine travaille
1 mois et reste 11 mois sans rien faire", conclut Philippe Bricard
d'IBM.
|