Que promet le grid computing ?
Dans l'idéal : exploiter pleinement
les ressources de l'intégralité d'un parc informatique -
serveurs et PC de bureau inclus - 24h/24. Les ordinateurs d'une enteprise
ne travaillent presque jamais à pleine charge - ils traversent
des périodes d'inactivité plus ou moins prolongées.
Exploiter chaque seconde de latence - et chaque octet de mémoire
libre - permet de dégager de la puissance de calcul, ainsi que
des espaces de stockage considérables, le tout pour un coût
souvent inférieur à celui d'un investissement dans du nouveau
matériel.
Existe-t-il une différence
entre le grid computing et le clustering ?
Le grid computing reprennent les principes
élémentaires du clustering, qui peut être considéré
comme l'un des ancêtres de la grille d'ordinateurs. Mais il est
préférable
de
faire la distinction
entre une grille et un cluster. Un cluster au sens strict
regroupe une pile de serveurs au format "boîte de pizza"
dans une grosse armoire à serveurs - un rack. A l'opposé,
une grille regroupe un ensemble de PC reliés en réseau,
ces PC pouvant être distants de plusieurs mètres, voire de
plusieurs kilomètres. Plus on s'éloigne d'une armoire à
serveurs standardisés pour aller vers un réseau de machines
éthérogène, plus on est fondé à parler
de grille.
Concrètement,
quelles applications trouve-t-on sur le terrain ?
Le rêve de la grille exploitant toutes
les ressources inutilisées de chaque ordinateur est encore réservé
à une minorité d'entreprises. Le portrait type d'une grille
en France est le suivant : un réseau de quelques dizaines
de serveurs, spécialisés et standardisés, reliés
entre-eux par une liaison à haut débit et qui effectuent
des calculs pour le compte des chercheurs d'un organisme public. Un portrait
robot qui n'est pas très éloigné de celui d'un cluster.
Cependant, des exemples plus sophistiqués ne manquent pas. Citons
notamment celui d'Intel, qui fait travailler chaque nuit l'ensemble de
ses PC pour les besoins de son service de R&D, particulièrement
avide en puissance de calcul. A terme, on peut espérer que cet
exemple se généralisera, et s'étendra aux problématiques
de stockage.
Comment ca marche ?
Les technologies de grille ne sont pas encore
stabilisées : plusieurs standards incompatibles cohabitent,
s'appuyant sur des langages et des protocoles différents. Cependant,
la plupart des solutions partagent un socle de principes commun :
un chef d'orchestre - très peu gourmand en ressources -
se place au coeur du réseau et distribue à chaque machine
sa partition. Un logiciel espion s'installe sur chaque machine pour faire
exécuter cette tâche, et informe le chef d'orchestre de ce
qu'on peut raisonnablement demander à la machine qu'il sollicite.
Ce délicat travail de prévision est désormais bien
maîtrisé par les outils de grille. Demeure un deuxième
défi : acheminer les requêtes le plus rapidement possible
à travers une jungle de machines et de standards. Un enjeu pour
lequel les éditeurs ont tous leur réponse.
Dégager de la puissance,
c'est une chose. Mais comment la redistribuer ?
C'est effectivement une étape dont
on ne saurait se passer : il ne faut pas que cette puissance dégagée
soit trop difficile d'accès, mais il ne faut pas non plus que chaque
employé puisse en profiter avec autant de facilité. Il faut
en effet hiérarchiser les accès afin que les calculs les
plus importants passent en priorité. Il faut également adapter
l'interface aux utilisateurs : s'il s'agit d'un outil destiné
à quelques scientifiques qui ont l'habitude de manipuler des scripts
complexes, on peut se contenter d'un outil d'écriture de scripts.
S'il s'agit de plusieurs centaines d'employés dont certains n'ont
jamais manipulé ce type d'outils, mieux vaut construire un portail
ergonomique et pédagogique, qui servira également à
trier les accès des utilisateurs.
Si les grilles sont si
peu chères, pourquoi vend-on encore des supercalculateurs ?
Il serait tentant d'attribuer la bonne tenue
du marché des supercalculateurs à l'inertie des consommateurs.
Et de fait : la méconnaissance des capacités du grid
computing joue pour partie dans le maintien des dynausaures du calcul
de masse. Mais il ne faut pas se voiler la face : les technologies
de grille ne sont pas arrivées à un niveau de maturité
suffisant pour s'imposer systématiquement.
Que manque-t-il au grid
computing pour être une technologie mûre ?
Le Ggrid computing souffre de deux défauts :
la faiblesse de son niveau de sécurité, qui dissuade nombre
d'enteprises d'imaginer des grilles qui vont au delà de leurs firewalls ;
et la lenteur des temps d'accès, incomparables à ceux d'un
supercalculateur traditionnel : les requêtes qui cheminent
sur une grille doivent emprunter le réseau avant d'être traitées.
Certains types de calculs souffrent beaucoup de ces lenteurs, qui interdisent
de rebondir en quelques fractions de secondes vers une autre opération.
Pour chacun de ces défauts, le défi va être difficile
à relever. Demeure une troisième insuffisance, moins handicapante
cette fois-ci : la faiblesse des outils de redistribution de la puissance.
Dans ce domaine, on devrait voir des solutions abonder dans les mois qui
viennent.
Qui sont les acteurs du
marché ?
Pas de surprise : les grands éditeurs,
prestataires de service et fabriquants de solutions de grilles sont les
leaders du marché des gros serveurs : IBM, HP et Sun (Dell
s'y est mis sur le tard). On remarque aussi la présence d'éditeurs
plus ou moins gros : Microsoft, et depuis une période récente
Oracle pour les poids lourds ; Platform, United Devices pour les
défricheurs best of breed. N'oublions pas le petit français
GridXpert qui a levé 3 millions d'euros auprès d'investisseurs
solides, et qui part à la conquête du marché.
[Nicolas Six, JDNet]