Que promet
le grid computing ?
Dans l'idéal :
exploiter pleinement les ressources de l'intégralité
d'un parc informatique - serveurs et PC de bureau
inclus - 24h/24. Les ordinateurs d'une enteprise
ne travaillent presque jamais à pleine charge -
ils traversent des périodes d'inactivité
plus ou moins prolongées. Exploiter chaque seconde
de latence - et chaque octet de mémoire libre -
permet de dégager de la puissance de calcul, ainsi
que des espaces de stockage considérables, le tout
pour un coût souvent inférieur à celui
d'un investissement dans du nouveau matériel.
Existe-t-il
une différence entre le grid computing et le
clustering ?
Le grid computing reprennent
les principes élémentaires du clustering,
qui peut être considéré comme l'un
des ancêtres de la grille d'ordinateurs. Mais
il est préférable
de
faire la distinction
entre une grille et un cluster. Un cluster au sens strict
regroupe une pile de serveurs au format "boîte
de pizza" dans une grosse armoire à serveurs -
un rack. A l'opposé, une grille regroupe
un ensemble de PC reliés en réseau, ces
PC pouvant être distants de plusieurs mètres,
voire de plusieurs kilomètres. Plus on s'éloigne
d'une armoire à serveurs standardisés
pour aller vers un réseau de machines éthérogène,
plus on est fondé à parler de grille.
Concrètement,
quelles applications trouve-t-on sur le terrain ?
Le rêve de la grille
exploitant toutes les ressources inutilisées
de chaque ordinateur est encore réservé
à une minorité d'entreprises. Le portrait
type d'une grille en France est le suivant : un
réseau de quelques dizaines de serveurs, spécialisés
et standardisés, reliés entre-eux par
une liaison à haut débit et qui effectuent
des calculs pour le compte des chercheurs d'un organisme
public. Un portrait robot qui n'est pas très
éloigné de celui d'un cluster. Cependant,
des exemples plus sophistiqués ne manquent pas.
Citons notamment celui d'Intel, qui fait travailler
chaque nuit l'ensemble de ses PC pour les besoins de
son service de R&D, particulièrement avide
en puissance de calcul. A terme, on peut espérer
que cet exemple se généralisera, et s'étendra
aux problématiques de stockage.
Comment
ca marche ?
Les technologies de grille
ne sont pas encore stabilisées : plusieurs
standards incompatibles cohabitent, s'appuyant sur des
langages et des protocoles différents. Cependant,
la plupart des solutions partagent un socle de principes
commun : un chef d'orchestre - très
peu gourmand en ressources - se place au coeur
du réseau et distribue à chaque machine
sa partition. Un logiciel espion s'installe sur chaque
machine pour faire exécuter cette tâche,
et informe le chef d'orchestre de ce qu'on peut raisonnablement
demander à la machine qu'il sollicite. Ce délicat
travail de prévision est désormais bien
maîtrisé par les outils de grille. Demeure
un deuxième défi : acheminer les
requêtes le plus rapidement possible à
travers une jungle de machines et de standards. Un enjeu
pour lequel les éditeurs ont tous leur réponse.
Dégager
de la puissance, c'est une chose. Mais comment la redistribuer ?
C'est effectivement une
étape dont on ne saurait se passer : il
ne faut pas que cette puissance dégagée
soit trop difficile d'accès, mais il ne faut
pas non plus que chaque employé puisse en profiter
avec autant de facilité. Il faut en effet hiérarchiser
les accès afin que les calculs les plus importants
passent en priorité. Il faut également
adapter l'interface aux utilisateurs : s'il s'agit
d'un outil destiné à quelques scientifiques
qui ont l'habitude de manipuler des scripts complexes,
on peut se contenter d'un outil d'écriture de
scripts. S'il s'agit de plusieurs centaines d'employés
dont certains n'ont jamais manipulé ce type d'outils,
mieux vaut construire un portail ergonomique et pédagogique,
qui servira également à trier les accès
des utilisateurs.
Si les
grilles sont si peu chères, pourquoi vend-on
encore des supercalculateurs ?
Il serait tentant d'attribuer
la bonne tenue du marché des supercalculateurs
à l'inertie des consommateurs. Et de fait :
la méconnaissance des capacités du grid
computing joue pour partie dans le maintien des dynausaures
du calcul de masse. Mais il ne faut pas se voiler la
face : les technologies de grille ne sont pas arrivées
à un niveau de maturité suffisant pour
s'imposer systématiquement.
Que
manque-t-il au grid computing pour être une technologie
mûre ?
Le Ggrid computing souffre
de deux défauts : la faiblesse de son niveau
de sécurité, qui dissuade nombre d'enteprises
d'imaginer des grilles qui vont au delà de leurs
firewalls ; et la lenteur des temps d'accès,
incomparables à ceux d'un supercalculateur traditionnel :
les requêtes qui cheminent sur une grille doivent
emprunter le réseau avant d'être traitées.
Certains types de calculs souffrent beaucoup de ces
lenteurs, qui interdisent de rebondir en quelques fractions
de secondes vers une autre opération. Pour chacun
de ces défauts, le défi va être
difficile à relever. Demeure une troisième
insuffisance, moins handicapante cette fois-ci :
la faiblesse des outils de redistribution de la puissance.
Dans ce domaine, on devrait voir des solutions abonder
dans les mois qui viennent.
Qui
sont les acteurs du marché ?
Pas de surprise : les
grands éditeurs, prestataires de service et fabriquants
de solutions de grilles sont les leaders du marché
des gros serveurs : IBM, HP et Sun (Dell s'y
est mis sur le tard). On remarque aussi la présence
d'éditeurs plus ou moins gros : Microsoft,
et depuis une période récente Oracle pour
les poids lourds ; Platform, United Devices pour
les défricheurs best of breed. N'oublions
pas le petit français GridXpert qui a levé
3 millions d'euros auprès d'investisseurs solides,
et qui part à la conquête du marché.
|