HP s'associe au CERN (Commissariat
Européen pour la Recherche Nucléaire) openlab
dans le cadre d'un accord d'entraide qui va permettre
au laboratoire de disposer notamment de matériel
venant du constructeur. De son côté, ce dernier
va pouvoir travailler sur l'apport éventuel des
technologies de grille dans l'entreprise.
Un accord
dans lequel chacun y trouve son compte
Le CERN openlab est un
espace de collaboration entre le CERN et des partenaires
industriels. L'objectif est de promouvoir et développer
l'usage des technologies de grille, notamment pour les
expérimentations scientifiques, qui manipulent
parfois des quantités de données astronomiques.
Rappelons que les grilles, qui représentent une
évolution du calcul distribué, visent
à partager et mutualiser les ressources de manière
optimale, pour favoriser l'exploitation des applications.
L'application la plus connue est probablement SETI@home
(Search for Extra-Terrestrial Intelligence),
qui permet à n'importe qui de dédier une
partie de la puissance de son processeur au calcul des
données scientifiques de recherche de vie extra-terrestre.
Le grid computing trouve son intérêt
dans les applications de calcul haute performance: recherche,
donc, mais aussi, potentiellement, l'entreprise et par
exemple l'industrie.
HP
est vient donc renforcer le CERN openlab. Dans ce cadre,
le constructeur s'engage à fournir tout d'abord
le matériel nécessaire pour construire
une grappe de 32 machines, optimisée pour le
calcul scientifique à grosse quantité
de données. Ce projet, nommé CERN opencluster,
sera doté de processeurs Itanium 2 fournis par
Intel. Il sera relié à l'infrastructure
CERN DataGrid dans un réseau Ethernet haut-débit.
Chez HP, on se félicite
de cette alliance. D'une part, CERN opencluster va permettre
de mettre à l'épreuve les machines du
constructeur. D'autre part, ce dernier compte bien essayer
de récupérer des techniques et pratiques
afin de contribuer au développement des grilles
dans l'entreprise.
L'utility
computing pourrait bien se généraliser
Qui dit grille dit aussi utility computing.
Ce concept désigne des technologies permettant
de mettre au point une grille qui relierait les différents
points de ressources d'un système. Il ne s'agit
pas d'externalisation banale, car il n'y a pas un prestataire
unique et bien identifié. Similaire à
n'importe quel type de distribution d'énergie
de masse (essence, électricité...), le
principe est de créer plusieurs centres de ressources
dans lesquels chacun vient se servir quand il en a besoin,
et selon l'état de disponibilité de la
ressource.
Techniquement, on peut
comparer ces technologies au réseau télécom,
qui transporte toutes sortes de données et services.
La différence, c'est que la couche de la grille
vient se placer au dessus de la couche télécom,
au niveau de l'infrastructure applicative.
Pour réussir et mettre
en place ces échanges, il va falloir réunir
plusieurs conditions. Tout d'abord, des standards sont
nécessaires, et c'est là que les Web
services entrent en jeu. Si une vraie harmonisation
s'effectue à leur niveau, ils peuvent garantir
l'interopérabilité des systèmes hétérogènes.
De plus, de nouveaux prestataires vont devoir s'associer
pour se placer sur ce marché.
|