ANALYSE
Sommaire Infrastructure 
Grilles : le portage d'applications reste encore artisanal
Malgré un chantier de standardisation bien engagé, l'implémentation d'applications sur une architecture de systèmes en grille nécessite encore un gros travail d'adaptation, jusqu'à la réécriture d'algorithmes.   (26/10/2005)
  En savoir plus
Dossier L'exploitation informatique à l'ère de la virtualisation
  Le site
Globus Alliance
Pionnier sur le terrain des technologies de grille, avec un projet de R&D amorcé dès 2001, IBM vient d'annoncer ses deux premiers partenariats logiciels dans ce domaine : l'un avec l'acteur du décisionnel SAS, l'autre avec l'éditeur d'environnements de développement Absoft.

Ainsi, les solutions de ces fournisseurs font désormais l'objet de déclinaisons adaptées à la grille de Big Blue. Il s'agit d'une plate-forme baptisée Grid and Grow, optimisée pour les machines (eServer), capable d'intégrer divers OS (Linux, Unix et Windows) et de s'appuyer sur plusieurs middleware - dont Altair Engineering, DataSynapse et Platform Computing.

L'apparition tardive de ce type d'accord cache la grande difficulté technique des projets de migration vers une architecture de grille. "La plupart du temps, les versions haute performance des applications étaient jusqu'ici conçues pour des machines vectorielles ou des grappes de serveurs en couplage fort, c'est-à-dire des environnements standardisés avec un bon équilibre entre processeurs et réseaux, et permettant une communication rapide entre machines", note Franck Cappello, directeur de recherche à l'INRIA. "La grille présente par définition un cadre beaucoup moins homogène, avec un nouvel équilibre réseau/performance à trouver."

Partant de là, un portage sur une telle plate-forme est potentiellement plus simple à réaliser lorsque le mode d'exécution de l'applicatif peut être découpé en tâches qui peuvent être prises en charge par différents noeuds. "Ces tâches doivent idéalement être assez autonomes les unes des autres, c'est-à-dire ne pas passer leur temps à dialoguer entre elles", explique Pierre Nenert, directeur des services EMEA chez DataSynapse. Autre élément à prendre en compte : les contraintes d'accès à la base de données et les volumes d'informations échangés.

Entre les implémentations impliquant l'échange d'un grand nombre de messages de petite taille et celles nécessitant la communication de gros paquets de données à intervalles moins fréquents, un juste milieu est à trouver.

"Dans le premier cas, on pourra rencontrer des problèmes d'orchestration, au vu de la quantité de flux à gérer. Et dans le second, une saturation du réseau si ce dernier n'est pas haut débit, à 10 Gigabit/s au moins", commente Franck Cappello.

Les environnements de grille virtuels encore peu matures
Afin de fournir une vision stabilisée du réseau de machines, de nombreux acteurs, tels IBM, Sun et Oracle, travaillent à l'élaboration d'environnements de grille virtuels. Objectif : faciliter et même automatiser le portage d'applications.

"Mais ces technologies ne sont pas encore matures", estiment les experts. Principal obstacle invoqué : le manque de standardisation sur le front des grilles de PC et des enjeux d'intégration. Ces derniers demeurent importants dans le domaine des grilles de sites qui nécessitent la combinaison de systèmes et outils de grille hétérogènes et ce, malgré le travail de normalisation amorcé par le consortium Globus.

A l'heure actuelle, le portage d'un logiciel doit par conséquent passer par son adaptation à l'infrastructure de grille, celle-ci n'étant pas suffisamment souple pour l'accueillir tel quel. Ce qui peut aller jusqu'à la modification des algorithmes qu'il exploite, en vue de faciliter la sérialisation des tâches.

"Dans le domaine de la recherche en biologie, les algorithmes de calcul itératif de conformation de protéines peuvent être remplacés par une approche statistique, qui consiste à faire le point sur l'ensemble des conformations candidates avant d'en vérifier la conformité physique. Cette approche permet ensuite de créer des tâches exécutables indépendamment", explique Franck Cappello.

"Nous adoptons la même démarche pour les programmes que nous mettons en oeuvre en grille dans le secteur financier, autour des systèmes d'évaluation de portefeuilles ou de risques de crédit", renchérit Pierre Nenert de DataSynapse.
  En savoir plus
Dossier L'exploitation informatique à l'ère de la virtualisation
  Le site
Globus Alliance

"Dans ces domaines, nous privilégions les algorithmes stochastiques, de type Monte-Carlo par exemple, qui assurent une certaine autonomie aux éléments distribués lors de l'exécution", conclut Pierre Nenert.


Antoine CROCHET-DAMAIS, JDN Solutions Sommaire Infrastructure
 
Accueil | Haut de page
 
 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters