Dossier Comparatif : quatre offres de calcul intensif dans le cloud

Microsoft Azure, Amazon Web Services, IBM SoftLayer ou OVH proposent de s'appuyer sur la puissance de leur plateforme cloud pour faire du calcul haute performance. Une opportunité pour les entreprises qui ne disposent pas de leur propre grille de calcul.

Le cloud a le mérite de démocratiser des services à haute valeur ajoutée jusqu'alors réservés à une poignée de privilégiés. C'est le cas du calcul haute performance. Jusqu'à un passé récent, le High performance computing (HPC) restait l'apanage des acteurs de la recherche publique (tels le CEA, l'Inria ou le CNRS en France) ou des grands groupes industriels (comme EDF, Total ou Renault dans l'Hexagone) et, bien sûr, des établissements financiers. A savoir de structures qui ont les moyens de disposer de leurs propres grilles de calcul, parfois composées de dizaines de milliers de cœurs. Et ce, dans l'optique de réaliser des simulations numériques, concevoir de nouveaux produits en 3D, procéder à des analyses de risques ou établir des prévisions météorologiques.

Le cloud contribue à démocratiser le HPC

Dans les années 1990, sous le vocable de grid computing, des initiatives se sont multipliées pour mutualiser les plateformes HPC. En 2000, le Genci (pour Grand équipement national de calcul intensif) lançait avec Bpifrance et l'Inria le programme HPC PME pour ouvrir le calcul intensif aux petites et moyennes entreprises.

Les principaux acteurs du cloud que sont Microsoft Azure, Amazon Web Services ou IBM SoftLayer ont doté leur portefeuille de services d'offre HPC. Selon Wilfried Kirschenmann, consultant HPC, cloud et big data au sein de la société de conseil Aneo, ces offres s'adressent avant tout aux grosses ETI industrielles. "Elles n'ont pas la taille critique pour avoir leur propre infrastructure de calcul intensif mais elles sont suffisamment importantes pour développer des outils HPC", pointe l'expert. De grands groupes peuvent également recourir à la puissance de calcul du cloud public en débordement de leur plateforme ou sur des usages ponctuels et non prédictibles. EDF, par exemple, voit ses besoins de calcul HPC s'accroître lors du redémarrage d'un réacteur nucléaire.

La virtualisation rend le calcul intensif possible

Au fil des années, le HPC en mode cloud a progressivement levé les doutes qui l'entouraient en termes de performances. Alors que tout l'enjeu dans le monde du calcul intensif consiste à développer une adhérence la plus fine possible entre couches logicielles et matérielles. La généralisation de la virtualisation – serveur et réseau de type SDN (Software-defined Network) – limite cette adhérence. Le hardware devient, lui-même, de plus en plus logiciel avec l'arrivée des FPGA (pour Field-programmable gate array) : ces circuits logiques programmables utilisés par Microsoft et OVH pour doper les performances de leurs infrastructures.

Précurseur, Microsoft est monté très haut dans les couches d'abstraction

Précurseur dans le domaine, Microsoft est monté très haut dans les couches d'abstraction. Son service, Azure Batch, permet de provisionner et d'administrer un grand nombre de machines virtuelles pour faire tourner des applications de calcul intensif en parallèle. Il se charge de la mise à l'échelle sans que l'utilisateur n'ait à passer par un ordonnanceur. Amazon Web Services a lancé début janvier une solution équivalente de traitement par lots baptisée AWS Batch.

Un cloud privé dédié au HPC

L'autre inquiétude portait sur la confidentialité des données. Elle n'est pas davantage fondée pour Wilfried Kirschenmann, les offreurs de cloud proposant de crypter les flux de bout en bout. "Cela amène toutefois les entreprises à se poser la question de la segmentation de leurs données afin d'anonymiser les informations les plus sensibles", constate le consultant. Non, pour Wilfried Kirschenmann, le vrai frein au HPC dans le cloud comparé à une machine locale réside dans le coût d'envoi des données sur l'infrastructure distante et la récupération des résultats.

Si Microsoft Azure et Amazon Web Services affichent une certaine antériorité, IBM et OVH ont pour avantage de proposer de louer une partie de leur infrastructure comme s'il s'agissait d'un cloud privé. La location se fait alors au mois et non plus selon un paiement à l'usage à l'heure. "Et dans le cadre d'un audit, une entreprise peut aussi aller physiquement voir si les règles de sécurité sont équivalentes à un datacenter interne", explique Wilfried Kirschenmann.

A la lecture des offres, on notera que la limite entre le big compute et le big data as a service est parfois floue. Pour Wilfried Kirschenmann, la différence tient dans la priorité donnée au temps de calcul dans le premier cas et au temps de transfert des données dans le second. "Si je dois faire une addition de deux nombres. Quel est le plus important ? Le délai nécessaire pour le calcul ou celui nécessaire pour aller chercher les valeurs ?", interroge le spécialiste.