Big Data : comment HP a vendu 15 plateformes Hadoop en France

Big Data : comment HP a vendu 15 plateformes Hadoop en France HP a séduit des clients dans les télécoms, la banque-assurance, et la fabrication. Ses atouts : une suite Big Data, composée d'une plateforme Hadoop, mais pas uniquement.

Chez HP, le Big Data a été érigé parmi les principaux axes de développement, aux côtés du cloud, de la mobilité, du stockage et des offres historiques du géant (sur les PC et imprimantes). Laurent Ridoux, responsable Big Data de la filiale française du groupe, nous a confié que HP avait vendu pas moins de 15 plateformes Hadoop dans l'Hexagone.

hp grenoble
Site de HP à Grenoble, où le groupe délivre sa solution Big Data en mode SaaS. © HP

Les secteurs sur lesquels ces clients sont positionnés ? La fabrication, la banque et l'assurance. "Mais aussi les télécoms", complète Laurent Ridoux. "Les acteurs dans ce domaine recherchent en effet des leviers pour faire face à la croissance de leur volume de données, alors même que leur chiffre d'affaires est amené à baisser suite à la concurrence de Free."

Difficile néanmoins pour Laurent Ridoux d'en dire plus sur l'identité exacte de ces clients. "Il s'agit pour la plupart de projets très liés aux métiers de ces organisations. D'où cette volonté de leur part de rester discrets", explique-t-il. Les 15 chantiers Hadoop en question sont en tous cas centrés très majoritairement sur le traitement de données clients de type non-structuré. En ligne de mire : améliorer le ciblage et le taux de transformation.

Répondre aux traitements des plus simples aux plus complexes

Pour répondre aux défis du Big Data, HP a mis au point une suite d'infrastructures de données (baptisée Haven). Chacune de ses briques ayant pour objectif de répondre à un grand type de traitement. D'abord, une plateforme de calcul distribuée, basée sur Hadoop, vise à prendre en charge l'analyse d'informations non-structurées, avec à la clé des modèles de corrélation relativement simple.

Si les modèles à appliquer s'avèrent trop complexes, HP recommande ensuite de les mettre en musique via Autonomy (une technologie acquise par HP en 2011). Il s'agit d'une solution de machine learning reposant sur des algorithmes statistiques et probalistiques sur la présence d'occurrences dans les textes. Son fonctionnement est basé notamment sur les théories de l'inférence bayésienne et de l'information de Shannon. Cette application n'implique pas, par conséquent, d'analyse sémantique au sens strict, et ne dépend donc pas de dictionnaires. Au fil de l'apprentissage et des contenus ingérés, elle affinera son interprétation des mots en fonction d'un contexte d'usage dans les textes.

Enfin, pour les scénarios les plus complexes, c'est Vertica qui est conseillé. Un système de base de données en colonnes (également acquis pas HP en 2011) qui permettra par exemple d'appliquer des modèles de statistiques prédictives.

Criteo a branché HP Vertica à son environnement Hadoop maison

HP met en avant ces deux briques complémentaires à sa distribution Hadoop comme principale valeur ajoutée de son offre. Reste que la récente annonce de Microsoft de combiner SQL Server à Hadoop, au travers une nouvelle version de son entrepôt de données, pourrait bien venir challenger ce positionnement (lire l'article : Microsoft combine SQL Server et Hadoop).  

Des projets français pour l'heure limités à l'offre Hadoop de HP"

La majeure partie de nos clients français sur le terrain du Big Data limitent pour l'heure leur projet à Hadoop. Mais l'objectif est de pouvoir accompagner leur montée en puissance en ayant la capacité de répondre à d'autres besoins, notamment sur le transactionnel", reconnait-on chez HP France.

laurent ridoux
Laurent Ridoux est responsable l'offre Big Data chez HP France. © HP

Il existe cependant un utilisateur français de Vertica d'ores et déjà évoqué par HP, et pas des moindres. Il s'agit de Criteo. Le spécialiste du retargeting a en effet branché Vertica à son environnement Hadoop maison pour permettre à ses analystes d'accéder à son cluster de calcul de données marketing. Un choix qui ne parait pas étonnant. Vertica a en effet gagné ses lettres de noblesse dans l'univers du cybermarketing depuis son déploiement par Facebook. Le réseau social l'utilise pour orchestrer une base de plusieurs Po pour gérer le ciblage de son offre publicitaire.

Suite à ces premiers chantiers, Laurent Ridoux est persuadé du potentiel que pourrait offrir le marché du Big Data pour HP, notamment en France. "Ce segment ne restera pas une niche", estime-t-il. "Des technologies open source comme Hadoop ont justement permis à de jeunes sociétés, comme Criteo, de prendre rapidement pied sur ce terrain."

Et le responsable Big Data de la filiale française de HP d'évoquer également Zynga. La start-up adosse son Analytics à une base Vertica de 5 Po pour assurer l'analyse comportementale des utilisateurs de ses jeux en ligne. "Une plateforme comme Hadoop tourne sur des serveurs standard type x86, ce qui contribue aussi à en réduire le coût d'acquisition. C'est aussi ce qui nous permet d'afficher des prix bien moindres que ceux d'Oracle", ajoute Laurent Ridoux, avant de préciser que le calcul des tarifs d'Haven ne dépend pas prioritairement du nombre de nœuds. "C'est un modèle qui n'est pas réaliste dans le cas d'une infrastructure de calcul distribuée. Il ferait exploser les prix", reconnait Laurent Ridoux.

Dans la lignée des services Hadoop d'Azure (HDInsight) et Amazon Web Services (Amazon Elastic MapReduce), HP propose enfin sa suite Haven en mode cloud, au sein de ses data centers français (à Grenoble) et allemands. Une infrastructure qui se révèlerait adaptée à des clusters de 5 à quelques dizaines de To (principalement du fait des limitations dues à la bande passante), que le groupe dédie aux pilotes que ses clients souhaiteraient tester avant de lancer leurs déploiements.