Ces DSI qui prennent le virage du Big Data Big Data : le Crédit Mutuel opte pour le mode Big Bang

C'est en 2009 que le Crédit Mutuel Arkéa décide de se lancer dans un vaste projet de traitement de données en masse. Une infrastructure transverse, reposant sur Hadoop, est mise en place. "Nous y avons versé presque toutes les données de l'entreprise en provenance de nos mainframes", explique Mathias Herberts, ingénieur disruptif au Crédit Mutuel Arkéa. Derrière cette plate-forme, l'objectif est bien d'équiper la banque d'un système "Big Data". "Et le mettre à la fois entre les mains des directions métier, mais aussi de nos clients via un service d'analyse de compte", poursuit Mathias Herberts.

mathias herberts, ingénieur disruptif au crédit mutuel arkéa, s'est notamment
Mathias Herberts, ingénieur disruptif au Crédit Mutuel Arkéa, s'est notamment attaché à compléter Hadoop sur certains points clés de sécurité (autour de la gestion des clés, des fichiers temporaires...). © JDN / Antoine Crochet-Damais

Il s'agit du premier projet qui a été lancé sur la base de cette infrastructure : un service permettant aux clients de la banque de lancer des recherches multi-critéres (libellés d'opérations, dates, montants, ...) sur un historique de 10 ans. Analysant 5 milliards d'enregistrements, il permet par exemple de connaitre ses revenus sur une période donnée, ou le total de ses dépenses réalisées chez un commerçant particulier. C'est pour ce projet que Crédit Mutuel Arkéa vient de recevoir le 1er Prix des Trophées de l'Innovation Big Data.

Depuis, d'autres chantiers ont été mis en œuvre en s'appuyant sur cette infrastructure, ciblant plutôt des utilisateurs internes cette fois. Il s'agit notamment d'une application pour détecter les opérations potentiellement liées à des actions de blanchiment (un processus précédemment exécuté par les mainframes), ou encore d'un système pour calculer les ratios de solvabilité des offres de prêts. "Grâce à Hadoop, leur temps de calcul est passé de 48 heures à 15 minutes, ce qui permet également de modifier les modèles de solvavilité plus régulièrement", note Mathias Herberts. "Globalement, nous sommes désormais capables de traiter plus de 6 mois d'historique en moins de 5 minutes", estime-t-on au sein du Crédit Mutuel Arkéa.

Et plus besoin pour les directions utilisatrices de faire appel à l'informatique, comme cela aurait été le cas auparavant, pour créer des indicateurs via une solution de Business Intelligence traditionnelle. La banque a en effet fait le pari de former 50 experts métiers au langage d'analyse statistique Pig. Objectif : leur permettre de créer directement leurs indicateurs, "sachant qu'ils maitrisent mieux que la DSI les référentiels de données internes". Pari tenu ! Quatre ans après le lancement du projet, l'infrastructure Hadoop est utilisée par tous les grands métiers.

Partager les données : le point clé de l'accompagnement du changement

Mais, pour Mathias Herberts, deux grands défis auront dû être relevés pour parvenir à ce résultat. "Il aura fallu d'abord sécuriser Hadoop qui ne l'est pas au départ, notamment en matière de gestion des droits sur les données, ce qui a nécessité des développements spécifiques. Nous avons aussi décidé de ne verser sur Hadoop [chaque nuit NDLR] que des données répliquées, en provenance de nos systèmes de production", explique Mathias Herberts.

Second grand défi : l'accompagnement du changement. La mise en place d'une infrastructure de données transverse, à travers laquelle les informations sont partagées entre directions, représente en effet une évolution de paradigme pour un groupe habitué jusqu'ici à un système d'information en silos.

"Il a donc fallu sensibiliser les équipes qui créent les données de l'intérêt de les partager avec d'autres départements. Nous avons aussi dû expliquer que l'étape de production de données était plus importante qu'auparavant, dans la mesure où les informations peuvent désormais avoir un impact beaucoup plus important sur l'activité et la valeur ajoutée de la banque. D'où l'enjeu, également, d'une production avec un niveau de qualité plus exigeant", souligne Mathias Herberts. Du côté des analystes, l'accompagnement du changement a également été central, "notamment pour expliquer qu'Hadoop ne pouvait pas tout faire, notamment en termes de volumétrie et de temps de calcul".