Deux leviers sont nécessaires à l’amélioration de la qualité des Big Data

Le Big Data s’impose comme le grand sujet d’actualité sur les marchés TIC en 2013. La valeur des données pour l’entreprise, aussi gigantesques et exponentiels que soient leurs volumes et leurs variétés, ne fait plus débat.

Encore faut-il avoir les moyens de les exploiter mais aussi et avant-tout de pouvoir garantir leur qualité – donc leur fiabilité. Une question qui relève certes des technologies et des processus internes mais aussi d’une culture d’entreprise orientée business et métiers.

La gestion des données par les entreprises s’est fortement complexifiée au cours des deux dernières années, le sujet ayant entre temps été estampillé “Big Data”. Le marché du Big Data a été estimé à 28 milliards de dollars (22 milliards d'euros) par le cabinet Gartner pour 2012, et 36 milliards pour 2013. Concernant les données clients notamment, l’explosion qui a eu lieu concomitamment au développement des réseaux sociaux a généré deux défis : analyser et exploiter en temps réel des données structurées et non structurées multi formats et multi sources (réseaux sociaux, RFID, GPS, QR codes …), disponibles en très grands volumes (atteignant parfois le pétaoctet) ; mais aussi veiller à la qualité de ces données car une banale erreur peut vite impacter l’activité de l’entreprise. Une entreprise qui ne contrôle pas ses données peut vite voir son image entachée, et perdre la maîtrise de l’un des rouages clés de son activité.

Les dirigeants en sont les premiers convaincus, quel que soit le secteur de leur entreprise. L'étude Strength in Numbers : How Does Data-Driven Decisionmaking Affect Firm Performance ?, menée dès 2011 auprès de 179 entreprises cotées par Erik Brynjolfsson et Heekyung Kim, deux chercheurs du MIT, en partenariat avec Lorin Hitt, chercheur à l'université de Pennsylvanie (Wharton Business School), montrait déjà que les organisations qui s'appuient sur l'analyse des données pour développer leur stratégie augmentent leurs niveaux de productivité de 5 à 6 % .

Or, force est de constater que le préambule à tout projet Big Data qu’est la garantie de la qualité de ces données est souvent peu satisfaisante.

Trois raisons à cela :

* Beaucoup de données sont encore saisies manuellement, avec un risque élevé d’erreur à la clé.
* Il est, dans bien des cas, difficile de lier les données les unes avec les autres car elles sont issues de sources très diverses et ont des formats variés difficiles à intégrer entre eux.
*
Enfin les entreprises disposent de peu de compétences en interne sachant évaluer la qualité des données et les analyser pour remonter des indicateurs pertinents aux métiers.

Alors comment s’y prendre ? Historiquement, toute personne rencontrant un problème lié aux données était aiguillée vers la DSI. Or il est risqué et réducteur de vouloir résoudre le problème uniquement sous l’angle technologique. La qualité des données concerne en effet d’autres départements de l’entreprise - la DSI ayant même très rarement une vue globale et complète des conséquences d'une mauvaise qualité des données sur les opérations. D’autre part, le rôle de l’humain reste primordial puisque, dans une majorité d’entreprises, les données sont encore saisies ou vérifiées manuellement.

La solution est donc ailleurs, à savoir dans la culture même que l’entreprise a de sa gestion des données. Il est important que l’ensemble des équipes la considère comme un atout “business”, ce qui suppose dans bien des cas de faire évoluer les mentalités. A ce titre, le dirigeant lui-même doit assumer la responsabilité des données de son entreprise et de tout problème lié à leur qualité.

Pour soutenir ce changement, l’un des leviers d’amélioration consiste à automatiser le processus de collecte, de nettoyage et d’enrichissement des données. Les entreprises ont à leur disposition des solutions logicielles matures qui permettent de les dédoublonner, standardiser, rassembler etc… La DSI se chargera de piloter le projet mais devra le faire en étroite collaboration avec les métiers concernés – par exemple, pour les données clients, avec les départements marketing et relation clients.

Second levier à activer : impliquer les collaborateurs dans le processus d’amélioration de la qualité des données en insistant sur le fait qu’il n’y aura pas de valeur associée aux big data sans des bases propres. Il faudra aussi former ceux qui les gèrent et/ou les analysent. Enfin, l’entreprise gagnera à désigner une équipe en charge de la gouvernance des données, c’est-à-dire qui gèrera et évaluera en continu l’amélioration de la qualité des données et leur intégration.

Alors que les entreprises cherchent à se doter de nouveaux avantages concurrentiels, jouer sur ces deux leviers leur garantit de meilleures prises de décisions, une diminution des coûts d'exploitation, l'amélioration de la satisfaction client et de meilleures performances financières. D’ailleurs, qui prendrait encore des décisions stratégiques basées sur des données incomplètes, inexactes, incohérentes ou corrompues ? Cette importance critique des données s’est même traduite dans certaines entreprises par l’arrivée de nouveaux intervenants au sein des conseils d'administration : celles du directeur de la gouvernance des données et du directeur marketing.
Une évolution à suivre dans les prochains mois et sur laquelle nous aurons l’occasion de revenir bientôt…