Le Big Data est mort ! Vive la donnée centrée sur la Valeur !

Après avoir sombré dans la désillusion durant l’année 2014, depuis 2015 le Big Data ne figure plus dans la courbe d'évolution de l'adoption des technologies émergentes du Gartner. En 2016, de multiples POCs se sont achevés, mais ne sont pas transformés en projets industriels.

C’est un fait, le Big Data est mort… et le marché l’a tué. Les entreprises qui ont sauté dans le train du Big Data sont les premières à s’en étonner.  Elles ont en effet investi du temps, de l’argent et ont déployé de multiples efforts pour « marketer » leur activité et se demandent  – à juste titre – comment suivre les évolutions de ce marché en plein déclin. 

Pourtant, la mort annoncée du Big Data est porteuse de bonnes nouvelles. Les entreprises peuvent enfin se concentrer sur ce qui compte vraiment : extraire la Valeur – avec un grand « V » – de la donnée. « Valeur » : le seul mot qui a survécu à la V-Mania : Volume, Variété, Vélocité, Viscosité, Véracité, Volatilité. Deux éléments clés de la réussite d’un projet de valorisation de la donnée émergent : son industrialisation et sa gouvernance à l’échelle de l’entreprise. Où sont les données, qui les gèrent et leur utilisation respecte-t-elle les réglementations ? Les données personnelles gérées par exemple dans les banques ou l’assurance sont-elles conformes au futur cadre européen de la GDRP ? Comment gouverner les données face à la multiplicité des acteurs ?

La petite histoire du cycle de vie du Big Data

La chute du Big Data est une réalité. Mais comment en est-on arrivé là ? Depuis l’avènement des systèmes distribués, les données sont devenues l’affaire de tous les types d’organisations.  Les entreprises ont investi pléthore de ressources humaines et de capitaux afin de bâtir des entrepôts de données d’entreprise. Dans la conduite de ces projets, elles sont parvenues à harponner un volume de données en perpétuelle croissance. Une approche payante au cours des deux dernières décennies puisque les données ont été rigoureusement rangées et classées.

Cependant, au fil des années, les géants du GAFA (Google, Amazon, Facebook et Apple) ont atteint une taille colossale, mettant les entreprises face à la gestion d’un nombre inconcevable de données : les données brutes, ces bêtes féroces, disruptives et en totale roue libre ! Pour gérer ces données brutes, de nouvelles techniques ont émergé afin de les interroger, les stocker et les traiter. Mais, en termes de données et contrairement à une idée reçue, il n’y a aucune distinction entre les GAFA et les petites et moyennes entreprises. Dans le domaine de la Data, il n’y a pas de « Gros », pas de « Petits », pas de « Rapides » ni de « Lents ». Aujourd’hui, il n’y a que les données qui importent, et chaque entreprise, depuis la start-up jusqu’au géant d’internet, doit être capable d’en extraire la valeur.

Et maintenant ? La mort du big data doit permettre aux entreprises de se concentrer sur l’essentiel.

Machine Learning, les analyses prédictives ou de l’intelligence artificielle seront de meilleurs outils. Ils permettent d’adresser la nature de données non structurées et d’en comprendre la structure. Toutefois, il faut être conscient du choix à faire, des besoins et de la nature même des données : c’est une véritable stratégie qu’il faut déployer ! Bon nombre d’entreprises « gaspille » une multitude de ressources parce qu’elles ne comprennent pas ce qu’il leur faudrait pour implémenter ces technologies avec succès.

Quel objectif dans l’utilisation des données et comment les utiliser à bon escient ? Pourquoi l’expérience utilisateur restera t’elle la même (ou presque) ?

Dans la vertigineuse chute du Big Data, une certitude : les données brutes ne rentreront jamais nettement et parfaitement dans des cases. La bonne nouvelle ? La plupart d’entre nous n’assisteront pas à des changements structurels majeurs. Une petite minorité d’opérateurs chevronnés, et en avance sur leur temps, mettront les mains dans le cambouis pour prendre le sujet de la donnée brute à bras le corps. Comment ? En se débarrassant de ce qui n’est pas important, en mettant en avant ce qui l’est et en structurant ces data de manière accessible. Ces professionnels des données brutes permettront aux entreprises d’accéder à la valeur matérielle et « désencombrée » des données. Ils les aideront à gérer, comprendre et analyser la donnée brute mais aussi savoir que faire avec. Les entreprises pourront également faire appel à des places de marché de données scientifiques comme Kaggle et datascience.net pour accéder à ces spécialistes en mode « as a service ».

De plus, les API autoriseront n’importe quel développeur, quel que soit son niveau de compétence, à analyser les données brutes, d’Azure machine learning à Google prediction APIs en passant par Amazon machine learning.

Maintenant que le Big Data est mort et enterré, un nouveau chapitre de l’histoire de la donnée s’ouvre. Les inquiétudes ne portent plus sur le volume, la variété, la vélocité ou la vraisemblance.  L’indicateur principal, celui qui prévaut est le grand « V » du mot « Valeur ». Et grâce à une panoplie de technologies savamment dosées pour aider l’entreprise à extraire les joyaux de ses données, l’après Big Data s’annonce sous les meilleurs auspices.