La technologie d’analyse du Big Data sera peut-être un jour un “must-have” pour toutes les entreprises, mais ce n’est pas le cas

Les consultants gagnent des millions à aider les entreprises à extraire des miettes d’information décisionnelle de leurs tonnes de données non structurées, et les constructeurs se frottent les mains face au mini-boom créé par la demande de capacité de stockage.

Hadoop est au cœur des discussions : cette offre de technologies informatiques distribuées a beau être Open Source, elle n’en est pas abordable pour autant, ni aussi conviviale que le joyeux éléphant de son logo. En réalité, Hadoop et le Big Data sont une sorte de ticket gagnant pour les grands noms du Big Storage et du Big Iron, dont beaucoup n‘hésitent pas à multiplier les acquisitions pour se faire une place sur ce marché fort lucratif.
Mais avant de vouloir tout enregistrer de peur de manquer l’information capitale, ne devrions-nous pas commencer par analyser ce qu’on a déjà ? Le mieux serait que davantage de personnes dans l’entreprise puissent en faire plus avec leurs propres données, avant même d’en rajouter sans certitudes de pertinence ni de qualité. Peut-être devrions-nous laisser passer le train du Big Data pour former les utilisateurs en entreprise à mieux exploiter les données en leur possession… plutôt que de nourrir l’éléphant et ceux qui l’exploitent.
On aborde souvent la problématique du Big Data du point de vue quantitatif, en partant du principe selon lequel plus on engrange de données, plus celles-ci vont produire naturellement des informations utiles. Ne vous laissez pas berner : les projets Big Data supposent de lourds investissements dans des systèmes informatiques complexes et les compétences spécialisées pour les faire fonctionner. Et les délais de déploiement peuvent être extrêmement longs pour des performances finalement décevantes.
Il est possible que les grands groupes et administrations d’état aient intérêt à analyser le Big Data.
Mais nous ? Est-ce que collecter toujours plus de données va nous aider ? Peut-être, mais répondez d’abord aux questions suivantes : est-ce que j’obtiens rapidement des réponses utiles de l’analyse des données en ma possession ? Existe-t-il dans mon entreprise des procédures d’analyse décisionnelle qui permettent de traduire l’information en action et d’en mesurer l’impact sur la performance ?  Vous allez probablement répondre par la négative et vous n’êtes pas seul ! Une étude récente de Freeform Dynamics révèle que seules 15 % des entreprises estiment qu’elles exploitent correctement les informations de leurs bases de données pour fonder leurs décisions.
Il semble que la grande majorité des données stockées par les entreprises, prêtes à être analysées, ne le sont pas. Pour Bill Inmon, le père du stockage de données, 95 % des données stockées sont « dormantes ».  Pensez-vous que l’ajout de téra- ou pétaoctets de données non structurées à ces données sous-exploitées va changer la donne ? Probablement pas. Il y a même de grandes chances que les données dormantes en meurent, sombrant complètement dans l’oubli.
Ce ne sont pas de données dormantes et encore moins de données mortes dont les entreprises ont besoin, mais bien de données qui les aident à comprendre leur fonctionnement pour pouvoir améliorer systématiquement leur performance. Il leur faut des données aptes à stimuler la créativité et la productivité de leurs collaborateurs, des données vivantes, accessibles instantanément, et non dormantes ou mortes. Vous êtes d’accord ? Alors, comment faire pour y parvenir ?
Tout d’abord, faites l’état des lieux : pas seulement des données, mais aussi des connaissances et des compétences. Sélectionnez un projet représentatif des optimisations incrémentales possibles en mobilisant les ressources préexistantes. Si vous devez recruter, privilégiez l’analyste en gestion à l’expert de la technologie car chaque euro dépensé pour trouver la réponse à une question stratégique est un investissement, quand chaque euro dépensé dans des compétences informatiques spécialisées pour maintenir le processus est définitivement perdu.
Ensuite, dotez-vous d’outils vendus dans le commerce en misant sur l’agilité : des outils conviviaux, simples à utiliser par votre personnel, qui vous permettront de voir grand, en commençant petit avec la possibilité d’évoluer rapidement.  Vous obtiendrez dès lors plus d’informations décisionnelles avec l’assurance que beaucoup de ces outils font preuve d’une évolutivité satisfaisante (à moins que vous ne les confrontiez aux problèmes les plus épineux du Big Data). Misez sur une solution suffisamment intuitive pour les utilisateurs et la direction et qui pourra traiter ultérieurement les requêtes complexes d’exploration de données d’un analyste expérimenté. Il ne doit pas être indispensable de connaître la structure des données sous-jacente, ni la plate-forme de traitement. Le moteur analytique doit pouvoir tourner sur des serveurs standard, sans équipement propriétaire, ni configurations spécialisées, schémas de base de données ou ajustement fin de paramètres pour atteindre le niveau de performance requis. Et comme le chargement des données dans la base de données analytique peut être l’opération la plus longue, privilégiez les connexions standard aux sources de données afin de simplifier autant que possible le chargement des multiples formats de données envisageables.
Enfin, adoptez une approche itérative agile et allez-y progressivement. Les initiatives analytiques réussies sont le résultat d’un dialogue permanent avec les données, les réponses obtenues à un premier lot de questions conditionnant les questions suivantes. A chaque cycle, on comprend mieux l’existant, quelles sont les données pertinentes, ce qui manque et quelle dimension historique rajouter. La rapidité du temps de réponse est le facteur le plus déterminant de l’extraction de valeur ajoutée de volumes de données de toutes tailles.
La technologie d’analyse du Big Data sera peut-être un jour un “must-have” pour toutes les entreprises, mais ce n’est pas le cas aujourd’hui contrairement à ce que voudraient nous faire croire les consultants en gestion et les grands fournisseurs qui investissent des millions dans leur communication en faveur de l’analyse du Big Data (« Avez-vous conscience de toutes les informations utiles que vous manquez en n’analysant pas vos énormes volumes de données ? »). Vous ne manquez rien et mieux vaut que vous consacriez votre temps et votre argent à équiper un plus grand nombre de vos collaborateurs d’outils qui leur permettent d’analyser rapidement et en profondeur vos données disponibles.
L’évolution nous a appris que les petites espèces agiles survivent mieux que les grosses espèces spécialisées. Pourquoi ne pas appliquer le même raisonnement à nos données ?

Autour du même sujet