La technologie d’analyse du Big Data sera peut-être un jour un “must-have” pour toutes les entreprises, mais ce n’est pas le cas
Les consultants gagnent des millions à aider les entreprises à extraire des miettes d’information décisionnelle de leurs tonnes de données non structurées, et les constructeurs se frottent les mains face au mini-boom créé par la demande de capacité de stockage.
Hadoop est au cœur des discussions : cette offre de
technologies informatiques distribuées a beau être Open Source, elle n’en est
pas abordable pour autant, ni aussi conviviale que le joyeux éléphant de son
logo. En réalité, Hadoop et le Big Data sont une sorte de ticket gagnant pour
les grands noms du Big Storage et du Big Iron, dont beaucoup n‘hésitent pas à
multiplier les acquisitions pour se faire une place sur ce marché fort
lucratif.
Mais avant de vouloir tout enregistrer de peur de manquer
l’information capitale, ne devrions-nous pas commencer par analyser ce qu’on a
déjà ? Le mieux serait que davantage de personnes dans l’entreprise
puissent en faire plus avec leurs propres données, avant même d’en
rajouter sans certitudes de pertinence ni de qualité. Peut-être devrions-nous
laisser passer le train du Big Data pour former les utilisateurs en entreprise
à mieux exploiter les données en leur possession… plutôt que de nourrir
l’éléphant et ceux qui l’exploitent.
On aborde souvent la problématique du Big Data du point
de vue quantitatif, en partant du principe selon lequel plus on engrange de
données, plus celles-ci vont produire naturellement des informations utiles. Ne
vous laissez pas berner : les projets Big Data supposent de lourds
investissements dans des systèmes informatiques complexes et les compétences
spécialisées pour les faire fonctionner. Et les délais de déploiement peuvent
être extrêmement longs pour des performances finalement décevantes.
Il est possible que les grands groupes et administrations
d’état aient intérêt à analyser le Big Data. Mais nous ? Est-ce que
collecter toujours plus de données va nous aider ? Peut-être, mais
répondez d’abord aux questions suivantes : est-ce que j’obtiens rapidement
des réponses utiles de l’analyse des données en ma possession ?
Existe-t-il dans mon entreprise des procédures d’analyse décisionnelle qui
permettent de traduire l’information en action et d’en mesurer l’impact sur la
performance ? Vous allez
probablement répondre par la négative et vous n’êtes pas seul ! Une étude
récente de Freeform Dynamics révèle que seules 15 % des entreprises
estiment qu’elles exploitent correctement les informations de leurs bases de
données pour fonder leurs décisions.
Il semble que la grande majorité des données stockées par
les entreprises, prêtes à être analysées, ne le sont pas. Pour Bill Inmon, le
père du stockage de données, 95 % des données stockées sont « dormantes ». Pensez-vous que l’ajout de téra- ou
pétaoctets de données non structurées à ces données sous-exploitées va changer
la donne ? Probablement pas. Il y a même de grandes chances que les
données dormantes en meurent, sombrant complètement dans l’oubli.
Ce ne sont pas de données dormantes et encore moins de
données mortes dont les entreprises ont besoin, mais bien de données qui les
aident à comprendre leur fonctionnement pour pouvoir améliorer systématiquement
leur performance. Il leur faut des données aptes à stimuler la créativité et la
productivité de leurs collaborateurs, des données vivantes, accessibles
instantanément, et non dormantes ou mortes. Vous êtes d’accord ? Alors,
comment faire pour y parvenir ?
Tout d’abord, faites l’état des lieux : pas
seulement des données, mais aussi des connaissances et des compétences.
Sélectionnez un projet représentatif des optimisations incrémentales possibles
en mobilisant les ressources préexistantes. Si vous devez recruter, privilégiez
l’analyste en gestion à l’expert de la technologie car chaque euro dépensé pour
trouver la réponse à une question stratégique est un investissement, quand
chaque euro dépensé dans des compétences informatiques spécialisées pour
maintenir le processus est définitivement perdu.
Ensuite, dotez-vous d’outils vendus dans le commerce en
misant sur l’agilité : des outils conviviaux, simples à utiliser par votre
personnel, qui vous permettront de voir grand, en commençant petit avec la
possibilité d’évoluer rapidement. Vous
obtiendrez dès lors plus d’informations décisionnelles avec l’assurance que
beaucoup de ces outils font preuve d’une évolutivité satisfaisante (à moins que
vous ne les confrontiez aux problèmes les plus épineux du Big Data). Misez sur
une solution suffisamment intuitive pour les utilisateurs et la direction et
qui pourra traiter ultérieurement les requêtes complexes d’exploration de
données d’un analyste expérimenté. Il ne doit pas être indispensable de
connaître la structure des données sous-jacente, ni la plate-forme de
traitement. Le moteur analytique doit pouvoir tourner sur des serveurs
standard, sans équipement propriétaire, ni configurations spécialisées, schémas
de base de données ou ajustement fin de paramètres pour atteindre le niveau de
performance requis. Et comme le chargement des données dans la base de données
analytique peut être l’opération la plus longue, privilégiez les connexions
standard aux sources de données afin de simplifier autant que possible le
chargement des multiples formats de données envisageables.
Enfin, adoptez une approche itérative agile et allez-y
progressivement. Les initiatives analytiques réussies sont le résultat d’un
dialogue permanent avec les données, les réponses obtenues à un premier lot de
questions conditionnant les questions suivantes. A chaque cycle, on comprend
mieux l’existant, quelles sont les données pertinentes, ce qui manque et quelle
dimension historique rajouter. La rapidité du temps de réponse est le facteur
le plus déterminant de l’extraction de valeur ajoutée de volumes de données de
toutes tailles.
La technologie d’analyse du Big Data sera peut-être un
jour un “must-have” pour toutes les entreprises, mais ce n’est pas le cas
aujourd’hui contrairement à ce que voudraient nous faire croire les consultants
en gestion et les grands fournisseurs qui investissent des millions dans leur
communication en faveur de l’analyse du Big Data (« Avez-vous conscience
de toutes les informations utiles que vous manquez en n’analysant pas vos
énormes volumes de données ? »). Vous ne manquez rien et mieux vaut
que vous consacriez votre temps et votre argent à équiper un plus grand nombre
de vos collaborateurs d’outils qui leur permettent d’analyser rapidement et en
profondeur vos données disponibles.
L’évolution nous a appris que les petites espèces agiles
survivent mieux que les grosses espèces spécialisées. Pourquoi ne pas appliquer
le même raisonnement à nos données ?