Comment la BI "In-memory" décloisonne la prise de décision et accélère la capacité d'action
Au-delà du traitement massif en temps réel, la BI In-Memory mettra en relation des données à un niveau de détail jamais atteint. C’est un moteur pour décloisonner les analyses, décupler les capacités de simulation et rendre les opérationnels plus autonomes au sein d’organisations plus collaboratives.
Les grands éditeurs investissent massivement dans la technologie In-Memory. Ce mouvement, élément de réponse au phénomène du « Big Data », va révolutionner la « Business Intelligence ».
La vitesse et la performance de traitement sont des
exigences récurrentes des applications de business intelligence : les
entreprises veulent disposer de rapports toujours plus frais et de tableaux de
bord qui fédérent des indicateurs détaillés en temps réel. Le In-Memory répond
à cette attente en étant 10 à 1000 fois plus rapide que les technologies en
place. Cette accélération permet logiquement de traiter plus rapidement de plus
gros volumes de données.
Des solutions déjà opérationnelles et une trajectoire maintenant
prévisible
Des solutions analytiques quasi-bureautiques ont ouvert
la voie en démontrant qu’il était possible, grâce aux opérations en mémoire
vive, de traiter et manipuler « à la volée » de gros volumes de
données. Exit – du moins en théorie – le long, coûteux et fastidieux travail de
modélisation inhérents aux solutions traditionnelles. Aujourd’hui, capitalisant
sur la chute du prix de la mémoire et les avancées des processeurs multi-cœurs,
ce sont les principaux acteurs de la BI et des ERP qui mènent l’offensive. L’importance
de leurs investissements dans le ‘In-Memory’ laisse penser que Gartner est dans
le vrai lorsqu’il assure que 30% des applications analytiques reposeront très
bientôt sur un socle In-Memory[1].
Les éditeurs proposent dès aujourd’hui des solutions
« In-Memory » pour produire des reportings en temps réel ou quasi
réel sur des masses de données opérationnelles. Chez certains, les éléments du
système décisionnel d’entrepôt de données (alimentation, stockage, gestion d’un
référentiel multi-sources, historisation, requêtes) peuvent également bénéficier
d’un sous-bassement In-Memory.
La
promesse sous-jacente est la possibilité de tirer un avantage concurrentiel des
masses phénoménales de données disponibles – celles de l’entreprise, de ses
partenaires mais aussi celles du web, des médias/réseaux sociaux et des
innombrables capteurs qui sont à l’origine du phénomène du « Big Data ».
Il faut aussi se préparer à une évolution de l’architecture
et des applications décisionnelles. La dernière étape logique sera la
convergence de la BI et du transactionnel dans un seul et même environnement, avec
une simplification radicale des paysages.
L’occasion de mettre en relation des données
différentes
Un
premier gain directement lié à la vitesse est la réduction des temps
informatiques : tel traitement qui durait sur plusieurs nuits peut être
terminé en 1h.
Si
la capacité matérielle à traiter des pétaoctets de données à la vitesse de
l’éclair est acquise, cela ne préjuge en rien de la valeur « métier »
que les organisations peuvent en tirer : celle-ci dépend fondamentalement de
la qualité et de la pertinence des analyses qui utilisent ces données. Quand
toutes les données sont disponibles, il faut encore trouver les bonnes
relations (ex : mettre en évidence les coûts de transaction et les coûts
logistiques d’une livraison d’un produit, pour comprendre la rentabilité de
chaque ligne de commande, quelle que soit la marge unitaire) avant de prendre
les bonnes décisions.
Un reporting décloisonné pour décider et agir
En
outre, la difficulté est aujourd’hui de maintenir l’articulation entre les vues
institutionnelles agrégées et les rapports/analyses détaillés dont ont besoin
les différents niveaux opérationnels. Typiquement, il est compliqué de fournir à
la direction générale des indicateurs agrégés tout en maintenant l’accès à des centaines
de millions de lignes pour les opérationnels. Le drill-down est limité par la
structure même des rapports et des data-marts, d’où des difficultés de
compréhension et de coordination entre les différentes strates et périmètres
organisationnels.
En
permettant de manipuler à la volée de très gros volumes de données, la BI In-Memory
élimine la nécessité technique de multiplier les niveaux d’agrégation.
C’est
la promesse d’un décloisonnement entre les niveaux de décision et d’action,
grâce à la préservation d’une fine granularité des informations et à des
possibilités de navigation dans les données dépassant de loin les classiques
sauts de requêtes d’un niveau d’agrégation à un autre.
Cette
technologie commence à être disponible chez certains éditeurs. Son coût d’ensemble
reste élevé car, outre un hardware adapté et de nouvelles licences (négociables…),
il faut que les ERP et les outils décisionnels soient sur des versions
récentes. Des prototypes, des « Proof of Concept », permettent de
bien mesurer les enjeux et le retour sur de tels investissements.
Un accès plus large à l’analyse prédictive…
Un
deuxième apport majeur de la technologie In-Memory est de rendre l’analyse
prédictive beaucoup plus accessible en permettant d’utiliser des données de
multiples domaines (au plus fin niveau de détail) et des données exogènes.
L’objectif est de croiser différentes sources pour analyser le passé et finir
par des projections, qui servent de base au développement de stratégies d’action.
Au
minimum on peut comparer dans le détail des transactions passées par des
clients similaires et en déduire un plan d’action direct pour augmenter la
contribution de l’un ou de l’autre. Un acteur de la grande distribution pourra beaucoup
plus facilement croiser ses gigantesques volumes de données transactionnelles (des
centaines de millions de tickets de caisse par exemple) avec des données
comportementales, des interactions « sociales » générées à partir de plates-formes
mobiles, des données météorologiques ou de géolocalisation pour développer des
stratégies opérationnelles à court ou moyen terme.
Cette
information est également plus facile à utiliser par des Centres de Services
Partagés : l’éloignement, qui était un vrai handicap quand il s’agissait
de comprendre les subtilités métiers, est gommé par la capacité à mettre en
relation simplement les données disponibles et détaillées.
… et aux techniques de simulation
La
technologie In-Memory porte également la promesse de pouvoir mener de vraies
simulations. Aujourd’hui, dans le cadre du processus d’élaboration budgétaire
d’une organisation internationale, chaque entité ou business unit travaille sur
son périmètre et utilise Excel pour étudier les scénarios qui lui permettront in
fine d’équilibrer son compte de résultat.
Dans
une architecture In-Memory étendue à l’ETL et à l’entrepôt de données, il sera possible
de brasser les données financières et RH et d’étudier plusieurs scénarios sans
sortir du système et donc sans casser la logique entre les niveaux d’agrégation,
ce qui accélérera considérablement les arbitrages intermédiaires et la
consolidation au niveau corporate.
Un pilotage agile et proactif
Pouvoir faire aisément des simulations sur des sources
de données multiples, c’est renforcer la capacité de l’entreprise à identifier
et exploiter les opportunités de son environnement et ce, à tous les niveaux d’une
organisation.
Cela signifie la possibilité d’adapter plus rapidement que jamais
son approche commerciale, sa production, ses stocks et ses flux logistiques en
fonction d’événements ou de changement de contexte. C’est, par exemple, la faculté
de piloter des stocks de pièces de rechanges à grande échelle, avec des données
opérationnelles (localisation, état, délais) et de coûts (coûts logistiques, de
stockage). L’impact sur la chaîne d’approvisionnement et les capitaux employés
peut être significatif.
Mais cette perspective de réactivité et d’agilité au
plus près du terrain pose rapidement la question du degré d’autonomie concédé
aux opérationnels sur leur périmètre de responsabilité. En d’autres termes, à
qui donne-t-on la latitude de décider quoi ? Un logiciel n’apportera pas de
réponse à cette question. Mais il est clair qu’en dotant les opérationnels de
moyens de simulation, la BI In-Memory appelle à leur donner plus de liberté et
de responsabilité sur la manière dont ils atteignent leurs objectifs.
La BI va enfin permettre une gouvernance plus
collaborative et accroître la capacité d’action
La promesse d’agilité de la BI In-Memory s’accompagne d’un
partage de « l’Intelligence Business » que les organisations devront
gérer par de nouveaux modes de gouvernance et de délégation. Il s’agit
notamment de réfléchir à la marge d’autonomie de décision et d’action à donner
aux acteurs opérationnels.
Ce partage de « l’Intelligence Business »
est également très efficace pour traiter des sujets transverses (ex :
réduire la complexité entre politique commerciale et logistique).
Nous avons là un potentiel d’explications, d’échanges
rapides, de recherches coordonnées et d’optimisations croisées qui va pousser à
un management plus collaboratif. Et chaque entreprise devra s’y préparer car
les données et les outils pour les exploiter seront, comme Internet, à la
portée de tous.
[1] « Predicts 2011: New Relationships Will Change BI and Analytics », Gartner, 25 novembre 2010.