Comment la BI "In-memory" décloisonne la prise de décision et accélère la capacité d'action

Au-delà du traitement massif en temps réel, la BI In-Memory mettra en relation des données à un niveau de détail jamais atteint. C’est un moteur pour décloisonner les analyses, décupler les capacités de simulation et rendre les opérationnels plus autonomes au sein d’organisations plus collaboratives.

Les grands éditeurs investissent massivement dans la technologie In-Memory. Ce mouvement, élément de réponse au phénomène du « Big Data », va révolutionner la « Business Intelligence ».
La vitesse et la performance de traitement sont des exigences récurrentes des applications de business intelligence : les entreprises veulent disposer de rapports toujours plus frais et de tableaux de bord qui fédérent des indicateurs détaillés en temps réel. Le In-Memory répond à cette attente en étant 10 à 1000 fois plus rapide que les technologies en place. Cette accélération permet logiquement de traiter plus rapidement de plus gros volumes de données.

Des solutions déjà opérationnelles et une trajectoire maintenant prévisible
Des solutions analytiques quasi-bureautiques ont ouvert la voie en démontrant qu’il était possible, grâce aux opérations en mémoire vive, de traiter et manipuler « à la volée » de gros volumes de données. Exit – du moins en théorie – le long, coûteux et fastidieux travail de modélisation inhérents aux solutions traditionnelles. Aujourd’hui, capitalisant sur la chute du prix de la mémoire et les avancées des processeurs multi-cœurs, ce sont les principaux acteurs de la BI et des ERP qui mènent l’offensive. L’importance de leurs investissements dans le ‘In-Memory’ laisse penser que Gartner est dans le vrai lorsqu’il assure que 30% des applications analytiques reposeront très bientôt sur un socle In-Memory[1].
Les éditeurs proposent dès aujourd’hui des solutions « In-Memory » pour produire des reportings en temps réel ou quasi réel sur des masses de données opérationnelles. Chez certains, les éléments du système décisionnel d’entrepôt de données (alimentation, stockage, gestion d’un référentiel multi-sources, historisation, requêtes) peuvent également bénéficier d’un sous-bassement In-Memory.
La promesse sous-jacente est la possibilité de tirer un avantage concurrentiel des masses phénoménales de données disponibles – celles de l’entreprise, de ses partenaires mais aussi celles du web, des médias/réseaux sociaux et des innombrables capteurs qui sont à l’origine du phénomène du « Big Data ».
Il faut aussi se préparer à une évolution de l’architecture et des applications décisionnelles. La dernière étape logique sera la convergence de la BI et du transactionnel dans un seul et même environnement, avec une simplification radicale des paysages.

L’occasion de mettre en relation des données différentes
Un premier gain directement lié à la vitesse est la réduction des temps informatiques : tel traitement qui durait sur plusieurs nuits peut être terminé en 1h.
Si la capacité matérielle à traiter des pétaoctets de données à la vitesse de l’éclair est acquise, cela ne préjuge en rien de la valeur « métier » que les organisations peuvent en tirer : celle-ci dépend fondamentalement de la qualité et de la pertinence des analyses qui utilisent ces données. Quand toutes les données sont disponibles, il faut encore trouver les bonnes relations (ex : mettre en évidence les coûts de transaction et les coûts logistiques d’une livraison d’un produit, pour comprendre la rentabilité de chaque ligne de commande, quelle que soit la marge unitaire) avant de prendre les bonnes décisions.

Un reporting décloisonné pour décider et agir
En outre, la difficulté est aujourd’hui de maintenir l’articulation entre les vues institutionnelles agrégées et les rapports/analyses détaillés dont ont besoin les différents niveaux opérationnels. Typiquement, il est compliqué de fournir à la direction générale des indicateurs agrégés tout en maintenant l’accès à des centaines de millions de lignes pour les opérationnels. Le drill-down est limité par la structure même des rapports et des data-marts, d’où des difficultés de compréhension et de coordination entre les différentes strates et périmètres organisationnels.
En permettant de manipuler à la volée de très gros volumes de données, la BI In-Memory élimine la nécessité technique de multiplier les niveaux d’agrégation.
C’est la promesse d’un décloisonnement entre les niveaux de décision et d’action, grâce à la préservation d’une fine granularité des informations et à des possibilités de navigation dans les données dépassant de loin les classiques sauts de requêtes d’un niveau d’agrégation à un autre.
Cette technologie commence à être disponible chez certains éditeurs. Son coût d’ensemble reste élevé car, outre un hardware adapté et de nouvelles licences (négociables…), il faut que les ERP et les outils décisionnels soient sur des versions récentes. Des prototypes, des « Proof of Concept », permettent de bien mesurer les enjeux et le retour sur de tels investissements.

Un accès plus large à l’analyse prédictive…
Un deuxième apport majeur de la technologie In-Memory est de rendre l’analyse prédictive beaucoup plus accessible en permettant d’utiliser des données de multiples domaines (au plus fin niveau de détail) et des données exogènes. L’objectif est de croiser différentes sources pour analyser le passé et finir par des projections, qui servent de base au développement de stratégies d’action.
Au minimum on peut comparer dans le détail des transactions passées par des clients similaires et en déduire un plan d’action direct pour augmenter la contribution de l’un ou de l’autre. Un acteur de la grande distribution pourra beaucoup plus facilement croiser ses gigantesques volumes de données transactionnelles (des centaines de millions de tickets de caisse par exemple) avec des données comportementales, des interactions « sociales » générées à partir de plates-formes mobiles, des données météorologiques ou de géolocalisation pour développer des stratégies opérationnelles à court ou moyen terme.
Cette information est également plus facile à utiliser par des Centres de Services Partagés : l’éloignement, qui était un vrai handicap quand il s’agissait de comprendre les subtilités métiers, est gommé par la capacité à mettre en relation simplement les données disponibles et détaillées.


… et aux techniques de simulation
La technologie In-Memory porte également la promesse de pouvoir mener de vraies simulations. Aujourd’hui, dans le cadre du processus d’élaboration budgétaire d’une organisation internationale, chaque entité ou business unit travaille sur son périmètre et utilise Excel pour étudier les scénarios qui lui permettront in fine d’équilibrer son compte de résultat.
Dans une architecture In-Memory étendue à l’ETL et à l’entrepôt de données, il sera possible de brasser les données financières et RH et d’étudier plusieurs scénarios sans sortir du système et donc sans casser la logique entre les niveaux d’agrégation, ce qui accélérera considérablement les arbitrages intermédiaires et la consolidation au niveau corporate.

Un pilotage agile et proactif
Pouvoir faire aisément des simulations sur des sources de données multiples, c’est renforcer la capacité de l’entreprise à identifier et exploiter les opportunités de son environnement et ce, à tous les niveaux d’une organisation.
Cela signifie la possibilité d’adapter plus rapidement que jamais son approche commerciale, sa production, ses stocks et ses flux logistiques en fonction d’événements ou de changement de contexte. C’est, par exemple, la faculté de piloter des stocks de pièces de rechanges à grande échelle, avec des données opérationnelles (localisation, état, délais) et de coûts (coûts logistiques, de stockage). L’impact sur la chaîne d’approvisionnement et les capitaux employés peut être significatif.
Mais cette perspective de réactivité et d’agilité au plus près du terrain pose rapidement la question du degré d’autonomie concédé aux opérationnels sur leur périmètre de responsabilité. En d’autres termes, à qui donne-t-on la latitude de décider quoi ? Un logiciel n’apportera pas de réponse à cette question. Mais il est clair qu’en dotant les opérationnels de moyens de simulation, la BI In-Memory appelle à leur donner plus de liberté et de responsabilité sur la manière dont ils atteignent leurs objectifs.

La BI va enfin permettre une gouvernance plus collaborative et accroître la capacité d’action
La promesse d’agilité de la BI In-Memory s’accompagne d’un partage de « l’Intelligence Business » que les organisations devront gérer par de nouveaux modes de gouvernance et de délégation. Il s’agit notamment de réfléchir à la marge d’autonomie de décision et d’action à donner aux acteurs opérationnels.
Ce partage de « l’Intelligence Business » est également très efficace pour traiter des sujets transverses (ex : réduire la complexité entre politique commerciale et logistique).
Nous avons là un potentiel d’explications, d’échanges rapides, de recherches coordonnées et d’optimisations croisées qui va pousser à un management plus collaboratif. Et chaque entreprise devra s’y préparer car les données et les outils pour les exploiter seront, comme Internet, à la portée de tous.

La BI In-Memory va éclairer une nouvelle vague de transformation des organisations. Au-delà de sa capacité à accélérer les traitements massifs, elle va conduire l’accélération de la chaîne entre décision et action.

[1] « Predicts 2011: New Relationships Will Change BI and Analytics », Gartner, 25 novembre 2010.

Autour du même sujet