Quels usages concrets du Big Data ?

Mieux comprendre la manière dont les entreprises envisagent le phénomène Big Data et dans quelle mesure elles l’utilisent aujourd’hui pour développer leurs activités et renforcer leur compétitivité.

Quels usages concrets du Big Data ?

Sur la base de plus de 1100 enquêtes menées en 2012 auprès d’organisations de 26 secteurs d’activité différents dans 95 pays du monde entier, l’IBM Institute for Business Value a analysé avec la Saïd Business School de l’Université d’Oxford ces retours afin de mieux comprendre la manière dont les entreprises envisagent le phénomène Big Data et dans quelle mesure elles l’utilisent aujourd’hui pour développer leurs activités et renforcer leur compétitivité.

Big Data, uniquement pour les fonctions Marketing et commerciales ?

Avant tout, Big Data représente aux yeux de tous un enjeu commercial prioritaire, étant donné sa capacité à impacter le commerce en profondeur dans l’économie mondiale intégrée : les entreprises cherchent à améliorer l’expérience client et à mieux comprendre les préférences et les comportements de leurs clients : les transactions, les interactions multi-canal, les réseaux sociaux, les données transmises via les cartes de fiabilité en sont des exemples.

Le Big Data joue également un rôle primordial dans la transformation des processus, de la chaîne logistique, des échanges de type « Machine-to-Machine » dans un objectif de développement d’un meilleur « écosystème informationnel » en permettant des prises de décisions plus rapides et plus fiables, prenant en considération des données internes mais également externes à l’organisation. La gestion des risques et de la fraude est un autre exemple d’utilisation du Big Data s’ajoutant à l’approche traditionnellement évoquée de meilleure connaissance du client.

Il semble acquis auprès des décisionnaires que la combinaison avancée des informations et des solutions d’analyse crée un avantage concurrentiel significatif : 63 % des organisations interrogés dans le cadre de l’étude : les organisations engagées dans des projets ou des déploiements pilotes de Big Data déclarent mesurer 15 % de bénéfices supplémentaires de leurs informations (dont les Big Data) et de l’analytique par rapport à celles exploitant des fonctions d’analyse traditionnelle.

Quel est l’impact des réseaux sociaux dans le Big Data ?

Un des résultats surprenants de cette étude est de constater l’impact relativement faible des réseaux sociaux sur les projets Big Data (seulement 7 % des répondants ont associés les réseaux sociaux à leur approche Big Data).
En effet, les « early adopters » ont privilégié dans un premier temps l’analyse approfondie et l’intégration des données internes, qu’elles soient structurées ou non-structurées (monitoring d’événements systèmes).

Big Data et Datawarehouses

La digitalisation du front office , qu’il soit différé ou en temps réel, crée de très nombreux groupes de données volumineux, très riches d’enseignement qui ne peuvent être aisément stockés et exploités dans des datawarehouses traditionnels, et pour lesquels l’approche « Big Data » est particulièrement adaptée, avec le support d’outils technologiques puissants tel IBM BigInsight sur base de la plateforme Hadoop. Pour de nombreuses organisations, l’optimisation de la gestion de volumes sans cesse croissants de données est la première grande priorité du Big Data, suivie de près par la capacité à rpendre en charge une variété plus large de données, notamment non structurées.

Les décisionnaires prennent de plus en plus en compte la valeur des données récentes pour prendre leurs décisions « Métier » quotidiennes et stratégiques.
Les données ne servent plus uniquement à instrumenter une décision, elles représentent un élément à part entière dans cette prise de décision. Les temps et méthodes de traitement des données historiques n’autorisent plus ces délais, d’autant plus qu’au volume de données s’ajoute de plus en plus la complexité des données et des analyses réalisées. Quel que soit le stade d’adoption du Big Data, les organisations sont de plus en plus confrontées au besoin de réduire la latence entre la capture des données et l’action.
Plus de 75 % des décisionnaires ont déclaré vouloir disposer des informations nécessaires à leur prise de décision sous 24 heures (contre une semaine auparavant).
                                                                                                   

Big Data et analyse prédictive : le duo gagnant

Les techniques d’analyses avancées actuellement disponibles parmi lesquelles l’analyse prédictive, le text-mining, l’analyse sémantique ou encore le machine-learning sont indispensables pour permettre aux organisations de générer un véritable avantage compétitif grâce aux données analysées avec des niveaux de sophistication, de vitesse et précision impensables jusqu’à aujourd’hui. Même si une majorité d’organisations (plus de 75 %) s’appuie sur du data-mining pour exploiter les Big Data, un nombre toujours croissant (67 %) indique utiliser la modélisation prédictive. Le manque de compétences analytiques avancées est un frein majeur à l’exploitation plus approfondie des Big Data.

Les 4 « V » du Big Data

En compléments des « trois V » constitutifs du Big Data habituellement cités,

  1. Volume de données,
  2. Variété des données : structurées, non structurées, semi-structurées

  3. Vélocité des données, contribuant ainsi à la création de données et d’analyses en temps réel

Il apparaît primordial d’énoncer un 4ème  « V » : la véracité des données qualifiant leur niveau de fiabilité. Chercher un niveau de qualité élevé est une exigence clé et un défi majeur des projets Big Data, mais il est nécessaire de composer avec les données incertaines par nature (capteurs GPS, conditions météo, facteurs économiques, …). Le besoin de reconnaître et d’intégrer cette incertitude est l’une des caractéristiques du Big Data.
Pour gérer cette incertitude, les analystes doivent créer un contexte autour des données. Une façon de créer ce contexte consiste à fusionner les données afin que la combinaison de sources multiples, peu fiables, produise un point de données plus précis et plus utile, comme les commentaires sociaux ajoutés aux informations de localisation géo-spatiale.  Une autre manière de gérer ce caractère aléatoire peut être d’utiliser les mathématiques avancées pour couvrir cette incertitude, comme les techniques d’optimisation efficaces et les approches de logique floue.

Les résultats de notre étude ont permis de mettre en évidence 5 recommandations clés permettant aux organisations de construire leurs projets Big Data avec une valorisation maximale :

  1. Concentrer ses efforts initiaux sur les résultats orientés clients
  2. Développer son projet Big Data à l’échelle de l’entreprise globale en développant une approche de type « centre d’excellence »
  3. Partir des données disponibles pour viser l’obtention de résultats en temps quasi-réel pour renforcer sa compétitivité
  4. Bâtir les fonctions d’analyse sur les priorités métier
  5. Créer une analyse de faisabilité basée sur des résultats mesurables.

 Les résultats de l’étude menée sont disponibles sur https://ibm.biz/BdxSYh