En 2020, l’analytique seul ne suffit plus

En 2020, la synthèse et l’analyse seront deux éléments essentiels pour tirer parti de l’omniprésence des données et faciliter la transition vers "la constitution d’une mosaïque de données".

Alors que le monde est censé être plus connecté, les individus se retrouvent de plus en plus isolés et divisés. Sur les réseaux sociaux, les algorithmes favorisent les contenus les plus sensationnels et provocateurs pour captiver l’attention plus longtemps mais, ce faisant, exacerbent les réactions et finissent par diviser. En matière de business models et de données, il est possible de transformer ce paysage fragmenté en une véritable opportunité. Mais pour y parvenir, l’analyse des données ne suffit plus. Il faut à la fois procéder à la synthèse et à l’analyse des données pour relier les données distribuées à la chaîne analytique, en utilisant les catalogues de données comme connecteur. Si nous disposons aujourd’hui de la technologie, cette dernière doit également être accompagnée des bons processus et des personnes compétentes.

Voici les 5 tendances majeures qui devraient s’imposer au cours de l’année à venir.

 Place au concept de "Wide Data"

Le terme de "Big Data" est un concept dont la définition varie selon les entreprises. Une façon de définir le Big Data serait de le concevoir comme le volume au-delà duquel les technologies existantes ne sont plus adaptées.

Dès lors qu’il est nécessaire de changer les infrastructures pour pouvoir traiter de plus gros volumes de données, alors on peut considérer qu’il s’agit d’un enjeu de type Big Data. Cette difficulté a néanmoins disparu avec la capacité infinie de stockage du cloud. Il est désormais très simple d’effectuer une indexation et une analyse au sein des bases de données, et des outils permettent de migrer les données au bon endroit. Il ne reste rien de la dimension mystique des données : la consolidation et la disparition rapide des distributeurs Hadoop en 2019 en sont le premier signal.

Le prochain enjeu sera les données très distribuées, ou "wide data" en anglais. Les formats de données sont de plus en plus variés et fragmentés. De ce fait, le nombre de bases de données adaptées à différents types de données a plus que doublé, de 162 en 2013 à 342 en 2019[1]. Les entreprises capables d’obtenir des synthèses de ces données fragmentées et de ces sources de données variées n’auront plus de difficultés à gérer les big data et auront un avantage concurrentiel sur leur marché.

 
2.  DataOps + analytique en libre-service = agilité des données dans toute l’entreprise

L’analytique en libre-service est à l’ordre du jour depuis un certain temps, et la technologie de BI moderne a permis de donner aux utilisateurs métiers des réponses plus proches de leurs besoins. Pourtant et jusqu’à maintenant, la gestion des données ne bénéficiait pas de ce même niveau d’agilité. C’est pourquoi le DataOps a été introduit. Cette méthodologie automatisée est axée sur les processus et destinée à améliorer la qualité et à réduire le cycle de gestion des données pour l’analyse. 

Elle met l’accent sur une livraison continue en tirant partie des ressources IT existantes, et en automatisant les tests et le déploiement des données. Elle est facilitée par des technologies comme l’intégration en temps réel des données, le change data capture (CDC) et le streaming de pipelines de données. Grâce au DataOps, il est possible de mettre à la disposition des utilisateurs métiers 80% des données de base de manière systématique, et même de leur proposer, pour des besoins ponctuels, la préparation des données en libre-service. Avec le DataOps du côté de l’opérationnel et l’analytique en libre-service du côté de l’utilisateur métier, il est possible d’assurer la fluidité de l'ensemble de la chaîne de valeur reliant synthèse et analyse.

3. Les catalogues de métadonnées actifs : les connecteurs entre les données et l’analytique

Dans un contexte où les entreprises peinent encore à trouver, à inventorier et à synthétiser des données très distribuées et variées, la demande de catalogues de données est en forte hausse. En 2020, les catalogues de métadonnées seront enrichis de l’IA, qui permettra de faire passer cette tâche colossale d’une démarche passive à une démarche active, adaptative et changeante. Ces catalogues serviront de connecteurs et de gouvernance pour l’agilité offerte par les DataOps et l’analytique. Ils impliquent aussi la personnalisation de l’information, qui est la clef pour générer des enseignements pertinents et du contenu personnalisé. Mais pour que cela soit possible, un catalogue ne doit pas fonctionner uniquement "au sein" d’un outil analytique, mais doit intégrer l’ensemble fragmenté des outils présents dans la plupart des entreprises.

4. La data literacy as a service

Relier la synthèse et l’analyse de manière à former un système inclusif est un moyen d’encourager l’utilisation des données. Néanmoins, aucune technologie ou processus d’analyse de données ne peut fonctionner si les individus n’y prennent pas part. Or déployer des outils et espérer que les utilisateurs les adoptent ne suffit plus. Pour parvenir à dépasser les 35% de taux d’adoption de l’analytique, qui est la norme pour le secteur, il faut aider les individus à acquérir la confiance nécessaire pour lire, utiliser analyser et communiquer avec les données. En 2020, les entreprises s’attendent à voir la data literacy (ou datalphabétisation en français) se développer, et cherchent des fournisseurs pour les aider dans cette démarche. Comment ? Grâce à un partenariat combinant logiciel, formation et support, proposés as a service, et axé sur les résultats. Cet objectif devrait permettre d’atteindre les 100% de taux d’adoption, ce qui faciliterait l’alliance entre le DataOps et l’analytique en libre-service et contribuerait à faire en sorte que les données influent systématiquement dans les prises de décisions. Pour ce faire, il est impératif d’effectuer un auto-diagnostic pour identifier où en est l’entreprise et où elle veut aller, afin de déterminer la meilleure manière d’atteindre ces objectifs.

 
5. "Shazamer" les données et les interactions entre l’homme et l’ordinateur

Les effets de l’analyse des données sur de grands volumes ont atteint leur apogée, et donnent lieu à des réalisations remarquables. Tout le monde connaît Shazam, application permettant d’enregistrer une mélodie pour en identifier la chanson. Plus récemment, cette technique a été élargie à de nouveaux cas d’utilisation, comme le fait de pouvoir acheter des vêtements à partir d’une simple photo, ou de pouvoir identifier des plantes ou des animaux. En 2020, les cas d’utilisation liés au fait de "shazamer" les données se multiplieront en entreprise, en imaginant, par exemple, "shazamer" une source de données pour en obtenir des informations sur son origine, ses utilisateurs, la qualité des données et la part des données ayant été modifiées. Les algorithmes aideront les systèmes analytiques à prendre les empreintes digitales des données, identifier des anomalies et des enseignements, et suggérer des données à ajouter. Le processus d’analyse sera ainsi simplifié, et il sera possible de consommer les bonnes données au bon moment.

 

Ce phénomène sera accompagné d’avancées décisives en matière d’interactions avec les données, qui iront au-delà de la recherche, des tableaux de bord et de la visualisation. Nous serons de plus en plus capables d’interagir de manière sensorielle par nos mouvements et nos expressions, et même avec notre esprit. L’achat récent par Facebook de CTRL Labs (un bracelet capable de lire les pensées) et le projet Neuralink d’Elon Musk sont des signes avant-coureurs de ce qui nous attend. En 2020, certaines de ces innovations viendront changer la façon dont nous interagissons avec les données. Les bénéfices humains sont énormes, mais ces innovations peuvent être utilisées pour le meilleur comme pour le pire et doivent donc être utilisées de manière responsable.

 

Il est possible de faire de la fragmentation une force en reliant la synthèse à l’analyse pour former un système dynamique. Le DataOps et le libre-service constitueront le processus et la méthode. La data literacy et l’éthique guideront les individus sur la bonne voie. Les technologies innovantes axées sur l’IA permettront de faciliter et d’accélérer l’utilisation des données sur l’ensemble de la chaîne de valeur. Ces tendances permettent de bâtir, dans un monde complexe et fragmenté, une mosaïque de données qui permet d’étendre l’utilisation de la data dans toute l’entreprise, et d’aborder avec succès la prochaine phase de l’ère digitale.