En 2021, transformation numérique et agilité rimeront avec analytique dans le cloud

Alors que 2021 commence tout juste, les dirigeants qui sont toujours occupés à naviguer entre les défis créés par la pandémie sont d'autant plus conscients du rôle que la technologie va jouer dans la reprise économique et l'accélération de la transformation numérique.

Une chose est sûre, le cloud continuera d’évoluer pour devenir un facilitateur technique majeur pour les entreprises, en permettant le développement d’une plateforme de données orchestrée afin d’automatiser les processus de données de bout-en-bout. Les entreprises gagneront alors en agilité, et seront d’autant plus aptes à innover. Qu’ils s’agissent de grands changements et de défis naissants en matière d’analytique, de développements technologiques ou encore de déplacement des investissements dans le cloud, quelles seront les tendances principales qui gouverneront le monde de l’entreprise en 2021 ?

Le cloud profite à tous

Toutes les entreprises qui ont opéré une migration dans le cloud en tirent profit d’une manière ou d’une autre. Quant aux données et à l’analytique, elles vont continuer à s’orienter vers des solutions basées dans le cloud, et les applications suivront la tendance. Même si les solutions multicloud seront la norme, en 2021, les stratégies cloud-first seront mises à l’honneur dans un grand nombre de secteurs d’activité.

L’un des facteurs de réussite les plus essentiels pour les entreprises résidera dans leur capacité à performer en se transformant. Alors que les acteurs s’orientent vers une stratégie davantage centrée sur le cloud, ils auront besoin de partenaires qui leur permettent de faire face aux futurs défis de ces solutions en matière de données et d’analytique, tout en les aidant à augmenter leur profitabilité en cette période troublée. En effet, lorsque l’ambition d’une entreprise est de faire de la donnée un atout commun pour l’entreprise, le cloud peut représenter un véritable accélérateur. Toutefois, il peut aussi être un inhibiteur si les entreprises n’opèrent pas une modernisation de leur architecture et ne gardent pas un œil sur le data management. C’est pourquoi il est essentiel d’analyser les objectifs métiers et économiques, de comparer les options technologiques ainsi que les acteurs partenaires afin d’être accompagné dans cette démarche, de façon à optimiser et sécuriser cette migration.

Le mot d’ordre est donc simple : attention à ne pas négliger la donnée et l’analytique, pour qu’elles ne deviennent pas un risque pour l’entreprise.

Trouver un équilibre entre les données historiques et les données en temps réel

En 2020, ce sont tous les schémas de vente, les préférences en matière de canaux, la consommation produit, les modèles de communication et la consommation des médias qui ont changé. Non seulement les processus métier ont été forcés d’opérer une transformation, pour la plupart positive, mais ceux qui persistent ont produit de nouveaux résultats. Les entreprises doivent donc adopter de nouvelles méthodes de compréhension de leur activité. C’est dans ce contexte que l’analytique devient une vraie valeur ajoutée pour les entreprises : à l’heure où même les modèles les plus sophistiqués d’intelligence artificielle (IA) et de machine learning (ML) ont du mal à donner un sens aux ensembles de données historiques ; le secteur de l’analytique devra fournir des solutions aux entreprises qui puissent se rapprocher de l’analyse en temps réel et qui sachent utiliser les données les plus récentes pour fournir une analyse prédictive avec justesse et précision.

L’enjeu est d’arriver à concilier une analyse profonde et variée (grâce aux données historiques) et les données en temps réel. Aujourd’hui, beaucoup d’entreprises ont tendance à s’appuyer plus sur une approche historique, ou sur une approche en temps réel. Mais le défi est véritablement de pouvoir tirer parti de ces deux approches, et de naviguer entre ces deux dimensions.

A cela s’ajoute également une autre dimension : celle des données externes, qu’il faut également savoir adresser en même temps.

Le data lake est mort…

En 2021, de nombreuses entreprises européennes vont se départir de leurs data lakes basés sur Hadoop. Tandis que nombre de data lakes ont été perçus comme des réussites, beaucoup d’autres ont fait figure de fiascos coûteux, car ils se révèlent compatibles avec un nombre limité d’applications de production et créent peu de valeur métier – comme Gartner l’avait d’ailleurs prédit dès la fin de l’année 2014. Alors qu’une reprise économique en V en Europe semble de plus en plus improbable – et tandis que les entreprises reportent de plus en plus leurs investissements de leurs propres data centers vers le cloud – de nombreux data lakes vont être discrètement mis au rebut ou restructurés pour un déploiement dans le cloud sous forme de enterprise data operating systems (ou système d’exploitation des données d’entreprise). Cet échec global des data lakes devient finalement une opportunité de moderniser son écosystème de données dans le cloud.

…vive les enterprise data operating systems !

Le stockage objet dans le cloud durable et flexible offre d’ores et déjà aux entreprises une souplesse sur tous les types et formats de données. Cette solution se révèle économique, permettant aux entreprises de faire de la rétention de données froides indéfiniment – ou du moins, pendant aussi longtemps qu’elles en ont besoin et que le cadre règlementaire le permet. Mais le stockage objet fiable et durable va également rendre possible la simplification radicale de l’architecture à l’échelle du pétaoctet – par exemple, en simplifiant drastiquement la disponibilité des solutions et des opérations de sauvegarde et de récupération des données. En conséquence, les cloud object stores sont de plus en plus susceptibles de faire office d'enterprise data operating systems que les écosystèmes Hadoop aspiraient à devenir.

Les plateformes analytiques continueront à conserver des copies locales de données intégrées et modélisées dans des formats optimisés pour l’évolutivité et la performance, plutôt que pour des raisons de durabilité et d’économies – mais ces plateformes vont de plus en plus devoir être connectées à cette épine dorsale qu’est l'enterprise data operating system.

L’essor de l’enterprise feature store refocalise les data scientists sur leur vrai travail et leur valeur ajoutée

Depuis déjà plusieurs années, les entreprises ont investi des sommes considérables dans les projets de ML et d’IA, et trop souvent, elles ont obtenu très peu de résultats malgré les efforts consentis. Le problème ne vient pas du travail des data scientists ; les difficultés sont liées au fait que les dirigeants et les équipes managériales ont réduit un problème qui était essentiellement lié aux données à une question d’algorithmes, qu’ils n’ont pas prêté suffisamment attention aux problèmes métiers auxquels la technologie devrait être appliquée au sein de leurs structures – et qu’ils ont encore moins réfléchi à la manière de déployer et de mettre à l’échelle les modèles en production.

De nombreux data scientists travaillant en entreprise ont adopté une approche en pipeline (en silo) fortement intégrée pour développer des modèles d’analytique prédictifs. Cette méthode est appréciée pour les tests et la recherche à l’échelle réduite ou encore la répétition des expériences. Toutefois, la mise en œuvre de cette approche à l’échelle de l’entreprise devient rapidement inefficace. Les équipes individuelles brûlent les rares ressources organisationnelles en créant des fonctionnalités presque identiques à partir des mêmes données – fonctionnalités qui sont ensuite séparées en silos et dont chacune est reliée à un modèle prédictif unique compatible avec un seul pipeline. Les conséquences de ce fonctionnement sont bien connues et de nombreuses études concluent que les data scientists passent entre 50 et 80% de leur temps à se débattre avec les données, plutôt qu’à bâtir des modèles prédictifs.

Les entreprises qui se posent en chefs de file en matière d’analytique s’attachent de plus en plus à perfectionner les fonctionnalités qui ont une valeur prédictive avérée afin d’en permettre et d’en promouvoir la réutilisation. Les enterprise feature stores qui en découlent améliorent à la fois la qualité des modèles et la productivité des data scientists, tout en permettant l’accélération de la mise en production. Cette approche devrait rapidement devenir une bonne pratique en 2021, alors que les équipes de data science vont devoir produire davantage de résultats avec moins de moyens.