La transformation des données, un frein à la transformation numérique ?

Quelle architecture de gestion des données choisir pour accélérer la transformation numérique sans nécessiter de refonte, de restructuration ou de connaissances approfondies de la data ?

Les données sont un élément fondamental de la transformation numérique car elles permettent l'automatisation, l'innovation et améliorent la prise de décision. En disposant d’un accès aux bonnes données en temps réel, les entreprises peuvent prendre les mesures ou les décisions qui permettent le mieux de satisfaire les besoins des clients, transformer les business modèles et répondre aux changements rapides de la demande. A l’heure où elles doivent s’adapter continuellement, encore faut-il qu’elles soient dotées d’une architecture de gestion des données flexible sans nécessiter de refonte, de restructuration ou de connaissances approfondies en matière de données. Pour s’engager activement dans la collaboration que sous-entend la transformation numérique, cette plateforme de données doit être également ouverte, afin que d'autres fournisseurs ou partenaires s’y intègrent, collaborent et innovent à partir de ce qui est déjà disponible. 

Les obstacles liés aux données

Bien qu’une analyse et une collecte des données performantes soient un moteur évident de la transformation numérique, de nombreux obstacles subsistent cependant. Pour rappel, une étude récente de Bpifrance, menée auprès de 1814 dirigeants de PME et ETI françaises, révèle que 34% considèrent surtout la complexité du sujet comme frein à la transition. Le digital, l’intelligence artificielle ou encore la gouvernance de données sont bel et bien des sujets complexes. Par ailleurs, selon une enquête de Databricks et du MIT Technology Review Insights de 2021, le principal frein des entreprises pour mener à bien leurs projets en matière de stratégie data est que les plateformes de gestion des données sont difficilement évolutives (selon 44% des répondants). D'autres obstacles souvent cités sont la lenteur du traitement de grands volumes de données et les difficultés à collaborer. Pour mettre en place les bons piliers, il faut d'abord rassembler toutes les données, puis fournir à toutes les équipes et à tous les services les outils et l'infrastructure appropriés pour en tirer des informations détaillées et stimuler l'innovation, tout en respectant les protocoles de sécurité et de confidentialité. Selon 49% des répondants, les avantages les plus déterminants d'une nouvelle architecture de données idéale, par rapport à une architecture existante, sont une sécurité et une gouvernance renforcées, ainsi que des normes open source et des formats de données ouverts (pour 50 % des répondants).

Le succès d’une transformation numérique repose sur la capacité à prendre des décisions stratégiques basées sur des informations exploitables, au risque de voir les coûts augmenter et la transformation s’éterniser. La plupart des entreprises collectent désormais d'énormes volumes de données, mais les stockent souvent au mauvais endroit. Elles ne parviennent pas à en extraire les informations essentielles à une transformation efficace en termes de coûts et de temps, et de meilleure performance à long terme.

Concevoir une architecture de données robuste

Lorsqu'il s'agit de stocker, de nettoyer et d'analyser plus efficacement les données, les data lakes peuvent devenir désorganisés et inondés d'informations. Ils se transforment alors en un data swamp, qui fournit des données et des performances de mauvaise qualité. C'est la raison pour laquelle on assiste à l'émergence du data lakehouse. Il apporte directement au-dessus des data lakes la structure et la gestion des données qui garantissent aux entreprises de pouvoir extraire les informations clés dont elles ont besoin en combinant les points forts d’un data warehouse et d’un data lake. 

Schneider Electric (SE) en est un excellent exemple de l’usage d’un data lakehouse. Son entité transverse Schneider Digital dédiée à la transformation digitale de ses lignes de métier a développé le projet data factory. Sa mission est de créer et d’industrialiser des pipelines de données, et d’offrir diverses prestations de business intelligence en réponse à une multitude cas d’usage identifiés chez les clients du groupe SE, ainsi qu’en interne dans les divers départements du groupe (RH, supply chain, finance…). Au fil du temps, le développement de nombreux connecteurs donnant accès à une plus grande richesse de sources de données a généré de nouvelles opportunités nécessitant à la fois un data lake pour l’industrialisation de pipelines de données et un data warehouse pour la production à l’échelle de nouveaux services de BI. Pour répondre à ce double besoin de grande envergure, la data factory a déployé une architecture de type lakehouse, afin de fournir sur une seule plateforme un “Data as a Service” et un large portefeuille de services de BI basés sur l’IA.

Il est primordial que toutes les données soient accessibles, qu'elles puissent être facilement contextualisées et que diverses équipes au sein d'une entreprise puissent interagir avec elles. Dans de nombreux cas pourtant, elles restent inaccessibles au plus grand nombre et contrôlées par une poignée de personnes. Cette situation est souvent aggravée par la fragmentation des données ou la création de sous-ensembles qui entraînent une dérive des données avec un impact sur leur qualité, ce qui signifie que l'entreprise peut perdre une source de référence. Disposer de toutes ces données en un seul endroit permet également l’automatisation à grande échelle. Une configuration automatisée de l'accès aux données, des modèles de machine learning et d'autres modèles permet un déploiement dans tous les services et toutes lignes métiers, et favorise une culture des données beaucoup plus dynamique.

Une transformation des données reposant sur une solide architecture de type lakehouse permet de placer les bonnes données au bon endroit, de les rendre accessibles à l'ensemble de l'entreprise et de s'assurer qu'elles sont analysées efficacement. Si le traitement et l'analyse d'énormes quantités de données procurent un avantage concurrentiel, cela doit être fait de manière efficace et optimisée. Une transformation des données performante accélère indiscutablement la transformation numérique d’une entreprise et s’avère le moyen le plus solide de son développement et de sa compétitivité en 2022 et au-delà.