S'adapter à la crise : 5 tendances prioritaires pour toute entreprise data-driven en 2023

Quelles sont les tendances data qui devraient façonner cette année 2023 ?

Après deux années fortement perturbées par la pandémie de Covid 19, l’année 2022 a également été marquée par de nouveaux bouleversements, à l’image de la récession économique et des conflits armés. En conséquence, les marchés internationaux continuent d’être impactés et les organisations se penchent davantage sur la question des bénéfices en s’interrogeant sur la pertinence de certains investissements. Il est d’ores et déjà possible de constater les effets de ces bouleversements en matière de technologie avec le déclin des financements de capital-risque, le découplage technologique, la pénurie de talents ou encore l’entrée en vigueur de réglementations toujours plus complexes. 

Alors qu’une pression très forte s’exerce sur l’innovation, il peut être difficile pour les entreprises de déterminer sur quels éléments elles doivent focaliser leur attention. Toutefois, il est clair que la capacité à prendre les bonnes décisions   et à intégrer des ensembles de données qui sont à la fois distribués et en silos, afin de bénéficier d’une vision plus précise et en temps réel sera d’autant plus vitale à la survie des entreprises et à leur réussite future. Voici les 5 tendances clés sur lesquelles toutes les organisations data-driven devraient se concentrer en 2023.

1.     L’IA s’intègre plus étroitement dans le pipeline de données

En raison de la pénurie de talents et de son impact sur les entreprises de toutes tailles à l’échelle internationale, le recours aux technologies telles que l’intelligence artificielle (IA) et le Machine Learning (ML) permettra d’automatiser certaines tâches élémentaires liées à la préparation des données. En intégrant davantage l’IA au sein du pipeline de données, avant même qu’une application ou un tableau de bord ne soient développés, les experts peuvent consacrer davantage de temps à l’analyse des données plutôt qu’à leur préparation. Selon un rapport d’IDC, à l’heure actuelle, moins de 20 % du temps est consacré à l’analyse, tandis qu’un peu plus de 80 % est dédié à la recherche, à la préparation et à la gouvernance des données adéquates. Ces évolutions permettraient aux experts de la data, si difficiles à recruter, de se concentrer sur leur principale valeur ajoutée – à savoir croiser différentes approches et générer de nouvelles analyses qui n’étaient pas disponibles auparavant –, ce qui serait considérablement plus productif.

2.     Plus d’investissements dans les données dérivées et synthétiques pour se préparer à des événements sans précédent

La grande leçon de ces dernières années réside dans la prise de conscience de la valeur de l'investissement en temps et en ressources dans la prédiction et la gestion des risques. Malheureusement  avant le COVID-19,  il n’y avait pas suffisamment de données réelles immédiatement disponibles concernant les pandémies  pour  se préparer à une telle crise. C’est précisément dans ce domaine que les données synthétiques permettent de combler des lacunes. Une étude du MIT suggère que les modèles entrainés à partir de données synthétiques peuvent se révéler plus précis que les autres. De plus, cela permet également d’éliminer les questions liées à la confidentialité, à la propriété intellectuelle et à l’éthique qui portent sur ces données réelles. Quant aux données dérivées, elles permettent une réutilisation des données pour répondre à de multiples besoins et planifier ainsi des scénarios indispensables pour faire face aux perturbations et autres crises à venir.

3.     Se préparer à ce que les capacités du langage naturel rivalisent avec celles des humains

De nombreuses entreprises exploitent une forme élémentaire de langage IA depuis un moment déjà. Il suffit de songer à la fréquence à laquelle une personne interagit avec des chatbots dans sa relation avec sa banque ou sa compagnie d’assurance. La popularité de cette technologie devrait encore augmenter de 18 % au cours de ces prochaines années, tout en faisant l’objet d’évolutions considérables. Plusieurs modèles en cours de développement peuvent se révéler bien plus puissants que tous ceux utilisés de nos jours. Jusqu’où cela ira-t-il ? Chacun peut laisser libre cours à son imagination. Toutefois, ce qui est certain, c’est que les capacités du langage naturel auront un impact sur la manière dont chacun interroge des informations, les interprète et en assure le suivi. Il sera alors possible d’accéder aux données recherchées, mais également à d’autres informations auxquelles l’utilisateur n’avait pas songé. C’est pourquoi les entreprises doivent capitaliser sur cette technologie.

4.     Minimiser les perturbations de la chaîne d’approvisionnement grâce aux données en temps réel

Les répercussions de la pandémie de COVID-19 et les conflits internationaux continuent de mettre en péril les chaînes d’approvisionnement. Quiconque a récemment tenté d’acheter une nouvelle voiture ou un ordinateur, par exemple, sait à quel point ces chaines ont été mises à mal. Alors que rien ne semble indiquer une amélioration au cours des années à venir, il est nécessaire de réagir voire, idéalement, d’anticiper les problèmes avant qu’ils surviennent. Pour ce faire, il faut pouvoir analyser les données en temps réel et en contexte. La prédiction d’IDC selon laquelle d’ici 2027, 60 % des captures de données et des dépenses technologiques concerneront les capacités de simulation, d’optimisation et de recommandations en temps réel n’a donc rien de surprenant.

5.     La X-fabric connecte  la gouvernance des données  à mesure qu’elle gagne en complexité

L’investissement dans les données et leur analyse s’est fortement accéléré en raison de la pandémie et cette croissance devrait se poursuivre alors que 93 % des entreprises ont l’intention d’augmenter leurs budgets dans ces domaines, selon une étude d’EY. Mais l’évolution rapide des règles et des réglementations relatives à la confidentialité, ainsi que  la distribution,  la diversité et  la dynamique des données, entravent la capacité des organisations à en tirer le meilleur avantage concurrentiel. Cet objectif est particulièrement difficile à atteindre dans un monde fragmenté, car la gouvernance des données devient de plus en plus complexe. Améliorer l’accès aux données, leur mouvement en temps réel, ainsi que leur transformation avancée, entre les différentes sources et les multiples systèmes de données de l’entreprise est essentiel pour en exploiter pleinement la puissance. C’est pourquoi les acteurs du secteur sont de plus en plus nombreux à se tourner vers une architecture de contrôle des données, ou « X-fabric », qui ne concerne pas simplement les données, mais également les applications, les tableaux de bord, ou encore les algorithmes, qui repose sur des catalogues de données et des solutions d’intégration dans le cloud. Il s'agit d'un composant essentiel dans l'environnement distribué moderne pour toute organisation qui souhaite agir avec certitude.

La bonne nouvelle est que nous sommes désormais bien mieux préparés pour faire face aux éventuelles perturbations. En tant que spécialistes des données et de l’analytique, il nous faut nous adapter à un contexte fragmenté face à des datacenters disparates, des chaînes d’approvisionnement perturbées, un besoin constant d’innovation et un accès limité aux talents. Dans un monde où les crises sont devenues une constante, la capacité d’adaptation est une compétence indispensable – afin de pouvoir réagir sur le moment, mais aussi d’anticiper les événements futurs.