L'efficacité des jumeaux numériques dépend de la qualité des données
Pour éliminer les données de mauvaise qualité et éviter qu'elles n'influencent leurs simulations, les entreprises doivent se doter d'outils de gestion adaptés.
Le volume massif de données manquant d’homogénéité, imprécises ou incomplètes rende difficile leur utilisation en tant que sources fiables pour la cohérence des jumeaux numériques. Les entreprises ne peuvent pas prendre le risque de disposer d’informations erronées qui rendraient toute opération de simulation inexploitable. Et, dans un contexte de sobriété, gaspiller un précieux budget en adoptant une stratégie bancale qui repose sur des résultats incertains ne serait que pure ineptie.
Les données de mauvaise qualité sont le talon d’Achille des jumeaux numériques
Selon les prévisions fournies par le cabinet IDC dans son rapport Global DataSphere, le volume de données générées par an devrait plus que doubler entre 2021 et 2026. En d’autres termes, à moins que les mesures nécessaires ne soient prises, la situation devrait empirer, puisqu’à mesure que la quantité des données augmentent, leur qualité a tendance à diminuer.
Pour le marché florissant des jumeaux numériques, cette tendance est désastreuse. En effet, cette technologie se généralise et devient essentielle pour tout type de secteurs l’industrie manufacturière, le bâtiment, l’aménagement urbain, l’observation de l’environnement, les transports et la santé, etc. De par leur capacité à répliquer, mesurer, superviser, prédire, tester et simuler en temps réel, les jumeaux numériques se sont donc déjà fait une place de choix et leur influence est amenée à croître.
Cependant, leur essor est étroitement lié à la qualité des données ; la création de simulations précises de scénarios du monde réel en dépend. Faute de quoi, cette innovation porteuse d’avenir ainsi que les opportunités qui en découlent seront tuées dans l’œuf. Les algorithmes de machine learning et d’intelligence artificielle sous-jacents doivent être conçus à l’aide de données de bonne qualité. Dans le cas contraire, les entreprises hériteront d’un système totalement défaillant signalant à tort des anomalies ou élaborant des prédictions aléatoires. Alors que la valeur ajoutée des jumeaux numériques est justement de permettre aux entreprises de faire des économies, un mauvais usage engendrerait le contraire : coûts supplémentaires et pertes de temps.
Les 5 étapes pour épurer les données destinées aux jumeaux numériques
Les architecture et plateforme modernes mises à la disposition des entreprises permettent l’amélioration des données afin de les rendre fiables et d’éviter les imprécisions. L’objectif principal est d’éviter de fonctionner en vases clos pour couvrir toutes les sources de données contextuelles, intégrer ces données et, ainsi, favoriser une meilleure prise de décision. L’optimisation de la qualité des données est un processus itératif en cinq étapes.
- Intégrer des sources de données issues d’une variété de systèmes grâce à la virtualisation des données et à des sources en temps réel
- Profiler les données pour découvrir et analyser où elles doivent être corrigées ou améliorées
- Remédier manuellement aux problèmes pour corriger les problèmes identifiés lors des étapes précédentes
- Automatiser le nettoyage et la déduplication des données à l’aide de modèles et de règles
- Superviser les données en temps réel, et définir des indicateurs clés de performances pour comprendre les tendances relatives aux données
Il est également possible de créer un « pare-feu » filtrant les données en fonction de leur qualité. Il n’y a rien de pire pour une entreprise que de laisser des données de mauvaise qualité réintégrer ses systèmes. Ce « pare-feu » peut assurer une détection et une correction en temps réel des erreurs afin de protéger le jumeau numérique, et de faire en sorte que toute donnée ingérée soit conforme aux niveaux de qualité définis.
Au vu de l’importance croissante des décisions que les entreprises veulent prendre à l’aide de simulations basées sur des jumeaux numériques, la qualité des données doit être au centre de leur réflexion. Elles pourront ainsi éviter d’affecter la vie de patients, de ralentir un procédé de fabrication, de retarder des trains, ou d’envoyer des ingénieurs sur le terrain pour effectuer des travaux de maintenance non nécessaires. L’importance capitale de la qualité des données doit être une évidence, en particulier lorsque des modèles d’intelligence artificielle/de machine learning sont entraînés et utilisés pour la prise de décisions cruciales. Toute autre approche serait suicidaire.