Quelles solutions analytiques pour votre projet IoT industriel ?

L'essentiel des questions exploratoires autour de l'IoT se limite généralement aux capacités de connexion, comme si le succès d'un projet résidait sur ce seul critère. Logiquement, la plupart des PoC ont pour but de (re)démontrer que la plateforme IoT peut supporter différents protocoles et se connecter à divers types d'objets ...

L’interprétation fine des données suscite bien moins de curiosité ou d’exigences, ce qui est surprenant car c’est à ce niveau que la valeur métier d’un projet IoT commence à s’observer.

Lorsque l’analytique entre en jeu, l’intelligence artificielle occupe le devant de la scène, comme si cette technologie permettait à elle seule de résoudre l’interprétation des informations émises par les capteurs. Si le machine learning ou le deep learning apportent une réelle valeur, le fait est qu’un traitement analytique efficace doit impérativement inclure d’autres éléments. Il doit notamment se décliner sur l’ensemble du spectre temporel et géographique du périmètre métier considéré.

Comprendre le passé, réagir au présent et prédire le futur

La présence de solutions analytiques couvrant l’ensemble du cycle de vie des données IoT est indispensable. Les données issues du passé sont une mine d’informations sur le comportement des outils et assets industriels, surtout dans le domaine des processus de transformation longs et continus. Des bases de données dites « historian » sont parfois présentes, mais sauf exception n’incluent pas de modules d’analyse performants. Par ailleurs, la qualité des données laisse parfois à désirer. Les outils de BI qui interprètent ces bases ne permettent pas de rechercher la cause d’un problème ni de comprendre les interactions entre paramètres. Dans la pratique, ces sources historiques restent donc trop souvent inexplorées et/ou mal interprétées. Des solutions existent pourtant, qui permettent d’accroitre la qualité de la donnée ainsi que d’offrir au plus grand nombre des interfaces d’analyse souples et performantes, dans une logique de démocratisation de la data. Les ROI affichés sont substantiels, avec des gains de rendement/productivité inespérés liés à une bien meilleure compréhension de l’outil industriel et des signaux faibles associés. 

Les outils d’analyse historique peuvent aussi enrichir les outils d’analyse temps réel, en permettant par exemple de recalibrer des modèles de machine learning en fonction des derniers batches, ou de suivre l’évolution d’un processus en cours par rapport à des « golden batchs » de référence. Un complément bienvenu car les analyses temps réel hors machine learning sont en première approche basiques, basées sur la simple comparaison de valeurs par rapport à des seuils. Or la réalité est bien plus complexe. On viendra donc également enrichir l’existant avec des solutions dites de « streaming analytics » qui permettent de corréler différentes sources d’information en provenance de plusieurs capteurs, selon des logiques temporelles évoluées, et ainsi prendre en compte la complexité réelle d’un environnement industriel. A la différence du machine learning, la corrélation de données à chaud ne nécessite pas d’avoir recours à des informaticiens. Dans l’industrie automobile par exemple, un opérateur en usine pourra modéliser graphiquement, en totale autonomie, la logique de surveillance d’un robot de peinture. Il pourra dénombrer sur une fenêtre glissante le nombre de pics de couple moteurs, en calculer la moyenne, comparer cette information à la pression du jet de peinture et en déduire immédiatement l’imprécision éventuelle d’application de la couche.

L’intelligence artificielle reste privilégiée pour la partie prédictive. La mise en œuvre reste longue et difficile, résultant de la multiplicité des frameworks et du recours nécessaire à des data scientists pour l’élaboration des modèles. Les meilleurs d’entre eux sont précis à 70-80% et peuvent avantageusement bénéficier des technologies mentionnées précédemment pour afficher une précision encore accrue. On comprend donc bien tout l’intérêt de choisir des solutions ouvertes, basées sur des standards, afin de pouvoir s’affranchir des silos de données et interopérer entre elles les différentes solutions analytiques. Il est ainsi possible de récupérer un indice de scoring issu d’un code Python pour l’injecter dans un algorithme de corrélation en temps réel, et augmenter sa précision. On regardera également de près les solutions no code qui permettent de rendre le machine learning enfin accessible au plus grand nombre.

Des solutions analytiques distribuées – et évolutives

L’efficacité des solutions analytiques ne réside pas uniquement dans la complétude des fenêtres temporelles couvertes ni dans l’interopérabilité des diverses technologies existantes. Le caractère distribué des solutions analytiques revêt également une importance cruciale. Si l’analyse historique restera sans doute cantonnée au niveau du centre de calcul, les analyses temps réel et prédictives sont de plus en plus appelées à se rapprocher des capteurs, une tendance encouragée par la 5G qui va permettre de mutualiser/orchestrer les ressources distantes, et qui ouvre donc la perspective de capacités de traitement accrues au plus près des objets.

On s’oriente ainsi vers de nouvelles logiques de supervision hiérarchique, dans lesquelles un capteur intelligent embarquera par exemple ses propres algorithmes de machine learning, en déduira des KPI qui seront remontés au niveau de passerelles mutualisées. Celles-ci effectueront à leur tour leur propre analyse, en intégrant des informations complexes en provenance d’autres objets, selon des modèles plus évolués (atelier, usine, chaine de production, …), avant de remonter les informations pertinentes en central pour historisation.

Lors de la définition du PoC ou du pilote, il peut être tentant d’opter pour une solution verticale qui répond immédiatement à un cas d’usage précis. La question est de savoir comment faire évoluer cette plateforme au fur et à mesure que les cas d’usage se diversifient, que les sources de données se multiplient, que les capteurs deviennent plus nombreux et plus complexes, que l’historique joue un rôle de plus en plus prépondérant pour comprendre l’avenir, le tout en gardant le contrôle de la complexité technique et en partageant les ressources avec un nombre croissant d’utilisateurs. Le succès d’un projet IoT et son passage à l’échelle réussi, dépend donc étroitement, on le constate, de l’ouverture de la plateforme aux standards et de la richesse des solutions analytiques qu’elle peut accepter en son sein.