Nouvelle génération d'IoT : Pourquoi la gestion des mises à jour est devenue un impératif
Les objets connectés sont devenus bien plus puissants qu'avant, et leurs logiciels complexes, nécessitant un vrai contrôle sur le cycle de vie pour garantir le succès de ces projets. Explications.
L’Internet des Objets (IoT) a considérablement évolué depuis sa création dans le but de connecter des équipements physiques à Internet. Ses premiers cas d’usage se focalisent sur la collecte de données environnementales (température, humidité, vibrations, débit, pression et mouvements), et leur transmission vers un serveur centralisé à des fins de traitement et d’analyse. Les objectifs principaux sont alors d’obtenir une meilleure visibilité en temps réel sur les données, d’éliminer le besoin de supervision humaine et d’automatiser la détection des anomalies grâce à des politiques et des seuils prédéfinis.
Les systèmes de comptage d’eau intelligents permettent ainsi aux services publics d’assurer un suivi à distance de l’utilisation, des débits et de la pression de l’eau. Ils peuvent identifier des anomalies telles que la présence d’air dans la tuyauterie, des fuites, ainsi que des altérations au niveau du système d’approvisionnement en eau. Surtout, avec des compteurs intelligents, plus besoin de relevés et de supervision manuels. Les services publics bénéficient ainsi d’une meilleure visibilité en temps réel sur leurs données, ce qui peut aider à réaliser des économies d’eau, à réduire leurs coûts, à augmenter leurs revenus et à accroître la satisfaction des clients.
L’intelligence de ces compteurs reste limitée, car leurs fonctions principales sont liées à la collecte et à la transmission de données. Il n’est pas nécessaire d’assurer un traitement local de celles-ci, car ces compteurs les envoient régulièrement à une application cloud spécialement conçue pour les analyser. Cette simplicité s’étend aux logiciels exécutés sur les appareils. Par conséquent, les mises à jour logicielles sont peu fréquentes, et la prise de contrôle à distance est essentiellement nécessaire lors des phases initiales d’installation, de configuration et de dépannage.
Dans le monde d’aujourd’hui, presque tout passe par des logiciels, et le nombre d’objets IoT dépasse d’ores et déjà la population mondiale. Ces dernières années, plusieurs (r)évolutions technologiques ont ouvert la voie à des cas d’usage plus sophistiqués, permettant ainsi aux équipements, ou « objets », de fonctionner de manière plus autonome et de prendre des décisions à partir des données recueillies. Les principales avancées comprennent :
- Des capteurs plus performants et des données diversifiées, qui permettent aux « objets » de voir, d’écouter et de détecter leur environnement. Souvent, les appareils autonomes tels que les véhicules, les drones et robots collaboratifs ont besoin d’un ensemble de technologies dédiées pour « prendre vie ». Ainsi, les capteurs passifs des caméras embarquées des véhicules peuvent manquer de fiabilité en conditions de faible visibilité, tandis que les capteurs actifs tels que au cœur de technologies telles que le LiDAR peuvent dépasser ces limites en émettant des milliers de rayons laser infrarouges dans leur environnement, et en mesurant le temps pris par chaque réflexion. L’association d’une multitude de capteurs assure la diversité des jeux de données collectés, et permet de déployer des systèmes d’IA plus sophistiqués pour en garantir la fiabilité dans diverses conditions.
- Des équipements plus performants et des systèmes de traitement distribués. Auparavant, le traitement et l’analyse des données IoT avaient principalement lieu sur des serveurs centralisés en raison de l’intense consommation de ressources liée au calcul haute performance. Néanmoins, les récents progrès des technologies de traitement multicœur (CPU, GPU, FPGA) ont permis d’exécuter des processus déjà présents sur les appareils afin d’effectuer des opérations en temps réel. Cette avancée offre divers avantages en matière de flexibilité de déploiement, d’évolutivité et de confidentialité, le traitement pouvant être effectué en local pour transmettre et stocker moins de données sur un site centralisé. Ces équipements edge intelligents peuvent également fonctionner sans connexion Internet constante, ce qui leur permet de mieux résister à d’éventuelles perturbations. En outre, grâce au concept de TinyML, les systèmes basse consommation tels que les capteurs ou microcontrôleurs bénéficient de capacités d’intelligence artificielle qui leur permettent d’effectuer des tâches automatisées sans nécessiter d’énormes ressources de calcul. Toutes les avancées susmentionnées contribuent à l’émergence d’un nouveau paradigme au sein duquel une partie importante des données d’entreprise seront à la fois créées et traitées non pas dans le centre de données ou dans le cloud, mais à la périphérie. Il est important de noter que l’edge est une expansion du cloud et non un substitut. Elle est donc bien adaptée pour le traitement intelligent et l’analyse en temps réel des données.
- Des applications logicielles basées sur des microservices et dotées d’une IA embarquée. Le modèle de l’informatique distribuée amplifie également le besoin de pratiques et de processus de développement modernes. Les applications logicielles basées sur des microservices offrent des options flexibles permettant de déployer des services critiques au plus près des sources de données, tandis que les processus non critiques peuvent être centralisés. La conteneurisation apporte notamment une couche d’isolation et de sécurité essentielle, tout en garantissant la haute disponibilité des services. Cette approche permet aux organisations de déployer des services identiques de manière transparente sur une variété d’appareils et d’équipements. Les logiciels exécutés sur des objets IoT ont eux aussi évolué, et intègrent désormais des modèles de machine learning embarqués.
Les objets IoT ayant atteint des niveaux d’intelligence sans précédent, il est de plus en plus important d’en assurer la maintenance et d’effectuer leurs mises à jour de manière proactive et automatique. Il sera alors possible d’en garantir la sécurité et la fiabilité, et de veiller à ce qu’ils disposent des fonctionnalités, patchs de sécurité et améliorations les plus récents.