Pourquoi le Cloud et l’Analytics sont essentiels au succès de la 5G et de l’IoT

L’accessibilité des capteurs intégrés dans les objets connectés et l’arrivée de nouveaux réseaux 5G optimisés pour des interactions en machine-to-machine signifient que les utilisateurs existants seront bientôt rejoints par des dizaines de milliards de machines.

La révolution des données à laquelle nous assistons a été grandement permise par la puissance de l’informatique et des réseaux. Des milliards de smartphones et d’utilisateurs de l’internet haut débit génèrent aujourd’hui des quantités de données colossales, et cela n’est pas prêt de s’arrêter. 

L’Internet des objets déjà là, la 5G en chemin

Si les 5 milliards d’appareils connectés actuellement en circulation dans le monde* sont bien la preuve que l’Internet des objets est une réalité, la 5G n’est quant à elle plus très loin, puisque les premiers réseaux 5G devraient être commercialisés aux alentours de 2020. La 5G a été conçue pour offrir des débits 100 fois plus rapides que la 4G mais aussi pour améliorer les communications M2M, en permettant entre autres une faible consommation énergétique, et la prise en charge de très grandes quantités d’appareils.

Volume et rapidité du Big Data

Alors que la croissance rapide des données, toujours plus volumineuses, semble quasiment sans limites, les contraintes liées à leur collecte et à leur transfert aux quatre coins du monde disparaissent peu à peu. Ce phénomène amène les entreprises et leurs DSI à s’interroger sur la façon dont ces données peuvent être toutes rassemblées - bien souvent en temps réel – stockées, et analysées.

Autant de défis IT que les entreprises doivent relever face à cette explosion des données, l’aspect le plus important étant celui de leur ingestion.

La question de l’ingestion

L’ingestion des données doit intervenir en temps réel à l’aide d’une couche de messagerie distribuée qui dissocie la phase de capture des données de celles de leur stockage, traitement et analyse. Apache Kafka a notamment été conçu pour capturer et déplacer facilement n’importe quel type de données avec un mécanisme de publication et de souscription de messages « publish-subscribe » mis en place entre différents composants serveurs et logiciels.

Au fur et à mesure que les données brutes sont envoyées vers les couches de traitement et de stockage, elles sont utilisables à différentes fins, que ce soit pour être entreposées pour des analyses ultérieures ou agrégées et filtrées pour des applications analytiques intervenant en temps réel.

Effectuer des analyses riches

Apache Spark est actuellement la technologie privilégiée pour ce type d’opérations, puisqu’elle est capable de traiter, d’agréger et de transformer des données en temps réel, d’une manière distribuée et évolutive.

Une fois les données dans le système puis traitées, elles sont disponibles pour des opérations analytiques poussées. SQL est le langage le plus utilisé pour ces actions, principalement pour sa notoriété, sa puissance et sa conformité avec les outils d’analyse et de reporting adoptés par la grande majorité des utilisateurs professionnels et des développeurs d’applications.

Dans le cas de l’Internet des objets, qui génère de gros volumes de données dans des formats différents, le moteur SQL doit être capable de prendre en charge cette diversité et de faire bon usage de la puissance des serveurs déployés au sein d’une infrastructure cloud. C’est la raison pour laquelle le cloud est essentiel au succès de l’Internet des Objets et de la 5G : il permet aux entreprises de gérer des flux de données considérables et d’en extraire de la valeur. Sans le cloud et le Big Data, l’intérêt de la 5G se limite à sa seule capacité et n’offre clairement pas tout son potentiel.

*source: Gartner, novembre 2015