Comment Docker est sur le point de révolutionner le déploiement du Big Data

La technologie Docker est en passe de révolutionner les déploiements des systèmes de Big Data dans le cloud. Zoom sur cet incroyable système de virtualisation légère.

On oppose souvent les infrastructures dans le Cloud et les architectures Big Data qui sont souvent déployées sur des serveurs dédiés.

Les DSI qui ont virtualisé toute leur infrastructure se retrouve devant le dilemme de redéployer des baies de serveurs physiques. Difficile et souvent impossible de faire un retour en arrière tant les process internes ont été fusionnés à la technologie de virtualisation (VMware, HyperV, KVM…)

C’est là où Docker intervient et va correspondre à un besoin non encore couvert par la virtualisation actuelle. C’est la technologie des containers Docker, dite virtualisation légère.

En effet, cette technologie permet de déployer très facilement des containers sur une infrastructure physique en quelques secondes sans se soucier de la partie hardware de la plateforme.

Docker donne la possibilité de déployer des containers qui portent à la fois l’operating system, les composants logiciels et  la configuration dans un objet non modifiable et indissociable.

Ainsi, on peut très facilement déployer des infrastructures très complexes, et bien adaptées aux exigences des logiciels tels que Hadoop Cloudera ou Elastic Search qui nécessitent de déployer beaucoup de nœuds distribués.

Les containers Docker donnent une souplesse également aux équipes de développement qui ont besoin de déployer plusieurs nœuds simultanément afin de se mettre en situation.

Cela permet de simuler facilement un cluster Hadoop multi-nœuds, une stack Elastic, Logstash Kibana (ELK) à plusieurs nœuds sur des versions d’OS et de logiciels différentes. Tout ceci en quelques secondes en exécutant des containers Dockers.

La légèreté de cette technique de virtualisation qui s’appuie sur le partage du Kernel Linux,  donne ainsi, une vélocité pour le développement de type DevOps et permet de démarrer et d’éteindre un container juste pour un traitement.

Même dans le cloud ou les DSI déploient aujourd’hui des VM (Virtual Machine) dans un catalogue déterminé, on doit maintenant imaginer des infrastructures à base de containers qui vont démarrer et s’éteindre au grès des traitements. La promesse qu’avait annoncée le phénomène Cloud, pouvoir tailler son infrastructure à la demande,  est aujourd’hui en passe d’être gagnée.

Mais, il faut avouer que le phénomène reste méconnu et marginal au sein des pourvoyeurs de cloud, car cela révolutionne les méthodes de déploiement habituelles. On doit repenser le paradigme car trop souvent ceux qui proposent cette technologie le font sur leurs infrastructures déjà virtualisées.

Docker est sans doute aujourd’hui la plus large mutation que vont entreprendre les clouds  car on va devoir être de plus en plus agile afin de développer, tester et déployer des versions d’applicatifs. Mais là où la révolution est en marche c’est que tout ceci ne sera plus à la demande (d’infrastructure), mais à l’exécution du traitement lui-même. Comme le concept d’un restaurant éphémère, le cloud 2.0 est là, on déguste le plat de son choix, on paye l’addition, mais on est sûr que le restaurant n’existera plus quand on reviendra.