Hadoop : un framework taillé pour le Big Data
Hadoop est un framework open source écrit en Java et géré par la fondation Apache. Il a été conçu pour réaliser des traitements de volumes de données en masse.
Le principe de fonctionnement d'HadoopHadoop fonctionne sur le principe des grilles de calcul consistant à répartir l'exécution d'un traitement intensif de données sur plusieurs noeuds ou grappes de serveurs.
Origines et principales briques
Google a été à l'origine de cette plate-forme pour répondre à ses besoins d'indexation d'informations. Doug Cutting, via son initiative Nutch, a aussi contribué à son développement aux côtés également de Yahoo. Hadoop repose sur le système de fichiers HDFS (Hadoop Distributed File System) et MapReduce pour distribuer et gérer les calculs.
Qui utilise Hadoop ?
Hadoop est utilisé par des entreprises ayant de très fortes volumétries de données à traiter. Parmi elles, on trouve notamment des géants du web comme Twitter, LinkedIn, ou encore eBay et Amazon.