Hadoop : un framework taillé pour le Big Data

Hadoop est un framework open source écrit en Java et géré par la fondation Apache. Il a été conçu pour réaliser des traitements de volumes de données en masse.

Le principe de fonctionnement d'Hadoop
Hadoop fonctionne sur le principe des grilles de calcul consistant à répartir l'exécution d'un traitement intensif de données sur plusieurs noeuds ou grappes de serveurs.

Origines et principales briques
Google a été à l'origine de cette plate-forme pour répondre à ses besoins d'indexation d'informations. Doug Cutting, via son initiative Nutch, a aussi contribué à son développement aux côtés également de Yahoo. Hadoop repose sur le système de fichiers HDFS (Hadoop Distributed File System) et MapReduce pour distribuer et gérer les calculs.

Qui utilise Hadoop ?
Hadoop est utilisé par des entreprises ayant de très fortes volumétries de données à traiter. Parmi elles, on trouve notamment des géants du web comme Twitter, LinkedIn, ou encore eBay et Amazon.

En direct