Hadoop est aujourd’hui la plateforme de référence permettant l’écriture d’application de stockage et de traitement de données distribuées en mode batch.
Hadoop se présente comme un framework mettant à la disposition des développeurs et des administrateurs un certain nombre de briques essentielles :
L’idée principale derrière Hadoop : les données sont automatiquement distribuées dans le cluster par HDFS, les traitements doivent s’effectuer au plus près de la donnée (ce que permet MapReduce). Les transferts de données sont ainsi réduits au minimum.
Hadoop est écrit en Java et soutenu par plusieurs startups américaines. Il est en outre devenu une sorte de standard de fait pour l’écriture d’application de traitement de données ralliant l’ensemble des acteurs majeurs du secteur.
“ Pour ma part le leader en matière d'outil de BigData. En constante évolution et offrant de plus en plus de possibilités, d'autant plus que le domaine est grandissant. Dommage qu'il n'y ait pas assez de ressources (humaines) adéquates. ”
7 personnes ont le même avis
“ Je travail depuis plus d'1 an avec Hadoop et l'ecosystème Hortonworks, un système en constant évolution il manque des ressources sert mais il faut attendre quelques années encore pour avoir une solution complète. je tiens a dire que la distribution Cloudera et Hortonworks fournie une excellente documentation d'hadoop pour les débutants te les experts. ”
4 personnes ont le même avis