Vous êtes sur la page 1sur 2

Tutoriel d'introduction à Apache Hadoop

Partie 2 : Installation et configuration d'un cluster simple nœud avec Cloudera CDH 5

Par Mickael BARON

Date de publication : 10 juin 2014

Ce deuxième article s'intéresse à l'installation et la configuration d'un cluster Hadoop simple


nœud en utilisant la distribution CDH 5 fournie par Cloudera. Nous décrirons comment
réaliser une telle installation dans un système virtualisé Linux. Bien entendu, Hadoop n'a
d'intérêt que s'il est utilisé dans un cluster composé de plusieurs machines. En effet, utiliser
Hadoop dans un environnement simple nœud, comme nous allons le faire, n'a de sens que
pour tester la configuration de l'installation ou fournir un environnement de développement
MapReduce.

Nous n'aborderons pas dans cet article le développement de programmes MapReduce


en Java. Cet aspect sera présenté dans le prochain article. Nous utiliserons donc les
programmes MapReduce fournis par la distribution Hadoop.

Mes articles consacrés à Hadoop sont décrits ci-dessous :

• Généralités sur HDFS et MapReduce


• Installation et configuration d'un cluster simple nœud avec Cloudera CDH 5
• Installation, supervision et performance d'un cluster multi-nœud avec
Cloudera CDH 5
• Développement, test et débogage de programmes MapReduce avec Cloudera CDH 5
Je tiens à préciser que je ne suis pas un spécialiste d'Hadoop. Ces articles sont le résultat
d'une veille technologique. Ils seront sûrement améliorés au fur et à mesure de mes
différentes découvertes et exploitation d'Hadoop lors de cas réels.

L'objectif visé par ces articles est de démystifier Apache Hadoop et de tenter de rendre sa
compréhension aussi facile qu'un jeu d'enfant (voir illustration générale).

Pour réagir au contenu de cet article, un espace de dialogue vous est proposé sur le forum
Commentez.

Vous aimerez peut-être aussi