Académique Documents
Professionnel Documents
Culture Documents
Le framework Hadoop est écrit en Java et ses services nécessitent un environnement d'exécution
Java (JRE) et un kit de développement Java (JDK) compatibles. Utilisez la commande suivante
pour mettre à jour votre système avant de lancer une
nouvelle installation :
Pr.ELMENDILI 1
Pr.ELMENDILI 2
- Bashrc
- hadoop-env.sh
- core-site.xml
- hdfs-site.xml
- mapred-site-xml
- fil-site.xml
Pr.ELMENDILI 3
Le fichier hadoop-env.sh c’est un fichier maître pour configurer les paramètres de projet liés
à YARN, HDFS , MapReduce et Hadoop.
Lors de la configuration d'un cluster Hadoop à nœud unique , vous devez définir
l'implémentation Java à utiliser. Utilisez-la $HADOOP_HOME variable précédemment
créée pour accéder au fichier hadoop-env.sh :
sudo nano $HADOOP_HOME/etc/hadoop/hadoop-env.sh
Pr.ELMENDILI 4
Ajoutez la configuration suivante pour remplacer les valeurs par défaut du répertoire
temporaire et ajoutez votre URL HDFS pour remplacer le paramètre de système de fichiers
local par défaut :
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hdoop/tmpdata</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://127.0.0.1:9000</value>
</property>
</configuration>
Pr.ELMENDILI 5
<property>
<name>dfs.data.dir</name>
<value>/home/hdoop/dfsdata/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hdoop/dfsdata/datanode</value>
</property>
<property>
Pr.ELMENDILI 6
<value>1</value>
</property>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
Pr.ELMENDILI 7
<property>
<name>yarn.acl.enable</name>
<value>0</value>
</property>
<property>
<name>yarn.nodemanager.envwhitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR
,CLASSPATH_PERPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</va
lue>
</property>
</configuration>
Pr.ELMENDILI 8
2. Une fois que le namenode, les datanodes et le namenode secondaire sont opérationnels,
3. Tapez cette commande simple pour vérifier si tous les démons sont actifs et s'exécutent en
tant que processus Java : jps
Si tout fonctionne comme prévu, la liste résultante des processus Java en cours
d'exécution contient tous les démons HDFS et YARN.
Pr.ELMENDILI 9
Le gestionnaire de ressources est un outil inestimable qui vous permet de surveiller tous les
processus en cours d'exécution dans votre cluster Hadoop.
Pr.ELMENDILI 10