Vous êtes sur la page 1sur 1

TP3 Map REDUCE

Partie III : Job MapReduce


Pour lancer un job entier sur Hadoop, il faut faire appel au mapper puis au reducer sur un fichier donne
en entrée, et obtenir à la fin un resultat, directement sur HDFS. Pour faire cela, l'instruction à exécuter est
:

hadoop jar Training/CDH4/hadoop-2.0.0-cdh4.0.0/share/hadoop/tools


/lib/hadoop-streaming-2.0.0-cdh4.0.0.jar -mapper mapper.py -reducer
reducer.py -file mapper.py -file reducer.py -input myinput -output
joboutput

hadoop jar
Training/CDH4/hadoop-2.0.0-cdh4.0.0/share/hadoop/tools/li
b/hadoop-streaming-2.0.0-cdh4.0.0.jar -mapper
mapvente.py -reducer redvente.py -file mapvente.py -file
redvente.py -input purchase.txt -output joboutput
il faut changer le numéro de job. S’il existe le job ça ne se lance pas

Cette instruction donne en parametres les fichiers correspondant aux Mappers et Reducers, aussi bien
que les repertoires contenant le fichier d'entree (myinput) et la sortie a generer (joboutput). Le
repertoire de sortie, apres execution, contiendra un fichier appele part-00000, representant la sortie
desiree.

Vous aimerez peut-être aussi