Académique Documents
Professionnel Documents
Culture Documents
Exercices de révision
Exercice 1 :
Cet exercice permet de répondre à des questions sur HDFS afin de renforcer les concepts présentés dans
le cours.
1. Quels sont les trois démons/services qui gèrent HDFS ? Comment vérifier qu’ils sont bien
lancés ? Quel est le rôle de chacun ?
2. C’est quoi la réplication de bloc dans HDFS ? Quel est le facteur de réplication par défaut ?
3. Quelle est la taille d’un bloc de fichier par défaut avec HDFS ? Sachant que la propriété qui fixe
la taille du bloc est : « dfs.blocksize», modifier la taille du bloc HDFS à 2k ( soit 2048 bytes)
4. Quelle es la solution la solution proposée par Hadoop au cas où le namenode tombe en panne.
Exercice 2 :
Dans cet exercice, vous serez familiarisé avec une installation Pseudo-Distribuée. Aussi, vous vous
entraînez à utiliser les commandes Shell HDFS. Vous serez capable de créer, explorer, supprimer et
copier des fichiers vers / depuis HDFS. La machine virtuelle a été configurée avec une installation de
HDFS dans le mode pseudo-distribué.
Manipulation Pratique
Avant de commencer : Hadoop hdfs offre une interface web pour superviser et manipuler la
plateforme : elle accessible avec l’URL : localhost :9870
Vous pouvez l’utiliser pour effectuer quelques manipulations et pour voir les résultats de l’exécution des
commandes.
Exercice 3
1. Démarrez HDFS et vérifiez qu'il est en cours d'exécution. N’oubliez de formater le namenode et
le datanode si ce n’est pas encore fait (le formatage efface toutes les données et initialise les
structures données du namenode et datanode.).
2. Créez un nouveau répertoire / exercice1 sur le SGF HDFS
3. Sur votre SCF local, Créer un nouveau fichier test.txt
4. Ecrire dans test.txt des lignes de votre choix.
5. Copier le fichier test.txt du système local dans HDFS sous le répertoire /exercice1 du système
HDFS
6. Affichez le contenu du répertoire /exercise1
7. Déterminez la taille du fichier test.txt qui se trouve sur HDFS
8. En utilisant la commande Head de HDFS, Imprimez le premier Ko du fichier à l'écran depuis
test.txt sur HDFS
9. Copiez test.txt dans test_hdfsCopy.txt
10. Copiez test.txt retour au système de fichiers local et nommez-le test_copy.txt
11. Supprimez le dernier fichier de HDFS
12. Supprimez-le répertoire /exercise1 de HDFS
Aide-mémoire
Avec hadoop, on peut exécuter essentiellement trois types de commandes :
Ou
Ou
• Jar : pour exécuter des programmes map reduce de type java archive (jar)
• $hadoop fs
1. ls <path>
Lists the contents of the directory specified by path, showing the names, permissions, owner, size and
modification date for each entry.
2. lsr <path>
Behaves like -ls, but recursively displays entries in all subdirectories of path.
3. du <path>
Shows disk usage, in bytes, for all the files which match path; filenames are reported with the full HDFS
protocol prefix.
4. dus <path>
Like -du, but prints a summary of disk usage of all files/directories in the path.
5. mv <src><dest>
Moves the file or directory indicated by src to dest, within HDFS.
6. cp <src> <dest>
Copies the file or directory identified by src to dest, within HDFS.
7. rm <path>
Removes the file or empty directory identified by path.
8. rmr <path>
Removes the file or directory identified by path. Recursively deletes any child entries (i.e., files or
subdirectories of path).
it octal mode, or {augo}+/-{rwxX}. Assumes if no scope is specified and does not apply an umask.
help <cmd-name>
26. Returns usage information for one of the commands listed above. You must omit the leading '-' character in
cmd.