Vous êtes sur la page 1sur 3

Sujet : Problème d'installation de JDK sous Ubuntu et Étapes des TP3

Chère maysam chaari

J'espère que vous allez bien. Je vous écris pour vous informer d'un problème technique que j'ai
rencontré en essayant de terminer le tp3. J'ai rencontré des difficultés pour installer le JDK (Kit de
développement Java) sur mon système Ubuntu malgré plusieurs tentatives et diverses solutions.

J'ai suivi plusieurs guides et étapes de dépannage disponibles en ligne, mais malheureusement, je n'ai
pas réussi à résoudre ce problème. En conséquence, je ne suis pas en mesure d'exécuter les tâches
requises pour le tp 3 qui impliquent des activités liées à Java.

Cependant, je suis déterminé(e) à terminer l'assignation et j'ai énuméré ci-dessous les étapes des tp3 :

Objectif du TP :

Le TP vise à acquérir une compréhension approfondie du fonctionnement du système de fichiers


distribués Hadoop (HDFS) et à maîtriser l'exécution des programmes avec le modèle MapReduce. Plus
précisément, les objectifs incluent la mise en place de HDFS, l'installation de Python, l'exécution d'un
programme MapReduce pour effectuer le décompte des occurrences de mots dans un fichier texte, ainsi
que l'exécution de programmes MapReduce supplémentaires pour d'autres tâches spécifiques.

Procédures d'exécution des programmes Map et Reduce avec Python :

Mise en place de HDFS :

Démarrage des démons Hadoop avec start-dfs.sh et start-yarn.sh.

Création des répertoires monTravail et data dans HDFS.

Déplacement des fichiers vers ces répertoires avec des commandes telles que hdfs dfs -mkdir et hdfs dfs
-mv.

Installation de Python :

Installation de Python via la commande sudo apt-get install python.

Vérification de l'installation avec python --version.


Exécution d'un programme MapReduce :

Écriture de scripts Python pour le mappage (mapper.py) et la réduction (reducer.py).

Test local des scripts pour le comptage des occurrences de mots dans un fichier texte (Book.txt).

Exécution des scripts sur Hadoop via Hadoop Streaming avec les fichiers mappés et réduits.

Testez votre code localement, puis avec Hadoop :

Tests Locaux :

Pour chaque script, les tests locaux sont effectués en utilisant des commandes telles que cat
<Emplacementfichier_Book> | python <emplacement_de_code_mapper>.

Les résultats sont vérifiés pour s'assurer que les scripts fonctionnent correctement avant l'exécution sur
Hadoop.

Tests avec Hadoop :

Les mêmes scripts sont exécutés avec Hadoop en utilisant Hadoop Streaming pour le mappage et la
réduction.

Les résultats sont comparés avec les tests locaux pour assurer la cohérence et la précision des calculs
effectués par Hadoop.

Description et justification de votre solution :

La solution utilise le modèle MapReduce pour traiter des tâches de traitement de données sur un
système distribué.

L'utilisation de HDFS permet la gestion distribuée des données, offrant évolutivité et tolérance aux
pannes.

Python a été choisi pour la simplicité et la facilité de mise en œuvre des scripts MapReduce.

La comparaison entre les tests locaux et les tests avec Hadoop révèle souvent des différences dans les
performances, la gestion des données volumineuses, et la répartition de charge de travail.

Je vous demande votre aide ou toute autre solution que vous pourriez suggérer pour m'aider à
surmonter cet obstacle. Je suis désireux(se) d'apprendre et de remplir les exigences de l'assignation dès
que possible.
Je vous remercie pour votre compréhension et votre soutien.

Cordialement,

[Mohamed Ali Gharbi]

Vous aimerez peut-être aussi