Académique Documents
Professionnel Documents
Culture Documents
Atelier 2 : Sqoop
I. Objectif
Cet atelier a pour but :
II. Utiliser sqoop pour importer et exporter des données de mysql vers
HDFS
1. Utiliser sqoop pour importer les données de la table « movies » dans la base de
données « movielens » dans hdfs sous le répertoire de l’utilisateur « maria_dev »
$ mysql -u root -p
Remarque : on doit ajouter les privilèges à tous les utilisateurs pour permettre de lire la
base de données « movielens ». utiliser localhost et l’adresse ip local de la machine.
Remarque : 1 mapper par ce qu’on travaille en mode standalone (une seule machine)
1
2. Naviguer vers le répertoire de l’utilisateur maria_dev dans HDFS et vérifier que les
données sont importées sous HDFS
3. Effacer le dossier movies dans hdfs et utiliser à nouveau une commande Sqoop
pour importer les données de la table « movies » directement dans Hive dans une
table sous une nouvelle base de données « movielens_bigdata »
Tout d’abord on doit créer un nouveau schéma « movielens_bigdata » dans hive
$ hive
Maintenant on va charger les données à partir de mysql vers hive en spécifiant le nom de la table
dans hive.
2
Remarque : Les données sont importées en premier lieu temporairement par défaut sous
le chemin « /user/maria_dev/movies » puisqu’on n’a pas spécifié l’option « --target-dir »
dans la commande « sqoop » puis ils ont été déplacées et chargées dans la table
« movielens_bigdata.movies » sous le data warehouse par défaut de hive dans HDFS
c’est à dire sous le chemin « /apps/hive/warehouse/movielens_bigdata.db »
5. Exporter les données dans l’autre sens maintenant (de Hdfs vers Mysql) dans une
nouvelle table « exported_movies » dans la base de données « movielens »
$ mysql -u root -p
3
mysql> exit ;
6. Vérifier que les données sont bien importées dans la table exported_movies.
$ mysql -u root -p