Académique Documents
Professionnel Documents
Culture Documents
II. Introduction
Hortonworks Data Platform (HDP) est une distribution Hadoop de logiciels packagés qui vise à
faciliter le déploiement et la gestion des clusters Hadoop.
Hortonworks HDP sandbox est une implémentation standalone de HDP. Il est conditionné en
tant que machine virtuelle pour rendre l'évaluation et l'expérimentation avec HDP rapides et
faciles.
Logiciel vmware
Logiciel putty
1
Ouvrir Vmware puis cliquer « file », « open » et pointer vers le fichier de sandbox comme
affiché dans la figure ci-dessous
Changer l’emplacement de machine virtuelle à votre choix en cliquant sur « Browse ». Par
exmple « D:\hdp2.5 »
2
Finalement cliquer sur « import »
La figure ci-dessous montre que HDP sandbox est bien chargé dans vmware
Maintenant on va lancer la machine virtuel en cliquant sur le bouton Start vert « Power on this
virtuel machine » (voir figure en-dessous)
3
Après quelques minutes la machine virtuelle s’ouvre.
La figure ci-dessous montre que HDP Sandbox 2.5 est ouvert. On va accéder dans la machine en
utilisant le protocole ssh et le logiciel « putty ». On voit une @ ip qu’on va l’utiliser pour se
connecter dans le sandbox
4
2. Ouvrir putty et connecter au sandbox hdp en utilisant le protocole de connexion
« ssh ». Utiliser l’@ ip de la machine virtuel figurant dans vmware, le super user
« root » avec le mot de passe « hadoop » pour y accéder
5
Tout d’abord il faut savoir que tous les services (ambari, spark, hive …) de hdp sont installés
dans un container docker installé dans la machine virtuel
172.17.0.2 sandbox
D’après l’output de cette commande on a constaté que le sandbox est situé dans un container
portant le nom « sandbox » et l’@ ip « 172.17.0.2 »
L’or de tentative de connexion pour la première fois avec le super user « root », c’est obligatoire
de changer le mot de passe de container « sandbox ». Voir figure ci-dessous « you are required to
change your password immediately (root enforced) »
Après d’accéder dans le container « sandox », lancer quelque commande de services Big Data
pour tester que les services sont bien installés et en cours d'exécution.
# hive
# hadoop fs -ls /
# spark-shell
6
# hbase shell
Taper l’@ip initiale de la machine virtuel avec le port « : 8080 » et non pas de l’@ ip de
container « sandbox ».
Tous d’abord on va tester de se loguer en tant que admin pour cela on doit changer le mot de
passe de « admin » à partir d’un script trouvant dans le container « sandbox »
Entrer dans la mchine virtuel avec putty ensuite entrer dans le container « sandbox » :
Maintenant changer le mot de passe de l’utilisateur admin pour se connecter à l’interface ambari
# /usr/sbin/ambari-admin-password-reset
7
Taper le mot de passe « admin »
8
4. Connecter à l’interface ambari en utilisant le user admin/admin
5. Quitter le mode maintenance et Lancer tous les services qui ne sont pas activées
9
6. Utilisateur « maria_dev »
Dans les ateliers suivant on ne va pas travailler avec le super-utilisateur « root » par contre on va
utiliser un autre utilisateur appelant « maria_dev »
Un utilisateur « maria_dev » déjà existant dans le container « sandbox ». Ainsi qu’un utilisateur
« maria_dev » existant dans ambari avec le mot de passe « maria_dev ».
On va charger une base données « movies » qu’on va l’utiliser dans des ateliers après.
10
Ensuite envoyer le fichier sous le répertoire home de user « maria_dev » dans le sandbox.
2. Connecter à mysql
Logger au « sandbox » avec le user « maria_dev »
Vérifier que le fichier movielens.sql se trouve dans le répertoire home de user « maria_dev »
« /home/maria_dev » en tapant la commande « ls »
$ ls
$ mysql -u root -p
11
Mysql > show databases ;
12