Académique Documents
Professionnel Documents
Culture Documents
Pour vérifier si les machines peuvent se connecter entre elles sur le réseau, vous
pouvez suivre les étapes suivantes :
Vous devriez voir des réponses de ping réussies si les machines peuvent se
connecter entre elles.
Si vous rencontrez des échecs de ping, cela peut indiquer un problème de
connectivité réseau ou de configuration des pare-feu.
C. Configuration des pare-feu : Assurez-vous que les pare-feu sur chaque machine
sont configurés pour autoriser la communication entre les machines du cluster.
Les étapes spécifiques pour configurer les pare-feu peuvent varier en fonction du
système d'exploitation et du logiciel de pare-feu utilisé.
En suivant ces étapes, vous devriez pouvoir vérifier la connectivité réseau entre
les machines du cluster et configurer les pare-feu pour autoriser la communication.
Si vous rencontrez des problèmes de connectivité, il peut être utile de consulter
la documentation de votre système d'exploitation ou de contacter votre
administrateur réseau pour obtenir une assistance supplémentaire.
````xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>machine1:50090</value>
</property>
<property>
<name>dfs.namenode.rpc-address</name>
<value>machine1:9000</value>
</property>
<property>
<name>dfs.datanode.address</name>
<value>machine1:50010</value>
</property>
<property>
<name>dfs.datanode.address</name>
<value>machine2:50010</value>
</property>
</configuration>
```
Dans cet exemple, `machine1` et `machine2` sont les noms d'hôtes des deux
machines du cluster, et les ports spécifiés correspondent aux ports par défaut
utilisés par Hadoop.
E. Répétez ces étapes sur chaque machine du cluster, en ajustant les adresses IP ou
les noms d'hôtes et les ports en fonction de votre configuration spécifique.
Une fois que vous avez configuré le fichier `hdfs-site.xml` sur chaque machine du
cluster avec les bonnes adresses IP ou noms d'hôtes,
Hadoop utilisera ces informations pour la communication entre les nœuds du cluster.
Assurez-vous que chaque machine a une configuration appropriée dans le fichier
`hdfs-site.xml` pour permettre une intégration correcte des machines dans le
cluster Hadoop.
6. Démarrage des services : Sur chaque machine, vous devrez démarrer les services
Hadoop spécifiques.
- Sur la machine qui agira en tant que NameNode, exécutez la commande `hadoop
namenode -format` pour formater le système de fichiers HDFS.
- Sur chaque machine, exécutez le service DataNode avec la commande `hadoop
datanode`.
- Sur la machine qui agira en tant que ResourceManager, exécutez le service
NodeManager avec la commande `yarn nodemanager`.
- Sur la machine qui agira en tant que NameNode et ResourceManager, exécutez les
services NameNode et ResourceManager avec la commande `start-all.cmd`.
7. Vérification du cluster : Une fois que tous les services sont démarrés, vous
pouvez vérifier l'état du cluster en accédant à l'interface utilisateur Web du
NameNode.
Ouvrez votre navigateur et accédez à l'URL `http://<nom-du-serveur>:<port-du-
namenode>` pour vérifier les détails du cluster et les tâches en cours d'exécution.
Répétez ces étapes sur chaque machine du cluster pour les intégrer toutes dans le
cluster Hadoop.
Assurez-vous de suivre les instructions spécifiques à la version de Hadoop que vous
avez téléchargée, car les étapes peuvent varier légèrement.