Vous êtes sur la page 1sur 7

Devoir surveillé

Big Data

NOM Hachani -, PRENOM -med amine GROUPE------------------

Choisir la (les) bonne(s) réponses

QUESTIONS

1. La taille d’un bloc, enregistré dans un dataNode, est :

64 KO

128 GO

64 Octet

1 TO

Aucune de propositions précédentes

1) aucune de propositions précédentes

2. Big data est caractérisé par :


5 V : Volume, Vitesse, Véracité, vérifiabilité, validité
5 V : volume, vélocité, variété, validité et valeur
5V : Volume, variété, vélocité, véracité et vérifiabilité
5V : volume , vélocité, variété, véracité et validité
Aucune de propositions précédentes
2)aucune de propositions précédentes
3. Les sources de données Big data sont :
Les applications OLTP
Les applications OLAP
IOT
Les applications B2C
Les données dans le Hadoop distributed file system
Aucune de propositions précédentes
3) Aucune de propositions précédentes
4. Quels sont les concepts qui sont liés à l’analyse de données
Data Warehouse
ELT
Machine learning
OLAP
OLTP
Cluster
Big Data
BI
Aucune de propositions précédentes
4)OLAP

5. Hadoop ne permet pas de :


Gérer les ressources de stockage
Gérer les ressources de stockage et de transfert de données
Gérer les ressources de traitement via des programmes MapReduce
Gérer toutes les ressources d’analyses de données
Aucune de propositions précédentes
5)Gérer les ressources de stockage et de transfert de données
6. Un cluster tolérant aux pannes comporte au minimum
1 machine
2 machines
3 machines
4 machines
Plus que 4 machines
6) 4 machines
7. La gestion de données Big data dans Hadoop est :
Centralisée
Répartie
En parallèle
Séquentielle
Synchrone
Asynchrone
Aucune de propositions précédentes
7)Répartie
8. HDFS désigne :
Hadoop File System
Hadoop Dimensional File System
Hadoop Directionnel File system
Hadoop Distributed Folder System
Aucune de proposition précédente
8) Aucune de proposition précédente
9. La gestion de données par HDFS n’est pas :
Abstraite
Physique
Logique
Physique et logique
Aucune de propositions précédentes
9)a+c+d
10. YARN est un composant de :
a. BI
b. ETL
c. DataWarhouse
d. hadoop
e. Data Science
f. Aucune de propositions précédentes
10) hadoop
11. Hadoop tourne sur :
Le système d’exploitation Windows
Le système d’exploitation linux
Le système d’exploitation ubuntu
Tous les systèmes d’exploitation
Aucune de propositions précédentes
11) Tous les systèmes d’exploitation

12. Quel(s) est (sont) le (s) concept(s) lié(s) à la vélocité ?


Taille des vidéos publiées sur Facebook

Nombre de comptes Facebook

Nombre de commentaires sur une publication facebook

Volume de nouvelles données publiées par seconde

Aucune de propositions précédentes

12)Aucune de propositions précédentes

13. Quel est le rôle de NameNode ?

Ecrire et lire les données sur les dataNodes

Vérifier la disponibilité de données sur les datanodes

Remplacer un datanode dans le cas où l’un d’entre eux est indisponible

Automatiser les transactions de lecture et écriture

Aucune de propositions précédentes

13)a+b+c+d

14. jps est une commande :

BI

HADOOP

UBUNTU

Java

ETL

Aucune de propositions précédentes

14) java

15. La création de variables d’environnement est assurée par la commande :

Gedit hadoop.sh

Gedit hadoop-site.xml

Source hadoop-site.xml

Source hadoop.sh

Aucune de propositions précédentes

15)Source hadoop.sh
16. Jobtracker est un composant de :

Datanode

Resourcemanager

Nodemanger

Namenode

Aucune de propositions précédentes

16) Namenode

17. Les variables d’environnement de Hadoop sont définies dans :

/etc/hadoop.d/variable.sh

/etc/hadoop.d/hadoop.sh

/etc/profile.d/variable.sh

/etc/profile.d/hadoop.sh

Aucune de propositions précédentes

17) Aucune de propositions précédentes

18. La ( les) commande(s) de lancer les services hadoop sont

echo $HADOOP_HOME

hadoop fs –ls /

hadoop fs start-all

start-hdfs.sh

start-yarn.sh

Aucune de propositions précédentes

18) start-hdfs.sh

19. Les fichiers de configuration hadoop se trouvent dans :

$HADOOP_HOME

$HADOOP_DATA_HOME

$HADOOP_CONV_DIR

$HADOOP_CONF_HOME

Aucune de propositions précédentes


19) $HADOOP_HOME

20. Hadoop permet de :

Stocker les données Big data

Gérer les ressources de stockage dans un cluster

Gérer les ressources de stockage et de traitement dans un système


distribué

Répondre aux requêtes clients

Aucune de réponses précédentes

20) a+b+c+d

21. YARN est un composant hadoop qui ne permet pas de :

stocker les données big data

traiter les données big data

stocker et traiter les données big data

traiter les données big data via le Jobtracker et le tasktracker

aucune de réponses précédentes

21)stocker les données big data

22. Les requêtes clients sont traitées en première étape par :

Le NameNode

Le DataNode

Le jobtracker de namenode

Le tasktracker de datanode

Aucune de réponses précédentes

22) Le NameNode

23. Le MapReduce est un :

Style de programmation pour les données Big data

Style de programmation permettant de traiter les données stockées dans


un cluster

Style de programmation permettant d’enregistrer physiquement les


résultats intermédiaires

Style de programmation composé de plusieurs Map et un seul Reduce


Aucune de réponses précédentes

23) Style de programmation permettant de traiter les données stockées


dans un cluster

24. Le big data est né après

Le BI

Le OLTP

Le OLAP

La programmation MapReduce

Aucune de réponses précédentes

24) La programmation MapReduce

Vous aimerez peut-être aussi