Académique Documents
Professionnel Documents
Culture Documents
Nous allons naviguer au site officiel de Hive et rediriger vers les téléchargements :
Et vérifier
Extraire le fichier :
Si error suivante:
Si vous ne parvenez pas à ouvrir le fichier ~/.bashrc avec un éditeur de texte, vous pouvez utiliser un
autre éditeur ou une autre commande pour le modifier. Voici un exemple utilisant la commande echo
pour ajouter l'instruction d'exportation nécessaire :
Cette commande ajoutera l'instruction d'exportation à la fin du fichier ~/.bashrc. Après avoir
exécuté cette commande, vous pouvez réessayer la commande source pour appliquer les
changements:
créez un dossier pour tmp afin que chaque fois que vous exécutez une requête
Hive, elle utilise le dossier temporaire pour stocker les informations de
métadonnées intermédiaires.
Si ce warning survenue :
Si vous souhaitez continuer et créer le répertoire même s'il existe déjà, vous pouvez
utiliser l'option -p avec la commande hdfs dfs -mkdir. Cette option garantit que la
commande n'échoue pas si le répertoire existe déjà et crée les répertoires parents
manquants :
Cette commande créera le répertoire /tmp dans HDFS s'il n'existe pas, et ne produira
pas d'erreur si le répertoire est déjà présent.
Définir l'autorisation pour le dossier tmp.
Installez MySQL.
Installer maintenant :
Jusqu’à finalement avoir done!
Créer utilisateur.
Vérifier:
Voici le résultat:
Puis:
On accédé au dossier:
Créez un répertoire nommé data dans le répertoire $DERBY_HOME pour stocker les
données Metastore.
Voila.
Nettoyer ce fichier de caractères spéciaux.
Suivant :
Edit the hive-env.sh file by appending the following line:
1/
Revenir au chemin .
h
h
Fix error de slf4j:
Par rm :
Avant :
Aprés:
Herre we go
Question 0:
Use update , delete , drop , bucket
1. Before performing the create, delete, update table we should enable the ACID property using the below parameters on Hive prompt.
1. hive>set hive.support.concurrency=true;
2. hive>set hive.enforce.bucketing=true;
3. hive>set hive.exec.dynamic.partition.mode=nonstrict;
4. hive>set hive.compactor.initiator.on=true;
5. hive>set hive.compactor.worker.threads=1;
6. hive>set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
-- Alter the table to enable ACID properties and change file format to ORC
ALTER TABLE employee SET TBLPROPERTIES ('transactional'='true', 'orc.compress'='ZLIB');
-- Add new columns for ACID compliance (these will be used internally)
ALTER TABLE employee ADD COLUMNS (writeid INT, row__id STRING, delta__12345 STRING);
Question 10:
-- Collect statistics on the table "employes"
ANALYZE TABLE entreprise.employes COMPUTE STATISTICS;
-- Retrieve statistics for the table "employes"
DESCRIBE EXTENDED entreprise.employes;
Additionally, you can use the following command to view specific statistics for the table:
Question 8:
Partition the employee table based upon the salary range.(not supported)
Définition du HIVE :
Qu'est-ce que Hive?
Usage de Hive ?
Ils ont tous deux réalisé que pour tirer le meilleur parti de
Hadoop, ils devraient écrire des tâches MapReduce assez
complexes. C'est alors qu'ils ont élaboré un plan pour
créer un outil capable de prendre en charge un langage
SQL tout en ayant la capacité de programmation en
arrière-plan pour fonctionner sur le framework Hadoop.
C'est ainsi que Hive est né.
Prérequis :
)
Pas de mises à jour et suppressions : Hive ne prend
pas en charge les mises à jour et les suppressions.
Cependant, il prend en charge la réécriture ou l'ajout
de données.
Support limité des sous-requêtes : Hive ne prend pas
en charge les sous-requêtes.
Pas de support pour les vues matérialisées : Hive ne
prend pas en charge les vues matérialisées.
(Une vue matérialisée est un objet de base de données
qui stocke les résultats d'une requête (query) dans une
table physique. Les vues matérialisées sont différentes
des vues de base de données classiques qui sont
virtuelles et tirent leurs données des tables sous-jacentes
et ne stockent pas physiquement les données.)
Latence élevée : La latence des requêtes Apache Hive
est généralement très élevée.
Hive architecture:
l’interaction Hive/Hadoop:
Pour illustrer le fonctionnement de Hive et son architecture, nous allons décortiquer l’exécution
d’une requête Hive. En effet, l’interaction Hive/Hadoop s’effectue selon les trois étapes suivantes
: