Académique Documents
Professionnel Documents
Culture Documents
Département informatique
INTERODUCTION GENERALE..................................................................
Les bases de données ont vu le jour dans les années 1950, avec l’essor de
la base de données relationnelles dans les années 1980. Essentiellement, une
base de données est une collection organisée de données. Les bases de données
sont classées en fonction de la façon dont elles stockent ces données. Les
premières bases de données étaient plates et se limitaient à de simples lignes et
colonnes. Aujourd’hui, les bases de données populaires sont : Aujourd’hui, les
bases de données populaires sont : Les bases de données relationnelles, qui
stockent leurs données dans des tableaux. Les bases de données orientées objet,
qui stockent leurs données dans des classes et sous-classes d’objets.
Les bases de données sont vraiment conçues pour surveiller et mettre à jour
les données structurées en temps réel, et elles ne contiennent généralement que
les données les plus récentes disponibles. Une base de données est généralement
associée à un système de gestion de base de données (SGBD) qui est
responsable du stockage et de la gestion des données un des formats de base de
données les plus courants est la base de données OLTP. [6]
2- Le Data Warehouse :
L'activité des capteurs, les images, les messages des médias sociaux et
l’activité du parcours de navigation sur Internet. D’autres outils donnent la
priorité à la vitesse de traitement et à l’utilité des programmes de Machine
Learning.[6]
Le Big Data Analytics parcourt le Data Lake pour tenter de découvrir des
schémas, les tendances du marché et les préférences des clients afin d’aider les
entreprises à prendre des décisions plus rapidement. Pour ce faire, on procède à
quatre analyses différentes :
L’analyse descriptive permet d’examiner rétrospectivement ou un problème a
pu survenir au sein de l’entreprise.
L’analyse diagnostique est une autre analyse rétrospective qui examine
pourquoi un problème spécifique est survenu dans une entreprise. C’est un peu
plus approfondi que l’analyse descriptive. [6]
1- L’ingestion de données :
il peut fonctionner soit en mode temps réel ou batch. De par leurs noms
Les facteurs qui déterminent l’ingestion mode de fonctionnement sont le taux de
changement de données à la source et le volume de ce changement.[2]
L’ingestion de données aide les équipes à aller vite. La portée d’un pipeline
de données donné est délibérément étroite, ce qui donne aux équipes de données
flexibilité et agilité à grande échelle. Une fois les paramètres définis, les
analystes de données et les spécialistes des données peuvent facilement créer un
pipeline de données unique pour déplacer les données vers le système de leur
choix.
L’ingestion de données extrait les données de la source où elles ont été
créées ou stockées à L’origine, et charge les données dans une destination ou
une zone de transit. Un simple pipeline d’ingestion de données peut appliquer
une ou plusieurs transformations légères enrichissant ou filtrant les données
avant de les écrire dans un ensemble de destinations, un magasin de données ou
une file d’attente de messages. Des transformations plus complexes telles que
des jointures, des agrégats et des tris pour des analyses, des applications et des
systèmes de reporting spécifiques peuvent être effectuées avec des pipelines
supplémentaires. [2]
Codage manuel
Une façon d’ingérer des données peut être de coder à la main un pipeline de
données, en supposant que vous savez comment coder et que vous connaissez
les langages nécessaires.
Cela vous donne le plus grand contrôle, mais si vous ne connaissez pas la
réponse à ces questions et si ci-dessus, vous risquez de passer beaucoup de
temps à travailler et à retravailler votre code. [5]
Outils à usage unique
Les outils d’ingestion de données de base fournissent une interface glisser-
déposer avec de nombreux connecteurs et transformations prédéfinis afin que
vous puissiez ignorer le codage manuel. Bien que cela semble être un moyen
rapide d’accomplir beaucoup de choses ou de permettre aux consommateurs de
données moins qualifiés, combien de pipelines de données par glisser-déposer
allez-vous créer avant d’atteindre la limite de ce que vous pouvez surveiller et
gérer ? De plus, vous ne pouvez pas partager votre travail avec votre équipe ou
les analystes et data scientistes qui frappent à votre porte.[5]
En appliquant des méthodologies agiles aux données, une approche Data Ops
des pipelines de données automatise autant que possible et fait abstraction du
« comment » de la mise en œuvre. Les ingénieurs de données peuvent se
concentrer sur le « quoi » des données et répondre aux besoins de l’entreprise.
[5]
Données semi-structurées :
Les données semi-structurées sont des informations qui ne résident pas dans
une base de données relationnelle mais qui possèdent certaines propriétés
organisationnelles qui facilitent leur analyse. Avec certains processus, vous
pouvez les stocker dans la base de données de relations (cela peut être très
difficile pour certains types de données semi-structurées), mais les semi-
structurés existent pour réduire l’espace. Exemple : données XML. [1]
10)ETL vs ELT :
Le processus ETL :
Le processus extraction des données des systèmes sources et de
leur transfert dans l’entrepôt de données est communément appelé
ETL, qui signifie extraction, transformation et chargement. Il est à
noter que ETL fait référence à un processus général et non à trois
étapes bien définies. L’acronyme ETL est peut-être trop simpliste, car
il omet la phase de transport et implique que chacune des autres
phases du processus est distincte. [6]
Processus ELT :
ELT signifie Extract, Load, Transform. L’ELT est une variante de
l’Extract, Transform, Load (ETL), un processus d’intégration de
données dans lequel la transformation a lieu sur un serveur
intermédiaire avant d’être chargée dans la cible. En revanche, les ELT
permettent de charger les données brutes directement dans la cible et
de les transformer par la suite. Cette capacité est particulièrement
intéressante pour le traitement des grands ensembles de données
nécessaires à la Business Intelligence (BI) et à l’analyse de données
volumineuses.
Historiquement, l’ETL a toujours été le meilleur et le plus fiable
moyen de déplacer des données d’un endroit à un autre. Mais, comme
les systèmes modernes de stockage de données ont augmenté leur
puissance de calcul, il est parfois plus efficace de charger les données
avant de les transformer. L’un des principaux attraits des ELT est la
réduction des temps de chargement par rapport au modèle ETL. Tirer
parti de la capacité de traitement intégrée à un Data Warehouse réduit
le temps que les données passent en transit et est plus rentable. [6]
<?php
global $conf;
//param_BD
$conf->global->CHARTOFACCOUNTS='113';//Plan comptable
//param_CASHDESKPAR--------------
define('CASHDESKPAR_AUTOCOMPLETE',0);//bm//0//1-requiert 2:Formulaire
autocomplete pour sélection
define('CASHDESKPAR_DONT_POPUP_TICKET',0);//bm//0//2-inhibe l'ouverture
automatique du ticket
define('CASHDESKPAR_DONT_PRINT_TICKET',0);//bm//0//3-inhibe
l'impression automatique du ticket
define('CASHDESKPAR_FOCUS_LISTE',0);//bm//0//4-Rend le focus à la liste si
ref vide
define('CASHDESKPAR_HIDE_REMISE_PERCENT',0);//bm//0//5-Cacher
remise en pourcentage
define('CASHDESKPAR_HIDE_TVA',0);//bm//0//6-cache TVA dans cashdesk
define('CASHDESKPAR_MODIFIABLE_PRICE',0);//bm//0//7-prix modifiable
define('CASHDESKPAR_MODIFY_DELETED',1);//bm//0//8-Modifier une ligne
aprés suppression
define('CASHDESKPAR_MONNAIE_CODE',1);//bm//////9-xx
define('CASHDESKPAR_MONNAIE_VIDE',0);//bm//0//10-Ticket sans type de
monnaie
define('CASHDESKPAR_PANIER_RAPIDE',0);//bm//0//11-saisie rapide
define('CASHDESKPAR_PAIEMENT_AUTO',0);//bm//0//12-saisie automatique
du paiement égal au montant total
define('CASHDESKPAR_PARAMETRES',1);//bm//0//13-Formulaire de
parametrage
define('CASHDESKPAR_QTE_ENTER_KEY',1);//bm//0//14-Faire passer au
champ suivant à la validation sur le champ Qte
define('CASHDESKPAR_SHOW_LINES',1);//bm//0//15-Voir les lignes facture
define('CASHDESKPAR_SHOW_TEL',1);//bm//0//16-Affiche le nº de telephone
dans le ticket
define('CASHDESKPAR_THEME_31',0);//bm//////17-
define('CASHDESKPAR_TICKET_RAPIDE_POPUP',1);//bm//0//18-requiert
4:Montre le ticket en popup
define('CASHDESKPAR_TICKET_RAPIDE',0);//bm//0//19-4:Bouton ticket direct
define('CASHDESKPAR_TICKET_TITRE_BONLIVRAISON',1);//bm//0//20-
requiert 3:Titre ticket (Bon de livraison)
define('CASHDESKPAR_CREATION_CHANGEMENT_CLIENTS',0);//bm//0//21-
Créer et changer le client
define('CASHDESKPAR_SEARCH_POS',-1);//im-1:10//0//22-Position de début
pour recherche totale
define('CASHDESKPAR_MOBILE_LAYOUT',0);//bm//0//23-Adapter le thème à
l'écran de téléphone
define('CASHDESKPAR_ANDROID_TICKET',1);//bm//0//24-Le ticket sera stocké
dans une image sur laquelle un programme est lancé pour imprimer l'étiquette
define('CASHDESKPAR_ANDROID_JS_TICKET',1);//bm//0//25-Le ticket stocké
dans une image sera imprimé dans une webview par Javascript
define('CASHDESKPAR_OPEN_SECTIONS',0);//bm//0//26-Ouvrir les sections
au lancement de la page
//param_PRODUCT--------------
define('CASHDESKPAR_PRODUCT_ZY_AUTOCOMPLETE_LIMIT_RESULTS_
VALUE',22);//im1-100//0//nombre de résultats d'autocomplete
define('CASHDESKPAR_PRODUCT_ZY_AUTOSELECT_LENGTH',2);//im1-
10//1//Nombre de caractéres minimum pour recherche
define('CASHDESKPAR_PRODUCT_SELECT_BY_REFS',0);//bm//0//Activer
Autoselect sur les références seulement
define('CASHDESKPAR_PRODUCT_FORM_LIST_SORT_KEY',0);//bm//0//xxx
Configuration du module :
Pour utiliser ce module, il vous faut d'abord l'activer. Pour cela, après s'être
connecté avec un compte administrateur, allez sur la page "Accueil -
Configuration - Modules". Le module apparaît dans "Dolipar", cliquez sur
"Activer". Un pictogramme apparaît à la fin de la ligne du module, cliquez dessus
pour accéder à la page de configuration spécifique à ce module :
Comme le module de paramétrage est un module système, toutes ses
fonctionnalités se retrouvent dans la page de configuration suivante :
Page de configuration du module
La composition de configurations :
Ci dessous la page de composition de configuration obtenue en cliquant sur le
bouton de composition complète . Les trois images sont obtenues en déroulant la
page :
Page de composition complète 1/3
Page de composition complète 2/3
Page de composition complète 3/3
[1] https://www.geeksforgeeks.org/difference-between-structured-
semi-structured-and-unstructured-data/.
[2] https://www.talend.com/fr/resources/data-source/.
[3] https://alpage.huma-num.fr/catalogue-de-metadonnees/le-
catalogue-de-metadonnees/.
[4] Practical Entreprise Data Lake Insights .Saurabh Gubta, Venkata
Giri.
[5] https://streamsets.com/.
[6] https://www.oracle.com/fr/database/database-vs-data-warehouse-
vs-data-lake.html
[7] https://wiki.dolibarr.org/index.php?title=Module_Parametrage_FR
[8]