Académique Documents
Professionnel Documents
Culture Documents
Introduction générale 1
i
CONTENTS ii
5 Création du datawarehouse 62
5.1 Backlog du sprint du datawarehouse . . . . . . . . . . . . . . . . . . . . 62
5.2 Les indicateurs de performance du datawarehouse . . . . . . . . . . . . 63
5.2.1 Principe dŠun indicateur de performance (KPI) . . . . . . . . . . 63
5.2.2 Objectifs des indicateur de performance du datawarehouse . . . . 63
5.3 Intégration des données ETL (Extraction, Transformation, Chargement) 64
5.3.1 Extraction des données . . . . . . . . . . . . . . . . . . . . . . . 64
5.3.2 Transformation de données . . . . . . . . . . . . . . . . . . . . . 71
5.3.3 Chargement des données . . . . . . . . . . . . . . . . . . . . . . 74
5.4 réation dŠun projet SSAS . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.4.1 Source de données . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.4.2 Vue source de données . . . . . . . . . . . . . . . . . . . . . . . 77
Conclusion générale 95
Liste des tableaux
iv
Table des Ągures
v
TABLE DES FIGURES vi
5
Introduction Générale
Les grandes entreprises font partie des principaux bénéĄciaires des avantages prodi-
gieux de lŠinformatique . En sŠétendant ‘a tous les domaines de la gestion , lŠinformatique
a su réduire considérablement les coûts et les délais de tout business .
Cependant , leur était considéré comme avantage , est aujourdŠhui un besoin essen-
tiel et acquis . LŠinformatique de gestion des temps modernes doit donc se surpasser .
En plus dŠassurer un sout‘enement aux opérations logistique des entreprises , lŠinforma-
tique doit représenter un véritable atout compétitif pour eux et leur permettre de faire
évoluer leurs performances .
Ces entreprises , qui de nos jours sont confrontées ‘a une multitude de données sou-
vent éparses hétérog‘ene , cherchent une solution pour collecter , consolider et extraire
de lŠinformatique ‘ a partir de ces données considérées comme leurs plus grande richesse
. Cependant , pour extraire une telle valeur ajoutée , il faut passer par une énorme
quantité de données pas toujours cohérente ( Base de données relationnelles , Source
externe , Excel , etc ) . Sans une solution structurée et efficace , ces données si précieuses
perdent alors beaucoup de leur valeur . Les indicateurs deviennent difficilement lisibles
et nécessitent beaucoup plus dŠénergie et de temps pour les rendre utilisables , justes
et pertinents .
1
CŠest ‘a ce que le processus de lŠinformatique décisionnelle ou encore Business Intel-
ligence (BI) est destiné . Il sŠagit de collecte , lŠentreposage , et la diffusion des données
qui permettent aux
utilisateurs dŠacquérir de nouvelles connaissances dans le but dŠintégrer une ap-
proche plus stratégique pour une meilleure prise de décision . CŠest dans cette perspec-
tive que nous avons décidé de réaliser mon stage dans une entreprise qui me permettrait
de répondre ‘ a un tel enjeu . JŠai choisi la société Virtual Dev comme une entreprise
dŠaccueil . Le projet qui mŠa été conĄé consiste ‘a créer un tableau de bord décisionnel
sur le prix de revient dŠun KG pour un ferme d39 ;élevage des poissons .
CŠest un projet qui mŠa permis dŠappliquer mes connaissances des syst‘emes de ges-
tion , acquises dans le cadre de notre licence en informatique de gestion , et surtout
acquérir de nouvelles connaissances . Le présent rapport expose les différentes étapes
de lŠélaboration de ma solution selon le framework SCRUM BI . Le manuscrit de ce
projet de Ąn dŠétude se compose de la présente Introduction , de Quatre chapitres ,
dŠune conclusion générale et dŠune liste de références bibliographiques .
Introduction
Ce premier chapitre consiste en une présentation générale de lŠorganisme dŠaccueil,
son proĄl, ses caractéristiques et ses composantes, ainsi que les enjeux et lŠobjectif de
ce projet.
3
1.2. Présentation de lŠorganisme dŠaccueil 4
1.3.2 Problématiques :
A‘ lŠépoque actuelle, les clients du secteur des fermes aquacole des société dŠélevage
des poissons chez Virtual Dev qui utilise déj‘a la solution VMIND ERP conĆuent certains
probl‘emes au niveau de la couche décisionnelle qui résident dans :
- Il est difficile de suivre lŠévolution du coût de revient dŠun kilogramme de poisson
en raison de la Ćuctuation rapide des charges directes et indirectes au Ąl du temps, de
même que pour la quantité produite.
1.3. Contexte du projet 8
Conclusion :
Finalement , nous avons pu acquérir une connaissance assez large concernant lŠacti-
vité au sein de VirtualDev. En sŠentretenant avec ses différents acteurs qui interagissent
avec le département informatique et le département des études, On a su formuler une
idée claire des besoins de ces derniers en termes dŠaide ‘a la décision par la suite nous
avons pu concevoir la solution qui répond aux besoins de la société
.
2 Méthode de conception et outils décisionnels
Introduction
9
2.1. Contexte décisionnel : 10
les performances.
• En dŠautres termes, lŠentrepôt de données permet aux entreprises dŠoptimiser leurs
activités et de générer des bénéĄces supplémentaires, tandis que pour les responsables
informatiques, il facilite la séparation des processus dŠanalyse et dŠopérations pour
améliorer les performances globales [3].
- Les mesures :
Une mesure est une propriété qui permet de réaliser des calculs pour évaluer un
indicateur de performance, tels que la quantité vendue, le chiffre dŠaffaires, etc.
- Les dimensions :
Une dimension est une table qui représente un axe dŠanalyse dans un entrepôt de
données. Elle est composée dŠune clé primaire et dŠun ou plusieurs attributs regroupés
en fonction des éléments clés de lŠentreprise.
Ce cycle consiste ‘a prévoir des phases séquentielles ou il faut valider lŠétape précédente
pour passer ‘ a la suivante . Du côté des risques du projet , ils seront identiĄés tardive-
ment car il faut attendre jusquŠ a‘ la Ąn du développement aĄn de passer ‘a la phase de
test . En Effet , plus le projet avance , plus lŠimpact des risques augmente : il sera plus
coûteux et difficile de revenir en arri‘ere lorsquŠon détecte une anomalie tardivement .Il
est si évident que les méthodes classiques ne conviennent pas aux nécessités évolutives
dŠun projet BI .
LŠimpact des risques détectés tardivement est ‘a éviter . En revanche , dŠautres
alternatives existantes sont proposées et par la suite , elles sont étudiées [8].
Acteurs Tâches
Le Product Owner Le porte-parole des clients a pour responsabilité de déĄnir soigneu-
(PO) sement le backlog. Cela implique de recueillir les besoins du client,
les spéciĄcations du produit ainsi que toutes les fonctionnalités du
projet ‘a réaliser. Le propriétaire du produit est également chargé de
classer les éléments du backlog par ordre de priorité et dŠindiquer
lŠordre dans lequel ils doivent être réalisés.
Le Scrum Master LŠanimateur dŠéquipe joue un rôle essentiel dans la coordination et la
facilitation du travail de lŠéquipe. Son rôle principal consiste ‘
a veiller
au bon déroulement du projet et ‘a résoudre les probl‘emes et les
obstacles qui entravent le progr‘es de lŠéquipe. LŠanimateur dŠéquipe
agit en tant que coordinateur et facilitateur, travaillant main dans
la main avec les membres de lŠéquipe pour assurer une collaboration
efficace et une réalisation harmonieuse des tâches.
Le Scrum Team LŠéquipe de développement est chargée de la livraison des éléments
(lŠéquipe de travail) de chaque sprint, en respectant leur ordre de priorité. Cette équipe
est composée dŠarchitectes, de développeurs et dŠadministrateurs de
bases de données.
Artéfacts Description
Product Backlog. Le carnet des produits, également appelé Product Backlog, est une
liste structurée qui regroupe les exigences, les besoins du client et
les spéciĄcations liées ‘a un produit donné. Le Le Product Owner est
chargé du Product Backlog ,en termes du contenu, de la disponibilité
et de lŠordonnancement du Product Backlog.
Sprint Backlog Le sprint Backlog est un élément essentiel pour suivre la progression
du travail de lŠéquipe de développement. Chaque sprint est conçu
pour répondre aux attentes du Product Owner et garantir lŠaccom-
plissement des objectifs préalablement déĄnis au début du sprint. Le
sprint Backlog constitue un plan détaillé des tâches ‘a réaliser
Sprint Burn-Down Le graphique dŠavancement est une représentation visuelle qui per-
Chart met dŠobserver lŠévolution de la quantité de travail restant par rap-
port au travail déj‘a accompli. LŠaxe vertical représente le travail res-
tant, tandis que lŠaxe horizontal représente le temps. Ce type de
graphique offre une vision anticipée de lŠavancement du travail sur
une période donnée, ce qui permet de suivre le déroulement de lŠac-
tivité.
la derni‘ere mêlée, ce quŠil prévoit de faire dŠici la prochaine mêlée et sŠil rencontre des
obstacles. LŠéquipe utilise un tableau Scrum avec des notes adhésives pour visualiser
lŠavancement des tâches (‘a faire, en cours, terminées). La mêlée quotidienne favorise la
transparence et la collaboration au sein de lŠéquipe.
• Revue du sprint (Sprint Review) :
La revue du sprint est une réunion qui permet de boucler la boucle de rétroaction
et dŠadapter en continu le développement du produit. Toutes les personnes concernées
par le projet participent ‘ a cette réunion pour discuter de ce qui a été réalisé pendant le
sprint. Les résultats obtenus sont valorisés et priorisés, et le Product Backlog est ajusté
en conséquence pour la prochaine itération. La revue du sprint peut durer jusquŠ‘a 4
heures.
• Rétrospective du sprint (Sprint Retrospective) :
La rétrospective du sprint est un moment essentiel pour lŠéquipe aĄn dŠévaluer
ce qui sŠest passé pendant le sprint et favoriser lŠamélioration continue. LŠobjectif de
cette réunion est de recueillir les retours de chaque membre de lŠéquipe sur ce qui a
bien fonctionné, ce qui peut être amélioré et les actions ‘a entreprendre pour le prochain
sprint. La rétrospective du sprint permet ‘a lŠéquipe de sŠauto-organiser et de sŠaméliorer
constamment. Ces cinq événements constituent un cadre solide pour la gestion de projet
agile en utilisant la méthode Scrum. Ils favorisent la collaboration, la transparence et
lŠadaptation continue, ce qui permet aux équipes de développer des produits de mani‘ere
itérative et efficace [14]
• Power BI :
-Supporté par plusieurs applications telles quŠAndroid ou encore grâce ‘a un acc‘es
en ligne.
- Des tableaux de bord personnalisés ainsi que des rapports interactifs.
- Une large palette de visuels.
- Gagner en réactivité et productivité face aux concurrents.
- Outils dŠanalyse connecter ‘a des bases des données SQL Server , des mod‘eles
Analysis Services ainsi que de nombreuses autres sources des données.
• Python :
- Peut être utilisé dans Power BI pour effectuer des opérations de prétraitement des
données avancées .
- Créer des graphiques et des visualisations spéciĄques en utilisant des biblioth‘eques
Python telles que Matplotlib, Seaborn ou Plotly.
- Peut être utilisé dans Power BI pour effectuer des opérations de prétraitement des
données avancées.
Peut être utilisé pour extraire et transformer des données provenant de sources
multiples et complexes.
2.3. Environnement de travail 25
Conclusion
Dans ce chapitre, nous avons mis un projet BI dans son contexte. Nous avons
débuté avec la déĄnition et la comparaison des trois méthodologies et des trois mod‘eles
du travail aĄn de sélectionner la méthode la plus adéquate ‘a notre solution.
Par la suite, nous avons précisé les outils avec lesquels nous allons travailler. Quand
au chapitre suivant, on va passer au troisi‘eme chapitre qui va analyser et spéciĄer les
besoins.
3 Sprint 0 : Etude fonctionnelle :
Introduction
26
3.2. Backlog produit : 27
* Schéma en constellation :
Le principe fondamental du mod‘ele en constellation est de fusionner plusieurs
3.4. Conception général de lŠentrepôt de données 31
Choix du mod‘ ele adapté Pour répondre aux besoins spéciĄques de lŠentreprise
VirtualDev dans le cadre de notre projet, nous avons choisi dŠadapter le mod‘ele de
données en constellation en tant quŠ un mod‘ele conceptuel, car notre datawarehouse
est constituée de plusieurs tables faits qui partagent les mêmes dimensions. Ce mod‘ele
a été sélectionné pour sa capacité ‘a gérer des relations complexes entre différentes
dimensions, telles que Lots, Fournisseur dŠaliment , Date , etc.
Le mod‘ele de données en constellation que nous avons adapté a permis ‘a lŠentreprise de
mieux comprendre ses performances de productions et commerciales et de prendre des
décisions plus éclairées en fonction des informations extraites de la base de données.
. ROLAP : Les données sont stockées dans un SGBD relationnel . Un moteur OLAP
permet dŠanalyser la base multidimensionnelle .
.- MOLAP : Les données sont stockées dans des cubes ou nous pouvons accéder
directement aux données
Il existe bien évidemment dŠautres approches telles que SOLAP (Spatial OLAP),
DOLAP (Desktop OLAP) , OOLAP (Object OLAP), . . .. mais qui restent tout de
même peu utilisées .
- Dans notre cas , nous avons choisi lŠapproche ROLAP pour notre solution
Faits Libellé
Fait qui collecte les données
détaillées sur charges directes et les
Fact Couts de revient charges indirectes des coûts .
Fait qui collecte les données
détaillées sur lŠétat des poissons et
FactP roduction les ordres de production .
Fait qui collecte les données
détaillées sur les chiffres dŠaffaires
Fact Vente de poissons vendus .
Figure 3.10 Ű Aperçu sur les tables de faits «Fact Couts de revient» , «Fact Produc-
tion» et «Fact Ventet»
Conclusion
User story
ID User story Tâches
En tant quŠ analyste, je veux
créer une base de données 1.1 DéĄnir les tables
ODS qui englobe toutes les sources pour
données historiques et lŠextraction.
détaillées concernant le grand 1.2 Transformation de
volume des données données.
existantes et développer le 1.3 Chargement de
US 1 syst‘eme ETL. données .
37
4.2. Etude des données source : 38
- Création deux nouvelles base de données nommée (Ods)et (DWH) dans SQL
Server.
- LŠétape qui suit la création de la base au niveau de SQL Server, Pour ce faire, nous
avons créé un nouveau projet dans lŠenvironnement Visual Studio 2010 et nous avons
choisi ≪ Integration Service ≫ sous la rubrique ≪ Business Intelligence ≫ qui constitue
un ensemble de packages assurant le chargement des données comme indiqué dans la
Ągure 4.4.
Nous allons établir une connexion pour accéder aux sources de type OLEDB .
- Sélectionner le type de gestionnaire de connexion pour ajouter le package .
Le projet Integration Services est composé de plusieurs Packages, qui ‘a leurs tours
sont composés des Flux de contrôle et des Flux de données : Dans SSIS, lŠonglet Flux de
contrôle permet de gérer les tâches nécessaires aux transformations et les éléments de
contrôle que le package va exécuter. Au niveau de lŠonglet Flux de données, sŠeffectue
la sélection des données sources, les transformations quŠelles vont subir, et la précision
de leurs destinations.
Le schéma dans la Ągure 4.10 clariĄe la composition dŠun package simple.
- Nous avons créé des packages pour construire les tables dans la base de données
ODS .
Figure 4.11 Ű Aperçu sur la liste des packages de chargement de la base de données
Chaque package comporte une tâche de Ćux de données qui assure lŠextraction des
données et chaque tâche de Ćux de contrôle assure la mise ‘a jour des Tables.
Dans notre cas, nous avons eu recours ‘a une tâche ≪ Execute SQL Task ≫ que nous
avons nommée ≪ Vider la table . . . ≫ en utilisant la fonction ŞTRUNCATEŤ qui permet
dŠeffectuer une requête SQL ‘ a chaque exécution du package pour éviter la duplication
des données et ‘ a une tâche ≪ Data Flow Tasks ≫ qui comporte des requêtes SQL pour
la création et le chargement des tables ODS dans le Ćux du contrôle
* Table dimension : Table Ods Aliment
- On ‘
a appliquer la connexion du sources de la base de données VMIND .
- Lors du choix du mode dŠacc‘es aux données, il est possible de sélectionner soit une
table, soit une vue . Pour cette raison, on utilise la Şcommande SQLŤ pour générer les
jointures aĄn de faciliter la création des requêtes et sélectionner les attributs nécessaires
.
- Transformation de données :
Dans cette phase, les attributs de la table≪ Ods Aliment≫ sont issus de différentes
tables sources de la base de données initiale. En combinant la fonction de tri ŞSortŤ et
4.3. Préparation et alimentation de la base de donnée (ETL) : 47
la transformation des doublons dans SSIS, dont le but de supprimer les duplications
des enregistrement dŠun Ćux de données .Cette approche est bénéĄque car on a besoins
dŠobtenir les enregistrement des ID de la table ‘a partir du source de données VMIND .
- Nous avons commencé par trier et éliminer les redondances dans chaque table.
Une fois les transformations nécessaires effectuées et que les tables obtenues répondent
aux besoins de notre solution, il est temps de les charger dans une structure, que nous
avons déj‘
a créé dans SQL Server nommé ≪ ODS ≫.
- Puisque les données seront stockées dans SQL Server, nous avons choisi comme Des-
tination ≪ OLE DB ≫ dans SSIS comme indiqué dans la Ągure 4.18.
Nous avons commencé par charger les tables ‘a partir des données sources en assurant
‘a chaque fois le tri.
- Effectuer une vériĄcation de la connexion ‘a la base de destination ODS pour la création
de la table ŤAlimentŤ.
- La table Aliment ‘
a été créer et charger dans la base de données ODS par succé.
Nous avons créé une vue dans la base de données VMIND nommée Prodt qui représente
les détails de la table Ods Production .
La Ągure ci-dessous représente les jointures effectuer pour créer la table Ods Production.
- Si on ‘
a Aliment ou Aleviens = 1 alors charges direct
Nous avons créé une table nommée Ş Historique Purchasing AllPurchasingBIŤ dans
la base de données source VMIND , puis nous avons créé une procédure pour importer
les données nécessaires ‘
a chaque fois on ajoute des factures dont des dates différentes .
Nous avons utilisé la fonction pour ajouter seulement les charges indirects dont la
condition = 0
Conclusion
Introduction
User story
ID User story Tâches
En tant quŠ analyste, je veux
développer le syst‘eme ETL 1.1 DéĄnition des indicateurs
pour créer une de performance (KPI).
datawarehouse qui englobe 1.2 DéĄnir les tables sources
toutes des données pour lŠextraction.
historiques et détaillées sur 1.3 Transformation de
les ordre du coût de revient, données.
US 2 du production et du vente. 1.4 Chargement de données.
62
5.2. Les indicateurs de performance du datawarehouse 63
Un bon indicateur de performance doit être pertinent, éviter les effets pervers,
attribuable, bien déĄnie en temps utile, Ąable, comptable, et vériĄable [20] .
Figure 5.1 Ű Aperçu sur la liste des packages de chargement de la base de données
- Table de dimension :
Nous allons transformer les tables ODS en table dimension dans la base de données
DWH .
Nous commençons tout dŠabord par transformer les tables ods en dimension dans la
datawarehouse, par lŠajout dŠune tâche dŠexécution de requête SQL qui permet de vider
la table et éliminer la redondance des lignes en utilisant la fonction ŞTRUNCATEŤ et
dŠune tâche de Ćux de données qui comporte des requêtes SQL pour la création et le
chargement des tables ODS dans le Ćux du contrôle .
5.3. Intégration des données ETL (Extraction, Transformation, Chargement) 65
• Table Dim-Date
Pour la premi‘ere partie de la phase ETL, nous devons récupérer les tables ‘a partir
de la connexion du base ODS.
La Ągure suivante présente la création de la connexion et de récupération de la table
Dim-Date :
Une fois que nous avons créé les dimensions dans la base de données DWH,nous
avons ajouté un champ nommé Ťclé artiĄcielleŤ ‘a chacune dŠentre elles . Cette clé
artiĄcielle est utilisée dans les table des faits pour établir les liens entre les dimensions
et les faits.
• Table Dim-Lot
• Table DimFournisseurAliment
Table Dim-Aliment
NB :
Dans cette étape la base de données intermédiaire Ods est devenue la source de
données puisquŠelle est chargée par les données détaillées aĄn de charger les données
agrégées dans la datawarehouse .
• Les tables faits
Nous allons transformé les tables ODS en table fait dans la base de données DWH
Dans cette phase, nous devons récupérer les tables ‘a partir de la connexion du base
ODS.
• Table Fact-cout-de-revient
La Ągure suivante présente la création de la connexion et de récupération de la table
Ods-cout-de-revient :
En outre, la fonction Lookup est un outil puissant pour rechercher, récupérer, mettre
‘a jour et intégrer des données en fonction de correspondances. Elle facilite lŠenrichisse-
ment des données et la synchronisation entre différentes sources de données, contribuant
ainsi ‘a lŠintégration efficace des données dans le processus dŠintégration de données.
Dans notre cas, nous avons adapté la fonction Lookup pour générer les ID date corres-
pondants ‘ a partir de la table Dim-Date. Cette approche nous permet de créer des liens
entre les tables de faits et les dimensions.
• Tabla Fact-Vente
Nous avons clôturé la phase de lŠETL par le chargement des tables de faits pour
enĄn, obtenir notre Datawarehouse total stocké au niveau de SQL server.
Figure 5.35 Ű Importer les tables faits et ses dimensions de lŠentrepôt de données
5.4. réation dŠun projet SSAS 79
Conclusion
Dans ce chapitre, nous avons effectué le processus ETL, ainsi que la création dŠun projet
SSAS pour le traitement du datawarehouse. De plus, nous avons conçu la conception
du mod‘ele en constellation pour organiser les données de mani‘ere efficace.
6 Sprint 3 : Création des tableaux de bords
Introduction
Durant ce chapitre et dŠapr‘es la méthodologie agile utilisée « SCRUM BI » et le
traitement du processus ETL, ce sprint N°3 sera dédié pour la phase de reporting, ainsi
que la création et la consultation du tableau de bord .
User story
ID User story Tâches
En tant quŠ analyste, je 1.1 Importation des données
veux créer et générer dans Power BI.
des rapports 1.2 Choix du graphique qui
dynamiques pour une répond ‘a nos besoins .
vision globale sur le 1.3 Effectuer le calcul des
suivi du coût de mesures avec DAX .
revient, du production 1.4 Générer un rapport
et du vente et par la dynamique concernant le
suite une prise de suivi du coût de revient, de la
US 3 décision éclairée production et de la vente
80
6.2. Phase de Reporting 81
6.3.1 DéĄnition
DAX (Data Analysis Expressions) est un langage de formules utilisé dans Power BI,
un outil de visualisation de données. Il est utilisé pour créer des mesures et des colonnes
calculées, ainsi que pour effectuer des manipulations et des agrégations de données.
- EnĄn , nous avons effectué le calcul du prix moyen qui signiĄe le prix de vente
dŠun KG de poissons .
Nous avons observé que les charges et la quantité produite présentent des Ćuctua-
tions qui peuvent être ascendantes ou ou descendantes, et parfois atteindre une phase
de maturité .
La Ągure suivante représente lŠévolution du coût de revient dŠun KG de poissons en
fonction des facteurs de performances nécessaire durant un période donnée pour chaque
type dŠespece.
Figure 6.11 Ű Rapport sur les facteurs contributifs ‘a lŠévolution du coût de revient
6.4. Visualisation globale du tableau de bord 88
Nous avons montré lŠévolution des trois coûts qui sont classés dans les charges
directes pour chaque Lot en adaptant des Ąltres sur les fournisseurs dŠaliment .
Nous avons effectuer le suivi de Production par Aliment en considérant les indica-
teurs de performances nécessaire .
Figure 6.15 Ű Rapport pour le suivi de Production (clôturé) par pêche / poisson
6.4. Visualisation globale du tableau de bord 90
Nous avons réalisé le suivi de la pêche et des poissons dans chaque lot, en tenant
compte des indicateurs de performances pertinents.
Nous avons effectué le suivi de la production par biomasse dans chaque lot, en
prenant en compte les indicateurs de performances pertinents.
Figure 6.17 Ű Rapport pour le suivi de Production (clôturé) par Mortalité / Fuite
6.4. Visualisation globale du tableau de bord 91
Figure 6.18 Ű Rapport pour le suivi de Production (clôturé) par Nbrjrs Alimentation
Nous avons effectué le suivi de la production par Nbrjrs Alimentation dans chaque
lot .
Conclusion
95
Conclusion générale 9697
https://grim.developpez.com/cours/businessintelligence/concepts/conception-
datawarehouse/#:~:text=Elle%20consiste%20en%20la%20conception,les%20d%C3%A9coupages%2
0un%20par%20un.
[16] Présentation du schéma en étoile
https://fr.wikipedia.org/wiki/%C3%89toile_%28mod%C3%A8le_de_donn%C3%A9es%29
[17] Présentation du schéma en Flocon de neige
https://boowiki.info/art/theorie-des-bases-de-donnees/flocon-de-neige-schema
https://www.educba.com/fact-constellation-schema/
https://www.powerslide.io/blog/kpi-definition-exemples