Académique Documents
Professionnel Documents
Culture Documents
Université de Jendouba
Faculté des Sciences Juridiques, Economiques et de Gestion de Jendouba
Élaboré par :
Balkis Abidi
C’est avec un grand plaisir que je réserve cette page, en signe de gratitude et
profonde reconnaissance à tous ceux qui m’ont aidé à faire aboutir ce projet de fin
d’étude.
J’adresse mes plus vifs remerciements à Mme. Héla GOUIDER pour son
encouragement continu et aussi d’être toujours là pour m’écouter, m’aider et me
guider à trouver le bon chemin par sa sagesse et ses précieux conseils, ce qui m’a
donné la force et le courage d’accomplir ce projet.
Enfin, mes remerciements vont à tous mes enseignants aux Facultés des
Sciences juridiques économiques et de gestion de Jendouba qui n’ont pas cessé de
m’encourager, me soutenir et d’enrichir mes connaissances durant mon cursus
académique.
i
Dédicaces
À ma chère sœur Arij qui m’a toujours entourée par leur affection. Je t’exprime à
travers ce travail mes sentiments d’amour.
À tous les membres de ma famille sans exception pour leur soutien moral et
matériel, qui ont tant souhaité assister à cette réussite pour m’exprimer leur joie
pressentie.
À tous ceux qui ont une relation de près ou de loin avec la réalisation du présent
projet.
ii
Table des matières
Introduction générale 1
1 Contexte de projet 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Présentation du Groupe Délice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Organigramme du Groupe Délice . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Les secteurs d’activité Du Groupe Délice . . . . . . . . . . . . . . . . . . 4
1.3 Présentation des sociétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Présentation CLN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Présentation CLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.3 Présentation CLSB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Les activités des sociétés . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.5 Organigramme des trois sociétés . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Présentation du projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Contexte du projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 Étude de l’existant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.3 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.4 Solution proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Méthodologie de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1 Méthodologie d’Inmon . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.2 Méthodologie Kimball . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.3 Inmon Vs Kimball . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.4 Méthodologie adoptée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Environnement technique 17
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Architecture technique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1 Source de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
iii
Table des matières
iv
Table des matières
v
Table des matières
vi
Table des figures
vii
Table des figures
viii
Table des figures
ix
Liste des tableaux
x
Introduction générale
Aujourd’hui, la possession de l’information est devenue la priorité des entreprises pour qu’elles
puissent survivre et défendre leurs positionnements afin de ne pas être dépassées par la foule. Mais
avec l’évolution des nouvelles technologies de l’information et de la communication et l’importance
du volume de données qui en résulte, le suivi des activités de l’entreprise est devenu vital pour toute
personne responsable qui y travaille. Il est donc nécessaire de vérifier en permanence la corrélation
entre le prévisionnel et la réalité du terrain pour maîtriser la situation afin de pouvoir agir plus
rapidement et identifier les points à traiter pour améliorer les résultats.
Pour ce faire, ces personnes doivent disposer de la bonne information au bon moment pour pou-
voir prendre la bonne décision. De ce fait, l’utilisation d’un Système d’Information Décisionnel (SID)
en tant qu’une solution technique paraît essentielle. Cette solution garantit une meilleure visibilité
sur l’activité de l’entreprise et permet d’anticiper les nouveaux enjeux du marché.
Dans ce contexte, nous a été proposé un projet de fin d’étude de licence par la centrale laitière
du nord, intitulé "Conception et développement d’une solution BI pour le Groupe Délice "Pôle Lait".
L’objectif de ce projet est de tirer pleinement parti du volume considérable de données disponibles
dans le secteur "Pôle Lait" des trois sociétés CLN, CLC et CLSB, ainsi que des directions qualité et
production. L’objectif ultime est d’aider les décideurs à prendre des décisions appropriées. Pour at-
teindre cet objectif, nous allons mettre en place un data warehouse, qui jouera un rôle essentiel dans
notre solution de business intelligence. Le data warehouse aura pour utilité de collecter, stocker et
organiser de manière structurée toutes les données pertinentes du secteur "Pôle Lait". Ces données
seront stockées de manière à faciliter leur accès et leur utilisation ultérieure lors des analyses et des
prises de décision.
La synthèse des travaux réalisés tout au long du projet de fin d’études feront l’objet de ce rapport
qui s’articule autour de six chapitres :
• Le premier chapitre, intitulé "Contexte de projet", consiste à présenter les Groupes Délice
et les trois sociétés du secteur Pôle Lait ainsi qu’une présentation du projet en termes de
problématique et solution envisagée et une élaboration du choix de la démarche à suivre tout
au long du projet.
• Le second chapitre, intitulé "Planification du projet et Spécification des besoins", porte sur la
planification et la spécification des besoins de notre projet.
• Le troisième chapitre, intitulé "Environnement technique", est réservé pour l’architecture tech-
nique de notre système ainsi que les outils avec lesquels nous avons élaboré le projet.
1
Introduction générale
2
CHAPITRE 1
Contexte de projet
1.1 Introduction
Dans ce premier chapitre, Nous allons présenter l’environnement du groupe délice (Pôle Lait), ses
sociétés, ses activités, ses produits ainsi que ses secteurs d’activités. Ensuite, Nous allons présenter
le sujet du travail et clarifié les problèmes rencontrés au sein des entreprises CLN, CLC, CLSB du
Groupe Délice. Enfin, nous adopterons la solution et la méthodologie choisie.
3
Chapitre 1. Contexte de projet
4
Chapitre 1. Contexte de projet
• Productions,
• Vente du lait,
Notre solution est particulièrement orientée aux directions de production et de qualité de CLN,
CLC, CLSB.
5
Chapitre 1. Contexte de projet
• Réception lait : Permet la saisie des réceptions du lait cru ainsi que les différentes informations
sur les opérations de dépotage et des nettoyages.
• Laboratoire : Ce module permet l’enregistrement des analyses durant toutes les phases de
production.
• Process (ou Salle de contrôle) : Permet l’enregistrement des informations des tous les flux
durant le cycle de production.
1.4.3 Problématique
Suite à l’étude de l’existant effectuée au cours du stage, nous avons constaté les points suivants :
• L’utilisation d’outils classiques tels que (Microsoft Excel, etc.) pour la restitution des données
et la présentation des chiffres au comité de suivi, ainsi que pour le calcul des KPIs ,
• Absence des Dashboard contenant des KPIs qui facilite la prise des décisions d’une façon plus
rapide et qui permet d’agir à temps réelle en cas de besoin,
• Absence d’une version portable pour pouvoir accéder depuis n’importe quel périphérique.
6
Chapitre 1. Contexte de projet
• Intégrer ces données dans un entrepôt de données Data Warehouse (DWH) en effectuant les
opérations d’extraction, de transformation et de chargement,
• Fournir une visualisation claire qui comprend les informations nécessaires qui peuvent les servir
à prendre de bonnes décisions.
7
Chapitre 1. Contexte de projet
8
Chapitre 1. Contexte de projet
Le Tableau 1.1 montre que la méthode de Bill Inmon est centrée sur l’entrepôt de données et
adopte une approche top-down et centralisée, tandis que celle de Ralph Kimball est centrée sur les
besoins de l’utilisateur final et adopte une approche bottom-up et décentralisée, en se concentrant
sur les data marts. Les deux approches ont leurs avantages et leurs inconvénients, et le choix de la
méthode dépendra des besoins spécifiques de l’entreprise ou de l’utilisateur final.
Les différentes phases de cette méthodologie comme le montre la figure 1.5 sont :
✦ Planification du projet
La planification aborde la définition et l’étendue du projet de l’entrepôt, y compris l’appréciation
du niveau de maturité de l’organisation face à ce type d’approche. Elle se concentre essentiellement
sur les besoins en termes de ressources et de niveau de qualification, couplés aux affectations des
tâches, ainsi qu’à leurs durées et à leur séquencement.
9
Chapitre 1. Contexte de projet
✦ Modélisation dimensionnelle
C’est la définition des besoins qui détermine quelles sont les données requises pour répondre aux
besoins d’analyse des utilisateurs. Le résultat de cette analyse n’est autre que le modèle dimension-
nel. Celui-ci identifie la granularité de la table de faits, les dimensions associées avec leurs attributs
ainsi que leurs hiérarchisations.
✦ Déploiement
Le déploiement est le point de convergence de la technologie, des données et des applications
utilisateurs. Une planification est indispensable pour gérer le déploiement qui comprend également la
formation des utilisateurs, les processus de communication, le support utilisateur, la prise en compte
des demandes d’évolution et de correction.
✦ Maintenance et croissance
Après le déploiement initial de l’entrepôt, c’est sa vie qui commence. Il faut s’assurer que les
processus mis en place pour la gestion de la zone de construction vont faire fonctionner l’entrepôt
efficacement en continu. Il est également important de mesurer périodiquement les performances
de l’entrepôt et de son acceptation dans l’entreprise. L’entrepôt en question va, en conséquence,
évoluer et croître.
✦ Gestion du projet
La gestion du projet garantit que les activités du cycle de vie restent sur la bonne voie et qu’elles
soient bien synchronisées. Cela consiste à contrôler l’état d’avancement du projet, ladétection et la
résolution des problèmes, ainsi que le contrôle des changements afin de garantir l’accès aux objectifs
du projet.
➢ Notre choix s’est porté sur le cycle de vie dimensionnel proposé par Ralph Kimball vu que :
10
Chapitre 1. Contexte de projet
1.6 Conclusion
L’entreprise d’accueil CLN et les deux autres Sociétés CLC, CLSB ont été amplement présentées
dans ce chapitre au sein duquel le contexte général et l’objectif du projet ont été introduits, pour
ensuite définir sa conduite explicitant la méthodologie de développement adoptée suivie, ainsi que
la planification des tâches tout au long de la période de notre stage.
11
CHAPITRE 2
2.1 Introduction
Dans ce chapitre, nous allons nous concentrer sur les deux phases de la démarche de Kimball :
la planification du projet et la définition des besoins de l’entreprise. Nous entamons dans un premier
lieu la planification de notre projet. Ensuite, nous allons présenter les différents besoins fonctionnels
et non fonctionnels ainsi que les acteurs clés de notre solution avec les différents cas d’utilisation
pour garantir le bon acheminement du projet.
Comme le montre la Figure 2.1, nous allons entamer les phases de début du cycle de vie dimen-
sionnel.
12
Chapitre 2. Planification du projet et Spécification des besoins
La Figure 2.3 représente les taches effectuées tout le long de notre stage avec les dates de début
et de fin de chacune.
13
Chapitre 2. Planification du projet et Spécification des besoins
Besoins Fonctionnalités
Analyse des fournisseurs • déterminer les tops et les last five four-
nisseur par société ;
14
Chapitre 2. Planification du projet et Spécification des besoins
• L’ergonomie : Les tableaux de bords développés doivent présenter des interfaces pratiques
qui offrent une visualisation simple et rapide des informations. Les interfaces doivent être
conviviales avec une densité d’éléments sur les écrans convenablement étudiée ainsi qu’un bon
choix de couleurs.
• Le décideur : C’est celui qui exige des fonctionnalités et énonce des besoins. Il va consulter
le TB avec une authentification implicite ;
• L’administrateur : C’est celui qui, après authentification, s’occupe du système. Il est chargé
de la gestion du tableau de bord, de l’ETL et du cube OLAP .
15
Chapitre 2. Planification du projet et Spécification des besoins
Nous allons présenter dans le Tableau 2.2 la description détaillée des différents cas d’utilisation.
2.5 Conclusion
À l’issue de ce chapitre, nous avons déterminé les besoins fonctionnels et non fonctionnels du
projet. Nous avons cité également les acteurs clés du système. Ce chapitre a présenté la conception
détaillée qui a pour objectif de documenter précisément les tables de faits et les tables des dimensions
de la solution finale.
16
CHAPITRE 3
Environnement technique
3.1 Introduction
Après avoir spécifié les besoins de notre application, nous allons entamer maintenant la phase
qui concerne l’environnement technique qui constitue l’une des étapes les plus importantes du cycle
de vie du projet décisionnel. En se basant sur le cycle de vie dimensionnel de Ralph Kimball, nous
nous concentrons durant ce chapitre sur la définition de l’architecture technique et sur la sélection
et l’installation des produits.
Comme illustré dans la Figure 3.1, nous présentons l’environnement technique de notre solution
suivant le cycle de vie dimensionnel.
17
Chapitre 3. Environnement technique
• Base de données
Une base de données est un ensemble d’informations organisées en tableaux constitués de
lignes et de colonnes. Il existe plusieurs types de bases de données :
Entrepôt - Les informations collectées à partir de plusieurs sources et utilisées pour l’interro-
gation sont stockées dans un entrepôt.
Transactionnel - Avec une base de données transactionnelle, l’entrée est organisée par date ou
horodatage. Par conséquent, ces bases de données peuvent annuler ou annuler une opération
si une transaction échoue.
18
Chapitre 3. Environnement technique
• Fichiers plats
L’entrée stockée dans des fichiers plats n’est pas relationnelle de la même manière qu’une base
de données. Il est généralement stocké sous forme de texte ou binaire qui peut être extrait par
des algorithmes d’analyse.
• Extraction de données : Les données sont extraites de sources de données multiples, souvent
hétérogènes, telles que des fichiers, des bases de données, des services web. Comme notre
étape, nous allons extraire les données à partir d’une base de données.
• Transformation de données : Les données sont transformées et nettoyées pour garantir leur
qualité, cohérence et normalisation. Cette étape peut inclure le filtrage, le tri, le regroupement,
la conversion de formats, la fusion, la suppression des doublons, la normalisation.
• Chargement de données : Les données transformées sont chargées dans une base de données
de destination, souvent un entrepôt de données.
19
Chapitre 3. Environnement technique
• Orientées sujet : Ce qui signifie que les données doivent être classées par sujets par exemple
vente, production, etc.
• Intégrées : Le Data Warehouse doit être en mesure d’assembler des données provenant de
différentes sources dans un format cohérent.
• Non volatiles (statiques) : Cela signifie que les données qui entrent dans le Data Warehouse
ne doivent pas être modifiées. L’utilisateur est ainsi en mesure d’analyser les données telles
qu’elles ont été stockées dans le Data Warehouse.
• Historiés : Cela signifie que les données sont liées à une période définie.
• Pour les entreprises : peuvent améliorer leurs opérations et leur efficience, et ainsi augmenter
leurs revenus et leurs bénéfices.[10]
Le data mart utilisé en informatique décisionnelle, il est extrait de systèmes sources puis nettoyé
et mis à disposition des utilisateurs d’un domaine spécifique de l’entreprise, ou d’un groupe restreint
d’utilisateurs.
20
Chapitre 3. Environnement technique
21
Chapitre 3. Environnement technique
OLTP OLAP
C’est un système transactionnel
C’est un système de récupération
en ligne qui sert à effectuer des
Définition de données et d’analyse de don-
modifications dans une base de
nées en ligne.
données.
Objectif Le traitement des donnée. L’analyse des donnée.
OLTP et ses transactions consti- Différentes bases de données
Les données tuent la source originale de don- OLTP deviennent la source de
nées. données pour OLAP.
La base de données OLAP n’est
La base de données OLTP doit
pas fréquemment modifiée. Par
Intégrité maintenir la contrainte d’intégrité
conséquent, l’intégrité des don-
des données.
nées n’est pas affectée.
Grand nombre de transactions
Caractéristique Grand nombre de données.
courtes.
Opération Lecture/écriture. Lecture.
Requêtes Des requêtes plus simples. Des Requêtes plus complexes.
Utilisateurs L’agent opérationnel. Les analystes et les décideurs .
22
Chapitre 3. Environnement technique
23
Chapitre 3. Environnement technique
Il est clairement visible que SSIS foncitonne mieux que Talend sur certaines transformations
simples. Mais cela ne signifie que SSIS surclassera Talend dans tous les domaines. Nous pouvons
affirmer que ces deux outils ont leurs propres avantages et inconvénients et qu’en fonction de nos
besoins, nous avons choisi de travailler avec SSIS.
24
Chapitre 3. Environnement technique
Tableau, Power BI et QlikView sont des outils de Business Intelligence tout puissants. Chacun
d’eux excelle dans certains paramétres. Les capacités de glisser-déposer ainsi que les connexions de
données sécurisées font de tableau un précurseur sur le marché.
Les points forts de Qlik incluent les capacités du moteur en mémoire de visualisation des modéles.
La création des tableaux de bord via Power BI peut être partagée entre les équipes et accessible sur
n’importe quel appareil. Globalement, Power BI apparaît comme l’outil concurrent parmi les trois
outils.
25
Chapitre 3. Environnement technique
SQL Server est un outil qui posséde toutes les caractéristiques pour pouvoir accompagner l’uti-
lisateur dans la manipulation, le contrôle, le tri, la mise à jour et bien d’autres actions de bases de
données grâce au langage SQL.
Les avantages de SQL Server sont les suivants :
• SQL Server intégre par défaut des outils de gestion, d’administraion et de développement de
bases de données.
• Déploiement par un setup, mise en oeuvre et administration par des interfaces graphiques
intuitives.
SSMS est un moteur de base de données relationnelles, crée par Microsoft, qui permet de créer,
d’administrer des bases de données de n’importe quelle taille, de stocker et de manipuler des données
structurées sur un serveur et d’y accéder avec n’importe quel langage de programmation.
Il offre à la fois une interface conviviale et un panel d’outil pour mettre en oeuvre et administrer
les bases de données et les serveurs.
26
Chapitre 3. Environnement technique
C’est un environnement de développement intégré qui facilite les tâche de création, débogage et
déploiement d’applications faisant appel à plusieurs langages.
Comme son nom l’indique, SSIS est un outil d’intégration des différentes données nécessaires
à l’outil décisionnel. Son principal objectif est de faire ETL(Extract-Transform-Load) tout en ayant
une gestion des différentes erreurs.
Comme son nom l’indique, SSAS est un outil de traitement analytique en ligne (OLAP) et
d’exploration de données dans Microsoft SQL Server et permettant de créer des cubes OLAP pouvant
être exploités par différents outils de forage, d’exploration de données et de tableaux de bord.
SSAS fournit deux types de modèles analytiques : multidimensionnel et tabulaire. Les cubes
multidimensionnels se déploient en local (on premise), contrairement aux modèles tabulaires qui se
traitent localement et aussi dans les services en ligne (SaaS - Software as a Service) Azure et Power
BI.
27
Chapitre 3. Environnement technique
Power BI est un outil qui créé et commercialisé par Microsoft et qui est définit comme étant un
outil décisionnel de visualisation interactive des données.
Il se traduit en un ensemble de 3 outils majeurs :
3.4 Conclusion
Durant ce chapitre, nous avons présenté les outils de développement qui ont contribué à la
réalisation de notre projet, nous avons aussi présenté l’architecture en spécifiant les tâches effectuées
là-dessus. Cette architecture est la base sur laquelle nous allons réaliser la conception du système.
28
CHAPITRE 4
4.1 Introduction
Dans le chapitre précédent, nous avons défini l’architecture technique ainsi que les outils utilisés
pour effectuer ce travail. Prenant en considération ces éléments comme point de départ, nous allons
nous concentrer durant ce chapitre sur la source de données et la modélisation dimensionnelle et
la conception du modèle physique en se basant sur le cycle de vie dimensionnel de Ralph Kimball
comme le montre la Figure 4.1.
29
Chapitre 4. Préparation des données et Modélisation
Table Description
Décrit les différentes analyses fournisseurs à
Table Réception
la réception.
Table Fournisseur Décrit la liste des fournisseurs.
Décrit les différentes analyses de lait dans les
Table Analyseprocess
Tanks.
Table Tank Décrit la liste des tanks.
Décrit les différentes analyses de lait dans les
Table Analysepf
produits finis.
Table Produitpf Décrit la liste des produits.
Table Societe Décrit la liste des sociétiés.
Table Client Décrit la liste des clients.
Table Réclamation Décrit la liste des réclamations.
Table Région Décrit la liste des régions.
Table Produitrcl Décrit la liste des produits .
• Fournisseur et Réception
Un fournisseur peut avoir une ou plusieurs réceptions.
• Produitpf et Analysepf
Un produit fini peut avoir une ou plusieurs analyses produit fini.
30
Chapitre 4. Préparation des données et Modélisation
• Societe ,Produitrcl
Une société peut être associée à plusieurs produits , mais un produit ne peut être associé qu’à
une seule société.
• Région et Client
Une région peut inclure une ou plusieurs clients.
• Client et Réclamation
Un client peut avoir plusieurs réclamations, mais une réclamation ne peut être liée qu’à un
seul client.
• Réclamation et Produitrcl
Un Produitrcl peut avoir plusieurs réclamations, mais une réclamation ne peut être liée qu’à
un seul produit.
31
Chapitre 4. Préparation des données et Modélisation
ces deux composants doivent être élaborés c’est que l’utilisation directe des sources de données pose
des problèmes liés au fonctionnement et à la qualité du service exigé, ainsi qu’au temps de réponse
des requêtes, causé par des modèles normalisés qui ne répondent pas au besoin évolutif. Dans ce
cadre Ralph Kimball a travaillé sur la modélisation avancée qui assure le pilotage d’une entreprise.
Dans notre cas nous intéressons à l’approche "Buttom-Up" de Mr. Ralph.
La modélisation dimensionnelle est une méthode de conception logique qui vise à présenter les
données sous une forme standardisée intuitive et qui permet des accès hautement performants.
32
Chapitre 4. Préparation des données et Modélisation
Exemple :
Le fait à la Figure 4.4 peut être analysé suivant différentes perspectives correspondant à trois
dimensions : temps, produit et magasin.
✦Concept hiérarchie :
Une hiérarchie organise les paramètres d’une dimension selon une relation "est-plus-fin" confor-
mément à leur niveau de détail.
Par exemple, pour la dimension “ Géographie ”, ces paramètres sont organisés suivant l’hiérarchie
suivante : (Ville , Région , pays). La hiérarchie sert lors des analyses pour restreindre ou accroître
les niveaux de détail de l’analyse.
Table 4.2 – Tableau comparatif entre les tables de faits et les tables des dimensions
33
Chapitre 4. Préparation des données et Modélisation
• La lisibilité : La finalité de ce modèle est très évidente et définit clairement les indicateurs
d’analyse.
34
Chapitre 4. Préparation des données et Modélisation
35
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
iddate La clé primaire de dimension temps.
jours Les jours où l’analyse a été effectuée.
mois Les mois pendant lesquels l’analyse a été réalisée.
année Les années de réalisation de l’analyse.
36
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idfournisseur La clé primaire de dimension fournisseur.
nomfournisseur Les noms du fournisseur.
Désignation Détails
idsociete La clé primaire de dimension société.
nomsociete Les noms du société.
adresse Les adresses du société.
telephone Les téléphones du société.
Mesure Détails
Quantite La quantité de lait pour chacun des fournisseurs.
densite La moyenne de la densité du lait provenant du fournisseur.
37
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idanalysefrs La clé primaire de table des faits.
idsociete La clé étrangére de la dimension société .
idfournisseur La clé étrangére de la dimension fournisseur .
iddate La clé étrangére de la dimension date .
Quantité Mesure.
densite Mesure.
etat Mesure.
causerefus Mesure.
38
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idtank La clé primaire de dimension tank .
nomtank Les noms du tank.
39
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idsociete La clé primaire de dimension société.
nomsociete Les noms du société.
adresse Les adresses du société.
telephone Les téléphones du société.
40
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
iddate La clé primaire de dimension temps.
jours Les jours où l’analyse a été effectuée.
mois Les mois pendant lesquels l’analyse a été réalisée.
année Les années de réalisation de l’analyse.
Mesure Détails
acidite La moyenne de l’acidité du lait dans les tanks.
densite La moyenne de la densité du lait dans les tanks.
mg La moyenne de la matière grasse du lait dans les tanks.
PH La moyenne de PH du lait dans les tanks .
proteine La moyenne des protéines du lait dans les tanks.
nivstabilite La moyenne du niveau de stabilité du lait dans les tanks.
41
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idanalyseprocess La clé primaire de table des faits.
idsociete La clé étrangére de la dimension société .
idtank La clé étrangére de la dimension tank .
iddate La clé étrangére de la dimension date .
acidite Mesure.
densite Mesure.
mg Mesure.
proteine Mesure.
nivstabilite Mesure.
42
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idproduit La clé primaire de dimension produit.
nomproduit Les noms du produit fini.
43
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idsociete La clé primaire de dimension société.
nomsociete Les noms du société.
adresse Les adresses du société.
telephone Les téléphones du société.
Désignation Détails
iddate La clé primaire de dimension temps.
jours Les jours où l’analyse a été effectuée.
mois Les mois pendant lesquels l’analyse a été réalisée.
année Les années de réalisation de l’analyse.
44
Chapitre 4. Préparation des données et Modélisation
Mesure Détails
acidite La moyenne de l’acidité du lait dans les produits finis.
densite La moyenne de la densité du lait dans produits finis.
mg La moyenne de la matière grasse du lait dans produits finis.
PH La moyenne de PH du lait dans les produits finis .
visa Les conformités du lait dans les produits finis.
La Moyenne du niveau de stabilité du lait dans les produits
nivstabilite
finis.
Désignation Détails
idanalyseprocess La clé primaire de table des faits.
idsociete La clé étrangére de la dimension société .
idtank La clé étrangére de la dimension tank .
iddate La clé étrangére de la dimension date .
acidite Mesure.
45
Chapitre 4. Préparation des données et Modélisation
densite Mesure.
mg Mesure.
visa Mesure.
nivstabilite Mesure.
46
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idclient La clé primaire de dimension client.
nomclient Les noms du client.
Désignation Détails
idproduit La clé primaire de dimension produit.
nomproduit Les noms du produit fini.
47
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idrégion La clé primaire de dimension région.
nomrégion Les noms du région.
Désignation Détails
idsociete La clé primaire de dimension société.
nomsociete Les noms du société.
adresse Les adresses du société.
telephone Les téléphones du société.
48
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
iddate La clé primaire de dimension temps.
jours Les jours où l’analyse a été effectuée.
mois Les mois pendant lesquels l’analyse a été réalisée.
année Les années de réalisation de l’analyse.
Mesure Détails
nbr récalamation Le nombre de réclamations.
Les causes de réclamations(Microbio, Embalage,
cause réclamation
Texture, Santé, Proposition, Appréciation).
49
Chapitre 4. Préparation des données et Modélisation
Désignation Détails
idréclamation La clé primaire de table des faits.
idsociete La clé étrangére de la dimension société .
idproduit La clé étrangére de la dimension produit .
iddate La clé étrangére de la dimension date .
idrégion La clé étrangére de la dimension région .
idclient La clé étrangére de la dimension client .
nbr réclamation Mesure.
Cause réclamation Mesure.
50
Chapitre 4. Préparation des données et Modélisation
4.5 Conclusion
Dans ce chapitre, nous avons présentée notre source de données et la conception de la base
de données, par la suite nous avons entamé la partie modélisation multidimensionnelle afin de bien
identifier les grandes lignes de notre solution. Enfin, nous avons présentée la phase de conception
du modèle physique. Dans le prochain chapitre, nous allons voir le développement ETL ainsi que sa
réalisation pour que nous puissions créer les cubes OLAP et faire les analyses.
51
CHAPITRE 5
5.1 Introduction
Dans ce chapitre nous allons présenter la phase de conception et de développement de la zone
de préparation des données et la création des cubes OLAP ainsi que la phase de déploiement et de
planification de cette zone en se basant sur le cycle de vie dimensionnel de Ralph Kimball comme
le montre la Figure 5.1.
52
Chapitre 5. Intégration et Analyse des données
Le projet Integration Services est composé de plusieurs Packages, qui à leurs tours sont composés
des Flux de contrôle et des Flux de données : Dans SSIS, l’onglet Flux de contrôle permet de gérer
les tâches nécessaires aux transformations et les éléments de contrôle que le package va exécuter. Au
niveau de l’onglet Flux de données, s’effectue la sélection des données sources, les transformations
qu’elles vont subir, et la précision de leurs destinations. Le schéma dans la Figure 5.3 clarifie la
composition d’un package simple.
53
Chapitre 5. Intégration et Analyse des données
54
Chapitre 5. Intégration et Analyse des données
La Figure 5.6 présente les trois bases de données ainsi que l’entrepôt de données.
55
Chapitre 5. Intégration et Analyse des données
Les Figures 5.7, 5.8 et 5.9 illustrent les tables des sources de données utilisées pour la phase
d’extraction .
56
Chapitre 5. Intégration et Analyse des données
Dans cette Figure 5.10, nous avons extrait l’attribut date de la table Réception.
57
Chapitre 5. Intégration et Analyse des données
La première transformation que nous avons réalisée consiste à combiner plusieurs entrées dans
un seul output avec l’éditeur de transformation "Union ALL" .
Les Figures 5.12, 5.13 et 5.14 illustrent la première transformation appliquée aux tables Societe,
Fournisseur et Réception, ainsi qu’aux attributs de dates de trois bases de données différentes, qui
sont combinées en une seule destination.
58
Chapitre 5. Intégration et Analyse des données
59
Chapitre 5. Intégration et Analyse des données
La deuxiéme transformation que nous avons réalisée consiste à créer de nouvelles valeurs de
colonne en appliquant des expressions aux colonnes d’entrée de transformation ou en remplaçant les
données d’une colonne existante avec l’éditeur de transformation "Colonne dérivée".
La Figure 5.16 montre la deuxiéme transformation appliquée sur l’attribut date, on a ajou-
tée des nouvelles colonnes "jour", mois", "annee" et les transformée avec des fonctions "DAY",
"MONTH", "YEAR".
60
Chapitre 5. Intégration et Analyse des données
La Figure 5.17 illustre la première transformation effectuée sur les attributs de date de trois bases
de données différentes, qui sont fusionnées en une seule table avec l’ajout de nouvelles colonnes.
La Figure 5.18 présente la deuxième transformation effectuée sur la table Réception, qui consiste
à remplacer les valeurs "Accepté" et "Réfusé" de la colonne "état" respectivement par "1" et "0",
à l’aide de l’outil de script intégré nommé "Expression Builder".
61
Chapitre 5. Intégration et Analyse des données
Les Figures 5.19, 5.20 et 5.21 illustrent le processus de mapping entre les colonnes des sources
de données et les colonnes de la table de destination.
62
Chapitre 5. Intégration et Analyse des données
63
Chapitre 5. Intégration et Analyse des données
Nous allons maintenant vider les dimensions. À chaque rafraîchissement, nous éliminons les
anciennes valeurs et les remplaçons par des valeurs à jour afin de les intégrer à l’entrepôt de données.
Cette approche permet d’éviter les doublons et les incohérences dans les données de la table de
dimension.
Nous avons utilisé l’éditeur de tâches "Execute SQL TASK" pour créer des requêtes SQL.
Les Figures 5.23, 5.24 et 5.25 présentent les requêtes SQL que nous avons utilisées pour chaque
table de dimension.
64
Chapitre 5. Intégration et Analyse des données
65
Chapitre 5. Intégration et Analyse des données
Les prochaines étapes consistent à effectuer le chargement des dimensions, comme présenté dans
les Figures 5.26, 5.27, 5.28 :
66
Chapitre 5. Intégration et Analyse des données
67
Chapitre 5. Intégration et Analyse des données
Une fois toutes les dimensions chargées dans l’entrepôt de données, il est nécessaire d’ajouter
des clés de substitution à chaque dimension afin d’assurer l’unicité de chaque ligne de ces dernières.
Le chargement de la table des faits s’est fait à partir de la table Réception. Ensuite, nous avons
procédé au mappage entre les dimensions et la table de faits pour les lier, comme indiqué dans la
Figure 5.29.
Les Figures 5.30, 5.31 et 5.32 montrent l’interface de la phase ETL de chaque dimension.
68
Chapitre 5. Intégration et Analyse des données
69
Chapitre 5. Intégration et Analyse des données
Une fois toutes les dimensions chargées dans l’entrepôt de données, il est nécessaire d’ajouter
des clés de substitution à chaque dimension afin d’assurer l’unicité de chaque ligne de ces dernières.
Le chargement de la table des faits s’est fait à partir de la table Analyseprocess. Ensuite, nous
avons procédé au mappage entre les dimensions et la table de faits pour les lier, comme indiqué
dans la Figure 5.33.
70
Chapitre 5. Intégration et Analyse des données
Les Figures 5.34, 5.35 et 5.36 montrent l’interface de la phase ETL de chaque dimension.
71
Chapitre 5. Intégration et Analyse des données
72
Chapitre 5. Intégration et Analyse des données
Une fois toutes les dimensions chargées dans l’entrepôt de données, il est nécessaire d’ajouter
des clés de substitution à chaque dimension afin d’assurer l’unicité de chaque ligne de ces dernières.
Le chargement de la table des faits s’est fait à partir de la table Analysepf. Ensuite, nous avons
procédé au mappage entre les dimensions et la table de faits pour les lier, comme indiqué dans la
Figure 5.37.
73
Chapitre 5. Intégration et Analyse des données
Les Figures 5.38, 5.39, 5.40 et 5.41 montrent l’interface de la phase ETL de chaque dimension.
74
Chapitre 5. Intégration et Analyse des données
75
Chapitre 5. Intégration et Analyse des données
76
Chapitre 5. Intégration et Analyse des données
Une fois toutes les dimensions chargées dans l’entrepôt de données, il est nécessaire d’ajouter
des clés de substitution à chaque dimension afin d’assurer l’unicité de chaque ligne de ces dernières.
Le chargement de la table des faits s’est fait à partir de la table Réclamtion. Ensuite, nous avons
procédé au mappage entre les dimensions et la table de faits pour les lier, comme indiqué dans la
Figure 5.42.
La Figure 5.43 résume les résultats du chargement des données, en particulier les données de table
de fait. Pour réaliser cet affichage, une requête SQL a été utilisée.
77
Chapitre 5. Intégration et Analyse des données
Dans la première étape, nous avons exécuté une requête SQL pour activer la fonctionnalité de
Change Data Capture (CDC) sur les trois bases de données sources dans SQL Server, comme le
montre la Figure 5.44.
Dans la deuxième étape, nous avons exécuté une requête SQL pour activer la fonctionnalité
de Change Data Capture (CDC) sur les tables de la base de données dans SQL Server, comme le
montre la Figure 5.45.
Après avoir activé le CDC dans SQL Server, nous avons procédé à la création de la "tâche de
contrôle CDC" dans SSIS. Cette tâche particulière permet de gérer les opérations associées au CDC
au sein d’un package SSIS. Elle offre des fonctionnalités pour contrôler le processus de CDC, no-
tamment l’initialisation, l’activation, la désactivation et la vérification des instances de capture CDC.
Dans la Figure 5.46, montre l’éditeur de tâche de contrôle CDC (Change Data Capture).
78
Chapitre 5. Intégration et Analyse des données
Dans la Figure 5.47, nous avons présenté les fonctionnalités intégrées disponibles dans l’éditeur
de tâche de contrôle CDC, comme suit :
• SQL Server CDC database ADO.NET connection managers : nous avons utilisé un
gestionnaire de connexion ADO.NET pour la base de données source du SQL Server CDC
"CLC". Cela nous a permis d’établir une connexion à la base de données "CLC" et d’accéder
aux données de CDC pour effectuer les opérations requises dans notre flux de travail SSIS.
• CDC Control operation : sont des actions spécifiques effectuées sur les tables ou les bases
de données activées pour le Change Data Capture (CDC) dans SQL Server. Elles ont pour
but de gérer et de contrôler le processus de CDC. Nous avons opté pour l’opération "Get
Processing Range" afin d’obtenir la plage de modifications à traiter de chaque table de base
de données.
• Variable containing the CDC state : Nous avons créé une variable appelée "CDC_State"
pour stocker et gérer l’état actuel du Change Data Capture (CDC) d’une table ou d’une base
de données. Elle nous permet de garder une trace de l’état du CDC tout au long du processus.
• Table to use for storing state : Nous avons créé une table appelée "cdc_states" pour
stocker l’état du CDC (Change Data Capture), telles que les dernières modifications traitées,
les dates de début et de fin.
• State_name : représente la variable "CDC_State" qui stocke l’état actuel du processus CDC,
tel que l’étape de traitement en cours, le dernier point de contrôle atteint.
79
Chapitre 5. Intégration et Analyse des données
80
Chapitre 5. Intégration et Analyse des données
La première étape consiste à créer une connexion vers le data warehouse créé précédemment.
La seconde étape se résume par la création d’une vue de sources de données afin de créer des
objets multidimensionnels dans le but d’exploiter ces même sources.
81
Chapitre 5. Intégration et Analyse des données
Dans cette étape, nous allons sélectionner les tables pour créer la vue de data source.
82
Chapitre 5. Intégration et Analyse des données
Finalement, on passe à la création du cube qui va être constitué d’une base de fait appelée
’Cube_Analyse_Process’ et quatre dimensions qui reflètent les axes sur lesquels on désire effectuer
une analyse.
83
Chapitre 5. Intégration et Analyse des données
84
Chapitre 5. Intégration et Analyse des données
La Figure 5.55 représente le cube nommé « Cube_Analyse_Process », qui est composé de trois
dimensions (Societe, Temps, Fournisseur) et inclut cinq mesures (acidite, mg, densite, pH, protéine,
et nivstabilite).
85
Chapitre 5. Intégration et Analyse des données
86
Chapitre 5. Intégration et Analyse des données
Une fois que le cube a été créé, il est temps de passer à l’étape suivante qui consiste à sélectionner
les champs des dimensions nécessaires pour réaliser notre analyse et créer les hiérarchies requises.
La Figure 5.58 montre la dimension société avant la sélection des champs nécessaires.
87
Chapitre 5. Intégration et Analyse des données
La Figure 5.59 montre la dimension société aprés la sélection des champs nécessaires.
88
Chapitre 5. Intégration et Analyse des données
5.4 Déploiement
Et finalement, déployer le projet pour pouvoir le connecter avec Power BI afin de réaliser les
analyses.
La Figure 5.62 résume les résultats du chargement du cube, et cet affichage a été réalisé à l’aide
d’une requête MDX(Multidimensional Expressions).
5.5 Conclusion
Au cours de ce chapitre, nous avons réalisé le processus ETL et créé des cubes multidimensionnels.
Ensuite, nous avons présenté la phase de déploiement de nos cubes. Dans le prochain chapitre, nous
allons aborder la partie de restitution, notamment le reporting et les tableaux de bord.
89
CHAPITRE 6
6.1 Introduction
L’étape de réalisation est celle qui résume le travail effectué lors du chargement de notre entrepôt
de données. Ce chapitre se base sur le modèle déjà généré suivant le cycle de vie dimensionnel de
Ralph Kimball illustré dans la Figure 6.1. Nous entamerons donc dans ce qui suit la spécification et
le développement de l’application utilisateur.
Dans ce chapitre, nous allons voir la phase de restitution de notre projet. Nous allons présenter
tout ce que nous avons fait sous forme des tableaux de bord et des rapports dynamiques.
90
Chapitre 6. Restitution des données
91
Chapitre 6. Restitution des données
• carte : Les cartes à un seul numéro montrent un seul fait, un seul point de données.
• Segments : Les segments sont fournis dans différents formats (catégorie, plage, date) et
peuvent être mis en forme pour permettre la sélection d’une, de plusieurs ou de toutes les
valeurs disponibles.
• ChicletSlicer : Affiche des boutons représentant une image ou du texte qui font office de
filtres dans la zone de dessin sur d’autres visuels.
• Graphiques en secteurs : Ils montrent la relation des parties par rapport à un tout.
• Graphiques en anneau : Les graphiques en anneau sont similaires aux graphiques en secteurs.
Ils affichent la relation de parties par rapport à un tout. La seule différence est que le centre
est vide et qu’il y a de la place pour une étiquette ou une icône.
• Histogramme empilé : L’histogramme empilé 100% est un visuel qui présente la valeur de
la mesure antérieure et postérieure, en fonction de la colonne sélectionnée, sous la forme d’un
histogramme empilé 100%.
92
Chapitre 6. Restitution des données
La Figure 6.5 présente la page d’accueil qui expose les diverses fonctionnalités offertes par notre
solution. À travers cette étape, nous pouvons observer la navigation entre les pages du tableau de
bord à l’aide de boutons ("Analyse Fournisseur", "Analyse Process", "Analyse Produit fini", "Analyse
Réclamation".
Nous allons d’abord cliquer sur le bouton "Analyse Fournisseur" qui nous dirigera vers notre
premier tableau de bord, comme illustré dans les figures suivantes.
La Figure 6.6 présente le "Dashboard Qualité", qui permet de comparer la quantité totale et la
densité (PQ) (doit être supérieure ou égale à 1.028) des cinq premiers fournisseurs en fonction des
années, mois et jours, pour trois sociétés (CLC, CLN, CLSB).
93
Chapitre 6. Restitution des données
La Figure 6.7 fournit une explication des éléments interactifs présents dans le "Dashboard Qua-
lité", qui permettent à l’utilisateur de participer activement à l’exploration et à l’analyse des données.
Ces éléments comprennent des fonctionnalités telles que des boutons, des listes déroulantes et des
graphes, qui sont présentés comme suit :
2. Un graphe appelé "Chicklet Slicer" permet de filtrer les analyses de chaque société de manière
individuelle. Il est possible de sélectionner les sociétés à travers une série de boutons cliquables
pour afficher les analyses correspondantes.
3. Deux bouton, l’un pour revenir à la page précédente et l’autre pour accéder à la page suivante.
4. On peut sélectionner les périodes correspondant à l’analyse en utilisant trois listes déroulantes
(segments) qui permettent de choisir les jours, les mois et les années.
5. Une légende permet d’identifier les deux conditions représentées par les barres du graphique
dans un histogramme. Voir la Figure 6.8
6. On a ajouté un filtre à ce graphique qui permet de sélectionner les cinq principaux fournisseurs
en fonction de la quantité ainsi que les fournisseurs acceptés. Voir la Figure 6.9
La Figure 6.8 présente la syntaxe de la colonne conditionnelle en langage M dans Power BI.
94
Chapitre 6. Restitution des données
Le graphique présenté dans la Figure 6.9 est filtré pour afficher les cinq principaux fournisseurs.
La Figure 6.10 présente le "Dashboard Qualité", qui permet de comparer la quantité totale et la
densité du lait (doit être supérieure ou égale à 1.028) des cinq derniers fournisseurs en fonction des
années, mois et jours, pour trois sociétés (CLC, CLN, CLSB).
95
Chapitre 6. Restitution des données
La Figure 6.11 montre le "Dashboard Qualité", qui permet de visualiser le nombre et les causes
de refus pour les fournisseurs ayant été rejetés chaque année, mois et jour pour trois sociétés(CLC,
CLN, CLSB). Les raisons de refus sont classées en pourcentages et incluent une faible densité, une
teneur en alcool élevée, un mouillage excessif, une teneur élevée en formol, une teneur élevée en
amidon, une faible acidité, un faible pH, un pH élevé et une acidité élevée.
Le "Dashboard Qualité" représenté dans la Figure 6.12 offre une vue sur l’analyse de la teneur en
matière grasse (30 ou plus), de l’acidité (15 ou plus) et de la densité (1,028 ou plus) du lait contenu
dans les tanks, pour des périodes allant de jours à des années. Il permet également de comparer
cette analyse entre les trois sociétés (CLC, CLN, CLSB).
96
Chapitre 6. Restitution des données
La Figure 6.13 présente le "Dashboard Qualité", qui permet d’analyser le pH (inférieur ou égal
à 6,8) et le niveau de stabilité (1,5 ou plus) du lait stocké dans les tanks, sur des périodes allant de
jours à des années. Ce tableau de bord permet également de comparer ces analyses entre les trois
sociétés (CLC, CLN, CLSB).
Le "Dashboard Qualité" présenté dans la Figure 6.14 offre une visualisation de l’analyse de la PH
(inférieure ou égale à 6,8), de la conformité (conforme ou non conforme) et de la densité (supérieure
ou égale à 1,028) du lait dans les tanks, pour les jours, les mois et les années. Ce dashboard permet
également une comparaison de ces analyses entre les trois sociétés (CLC, CLN, CLSB).
97
Chapitre 6. Restitution des données
La Figure 6.15 présente le "Dashboard Qualité", qui permet de visualiser l’analyse de plusieurs
paramètres tels que la matière grasse (6,8 ou inférieur), la conformité (conforme ou non conforme),
l’acidité (15 ou plus) et le niveau de stabilité (1,5 ou plus) du lait dans les tanks, pour les jours, les
mois et les années. Ce dashboard permet également de comparer ces analyses entre les trois sociétés
(CLC, CLN, CLSB).
98
Chapitre 6. Restitution des données
Le "Dashboard Qualité" illustré dans la Figure 6.17 permet de visualiser le nombre de réclamations
ainsi que les cinq principales causes de réclamations (Microbio, Emballage, Aspect Goût, Santé,
Texture) en fonction du produit, de la région et de la période (jour, mois et année). Ce dashboard
permet également de comparer ces analyses entre les trois sociétés (CLC, CLN, CLSB).
99
Chapitre 6. Restitution des données
Une fois publié, le dashboard sera accessible à partir du site Power BI en ligne (https://app.powerbi.com/).
Sous la section ’Mon espace de travail’, nous trouvons tous les dashboads publiés et que nous puis-
sions partagés avec les personnes concernées.
La figure 6.19 montre un exemple d’affichage d’un dashboard sur Power BI web.
100
Chapitre 6. Restitution des données
Les Figures 6.20, 6.2, 6.22 et 6.23 présentent des captures d’écran montrant les dashboads que
nous avons créés pour les interfaces mobiles.
101
Chapitre 6. Restitution des données
102
Chapitre 6. Restitution des données
6.2.5 Prévision
La prévision est une méthode qui consiste à utiliser des données historiques pour projeter les
valeurs futures d’une série de données. Pour cela, nous avons utilisé la fonction de prévision de
Power BI, qui nous a permis de générer des modèles prédictifs pour estimer les quantités de lait
prévues pour les années 2024 et 2025, en se basant sur les données historiques de quantités de lait
disponibles.
La Figure 6.24 présente les prévisions de quantités de lait pour la période 2024 et 2025. Ces
prévisions permettent d’estimer les quantités de lait attendues pour chaque année, en se basant sur
des données historiques de quantités de lait disponibles et en utilisant la fonction prévision.
6.3 Conclusion
Dans ce chapitre, nous avons exposé notre travail sur la création des dashboards dynamique
pour l’analyse de données. Nous avons commencé par présenter les dashboards en version desktop,
qui sont destinés à une utilisation sur ordinateur, et que nous avons ensuite publiés sur Power BI
web. Par la suite, nous avons également présenté les dashboards en version mobile, accompagnés de
captures d’écran pour illustrer le résultat final. Enfin, nous avons effectué une prévision à l’aide de
Power BI.
103
Conclusion générale
De nos jours, la détention de bonnes informations est une nécessité pour toutes les entreprises,
quel que soit leurs secteurs d’activité, en raison du volume massif de données disponible. La dispo-
nibilité d’un système fiable fournissant des données correctement restituées devient essentielle pour
tout décideur souhaitant garantir la croissance de son entreprise.
Au cours de ce stage d’une durée de trois mois, nous avons développé une solution de business
intelligence visant à faciliter le processus de prise de décision dans le secteur Pôle Lait du Groupe
Délice.
En premier lieu, nous avons commencé par étudier et analyser l’existant. Ensuite, en se basant
sur cette étude, nous avons dégagé les besoins de notre projet, nous avons implémenté notre modèle
de données et nous avons réalisé notre rapport en suivant la démarche de Ralph Kimball. Pour notre
conception, nous avons choisis le modèle en étoile pour notre entrepôt de données.
Après avoir clarifié le modèle conceptuel de notre entrepôt de données, nous avons procédé au
processus ETL afin de fournir des données aux différents data marts (Analyse Fournisseur, Analyse
Process, Analyse Physico Chimie, Analyse Réclamation). Une fois ce processus terminé, nous avons
utilisé les cubes OLAP pour réaliser des analyses multidimensionnelles. Dans la partie qui suit, nous
avons créé des dashboards interactifs en version Desktop et mobile qui nous ont permis de suivre la
qualité du lait de manière dynamique et en temps réel entre les trois sociétés.
Cette expérience a été d’une grande valeur ajoutée. Elle nous a permis de consolider nos connais-
sances académiques et de les mettre en pratique dans un environnement professionnel tout en col-
laborant avec d’autres consultants et experts du domaine décisionnel.
En guise de perspectives, notre solution a l’avantage d’être évolutive et extensible. En effet, nous
envisageons d’élargir notre projet en incluant les autres secteurs tels que le Pôle Boisson et le Pôle
Fromage du Groupe Délice dans notre solution de business intelligence, ce qui permettrait une vision
globale et une meilleure prise de décision à l’échelle de l’entreprise. De plus, nous pouvons profiter
des données restituées au niveau du data warehouse pour la prédiction et l’application de techniques
de machine learning. Cela nous permettrait d’obtenir des insights plus approfondis et de développer
des modèles prédictifs pour anticiper les tendances de qualité du lait et optimiser les processus.
104
Bibliographie
[2] “Le cycle de vie de ralph kimball, (consulté le 06/02/2023).” [Online]. Available :
https://www.calameo.com/read/005322362eb7af096a86c
[6] “Exemple d’un cube olap, (consulté le 01/04/2023).” [Online]. Available : https:
//www.data-transitionnumerique.com/cube-olap-decisionnel-big-data/
[11] “Les avantage d’un data mart, (consulté le 16/02/2023).” [Online]. Available :
https://www.oracle.com/dz/autonomous-database/what-is-data-mart/
105