Vous êtes sur la page 1sur 45

1

O. INTRODUCTION GENERALE
Toutes les entreprises même le plus petites, disposent aujourd’hui
l’équipement informatique permettant de stocker des nombreuses
données et de traiter rapidement . Mais toutes ne disposent pas de
logiciels de gestion de stock.
Choix d’investissement, suivi du technique et administratif ont
pris ont pris une grande importance amenant l’entreprise à avoir une
réflexion sur la manière de gérer son stock.
.
Les systèmes traditionnels s'avèrent inadaptés à une telle activité,
Afin de pallier cet inconvénient, des systèmes décisionnels ont été
développés ; selon le "Meta Group", 95% des 500 entreprises les plus
importantes aux Etats Unis ont déjà ou sont en train de finaliser la mise
en place d'un tel système. La plupart de ces systèmes reposent sur un
espace de stockage centralisé, appelé entrepôt de données (data
warehouse) ; son rôle est d'intégrer et de stocker l'information utile aux
décideurs et de conserver l'historique des données pour supporter les
analyses effectuées lors des prises de décision.
Les stock représentent une part considérable du capital de
l’entreprise . Il est important et sa bonne gestion permettrait à entreprise
d’éviter des interruptions dans le processus de production et de
répondre aux demandes des clients.
L’informatique permet de traiter de manière objective ces
informations circulant dans l’entreprise car la maitrise de ces
informations se trouvant au centre des activités de l’entreprise, constitue
un enjeu très capital dans un environnement livré à la concurrence. Pour
survivre dans un tel environnement, la plupart d’entreprises optimisent
leurs méthodes et emploient une stratégie d’amélioration continuelle en
anticipant des événements de plusieurs types : évolution du marché,
conservation de la clientèle, création de goût chez les consommateurs,
etc. Elle doit également profiler ses clients afin de mieux les satisfaire.
Cette analyse peut se faire en exploitant les entrepôts de données (ED)
d’une part et les outils de data Mining d’autre part, car l’aide à la
décision peut nécessiter de comprendre plus profondément les chiffres et
les faits de l’entreprise.
2

Le résultat issu de cette analyse va devoir remettre en cause


certain choix, soit prendre des risques concentrés sur des secteurs
d’activités ou au contraire s’élargir sur des nouveaux secteurs d’activités.
Partant de ce fait, les entreprises ont senti le besoin et la nécessité de
prendre certaines décisions pour répondre aux attentes de clients. Bref,
elle va devoir prendre des décisions ; des décisions stratégiques ayant
une forte répercussion sur la santé financière de l’entreprise. Pour cela,
l’entreprise doit définir des indicateurs précis et contrôler le mieux
possible les mouvements de passation de commande.
La connaissance de l’environnement décisionnel est un élément
vital dans la prise de décision. Par exemple la connaissance de clients et
de leur comportement d’achat constitue un élément décisionnel pour le
lancement d’un produit. Les entreprises possèdent donc, le volume de
données important aux formats généralement hétérogènes, ce qui
nécessite l’utilisation d’un outil permettant l’exploitation efficace et
performante de ces données pour aider l’entreprise à la prise de décision,
d’où l’utilisation des entrepôts de données (ED). Dans cette situation,
une entreprise utilisera un système informatique décisionnel pour
s’aider dans cette prise des décisions.
Ce système permet donc d’assurer la croissance d’une entreprise
et les entrepôts de données, constituant principal d’un tel système ont
d’autre fonctions à part la sauvegarde de données archivées ; ils
apportent une aide bien précieuse aux dirigeants des sociétés en leurs
fournissant une vue synthétique de leurs entreprises ; une connaissance
qu’ils ne sauraient extraire autrement que par le Data Mining.
0.1. Problématique

toute recherche scientifique démarrer en ce qu’elle pose les


jalon indispensables qui soutiendront l’entreprise scientifique
du chercheur.

C’est un ensemble des questions qui constituent l’avis d’un


scientifique ou d’un chercheur selon son point de vue. C’est aussi une
expression des préoccupations majeures qui circonscrit de la façon
précise et déterminée les dimensions essentielles de l’étude que le
chercheur se propose de mener
3

Nonobstant cela toute recherche est basée sur un sérieux


problème que nous devons résoudre dans une entité, société et autre.
Dans le présent cas, notre sérieux problème facilité la prise de décisions
majeures et importante dans une gestion sur ce problème nous aurons à
mettre notre problématique.
Cela étant, la nécessité de se poser certaine question au tour des
quelles sera centrée notre réflexion :
 Pouvons-nous mettre en place un système d’aide à la prise des
décisions à la BELTEXCO Kananga ?
 Comment la BELTEXCO Kananga procède-t-elle à la
prise des décisions pour la gestion de son stock ?
Quelle pourrait être la qualification du matériel pouvant assurer
une telle prise des décisions ?
0.2. Hypothèses
L’hypothèse de recherche est définie comme la proposition
des réponses aux questions que l’on s’est posé à propos de l’objet de la
recherche, formulée dans les termes tels que l’observation et l’analyse
puissent fournir une réponse. De ce fait, l’hypothèse joue le rôle de
balise pour éclairer la voie que le chercheur doit emprunter dans son
travail.

Elle est aussi une idée générale qui est supposée par le
chercheur comme réponse à sa préoccupation fondamentale et qui, grâce
aux investigations va être confirmée à la fin de la recherche.

De ce qui précède, nous pensons que :

Oui, un système décisionnel, un data werahouse nous


permettra de gérer cette grande masse des données et facilité la prise des
décisions dans le temps requis à la BELTEXCO ;

La prise des décisions au sein de la BELTEXCO est encore


Manuelle ;
Le matériel pouvant assurer une telle prise des décisions c’est
l’ordinateur doté d’un système d’aide à la prise de décision.
0.3. Choix du sujet et objectif
a. Choix du sujet
4

Notre préoccupation étant de produire un logiciel pouvant


résoudre aux problèmes concrets, nous avons choisie de travailler dans
une organisation à toutes les informations nécessaires pouvant être mises
à notre disposition sans aucune difficulté.
C’est ainsi que notre choix apporté sur « la mise en place d’un
système décisionnel pour la gestion de stock au de sein de la BELTEXCO
» vu les difficultés rencontrées dans la prise des décisions.
b. Objectifs
L’objectif de ce travail est de mettre en place un système
décisionnel avec un entrepôt des données pour stocker les différentes
informations, de le fouiller et de prendre des certaines décisions
importantes.

0.4. Intérêt du sujet et but du travail


1. Intérêt du travail
 Intérêt personnel : ce travail est la preuve de la maitrise de la
création d’un système décisionnel. Il nous permettra de nous
familiariser à la recherche approfondie et de nous imprégner du
monde d’analyse, de conception et développement des entrepôts
des données.
 Intérêt pour l’université : le choix de ce sujet est de vouloir remplir
les exigences académiques qui obligent à tout étudiant (e) finaliste
de faire un travail de fin d’Etude. Ce travail servira de référence et
de documentation a l’autre chercheur, ou une source d’inspiration
pour toute autre personne qui pourra orienter son étude dans le
même angle que nous.
 Intérêt pour l’organisation : il est motivé par le souci de mettre à la
disposition de la société au travers sa distribution de Kananga un
système décisionnel avec un entrepôt des données pour la faciliter
l’archivage des données, la fouille des informations et la prise des
décisions pour une meilleure rentabilité.
2. But du travail
Son but primordial est qu’à la fin de sa rédaction et sa
présentation, nous puissions présenter un système décisionnel capable
de résoudre ou de réduire les faiblesses que connait le système
5

d’information actuel dans la prise des décisions et de lui offrir un


nouveau système informatisé.
O.5. Délimitation du travail
 Délimitation temporelle
Notre étude est menée sur une période allant du mois de Mars
2023 à celui OUT 2023 qui est une période académique.
 Délimitation spatiale
Nous parlerons de la BELTEXCO, située dans la province du
Kasaï central précisément dans la commune de Kananga.
0.6. Méthode et Techniques
A. Méthodes
Une méthode est un ensemble des opérations intellectuelles par lesquels
une discipline cherche à atteindre les vérités qu’elle poursuit, les
démontrer et les vérifier.
C’est une démarche organisée de l’esprit pour arriver à un résultat. En
informatique il existe plusieurs méthodes de conception et de réalisation,
mais dans l’élaboration de ce travail nous avons utilisées les méthodes
suivantes :
1. Méthodes historiques : elle nous permet d’analyser le fonctionnement
de l’entreprise depuis sa création jusqu’à nos jours.
2. Méthodes structuro-fonctionnelles : elle recherche en profondeur le
rôle des éléments constructifs de fait ou phénomènes à étudier et
opérationnels, un système que nous avons utilisé pour l’implantation
d’un nouveau système d’information.
3. Méthodes analytique : elle nous permet d’analyser des faits observés et
d’en faire une critique et en suite proposer des solutions nouvelles.
B. Techniques
Les techniques sont des procèdes opératoires rigoureux bien défini,
transmissibles, susceptibles d’être appliqués à nouveau dans les mêmes
onditions daptées de problème ou de phénomène en cause.
Tout au long de notre recherche, avons utilisé ces techniques de
récolte des données :
a. Technique d’interview : implique une rencontre physique entre le
chercheur et les personnes ressources chez qui le chercheur veut avoir les
informations.
6

Cette technique nous permet à recevoir les informations auprès des


responsables de service de la place.
b. Technique documentaire : elle nous permet d’exploiter les documents
écrits tels que les livres, le travail de fin cycle, les mémoires, les journaux
ainsi que la consultation internet et nous aident à consulter et examiner
les documents qui font référence à notre travail.
c. Technique d’observation : elle consiste à contempler la façon de
travailler de
chaque agent et de la manière dont les informations circulent dans une
entreprise.
0.7. Subdivision du travail
Hormis l’introduction et la conclusion, notre travail est subdivisé
en chapitres dont le premier est axé sur les généralités sur le système
décisionnel et la gestion de stock.
Dans le deuxième chapitre sur les Entrepôt des Données
Le troisième chapitre est axé sur le planning prévisionnel du
Projet.

Le CHAPITRE I : GENERALITES SUR LE SYSTEME


DECISIONNEL et LA GESTION DE STOCK
Section I : Système Décisionnel
I.0. Introduction
L’évolution des techniques informatique depuis les vingt
dernières années a permis d’adapter les outils informatiques à
l’organisation des entreprises. Vu le grand volume de données
manipulées par ces dernières. Les matériels informatiques on permit
l’application d’une nouvelle approche afin de remédier aux
désagréments causés par la centralisation de données et ce, en
répartissant la ressource informatique tout en préservant la cohérence
Il ne s'agit pas seulement, d'obtenir un accès rapide, unifié et fiable à
l'information, mais beaucoup plus permettre une analyse fine des
données contenues dans un système d'information (évaluation, des
7

bilans, des rapports, etc.). C'est dans cette lancée que les entreprises
puisent toute leur compétitivité face à une concurrence effrénée6.
I.1. Définition7
Un système est un ensemble de technologies destinées à permettre aux
collaborateurs d’avoir accès et de comprendre les données de pilotage
rapidement, de telle sorte qu’ils prennent une décision meilleure à
temps, résultat d’un processus comportant le choix conscient entre
plusieurs solutions en vue d’atteindre un objectif précis.
Un système décisionnel permet de répondre aux questions suivantes :
 Que s’est-il passé ? (tableau de bord)
 Pourquoi cela s’est-il passé ? (Analyse)
 Que va-t-il se passé ? (Prédiction)
 Que se passe-t-il en ce moment ? (aide opérationnelle)
 Que devrait-il se passer ou que faire ? (prise de décision entrepôt
actif)
I.1.1.Achucteture des système decisionnel
L’architecture générale d’un système décisionnel se décompose
en trois processus : extraction et intégration, organisation et
interrogation.
Le processus d’extraction et intégration, situé les sources de
données et l’entrepôt est responsable de l’identification des données
dans les diverses sources internes et externes.
Dans l’extraction de l’information et de la préparation et de la
transformation (nettoyage, filtrage, etc) des données à l’intérieur de
l’entrepôt, nous trouvons le
processus d’organisation, il est responsable de la structuration des
données par
rapport à leur niveau de granularité (agrégats)
Différent outils permettent de réaliser l’analyse des données

I.2Historique

La prise de décision est un problème essentiel qui préoccupe les


gestionnaires des entreprises. Cette prise de décision passe par la
modélisation de différents problèmes qu’ils rencontrent dans la gestion
8

d’où la nécessité d’un modèle basé sur l’arbre de décision.

De nos jours pour qu’une entreprise puisse bien marcher, elle doit avoir
besoin d’outils d’aide à la décision. Ces outils permettront alors aux dirigeants
de
bien prendre des décisions. Ces décisions concernent tous les services de cette
entreprise. Le système décisionnel englobe tous les services de l’entreprise ainsi
que leurs informations.
Ce système travail comme des systèmes opérationnels sur de gros
volumes des données. La décision concerne tous les départements de
l’entreprise : finances, ressources humaines, ventes, gestion de stock,
direction générale<. ?Les applications utiles dans le processus de prise
de décision sont nombreuses, et déjà présentes dans les systèmes
d’information de l’entreprise.
I.3.InformatiquesDécisionnels10
L’informatique décisionnel désigne les moyens, les outils et les
méthodes qui permettent de collecter, consolider, modéliser, et restituer
les données matérielles ou
immatérielles d’une entreprise en vue d’offrir une aide à la décision et de
permettre aux dirigeants de prendre des stratégies pour l’entreprise et
d’avoir une vue d’ensemble de l’activité traitée au sein de l’entreprise.
En général ce type d’applications utilise un entrepôt de données
pour stocker
des données provenant de plusieurs sources hétérogènes et fait appel à
des traitements par lots pour la collecte de ces informations.
I.4. Les Composants d’un Système Décisionnel
11I.4.1. Les Sources des Données
Les sources des données sont souvent diverses et variées ; le
but est de
trouver des outils et en fin de les extraire, de les nettoyer, de les
transformer et de les
mettre dans l’entrepôt de données. Ces sources des données peuvent être
des fichiers
de type Excel, Word, des bases de données opérationnelles d’une
entreprise ou
fichiers plats.
9

I.4.2.L’entrepôt des Données


Il est le cœur du système décisionnel et demande une analyse
profonde de la
part de maitre d’ouvrage. La conception d’un datawarehouse diffère de
la conception
d’une base de données relationnelle car lors que les bases des données
relationnelles
tendant le plus souvent à être normalisés, les bases des données
multidimensionnelles, elles sont normalisées en respectant le modèle en
étoile ou en
flacon
1.4.3. Le Service OLAP ou Serveur D’analyse

Le serveur OLAP a pour but d’organiser les données à analyser


par domaine
ou par thème et d’en ressortir des résultats pertinents pour le décideur ;
les résultats
sont obtenus par différents algorithmes de datemining (fouille de
donnée) du
serveur d’analyse. Ces résultats peuvent amener l’organisation à prendre
de très
bonnes décisions en vue d’améliorer le rendement de leurs entreprises
Le OLAP (Online Analytical Processing) est une technologie de
traitement
informatique (computing processing), elle permet à un utilisateur de
consulter et
d’extraire facilement les données pour les comparer de différentes
façons. C’est un
outil inscrit dans analysis service d’aide à la décision bien pratique pour
une
entreprise. Les données OLAP sont stockées sur une base
multidimensionnelles, aussi appelées Cubes OLAP pour faciliter ce type
d’analyses un serveur OLAP est
nécessaire.
I.5. Les Fonctionnalités d’un Système Décisionnel 12
10

Les besoins des utilisateurs peuvent être regroupés en quatre


catégories
Simuler, analyser les données, produire des états de gestion, suivre
et contrôler.
,
 Simuler : gestion des modèles de calcul (calcul automatiques
d’ensemble des
données)
 Analyses des Données : les fonctionnalités OLAP(établissement
d’analyse
dynamique multidimensionnelle avec possibilité de tirer, filtrer,
zoomer
l’intérieur de données), fonctionnalités avancées de datamining
ensemble des
techniques statistiques sophistiquées permettant de faire
apparaitre des
corrélations, des tendances et des prévisions.
 Produire les Etas de gestion :fonctionnalité de reporting raquetteurs
permettant de produire de façon simple et rapide des tableaux de
données
incorporant des calculs plus ou moins sophestiqués.
 Suivre et Contrôler : l’élaboration de tableau de bord produit et
diffusion
automatiquement à fréquences régulières de tableaux de bord
regroupant des
données hétérogènes ; émission d’alerte génération conditionnelle de
message
sur différents supports (email, sms) plus ou moins complexes en
fonction de la
configuration des données. Nous avons constaté que l’ensemble de ces
fonctionnalités sont rarement mis en place dans une entreprise ; les
mises en
œuvre sont en outre souvent réalisés par domaine fonctionnel (ventes,
achats<).
1 .7 L’APPORT DU SYSTEME DECISIONNEL
11

Dans plusieurs entreprises , il est difficile d’expliquer aux


dirigeants que l’on doit parfois dépenser beaucoup d’argent
pour analyser et manipuler des données existant dans le
système d’information de l’entreprise .
L’apport de système décisionnel est aussi réel, on peut
classer cet apport en deux catégories :

 L’amélioration de l’efficacité de la communication et de la


distribution des informations de pilotage ;
 L’amélioration de pilotage des entreprises résultant de
meilleures
décisions à prendre rapidement ;
Si le premier point est aisément compréhensible présente un peu
de risque de
mise en œuvre et pose peu de problème d’évaluation ce n’est clairement
pas en
revanche une source de gains significative ; il sera difficile le plus
difficile de justifier
les couts d’un projet sur cette seule promesse .
La seconde catégorie a nettement plus de potentiel de gains. Mais il
faut bien connaitre que le risque de ne pas atteindre les objectifs initiaux
est réels sans parler d’énormes difficiles d’évaluation des bénéfices
escomptés.
Les bénéfices de ces types le plus souvent cités sont les suivants :
 Unicité des chiffres , une seule vérité accepté par tous ;
 Meilleure planification ;
 Amélioration de la prise de décision
 Amélioration de la satisfaction des clients et des fournisseurs
 Amélioration de la satisfaction des employés .

. I.8. Enjeux de l’informatique Décisionnel14


De nos jours, les données applicatives sont stockées dans une
ou plusieurs bases de données relationnelles ou non relationnelles.
Ces données sont extraites, transformées et chargées par un outil de
type ETL.
12

En entrepôt de données (datawarehouse) peut prendre la forme


d’un dataMart, en règle générale, le Datawarehouse globalise toutes
les données applicatives de l’entreprise tandis que les dataMarts
généralement alimentés à partir des données du datawarehouse sont
de sous-ensembles d’information concernant un métier particulier de
l’entreprise .
La prise de décisions stratégiques dans une organisation
nécessite le recours
et le croisement de multiples informations qui concernent tous les
départements :
Production, RH, DAF, achats, ventes, marketing, service après-vente,
maintenance,
R&D...
. Or ces données sont généralement éparpillées au sein des
départements et
non connectées entre elles hétérogènes dans leurs formats techniques
et leurs organisations structurelles, voire leurs sémantiques
implémentées pour l'action (parconstruction) et non pour l'analyse
volatiles, au sens où leur mise à jour peut conduire à oublier des
informations obsolètes
1 .9 Les Fonctions Essentielles du système décisionnel15
Un système d’information décisionnel assure quatre fonctions
fondamentales
à savoir : la collecte, l’intégration, la diffusion et la présentation des
données.

A. Collecte
C’est l’ensemble des tâches consistant à détecter, sélectionner, extraire
er à filtrer des données brutes issues des environnements pertinents
compte tenu du périmètre du système d’information décisionnel.
Les sources des données internes ou externes étant souvent
hétérogènes tanssur le plan technique que sur le plan sémantique,
cette fonction est la plus délicate à mettre en place dans le système
décisionnel complexe. Elle s’appuie notamment sur les outils d’ETL.
13

Cette alimentation utilise les données sources issues des systèmes


transitionnels de production, le plus souvent sous forme de compte
rendu d’inventaire ou de compte rendu d’opération qui est le constat
au fil du temps des opérations, le film d’activité de l’entreprise
compte rendu de stock qui est l’image photo prise à un constat donné
(à une fin de période, mois, trimestre, de l’ensemble du stock.)
La fonction de collecte joue également au besoin un rôle de recodage,
une donnée représentée différemment d’une source à une autre
impose le choix d’une représentation unique pour les futures
analyses.
B. Intégration
L’intégration consiste à concentrer les données collectées dans
un espace unifié dont le socle informatique essentiel est l’entrepôt.
Elément central du dispositif, il permet aux applications
décisionnelles de bénéficier d’une source d’information commune,
homogène, normalisées et fiable, susceptible de masquer la diversité
de l’origine des données.
Au passage, les données sont épurées ou transformées par un
filtrage et une validation des données en vue du maintien de la
cohérence d’ensemble (les valeurs acceptées par les filtres de la
fonction de collecte mais susceptibles d’introduire des incohérences
de référentiel par rapport aux autres données doivent être soit
rejetées, soit intégrées avec statut spécial.
Une synchronisation (intégrée en même temps ou à la même date
de valeur des évènements reçus ou constatés de manière décalées ou
déphasées). Une certification (pour rapprocher les données de
l’entrepôt des autres systèmes légaux de l’entreprise comme la
comptabilité ou les déclarations réglementaires) c’est également dans
cette fonction que dons effectués éventuellement les calculs et les
agrégations (cumuls)
communs à l’ensemble du projet. La fonction d’intégration est
généralement assurée par la gestion de métadonnées, pour
l’interopérabilité entre toutes les ressources informatiques, des données
structurées (bases de données accédées par des progiciels ou
applications) ou des données non structurées
C. La Diffusion ou la Distribution
14

La diffusion c’est l’effet de mettre les données à la disposition des


utilisateurs
selon les schémas correspondant au profil ou au métier de chacun
sachant que l’accès
directe l’entrepôt ne correspond généralement pas aux besoins d’un
décideur ou
d’un analyste. L’objectif prioritaire st de segmenter les données en
contextes
informationnels fortement cohérents simple à utiliser et correspondant à
une activité
décisionnelle particulière. Alors qu’un entrepôt de données peut
héberger de
centaines ou de milliers de variables ou indicateurs, un contexte de
diffusion
raisonnable n’en présente que quelques dizaines au maximum.
Chaque contexte peut correspondre à un DataMart, bien qu’il n’y
ait pas de
règles générales concernant le stockage physique. Dans bien de cas le
contexte de
diffusion est multidimensionnel, c’est-à-dire modélisable sous forme
d’un hyper
cube, il peut alors être mis à disposition à l’aide d’un outil OLAP ; les
différents
contextes d’un même système décisionnel n’ont pas tous besoin du
même niveau de
détail de nombreux agrégats au cumuls n’intéressant que certaines
applications et
n’ayant donc pas lieu d’être gérés en tant qu’agrégats commun par le
fonction
d’intégration revelent donc la diffusion.
Ces agrégats peuvent être au choix stockés de manière persistante ou
calculés
dynamiquement à la demande, on peut distinguer trois (3) questions à
élucider pour
récévoir un système de reporting : A quoi s’adresse le rapport
15

spécialisé ?(choix des


indicateurs à présenter, choix de la mise en page) par quel trajet ? (circuit
de
diffusion type work flow pour les personnes, circuit de transmissions
télécoms pour
les moyens )
Selon que agenda ? (Diffusion routière ou sur évènement prédéfinie)
D. Présentation
Cette quatrième fonction la plus visible pour l’utilisateur, régit les
conditions
d’accès de l’utilisateur aux informations, elle assure le fonctionnement
du poste de
travail, le contrôle d’accès, la prise en charge des requêtes, la
visualisation des
résultats Sous une forme ou une autre utilise toutes les techniques de
communication
possible, comme les outils bureautiques, raquetteurs et générateurs
d’état spéciaux
infrastructure web télécommunication mobile

Administration
C’est la fonction transversale qui supervise la bonne exécution de
toutes les
autres, elle pilote le processus de mise à jour des données, la
documentation sur les
données et sur les métadonnées, la sécurité, les sauvegardes, la gestion
des incidents
I.10. Exploitation des Données 16
Les données agrégées dans un système décisionnel servent à trois
grandes
catégories d'usage :
- La production de rapport récurrent (reporting)
- L'exploration manuelle
- L’analyse de données (descriptive ou prédictive)
Le principe du reporting est d'agréger et de synthétiser des données
nombreuses et complexes sous forme d'indicateurs, de tableaux, de graphiques
permettant d'en avoir une appréhension globale et simplifiée. Le reporting s'appuie
16

principalement sur les agrégats (GROUP BY en SQL par exemple) afin de faire
apparaître des comptages, sommes ou moyennes en fonction de critères d'analyses.
Le reporting est généralement récurrent, le même rapport sera produit à intervalles
réguliers pour contrôler les variations des indicateurs.

Une autre exploitation de données en contexte décisionnel consiste à


pouvoir
explorer les données de façon peu dirigée (heuristique) afin de trouver des
réponses
à des questions que l'on ne s'est pas posées (sérendipité). L'idée générale est
plutôt
que les réponses aux premières questions que l'on se pose conduiront à se poser
de
nouvelles questions. L'exploration de données s'appuie sur des outils permettant
de
manipulation (IHM) et de visualiser (infovis) les données selon des requêtes
dynamiquement produites par des utilisateurs experts du domaine.
L'analyse de données est une branche de la statistique qui permet de
mettre
en évidence des tendances des données ou corrélations entre les données non
évidentes a priori. Dans le cas de l'analyse descriptive, il s'agit de rechercher
une
information statistique "cachée" que l'on ne connaît pas a priori. L'approche
prédictive consiste à réaliser un modèle statistique des corrélations entre les
données
à partir d'échantillons d'apprentissage, puis à appliquer le modèle à des données
nouvelles pour prédire leur comportement, avec des raisonnements du type "si ...
alors" ; ou pour classifier des données (tel objet caractérisé par telles données
appartient-il à telle classe ?). Les résultats sont généralement qualifiés par une
probabilité d’occurrence.

I.11. Ethique et Limites du Système Décisionnel 17

- Rationalisation excessive et processus complexes


Les systèmes décisionnels produisent des indicateurs ou s'appuient sur des
modèles dont l'objectif est de simplifier la réalité pour aider à la prise de
décision.
17

Mais la décision doit bien réintégrer des évaluations humaines qui la replacent
dans
sa réalité, qui est restée complexe. Le modèle ou l'indicateur n'est pas la réalité,
s'en
est une représentation. La décision ne s'applique pas à une représentation, mais à
la
réalité.
- Sélectivité des données et organisations humaines
Les systèmes décisionnels s'appuient sur les données que l'on est en mesure
de produire, mais ces données ne peuvent pas intégrer toutes les dimensions
d'une
organisation et de son environnement, en particulier les dimensions humaines. Or
ces dimensions cachées au système décisionnel déterminent de nombreux
fonctionnements de l'organisation, et doivent continuer d'être prises en compte.
- L'interprétation est humaine
Un système informatique produit des indicateurs qui nécessitent des
interprétations humaines, expertes dans le cas du décisionnel. Un système
informatique ne produit pas des directives qu'une organisation humaine doit
suivre !
- L'erreur est informatique
Les résultats produits par les systèmes décisionnels sont le résultat de
conceptions informatiques et mathématiques complexes, qui peuvent receler des
erreurs ou des raccourcis, par ailleurs les résultats sont souvent statistiques,
donc
non déterministes. La possibilité d'une erreur ou d'une approximation inadaptée
devra toujours être prise en compte dans les décisions.

I.13. Architecture d’un Système Décisionnel

Tout système décisionnel est architecturé globalement de la même façon :


- En amont un accès au système transactionnel en lecture seule
- Un DW fusionnant les données requises **
- Un ETL permettant d'alimenter le DW à partir des don
existantes **

- Des applications d'exploitation de reporting, exploration et/ou


18

prédiction
- D'éventuels DM permettant de simplifier le DW en vue de certaines
applications

I.14. Conception d’un Système Décisionnel18

Un projet de système décisionnel se structure selon quatre grands


axes :
 Etude des besoins et de l'existant ;
 Etude des besoins utilisateurs ;
 Etude des données existantes ;
 Modélisation et conception ;
 Modélisation dimensionnelle ;
 Architecture technique ;
 Spécification des outils d'exploitation ;
 Implémentation du data warehouse ;
 Implémentation du DW et des ** DM ** ;
 Mise en place de l'ETL *** ;
 Implémentation des outils d'exploitation ;
 Implémentation des outils de reporting ;
 Implémentation des outils d'exploration ;
 Implémentation des outils de prédiction

Section II : Gestion de Stock


O. Introduction
La gestion des stocks consiste à effectuer le suivi des stocks
depuis les fabricants aux entrepôts, puis jusqu'aux points de vente.
Le stock correspond aux marchandises ou aux matériels qu'une
entreprise a l'intention de vendre à ses clients dans un but de rentabilité.
La gestion des stocks, élément stratégique de la chaîne
d'approvisionnement, désigne le suivi des stocks depuis les fabricants
jusqu'aux entrepôts, puis jusqu'à un point de vente.
0.1. L'objectif
La gestion des stocks est de disposer des bons produits au bon
endroit et au bon moment. Cela nécessite une visibilité des stocks :
19

- savoir quand passer une nouvelle commande ;


- combien commander et où entreposer le stock.
Les étapes de base de la gestion des stocks sont les suivantes :
- Achat du stock :
- les marchandises prêtes à vendre sont achetées et livrés à l'entrepôt ou
directement au point de vente
0.2. Entreposage du stock :
- Le stock est entreposé jusqu'à utilisation. Les marchandises ou les
matériels sont transférés via votre réseau d'exécution jusqu'à ce qu'ils
soient prêts à être expédiés.
- Bénéfices du stock :
- Le montant du produit à vendre est contrôlé. Les produits finis sont
extraits pour exécuter les commandes. Les produits sont expédiés chez
les clients.
0.3. Visibilité des stocks
Les opérations d'exécution des commandes multicanal consistent
généralement à répartir les stocks sur différents sites de la chaîne
d'approvisionnement. La visibilité des stocks consiste à connaître les
stocks dont vous disposez, ainsi que les sites sur lesquels ils se trouvent.
Les entreprises ont besoin d'une vue précise des stocks pour garantir
l'exécution des commandes des clients, réduire les délais d'exécution des
expéditions et minimiser les ruptures de stock, la survente et les
démarques.
0.4. Importance de la gestion de stock
Les stocks peuvent constituer l'actif le plus important d'une
entreprise.
La gestion des stocks est le point vers lequel convergent tous les éléments de la
chaîne d'approvisionnement. Des stocks insuffisants peuvent entraîner le
mécontentement des clients.
Mais des stocks importants ont leurs propres inconvénients - le coût de
l'entreposage et de l'assurance, ainsi que le risque de perte, de vol et de
détérioration.
Les entreprises qui ont des chaînes d'approvisionnement et des procédés de
fabrication complexes doivent trouver le bon équilibre entre excédents de stock
et insuffisance de stocks.
0.5. Types de gestion des stocks
20

1. Gestion périodique des stocks


Le système de gestion périodique des stocks est une méthode
d'évaluation des stocks conçu pour l'établissement de rapports financiers, et qui
effectue un inventaire physique des stocks à intervalles précis. Cette méthode
de comptabilité prend les stocks au début d'une période, ajoute les nouveaux
achats au cours de cette période et déduit le stock final pour calculer le coût
des biens vendus
(COGS).
2. Gestion des stocks par code-barre
Les entreprises utilisent des systèmes de gestion des stocks par code-
barre pour attribuer un numéro à chaque produit qu'elles vendent. Elles peuvent
associer plusieurs points de données à ce numéro, y compris le fournisseur, les
dimensions du produit, le poids, et même des données variables telles que le
nombre de produits en stock.
3. Gestion des stocks avec RFID
RFID (radio frequency identification) est un système qui transmet via
une connexion sans fil l'identité d'un produit sous la forme d'un numéro de série
unique pour effectuer le suivi des articles et fournir des informations détaillées
sur le produit. Le système de gestion d'entrepôt basé sur la technologie RFID
améliore l'efficacité, accroît la visibilité des stocks et assure l'enregistrement
automatique rapide des réceptions et des livraisons.
Conclusion Partielle
Au regard de toutes les théories coulées ci-haut, il sied de noter que ce
chapitre a donné de manière précise et les notions nécessaires cadrant avec
système décisionnel que nous allons développer pour en faciliter la
compréhension. Il s’agit entre autre de la définition des certains concepts
considérés comme indispensable, architecture du système décisionnel (types et
niveaux) des fonctionnalités, son enjeux, Sa conception, et tant d’autres. De
façon brève, il est une passerelle pour devoir réaliser la solution faisant objet de
nos recherches Nous avons encore placé un mot sur le terme clé de notre travail
qui est la gestion de stock, nous avons expliqué ce quoi la gestion de stock, le
type de gestion de stock, le avantages et aussi son objectif.
21

CHAPITRE II : LES ENTREPOTS DES DONNEES


II.1. INTRODUCTION
Une fois l'information structurée et validée, il existe deux solutions
d'exploitation. La première est de garder ces informations en mémoire dans une
structure virtuelle temporaire pour l'interrogation. L'autre solution est de
stocker de manière permanente les données sur disques magnétiques.
Nous nous intéressons à la deuxième solution au cours de ce travail, plus
complexe à mettre en œuvre ; elle permet alors de fournir tous les
renseignements nécessaires. Certes, l'analyse décisionnelle se base sur la
dimension temporelle de l'information, ce qui nécessite une sauvegarde
permanente. Le data warehouse est le terme anglais qui veut dire entrepôt de
données.
Un entrepôt de données est une structure informatique dans laquelle est
centralisé un volume important de données consolidées à partir des différentes
sources de renseignements d'une entreprise (notamment les bases de données
internes) et qui est conçue de manière que les personnes intéressées aient accès
rapidement à l'information stratégique dont elles ont besoin.
Si, dans le passé, l'entrepôt de données servait davantage à l'archivage,
aujourd'hui il est devenu une pièce maitresse de l'information décisionnelle (ou
informatique d'aide à la décision). Il représente l'un des éléments essentiels
d'un ensemble matériel et logiciel dynamique de recherche d'informations. Dans
un entrepôt de données, les données sont sélectionnées et préparées (pour
répondre aux questions vitales de l'entreprise), intégrées (à partir des
différentes sources de renseignements) et datées (elles gardent la trace de leur
origine). Le terme entrepôt de données, employé très fréquemment, semble
vouloir supplanter ses concurrents dépôt de données et centrale de données.
Cette définition est tirée de celle Bill Inmon que l'on nomme le père des
entrepôts de données et l'inventeur de ce qu'on appelle EDW pour entreprise
Data warehouse ou CIF pour Corporate Information factory.
I.2. DEFINITION D'UN ENTREPOT DE DONNEES
De nombreuses définitions ont été proposées, soit académiques, soit
par les éditeurs d'outils de bases de données ou encore par des constructeurs,
cherchant à orienter ces définitions dans un sens mettant en valeur leur produit.
Une définition pourrait être qu'un Data Warehouse est l'ensemble des
données historiées, nettoyées, valides, complètes et cohérentes d'une
entreprise, organisées de telle façon à ce que des non informaticiens puissent en
22

comprendre la structure et l'exploiter, sans l'intervention d'un informaticien. La


définition la plus appropriée du data warehouse est celle proposée par Bill
Inmon : c'est une collection de données orientées sujet, intégrées, non volatiles
et historisées, organisées pour le support d'un processus d'aide à la décision .
D'ailleurs les grands de l'informatique décisionnelle Bill Inmon et
Kimball, définissent un entrepôt de données par ses caractéristiques :
Dans un entrepôt de données, les informations sont organisées par
fonction dans l'entreprise (comptabilité, stocks, ventes, etc.), afin de répondre à
des besoins (métier), elles sont classées par thème ( les données propres à un
thème) nous dirons que dans un entrepôt de données, les données sont
structurées ou organisées autour des sujets majeurs de l'entreprise,
contrairement aux données de systèmes de production (OLTP= OneLine
transaction processing) ceux-ci sont généralement organisées par processus
fonctionnels.
II.2.1. Données orientées sujets22
L'intérêt de cette organisation est de disposer de l'ensemble des
informations utiles sur un sujet le plus souvent transversal aux structures
fonctionnelles et organisationnelles de l'entreprise. Cette orientation sujet va
également permettre de développer son système décisionnel via une approche
par itérations successives, sujet après sujet c'est-à-dire Les données sont
organisées pour répondre à des besoins « métiers » : elles sont classées par
thème. Les données propres à un thème, les ventes par exemple, seront
rapatriées des différentes bases OLTP (OneLine transaction processing) de
production et regroupées.
II.2.2. Données intégrées
Comme nous l'avons dit ci-haut les données proviennent de sources
hétérogènes utilisant plusieurs types de formats. Nous savons qu'un
Datawarehouse est un projet d'entreprise. Pour y parvenir, les données doivent
être intégrées. Avant d'être intégrées dans le Datawarehouse, les données
doivent être mises en forme et unifiées afin d'avoir un état cohérent. Les
données proviennent de sources hétérogènes utilisant chacune un type de
format.
Elles sont intégrées avant d'être proposées à utilisation. Un « nettoyage
» préalable des données est nécessaire dans un souci de rationalisation et de
normalisation.
II.2.3. Données non volatiles
23

Retenons qu'une fois les données intégrées dans l'entrepôt, elles ne sont
pas appelées à être supprimées car le non volatilité des données est en quelque
sorte une conséquence de l'historisation. La requête effectuée à quelques mois
d'intervalle en précisant la date de référence de l'information recherchée
donnera le même résultat.
Les données une fois intégrée dans l'entrepôt ne sont pas appelées à
être supprimées.(Read-Only
II.2.4. Données historisées
Les données mémorisées sont datées c.à.d. un référentiel temps doit
être associé à la donnée afin d'être capable d'identifier une valeur particulière
dans le temps. Il est donc possible de voir son évolution après un temps donné.
Dans un système de production, la donnée est mise à jour à chaque nouvelle
transaction car le degré de détail de l'archivage est bien entendu relatif à la
nature des données, parce que toutes les données ne sont pas propres à être
archivées .On ne doit pas permettre que les données soient modifiées seul. Elles
sont en lecture seule. Les données mémorisées sont datées, il est ainsi possible
de visualiser leur évolution dans le temps. Le degré de détail de l'archivage est
bien entendu relatif à la nature des données. Toutes les données ne méritent pas
d'être archivées.
II.2.5. Données agrégées
Elles correspondant à des éléments d'analyse représentatifs des besoins
des utilisateurs.
Elles constituent déjà un résultat d'analyse et une synthèse de
l'information contenue dans le système décisionnel, et doivent être facilement
accessibles et compréhensibles.
I.2.6. Méta-données
C'est l'ensemble d'informations nécessaires à la compréhension et à
l'exploitation des données du Datawarehouse, elles regroupent l'ensemble des
informations concernant le Datawarehouse et les processus associés. Elles sont
idéalement intégrée dans un référentiel, elle donne la signification de chaque
donnée, et précise les algorithmes qui permettent l'extraction des données dans
une base de production données sur les données.
II.3. Utilité d'un entrepôt de données23
Un entrepôt de données, est une vision centralisée et universelle de
toutes les informations de l'entreprise. C'est une structure (comme une base de
données) qui a pour but, contrairement aux bases de données, de regrouper les
24

données de l'entreprise pour des fins analytiques et pour aider à la décision


stratégique.
La décision stratégique est une action entreprise par les décideurs qui
vise à améliorer, quantitativement ou qualitativement, la performance de
l'entreprise. En gros, c'est un gigantesque flux d'informations épurées,
organisées, historiées et provenant de plusieurs sources de données, servant aux
analyses et à l'aide à la décision.
L'entrepôt de données est l'élément central de l'informatique
décisionnelle. En effet, il est le meilleur moyen que les professionnels ont trouvé
pour modéliser de l'information pour des fins d'analyse. Les données d'une
entreprise proviennent essentiellement des bases de production. Ces données
sont éparpillées ou en masse dans des systèmes multiples, pas nécessairement
compatibles entre eux. Ces bases sont conçues pour être efficaces pour les
fonctions sur lesquelles elles sont spécialistes.
Elles sont donc peu structurées pour l'analyse, avec souvent comme
objectif principal de conserver l'information. Comme bases de production, elles
sont focalisées sur les fonctions critiques de l'entreprise et doivent être en
mesure de servir l'utilisateur avec un temps de réponse rapide et structurées
dans ce but.
Ces systèmes sont donc peu adaptés à la vision à long terme et donc à la
prise de décision. L'entrepôt de données aura pour objectif d'agréger et de
valoriser
ces données provenant de différentes sources. Il va permettre à
l'utilisateur d'y accéder de manière simple et ergonomique [3].
II.4. LES ARCHITECTURES D'UN ENTREPOT DE DONNEES24
Pour implémenter un Datawarehouse, trois types d'architectures sont
possibles :
- L'architecture réelle,
- L'architecture virtuelle,
- L'architecture remote
I.4.1. L'architecture Réelle
Elle est généralement retenue pour les systèmes décisionnels. Le
stockage des données est réalisé dans un SGBD séparé du système de
production. Le SGBD est alimenté par des extractions périodiques.
Avant le chargement, les données subissent d'importants processus
d'intégration, de nettoyage, de transformation.
25

L'avantage est de disposer de données préparées pour les besoins de la décision


et répondant aux objectifs du Datawarehouse.
Les inconvénients sont le coût de stockage supplémentaire et le manque d'accès
en temps réel.
II.4.2. L'architecture Virtuelle
Cette architecture n'est pratiquement pas utilisée pour le Datawarehouse. Les
données résident dans le système de production. Elles sont rendues visibles par
des produits middlware ou par des passerelles.
Il en résulte deux avantages : pas de cout de stockage supplémentaire et
l'accès se fait en temps réel. L'inconvénient est que les données ne sont pas
préparées.
II.4.3. L'architecture Remote
C'est une combinaison de l'architecture réelle et de l'architecture virtuelle.
Elle est rarement utilisée. L'objectif est d'implémenter physiquement les
niveaux agrégés afin d'en faciliter l'accès et de garder le niveau de détail dans
le système de production en y donnant l'accès par le biais de middleware ou de
passerelle.
II.7. COMPOSANTS DE BASE OU ARCHITECTURALES D'UN ENTREPOT
DEDONNEES25
L'architecture des systèmes décisionnels met en jeu un environnement
comportant quatre éléments essentiels : les sources de données, l'entrepôt de
données, les magasins de données et les outils d'analyse et d'interrogation.
 Les sources de données
Sont nombreuses, variées, distribuées et autonomes. Elles peuvent être
internes (bases de production de l'entreprise) ou externe (Données fournies par
les
partenaires tel que : Les Fournisseurs, Contribuables, Clients, Administration
Publiques, Documentation Juridiques) à l'entreprise.
 L'entrepôt de données
C'est le lieu de stockage centralisé des informations utiles pour les décideurs.
Il met en commun les données provenant des différentes sources et conserve
leurs évolutions.
 Les magasins de données
Sont des extraits de l'entrepôt orientés sujet. Les données sont organisées de
manière adéquate pour permettre des analyses rapides à des fins de prise de
décision, et principalement dédie à une classe de décideurs.
26

 Les magasins de données


Sont des extraits de l'entrepôt orientés sujet. Les données sont organisées de
manière adéquate pour permettre des analyses rapides à des fins de prise de
décision, et principalement dédie à une classe de décideurs.
 Les outils d'analyse et d'interrogation
Permettent de manipuler les données suivant des axes d'analyses.
L'information est visualisée au travers d'interfaces interactives et
fonctionnelles dédiées à des décideurs souvent non informaticiens (directeurs,
chefs de services,...).
II.8. TABLE DE FAITS26
Table de fait : comme son nom l'indique, une table de fait est une table
contenant tous les faits du SI et dont dépendent toutes les autres tables. Cette
table ne contient que des clés étrangères venant des tables de dimension et des
valeurs numériques appelées mesure. Exemple de table de fait : table des
Ventes. Initiation au décisionnel .
Rappelons que certaines tables de faits peuvent contenir aucun attribut
et représentent que des liaisons entre tables dimensionnelles. Et tous les
éléments qui pointent sur la table de faits sont liés à une sémantique exprimable
par une phrase. Par conséquent, la table de faits est la matérialisation d'une
association entre entités, généralement elle contient un petit nombre de
colonnes mais beaucoup plus d'enregistrements qu'une table de dimension.

II.9. TABLE DE DIMENSION27


Les tables de dimension sont des tables servant d'axes d'analyse. On peut par
exemple analyser les ventes (table de fait) suivant l'axe des temps (table de
dimension) pour indiquer par exemple pendant quel trimestre de l'année les
ventes ont explosé.
II.10. LES MESURES28
Une mesure est une quantité présente dans la table de fait qui permet de
mesurer les faits. Par exemple, nombre de vente ou prix unitaire sont des
exemples des mesures, en outre les mesures sont en fait les critères ou
indicateurs que l'on veut étudier en fonction de différents axes ou dimensions.
II.11. MODELES DE CONCEPTION D'UN ENTREPOT DE DONNEES29
II.11.1. Modélisation en étoile
Nous allons utiliser un exemple pour expliquer la modélisation en étoile.
L'important en BI est de toujours garder à l'esprit que ce que nous faisons est
27

différent des bases de données traditionnelles. Le schéma créé sera accessible


par les utilisateurs et doit donc être le plus simple et explicite possible.
Dans une modélisation en étoile, toutes les dimensions sont directement
reliées à la table de faits, qui contient les données à analyser. Plusieurs
remarques sont à faire pour ce schéma :
La table de fait contient ce qu'on appelle des " mesures ", des champs
(numériques pour la plupart) sur lesquels on va faire nos analyses, on peut y
trouver le montant des ventes nettes, les quantités vendues, les kilomètres
parcourus, les quantités en pré commande, etc. La table de faits est reliée aux
dimensions par des relations (1, n). Pour analyser une ligne de fait par client. par
exemple, il faut qu'il y ait une relation entre cette ligne et la dimension
client.
Les tables de dimension contiennent les éléments qu'utiliseront les
décideurs pour voir la table de faits. Les utilisateurs pourront ainsi
apprécier les montant des ventes par vendeur, par client, ou le
kilométrage pour un vendeur pour un client donnée (pour voir si ce
client est rentable), calculer le coût de revient d'un produit par
rapport aux activités des vendeurs, etc. On n'utilise jamais la clé d'un
système de production comme clé de dimension : pour préserver
l'historique des modifications dans l'entrepôt de données.
La granularité des tables de dimensions et de faits doit être la même :
imaginez que la table de faits regroupe les informations par heures et que la
table de dimension du temps gère les minutes, il ne sera pas possible de lier la
dimension temps et la table de faits (multi détermination).
Chaque ligne de la table de faits doit avoir une relation avec chacune des
tables de dimensions : dans le cas contraire, on aurait perte d'information ou
analyse erronée.
Il n'existe de relations qu'entre les dimensions et les tables de faits. Il
sera beaucoup trop compliqué de gérer et d'utiliser des dimensions liées
entre elles. N'oubliez pas que le schéma doit être assimilable par des non
informaticiens pour pouvoir l'exploiter.
II.11.2. Modélisation en flocon
La modélisation en flocon étant une variante de la modélisation en étoile,
nous prendrons le même cas avec la même analyse. Il faut savoir que la
modélisation en flocon existe pour des raisons de performances. En effet, des
28

dimensions de plusieurs millions de lignes peuvent poser des problèmes de


lenteur lors de l'exploitation des données.
Le principe de la modélisation en flocon est de créer des hiérarchies de
dimensions, de telle manière à avoir moins de lignes par dimensions. Vous nous
direz que cela va en contradiction avec la dernière remarque de la modélisation
en étoile, et nous vous dirons que vous avez raison, à la seule chose prés que la
performance prime sur la structure. C'est la seule alternative pour avoir des
résultats clairs et rapides.
Conseil : il faut éviter floconner à tort et à travers. En effet, pour garder une
structure simple, gérable et compréhensible, on utilise le plus possible la
modélisation en étoile. La modélisation en flocon n'intervenant que lorsque des
problèmes de performances apparaissent ou sont facilement prédictibles. Une
règle.
Informelle en BI préconise de ne floconner que si l'on a la relation
(11000). C'est-à-dire que si l'on réussit à créer une hiérarchie de deux
dimensions avec une ligne de la dimension père (groupe produit par exemple)
faisant référence à plus de 1000 lignes de la dimension fille (produit par
exemple). Dans ce cas, il est peut-être temps de penser aux flocons.
II.11.3. Modélisation en Constellation
Une constellation est une série d'étoiles ou de flocons reliées entre eux par
des dimensions. Il s'agit donc d'étoiles avec des dimensions en commun. Un
environnement décisionnel idéal serait une place où il serait possible de naviguer.
Ce schéma en grappe est une dérivation de ces deux schémas pour en former
un troisième. Kimball déclare qu'un schéma en flocon n'est pas optimal, car il est
trop complexe. Toujours pour les mêmes raisons de simplification des tables, afin
de pouvoir trouver facilement les informations dans l'entrepôt, le schéma en
grappe apparait alors comme un compromis entre le schéma en étoile et le
schéma en flocon.
II.13. LE MAGASIN DE DONNEES30
II.13.1. Introduction
Le Datawarehouse étant, en général, très volumineux et très complexes à
concevoir, on a décidé de les diviser en « bouchées » plus faciles à créer et
entretenir.
Ce sont les Datamart. On peut faire des divisions par fonction (un datamart
pour les ventes, pour les commandes, pour les ressources humaines) ou par sous-
29

ensemble organisationnel (Un datamart par succursale). Nous verrons plus tard
comment organiser les datamarts pour créer un entrepôt proprement dit
d'étoile en étoile, de constellation en constellation et de DataMart en DataMart
à la recherche de l'information si précieuse.
Un des indicateurs clés d'une bonne conception d'entrepôt est la grosseur des
constellations. En effet, plus la constellation est grosse, plus cela veut dire que
vous avez réutilisé vos dimensions, et qui dit réutilisation de dimension, dit
dimensions complètes, centralisées et avec une vue orientée entreprise.
II.11.4. Modélisation en Grappe
II.13.2. Définition31
Un Datamart littéralement en anglais magasin de données est un sous-
ensemble d'une base de données décisionnelle utilisé en informatique
décisionnelle :
il est généralement exploité en entreprise pour restituer des informations
ciblées sur un métier spécifique, constituant pour ce dernier un ensemble
d'indicateurs à vocation de pilotage de l'activité et d'aide à la décision. Un
Datamart, selon les définitions, est issu ou fait partie d'un Data Warehouse, et
en reprend par conséquent la plupart des caractéristiques.
Le Datamart est un ensemble de données ciblées, organisées, regroupées et
agrégées pour répondre à un besoin spécifique à un métier ou un domaine donné.
Il est donc destiné à être interrogé un panel de données restreint à son domaine
fonctionnel, selon des paramètres qui auront été définis à l'avance lors de sa
conception.
De façon plus technique. Le DataMart peut être considéré de deux
manières différentes, attribuées aux deux principaux théoriciens de
l'informatique décisionnelle, Bill Inmon et Ralph Kimball :
Définition d'Inmon : Le Datamart est un sous- ensemble du Datawarehouse,
constitué au niveau des détails et à des niveaux plus agrégés, permettant de
restituer tout le spectre d'une activité métier. L'ensemble des Datamarts de
l'entreprise constitue le Datawarehouse.
Définition de Ralph Kimball : l'entrepôt de données est constitué peu à peu par
les Datamarts de l'entreprise, regroupant ainsi différents niveau d'agrégation
et d'historisation de données au sein d'une même base.
II.13.3 Structure physique et théorique
Au même titre que les autres parties de la de base de données globale de
30

l'entreprise, les Datamarts sont stockés physiquement sur disque dur par un
système de gestion de bases de données relationnelle hébergé sur un serveur.
Le Datamart est souvent confondu avec la notion d'Hypercube OLAP ; il
peut de fait être représenté par un modèle en étoile ou en flacon dans une base
de données relationnelle (notamment lorsqu'il s'agit de données élémentaires ou
unitaires non agrégées).
I.13.4 Place du Datamart dans la structure de données
Le Datamart se trouve en toute fin de la chaine de traitement de
l'information. En règle générale, il se situe en aval d'un Datawarehouse plus
global à partir duquel il est alimenté, dont il constitue en quelque sorte un
extrait.
II.13.5 Interaction avec les utilisateurs32
Un Datamart forme la principale interaction entre les utilisateurs et les
systèmes informatiques qui gèrent la production de l'entreprise. Dans un
DataMart, l'information est préparée pour être exploitée brute par les
personnes du métier auquel il se rapporte. Pour ce faire, il est appelé à être
utilisé via des logiciels d'interrogation de bases de données (notamment des
outils de Reporting) afin de renseigner ses utilisateurs sur l'état de l'entreprise
à un moment donné (stock par exemple) ou sur son activité (flux).
La préparation de la donnée pour une utilisation directe, inhérente au
Datamart, peut revêtir plusieurs formes. Il faut noter que toutes représentent
une simplification par rapport au niveau de données inférieur : on peut citer pour
Exemple :
- L'agrégation de données : Le DataMart ne contient pas le détail de toutes les
opérations qui ont eu lieu, mais seulement des totaux, repartis par groupements.
- Le retrait de données inutiles : Le DataMart ne contient que les données qui
sont strictement utiles aux utilisateurs.
- L'historisation de données : le DataMart contient seulement la période de
temps qui intéresse les utilisateurs.
II.13.6. Intérêt et limites
Les Datamarts étant des extraits simplifiés du détail des données de
l'entreprise, ils présentent un grand intérêt pour des requêtes identifiées et
répétitives; il est plus facile pour le système d'interroger un DataMart qui ne
contient que le nécessaire que d'avoir à cerner et à trier toute la base. Par
ailleurs, les Datamarts permettent de classifier et de clarifier l'information, de
31

manière à ce que chaque métier ait accès à des chiffres correspondant à ses
attentes fonctionnelles, sans être pollué par des données contigües.
Le Datamart minimise la complexité informatique. Il est donc facile de se
concentrer sur les besoins des utilisateurs.
En revanche, les choix de simplification qui donnent lieu aux Datamarts
rendent ceux-ci naturellement moins flexibles ; des demandes d'utilisateurs
sortant de leur cadre habituel requièrent fréquemment d'interroger la base à un
autre niveau, générant des coûts de développement ou la création de solutions de
rechange. Des problèmes peuvent de fait survenir lorsque les Datamarts
constituent l'unique moyen d'accès aux données pour l'utilisateur final.
Avant de mettre terme à ce point nous devons différencier un Datamart au
Data Warehouse sont utilisés comme entrepôt de données et servent le même
objectif. Celles-ci peuvent être différenciées par la quantité de données ou
d’informations qu’elles stockent. La différence essentielle entre un Data
Warehouse et un Datamart réside dans le fait que Data Warehouse est une base
de données qui stocke des informations pour satisfaire les demandes de prise de
décision, tandis que
le Datamart est un sous-ensemble logique complet d’un Data Warehouse complet.
En d’autres termes, un Data Mart est un Data Warehouse dont l’étendue est
limitée et dont les données peuvent être résumées et sélectionnées à partir de
Data Warehouse ou à l’aide de processus d’extraction, de transformation et de
chargement du système de données.
II.14. LE DATA MINING33
Extraction d’informations intéressantes (non triviales, implicites,
préalablement inconnues et potentiellement utiles) à partir de grandes bases de
données. C’est analyser les données pour trouver des patrons cachés en utilisant
des moyens automatiques. C’est un processus non élémentaire de recherche de
relations, corrélations, dépendances, associations, modèles, structures,
tendances, classes (clusters), segments, lesquelles sont obtenues de grande
quantité de données (généralement stockées sur des bases de données
(relationnelles ou no)). Cette recherche est effectuée à l’aide des méthodes
mathématiques, statistiques ou algorithmiques.
Data Mining se considère comme un processus le plus automatique possible,
qui part de données élémentaires disponibles dans un Data Warehouse à la
décision.
L’objectif principale de Dat Mining c’est de créer un processus automatique qui a
32

comme point de départ les données y comme finalité l’aide à la prise des
décisions.
Il est important de différencié un data mining et un Data Warehouse les
deux sont utilisés pour conserver des informations commerciales et permettre la
prise de décision. Pourtant, data mining et data warehouse ont des aspects
différents sur le fonctionnement des données d’une entreprise. D’une part, data
warehouse est un environnement où les données d’une entreprise sont
rassemblées et stockées de manière agrégée et résumée. D’autre part, data
mining est un processus; qui appliquent des algorithmes pour extraire des
connaissances et des données dont vous ne savez même pas qu’elles existent dans
la base de données.
Pourquoi utiliser Data Mining34 ?
Les principales raisons d’utiliser Data mining sont les suivantes:
 Les entreprises peuvent prendre des décisions rapidement
 Établir la pertinence et les relations entre les données.
 Utilisez ces informations pour générer des informations rentables
 Permet de mesurer le taux de réponse des clients dans le marketing
d’entreprise.
 Optimiser l’activité du site Web en offrant des offres personnalisées à
chaque visiteur.
 Différencier les clients rentables et non rentables.
 Création et maintenance de nouveaux groupes de clients à des fins de
marketing.
 Identifier tout type de comportement suspect dans le cadre d’un
processus de détection de fraude.
Pourquoi utiliser Data Warehouse35?
Les raisons les plus importantes pour l’utilisation de Data Warehouse sont
les suivantes:
 Données optimisées pour l’accès en lecture et l’analyse consécutive.
 Data Warehouse permet de protéger les données.
 Permet aux utilisateurs d’effectuer la gestion des données.
 Améliorer la qualité des données.
 Intègre de nombreuses sources de données et aide à réduire le stress sur
un système de production.
II.15. OLAP et OLTP36
Aujourd’hui, les systèmes informatiques peuvent se subdiviser en deux. On
33

retrouve le système transactionnel OLTP et le système analytique OLAP.


OLAP et OLTP sont des systèmes d’information qui sont voués à regrouper
les données de l’entreprise, de deux manières différentes pourtant.
Les systèmes OLTP servent, en général, de source de données pour les
systèmes OLAP qui sont quant à eux, source d’analyse des données qui vont
permettre d’aboutir à la décision.
Plus précisément, le système OLAP est aussi appelé « système décisionnel ».
Il est utilisé dans le pilotage de l’entreprise. Grâce à ce système, le chef
d’entreprise dispose d’une vision transversale de son entreprise. Le système
OLTP ou plus connu sous l’appellation de « système opérationnel ». Il permet
d’assister les collaborateurs et décisionnaires d’une entreprise dans la gestion
des tâches quotidiennes.
 L’OLAP
C’est un outil de reporting dont la couche d’analyse permet de générer les
indicateurs de résultats en fonction du contenu d’un entrepôt de données. OLAP
(pour OnLine Analytical Processing) est avant tout une méthode d’analyse
représentée par un cube, qui est apparu pour la première fois à la demande
d’Arbor Software, en 1993, dans le livre blanc de E.F. Codd qui n’est autre que
l’un des concepteurs des bases de données relationnelles.
Quand on dit cube, cela signifie que le traitement de données se base sur un
comportement en trois dimensions. Ce modèle offre une réelle souplesse dans
son mode de requêtage. Il suffit juste de se baser sur des données disponibles
dans la base pour générer une interprétation du chiffre d’affaires selon un
critère déterminé, comme par produit par exemple.
La seule lacune de cet outil OLAP est qu’il demande souvent un grand
volume d’informations pour construire une couche OLAP autour d’un nombre
exhaustif de dimensions. Les répercussions se font sentir sur les temps de
réponses souvent longs pour l’utilisateur.
 L’OLTP
L’OLTP est un traitement transactionnel en ligne (anglais Online transaction
processing) qui sert à effectuer des modifications d’informations en temps réel.
On le retrouve essentiellement dans des opérations commerciales comme les
opérations bancaires, ou l’achat de bien divers.
L’objectif de l’utilisation d’un tel système est de pouvoir insérer, et
interpréter pour des besoins divers, les données de la base de données, en toute
sécurité.
34

A QUOI SERT L’OLTP ET DE L’OLAP DANS L’ENTREPRISE ?


OLTP et OLAP sont deux bases de données qui, on l’a vu, répondent à des
objectifs et des besoins bien définis. Dans le cas d’une utilisation quotidienne le
chef d’entreprise, va utiliser l’ OLTP pour répondre à la question « Nombre de
vente du produit A » . Et l’ OLAP, va permettre de croiser les données et
répondra à la question « Nombre de vente du produit A, par le vendeur B dans la
région C et l’année N-2
II.15. Les Réplications
En informatique, une réplication est un processus qui admet la copie et
la mise à jour des objets (tables, information, index ;) entre diffèrent site qui
peuvent être éloignés géographiquement. Cette mise à jour peut s’en chercher
automatiquement ou manuellement.37
Les techniques de réplication permettent la gestion de copies multiples
pouvant diverger c’est à dire présenter des valeurs différentes à un instant
donné, mais convergeant vers les mêmes valeurs à termes. Nous examinons ci –
dessous les différentes formes de réplication possibles et les techniques de
gestion de la cohérence des copies associées.
La réplication utilise la technologie de base de données distribuées pour
partager les données entre multiples sites mais une base de données répliquée et
une
base de distribuée sont différentes. Pour les bases de données distribuées, les
données son disponibles à plusieurs endroits mais une table particulière réside à
un seul site.
La réplication signifie que les mêmes données sont disponibles à des
multiples endroits.
A. Importance de la Réplication
La réplication améliore les performances et augmente la disponibilité
des données. Grâce à la réplication, les lectures sont exécutées sur le site
disposant de la copie la plus proche du client ce qui peut éviter des transferts
inutiles, par exemple si le client dispose d’une copie.
B. Désavantage de la Réplication
Si la réplication présente de nombreux avantages, les problèmes
soulevés sont multiples. Tout d’abord, il faut assurer la convergence des copies.
Si les copies peuvent être différentes à un instant donné, elles doivent
converger vers le même état cohérent où toutes les mises à jour sont exécutées
partout dans le même ordre.
35

C. Mises à jour des données


La diffusion automatique des mises à jour appliquée à une copie aux
autres copies doit être assurée par le SGBD réparti. Plusieurs techniques de
diffusion sont possibles, parmi lesquelles on distinguera celles basées sur la
diffusion de l’opération de mise à jour de celle basées sur la diffusion du
résultat de l’opération.
Diffuser le résultat présente l’avantage de ne pas devoir ré exécuter
l’opération sur le site de la copie, mais l’inconvénient de nécessiter un
ordonnancement identique des mises à jour sur tous les sites afin d’éviter les
pertes des données.
D. Type des Mises à jour
1. Mises à jour synchrones (Synchronous update)
Mode de distribution dans lequel toutes les sous opérations locales
effectuées suite à une mise à jour globale sont accomplis pour le compte de la
même transaction.
Force du mode de distribution synchrone
Dans le contexte des copies, ce mode de distribution est très utile
lorsque les mises à jour effectuées sur un site doivent être prises en compte
immédiatement sur les autres sites. Elle garantit l’absence des conflits entre les
différents sites, en effet pas de moment dont les données sont différentes
entre les sites.
L’avantage essentiel de la mise à jour synchrone est de garder toutes les
données au dernier niveau de mise à jour. Le système peut alors garantir la
fourniture de la dernière version des données quel que soit la copie accédée .
Faiblesse du mode de distribution synchrone
Les inconvénients sont cependant multiples, ce qui conduit beaucoup
d’application à éviter la gestion des copies synchrones.
Ce sont d’une part la nécessité de gérer les transactions multi listes
coûteuses en ressources ; demande plus de ressources réseaux et matérielles, et
d’autres parts la complexité des algorithmes de gestion de concurrence et de
panne d’un site c’est pour cela que l’on préfère souvent le mode de mise à jour
asynchrone (encore appelé mise à jour différé).
2. Mise à jour asynchrone (Asynchronous update)
Mode de distribution dans lequel certaines sous opérations locales
effectuées suite à une mise à jour globale sont accomplies dans des transactions
36

indépendantes en temps différés. Le temps des mises à jour des copies peut
être plus ou moins différé : Les transactions de report peuvent être lancées dès
que possible où à des instants fixés, par exemple le soir ou à la fin de la semaine.
Force du mode de distribution asynchrone
Les avantages sont la possibilité de mettre à jour en temps choisi des
données tout en autorisant l’accès aux versions anciennes avant la mise à niveau.
Il demande moins de ressources réseau et matériel que la réplication
synchrone, ce qui implique une meilleure disponibilité et une meilleure
performance.
Faiblesse du mode de distribution asynchrone
Les inconvénients sont bien sûr que l’accès à la dernière version n’est
pas garanti, ce qui limite les possibilités de mise à jour.
Possibilité d’avoir des conflits avec les données, dont voici les trois
types :
1. conflit de mise à jour : deux ou plusieurs sites réalisent de transaction
de modification sur la même ligne pratiquement en même temps.
2. conflit d’unicité : Il provient d’une transaction d’insertion réalisée par
deux ou plusieurs sites différents tentant d’insérer dans une table une donnée
comportant la clé primaire. Autrement dit quand la réplication d’une ligne tente
de violer l’intégrité d’une entité.
3. conflit de suppression : lorsqu’une transaction tente de modifier ou
de supprimer une ligne qui n’existe plus du fait de sa suppression par un autre
site quelque temps plutôt. Cette ligne ne peut donc être mise à jour ou
supprimer.
E. Types des Réplications
Il en existe deux notamment :
A. Réplication asymétrique (Asymétrie réplication)
La technique de gestion de copie basée sur un site primaire seul
autorisé à mettre à jour et chargé de diffuser les mises à jour aux autres copies
dites secondaire.
B. Réplication symétrique (Symetric réplication)
La technique de gestion de copies où chaque copie peut être mise à jour
à tous instant et assure la diffusion des mises à jour aux autres copies.
Réplication Asymétrique
Au-delà des techniques de diffusion des mises à jour se pose le
problème du choix de la copie sur laquelle appliquer les mises à jour.
37

La réplication asymétrique rompt la symétrie entre les copies en


distinguant un site chargé de centraliser les mises à jour.
C’est une technique de gestion de copies basée sur un site primaire seul
autorisé à mettre à jour et charger, de diffuser les mises à jour aux autres
copies dites secondaires.
Le choix d’une technique asymétrique est orthogonal au choix d’un
mode de diffusion synchrone ou asynchrone des mises à jour : on peut donc
distinguer l’asymétrique synchrone et l’asymétrique asynchrone
La première technique (l’asymétrique synchrone) :
Toute mise à jour est d’abord appliquée à la copie primaire (site
primaire), puis diffusée en temps réel vers les sites secondaires.

La deuxième (l’asymétrique asynchrone)


Toute mise à jour est d’abord appliquée à la copie primaire (site
primaire), puis diffusée en temps différé vers les sites secondaires. Dans les
deux cas, des problèmes surviennent lorsque le site primaire tombe en panne.

Un problème de la gestion de copie asymétrique est donc la panne du


site primaire. Dans ce cas, il faut choisir un remplaçant si l’on veut continuer les
mises à jour.
Celui-ci peut être fixé par l’administrateur ou élu par un protocole
spécifique de vote majoritaire.
On aboutit alors à une technique asymétrique mobile dans laquelle le
site primaire change dynamiquement selon des critères qui peuvent être liés à
l’application.
Le droit de mise à jour se déplace de site en site, par exemple au fur et
en mesure de l’évolution des données.
Réplication Symétrique
Technique de gestion de copies où chaque copie peut être mise à jour à
tout instant et assure la diffusion des mises à jour aux autres copies.
A l’opposé de la réplication asymétrique, la réplication symétrique ne
privilégie aucune copie.
38

Elle permet les mises à jour simultanées de toutes les copies par les
transactions différentes.

La convergence de copies asymétriques est assurée par le site maître.


Celui-ci règle les problèmes de concurrence et envoie les mises à jour dans
l’ordre où ils les appliquent aux sites secondaires. Encore faut – il que ces
derniers appliquent les mises à jours dans le bon ordre, ce qui peut présenter
quelques difficultés facilement solubles. Dans le cas de copies symétriques, la
convergence est plus difficile à assurer.
En effet, les mises à jour simultanées risquent d’être accomplies dans un
ordre différent sur une même donnée. Des techniques applicables dans le cas de
mise à jour synchrones découlent des mécanismes de contrôle de concurrence
étudiés ci – dessus. Ce sont :
La prévention des conflits par verrouillage des copies. Le mécanisme
consiste à demander à toute transaction mettant à jour, d’obtenir un verrou en
écriture sur chacune des copies. Les risques de verrous mortels sont alors
importants si plusieurs transactions mettent à jour simultanément. Les verrous
mortels peuvent être prévenus en ordonnant l’ordre de visite des sites.
La détection de conflit par ordonnancement des mises à jour.
L’ordonnancement s’effectue par un mécanisme d’estampillage ou de
certification comme vu ci – dessus. Le système doit alors utiliser des
estampillages synchronisés pour ne pas favoriser un site plutôt qu’un autre.
Les risques des reprises multiples ces transactions sont importantes.
Les deux mécanismes ci-dessus sont consommateurs en ressources et
seulement utilisables en synchrone.
En asynchrone, il est impossible de défaire des transactions validées.
Les approches proposées se contentent alors de détecter les conflits et de
reporter ceux – ci vers l’utilisateur qui doit alors mettre en œuvre une technique
de résolutions de conflits.
Problèmes de fiabilité et reprise
Afin d’améliorer la disponibilité des données comme indiqué en
objectifs, le système doit continuer à fonctionner malgré les pannes de sites.
39

Le problème est qu’un site en panne ne reçoit plus les mises à jour. Lors
de la reprise, il doit se resynchroniser en demandant ou en recevant les mises à
jour qu’il a manquées.
Le réseau peut aussi se partitionner suite à des pannes de nœuds ou de
moyens de communication. Le risque est que plusieurs sites ou groupes de sites
divergents après des pannes.

Conclusion partielle
Dans ce chapitre, nous avons traité l'entrepôt de données et le data
mart. Nous avons donnés l'architecture d'un entrepôt de données et celle du
data mart. Nous avons expliqué les différents composants qu'il intègre, les types
de données et les différents outils pour arriver à la visualisation de
l'information. Nous avons décrit les différents modèles multidimensionnels pour
la construction d'un entrepôt de données, ainsi que les différentes opérations
pour la manipulation des données multidimensionnelles et le parallélisme entre le
deux, nous avons présenté l'apport de DataMart dans les entreprises.
Nous avons décrit le serveur OLAP qui utilise une base de données
relationnelle, tant au niveau du stockage qu'au niveau de la gestion de données.
Le serveur OLAP a été la deuxième architecture que nous avons traitée,
Ces types de systèmes utilisent une base de données multidimensionnelle pour le
stockage des données. La troisième architecture que nous avons décrite est le
serveur
OLAP et quelque caractéristique de ce types serveur.
Et nous avons finis par traité de la réplications au sein d’une base des
données, ces avantages, inconvénients et le type des réplications aussi

CHAPITRE III : Planning Prévisionnel de la Réalisation du


Projet et Etude Préalable
Section I : Planning Prévisionnel
A. Description du Projet
 Intitulé du Projet : le projet en soit est intitulé « Conception et
Réalisation d’un système d’information Décisionnel pour la gestion
de stock à la BELTEXCO Kananga. » ;
 But du Projet : ce présent projet a pour but : mettre à la disposition
des gestionnaires de la Distribution de BELTEXCO Kananga de savoir
prendre des précautions dans la prise des décision sur le stock des
40

produits , prévenir au danger qui peuvent subvenir (détérioration des


stocks) et prendre des décisions pour la rentabilité de la BELTEXCO
pour maximiser les résultats dans le futur.
 Découpage du Projet en Phases :
Il est normal de découper un projet en phases pour en
faciliter non seulement la gestion, mais aussi sa réalisation. A ce
titre, le nôtre est découpé en phases ci-après et lesdites phases sont
représentées en ordre chronologique.
 Analyse et Compréhension du problème à résoudre.
Elle est cette phase au travers de laquelle nous avons pris
contact direct avec le système étudié. C’est grâce à elle que nous
avons obtenu les données ayant facilitées la compréhension de notre
cible présentées et motivées la proposition de la solution que nous
allons déployer.
Au terme de cette phase, nous allons établir un cahier de
charge reprenant les tenants et les aboutissants, le coût, la durée, le
contenu, les prérequis du projet et fait certaines observations pour la
concrétisation de la solution. Il est repris ci-bas.

CAHIER DE CHARGE
FICHE GUIDE PROJET
ETAPE : CAHIER DE CHARGE Date :le
PHASE : Mise en place d’une architecture du système 03/8/2023
d’information décisionnel.
41

OBJECTIF : Offrir la possibilité aux gestionnaires de prendre


connaissance notre système comment il sera mise en
place et comment ce système va fonctionner.
POINT DE DEPART : Compréhension du problème et étude
préalable.
POINT D’ARRIVE : mettre à la disposition des gestionnaires un bon
système d’information décisionnel pour résoudre tant
soit peu aux problèmes liés à la prise de décision
rationnel au BELTEXCO
DELAI DE LIVRAISON : 28/8/2023.
PRERECQUIS : Disposé d’une maitrise tant soit peu sur la
programmation et la conception.
CONTENU :
 Réalisation d’un système d’information décisionnel ;
 mise à jour et Maintenance du Système.
OBSERVATION : Le coût total du projet est de 1800$ et dans la
réalisation de nos tâches, nous trouvons qu’il y a des
tâches critiques donc les tâches dont la date au plus tôt est
égale à la date au plus tard.

 Conception du Système décisionnel.


Cette phase de notre projet est le point culminant de notre travail.
Elle sera présentée en long et large dans le chapitre dernier.
B. Planning du Projet et Graphe.
Cette section permet de faire une étude fonds en comble du
projet faisant objet de notre démonstration. Nous allons présenter la
durée de notre projet, la répartition des tâches et le chemin critique selon
une méthode.
En dehors de ce que nous venons de dire, ce projet occasionne
une circulation facile et rapide des informations se rapportant à
l’enregistrement des données, à interféré dans la prise des décisions
objectifs en vu de prévenir et maximisé les résultats pour notre
entreprise.
Ci-dessous, nous allons présenter le tableau de précédent qui
reprend toutes les tâches de notre projet présentées ci-haut selon l’ordre
chronologique, la durée de chacune d’elle, les dates au plus tôt et au plus
tard de chacune d’elle, et bien d’autres
42

Taches Codes Taches Durée


Antérieur

Analyse et compréhension du
problème
Conception de l’architecture

Implémentation

Test

Installation du système
Formation utilisateur

Section II : Etude Préalable


II.2.1. Présentation du Milieu
1. Historique de la BELTEXCO38
La société Belge de Textile et de commerce, (BELTEXCO)
fut créée en 1922 par les Belges, elle est l’aboutissement d’une
longue histoire liée à la vie et à l’existence même d’une famille dont
l’arrière grand-père, Monsieur MERALY RAWJI, immigra au Congo
Belge vers les années 1933 et s’installa à Kalemie et à Kindu dans
la province de Maniema pour travailler dans le domaine du
commerce général.
Il eût trois fils qui sont :
 FIDAHUSSEIN RAWJI
 PYRARALI RAWJI
 TAKI RAWJI
Avec ses trois fils, il ouvrit à Kindu son premier magasin
au nom de RAWJI & Fils et il acquit une plantation de café à MALELA
PLANTIMA (Plantation et industrie de Maniema). Puis durant l’année
43

1945, il ouvra un magasin de gros, et d’import-export à Stanley


ville, aujourd’hui Kisangani, au quartier asiatique sur la route de
BAFWABOLI. Et, enfin en 1955, il construisit un autre magasin avec
dépôts et habitation sur le long du boulevard de la commune de
MAKISO, sur l’avenue Lac KISALE.
C’est avec l’indépendance du Congo, en 1960 qu’une
partie de la famille RAWJI émigra à Léopoldville, aujourd’hui
Kinshasa.
Les troubles sociaux qui suivirent l’année de
l’indépendance du Congo n’épargnèrent guère la société RAWJI &
FILS. A la suite de pillages consécutifs à la rébellion de 1964, RAWJI
& FILS perdit beaucoup de ses activités.
Très vite, grâce au dynamisme d’un de ses fils, TAKI
RAWJI, RAWJI & FILS repris ses activités et, à l’instar de leur père,
réussit à se reconstruire. L’un de fils, PYARALI RAWJI, mourut à
l’âge de 45 ans laissant l’activité entre les mains de ses deux frères,
FIDA HUSSEIN et TAKI RAWJI.
En 1967, d’autres pillages se produisirent à Kisangani et
frappèrent de plein fouet l’activité de la société. Là aussi, assez
vite, l’activité est remise en place sans relâche, jusqu’à implanter
une usine de fabrication des casseroles en aluminium, dans la
commune de MANGOBO à Kisangani.
Vint ainsi la troisième génération de la famille dont les
commandes seront tenues des mains de maître par le fils ainé de
PYARALI RAWJI à la personne de Monsieur MUSHTAQUE RAWJI,
née à Kindu en RDC.
Au cours de l’année 1969, Monsieur MUSTHAQUE alors
jeune, est appelé à la tête de la société. Il sera rejoint par ses
frères, encore à bas âges entre 1973 et 1980. Animé par le sens
des affaires hérité de son ancêtre, il réussit à récupérer, entre les
mains des Belges, BELTEXCO (Société Belge des textiles et de
commerce, qu’il fusionna en 1976 avec les Etablissements RAWJI
& FILS.
Aujourd’hui, tous les parents, grands-parents et plusieurs
membres de la famille reposent à Kisangani en RDC, dans le
cimetière islamique de la commune de Kisangani, sur la route de
44

l’Aéroport de Bangoka, en face du bâtiment administratif de


l’Université de Kisangani.
Depuis le groupe BELTEXCO a diversifié ses activités à
travers la RDC.
2. STATUTS
2.1. Du Statut juridique
La société BELTEXCO qui fait l’objet de nos investigations,
présente la structure d’une société par Actions à Responsabilité
limitée de droit étranger régie par des Statuts modifiés dont l’acte
a été notarié le 26 Août 1976, en conformité avec la législation
relative aux sociétés commerciales par le notarié N’SIKU MAKAYA
ne MPANZU.
Progressivement, ces statuts ont connu diverses
modifications suivant décisions de l’Assemblée Générale
Extraordinaire dont :
Du 1er août 1924, autorisé par Arrêté Royal du 15 janvier 1925
(bulletin officiel) ;
Du 17/11/1924, autorisé par Arrêté Royal du 14/01/1925
(bulletin officiel du 15/02/1925).
Du 24/10/1928 (bulletin officiel du 15/12/1928)
Du 26/06/1929 (bulletin officiel du 15/07/1929)
Du 27/03/1939 (bulletin officiel du 15/12/1939)
Du 01/03/1940 (bulletin officiel du 15/12/1940)
Du 30/08/1949 (bulletin officiel du 15/10/1949)
Du 11/01/1951, prorogation autorisée par Arrêté du Prince
Royal du 30/04/1951
Du 29/09/1952, autorisée par Arrêté Royal du 02/12/1952)
moniteur n°15 du 01/08/1970
Du 26/01/1968 (moniteur n°7 du 01/04/1978
Du 22/11/1971 (deuxième partie du journal officiel de l’année
1975.
Pour rappel, la société a été prorogée pour un nouveau
terme de 30 ans par décision de l’Assemblée Générale
Extraordinaire du 11/01/1951, publiée à l’annexe I du bulletin
officiel de l’année 1951, page 1111 et suivantes, prorogation
autorisée par Arrêté du Principe Royal du 30/04/1951, publiée dans
45

la première partie du bulletin officiel de l’année 1951.


Au mois de septembre 2005, une Assemblée Générale
Extraordinaire a été convoquée, et qui avait pour objectif
l’augmentation du capital social.
Toutefois, l’ensemble des dispositions constitutives de la
société BELTEXCO se subdivise en 8 titres notamment :
- La dénomination, l’objet, le siège et la durée ;
- Le capital social actions ;
- Administration Direction surveillance conseil
d’administration ;
- Assemblée Générale ;
- Bilan – répartition – réserves
- Dissolutions – liquidation
- Dispositions spéciales ;
- Dispositions transitoires
II.3. Objet Social de la BELTEXCO
Au terme de l’article n°3 de ses Statuts, la Société
BELTEXCO a pour objet l’établissement en République
Démocratique du Congo de comptoirs pour la vente et l’achat de
toutes autres marchandises et produits ainsi que toute opération
commerciale, industrielle et financière, qui sont de nature à assurer
ou à favoriser la réalisation de son but social.

2.Situation Géographique
3. Organigramme
III.2.2. Analyse de l’existant
Narration du traitement des informations
Critique de l’existant et Proposition des Solutions

Conclusion Partielle
Ce troisième chapitre s’est basé sur la présentation de la réalité qui
se trouvant sur notre champ d’investigation en y ressortant les points
forts et faibles. Il a également débouché sur la proposition de la solution
pour pallier aux difficultés rencontrées sur terrain.

Vous aimerez peut-être aussi