Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Et de la Recherche Scientifique
Université de Tunis
Institut Supérieur de Gestion
Entreprise d’accueil :
Arab Tunisian Bank (ATB)
Elaboré par
Kdous Mohamed Amine & Sammouda Chirine
Année universitaire
2017 – 2018
Remerciements
Dans un premier temps, nous tenons à remercier Dieu le tout puissant, qui nous a donné la
force et la patience d’accomplir ce modeste travail.
C’est avec une grande gratitude et respect que nous tenons à exprimer nos sincères
remerciements à notre encadrante académique Madame Lilia REJEB pour ses précieux
conseils, sa qualité d’encadrement ainsi que le savoir qu’elle nous a transmis.
Nous adressons, par la même occasion nos vifs remerciements et nos profondes
reconnaissances à l’égard de Monsieur Aymen SAHRAOUI, notre encadrant professionnel
pour nous avoir encadré et orienté durant notre projet de fin d'études ainsi que pour ses
remarques judicieuses, sa sympathie et son amitié.
Nos remerciements s’étendent également à tout le personnel de l’ATB pour leur chaleureux
accueil.
Nous ne manquerons pas l’occasion de remercier tous nos enseignants à l’institut supérieur
de Gestion pour le temps qu’ils nous ont consacré afin d’assurer une formation de qualité
durant ces années d’étude, ainsi que les membres du jury présents pour avoir accepté de
juger ce modeste travail.
Dédicace
Je dédie ce modeste travail
À mes grands-parents.
Je vous remercie pour tout le soutien et l’amour que vous me portez depuis mon enfance et
j’espère que votre bénédiction m’accompagne toujours.
Chez qui j’ai trouvé le soutien et l’entente dont j’avais besoin. Merci pour les moments de
réussite et de joie partagés durant ces trois années d’amitié sincère et qui témoigne de ma
plus profonde reconnaissance.
Rien au monde ne vaut les efforts fournis jour et nuit pour mon éducation et mon bien être. Je
te dédie ce travail en témoignage de mon profond amour. Puisse Dieu, le tout puissant, te
préserver et t’accorder santé, longue vie et bonheur.
Je vous dois ce que je suis aujourd’hui et ce que je serai demain et je ferai toujours de mon
Les mots ne suffisent guère pour exprimer l’attachement, l’amour et l’affection que je porte
Sans Ton soutien moral, ta gentillesse sans égal et tes encouragements ce travail n'aurait vu
fidèle.
1. Introduction ......................................................................................................................... 1
5. Conclusion .......................................................................................................................... 8
1. Introduction ....................................................................................................................... 10
7. Conclusion ........................................................................................................................ 24
1. Introduction ....................................................................................................................... 25
8. Conclusion ........................................................................................................................ 34
Chapitre IV :............................................................................................................................. 35
1. Introduction ....................................................................................................................... 35
7. Conclusion ........................................................................................................................ 59
Chapitre V : .............................................................................................................................. 60
Sprint 2 : Suivi et évaluation de la classification des actifs et des risques clients. .................. 60
1. Introduction ....................................................................................................................... 60
8. Conclusion ........................................................................................................................ 71
Chapitre VI :............................................................................................................................. 72
1. Introduction ....................................................................................................................... 72
3. Conception ........................................................................................................................ 73
5. Conclusion ........................................................................................................................ 84
Lucides que l'une des plus grandes richesses d'une entreprise est son information, mais noyé
sous un volume pesant de données dispersées, non structurées, éparses et hétérogènes, les
dirigeants se trouvent confrontés à une problématique de taille : Comment étudier toutes ces
informations si précieuses mais volumineuses, dans un temps quasiment acceptable ? Ces
décideurs requièrent qu'on leur expose les faits importants, appuis de leurs décisions.
Pour répondre à une telle sollicitation, c’est l’informatique décisionnelle, nommée également
BI pour Business Intelligence qui, depuis son apparition, est entrain de submerger les systèmes
d’information (SI) en constante croissance. Il s’agit d’une sélection des informations
opérationnelles et pertinentes qui seront par la suite normalisées pour l’entreposage, puis
l’analyse et finalement la diffusion. De ce concept, est née alors la notion de modélisation
multidimensionnelle, essentielle pour répondre aux exigences d’analyse. En outre,
l’informatique décisionnelle permet de produire des indicateurs et des rapports à l'attention des
analystes en proposant des outils de visualisation, de navigation et d'interrogation de l'entrepôt.
C’est dans cette perspective que s’insère notre projet intitulé « Elaboration d’une solution
décisionnelle pour l’ATB » qui consiste à mettre en place une application intégrée d’aide à la
décision pour la banque ATB permettant de suivre les Engagements, les Produits, les Garanties,
La Classification des Actifs ainsi que les Risques clients.
Ce rapport exhibe les différentes étapes suivies pour la mise en œuvre de notre solution selon
la méthode SCRUM. Il est réparti en six chapitres :
• Le quatrième chapitre qui s’intitule « Mise en place d’un Data Warehouse des Suivis »
traite le premier Sprint qui vise à construire l’entrepôt de données. Il comporte le Backlog
produit, la conception globale de l’entrepôt, le processus décisionnel et finalement, la phase de
restitution des données.
• Le sixième chapitre qui s’intitule « Gestion des Rapports et des Tableaux de bord » traite
notre troisième et dernier Sprint qui assurera la création d’un site web dédié aux décideurs de
l’ATB pour visualiser les rapports générés et les tableaux de bord créés.
En guise de conclusion, nous allons présenter le fruit de notre travail ainsi que nos perspectives
Chapitre I : Contexte général
1. Introduction
Dans ce chapitre, nous allons évoquer brièvement l’historique de l’organisme d’accueil, ses
missions et son organisation. Par la suite, nous allons introduire le contexte du projet et faire
une étude de l’existant. Enfin, nous allons nous intéresser à la présentation de la solution
proposée.
2. Cadre du projet
Ce projet s’inscrit dans le cadre de la préparation d’un projet de fin d’études afin d’obtenir le
Diplôme de Licence Appliquée en Informatique Décisionnelle à l’Institut Supérieur de Gestion
(ISG). Ce projet dont la durée est de trois mois, est réalisé au sein de l’ATB (Arab Tunisian
Bank). Son objectif principal est le développement d’une application intégrée dédiée à l’aide à
la décision.
3.1 Historique
En 1930, l’Arab Bank a été fondée dans le but de construire une institution au service du monde
arabe. Elle a démarré avec sept actionnaires et un capital qui ne dépassait pas les 15 000 livres
palestiniennes. 52 ans plus tard, Arab Bank a décidé d’intégrer l’agence de Tunisie et fonder
une banque commerciale tunisienne l’ATB.
L’ATB s’est donnée pour mission d’offrir des services diversifiés et de qualité aux particuliers
ainsi qu’aux professionnels et de contribuer au développement économique et financier du pays.
Elle est classée parmi les meilleures banques en termes de résultats, importance des fonds
propres et de ses actifs.
1
L'ATB dispose aujourd'hui d'un réseau de 131 agences et emploie plus de 1300 personnes. Cette
banque s’est investie dans le développement d’une stratégie de filialisation. On parle
aujourd’hui d’une création des sociétés spécialisées. En vue de consolider sa position sur le
marché Tunisien et d’accroître ses champs d’action, l’ATB s’intéresse particulièrement aux
axes suivants [1] :
Une orientation plus soutenue vers le marché des particuliers sans toutefois
négliger sa cible privilégiée constituée des petites et moyennes entreprises, et les
grandes entreprises.
Une synergie entre la banque et ses filiales.
Comme tout établissement, l’ATB possède une fiche signalétique qui est décrite par la table 1
[2] :
2
3.3 Organigramme du siège
L’organisation de l’ATB est modélisée par l’organigramme présenté dans la figure 1 :
Directeur
général
Division
Division de
administration
coordination
des systèmes
Division études
Division de et
production développement
Service Service
maintenance maintenance
hard application soft
Service
Service maintenance
exploitation application hard
centrale
help desk
Notre stage d’étude se déroulera au sein de la direction des systèmes d’information, plus
précisément dans la division administration des systèmes en collaboration avec la direction des
Etudes et des Projets. Nous allons expliquer dans ce qui suit, les activités de chacune de ces
directions.
3
3.4 Présentation de la DCSI
Nous nous intéressons, non seulement à la cellule d’administration systèmes et base de données
qui fait partie du département infrastructure et systèmes, mais aussi à la direction des études et
des projets qui pilote tous les projets de la banque.
4
A ce titre, elle est chargée notamment :
4. Analyse de l’existant
La banque dispose des sources de données regroupant des informations sur les clients créanciers
telles que :
Les engagements : Le client peut être lié à différents types d’engagements envers la
banque. Principalement, on peut citer :
Les produits : Le client s’engage à fournir les produits bancaires tels que les différents
types de commissions, d’intérêt et les agios…
Les garanties : La banque exige une garantie bancaire qui permet d’assurer un
remboursement dans le cas où le client n'arriverait pas à honorer le contrat.
Les classes : La classification des clients peut être considérée comme une étape
essentielle à la prise de décision et se fait selon :
5
Le gel des comptes bancaires
La consolidation des crédits
La classification des impayés
Chaque classe peut avoir une valeur entre 0 et 5. Plus la note est proche de 5 plus le client est
mal classé.
Les données de l’ATB sont généralement sauvegardées dans un système Oracle, mais il existe
aussi une grande partie qui a été migrée vers un nouveau système intitulé « Equation »
spécifique à l’Arabe banque. La migration totale des données est encore inachevée donc une
partie des données concernant les engagements clients réside toujours dans l’ancien système.
Pour suivre les engagements, les produits et les garanties, la solution utilisée actuellement est
une application .NET classique qui permet la consultation et l’exportation des données sous
format Excel et peut être considérée comme étant basique et traditionnelle. Elle est définie sur
une base de données Oracle 11g en utilisant des liens de bases de données DBLINK permettant
l’accès à distance (oracle 11g, AS 400).
La solution utilisée traite chaque module à part. En effet, les informations concernant les
engagements, les clients, les produits et les garanties se trouvent dans différentes bases de
données.
Cette solution était adéquate et répondait aux besoins des décideurs relatifs aux suivis des
engagements clients. Cependant, depuis quelques années, la banque a noté une augmentation
considérable du nombre de clientèle, d’où une élévation du volume des données à traiter et
l’enrichissement du système d’information de la banque. Ceci a mené alors, à l’inefficacité de
cette solution face à ces changements, on parle de :
6
Un temps de traitement très lent qui peut durer jusqu’à 4 jours en considérant le volume
important des données à analyser.
Les bases de données relationnelles utilisées dans cette solution sont définies comme étant un
répertoire d'éléments de données dotés d'une relation prédéfinie entre eux. Ce répertoire peut
contenir des informations erronées et manquantes qui ne répondent pas aux attentes des
décideurs, qui ont besoin d’informations pertinentes et fiables sur lesquelles ils peuvent
s’appuyer pour une prise de décision avisée. Il est indispensable alors d’opter pour une structure
de données mieux adaptée afin de faciliter l’analyse des données pour des fins décisionnelles.
Après avoir étudié le processus de la prise de décision de l’ATB, il s’est avéré qu’il est
nécessaire de mettre en place un système décisionnel qui va permettre de :
7
Faciliter l’analyse et la prise de décision au niveau des hauts et moyens secteurs
de la banque.
C’est pour cette raison que nous avons opté pour une solution décisionnelle ayant pour but de
collecter et récupérer les données de différentes sources disponibles, les traiter et les charger
dans des bases décisionnelles. Cette solution permet de fournir une interface web dynamique
qui permettra aux décideurs de suivre les engagements, les produits et les garanties bancaires,
de consulter la classification des clients tout en se référant aux risques calculés, et enfin avoir
l’accès aux différents tableaux de bord et des rapports interactifs pour des fins décisionnelles.
5. Conclusion
A travers ce chapitre, nous avons pu acquérir une connaissance assez importante concernant
l’activité de l’ATB, en faisant l’étude de l’existant et en soulignant ses limites. Ensuite, nous
avons proposé une solution qui répond aux besoins des décideurs de la banque. Quant au
chapitre qui suit, nous allons énumérer les différentes méthodes de conception et les outils de
l’informatique décisionnelle pour justifier nos choix.
8
Chapitre II : Méthodes de conception et outils
décisionnels
1. Introduction
Afin d’assurer une bonne gestion du projet, une étude comparative des méthodes de conception
s’impose à ce stade. Nous allons également faire le choix des outils informatiques que nous
allons utiliser ainsi que les approches que nous allons adopter. Ce chapitre sera alors, dédié à la
justification de nos choix en faisant recours à une comparaison bien détaillée.
2. Méthodes de conception
Le projet décisionnel est un projet de type particulier. Il est non seulement complexe, mais doit
aussi répondre parfaitement aux besoins évolutifs des utilisateurs engagés de prendre des
décisions cruciales dans un univers instable et changeant. Cela n’est autre que la finalité de la
Business Intelligence. D’ailleurs, toute décision est obligatoirement une prise de risque,
d’autant plus critique à calculer dans un environnement incertain. Par conséquent, il faut choisir
une bonne méthode de gestion adaptée à ce type de projet.
Les méthodes classiques de gestion de projet telles que le cycle en V et le modèle en cascade
sont caractérisées par leurs aspects prédictifs, comme son nom l’indique, il faut que tout soit
planifié et défini dès le début. Le principe de la méthode prédictive consiste à collecter dans un
premier temps, les besoins puis déterminer le produit. En d’autres termes, la particularité de
cette méthode consiste à prévoir toutes les étapes de manière séquentielle et de valider l’étape
en amont pour pouvoir passer à l’étape qui suit. De ce fait, le chef de projet s’engage sur un
planning de réalisation du projet bien précis mais il lui est impossible d’anticiper les problèmes
que l’équipe peut rencontrer, dans un environnement où les nouvelles technologies font leurs
apparitions constamment. Prenons l’exemple du cycle en cascade, les risques ne sont détectés
qu’à la phase de test après avoir achevé la phase de développement. En avançant dans la
réalisation du projet, l’impact de ces risques augmente. Néanmoins, parmi les méthodes
classiques, la démarche cycle en V est la plus utilisée lorsqu’il s’agit d’un projet décisionnel.
La figure 2 récapitule les différentes phases de la démarche cycle en V. [4]
10
Figure 2. Démarche cycle en V [5]
« Une méthode agile est une approche itérative et incrémentale, qui est menée dans un esprit
collaboratif avec juste ce qu’il faut de formalisme. Elle génère un produit de haute qualité tout
en prenant en compte l’évolution des besoins des clients. » [6]
11
2.3 Méthodes AGILES Vs Méthodes prédictives classiques
Après avoir étudié chaque méthode, nous proposons ce tableau comparatif qui récapitule les
principales différences entre les deux méthodes. [7]
Après cette étude comparative, nous avons décidé d’adopter la méthode Agile pour réaliser
notre projet. Cette méthode est parfaitement cohérente avec les concepts de base du cycle de
vie d’un Datawarehouse, un concept publié par Ralph Kimball, qui se résume en trois points
[8] :
12
Ajouter une valeur métier à l’entreprise.
Stocker les données dans des dimensions.
Concevoir une solution d’aspect itérative.
Les méthodes agiles sont de nature itérative et participative. On commence par développer des
petits morceaux d’application qui apportent de la valeur ajoutée, qu’on valide par le client puis
on passe aux suivants. C’est le client qui pilote au fur et à mesure le développement de la
solution à travers le choix des fonctionnalités qu’il souhaite voir développer. La nature de ce
processus est la clé de notre décision. Appliquer l’agilité sur un projet décisionnel permettra
d’impliquer d’avantage le client et d’assurer la valeur métier pour l’organisation.
Après avoir fixée une méthode à suivre pour la réalisation du projet, il est temps de choisir une
des méthodes de développement Agile parmi celles citées précédemment.
La méthode SCRUM est inspirée des valeurs et de l’esprit du jeu Rugby. Cette approche est
issue des travaux des signataires du Manifeste Agile : Sutherland et Schwaben, et fait partie de
la famille des méthodes incrémentales et itératives.
Cette méthode est définie dans un milieu de travail assurant la réalisation des projets considérés
complexes. Cette méthode est apte principalement pour la mise à exécution des projets
software. Néanmoins, elle peut être également appliquée à tout autre type de projet, du plus
simple au plus innovant. En effet, en Scrum, le client est plus impliqué dans le suivi de
l’avancement du projet et l’approbation de plusieurs livrables. Il peut donc suivre régulièrement
l’évolution des travaux dans le cas d’une demande de modification d’un élément ou
d’insatisfaction ça sera plus facile de le modifier pour satisfaire ses besoins.
En comparant un projet séquentiel avec un projet agile, on note une différence aux niveaux des
missions et des responsabilités des intervenants car une importance particulière est accordée
sur l’appropriation de tous les éléments sprint du projet par les membres de l’équipe.
13
La méthodologie Scrum définit trois rôles [10] :
C’est le porte-parole des clients chargé de définir soigneusement le Backlog qui permet de
recueillir les besoins du client, les spécifications du produit ainsi que toutes les fonctionnalités
du projet à réaliser. Le propriétaire du produit est également responsable de classer les éléments
du Backlog par priorité et indiquer l’ordre de leur réalisation.
Le Scrum Master
C’est la personne qui joue le rôle d’un animateur de l’équipe. Il n’est pas considéré comme un
chef de projet ou un donneur d’ordres mais plutôt comme un coordinateur facilitateur qui assure
le bon déroulement du projet et veille à résoudre les problèmes et les obstacles qui empêchent
l’avancement du travail de son équipe.
Le Scrum Team
C’est l’équipe de développement qui est responsable à délivrer les éléments de chaque sprint
selon leurs ordres de priorités. Le groupe est constitué d’architectes, de développeurs et
d’administrateurs de base de données.
Product Backlog :
Le carnet des produits est défini comme étant une liste ordonnée contenant les exigences et les
besoins du client et toutes les spécifications relatives au produit. Le Product Owner est chargé
du Product Backlog en termes de contenu, disponibilité et ordonnancement.
Sprint Backlog :
14
Sprint Burn-Down Chart :
Le graphique d'avancement est une représentation qui donne une vue globale sur l'évolution de
quantité de travail restante par rapport au travail engagé. Sur l’axe vertical se situe le travail
restant. L’axe horizontal présente le temps. Ce type de graphique permet de prévoir l’état
d’avancement du travail pendant un laps de temps afin de suivre le déroulement de l’activité.
Lors de l’élaboration d’un projet BI, la solution SCRUM est appelée. Chaque sprint représente
le cycle de vie entier du projet décisionnel qui inclut la phase d’analyse des besoins, la phase
de conception, la phase de réalisation et finalement la phase de test. Cette solution assure
l’adaptabilité du projet à l’égard de l’évolution des besoins de l’utilisateur.
15
En outre, nous nous intéressons dans notre cas, à la mise en place d’un entrepôt de données qui
est au cœur de la technologie BI. De ce fait, nous mentionnons deux écoles de pensées relatives
à la modélisation des données [13] :
Dans cette approche, Le Data Warehouse est considéré comme étant l’union des datamarts
cohérents entre eux. Le Datawarehouse physique n’existe pas.
Dans cette approche, le Data Warehouse est un référentiel centralisé stockant les données
relatives à l’entreprise au niveau le plus détaillé. Par la suite, des Datamarts sont modélisés et
crées à partir de ce Data Warehouse.
Quant à notre solution, nous avons adopté l’approche de conception « top-down » permettant
de mettre en place un référentiel centralisé, le DW, puis charger de manière cohérente les
datamarts. Cette approche est simple et résistante lors du chargement des dimensions, ainsi que
lors de la création des magasins de données. En outre, elle est insensible et flexible aux besoins
des clients qui évoluent au cours des phases de mise en œuvre. [14]
3. Modèle conceptuel
Dans cette section, nous allons choisir un schéma de modélisation de notre Datawarehouse.
Commençons tout d’abord par définir les deux modèles qui existent [15] :
Un schéma en étoile (Star Schema) est une structure dimensionnelle qui représente, au
centre, une seule table de faits dont les colonnes sont les mesures. La table de faits est
entourée par un cercle de dimensions présentant les axes d’analyse. Toute dimension à
niveaux multiples est aplatie en une seule dimension. Le schéma en étoile est conçu
pour répondre à des requêtes inhérentes à la structure dimension-fait.
Le principe du schéma en flocon de neige est qu’il peut exister des hiérarchies de
dimensions, contrairement au schéma en étoile.
Pour notre solution, nous avons opté pour le modèle en flocon de neige qui permet de formaliser
une hiérarchie de dimensions, ce qui facilite l’analyse et réduit le volume des données.
16
4. Approches pour la création du Datawarehouse (ROLAP, MOLAP,
HOLAP)
Relationnel OLAP (ROLAP) : Les données sont stockées dans un SGBD relationnel et
un moteur OLAP permet de stimuler le comportement du SGBD.
Multidimensionnel OLAP (MOLAP) : Les données sont stockées dans un Cube qui
n’est autre qu’une base de données multidimensionnelle qui permet la restitution des
données de façon instantanée.
Hybride OLAP (HOLAP) : L’HOLAP est un mélange du ROLAP et du MOLAP, les
cubes HOLAP sont donc Hybrides.
Pour notre solution, nous avons opté pour HOLAP. L’idée consiste à avoir la possibilité
d’accéder aux données agrégées à travers MOLAP, ou accéder aux détails si souhaités à travers
ROLAP. Cela pourra nous aider lors de la phase de restitution. Nous pourrons avoir un rapport
dont les données sont issues d’une base multidimensionnelle, ainsi qu’un autre beaucoup plus
détaillé dont les données sont issues, cette fois-ci, d’une table relationnelle. [17]
Nous allons présenter dans ce qui suit, une étude comparative des différents outils BI les plus
utilisés. Nous avons divisé ces outils en 3 catégories :
Les outils pour la création du DataWarehouse.
Les outils pour assurer l’ETL.
Les outils de Reporting.
PostgreSQL
PostgreSQL est un SGBDR (système de gestion de base de données relationnelle) Open Source.
Réputé pour sa puissance et sa robustesse, il possède diverses fonctionnalités riches et avancées
permettant de manipuler une grande masse de données et supporter une douzaine de langages
17
de programmation, dont Python, Java, C, C++ ainsi que son propre langage PL/pgSQL qui est
similaire à PL/ SQL d’Oracle. [18]
SQL Server
SQL Server est un outil de gestion de base de données (SGBD) développé par Microsoft, il
permet à l’utilisateur de manipuler, contrôler, trier, mettre à jour et plusieurs autres
fonctionnalités en utilisant le langage SQL (Structured Query Language). [19]
Le table 3 illustre une Comparaison des propriétés de PostgreSQL et Microsoft SQL Server.
[20]
18
Sécurité Gestion des environnements Mécanisme de réplication
critiques avancés, disponible que dans la
Mécanisme de réplication version commerciale.
Gestion des Indexes
Talend Open Studio est un ETL (Extract Transform Load) développé par la société Talend en
2005. Cet outil Open Source, est doté de capacités avancées d’intégration de données tout en
assurant une exécution optimale. Sur Talend, les « Jobs », appelés aussi tâches permettent de
réaliser des transformations et se font sur une interface nommée « Job Designer ». Pour chaque
job, Talend génère un code Perl ou Java selon la préférence de l’utilisateur permettant
l’exécution des transformations. Talend est capable de gérer des métadonnées grâce à un
référentiel complet de la formation XML et de modéliser également des architectures des
solutions décisionnelles via un Business Modeler. [22]
Pentaho Data Integration (PDI) est un outil ETL (Extract Transform Load) open Source
développé par PENTAHO CORPORATION. Son principal objectif est de permettre aux
utilisateurs la conception, la manipulation et la transformation des données après leur
récupération à partir des sources hétérogènes et sous différents formats. Il est basé sur une
architecture normalisée et est compatible à plusieurs environnements ou solution de Business
Intelligence. [23]
19
SQL Server Integration Services (SSIS)
SQL Server Integration Services (SSIS) est un outil de gestion de flux de données appartenant
à la famille des ETL. Proposé aux possesseurs d’une licence SQL Server Standard ou
Entreprise, SSIS connu aussi sous le nom de Data Transformation Services dans les versions
antérieures, permet le développement simplifié de scripts d’import et export, en mettant à la
disposition de son utilisateur un large éventail de fonctionnalités via une interface d’édition
graphique. Dans le cadre de gestion des flux de données ETL, SSIS propose principalement
trois types d’éléments [24] :
La table 4 illustre une comparaison des propriétés de Talend Open Studio, Pentaho Data
Integration et SQL server Integration services. [25]
Critère de
Pentaho Data Integration SSIS
comparaison Talend Open Studio
Open Source
(fonctionnalités limitées)
Licence Open Source Commercial
Commercial (plus de
fonctionnalités)
Classement sur
58 outil
d’intégration
7ème 3ème 2ème
des données
20
et un référentiel de travailler avec de
stockage avec nombreux
possibilité de partage. connecteurs (oracle,
Teradata, SAP...)
Résultat graphique
basé sur Eclipse RCP
Interface graphique basé
avec une bonne
sur SWT (Standard
Environnement visibilité de Jobs d’où Un outil très visuel
d’exécution Widget Toolkit) simple et
une compréhension
facile à utiliser.
plus rapide de
l’architecture.
IBM Cognos
SQL Server Reporting Services est une solution dédiée à la création, la génération et la
publication des rapports que les clients peuvent déployer dans leurs propres locaux, puis les
distribuer ; soit par visualisation dans un navigateur Web, sur un appareil mobile ou par email.
[27]
Le projet BIRT est un logiciel développé et diffusé sous une licence libre et fait partie de la
famille des logiciels décisionnels. Il a été initié par l’entreprise Actuate en 2004 en vue de
21
concevoir des rapports, des tableaux et des graphiques basés sur un environnement Eclipse,
ainsi qu’un moteur d’exécution lié avec un serveur de type JEE tel que le serveur JBoss et le
serveur Tomcat. [28]
QlikView
QlikView est une plate-forme de Business Intelligence et de Data Visualisation développée par
la société américaine Qlik, permettant de transformer les données en connaissances. Elle permet
à son utilisateur d’analyser, chercher, consolider et visualiser les données afin de prendre les
décisions. Les forces de QlikView résident dans sa grande souplesse d’utilisation permettant le
croisement des données entre elles ainsi que sa capacité d’intégrer un nombre important de
sources de données telles que Excel, SQL Server et Oracle. [29]
Le table 5 illustre une Comparaison des propriétés de IBM Cognos, SQL Server Reporting
Services, Business Intelligence Reporting Tools et QlikView.
Critères de
IBM Cognos SSRS BIRT QlikView
comparaisons
Edition
personnelle :
GPL.
Licence Commerciale Commerciale GPL
Edition pour
entreprise :
Commerciale
Via une Via une
Via une Interface Via une Interface
Accessibilité Interface Interface
graphique. graphique
graphique graphique.
XML, CSV,
Excel, PDF, CSV
Format de PDF, EXCEL, PDF, CSV et Excel, HTML,
et
rapport généré PowerPoint, HTML Word, PDF
HTML
Word, TIFF file
22
6. Environnement de développement retenu
Dans ce volet, nous décrivons les outils de conception et les logiciels de développement utilisés
pour la mise en place de notre solution.
Microsoft Visio est un logiciel de mise en page des diagrammes et des graphiques qui fait partie
de la suite bureautique Microsoft Office. Il permet la modélisation de plusieurs types de
diagrammes UML tels que les diagrammes de cas d’utilisation et les diagrammes de classes. Il
offre également la possibilité de créer des diagrammes de Gantt.
Microsoft SQL Server est un système de gestion de base de données (SGBD) en langage SQL,
développé et commercialisé par Microsoft incorporant entre autres un SGBD relationnel et un
SGBD multidimensionnel, Il peut fonctionner sous les systèmes d’exploitation Windows et
Linux ainsi que sur Mac OS.
Microsoft SQL Server Data Tools - Business Intelligence pour Visual Studio
SQL Server Data tools, nommé également SSDT est l’utilitaire qui permet la création des lots
SSIS, la conception des cubes SSAS (SQL Server Analyse Services) et la génération des
rapports SSRS (SQL Server Reporting Services). Il est téléchargeable séparément de SQL
23
Server depuis la version de SQL Server 2004 et intégré dans la gamme des outils de
développement de Visual Studio.
SQL Server Reporting Services est une plateforme de Reporting faisant partie de la suite
décisionnelle Microsoft BI. SSRS fournit des fonctionnalités de création de rapports
d'entreprise qui permettent d’extraire et de mettre en forme des données à partir d'une large
gamme de sources de données.
7. Conclusion
A travers ce chapitre, nous avons fait le choix de la méthode de conception de notre projet :
SCRUM ainsi que les outils utilisés, par l’intermédiaire d’une étude comparative détaillée. Dès
lors, nous allons consacrer le chapitre qui suit à la préparation du projet qui inclut la
détermination des besoins.
24
Chapitre III : Phase de préparation
1. Introduction
La phase de préparation, nommée aussi Sprint 0 selon le Co-créateur de Scrum Ken Schawber,
est consacrée à la description de la partie d’Inception qui précède le lancement de notre projet.
Dans ce chapitre, nous allons donc, étudier les besoins fonctionnels et les besoins non
fonctionnels du système. Par la suite, nous allons produire le Backlog produit et découper la
solution en Sprint. Finalement, nous allons commencer l’étude des données sources.
La première étape de cette phase est dédiée à l’analyse des exigences des clients, la définition
des utilisateurs potentiels de notre solution ainsi qu’à la présentation des besoins fonctionnels
et non fonctionnels
25
2.2 Spécification des besoins fonctionnels
Le besoin énoncé par notre décideur est le suivant : Développer et concevoir une application
intégrée qui communique avec un entrepôt de données et un Datamart regroupant toutes les
informations relatives aux engagements clients, les garanties, les produits, la classification des
Actifs et les Risques Clients afin de suivre et évaluer la situation de ces derniers en générant
Au niveau de l’annexe A, dédié à la description de l’Etat de l’Art d’un projet décisionnel, nous
avons présenté la différence entre un rapport et un tableau de bord.
Si les besoins non fonctionnels ne sont pas respectés, notre application risque de rencontrer des
lacunes et des obstacles qui peuvent l’empêcher de fonctionner convenablement. Elle doit alors
répondre aux critères suivants :
26
La rapidité de traitement : En effet, vu le nombre important des transactions
quotidiennes, il est impérativement nécessaire que la durée d'exécution des traitements
s'approche le plus possible du temps réel.
La performance : Un logiciel doit être avant tout performant c'est-à-dire à travers ses
fonctionnalités, répond à toutes les exigences des usagers d'une manière optimale.
La convivialité : Le futur logiciel doit être facile à utiliser. En effet, les interfaces
utilisateurs doivent être conviviales c'est-à-dire simples, ergonomiques et adaptées à
l'utilisateur.
Fiabilité : l’application doit être fiable et sure à travers ses fonctionnalités qui doivent
répondre aux exigences d’une manière optimale.
Sécurité : L’application doit être sécurisée et garantit la confidentialité de l’accès.
Evolutivité : L’application doit avoir la capacité de s’adapter aux changements et aux
futures exigences de la banque
3. Backlog produit
Le Backlog produit présente une liste de fonctionnalités attendues du produit. Cette liste permet
de définir des éléments appelés des histoires « user stories ». Chaque « user story » ajoutée au
Backlog produit doit justifier une valeur ajoutée nommée aussi « business value ».
User story
Thème ID Priorité
En tant que… Je veux… Afin de …
Consulter un rapport
Suivi et
1 dynamique concernant les Avoir une vision globale 1
évaluation Responsable
engagements. de la situation des
des crédits et
Disposer d’un tableau de bord engagements pour des
engagements engagements
2 interactif relatif aux fins décisionnelles. 1
.
engagements.
Consulter un rapport
Avoir une vision globale
Suivi et 3 dynamique concernant les 1
Directeur de la situation des
évaluation produits.
financier produits pour des fins
des produits. Disposer d’un tableau de bord
4 décisionnelles. 1
interactif relatif aux produits.
27
Consulter un rapport
5 dynamique concernant les 1
Suivi et Responsable Avoir une vision globale
garanties.
évaluation affaires de la situation des
Disposer d’un tableau de bord
des 6 juridiques et garanties pour des fins 1
interactif relatif aux garanties.
garanties. recouvrement décisionnelles.
Mettre à jour les données
7 1
relatives aux garanties.
Consulter un rapport
8 dynamique concernant la 1
classification des Actifs.
Suivi et
Disposer d’un tableau de bord
évaluation
9 interactif relatif à la Avoir une vision globale 1
de la
classification des actifs. de la classification et les
classification Risk Manager
Disposer d’un tableau de bord risques pour des fins
des actifs et
10 interactif relatif aux risques décisionnelles. 1
les risques
clients.
clients.
Consulter un rapport
11 dynamique concernant les 1
risques clients.
4. Planification du projet
L’équipe de notre projet est composée de quatre membres représentés par la figure 4 :
Le product Master est Mme Lilia Rejeb, chef département informatique à l’ISG.
Le product Owner est Mr Aymen Sahraoui, membre de l’équipe BI au sein de l’ATB.
Le team members sont Mohamed Amine Kdous et Chirine Sammouda.
28
Scrum master Product Owner Equipe de travail
Chirine Sammouda
Nous avons choisi de découper notre solution en 3 sprints après avoir étudié les besoins du
décideur comme suit :
29
4.3 Diagramme de Gantt
Dans le but de mener à bien notre projet et pour assurer une bonne organisation, nous avons
constitué un chronogramme qui englobe les différentes tâches à réaliser :
Maintenant que les besoins fonctionnels sont identifiés, il faut commencer la collecte des
données.
Cette section est consacrée à l’étude des données sources extraites à partir du système
d’information de la banque avec lesquelles nous allons alimenter notre entrepôt.
Pour des raisons de confidentialités et de sécurité, il n’était pas possible que nous ayons accès
aux serveurs de la banque dans lesquels sont stockés des données personnelles des clients. Les
30
données sources nous ont été livrées sous format Excel. Nous avons alors créé une base de
données relationnelle contenant les tables suivantes :
Table compte : Cette table contient des informations sur les comptes des clients ATB.
Table client : Cette table regroupe les informations sociodémographiques de la clientèle
de l’ATB (particuliers et entreprises).
Table engagements : Cette table contient plusieurs types d’engagement que peut avoir
le client envers la banque.
Table Activité Cette table comporte le secteur d’activité de chaque client ATB.
Table garantie : Cette table contient toutes les informations concernant les garanties
détenues sur les clients de la banque.
Table produits : Cette table regroupe les produits et les revenus de la banque.
Table agence : Cette table contient les informations relatives aux agences de l’ATB.
Table groupe Cette table comporte la description des groupes engagés à l’ATB tel que
le groupe délice.
Table classe : Cette table comporte les différentes classes des actifs de l’ATB.
Cette partie est dédiée à la modélisation des données au niveau relationnel (ou logique). Ceci
implique la création des tables dans SQL server et l’établissement des relations. Nous avons
nommé cette base « ATBTEST_DB ». (Voir figure 6)
31
Figure 6. Modélisation de la base de données
L’étape qui suit la création de la base au niveau se SQL Server, est l’alimentation de cette base
avec les données sources livrées sous format Excel. Pour ce faire, nous avons eu recours à
Visual Studio Integration Services qui constitue un ensemble de packages assurant le
chargement des données. Pour chaque table, nous avons décidé de créer un Package de
chargement distinct. (Voir figure 7)
32
Figure 7. Les Packages de chargement de la base de données
Le processus de chargement des tables sera expliqué en détail au niveau du chapitre suivant.
Maintenant, nous allons nous contenter de montrer un exemple de chargement de la table
Produit à partir d’une source Excel, vers une OLE DB Destination. (Voir figure 8)
33
Le passage d’une conversion de données est obligatoire à ce stade, elle permet de convertir les
types des données d’une colonnes d’entrées si souhaité.
8. Conclusion
Dans ce chapitre nous nous sommes intéressés aux acteurs du système, aux besoins fonctionnels
et non fonctionnels, ainsi qu’à l’élaboration du Backlog Produit qui est l’output essentiel de ce
chapitre. Puis nous sommes passés à la planification du projet en découpant la solution en
Sprint. Finalement, nous avons étudié les données sources livrées. Dans le chapitre suivant,
nous allons entamer le premier Sprint.
34
Chapitre IV :
Sprint 1 : Mise en place d’un Data Warehouse des Suivis
1. Introduction
Ce chapitre sera dédié au traitement du premier Sprint qui évoque tout le processus d’un projet
BI. Cela implique principalement, la mise en place d’un DataWarehouse en passant par l’ETL,
ainsi que la restitution des données. Nous allons alors, détailler toutes ces étapes en partant des
données livrées jusqu’à l’élaboration des Tableaux de bord et la génération des Rapports relatifs
aux Engagements, Produits et Garanties comme expliqué dans le chapitre qui précède au niveau
du Backlog Produit.
2. Sprint Backlog
Le Sprint Backlog fait partie des artéfacts de la méthodologie SCRUM. Il est utilisé dans le but
de faciliter la répartition des tâches et permet de faire la mise au point du travail demandé en
vue d’atteindre les objectifs du sprint concerné. Dans le cas du Sprint 1, l’objectif est de
construire un Datawarehouse dont le sujet est le suivi des Engagements, Produits et Garanties
puis en générer des Rapports et des Tableaux de bord.
35
dynamiques et Chargement des données traitées dans l’entrepôt de
1.4
interactifs. données en se référant de la conception choisie.
Génération des rapports dynamiques et un tableau de
1.5
bord interactif relatifs aux engagements.
Génération des rapports dynamiques et un tableau de
1.6
bord interactif relatifs aux produits.
Génération des rapports dynamiques et un tableau de
1.7
bord interactif relatifs aux garanties.
1.8 Préparer une interface de mise à jour des garanties.
3. Conception du DataWarehouse
Pour préparer la table de faits, il faudra bien se servir des éléments recueillis et collectés lors de
la phase de préparation et étude des données sources. Il faudra alors préciser les éléments que
nous souhaitons mesurer.
Dans notre table de faits, nous avons retenu les mesures indiquées dans le tableau 9 :
Mesure Libellé
36
3.2 Choix des dimensions
On entend par dimensions, tous les axes ou thèmes suivant lesquels les données seront
analysées. On attribue une table à chaque dimension ce qui implique qu’il existe autant de tables
de dimension que de dimensions.
Une table de dimension comporte des attributs et une clé primaire indépendante des attributs.
Notre modèle comportera les dimensions suivantes :
Dimension Libellé
Dim_temps Dimension temps
La table de fait contient les données observables (les faits) que l’on possède sur un sujet et
que l’on veut étudier, selon divers axes d’analyse (les dimensions).
37
TOT_ENG_AC Total des engagements année
courante
TOT_PROD Total des produits
TOT_GAR Total garanties
STARTE Les couches
VAR_ENG Variation des engagements
GAG_PLAFF_A_L_ENG Garantie Plafonnée à
l’engagement
4. Modélisation du DataWarehouse
38
5. Intégration des données du DataWarehouse « Suivi » (ETL)
L’ETL est une phase primordiale dans un projet Décisionnel, elle représente les trois quarts de
la totalité du projet. Elle comporte [31] :
Pour ce faire, nous avons créé un nouveau projet dans l’environnement Visual Studio 2015 et
nous avons choisi « Integration Service » sous la rubrique « Business Intelligence » comme
indiqué dans la figure 11.
39
Le projet Integration Services est composé de plusieurs Packages, qui à leurs tours sont
composés des Flux de contrôle et des Flux de données : Dans SSIS, l’onglet Flux de contrôle
permet de gérer les tâches nécessaires aux transformations et les éléments de contrôle que le
package va exécuter. Au niveau de l’onglet Flux de données, s’effectue la sélection des données
sources, les transformations qu’elles vont subir, et la précision de leurs destinations. Le schéma
dans la figure 12 clarifie la composition d’un package simple.
Nous nous sommes basés sur les tables sources définies dans notre base de données afin
d’extraire les mesures et les dimensions dans l’entrepôt de données en tenant compte des
relations et des contraintes établies. Les tables utilisées pour l’extraction des données sont les
suivantes :
T_ACTIVITE
T_AGENCE
T_CLASSE
T_CLIENT
T_COMPTE
T_ENGAGEMENT
T_GARANTIE
T_GROUPE
T_PRODUIT
40
Nous avons choisi d’extraire les données relatives à ces tables de notre base de données
Chaque package comporte une tâche de flux de données qui assure l’extraction des données ;
et chaque tâche de flux de contrôle assure la mise à jour des Tables. Dans notre cas, nous avons
eu recours à une tâche « Execute SQL Task » que nous avons nommé « Delete » qui permet
d’effectuer une requête SQL à chaque exécution du package pour éviter la duplication des
données. [33] (Voir figure 13 et 14)
Figure 13. Package pour l'extraction des données à partir de la base « ATBTEST_DB »
41
5.2 Transformation des données
Pour garantir la réussite d’un ETL, il faut accorder une grande importance aux transformations
des données, sujet que nous allons traiter dans cette section.
Pour que les données soient significatives et utilisables plus tard lors de la génération des
rapports et des Tableaux de bord de l’ATB, elles doivent être nettoyées, triées et vérifiées en
vue d’éliminer toutes sortes de valeurs aberrantes et dupliquées. Il faut aussi traiter les données
manquantes ainsi que la standardisation des référentiels tels que les unités, la devise etc.
Nous allons citer dans ce qui suit, les différentes transformations apportées durant le premier
Sprint.
Dimension Activité
La dimension activité permet d’identifier l’activité des clients. Mais, le problème rencontré
avec les données sources de la table Activité est le suivant : Quelques descriptions de l’activité
des clients sont inexistantes. Nous avons donc, procédé à remplacer les descriptions vides
(NULL) par l’expression « Description indisponible » afin d’éviter les complications dans les
étapes plus avancées.
42
Pour ce faire, nous avons utilisé la tâche « SQL STATEMENT » pour mettre à jour les données
de cette dimension à l’aide d’une requête SQL comme l’indique la figure 15.
Dimension Agence
Dans la dimension Agence, nous avons transformé le champ COD_AGE, qui représente le code
de l’agence, faute d’inadéquation avec les numéros de compte. En effet, pour distinguer
l’appartenance de chaque client à une agence, il faut que le numéro de compte du client
comporte le code de son agence. La Banque exige que les codes d’agence soient dans un format
prédéfini, c’est-à-dire les codes agence qui débutent par 58 doivent être remplacés par 0 et 59
doivent être remplacés par 1.
Pour ce faire, nous avons utilisé la tâche « SQL STATEMENT » pour transformer le champ
code agence de cette dimension à l’aide d’une requête SQL comme l’indique la figure 16.
43
Table de Faits « Suivi »
Pour traiter le premier sprint qui s’intéresse au suivi des engagements, des produits et des
garanties il faut intégrer les données relatives à ces sujets dans la table de faits que nous
l’appelons « Fact_suivi ».
Les mesures de la table de faits « fact_suivi » sont issues de différentes tables sources telles que
T_engagement, T_produit et T_compte de la base de données initiale. Nous avons commencé
par trier et éliminer les redondances dans chaque table. (Voir figure 17)
44
Une fois le tri effectué, nous avons utilisé l’élément « Merge Join », permettant de fournir un
output en associant deux ensembles de données triés à l’aide d’une jointure FULL OUTER
JOIN. (Voir figure 18) [34]
Pour notre solution décisionnelle, il faut combiner plusieurs valeurs et effectuer des sommations
au niveau des mesures de la table de faits. Pour cela, nous avons opté pour l’élément « Derived
column » qui permet de créer de nouvelles valeurs en appliquant des expressions sur les
colonnes d’entrée telles que des fonctions, des opérations mathématiques et des combinaisons
de variables. Le résultat sera ajouté dans une nouvelle colonne ou bien inséré dans une colonne
existante. [35]
Dans notre cas, les transformations nécessaires au niveau de la table de faits sont des
sommations de plusieurs valeurs d’entrée. Nous allons détailler ces transformations dans ce qui
suit.
Portefeuille = AUTCRDCT+AUTCRDMT+CRDMTRES+CRDLTORD
Total_imp = IMPRINC+IMPINTER
45
Total_prod= [INTERETS_DEBITEURS]+ [AUTRES_COMMISSIONS]
+[COMM_MONETIQUE]+ [COMM_SUR_VIR_PRELEV]
+[COMM_SUR_CREDIT]+ [COMMISIONS_EXIMBILS]
+[INT_SUR_BONS_DE_CAISSES_AVANCEE]+
[INT_SUR_FINANCEMENTS_DEVISES]+
[COMM_SUR_OPERATION_EFFETS] +[COMM_SUR_OPERATION_CHEQ]+
[AGIOS_DEBITEURS]+ [INT_RETARD_PTF_ESCOMPTE_COMM]
+[INT_PTF_ESCOMPTE_COMMER]+ [PDT_LENDING_H_NET_DESCOMPTE]+
[PDT_LENDING_NET_DESCOMPTE]+
[INT_SUR_CPTES_PERSONNELS_ATB]+ [INT_DE_RETARD_LENDING]+
[INT_DE_RETARD_MANUEL]
Var_eng=TOT_ENG_AC-TOT_ENG_AP
Comme la figure 19 le montre, ces transformations sont appliquées dans le « Derived Column
Transformation Editor ».
46
5.3 Chargement des données
Une fois les transformations nécessaires effectuées et que les tables obtenues répondent aux
besoins de notre solution, il est temps de les charger dans une structure qui n’est autre que le
Datawarehouse, que nous avons déjà créé dans SQL Server nommé « ATBTEST_DW ».
Puisque les données seront stockées dans SQL server, nous avons choisi comme Destination
« OLE DB » dans SSIS comme indiqué dans la figure 20.
Nous avons commencé par charger les dimensions à partir des données sources en assurant à
chaque fois le tri. Pour la dimension temps, son alimentation se fait à partir de la table des
engagements qui comporte les champs Mois et Année. En effet, ces champs figurent dans 3
tables sources : Table engagement, Table Produit et Table Garantie. Nous tenons à préciser que
le choix est aléatoire vu que ces informations sont identiques dans toutes les tables citées. (Voir
figure 21)
Par la suite, nous avons clôturé la phase de l’ETL par le chargement de la table de faits
« Fact_suivi » pour enfin, obtenir notre Datawarehouse total stocké au niveau de SQL server.
(Voir figure 22)
47
Figure 21. Chargement des Dimensions et de la Table de faits
48
6. La restitution des données
Les « outils-end-users » sont les outils de restitution des données. Ces outils constituent les
piliers du système décisionnel sur lesquels l’utilisateur s’appuie afin de prendre les décisions.
Comme solution de restitution des données, nous avons choisi les rapports et les Tableaux de
bord. Dans un cadre d’une démarche de progrès, le tableau de bord est assurément l’instrument
de mesure le plus performant, il facilite la conduite proactive d’une ou plusieurs activités. Le
Dashboard contribue à la réduction de l’incertitude et facilite la prise de risque jointe à toutes
sortes de décisions.
Quant au Reporting, il est dédié à élaborer, publier et diffuser les rapports d’activité de
l’entreprise selon un format prédéterminé. Le principe de l’outil de Reporting c’est qu’il assure
une interrogation des bases de données en fonction des requêtes SQL préalablement préparées
au moment de la réalisation du modèle.
Dans notre cas, nous avons décidé d’assurer la phase de restitution à l’aide de SQL Server
Reporting Services (SSRS) 2017 comme mentionné dans le deuxième chapitre. [36] (Voir
figure 23)
49
Pour accéder à l’interface illustré dans la Figure 24, un passage par le Report Server
Configuration Manager s’impose. Il permet de définir et modifier les paramètres du serveur et
du portail Web. Mais, avant de pouvoir utiliser le serveur, il faut configurer l’URL du service
web (figure 24), l’URL du portail web (figure 25) et la base de données (figure 26).
50
Figure 26. Configuration de la base de données
La première étape consiste à sélectionner les sources de données des rapports à générer et des
tableaux de bord à créer. Pour établir cette tâche, il suffit de choisir « Source de données » dans
la rubrique « Nouveau » comme indiqué dans la figure 27.
Par la suite, il faut établir la connexion avec la base en précisant la chaine de connexion. Dans
ce cas, nous avons choisi notre base multidimensionnelle qui réside dans le serveur local
DESKTOP-U9NCUTE. [37] (Voir figure 28)
51
Figure 28. Chaîne de connexion avec le DataWarehouse « ATBTEST_DW »
De même pour la connexion avec la base de données relationnelles puisque nous avons opté
pour l’approche HOLAP permettant d’accéder à la fois aux données agrégées à traves MOLAP
et aux données détaillées à travers ROLAP. (Voir figure 29)
52
Une fois les connexions aux bases établies, nous passons à la génération des Rapports et des
Tableaux de bord. Au niveau de ce sprint, nous nous intéressons aux suivis des Engagements,
des Produits et des Garanties. Par conséquent, nous avons décidé de générer un Rapport et
d’élaborer un Tableau de bord pour chaque sujet.
Les étapes à suivre pour générer un rapport et celles pour construire un tableau de bord sont
très similaires. Nous commençons par un exemple de génération d’un rapport. Prenons
l’exemple d’une partie d’un rapport relatif aux Engagements. Nous nous intéressons à
déterminer les 5 groupes dont les engagements sont en évolution et les 5 groupes dont les
engagements sont en recul.
La première étape consiste à déterminer les données à utiliser dans le DataSet ou Jeu de
données, à traves SQL server Report Builder. Nous allons choisir « DW » comme source de
données. (Voir figure 30 et 31)
53
Une fois la source fixée, nous allons importer les données à visualiser dans le rapport. Dans le
cas du rapport des engagements, nous avons décidé d’afficher les 5 groupes dont les
engagements sont en évolution et les 5 groupes dont les engagements sont en recul comme
mentionnée. Pour ce faire, nous avons exécuté deux requêtes SQL dans le Générateur des
Rapports (Report Builder).
La figure 32 présente la requête SQL 1 permettant d’identifier les 5 groupes dont les
engagements sont en évolution.
La figure 33 présente la requête SQL 2 permettant d’identifier les 5 groupes dont les
engagements sont en recul.
54
Figure 33. Jeu de données dans le Report Builder (requête 2)
La deuxième étape consiste à créer un nouveau Rapport mobile à l’aide de l’éditeur des
Rapports mobile de SQL Server.
55
Dans l’éditeur des Rapports, il suffit de choisir « Grilles des données », puis quoique le type
choisi soit, il faut spécifier les données que nous avons déjà importé dans Report Builder lier à
cet élément. (Voir figues 35 et 36)
Puis, il ne reste qu’à paramétrer les données en modifiant les noms des champs, le type et en
ajoutant par exemple, une colonne de comparaison si souhaité en indiquant les colonnes à
comparer. (Voir figure 37)
56
Figure 37. Paramétrage du Rapport
Pour enfin obtenir un rapport qui permet de suivre les clients dont les engagements sont en
évolution et ceux dont les engagements sont en recul comme représenté dans la figure 38.
De même pour la création d’un Tableau de bord, il faut passer par la première étape expliquée
précédemment ainsi que la deuxième. La seule différence c’est le choix d’un des éléments
graphiques proposés par l’éditeur de rapport de SSRS (Graphique en secteur, Graphique en
entonnoir, Histogramme, anneau etc.)
57
Figure 39. Choix du type de graphique à produire
Prenons l’exemple du Dashboard « Engagements ». En passant par toutes les étapes décrites
précédemment incluant l’identification du sujet d’analyse, la création des jeux de données et
leurs ajours lors de l’élaboration du Tableau de bord, le choix des graphiques et leurs
paramétrages, nous obtenons ce résultat. (Voir figure 40)
58
Vers la fin de ce Sprint et après l’enchainement des étapes décrites, nous avons créé :
7. Conclusion
L’objectif principal de ce sprint est atteint. En achevant ce chapitre, nous avons pu concevoir
notre DataWarehouse relatif aux suivis des Engagements, des Produits et des Garanties en
présentant toute la démarche aboutissant à ce sprint. Par la suite, nous avons restitué les données
à travers des rapports dynamiques et des tableaux de bord interactifs dédiés aux décideurs.
59
Chapitre V :
1. Introduction
Le premier sprint est achevé, nous nous intéressons maintenant au deuxième sprint de notre
projet. Ce sprint traitera la consultation de la classification des actifs financiers ainsi que le
calcul des risques client.
2. Sprint Backlog
Le sprint Backlog est utilisé afin de faciliter la répartition des tâches et permet de faire la mise
au point du travail demandé.
Le tableau 12 résume le backlog du deuxième sprint qui vise le traitement de deux sujets
d’analyse : La Classification des Actifs et Le calcul des Risques.
60
Génération des rapports dynamiques et un tableau de
1.5
bord interactif relatifs à la classification des actifs.
Génération des rapports dynamiques et un tableau de
1.6
bord interactif relatifs aux risques clients.
Dans le but d’établir l’analyse des risques clients, il est indispensable d’effecteur une
classification des actifs financiers, celle-ci permettra de mettre en relation la criticité de l’actif
en question avec les vulnérabilités et les menaces qui lui sont associées.
Par conséquent, la classification permettra objectivement d'évaluer les risques d’une part, et
d'établir un plan de traitement face à ceux-ci d’autre part.
Les actifs courants sont les actifs dont le recouvrement entier dans les délais, semble être assuré.
Ces actifs sont détenus couramment par des entreprises dont :
La situation financière est stable et justifiée par des documents comptables certifiés qui
datent de moins de 18 mois.
Les perspectives de l’activité et la gestion globale sont satisfaisantes, confirmées grâce
aux rapports de visites.
Le volume des encours est compatible avec les besoins de son activité et la capacité de
remboursement.
Les actifs occupant cette classe sont ceux dont le recouvrement entier dans les délais est
encore assuré. Ces actifs sont détenus habituellement par des entreprises dont :
61
Le secteur d'activité connaît plus ou moins des difficultés ;
La situation financière est en dégradation.
Les débiteurs de la classe 1 doivent être toujours prêt de faire face au remboursement de leurs
dettes, sans avoir droit à nouveau financement direct ou indirect de la banque.
Les Actifs incertains sont les actifs dont le recouvrement entier dans les délais est douteux. Ces
actifs sont détenus généralement par des particuliers ou des entreprises qui rencontrent des
difficultés de type financier ou autres, ce qui pourra mettre en cause leurs validités et requiert
la mise en place des mesures de redressement juridiques.
En plus des caractéristiques des actifs de la classe précédente, ces entreprises disposent d’au
moins une de ces caractéristiques :
Les actifs qui appartiennent à cette classe sont les actifs dont le recouvrement risque d’être
menacé. Ces actifs sont généralement détenus par des entreprises dont la situation globale
suggère une faillite éventuelle ce qui engendre un appel auprès de la banque pour limiter au
maximum les dégâts. Ces entreprises possèdent avec plus de gravité, les mêmes caractéristiques
que celles de la classe 2.
Leurs retards de paiements des principaux ou des intérêts sont entre 180 jours et 360 jours.
Les créances dont les retards de paiements des intérêts ou du principal dépassent 360
jours.
62
Les actifs qui sont restés en attente/suspens au-delà de 360 jours.
Les entreprises qui passent par une perte. La banque est tenue néanmoins d’épuiser
toutes les procédures de droit tendant à la réalisation de ces actifs.
Pour le Calcul des Risques, nous avons opté pour 3 formules différentes. Chacune possède un
objectif bien déterminé.
Le terme Strate est principalement utilisé dans le domaine de biologie et géologie. Il présente
une sorte de couche homogène des roches sédimentaires avec des épaisseurs variantes.
Dans notre cas, Strate représente des sous-ensembles en lesquels nous allons diviser une
population qui n’est autre que les clients en partant de ces conditions :
63
4.2 Formule de calcul de la Variation des engagements
La détermination des écarts entre les engagements d’un client pendant l’année courante et ceux
de l’année précédente, permettent de détecter les risques de la perte éventuel de ce client. C’est
pour cette raison, nous avons appliqué la formule suivante :
VAR_ENG=TOT_ENG_AC-TOT_ENG_AP
Notre Datamart est orienté vers un sujet bien particulier de l’activité de la banque qui est le
calcul de Risque des clients. Nous avons opté pour un modèle en flocon de neige afin de
respecter la conception utilisée dans l’entrepôt de données.
Pour préparer la table de faits de ce Datamart, il faudra bien se servir des éléments recueillis et
collectés dans l’entrepôt de données. Dans notre table de faits « Fact_RISQUE », nous avons
retenus les mesures comme indiqué dans la table 13.
Mesure Libellé
64
5.2Choix des dimensions
Les dimensions choisies dans notre Datamart sont représentées dans la table 14.
Dimension Libellé
Dim_temps Dimension temps
La figure 41 présente la modélisation du Datamart « Risque » contenant les données que nous
allons manipuler lors de la création du Tableau de bord et du Rapport des Risques.
65
6. Intégration des données du Datamart « RISQUE » (ETL)
Nous nous sommes basés sur les tables de dimensions et la table de faits définies dans notre
entrepôt de données afin d’extraire les mesures et les dimensions nécessaires pour le Datamart
du risque en tenant compte des relations et des contraintes établies. Les tables utilisées pour
l’extraction des données sont les suivantes :
FACT_SUIVI
Dim_Temps
Dim_Compte
Dim_Agence
Dim_Client
Dim_Activite
Nous avons choisi d’extraire les données relatives à ces tables de notre entrepôt de données
ATBTEST_DW et les charger dans un Datamart nommé RISQUE_DM ayant principalement
le risque des clients comme sujet dans SQL SERVER en utilisant des packages SSIS.
L'extraction des tables relatives est assurée par une tâche de flux de données. Une autre tâche
qui s’intitule « Execute SQL Task » que nous avons nommé « Delete » permet d’exécuter des
requêtes SQL à chaque lancement du package pour éviter la duplication des données.
66
6.2 Transformation des données
Avant le chargement des données dans le Datamart, nous les avons triées selon leurs Identifiants
et nous avons éliminé les redondances en cochant « Remove rows with duplicate sort values »
pour assurer une bonne représentation des données dans chaque table de destination.
Par la suite, nous avons calculé le risque en suivant les formules précédemment citées en
utilisant un script en langage c sharp. Nous avons ajouté le résultat de ces calculs dans de
nouvelles colonnes créés à l’aide de l’élément « Script Component ».
67
En cliquant sur le Script Component que nous avons nommé Calcul de Risque, le Script
Transformation Editor nous donne la possibilité de préciser les nouvelles colonnes dans
lesquelles seront stockés les résultats du calcul dans la section des Outputs comme le montre la
figure 45.
Figure 45. Paramétrage des Transformations de la table de faits « Fact_Risque » et des Inputs et
Outputs
De cette manière-là, sont créées les nouvelles colonnes que nous allons alimenter avec un Script
C sharp en cliquant sur Edit Script sous la section Script de l’éditeur comme indiqué sur la
figure 46.
68
.
La figue 47 présente le bout de code C sharp utilisé pour appliquer les formules de « STRATE »
et celui des garanties plafonnées à l’engagement.
69
6.3 Chargement des données
Après l’extraction et les transformations appliquées sur les données, nous les avons chargées
dans chacune des tables correspondantes comme l’indique la figure 48.
Source : ATBTEST_DW
Destination : RISQUE_DM
La dernière étape de ce Sprint dont le sujet est le suivi de la classification des Actifs et le calcul
des Risque est la phase de restitution en suivant les mêmes étapes citées dans le chapitre
précédent, nous avons donc élaboré :
70
8. Conclusion
A travers ce sprint, nous avons pu construire notre Datamart relatif aux risques. Puis nous
avons construit un tableau de bord relatif à ce sujet d’analyse, ainsi qu’un tableau de bord et
un rapport pour la classification des Actifs.
71
Chapitre VI :
Sprint 3 : Gestion des Rapports et des Tableaux de bord
1. Introduction
En achevant le premier et le deuxième Sprint, nous avons préparé pour les décideurs de l’ATB
un ensemble de Rapports dynamiques ainsi que des Tableaux de bord interactifs qui fournissent
une vue globale de l’activité de la banque.
Ce chapitre présente alors le troisième sprint de notre projet dans lequel nous allons mettre à la
disposition des décideurs un site web simple auquel ils peuvent accéder facilement afin de
consulter les rapports générés et les tableaux de bord élaborés.
Dans un premier temps, nous allons aborder le Sprint Backlog du sprint présent. Puis nous
allons décrire le cas d’utilisation globale. Ensuite, nous allons introduire la partie de conception
de notre site en ayant recours à un diagramme de navigation simplifié.
2. Sprint Backlog
Le Sprint Backlog relatif à ce sprint se présente comme suit :
72
En tant que Directeur 3.1 Consulter un rapport dynamique concernant les produits.
financier je souhaite
3 Disposer d’un tableau de bord interactif relatif aux
suivre et évaluer les 3.2 produits.
produits.
3. Conception
Cette partie sera consacrée à la présentation des diagrammes de séquences de notre système.
Comme nous avons déjà mentionné, nous allons nous contenter d’une authentification simple,
un exemple de consultation d’un rapport, un exemple de consultation de tableau de bord et
finalement une modification des garanties.
73
3.1 Diagramme de cas d’utilisation
Comme présenté dans le Diagramme, le site web que nous allons créer sera dédié aux
décideurs de l’ATB, qui dans notre cas peut être le Responsable Crédits et engagements, le
Directeur Financier, le Responsable affaires juridiques et recouvrement ou le Risk Manager.
Ces derniers auront des identifiants et des mots de passe gérés par le Développeur. Ils
n’auront pas l’habilité de créer leurs propres comptes.
74
3.2 Diagramme de séquence de l’authentification du décideur
Ce diagramme présente les étapes par lesquelles le décideur passe pour s’authentifier :
75
3.3 Diagramme de séquence de la consultation d’un Rapport
Le diagramme illustré dans la figure 51 présente l’interaction du décideur avec le système lors
d’une consultation d’un rapport.
76
3.4 Diagramme de séquence de la consultation d’un Tableau de bord
Le diagramme illustré dans la figure 52 présente l’interaction du décideur avec le système lors
d’une consultation d’un tableau de bord.
77
3.5 Diagramme de séquence de la mise à jour des Garanties
Le diagramme illustré dans la figure 53 présente l’interaction du décideur avec le système
lors d’une mise à jour des garanties.
78
3.6 Diagramme de navigation web
Le diagramme de navigation, ou ce que l’on appelle « Site Map diagram » en anglais est utilisé
pour clarifier la navigation d’un site web en montrant sa structure entière. Il peut être également
79
4. Environnement de travail
Dans cette partie, nous allons présenter l’architecture physique suivie du choix des
technologies.
Les fonctionnalités relatives aux besoins spécifiques de notre solution exigent une mise en place
d’une architecture bien étudiée afin d’assurer une meilleure performance.
C’est pour cette raison que dans notre projet, nous avons opté pour une architecture trois tiers
qui sert principalement à concevoir l’application en trois couches logicielles :
80
4.2 Environnement de Développement
Pour notre projet, nous avons opté pour l’utilisation de Microsoft Visual Studio 2015 comme
environnement de développement.
C’est une suite de logiciels conçue par Microsoft dédié au développement pour Windows et
MacOs. Il constitue ensemble complet d'outils de développement qui permet de générer des
services web XML, des applications web ASP.NET, des applications mobiles ainsi que des
applications bureautique.
4.3 Technologies
CSS
L’acronyme de CSS est Cascading Style Sheets. Il s’agit d’un langage permettant de gérer la
présentation générale d’une page web en insérant des styles sur le code HTML. Ces derniers
permettent de préciser et de définir les comportements des éléments de la page.
Java Script
JavaScript désigne un langage de script orienté objet. Il est retrouvé principalement dans des
pages web ou HTML permettant d’interagir avec l’utilisateur. Contrairement aux langages
serveurs, JavaScript s’exécute sur la machine de l’internaute grâce au navigateur.
C#
81
4.4 Réalisation
Pour mettre en place notre site, nous avons créé un nouveau « Web Site » en utilisant la
plateforme .NET. Puis nous avons choisi « ASP.NET Empty Web Site »
A ce stade, nous allons illustrer quelques captures d’écran des pages réalisées. Nous allons
commencer par la page d’accueil qui présente les différentes fonctionnalités de notre solution,
puis la page d’authentification. Ensuite, nous allons enchaîner avec un exemple d’interface de
Rapport et un autre de Tableau de bord.
82
Nous présentons dans la figure 57 l’interface d’authentification.
83
Nous présentons dans la figure 59 un aperçu de Tableau de bord Engagement.
5. Conclusion
A travers ce troisième et dernier Sprint, nous avons pu concevoir notre interface web en
définissant les diagrammes qui lui sont relatives. Puis nous avons précisé l’environnement de
travail au niveau de l’architecture adoptée et les technologies utilisées pour enfin diffuser les
rapports et les Tableaux de Bord générés préalablement dans notre site web.
84
Conclusion Générale
Nous nous sommes intéressés tout au long de notre stage à la conception et la réalisation d’une
solution décisionnelle qui permet aux décideurs de l’ATB de suivre les engagements, les
produits et les garanties bancaires, ainsi qu’avoir accès au suivi de la classification des clients
tout en se référant au risque calculé pour enfin diffuser les rapports dynamiques et les Tableaux
de Bord interactifs relatifs à chaque module dans une interface web dynamique pour des fins
décisionnelles.
Cette solution ne peut pas être conçue sans le recours à un DataWarehouse et un DataMart qui
englobent les mesures nécessaires et les dimensions adéquates afin d’assurer une meilleure
présentation des rapports et des Tableaux de Bord générés ce qui explique le choix des bases
de données décisionnelles.
Au cours de la réalisation de notre solution, nous avons introduit en premier lieu le contexte
général du projet tout en mettant l’accent sur la direction centrale des systèmes d’information
dans laquelle notre stage s’est déroulé. Puis, nous avons enchaîné avec l’étude de l’existant et
la spécification des besoins qui nous ont permis de proposer une solution qui répond aux
exigences des décideurs.
Par la suite, la comparaison des méthodes de conceptions nous a permis d’adopter la méthode
SCRUM appliquée à l’informatique décisionnelle afin de faciliter la planification de notre
travail et la répartition des tâches.
Le même enchainement a été appliqué aux deux premiers Sprints en identifiant le Sprint
Backlog relatif à chacun, en passant par l’intégration des données après avoir adopté une
conception et une modélisation adéquate du DataWarehouse et du DataMart pour finir avec la
restitution des données qui n’est autre que la génération des rapports dynamiques et des
Tableaux de Bord interactifs.
Quant au dernier Sprint qui est dédié à la diffusion des rapports et des tableaux de bords générés
dans les sprints précédents dans une interface web dynamique. Pour ce faire, nous avons
commencé par la définition du Sprint Backlog. Par la suite, nous avons conçu notre site web
qui répond aux exigences des décideurs définies au préalable. Et clôturant avec l’environnement
du travail en précisant l’architecture adoptée et les technologies utilisées.
85
Néanmoins, il est à signaler que nous avons rencontré quelques imprévus et ce pour plusieurs
raisons. En effet, nous avons pris plus de temps que prévu à comprendre les fondamentaux du
métier de la banque, qui occupe une grande partie de notre projet. En outre, l’accès aux serveurs
de données est malheureusement limité aux personnels de l’ATB. Ce qui a décéléré le rythme
du travail.
Ce stage s’est révélé instructif et enrichissant du point de vue des connaissances acquises. Il
nous a procuré une opportunité pour sculpter nos compétences techniques telle que la maîtrise
des outils décisionnelles qui nous seront utiles dans la vie professionnelle. Par ailleurs, ce stage
a contribué à améliorer notre sens d’organisation et de planification en suivant une
méthodologie bien définie et à assumer nos choix.
Cette opportunité si précieuse a dévoilé notre esprit d’équipe et a démontré nos capacités
relationnelles et communicatives.
Nous ne pouvons pas nier le fait qu’un tel projet possède des perspectives d’évolution et
d’amélioration. A titre d’exemple, nous citons le développement d’une application mobile,
instance du site créé. Une autre perspective possible consiste à préparer aux décideurs, une
fonctionnalité permettant de générer leurs propres rapports personnalisés.
Finalement, nous souhaitons que ce modeste travail apporte la satisfaction aux membres de
jury.
86
Annexe A : Le Projet Décisionnel
Dans cette section, nous allons parcourir les différents éléments fondamentaux pour la mise en
place de n’importe quelle solution d’aide à la décision commençons par l’extraction des
données à partir des données sources jusqu’à leurs restitutions sous forme synthétisée et
normalisée. La figure ci-dessous illustre l’ensemble des composants intervenant dans le
système décisionnel.
3. Le modèle multidimensionnel
87
un résumer d’un nombre important d'enregistrements des données issus des données sources en
quelques-uns. L’objectif du modèle multidimensionnel est d’analyse le fait selon des axes ou
perspectives qu’on nomme dimensions. Chacune de ces dimensions est définit en une structure
hiérarchique bien déterminée. Prenons le cas de la dimension « temps », Nous pouvons la
diviser en année, trimestre, mois, semaine, jours... Dans la hiérarchie, il découle le niveau de
granularité de l'entrepôt, et donc on parle les niveaux d'agrégations.
4. Sources de données
L’alimentation de l’entrepôt se fait à partir des données identifiées et extraites depuis leurs
emplacements originales. En effet, les données à collecter sont stockées dans des systèmes de
natures et de formats différents selon la structure. Il s’agit essentiellement des données internes
du système d’information de l’entreprise (base de données, Excel, CRM, ERP, etc.) ou encore
des données externes récupérées à partir de quelques services distants et des web services. Dans
ce cas, on parle des données complexes. Dans notre projet, nous allons extraire des données à
partir d’une base de données Oracle 11g, du système « Equation » et des fichiers plats.
88
5. Outil d’extraction, transformation et chargement
Plus connus sous le terme anglo-saxon : Extract Transform Load (ETL), cet outil est
fondamental pour la mise en place des entrepôts de données.
E pour Extraction des données à partir des données sources dans un environnement de
travail.
T pour Transformation qui englobe le nettoyage, le filtrage et la manipulation des
données pour le chargement de l’entrepôt de données ou le magasin des données.
L pour Loading et chargement de l’entrepôt et mise à disposition des données.
L’étape de transformation est décisive car elle permet de filtrer et de fédérer les données en vue
de les rendre homogènes, considérons :
Le filtrage qui sert à identifier les données problématiques ou aberrantes comme les
données manquantes ;
Le formatage qui est crucial dans le cas de données codifiées (exemple des abréviations
difficilement convertibles), ou dans le cas des dates qui doivent être dégradées en un
ensemble de champs (années, mois, jours, heures, minutes, etc.) ;
La synchronisation qui garantit la cohérence entre les agrégats de l'entrepôt ;
L'agrégation qui est une collection d'opérations, généralement mathématiques, possibles
à appliquer sur les données. Les plus utilisées et courantes sont la somme, le minimum,
le maximum, la moyenne, la somme cumulée etc. Ces opérations sont considérées
compte tenu du niveau de granularité de l'entrepôt.
89
6. Entrepôt de données
L’entrepôt de données ou Data Warehouse est une base de données dédiée au stockage des
données assimilées dans le cadre de l’analyse décisionnelle et la prise de décision. Le Data
Warehouse est exclusivement destiné à cet usage. Il est alimenté à partir des bases de production
grâce aux outils de l’ETL (Extract Transform Load).
Ensuite, les analystes et les décideurs pourront accéder aux données collectées afin d’étudier
des cas précis de réflexion. Ils construisent des modèles d'étude et de prospective pour limiter
la part d'incertitude lors du processus de prise de décision.
7. Caractéristiques du Datawarehouse
Père du concept datawarehousing, Bill Inmon l’a décrit dans son livre Building the Data
Warehouse : « Subject oriented, integrated, nonvolatile, time variant collection of data in
support of management decisions. » [42]
Orienté sujet : Au cœur de l’entrepôt, les données doivent être organisées par thème.
Les données appartenant à un thème sont rapatriées des différentes bases d’OLTP et
regroupées.
Intégré : Puisque les données proviennent de différentes sources hétérogènes et utilisant
chacune un certain type de format, elles seront alors intégrées avant d'être proposées à
utilisation.
Non volatile : Les données ne changent pas et ne disparaissent pas au cours des
traitements et au fil du temps.
Historisé : Les données doivent être historisées pour qu’on puisse ainsi visualiser et
traquer l'évolution d’une valeur donnée au cours du temps.
90
Le reporting
Le reporting appartient à la famille des outils de Business Intelligence, dédié à élaborer, publier
et diffuser les rapports d’activité de l’entreprise selon un format prédéterminé. C'est une sorte
de présentation périodique et continue des bilans analytiques et des rapports dont le sujet est les
activités et les résultats de l’organisation, d'une unité de travail ou du responsable d'un
département ou d’une fonction. L’objectif du reporting est en informer les chargés de contrôle
et de supervision en interne comme en externe, ou bien tout simplement ceux qui sont concernés
par ces activités ou ces résultats, on parle alors de dirigeants et décideurs. Le principe de l’outil
de reporting c’est qu’il assure une interrogation des bases de données en fonction des requêtes
SQL préalablement préparées au moment de la réalisation du modèle. Mieux encore, cet outil
propose des fonctions spécifiques telles que des présentations graphiques et des modules de
calculs à l’effet de concevoir des bilans et des comptes rendus pertinents et congrus.
Le data mining
Le datamining est l’ensemble des outils permettant l’analyse et l’exploration des données d’une
base décisionnelle (Datawarehouse ou Datamart). Ces outils emploient des techniques
sophistiquées en vue de dégager et détecter des tendances et des corrélations des données ce
qui permet d’anticiper des tendances peu apercevables. Ce que l'on peut traduire par la
transformation des données en connaissances.
Dans un cadre d’une démarche de progrès, le tableau de bord est assurément l’instrument de
mesure le plus performant, il facilite la conduite proactive d’une ou plusieurs activités. Le
Dashboard contribue à la réduction de l’incertitude et facilite la prise de risque jointe à toutes
sortes de décisions.
Analyse OLAP
Le Datawarehouse permet de mettre en place des vues multidimensionnelles que l’on représente
sous la forme d’un cube de trois dimensions. Les systèmes OLAP (On-Line Analytical
Processing) disposent des technologies qui assurent le regroupement, la gestion, le traitement et la
présentation des données multidimensionnelles pour des fins analytiques partagées et
décisionnelles.
91
Annexe B : Dictionnaire des données sources
Table compte
Table client
Table engagements
92
ESCCOM Escompte commercial NUMBER
PREFEXP Préfinancement export NUMBER
MCNUDTU Mobilisation de créances nées NUMBER
sur l’étranger en DTU
MCNEDEV Mobilisation de créances nées NUMBER
sur l’étranger en devises
AUTCRDCT Autre crédit court terme NUMBER
EXPORDTU Export en dinars tunisien NUMBER
AUTCRDMT Autre crédit moyen terme NUMBER
CRDMTRES Crédit moyen terme NUMBER
CRDLTORD Crédit long terme ordinaire NUMBER
ENCCONSP Encours consolidation principale NUMBER
ENGFINEX Engagements financiers NUMBER
extérieurs
OUVCREDO Crédits documentaire NUMBER
AVALBTRE Aval NUMBER
OBLICAUT Obligation cautionnée NUMBER
AUTENGSI Autre engagement NUMBER
CTX Total contentieux NUMBER
IMPPRINC Impayées principales (total) NUMBER
IMPINTER Impayées intérêt NUMBER
TOT_ENG_AC Total engagements année NUMBER
courante
TOT_ENG_AC_Rev Total engagements année NUMBER
courante revenu
TOT_ENG_AP Total engagement année NUMBER
précédente
MOIS Mois DATE
ANNEE Année DATE
Table Activité
93
Champ Description Type
ID_ACT Identifiant activité (PK) NUMBER
DESC_SECT_ACT Description secteur activité VARCHAR (50)
Table garantie
Table produits
94
PDT_LENDING_H_NET Produits lending hors net NUMBER
_DESCOMPTE d’escompte
PDT_LENDING_NET_D Produits lending net NUMBER
ESCOMPTE d’escompte
INT_SUR_CPTES_PERS Intérêts sur comptes personnels NUMBER
ONNELS_ATB ATB
INT_DE_RETARD_LEN Intérêts de retard lending NUMBER
DING
INT_DE_RETARD_MAN Intérêts de retard manuel NUMBER
UEL
INT_PTF_ESCOMPTE_C Intérêts ptf escompte NUMBER
OMMER commercial
INT_RETARD_PTF_ESC Intérêts de retard ptf escompte NUMBER
OMPTE_COMM commercial
AGIOS_DEBITEURS Les agios des débiteurs NUMBER
COMM_SUR_OPERATI Commission sur opération par NUMBER
ON_CHEQ chèque
COMM_SUR_OPERATI Commission sur opération NUMBER
ON_EFFETS effets
INT_SUR_FINANCEME Intérêts sur financements en NUMBER
NTS_DEVISES devises
INT_SUR_BONS_DE_C Intérêts sur bons de caisses NUMBER
AISSES_AVANCEE avancées
COMMISIONS_EXIMBI Commissions eximbils NUMBER
LS
COMM_SUR_CREDIT Commission sur crédit NUMBER
COMM_SUR_VIR_PREL Commission sur NUMBER
EV virement/prélèvement
COMM_MONETIQUE Commission monétique NUMBER
AUTRES_COMMISSION Autres commissions NUMBER
S
MOIS Mois DATE
ANNEE Année DATE
95
Table agence
Table groupe
Table classe
96
Webographie et Bibliographie
[4] Veronique Messager Rota, Gestion de projet vers les méthodes agiles, Edition Eyrolles,
2008. Visité le 03/02/2018. Visité le 03/02/2018.
[6] Veronique Messager Rota, Gestion de projet agile avec Scrum, Lean, eXtreme
Programming..., Edition Eyrolles 2013. Visité le 03/02/2018.
[9] Le Guide de Référence de Scrum : Les Règles de Jeu, Ken Schwaber et Jeff Sutherland,
Novembre 2017, https://www.scrumguides.org/docs/scrumguide/v2017/2017-Scrum-Guide-
French.pdf. Visité le 03/02/2018.
97
[13] Site ComputerWeekly.com, Inmon or Kimball : Which approach is suitable for your data
warehouse ? https://www.computerweekly.com/tip/Inmon-or-Kimball-Which-approach-is-
suitable-for-your-data-warehouse. Visité le 07/02/2018.
[16] Bernard ESPINASSE, Systèmes OLAP : ROLAP, MOLAP et HOLAP, Décembre 2015,
http://www.lsis.org/espinasseb/Supports/DWDM/5-SystemesOLAP-4p.pdf. Visité le
10/02/2018.
[21] DB-Engines est une liste de SGBD classés selon leurs popularités mise à jour chaque mois,
elle est maintenue par la société autrichienne de conseil en informatique « solid IT », https://db-
engines.com/en/ranking. Visité le 15/02/2018.
98
[25] Site itcentralstation.co, Plateforme communautaire de partage de revues des produits
https://www.itcentralstation.com/products/comparisons/ssis_vs_talend-open-studio. Visité le
22/02/2018.
[31] Collecte des données : ETL Extract Transform load, Alain Fernandez
https://www.piloter.org/business-intelligence/ETL.htm. Visité le 14/03/2018.
[32] Site officiel Microsoft, Documentation en ligne de SQL Server 2014, Integration Services
(SSIS) Packages, https://docs.microsoft.com/en-us/sql/integration-services/integration-
services-ssis-packages?view=sql-server-2017. Visité le 17/03/2018.
[33] Site officiel Microsoft, Documentation en ligne de SQL Server 2014, Integration Services,
Execute SQL Task, https://docs.microsoft.com/en-us/sql/integration-services/control-
flow/execute-sql-task?view=sql-server-2017. Visité le 17/03/2018.
[34] Site officiel Microsoft, Documentation en ligne de SQL Server 2014, Integration Services,
Data Flow transformation, Merge Join transformation, https://docs.microsoft.com/en-
us/sql/integration-services/data-flow/transformations/merge-join-transformation?view=sql-
server-2017. Visité le 20/03/2018.
99
[35] Site officiel Microsoft, Documentation en ligne de SQL Server 2014, Integration Services,
Data Flow transformation, transformation de colonnes dérivées https://docs.microsoft.com/en-
us/sql/integration-services/data-flow/transformations/derived-column
transformation?view=sql-server-2017. Visité le 22/03/2018.
10
0