Vous êtes sur la page 1sur 36

Société Nationale de Garantie et de Financement de l’entreprise

Ecole nationale des sciences appliquées

Stage d’Application
Elève Ingénieur en 2ème année

Génie Informatique

Stage réalisé au sein de : Tamwilcom

Création d’un Tableau de Bord pour l'Analyse et l'Optimisation du Processus de


Gestion des Tickets

Période de stage :de 03/07/2023 à 03/09/2023

Réalisé par Mlle Chaimae Hdidi

Encadrant ENSAF Monsieur Hakim Elfadili


Encadrant Société Monsieur Mohammed Boukoutaya
Remerciement
Je tiens à exprimer ma sincère reconnaissance envers les personnes qui ont contribué de manière
significative à la réalisation de mon stage au sein et de l'entreprise Tamwilcom.

Tout d'abord, je tiens à remercier mon encadrant de l'ENSA, Monsieur Hakim Elfadili, pour son
encadrement, ses précieux conseils. Je tiens également à exprimer ma gratitude envers Monsieur
Mohammed Boukoutaya mon encadrant au sein de Tamwilcom. Ses conseils, son expertise et son
engagement envers mon développement professionnel ont été d'une importance pour mon intégration
dans le monde de l'entreprise et ma contribution aux projets de l'organisation.

Je remercie également l'ensemble de l'équipe de Tamwilcom pour son accueil chaleureux, sa


collaboration fructueuse et les opportunités stimulantes qui m'ont été offertes au cours de mon stage.

Ce stage a été une expérience enrichissante, et je suis profondément reconnaissant envers tous ceux
qui ont contribué à sa réussite

1
Résumé
Mon stage, réalisé du 3 juillet 2023 au 3 septembre 2023 au sein de l'entreprise Tamwilcom, a été une
expérience exceptionnelle au cours de laquelle j'ai eu l'opportunité d'explorer le domaine de l'analyse
de données au sein du département des systèmes d'information (DSI). Tamwilcom, une société
détenue par l'État marocain, joue un rôle crucial en fournissant des garanties publiques pour les
financements aux entreprises marocaines.

Mon rôle principal consistait à analyser le cycle de vie des tickets au sein de l'entreprise pour identifier
les étapes où des retards se produisaient. Grâce à l'utilisation de méthodes pour pouvoir détecter des
valeurs aberrantes et comprendre les causes des retards. Mon analyse a également porté sur les
différences entre les catégories de tickets, en mettant en évidence les étapes qui prenaient le plus de
temps.

2
Abstract
My internship, conducted from July 3, 2023, to September 3, 2023, at Tamwilcom, provided me with a
unique opportunity to delve into the realm of data analysis within the Information Systems department
(ISD). Tamwilcom, a state-owned company in Morocco, plays a pivotal role by offering public
guarantees for business financing.

My primary role involved analyzing the life cycle of tickets within the company to identify stages where
delays occurred. Through the application of methods such as the Z-score, I was able to detect outliers
and comprehend the root causes of delays. My analysis also delved into disparities among ticket
categories, highlighting the stages consuming the most time.

This report provides a comprehensive account of my internship experience, from the methodologies
employed to the outcomes achieved, as well as the insights garnered from this enriching venture

3
Liste des figures
Figure 1: vision de Tamwlicom .............................................................................................................. 10
Figure 2: Organigramme de Tamwilcom................................................................................................ 11
Figure 3: Réseau de Tamwilcom ............................................................................................................ 11
Figure 4: Cycle de vie typique d'un ticket .............................................................................................. 15
Figure 5: Diagramme de Gant ............................................................................................................... 19
Figure 6: Mysql Workbench................................................................................................................... 23
Figure 7: Logo Panda ............................................................................................................................. 24
Figure 8:logo Numpy ............................................................................................................................. 24
Figure 9:logo Jupyter ............................................................................................................................. 25
Figure 10: Logo Power BI ....................................................................................................................... 26
Figure 11: Requête SQL sur l'historique ................................................................................................ 27
Figure 12:Requête sql pour les catégories ............................................................................................ 27
Figure 13:Exemple d'une Transition ...................................................................................................... 28
Figure 14: Historique des tickets ........................................................................................................... 28
Figure 15: historique avec temps calculé .............................................................................................. 29
Figure 16: résultat des agrégations ....................................................................................................... 29
Figure 17:étape d'analyse de données .................................................................................................. 30
Figure 18:les etapes d'analyse des doonées ......................................................................................... 30

4
Table des matières
Introduction Générale ............................................................................................................................. 7
ChapitreⅠ : Cadre Général du Stage ...................................................................................................... 8
1.Présentation de l’organisme d’accueil .............................................................................................. 9
1.1 Introduction ............................................................................................................................... 9
1.2 Brève présentation .................................................................................................................... 9
1.3 Son histoire ................................................................................................................................ 9
1.4 Sa vocation .............................................................................................................................. 10
1.5 Vision et mission...................................................................................................................... 10
1.6 Organigramme ......................................................................................................................... 11
1.7 Réseau ..................................................................................................................................... 11
2.Présentation de cadre de projet ..................................................................................................... 11
2.1 Affectation ............................................................................................................................... 11
2.2 encadrement ........................................................................................................................... 12
2.3 Nature de stage ....................................................................................................................... 12
2.4 Problématique ......................................................................................................................... 13
2.5 Objetifs .................................................................................................................................... 13
3.Conclusion ...................................................................................................................................... 13
ChapitreⅡ : Méthodologie et plan d’action ......................................................................................... 14
1.Introduction .................................................................................................................................... 15
2.Methodologie adoptée................................................................................................................... 15
3.Les étapes d’analyse de données ................................................................................................... 15
3.1 définir le problème et les objectifs .......................................................................................... 15
3.2 Préparer les données............................................................................................................... 16
3.3 Traitement des données .......................................................................................................... 17
3.4 Analyse de données................................................................................................................. 17
3.5 Visualisation des données ....................................................................................................... 18
3.6 Diagramme de gant ................................................................................................................. 19
4. Conclusion ..................................................................................................................................... 21
Chapitre Ⅲ : Outils utilisés et taches réalisées ..................................................................................... 22
1.Introduction .................................................................................................................................... 23
2.Outils utilisés .................................................................................................................................. 23
2.1 Outils de stockage et d’extraction de données........................................................................ 23
2.2 Outils de traitement et d’analyse de données ........................................................................ 23
2.3 Environnement de travail ........................................................................................................ 24
2.4 Outils de visualisation.............................................................................................................. 25

5
3.Note préliminaire ........................................................................................................................... 26
4.Les tâches réalisées ........................................................................................................................ 26
4.1 Définir le problème.................................................................................................................. 26
4.2 Préparation des données......................................................................................................... 27
4.3 Traitement des données .......................................................................................................... 28
4.4 Analyse de données................................................................................................................. 30
4 .5 Visualisation des données ...................................................................................................... 32
5.Conclusion ...................................................................................................................................... 33
Conclusion Générale.............................................................................................................................. 34

6
Introduction Générale
Pendant une période de deux mois, du 3 juillet 2023 au 3 septembre 2023, j'ai eu l'opportunité
enrichissante d'effectuer mon stage d'application au sein de la société nationale de garantie
et de financement de l’entreprise (SNGFE) connue sous la dénomination commerciale de
Tamwilcom, basée à Rabat. Mon affectation s'est déroulée au sein du direction des systèmes
d'information (DSI), où j'ai contribué activement à leur stratégie visant à numériser l'ensemble
des processus au sein de cette organisation.

Tamwilcom, anciennement connue sous le nom de Caisse Centrale de Garantie (CCG), est une
société anonyme détenue par l'État marocain. Elle constitue une institution financière
publique, réglementée par la loi bancaire, dont l'activité principale consiste à accorder des
garanties publiques pour les financements. Parallèlement, TAMWILCOM collabore avec ses
partenaires du secteur financier pour répondre aux besoins des entreprises marocaines en
proposant une gamme variée de mécanismes de financement adaptés à chaque étape de leur
cycle de vie.

Dès mon arrivée, après une discussion avec le directeur du DSI concernant le sujet le mieux
adapté à mes centres d’intérêts et à mes aspirations professionnelles, le choix s'est porté sur
le domaine de l'analyse de données. Plus précisément, ma mission consistait à analyser les
données liées au système de suivi des bugs (Mantis Bug Tracker). La finalité principale était
d'effectuer une analyse temporelle des cycles de vie des tickets afin de détecter d'éventuelles
anomalies et de proposer des recommandations pour optimiser le traitement des demandes.

Étant donné que c'était ma première expérience professionnelle dans le domaine de l'analyse
de données, un domaine qui suscite un intérêt croissant de ma part, ce stage m'a offert
l'opportunité exceptionnelle de travailler avec des données réelles, souvent accompagnées de
défis stimulants lors de leur traitement. J'ai également eu l'occasion d'améliorer mes
compétences en communication, car la compréhension du métier n'était pas immédiate ni
intuitive.

Afin de rendre compte de manière exhaustive et analytique des deux mois passés au sein de
l'entreprise Tamwilcom, nous avons organisé ce rapport en trois grands chapitres. Dans le
premier chapitre, nous présenterons le contexte entourant le stage en fournissant une
description de l'entreprise ainsi que le rôle que j'ai occupé au sein de celle-ci. Ensuite, dans le
deuxième chapitre, nous détaillerons la méthodologie d'analyse des données que nous avons
suivie pour résoudre la problématique, tout en présentant les outils que nous avons utilisés.
Enfin, dans le troisième chapitre, nous discuterons de l'application concrète de cette
méthodologie aux données réelles et nous présenterons les résultats obtenus

7
ChapitreⅠ : Cadre Général du Stage

8
1.Présentation de l’organisme d’accueil
1.1 Introduction
Ce chapitre introductif vise à établir une base solide pour la présentation de mon stage au sein de
Tamwilcom. Pour ce faire, nous commencerons par présenter en détail l'organisme d'accueil,
Tamwilcom, afin de fournir une vue d'ensemble de l'entreprise. Ensuite, je mettrai en lumière ma
position au sein de cette organisation, en précisant mon rôle et mon département. Enfin, nous
aborderons le sujet de projet que j'ai entrepris au cours de ce stage, donnant ainsi un aperçu initial de
la problématique que j'ai abordée et des objectifs que j'ai cherché à atteindre

1.2 Brève présentation


Tamwilcom est la dénomination commerciale de la société nationale de la garantie et du financement
de l’entreprise (SNGFE) précédemment la caisse centrale de garantie (CCG). C’est une société anonyme
détenue par l’état marocain et une institution financière régie par la loi bancaire. Elle est l’intervenant
unique de l’état en matière de garantie publique des financements [1].

1.3 Son histoire


La CCG a été créée par Dahir du 4 juillet 1949. Sa création est survenue dans un contexte marqué par
le début du développement des infrastructures stratégiques et le besoin d’accompagner le démarrage
de nouveaux secteurs d’activité, notamment après l’indépendance.

La première réforme institutionnelle a été actée en 1996 avec la promulgation de la loi n°47.95 et qui
a consacré la CCG en tant qu’instrument privilégié de l’État en matière de facilitation du financement
de l’investissement et du développement social, dans un contexte marqué par le début de libéralisation
du paysage bancaire marocain. L’activité de la CCG était ainsi centrée sur le financement de
l’investissement avec une offre composée essentiellement de produits de garantie des prêts bancaires
à moyen et long terme.

Le début de la diversification des métiers de la CCG remonte à l’année 2003 avec le lancement de la
panoplie de Fonds de garantie des prêts au logement en plus des produits de cofinancement, suivi de
la garantie destinée aux jeunes entreprises et aux programmes de restructuration financière et du
cofinancement de la mise à niveau des petites et moyennes entreprises (PME).

En 2006, la nouvelle loi bancaire marocaine a été adoptée. L’assimilation de la CCG a un établissement
de crédit en a constitué le tournant le plus important, avec des implications majeures sur la
gouvernance de l’institution et son fonctionnement interne.

L’année 2020 enregistre le dernier virage de grande envergure dans le processus de développement
de l’institution. La loi n° 36-20 a été adoptée, en remplacement de la loi n° 47-95, en vertu de laquelle
la CCG a été transformée en Société Anonyme dont le capital est entièrement détenu par l’État, sous
la dénomination «Société Nationale de Garantie et du Financement de l’Entreprise» (SNGFE) avec
notamment le transfert des Fonds gérés pour le compte de l’État vers le bilan de la SNGFE, un périmètre
d’intervention élargi aux services non financiers et une gouvernance renforcée grâce à l’introduction
des administrateurs indépendants et la mise en place de nouveaux comités.

9
1.4 Sa vocation
TAMWILCOM capitalise sur ses acquis historiques en tant que la CCG, avec son histoire de plus de 70
ans, pour mieux contribuer à la levée des obstacles devant l’accès des TPME au financement.
Elle contribue à donner une impulsion à l’initiative privée en encourageant la création, le
développement et la modernisation des entreprises. Elle appuie également le développement social à
travers notamment la garantie des prêts à l’habitat.
En parallèle à son activité de garantie, TAMWILCOM intervient avec ses partenaires du secteur financier
pour répondre aux besoins des entreprises marocaines grâce à une panoplie de mécanismes de
financement adaptés à chaque étape de leur cycle de vie. Ceci engendre un effet de levier à même
d’accompagner l’essor de l’économie nationale.
1.5 Vision et mission
La vision de TAMWILCOM constitue le socle de sa stratégie et se base sur une analyse minutieuse des
besoins issus des priorités nationales déclinées dans les politiques publiques en faveur du tissu
économique et de l’inclusion sociale et financière de l’ensemble de la population.
Dans ce cadre, la stratégie de TAMWILCOM vise à apporter des réponses adaptées au financement des
entreprises et des particuliers et à servir d’instrument d’intervention privilégié pour le développement
économique et social du pays
Les priorités stratégiques de TAMWILCOM découlent ainsi de cette ambition et couvrent les axes
suivants :
• Jouer un rôle majeur dans l’amélioration de l’accès des TPME au financement.
• Appuyer le financement de l’amorçage et de l’innovation.
• Améliorer l’accès des particuliers cibles au financement.
• Optimiser les moyens de gestion.

Figure 1: vision de Tamwlicom

10
1.6 Organigramme

Figure 2: Organigramme de Tamwilcom

1.7 Réseau

En 2010, l'implantation des premiers centres d'affaires de la SNGFE en régions a débuté dans le but
d'établir une proximité plus grande avec les partenaires et les entreprises. À l'heure actuelle, nous
sommes présents dans huit villes à travers le royaume

Figure 3: Réseau de Tamwilcom

2.Présentation de cadre de projet


2.1 Affectation
Mon stage se déroulait au sein de la direction des systèmes d'informations (DSI) de Tamwilcom, une
entité composée de plusieurs départements clés, chacun jouant un rôle essentiel dans le soutien des
opérations informatiques de l'entreprise :

11
Département de Développement et d'Intégration : Ce département est structuré en deux services
distincts. Le premier est chargé de la conception, du développement, de la maintenance et de
l'assistance des programmes informatiques. Le second service complète ces missions en se concentrant
sur le déploiement des solutions, veillant à ce que la transition vers la production se déroule de manière
fluide et efficace.

Département de l'Organisation : Ce département joue un rôle fondamental en amont de toute


intervention technique. Sa mission principale consiste à travailler en étroite collaboration avec les
parties prenantes métier pour définir les besoins. Il élabore ensuite un cahier des charges détaillé, qui
servira de guide précieux pour les équipes de développement. Cela garantit que les livrables répondent
aux attentes des utilisateurs finaux.

Département de la Data : Ce département, bien que plus récent que les autres, a été créé pour
répondre aux besoins croissants en gestion des données au service du développement de l'entreprise.
Il se consacre à la collecte, à la manipulation et à l'exploitation efficace des données pour soutenir les
objectifs commerciaux.

Département d’infrastructures et de sécurité informatique : Comme son nom l'indique, ce


département est le pivot de la gestion des infrastructures informatiques de l'entreprise. Il supervise le
réseau, garantit la sécurité des systèmes, et prend en charge toutes les actions liées à l'infrastructure
informatique pour maintenir les opérations de l'entreprise en toute fluidité et sécurité.

Ces départements travaillent en étroite collaboration pour assurer que les systèmes d'information de
Tamwilcom fonctionnent de manière efficace, sécurisée et alignée sur les besoins de l'entreprise

2.2 Encadrement
L'encadrement de mon stage a été assuré par M. Mohammed Boukoutaya, le directeur de la DSI. Son
rôle clé dans l'organisation consiste à définir et à déployer la stratégie informatique, garantissant ainsi
la fiabilisation, l'optimisation et la sécurisation du système en alignement avec la stratégie globale de
la SNGFE. De plus, il est responsable de la protection du patrimoine informationnel et des équipements
sous-jacents. Dans le cadre de ses fonctions, il définit et met en place les moyens nécessaires pour
l'implémentation et l'exploitation d'un système d'information de qualité, sécurisé et fiable, qui soutient
l'ensemble des activités de la SNGFE, y compris le développement, la sous-traitance, la maintenance
et la sécurité. De plus, M. Boukoutaya pilote les projets liés à la transformation du système
d'information et supervise et coordonne le travail des équipes SI. Sa contribution est essentielle pour
assurer le succès et la performance de l'infrastructure informatique de l'entreprise.

2.3 Nature de stage


Comme mentionné précédemment, j'ai réalisé un stage d'application d'une durée de deux mois dans
le domaine des sciences de données. Mon stage peut être classé comme une expérience axée sur
l'analyse de données et l'optimisation. L'idée du projet est née du besoin de mieux comprendre le
système de gestion des bugs utilisé par l'équipe de développement informatique et les parties
prenantes métier. L'objectif principal était d'optimiser le processus de traitement des demandes, tout
en identifiant d'éventuelles anomalies ou opportunités d'amélioration. Quant à l’audience ou
l’utilisateur final sera mon encadrant puisque c’est à lui la prise de décision.

12
2.4 Problématique
Pour bien cerner la problématique, il convient tout d'abord de comprendre le contexte dans lequel elle
prend racine. Tamwilcom dispose déjà de ses propres systèmes d'information pour gérer les demandes
de financement et de garantie. Cependant, ces systèmes nécessitent régulièrement de la maintenance
et des corrections de bugs. C'est pourquoi l'entreprise a fait le choix d'adopter un système open source
de suivi de tickets, MantisBT.

Mantis BT (Bug Tracker) est un système de suivi de bugs et de gestion de projets open source largement
utilisé dans le développement de logiciels. Il permet aux équipes de développement de suivre et de
gérer les problèmes, les anomalies, les améliorations et les tâches liées à un projet logiciel

La problématique au cœur de ce projet consiste à détecter toute anomalie dans le traitement des
tickets et tout au long de leur cycle de vie, depuis leur ouverture jusqu'à leur fermeture. Il s'agit de
comprendre où se situent les points de friction, les inefficacités ou les opportunités d'optimisation dans
ce processus. En d'autres termes, comment peut-on améliorer et optimiser le traitement des tickets
pour garantir un fonctionnement plus efficace et une meilleure satisfaction des parties prenantes.

2.5 Objetifs
En réponse à la problématique posée, l'objectif principal de ce projet consiste à transformer les
données brutes en informations significatives, puis à tirer des enseignements pertinents de ces
informations. Cette transformation se fera par le biais de la création d'un tableau de bord interactif,
permettant ainsi de visualiser de manière synthétique l'ensemble des tickets traités.

La finalité de cette démarche est de fournir aux utilisateurs du tableau de bord une vue globale et claire
de l'ensemble des tickets présents dans le système. Les utilisateurs pourront ainsi obtenir une
compréhension approfondie des tendances, des priorités, et des performances du processus de gestion
des tickets. Le tableau de bord vise à faciliter la prise de décision en mettant en évidence les domaines
qui nécessitent une amélioration ou une optimisation, tout en contribuant à une gestion plus efficiente
et réactive des demandes de financement et de garantie au sein de Tamwilcom

3.Conclusion
Ce chapitre a jeté les bases essentielles pour comprendre le cadre de mon stage au sein de Tamwilcom.
Dans le chapitre suivant, nous explorerons en détail la méthodologie que j'ai suivie pour aborder la
problématique posée et nous plongerons dans le cadre théorique de l'analyse de données, qui a guidé
notre démarche.

13
ChapitreⅡ : Méthodologie et plan d’action

14
1.Introduction
Dans ce chapitre nous allons présenter la théorie autour de l’analyse de données et les techniques à
envisager lors de la pratique donc le but ultime de ce chapitre est de se familiariser avec la
méthodologie adoptée et expliquer chaque partie en détail

2.Methodologie adoptée
La sélection et la planification du processus de gestion des données est d’une importance cruciale pour
garantir des résultats légitimes et convaincants. Bien qu'il existe théoriquement plusieurs approches
possibles, il est impératif en pratique de choisir celle qui s'adapte le mieux à notre contexte spécifique.
Malgré le fait que tous les processus d'analyse de données suivent un principe fondamental similaire,
mon projet s'appuie sur un processus structuré, composé des étapes suivantes :

• Définir le problème et les objectifs


• Préparer les données
• Traitement des données
• Analyse des données
• Visualisation des données

3.Les étapes d’analyse de données


3.1 définir le problème et les objectifs
Comme déjà brièvement mentionné la problématique du sujet vient pour optimiser l’utilisation de
système de suivi des tickets, qui sont définis de la manière suivante :

Un ticket suit un cycle de vie défini, débutant par l'état 'ouvert' et se clôturant par l'état 'fermé'. Les
autres états intermédiaires concernent le cycle de résolution d'un ticket, qui implique les étapes
suivantes : ouverture du ticket, analyse, acceptation, attribution à un développeur, résolution par le
développeur, planification pour les tests internes, tests en interne, planification des tests pour les
experts métier, tests par les experts métier, puis enfin, livraison en production avant la clôture.

Figure 4: Cycle de vie typique d'un ticket

15
Ce cycle de vie représente le scénario nominal, mais d'autres situations peuvent se présenter en
fonction des circonstances. Par exemple, si, après la résolution initiale, le testeur ne valide pas le
résultat, il peut être nécessaire d'itérer le processus pour parvenir à un résultat satisfaisant. D'autres
facteurs peuvent également influencer le déroulement du cycle de vie d'un ticket, notamment sa
catégorie, qui peut être l'une des suivantes :

• Bug : Ce type de ticket est généré lorsque les experts métiers identifient une erreur dans le
système d'information lié au financement de Tawmilcom. Dans ce cas, le ticket est signalé à
l'équipe informatique pour qu'elle puisse effectuer les corrections nécessaires.

• Évolution : Les tickets de cette catégorie sont créés lorsque la décision est prise de mettre en
place une nouvelle version du système informatique.

• Nouveau Besoin : Étant donné la nature changeante de l'activité de l'entreprise, de nouveaux


besoins peuvent surgir, ce qui conduit à la création de tickets pour prendre en charge ces
évolutions.

• Assistance : Les tickets de cette catégorie sont généralement ouverts lorsque les experts
métiers de l'entreprise rencontrent des problèmes liés par exemple à l'extraction de données
ou à l'utilisation de fonctionnalités spécifiques du système

Le but étant pour l’équipe est d’améliorer la manière dont on traite les tickets est cela ne serait assuré
que par analyser les données déjà générées au cours des traitement des données qui remonte jusqu’à
2018, ces données seront analysées pour détecter toute anomalies qui sera une cause potentielle de
réduire la productivité de l’équipe.

On mentionne aussi que le cycle de vie d'un ticket passe par plusieurs étapes essentielles à travers les
états déjà mentionnée, à savoir : l'organisation, le développement et l'intervention des experts métiers.
Chacune de ces étapes implique la participation de trois équipes distinctes : l'équipe en charge de
l'organisation, l'équipe du département de développement et d'intégration, ainsi que l'équipe des
experts métiers qui manipulent les systèmes d'information.

L'objectif principal de cette analyse est d'examiner de près l'élément le plus critique qui caractérise ces
étapes : le temps. En effet, l'analyse temporelle constitue la pierre angulaire de notre démarche
d'analyse des données

3.2 Préparer les données


Dans cette étape, nous préparons les données qui nous manquent afin qu'elles correspondent aux
objectifs de notre analyse de données. Comme mentionné précédemment, notre objectif principal est
de réaliser une analyse temporelle des différentes étapes par lesquelles passe un ticket tout au long de
son cycle de vie. Pour ce faire, nous avons utilisé la base de données associée à l'application MantisBT.

Jetons un coup d'œil à la structure de la base de données et sélectionnons les tables qui seront
pertinentes pour notre analyse. Voici les tables que j'ai sélectionnées :

Table 'mantis_bug_history' : Cette table contient l'historique de chaque ticket, en enregistrant tous les
états par lesquels il est passé, accompagnés de la date correspondante. Chaque ligne de cette table

16
représente une transition entre l'état précédent et l'état suivant, avec la date à laquelle le changement
a eu lieu.

Table 'mantis_bug_metadata' : Cette table ne contient pas l'historique complet, mais plutôt des
métadonnées concernant les tickets. Ce qui nous intéresse particulièrement ici, ce sont les catégories
et les dates de soumission des tickets."

N'oublions pas de mentionner que des jointures seront nécessaires, que ce soit pour associer les
catégories aux noms complets ou pour lier les utilisateurs à leurs départements, ce qui se révélera très
utile. Cette sélection de tables nous fournira les données essentielles pour bien mener notre analyse
temporelle des tickets

A noter que même s’il y a bug dans le nom des tables, ça peut concerner n’importe quelle catégorie de
ticket.

3.3 Traitement des données


Cette partie prend place après la sélection et l’extraction des données, puisqu’elles sont à leurs état
brut et nous devons les traiter pour qu’elles soient prêtes d’être analysés, le traitement concerne
plusieurs opérations, et dans notre cas ces opérations consiste à faire :

Mappage : Cette opération est couramment utilisée dans le prétraitement des données pour rendre
les données plus compréhensibles et conviviales lors de l'analyse.

La fusion de tables : Elle permet de rassembler des données provenant de différentes sources ou tables
en une seule, ce qui peut être essentiel pour avoir une vue complète et cohérente des données.

Calcul du temps entre les transitions : Pour chaque ticket, calculez le temps écoulé entre les différentes
transitions et les affectés à un département ou aux étapes déjà défini (organisation, développement,
experts métier)

L'opération de pivotement des lignes en colonnes : Le pivotement peut simplifier la manipulation de


données en les organisant de manière plus structurée pour des opérations ultérieures, telles que des
calculs, des filtres ou des agrégations.

Conversion de données : Les données proviennent souvent de sources différentes et peuvent être
stockées dans différents formats. Les opérations de conversion permettent d'uniformiser ces données
pour qu'elles puissent être traitées et analysées de manière cohérente.

La segmentation des données : est une technique couramment utilisée en analyse de données et en
marketing pour diviser un ensemble de données en groupes ou segments distincts en fonction de
certaines caractéristiques ou critères communs. Cette approche permet de mieux comprendre les
données, d'identifier des tendances ou des comportements spécifiques

3.4 Analyse de données


Dans cette section, nous entamons le processus de transformation des données brutes en informations
utiles, aptes à générer des connaissances exploitables pour éclairer nos décisions. Plusieurs types
d'analyses de données sont envisageables, notamment :

Analyse descriptive :

L'analyse descriptive a pour objectif de décrire et de synthétiser les données de manière claire et
concise. Elle cherche à comprendre la structure des données, à identifier les tendances, les schémas et
les caractéristiques significatives. Les méthodes couramment employées dans l'analyse descriptive
englobent les statistiques descriptives (telles que la moyenne, la médiane, l'écart-type, etc.), les

17
tableaux de fréquence, les graphiques (tels que les histogrammes et les diagrammes en barres) ainsi
que d'autres techniques de visualisation des données.

Analyse prédictive :

L'analyse prédictive se concentre sur la prédiction des futurs événements ou des tendances en se
basant sur les données historiques. Elle utilise des modèles statistiques, des techniques
d'apprentissage automatique et d'autres méthodes pour établir des prédictions.

Les applications courantes de l'analyse prédictive incluent la prévision des ventes, la détection de
fraudes, la recommandation de produits, la maintenance prédictive, etc.

Analyse prescriptive :

L'analyse prescriptive va au-delà de la prédiction et suggère des actions ou des décisions à prendre
pour atteindre des objectifs spécifiques. Elle combine souvent des modèles prédictifs avec des
algorithmes d'optimisation pour recommander des solutions optimales.

Les exemples d'applications de l'analyse prescriptive comprennent la gestion de la chaîne


d'approvisionnement, la planification de la production, la gestion des ressources humaines, etc.

Dans le projet actuel, nous allons faire une analyse descriptive sur le temps que passe les tickets dans
chaque département

3.5 Visualisation des données


Cette phase de visualisation des données joue un rôle crucial dans notre analyse. Elle vise à donner du
sens à nos résultats et à simplifier l'extraction d'informations pertinentes à partir des données
analysées. En utilisant divers outils de visualisation tels que des graphiques, des diagrammes en barres,
des cartes thermiques, des camemberts, et bien d'autres, nous poursuivons plusieurs objectifs :

• Clarification des tendances : Les graphiques nous permettent de mettre en évidence les tendances,
les fluctuations et les schémas présents dans les données d'une manière visuellement
compréhensible. Cela facilite la communication des insights aux parties prenantes.

• Présentation des comparaisons : Les diagrammes en barres et les graphiques comparatifs


permettent de comparer facilement différentes catégories, groupes ou périodes, ce qui est
essentiel pour prendre des décisions éclairées.

• Mise en évidence des anomalies : Les visualisations peuvent aider à repérer rapidement les
anomalies ou les valeurs aberrantes dans les données, ce qui peut nécessiter une attention
particulière.

18
• Soutien à la narration : Les graphiques et les visualisations ajoutent une dimension narrative aux
rapports en illustrant les résultats de manière percutante, ce qui rend le rapport plus convaincant
et plus engageant pour un large éventail de lecteurs.

• Accessibilité des données complexes : En rendant les données complexes plus accessibles, les
visualisations permettent aux lecteurs de comprendre rapidement des concepts ou des
informations qui pourraient être difficiles à saisir autrement.

• Identification des opportunités : Les visualisations peuvent mettre en lumière des opportunités ou
des domaines potentiels d'amélioration que nous n'aurions pas remarqués dans une vue tabulaire
des données.

• Personnalisation de la communication : En utilisant différents types de visualisations, nous pouvons


personnaliser la communication des insights en fonction des besoins spécifiques de divers publics,
des dirigeants aux analystes techniques.

• Renforcement de l'impact : Une visualisation bien conçue peut renforcer l'impact de nos résultats
en les présentant de manière esthétique et mémorable

3.6 Diagramme de gant


La méthodologie que nous avons adoptée pour mener à bien notre projet est basée sur une
planification rigoureuse et une allocation appropriée du temps pour chaque étape. Pour illustrer cette
planification, nous avons utilisé un diagramme de Gantt, qui est un outil de gestion de projet visuel
permettant de représenter les tâches, les délais et les interdépendances entre les différentes étapes.
Voici un aperçu de notre diagramme de Gantt :

Les taches S1 S2 S3 S4 S5 S6 S7 S7
Phase1 Définir le
problème
Pahse2 Préparer les
données
Phase3 Traitement des
données
Phase4 Analyser les
données
Phase5 Visualisation des
données

Figure 5: Diagramme de Gant

19
Comme illustré dans le diagramme de Gantt précédemment présenté, notre méthodologie d'analyse
de données est structurée en cinq phases distinctes. Chacune de ces phases est essentielle pour la
réussite globale de notre projet. Pour garantir une gestion du temps optimale et une répartition
efficace des ressources, nous avons alloué des délais spécifiques à chaque étape du processus. Cette
répartition du temps est cruciale pour assurer que notre analyse se déroule de manière fluide et
productive. Examinons de plus près la distribution du temps pour chaque phase

Dans la première phase, nous accordons une semaine pour définir le problème de manière claire et
détaillée. Cette étape est cruciale car elle pose les bases de notre projet et de ses objectifs. Nous avons
choisi de consacrer ce temps pour plusieurs raisons :

• Assurer une compréhension approfondie : Prendre le temps de bien comprendre la problématique


nous permet de saisir tous ses aspects, ses enjeux et ses nuances. Cela garantit que nos objectifs
sont bien cernés et alignés sur les besoins réels de l'entreprise.
• Éviter des coûts futurs : Une définition insuffisante ou mal définie du problème peut entraîner des
erreurs coûteuses dans les étapes ultérieures du projet. Investir du temps dès le départ permet
d'éviter ces coûts potentiels.
• Familiarisation avec l'entreprise d'accueil : Cette phase nous offre également l'occasion de nous
familiariser davantage avec l'entreprise d'accueil, son secteur d'activité, son métier, et son
écosystème. Cette connaissance approfondie sera bénéfique tout au long du projet.
• Base solide pour la suite : En prenant le temps de bien définir le problème, nous nous assurons de
commencer les étapes suivantes sur une base solide. Cela signifie que nous minimisons les risques
de retards ou de réorientations imprévues.

Cette première phase nous permettra de poser des bases solides pour le reste du projet, en nous
assurant que nous sommes alignés sur les objectifs, que nous comprenons le contexte de l'entreprise,
et que nous sommes prêts à avancer de manière efficace vers la résolution du problème.

Passons maintenant à la deuxième phase de notre méthodologie, la phase de préparation des données.
Cette étape essentielle sera allouée une semaine dans notre plan de projet. La raison derrière cette
allocation de temps est la suivante :

La préparation des données est une étape cruciale dans notre processus d'analyse. Elle consiste à
identifier avec précision les sources de données pertinentes et à déterminer quelles données seront
nécessaires pour nos analyses ultérieures. Cette étape implique l'exploration approfondie des tables
de la base de données, la compréhension de leur structure, et l'exécution de requêtes pour extraire les
données pertinentes.

L'allocation d'une semaine pour cette phase nous permet de garantir que nous disposons de
suffisamment de temps pour mener à bien ces tâches de manière minutieuse. Une préparation des
données rigoureuse nous permettra d'obtenir des données de haute qualité pour nos analyses
ultérieures, ce qui est essentiel pour des résultats fiables et significatifs

Passons maintenant à la troisième phase de notre méthodologie : le traitement des données. Cette
étape représente une partie cruciale du processus d'analyse de données, car elle vise à préparer les
données de manière à ce qu'elles soient prêtes pour une analyse approfondie. C'est une étape
intensive qui exige une attention particulière, c'est pourquoi nous avons alloué une période de trois
semaines à cette phase. Voici pourquoi cette allocation de temps est essentielle :

Le traitement des données implique la mise en forme, le nettoyage, la transformation et la validation


des données. Nous devons nous assurer que les données sont de haute qualité, cohérentes et prêtes à

20
être analysées. Pour ce faire, nous appliquons diverses techniques et transformations nécessaires pour
garantir la validité des données.

L'allocation de trois semaines à cette phase nous permet de consacrer le temps nécessaire à ces
opérations critiques. La qualité des données est essentielle pour la réussite de notre analyse, et nous
sommes déterminés à garantir que nos données sont en parfait état avant de passer à la phase suivante
de l'analyse.

La quatrième phase de notre méthodologie est le cœur même de notre processus d'analyse. C'est à ce
stade que nous répondrons à la problématique que nous avons définie au début du projet. Au cours de
cette phase, nous sélectionnerons parmi les différents types d'analyses disponibles et les appliquerons
aux données que nous avons préparées. Cette étape est cruciale pour extraire des informations
significatives de nos données. Nous avons alloué deux semaines à cette phase pour les raisons
suivantes :

Cette phase représente le point culminant de notre projet, car elle nous permettra de répondre à la
problématique initiale. Nous devrons choisir les méthodes d'analyse les plus appropriées en fonction
de nos objectifs, puis appliquer ces méthodes aux données. Deux semaines représentent le temps
nécessaire pour mener à bien cette étape avec la rigueur et la précision requises.

La cinquième et dernière phase de notre méthodologie marque la conclusion de notre travail


analytique. Au cours de cette étape, nous prendrons les informations précieuses que nous avons
extraites des phases précédentes et les présenterons de manière visuelle à l'aide d'outils de
visualisation. Cette présentation graphique non seulement rendra les informations plus attrayantes
visuellement, mais elle les rendra également plus accessibles et compréhensibles pour les décideurs et
les parties prenantes. Nous avons alloué une semaine à cette phase, car il est essentiel de consacrer le
temps nécessaire à une communication efficace des résultats

4. Conclusion
Dans cette section, nous avons détaillé la méthodologie, ce qui s'avérait essentiel pour pouvoir aborder
la partie suivante sans devoir expliquer en détail les procédures méthodologiques. À présent, nous
allons passer à la mise en pratique de cette méthodologie, que nous détaillerons dans la section
suivante

21
Chapitre Ⅲ : Outils utilisés et taches réalisées

22
1.Introduction
Dans ce chapitre nous allons avoir l’opportunité de mettre en pratique ce nous avons expliquées dans
le chapitre précèdent, en offrant différents exemples sur des manipulations des données au cours de
tous les étapes de l’analyse de données.

2.Outils utilisés
2.1 Outils de stockage et d’extraction de données
Le choix de l'extraction et du stockage des données était imposé, car l'entreprise utilise MySQL comme
système de gestion de base de données pour son système de suivi des tickets. Cette décision s'est
avérée judicieuse en raison des avantages de MySQL en termes de stabilité, de performance et de
compatibilité.

MySQL est un système de gestion de base de données open source largement reconnu pour sa fiabilité
et sa polyvalence. Il nous permet de créer, d'administrer et de gérer efficacement notre base de
données. De plus, MySQL prend en charge le langage SQL, ce qui nous offre une flexibilité totale pour
effectuer des requêtes complexes et extraire les données dont nous avons besoin pour notre
analyse[2].

Pour travailler avec MySQL et gérer notre base de données, nous avons choisi MySQL Workbench
comme environnement de développement intégré (IDE). MySQL Workbench est une application
conviviale qui offre une interface graphique intuitive pour interagir avec MySQL. Il facilite la conception
de schémas de base de données, l'exécution de requêtes SQL, la gestion des utilisateurs et bien plus
encore. Grâce à son ensemble complet de fonctionnalités, MySQL Workbench s'est avéré être un outil
précieux pour notre projet d'analyse de données

Figure 6: Mysql Workbench

2.2 Outils de traitement et d’analyse de données


En ce qui concerne le traitement et l'analyse de données, j'avais la liberté de choisir l'outil avec lequel
je suis le plus à l'aise. Cependant, il est essentiel de sélectionner des outils puissants et bien adaptés à
ces tâches. C'est pourquoi j'ai opté pour deux des bibliothèques Python les plus largement utilisées
dans le domaine de l'analyse de données :

Pandas : Pandas est une bibliothèque open source qui offre des structures de données flexibles pour
la manipulation et l'analyse de données. Elle permet de charger des données à partir de diverses
sources, de nettoyer et de préparer ces données, de les explorer, de les agréger et de les visualiser.

23
Pandas offre un large éventail de fonctionnalités pour effectuer des opérations courantes telles que la
sélection, le filtrage, la fusion, le regroupement et bien plus encore. C'est un choix incontournable pour
travailler avec des données tabulaires et structurées.

Figure 7: Logo Panda

NumPy : NumPy, abréviation de 'Numerical Python', est une bibliothèque fondamentale pour le calcul
numérique en Python. Elle introduit des tableaux multidimensionnels (appelés ndarray) qui sont
essentiels pour effectuer des opérations mathématiques et statistiques avancées. NumPy offre
également une vaste collection de fonctions mathématiques pour effectuer des calculs complexes avec
efficacité. En tant que pierre angulaire de nombreuses autres bibliothèques d'analyse de données,
NumPy est essentiel pour la manipulation efficace des données et le calcul scientifique.

Figure 8:logo Numpy

En combinant l'efficacité de NumPy pour le calcul numérique avec la facilité d'utilisation et la flexibilité
de Pandas pour la manipulation de données, nous avons à notre disposition des outils puissants pour
mener à bien notre analyse de données de manière efficace et précise

2.3 Environnement de travail


Pour l'environnement de développement et d'analyse, j'ai choisi d'utiliser Jupyter Notebook, un
environnement interactif largement reconnu dans le domaine de l'analyse de données et de la science
des données. Jupyter Notebook est une application web open source qui offre une plateforme de
codage interactive idéale pour travailler avec des données, écrire du code Python, et documenter le
processus d'analyse.

24
Figure 9:logo Jupyter

Les avantages de Jupyter Notebook sont nombreux. Il permet de créer des documents combinant du
code, des visualisations, du texte explicatif et des résultats en un seul endroit. Cela facilite grandement
la communication des étapes de l'analyse, des observations importantes et des conclusions. De plus,
Jupyter Notebook prend en charge plusieurs langages de programmation, mais dans notre cas, nous
l'utilisons principalement avec Python.

En utilisant Jupyter Notebook, nous pouvons exécuter des cellules de code de manière interactive, ce
qui facilite le test, la validation et l'exploration des données à chaque étape de notre analyse. De plus,
il offre la possibilité de créer des visualisations directement dans le document, ce qui renforce la
compréhension visuelle de nos résultats.

Dans l'ensemble, Jupyter Notebook s'avère être un environnement de développement puissant et


polyvalent pour notre projet d'analyse de données, nous permettant de travailler de manière
interactive et de documenter efficacement notre processus d'analyse

2.4 Outils de visualisation


Power BI : Power BI est une plateforme de business intelligence (BI) développée par Microsoft. Cet
outil de visualisation de données offre des fonctionnalités avancées pour créer des rapports interactifs
et des tableaux de bord informatifs à partir de données diverses. Voici quelques-unes des
caractéristiques clés de Power BI :

Connectivité des données : Power BI permet de se connecter à une variété de sources de données, y
compris des bases de données, des fichiers Excel, des services cloud, et bien d'autres. Cela facilite
l'intégration de données provenant de différentes sources.

Création de rapports interactifs : Les utilisateurs peuvent créer des rapports interactifs en glissant-
déposant des éléments visuels tels que des graphiques, des tableaux, des cartes, et des jauges. Les
rapports peuvent être explorés en utilisant des filtres, des segments, et des tableaux de bord interactifs.

Analyse avancée : Power BI propose des fonctionnalités d'analyse avancée telles que la modélisation
de données, les mesures calculées, et l'intégration de DAX (Data Analysis Expressions) pour créer des
calculs personnalisés.

Visualisations personnalisées : Les utilisateurs peuvent intégrer des visualisations personnalisées et


des graphiques tiers pour répondre à des besoins spécifiques.

25
Partage et collaboration : Les rapports créés dans Power BI peuvent être partagés en toute sécurité
avec d'autres utilisateurs et intégrés dans d'autres applications Microsoft telles que SharePoint et
Teams.

Figure 10: Logo Power BI

En résumé, Power BI est un outil puissant pour la visualisation des données qui permet aux utilisateurs
de créer des rapports interactifs, de prendre des décisions éclairées, et de partager des informations
importantes au sein de leur organisation

3.Note préliminaire
Dans la section suivante, nous plongerons plus profondément dans l'aspect technique et pratique de
notre projet d'analyse de données. Nous détaillerons les opérations réalisées à chaque étape de notre
méthodologie. Cependant, il est important de noter que, pour des raisons de confidentialité, toutes les
données présentées dans les parties suivantes sont fictives et ne concernent pas l'entreprise. Elles sont
créées uniquement à des fins de démonstration.

4.Les tâches réalisées


4.1 Définir le problème
Dans cette section, nous allons clarifier la problématique de notre projet ainsi que les objectifs qui le
sous-tendent. Le système de suivi des tickets est un outil essentiel utilisé quotidiennement par les
employés de l'entreprise pour faciliter la communication et la résolution de divers types de problèmes
et de requêtes. Chaque ticket suit un cycle de vie composé d'étapes spécifiques. L'efficacité est
l'élément clé de ce processus, c’est une équation comprenant plusieurs paramètres. Parmi ces
paramètres, le temps joue un rôle essentiel, ce qui en fait le point central de notre analyse.

En d'autres termes, notre objectif principal est de détecter les étapes du cycle de vie des tickets où le
temps est le plus souvent consommé, afin de comprendre les raisons de ces délais et de prendre des
mesures pour résoudre les problèmes sous-jacents. Pour ce faire, nous allons segmenter les tickets en
deux niveaux :

Selon leur type : Les tickets peuvent être classés en quatre catégories principales, à savoir les bugs, les
évolutions, les nouveaux besoins et les demandes d'assistance.

26
Selon leur cycle de vie : Nous diviserons le cycle de vie des tickets en étapes distinctes, notamment
l'organisation, le développement et l'intervention des experts métiers.

Cette approche nous permettra d'analyser en détail les différentes facettes du processus de résolution
de tickets et de cibler les domaines où des améliorations sont nécessaires pour optimiser l'efficacité
globale du système de suivi des tickets

Donc notre objectif est désormais clair, il consiste à évaluer le temps pris par les différents types de
tickets, et décider s’il est justifiable ou pas.

4.2 Préparation des données


Dans cette étape cruciale, notre objectif est d'acquérir non seulement les données, mais aussi de les
sélectionner avec précision pour qu'elles soient utiles pour la suite du projet. Nous avons conçu nos
requêtes en alignement avec les buts et les objectifs du projet, afin de garantir que nous disposons des
données nécessaires pour notre analyse.

Figure 11: Requête SQL sur l'historique

Une des requêtes clés que nous avons exécutées est celle qui nous permet de récupérer l'historique
complet de tous les tickets, y compris les détails de leur cycle de vie. Cette requête inclut toutes les
transitions entre les états des tickets, ainsi que les dates correspondantes. Ces informations sont
essentielles pour calculer le temps passé à chaque transition, une composante fondamentale de notre
analyse.

Pour effectuer ce calcul, nous utilisons la fonction from_unixtime pour convertir le format de date Linux
en un format plus facile à lire. Cette opération nous permet de travailler plus efficacement avec les
données temporelles.

La table résultante de cette requête contient environ 80 % des données requises pour notre analyse.
Cependant, nous devons encore ajouter des informations cruciales sur les catégories des tickets pour
obtenir une image complète

Figure 12:Requête sql pour les catégories

27
Pour cela, nous avons conçu une autre requête qui extrait les données de la table mantis_ticket_table,
fournissant des informations essentielles sur les tickets, notamment la date de soumission et la
catégorie. Pour rendre ces données plus lisibles et informatives, nous avons effectué une jointure avec
la table category_table. Cette jointure nous permet d'obtenir les noms complets des catégories au lieu
d'utiliser simplement des identifiants.

4.3 Traitement des données


Cette phase, qui prends plus temps va contenir plusieurs transformations sur les données pour qu’elles
soient facile après à être analysées

Premièrement on affecte à chaque transition dans un ticket l’étape adéquate qui concerne un
département précis, développement, organisation et expert métiers, donc on crée la fonction
determiner_étape qui exécute les taches suivantes :

• Faire la correspondance entre les transitions des états et les étapes de


l’organisation,developement et expert metiers, à titre d’exemple prenons la transition
suivante

affecté résolu

Figure 13:Exemple d'une Transition

Cette transition appartient à l’étape de développement, puisqu’après l’ouverture, l’analyse et


l’acceptation de ticket, on affecte au développeur la tâche de coder et résoudre le problème pour qu’il
soit résolu, et donc on est sûre que le temps entre l’affectation et la résolution concerne bien l’étape
de développement. En suivant la même logique pour le reste on parvient à attribuer à chaque transition
l’étape correspondante qui va nous permettre de calculer le temps écoulé.

• Calculer le temps de transition, pour comprendre la manière dont j’ai pu calculer le temps fait
par chaque transition, on doit tout d’abord comprendre l’historique comment est stocké

Ticket_id Etat précédent Etat suivant Date de changement

20509 analysé confirmé 12/01/2023

20983 confirmé affecté 20/01/2023

Figure 14: Historique des tickets

Prenons l’exemple ci-dessous pour savoir comment on peut calculer le temps de la transition
Confirmé - ->Affecté:

On a deux dates, la première où le ticket a pris comme état Confirmé ensuite et la deuxième date où
le ticket a changé l’état de confirmé à affecté. Donc le temps de la transition Confirmé - ->Affecté est
exactement la différence entre les deux dates.

28
Donc en appliquant ce processus sur tous les tickets, la nouvelle version des données prend la forme
suivante :

Etat précédent Etat suivant Temps alloué étape

analysé confirmé 10 jours organisation

confirmé affecté 15 jours organisation

affecté résolu 30 jours développement

Figure 15: historique avec temps calculé

Maintenant on se retrouve avec un DataFrame qui contient tous les tickets avec les durés des
transitions ainsi que l’étape correspondante. On remarque que pour chaque ticket les étapes figurent
plusieurs fois, on souhaite bien les agréger l’étape suivante va traiter ce cas

• Notre objectif c’est d’avoir pour chaque ticket les 3 étapes avec leurs temps d’exécution, mais
l’état actuel du Dataframe contient une vue plus détaillée, la solution est d’agréger les
données, on groupe les données et on effectue une sommation, le groupement doit se faire
sur deux étapes, le groupement pas ticket ensuite le groupement par étapes puis sommer le
temps alloué, l’exécution de ce processus transforme les données sous la forme suivante :

Ticket_id Tps_dev Tps_orga Tps_metier categorie

2012 12 jours 10 jours 19 jours Bug

2013 34 jours 15 jours 14 jours evolution

2014 56 jours 30 jours 10 jours Nouveau_besoin

Figure 16: résultat des agrégations

Il est important de mentionner, que non seulement l’agrégation a était appliqué mais aussi le
pivotement des lignes en colonnes, ce format va faciliter considérablement le temps d’exécution ainsi
que les manipulations d’analyse après.il nous manque qu’une seule chose pour faire notre analyse
c’est d’ajouter une colonne pour les types des tickets.

Il peut être constaté que la table est dénormalisée, puisque au lieu de noter une seule colonne nommée
tps qui prends toutes les instances (Metier,Dev,Orga),on a préféré mettre chacune dans une colonne,
la raison c’est qu’ on réduit considérablement le nombre des lignes, et donc une rapidité lors de
l’analyse, en plus de ça on sait très bien que le nombre des étapes ne connaitra probablement pas une
augmentation.

Maintenant que le traitement des données est fait, l’étape suivante concerne l’analyse de données, et
comment on va utiliser ces données pour décrire et extraire les tendances et les anomalies.

29
4.4 Analyse de données
Dans cette section, nous utiliserons les données que nous avons préalablement transformées et
nettoyées, en gardant à l'esprit notre objectif initial qui consiste à identifier les étapes où les tickets
prennent plus de temps que prévu. En d'autres termes, nous rechercherons les valeurs aberrantes ou
extrêmes dans les données. Notre approche pour atteindre cet objectif s'articule autour de plusieurs
étapes que nous expliquerons dans le diagramme suivant :

Segmenter les tickets par


1 catégorie

Réaliser une analyse descriptive


2 sur l’ensemble des tickets

Extraire les valeurs aberrantes


3

Réaliser une analyse descriptive


4 sur ce groupement de tickets

Investiguer plus les tickets aux


5 valeurs aberrantes

Figure 17:étape d'analyse de données

Figure 18:les etapes d'analyse des doonées

Comme remarqué, notre analyse consiste en 5 grandes étapes que nous allons expliquer en détail.

Etape 1 : Segmenter les tickets par catégories

Cette étape revêt une importance cruciale dans notre analyse, car le cycle de vie des tickets varie en
fonction de la catégorie à laquelle ils appartiennent. Par exemple, les tickets de type Bug passent par
les états "affecté" et "résolu", qui sont liés à la résolution de problèmes de codage, alors qu'un ticket
de type Assistance n'a pas besoin de passer par ces étapes, car il vise simplement à fournir de

30
l'assistance à un expert métier confronté à un problème technique qu'il aurait rencontré. Donc les
catégories avec lesquelles on va travailler sont les suivantes :

• Bug
• Nouveau besoin
• Evolution
• Assistance

Etape 2 : Réaliser une analyse descriptive sur l’ensemble des tickets

Avant de plonger dans les détails, il est crucial de comprendre la distribution des données. Il est donc
pertinent de calculer, pour chaque catégorie, la durée moyenne de chaque étape, l’écart type, ainsi
que d'autres mesures statistiques telles que le nombre total de tickets dans chaque catégorie, la durée
maximale et minimale, ainsi que les trois quantiles

Etape 3 : Extraire les valeurs aberrantes

Nous avons eu une idée sur la distribution en général des tickets pour chaque catégorie, maintenant
on commence a avancer plus vers le but, on essaie d’extraire les valeurs extrêmes des données, mais
on doit se disposer d’un mécanisme pour les détecter, parmi les méthodes utilisées il y a le score Z.

Le score Z, également appelé score standard ou score zéro, est une mesure statistique couramment
utilisée pour évaluer à quel point une observation (ou une donnée) se situe par rapport à la moyenne
d'un ensemble de données et comment elle se comporte en termes d'écart type. Il est principalement
utilisé pour identifier les valeurs aberrantes (valeurs extrêmes) dans un ensemble de données[3].

La formule du score Z pour une observation donnée (X) dans une distribution est la suivante :

Z = (X - µ) / σ

Où :

Z est le score Z de l'observation.

X est la valeur de l'observation que vous évaluez.

µ est la moyenne de la distribution.

σ est l'écart type de la distribution.

On applique cette formule sur tous les tickets au niveau des valeurs temporelles pour tous les étapes
de tous les catégories, pour qu’on se retrouve en fin de compte avec une colonne de plus qui concerne
le Z_Score .

Cette colonne va nous aider à filtrer les valeurs aberrantes, puisqu’il est couramment adopté comme
règle d'or que les valeurs dont le score Z est supérieur à 2 sont considérées comme des valeurs extrême
dans les données.

Etape 4 : Réaliser une analyse descriptive sur les valeurs extrêmes

Générer des mesures statistiques à partir des valeurs aberrantes nous permettra de mieux
appréhender leur distribution et leur comportement. De plus, cela peut attirer notre attention sur des
anomalies que nous n'avions pas pu détecter précédemment.

En utilisant la bibliothèque Pandas, nous avons à notre disposition la fonction 'describe()', qui offre une
vue d'ensemble utile des statistiques descriptives d'un ensemble de données, Elle génère un résumé

31
statistique qui comprend le nombre d'observations, la moyenne, l'écart type, les valeurs minimale et
maximale, ainsi que les quartiles (25e, 50e et 75e percentiles) pour chaque colonne numérique de
votre ensemble de données.

Etape 5 : investiguer plus les tickets aux valeurs aberrantes

Une fois les anomalies détectées, il est temps d'explorer leur source potentielle. Nous avons identifié
les tickets qui présentent des retards significatifs aux trois étapes pour l'ensemble des tickets. À partir
de là, nous extrayons les identifiants de ces tickets pour une analyse plus approfondie. Pour ce faire,
nous remontons à un niveau de granularité supérieur afin d'évaluer précisément quels états sont
responsables de ces retards, cas par cas. Étant donné que nous disposons de plusieurs tickets, nous
regroupons les données par état, puis calculons la moyenne de la durée de traitement. Cela nous
permet d'identifier les états qui contribuent le plus aux retards, nous offrant ainsi un aperçu de la
source de ces retards.

A la fin de l’analyse nous nous retrouvons avec 3 tables qui sont les suivantes :

• Une table pour l’analyse descriptive de toutes les données.


• Une table pour l’analyse descriptive des données extrêmes.
• Une table pour plus de détail sur les valeurs extrêmes.

4 .5 Visualisation des données


Dans cette phase nous allons importer les données, et les visualiser en utilisant Power BI, qui va nous
aider à créer des Dashboards a travers lesquelles on présente les résultats de notre analyse.

On commence par importer les fichiers CSV dans Power Query. À ce stade, il est recommandé
d'effectuer toutes les transformations nécessaires, par exemple, pivoter les données pour les rendre
plus adaptées à la consommation par les visualisations. Dans notre cas, les données étaient déjà dans
une forme appropriée pour le chargement. La seule transformation que nous avons effectuée a
consisté à définir la première ligne comme en-têtes des colonnes.

Ensuite, nous chargeons les données dans Power BI et commençons à créer les mesures qui seront
essentielles pour présenter les résultats de notre analyse. Pour clarification, les mesures dans Power
BI sont des valeurs agrégées conçues pour résumer un ensemble de données. La fonction d'agrégation
choisie peut être une sommation, le calcul de la moyenne, le comptage, etc.

Nous allons maintenant décrire ce que notre tableau de bord comprendra :

Les tickets réguliers :

• La distribution des tickets sans valeurs extrêmes, en mettant l'accent sur la détermination du
seuil de temps requis pour 75 % des tickets aux trois étapes, en incluant toutes les catégories.
• La comparaison des durées moyennes pour chaque étape dans les quatre catégories. Cela nous
permettra de comprendre comment la durée moyenne de chaque étape varie en fonction de
la catégorie.
• Une visualisation du nombre de tickets dans chaque catégorie pour une vue d'ensemble claire.

32
Les tickets à valeurs aberrantes :

• Le tableau offre un aperçu du nombre de valeurs aberrantes pour chaque étape et chaque
catégorie, en indiquant des seuils que les tickets ont dépassés. Cela permet d'obtenir une idée
plus précise des durées extrêmes.
• Comme mentionné précédemment dans la section précédente, nous allons plonger davantage
dans les détails en identifiant, pour chaque étape, les états qui contribuent le plus aux durées.
• Enfin, nous comparons le nombre de valeurs aberrantes pour chaque étape au sein des quatre
catégories, ce qui nous permettra d'appréhender comment le nombre de valeurs aberrantes
évolue d'une étape à l'autre en fonction des catégories.

5.Conclusion
Cette section a constitué un résumé de l'application de la méthodologie d'analyse de données
présentée au deuxième chapitre. Elle nous a permis de mieux comprendre les diverses transformations
et opérations effectuées au cours de notre analyse de données.

33
Conclusion Générale
Mon stage au sein de l'entreprise Tamwilcom a été une expérience enrichissante et formatrice qui m'a
permis de mettre en pratique les connaissances acquises au cours de ma formation académique. Tout
au long de cette période, j'ai eu l'opportunité de travailler au sein du département des systèmes
d'information (DSI), où j'ai contribué à l'analyse des données et à la résolution de problèmes concrets.

L'un des aspects les plus importants de mon stage a été l'exploration de l'analyse des données. J'ai pu
appliquer des méthodologies d'analyse pour comprendre les tendances, les schémas et les
caractéristiques significatives des données. Cette expérience m'a permis d'acquérir des compétences
essentielles en matière d'analyse de données, de visualisation et de prise de décisions basées sur des
preuves.

De plus, mon par l'équipe de Tamwilcom a été d'une importance capitale. J'ai reçu des conseils avisés,
un soutien constant et des opportunités d'apprentissage précieuses qui ont contribué à ma croissance
professionnelle.

J'ai également eu l'occasion de collaborer avec des professionnels talentueux au sein de Tamwilcom,
ce qui m'a permis de comprendre la dynamique de l'entreprise, ses opérations et son engagement
envers l'innovation.

En fin de compte, ce stage a été une occasion exceptionnelle de fusionner la théorie avec la pratique.
J'ai développé des compétences techniques, de résolution de problèmes et de communication qui
seront sans aucun doute précieuses pour ma future carrière. Je suis reconnaissant envers toutes les
personnes qui ont contribué à la réussite de ce stage, et je quitte cette expérience avec une vision plus
claire de mon avenir professionnel.

Je tiens à remercier l'équipe de Tamwilcom, mon encadrant de l'ENSA, et tous ceux qui ont contribué
à faire de ce stage une expérience mémorable. Mon stage chez Tamwilcom restera une étape
fondamentale dans mon parcours académique et professionnel, et je suis impatient d'appliquer les
compétences acquises dans mes projets futurs

34
Webographie
[1]. Présentation de Tamwilcom Récupéré sur Tamwilcom:
https://www.tamwilcom.ma/fr/tamwilcom/qui-sommes-nous

[2]. qu'est ce que c'est Mysql .Récupéré sur Kinsta: https://kinsta.com/fr/base-de-connaissances/qu-


est-ce-que-mysql/

[3] explication de la méthode Z-score . Récupéré sur Data Science:


https://datascience.eu/fr/mathematiques-et-statistiques/quest-ce-quun-z-score/

35

Vous aimerez peut-être aussi