Vous êtes sur la page 1sur 70

Mémoire de fin d’études pour l’obtention du Diplôme Master

Spécialisé en Data Engineering

DATA SCIENCE AU
SERVICE DE LA
PIECE DETACHEE
Réalisé et soutenu par :

Sous l’encadrement de : Pr. Abdelhamid FADIL

Année Universitaire : 2019/2020

1
Dédicace

En préambule à ce mémoire, j’adresse mes remerciements mes plus sincères


remerciements aux personnes qui m'ont apporté leur aide et qui ont contribué à
l'élaboration de ce mémoire ainsi qu’à la réussite de cette formidable année universitaire.

La femme la plus affectueuse et la plus douce au monde, l’ange la plus tendre qui a été
toujours pour moi une source d’amour, à ma très chère mère.

L’être le plus cher au monde en témoignage de mon respect, à mon amour et mon plus
grand rattachement, à mon très cher père.

2
Remerciements

J’adresse mes vifs remerciements à toutes les personnes qui ont contribué de près ou
de loin à l’élaboration de ce modeste travail.

Je tiens précisément à exprimer ma gratitude envers ma famille et mes amis sans qui je
ne serais jamais arrivé à ce stade.

Je remercie vivement mon encadrant Mr. FADIL de m’avoir assisté tout au long de mon
projet, pour sa disponibilité et pour ses conseils avisés.

Aussi, mes gratitudes les plus profondes à M. Omar ALAMI Directeur Général qui m’a
donné l’occasion d’effectuer ce rapport à MIFA MOTORS.

Mes remerciements les plus sincères vont également à Mme Souad HAMMOUDI
Directrice du Département et mes chers collègues Mr. Yacine AMADE Responsable
Service Après-Vente et Mr. Mohammad SERDABE pour le soutien moral qu’ils m´ont
approuvé et leurs disponibilités.

3
Figures

Figure 1 : Spectre de la Data Science...................................................................................................................17


Figure 2 : Les étapes d’un projet Data Science.................................................................................................19
Figure 3: Decision Tree.............................................................................................................................................25
Figure 4 : Random Forest........................................................................................................................................27
Figure 5 : Positionnement de l’algorithme XGBOOST dans le spectre ML................................................29
Figure 6 : Technique Gradient Boosted...............................................................................................................30
Figure 7 : Processus Approvisionnement PDR.................................................................................................35
Figure 8 : Environnement Externe du magasin PDR........................................................................................38
Figure 9 : principaux clients du Magasin PDR...................................................................................................38
Figure 10 : Histogramme du chiffre d’affaires....................................................................................................39
Figure 11 : Mauvaise structure entre "stocks et achats"................................................................................40
Figure 12 : Cycle adéquat entre "Stocks et Achats"........................................................................................42
Figure 13 : Valeurs manquantes............................................................................................................................47
Figure 14 : Visualisation des valeurs....................................................................................................................48
Figure 15 : Valeurs aberrantes................................................................................................................................49
Figure 16 : Diagramme circulaire de la marge et CA par site.........................................................................50
Figure 17 : Diagramme circulaire de la marge et CA par famille de produits............................................50
Figure 18 : Histogramme du CA/Marge par famille de produits....................................................................52
Figure 19 : Diagramme circulaire de la méthode ABC.....................................................................................54
Figure 20 : Courbe du CA et de la Marge.............................................................................................................55
Figure 21 : Répartition de la Dataset.....................................................................................................................56
Figure 22 : Etape d’ajustement du modèle..........................................................................................................61
Figure 23 : Choix du meilleur modèle...................................................................................................................65
Figure 24 : PSI.............................................................................................................................................................67

4
Liste des abréviations :

Abréviation Désignation

MAE Mean Absolute Error

PDR Pièces de rechange

ML Machine Learning

RF Random Forest

LR Logistic Regression

BR Bagging Regressor

MSE Mean Squared Error

PSI Purshases Sales Icomes

SVR Support Vector Regression

RMSE Root Mean Square Error

5
Table des matières
Dédicace..........................................................................................................................................................................2
Remerciements...............................................................................................................................................................3
Figures..............................................................................................................................................................................4
Liste des abréviations :..................................................................................................................................................5
Résumé............................................................................................................................................................................7
Introduction générale.....................................................................................................................................................8
Chapitre I :.......................................................................................................................................................................9
Présentation de L’Entreprise........................................................................................................................................9
1.1 Histoire constructeur : YAMAHA..............................................................................................................10
1.2 Présentation du groupe MIFA...................................................................................................................12
1.3 Présentation de la société MIFA Motors.................................................................................................13
Chapitre 2:.....................................................................................................................................................................16
La Data Science............................................................................................................................................................16
et......................................................................................................................................................................................16
Machine Learning.........................................................................................................................................................16
2.1 Plateforme et outils Data Science............................................................................................................17
2.2 Machine Learning.......................................................................................................................................21
2.2.1 Machine Learning avec supervision....................................................................................................22
2.2.2 Machine Learning sans supervision....................................................................................................23
2.2.3 Machine Learning par renforcement...................................................................................................23
2.3 Algorithmes Machine Learning.................................................................................................................24
2.3.1 Random Forest.......................................................................................................................................26
2.3.2 Decision Tree....................................................................................................Erreur ! Signet non défini.
2.3.3 XGBoost...................................................................................................................................................29
Chapitre 3 :....................................................................................................................................................................32
Problématique...............................................................................................................................................................32
3.1 Environnement micro.................................................................................................................................33
3.1.1 Approvisionnement.................................................................................................................................33
3.1.2 Mécanismes de commande..................................................................................................................36
3.1.3 Analyse de la concurrence....................................................................................................................36
3.1.4 Analyse de la clientèle...........................................................................................................................38
3.2 Détection des anomalies...........................................................................................................................39
3.3 Amélioration du processus de gestion.....................................................................................................41
Chapitre 4:.....................................................................................................................................................................44
Modélisation..................................................................................................................................................................44
4.1 Traitement et analyse des données.........................................................................................................45
4.1.1 Données manquantes............................................................................................................................45
4.1.2 Valeurs aberrantes.................................................................................................................................47
4.1.3 Visualisation des données....................................................................................................................49
4.2 Paramétrage de l’algorithme.....................................................................................................................55
4.2.1 Encoding..................................................................................................................................................56
4.2.2 Métriques d’erreur..................................................................................................................................57
4.2.3 Hyper-paramétrage................................................................................................................................58
4.3 Ajustement des données aux modèles et résultats...............................................................................60
4.3.1 Amélioration de la précision des modèles..........................................................................................61
4.3.2 Comparaison des modèles étudiés.....................................................................................................64
4.4 Déploiement du modèle.............................................................................................................................65
Conclusion Générale....................................................................................................................................................68
BIBLIOGRAPHIE..........................................................................................................................................................69

6
Résumé

Plusieurs travaux ont souligné l'importance économique du commerce des pièces de


rechange.

Une gestion optimale est essentielle à la réussite de l’entreprise, puisque ce segment


représente un part importantdu chiffre d’affaire et de la marge.

Une maitrise de la demande permet à l’entreprise d’éviter des ruptures de stock ou un


sur-stockage. Une maitrise de l’approvisionnement en pièces détachées est aujourd'hui
un facteur important d’un meilleur service après-vente et ceci impacte le choix de la
marque par le client.

L’objectif de ce travail de fin d’études consiste à optimiser la gestion de


l’approvisionnement des pièces de rechange MIFA Motors en utilisant des algorithmes
du Machine Learning et des outils de Data Science. Le but est de prédire les ventes et
de générer par la suite un PSI afin de réduire les ruptures de stock et lutter contre les
stocks obsolètes, en assurant un taux de service irréprochable.

Pour ce faire, et après une revue documentaire, une démarche Data Science a été
appliquée sur les données collectées de l’entreprise afin de concrétiser un modèle de
Machine Learning prédictif basée sur des algorithmes avec une mise en place d’un PSI
automatisé.

Ce travail permettra à Mifa Motors d’éviter les ruptures de stock et ainsi d’augmenter la
satisfaction des clients par la maitrise des prévisions de ventes et d’approvisionnement
des différentes références de la PDR. Ceci passe par la mise en place du PSI, un
tableau de bord automatisé qui controle l’ensemble des données, Purshases, Sales,
Incomes.Mots-clés : Ajouter ici 4 à 6 mots clés les plus pertinents de votre rapport et qui
doivent être cités dans le texte du résumé ci-dessus

7
Introduction générale

La pièce de rechange est un élément de service stratégique. Vendue aux particuliers


comme aux professionnels, elle constitue une source de revenu substantielle. Pourtant le
poids du stock sur les comptes de l’entreprise, comme celui de l’obsolescence des
pièces, n’est pas négligeable.

Une mauvaise décision sur le calcul des stocks peut amener à un taux d’obsolescence
important qui peut coûter des millions de dirhams. Aussi, un mauvais taux de service a
pour conséquence immédiate une augmentation des reliquats, une baisse des ventes et
par conséquent, une diminution de l’EBIT. Une forte disponibilité des pièces de rechange
doit être recherchée tout en optimisant les coûts de stockage. La complexité réside dans
le dilemme: comment assurer un service maximal avec un stock minimal ? Pour ce faire,
le service des pièces de rechange se doit d’optimiser son approvisionnement.

Avec l'essor récent des algorithmes d'apprentissage automatique, nous avons de


nouveaux outils à notre disposition qui peuvent facilement obtenir d’excellentes
performances en termes de précision. Le service des pièces de rechange s’est mis au
défi d’améliorer sa demande et de l’aligner aux stratégies globales de l’entreprise en
utilisant de nouvelles méthodes d’analyse et de prédiction.

Mon expérience au sein de MIFA Motors est traduite par ce rapport dont la première
partie sera réservée à la présentation de la société et de son secteur d’activité. Le
deuxième chapitre présentera les concepts du Machine Learning et Data Science. Le
troisième chapitre portera sur la problématique et les fondamentaux économiques de la
distribution des pièces détachées. Au dernier chapitre, on procèdera à l'analyse et la
préparation de notre base de données, suivie de la construction et le déploiement de
notre modèle avec le PSI.

8
Chapitre I :

Présentation de L’Entreprise

9
1.1 Histoire constructeur : YAMAHA

YAMAHA est une entreprise japonaise opérant dans de nombreux domaines, parmi
lesquels les instruments de musique (son activité première), les motos, les motoneiges,
les scooters des mers, les moteurs, les circuits intégrés et les appareils électroniques
grand public. Elle a été fondée en 1887 par un horloger pour la fabrication d'orgues,
Torakusu YAMAHA mais s'est diversifiée à partir de la Seconde Guerre mondiale. Elle
est devenue depuis une multinationale.

Le fondateur de la marque est né en 1851 et débute sa carrière en tant qu’apprenti chez


un fabricant d’horloges avant de devenir professionnel de matériel médical. Il est ensuite
appelé pour réparer un orgue, ce sera le déclic, YAMAHA deviendra une célèbre marque
d’instruments de musique toujours en activité aujourd’hui.

Durant la Seconde Guerre mondiale, la société est contrainte de fabriquer du matériel


militaire et cesse alors toute production d’instruments. A la fin du conflit mondial, la
société qui porte encore le nom de Nippon Gaki adopté en 1897, décide de se tourner
vers la production de motos. Les premiers modèles ne sont que des copies de motos
allemandes mais les véhicules connaissent un certain succès.

Les copies vont néanmoins vite être abandonnées pour de véritables créations. La Y A-1
apparait en 1955, année durant laquelle la firme est rebaptisée YAMAHA en hommage à
son fondateur. Le rachat de la firme SHOWA permet à YAMAHA d’acquérir la maîtrise
de la technologie deux-temps.

Les succès en série : Jusque dans les années 60, les modèles YAMAHA vont s’écouler
à vitesse grand V et vont se hisser sur les hautes marches des podiums en compétition
aussi bien au Japon qu’en Europe. Puis la société se lance dans les rails sur la demande
de l’importateur YAMAHA US qui réclame à l’usine une machine capable de
concurrencer les Greeves et Bultaco en off-road, et c’est avec la DT1 que la société
répond à la demande. Au cours des années 70, le gros des ventes est assuré par les
deux-temps ce qui n’empêche pas YAMAHA de développer une gamme de quatre temps
avec notamment la XT 500. La marque s’essayera ensuite brièvement au trois cylindres
avec la XS750 avant de donner naissance en 1980 a la XJ650.

Au cours des années qui suivront, YAMAHA se forgera une image sportive non
seulement en compétition mais aussi en sortant des modèles tels que la RD 500LC
capable d’atteindre les 217km/h. Ce seront ensuite les FZ qui feront leur apparition pour
asseoir l’esprit sportif de la marque.

10
Au-delà des modèles purement sportifs, la marque ne cessera d’innover et de proposer
des motos toujours plus performantes.

En 2001, la YAMAHA Motors Corporation est créée, l’activité motos et moteurs se


sépare donc de YAMAHA Corporation. En 2010, la marque aux trois diapasons s’impose
comme l’un des leaders de l’industrie moto en talonnant notamment sa compatriote
HONDA. La société japonaise produit des scooters et des motos de tous types, du
cruiser à la sportive en passant par le tout-terrain et produit également des véhicules tout
terrain, des motoneiges, des bateaux ou encore des moteurs tout en gardant un pied et
une oreille dans le monde de la musique.

Fiche signalétique :

Création : 1887

Fondateur : Torakusu YAMAHA

Forme juridique : Société Japonaise

Slogan : «Revs Your Heart »

Siège social : Hamamatsu (Japon)

Actionnaires : YAMAHA MOTORS, YAMAHA CORP., MIZUHO FINANCIAL GROUP, etc.

Activités : Musical instruments, audio products, motorcycles and engines, etc.

Produits : Instruments de musique, motos, bateaux et scooters de mer, etc.

Filiales : YAMAHA CORPORATION, YAMAHA MOTORS

Chiffre d’affaires : 432,2 milliards de JPY (2015) soit env. 3,27 milliards d’EURO (2015)

11
1.2 Présentation du groupe MIFA

MIFA Equipements

Importation et distribution des produits de pêche :

Métier historique de l’entreprise, l’entreprise commercialise depuis 1950 différents


filets et fils de pêche en nylon ou en polyéthylène (sardine, espadon, trémail, bonite, etc),
de différents diamètres de cordage en polyéthylène et en polypropylène, ainsi que
différents formats de flotteurs.

Importation et distribution des produits de levage et manutention :

Considéré comme métier historique de l’entreprise, MIFA commercialise depuis


1950 différents articles de levage et manutention importés.

MIFA Musique :

Importation et commercialisation d’instruments de musique : MIFA Music commercialise


à travers ses agences une large gamme d’instruments de musique.

MIFA Motors :

 Importation et commercialisation des produits de plaisance YAMAHA

 Importation et commercialisation des pièces détachées YAMAHA

 Service après-vente.

MIFA Services :

 Transfert d’argent

 Autres activités et projets en cours d’études

12
1.3 Présentation de la société MIFA Motors

Depuis 45 ans, MIFA groupe est le distributeur exclusif de YAMAHA Motors Corporation
au Maroc à travers sa société MIFA Motors. C’est avec beaucoup de fierté, passion et
professionnalisme que le Groupe représente la marque YAMAHA sur l’ensemble du
territoire marocain, et ce, en assurant la commercialisation, la garantie, et le service
après-vente de ses produits tout en veillant au respect des normes et standards du
constructeur japonais.

MIFA Motors a su pendant des années garantir à ses clients des produits de qualité
dignes d’un constructeur de renommée mondiale. Le service après-vente constitue le
cheval de bataille de MIFA Motors. La technologie YAMAHA exige une qualité de service
que seul un importateur exclusif peut offrir en toute sécurité pour les produits de la
marque. C’est ce qui en assure à la fois la pérennité et la rentabilité d’investissement
pour ses clients.

Description des services MIFA Motors:

 Département Marketing

Le Département Marketing intervient de manière centrale dans la stratégie globale de


l’entreprise par la définition de la politique de positionnement, des solutions sur leurs
marchés respectifs. Ainsi il joue un rôle très efficace dans l’activité de l’entreprise parce
qu’il agit sur l’ensemble des actions qui ont pour finalité de prévoir ou de constater, et le
cas échéant de stimuler, susciter ou renouveler les désirs des consommateurs pour une
catégorie de produits et de réaliser l’adaptation continue de l’appareil productif et de
l’appareil commercial de la société.

 Service direction des ventes

Sur la base de différentes observations et analyses des différentes pratiques constatées


au Maroc et à l’étranger, le management de MIFA Motors a entamé en 2014 un vaste
chantier de restructuration du réseau de distribution de la société.

Des études ont été menées et ont abouti à la définition de zones géographiques
stratégiques. Ces zones devaient faire l’objet d’une attention particulière en raison de
leur potentiel ou de leur poids dans les ventes de MIFA Motors. La Société a donc
décidé de revoir les modes et conditions de distribution dans ces zones.

13
 Service Commercial

La direction commerciale gère l’interface avec les clients, on distingue 03 modes de


distribution :

 Distribution traditionnel «vente directe» : la société et agences propres

 Distribution Marché: Coca cola, Sûreté nationale, etc

 Distribution Indirecte: POS et réseau revendeurs

Les fonctions principales du service commercial consiste à:

 Etablir la politique commerciale de la société.

 Prendre des commandes.

 Saisir la commande dans le système.

 Etablir le bon de commande.

 Département achats et approvisionnements

Il a pour mission de centraliser les achats de toute la société MIFA Motors, de satisfaire
les besoins de la société en termes de qualité, coût et délai, et d’assurer les besoins en
matière des Engins et pièces de rechange:

 Achats des Engins,

 Approvisionnement des pièces de rechange (département PDR).

 Consommables fournitures et bureautique.

 Service Informatique

La société MIFA Motors disposait d’un système informatique ERP S400.

Depuis 2015, le système d’information a migré vers SAGE X3 lui assurant une gestion
intégrée et un accès systématique à une base de données intégrale des fonctions de
l’entreprise.

Ce système couvre les modules suivants :

 Comptabilité générale et analytique

14
 Gestion des ventes

 Gestion des stocks

 Gestion des immobilisations

 Gestion de la paie

 Reportions

 Etc

Les systèmes suscités, cohabitent actuellement.

 Service Logistique

Le service logistique a pour mission :

 La gestion de l’entreposage des produits.

 La planification des transports des engins et pièces de rechange.

 Le transfert intersites et en dernier lieu le transport aux clients.

15
Chapitre 2:

Data Science
et
Machine Learning

1-

16
2.1 Plateforme et outils Data Science

La Data Science est un domaine interdisciplinaire dont le but est d’analyser des
quantités importantes de données et d’en extraire des connaissances. Elle intègre des
méthodes issues de l’Informatique, des Statistiques, du Machine Learning, de l’Analyse
de Données et des Mathématiques Décisionnelles.

Figure 1 : Spectre de la Data Science

La Data Science permet d’exploiter les données afin de modéliser des comportements,
de prendre des décisions, ou de faire des prédictions en utilisant des algorithmes.

La Data Science est ainsi constituée d’outils et de méthodes qui permettent de :

 structurer et organiser les données dans des bases de données, des entrepôts de
données (Data Warehouses) et des Datamarts, en faisant éventuellement appel à
des ontologies et au Big Data.

17
 Collecter, intégrer et agréger des données à partir de plusieurs sources,
éventuellement hétérogènes, à l’aide d’outils d’ETL.

 Valider, contrôler et nettoyer les données, par exemple à l’aide de règles métier
(BRMS);

 Visualiser et diffuser les données, sous forme de tableaux de bord et de


reportings, à l’aide d’outils de BI (Business Intelligence) et de Dataviz.

 Apprendre à partir des données, en utilisant des algorithmes de statistiques et de


Machine Learning : régression linéaire (simple, multiple), régression logistique,
clustering (K-means, KNN, DBSCAN, etc), arbres de décision et forêts d’arbres
décisionnels (Random Forest), Support Vector Machines (SVM), réseaux de
neurones, boosting séries temporelles, analyse en composantes principales,
analyse factorielle des correspondances, text mining, apprentissage par
renforcement (reinforcement learning)etc

Dans un environnement concurrentiel où les données ne cessent de circuler et évoluer,


les décideurs peuvent compter sur la Data Science pour analyser leurs données afin de
faire émerger des informations cachées pouvant les aider à prendre des décisions plus
avisées concernant leur business. Ces décisions basées sur des données peuvent
conduire à une rentabilité accrue, à une meilleure efficacité opérationnelle, à une
performance commerciale optimisée et à des flux de travail améliorés. Par exemple,
dans le domaine de la distribution, de la banque, de l’industrie ou du transport :

 Prévision de la demande, prévision des ventes

 Détection de fraude

 Classification et scoring de clients

 Pricing dynamique et recommandations de prix

 Recommandations de produits à partir de l’expérience client

 Analyse et reconnaissance d’images, de vidéos, de texte, etc

 Diagnostic de pannes

 Maintenance préventive.

Afin de mener à bien un projet Data Science, il est très important de suivre toutes les
étapes du cycle de vie afin d’assurer le bon déroulement du projet. Les étapes à suivre
pour réussir un projet de Data Science sont décrites dans le graphique ci-dessous :

18
Figure 2 : Les étapes d’un projet Data Science

La première étape consiste à comprendre le besoin métier, les différentes spécifications,


exigence et priorités.

Ensuite, il faut identifier les données nécessaires pour le développement de la solution,


puis les récupérer et les stocker (bases de données opérationnelles, fichiers, site web,
etc).

La troisième phase consiste à préparer les données : classement des données en


fonction des critères choisis, nettoyage des données (données manquantes par
exemple), et surtout leur recodage pour les rendre compatibles avec les algorithmes qui
seront utilisés (Features Engineering).

La quatrième étape est la phase de modélisation qui comprend le choix, le paramétrage


et le test de différents algorithmes.

Vient ensuite la phase d’évaluation qui vise à vérifier le(s) modèle(s) ou les
connaissances obtenues afin de s’assurer qu’ils répondent aux objectifs formulés au

19
début du projet. C’est dans cette phase que l’on décide si le modèle est assez robuste et
donc prêt au déploiement, ou bien s’il faut l’améliorer encore.

L’étape finale du cycle de vie consiste en une mise en production pour les utilisateurs
finaux des modèles développés.

Plateforme et outils Data Science

L’univers de Data science comporte plusieurs solutions appelée « Data science


Plateforme ».

Une plateforme Data science est un environnement « Framework » permettant de


réaliser le stockage et le traitement des données. Elle s’avère essentielle pour les
entreprises souhaitant mener avec succès leurs projets Big Data ou Intelligence
Artificielle. En assurant le traitement d’une énorme quantité de données, une plateforme
Big Data, par sa puissance et sa capacité de stockage, autorise la prise en charge d’une
quantité potentiellement infinie de tâches. Aujourd’hui, l’augmentation croissante du
volume des données et la diversification de leurs sources, imposent des outils de plus en
plus perfectionnés pour assurer leur traitement. C’est là le principal atout d’une telle
plateforme, la multitude d’outils qu’elle propose et qui offre un traitement rapide et fluide.
L’analyse des données réclame l’utilisation de technologies poussées. Pour assurer une
vitesse optimale, les traitements Big Data impliquent ainsi le recours à l’intelligence
artificielle et plus particulièrement à l’apprentissage automatique, ou « Machine Learning
».

Les outils utilisés dans notre projet afin d’exploiter nos données extraites de Sage sous
format Excel sont les suivants :

 Jupyter/Colab :

Colaboratory, souvent raccourci en "Colab", est un produit de Google Research. Colab


permet à n'importe qui d'écrire et d'exécuter le code Python de son choix par le biais du
navigateur. C'est un environnement particulièrement adapté au machine learning, à
l'analyse de données et à l'éducation. En termes plus techniques, Colab est un service
hébergé de notebooks Jupyter qui ne nécessite aucune configuration et permet
d'accéder gratuitement à des ressources informatiques, dont des GPU.

 Python :

20
Publié dans sa première version en 1991, Python est un langage de haut niveau élégant,
portable et extensible qui permet de créer du code lisible, selon l'un des paradigmes de
programmation souhaités.

Langage de programmation multi-paradigme (dont objet) interprété. L'une des principales


caractéristiques de Python est qu'il est orienté objet (il permet donc la POO :
programmation orientée objet), mais pas seulement. En effet, la programmation objet
n'est pas strictement obligatoire en Python. Si vous avez besoin de coder un petit script
dont le but est de réaliser une maintenance système rapide, pas besoin d'envisager la
création de classes et de méthodes. Python est un langage interprété : à l'image du
PHP, un programme Python ne nécessite pas d'étape de compilation en langage
machine pour fonctionner. Le code est interprété à l'exécution. Python présente
néanmoins une caractéristique intéressante : comme en Java, le code Python est
compilé en bytecode (format intermédiaire) avant lancement, ce qui optimise ses
performances.

Python est doté d'un typage dynamique fort : cela signifie que le typage, bien que non
vérifié lors de la « compilation », Python effectue des vérifications de cohérence sur les
types manipulés, et permet de transformer explicitement une variable d'un type à l'autre.

2.2 Machine Learning

Le Machine Learning est une technique de programmation informatique qui utilise des
probabilités statistiques pour donner aux ordinateurs la capacité d’apprendre par eux-
mêmes sans programmation explicite. Pour son objectif de base, le Machine Learning «
apprend à apprendre » aux ordinateurs – et par la suite, à agir et réagir – comme le font
les humains, en améliorant leur mode d’apprentissage et leurs connaissances de façon
autonome sur la durée. L’objectif ultime serait que les ordinateurs agissent et réagissent
sans être explicitement programmés pour ces actions et réactions. Le Machine Learning
utilise des programmes de développement qui s’ajustent chaque fois qu’ils sont exposés
à différents types de données en entrée.

Un bon exemple de ML est la voiture autonome. Une voiture autonome est équipée de
plusieurs caméras, plusieurs radars et d’un capteur lidar. Ces différents équipements
assurent les fonctions suivantes :

 Utiliser le GPS pour déterminer l’emplacement de la voiture en permanence et


avec précision.

21
 Analyser la section de route située en avant de la voiture.

 Détecter les objets mobiles ou fixes situés sur l’arrière ou les côtés de la voiture.

Ces informations sont traitées en permanence par un ordinateur central également


installé dans la voiture. Cet ordinateur collecte et analyse en permanence des volumes
considérables de données et les classe de la même manière que les réseaux neuronaux
d’un cerveau humain. Pour guider la voiture dans son environnement, l’ordinateur prend
des milliers de décisions par seconde en fonction de probabilités mathématiques et de
ses observations : comment tourner le volant, quand freiner, accélérer, changer les
vitesses, etc.

Le Machine Learning n’est pas une nouvelle technologie. Le premier réseau neuronal
artificiel, appelé « Perceptron », a été inventé en 1958 par le psychologue américain
Frank Rosenblatt.

Au départ, Perceptron devait être une machine, et non un algorithme. En 1960, il a été
utilisé pour le développement de la machine de reconnaissance d’images « Mark 1
Perceptron ». Mark 1 Perceptron a été le premier ordinateur à utiliser des réseaux
neuronaux artificiels (ANN) pour simuler la réflexion humaine et apprendre par essais et
erreurs. Le Machine Learning est de plus en plus utilisé en raison de la multiplication des
bibliothèques et des frameworks open source et de la multiplication par plusieurs
milliards de fois de la puissance de traitement des ordinateurs entre 1956 et 2018.
Aujourd’hui, le ML est partout : des transactions boursières à la protection contre les
logiciels malveillants en passant par la personnalisation du marketing. Quelle que soit sa
simplicité ou sa complexité, le Machine Learning peut être classé en trois grandes
catégories

2.2.1 Machine Learning avec supervision

Le Machine Learning avec supervision est une technologie élémentaire mais stricte. Les
opérateurs présentent à l’ordinateur des exemples d’entrées et les sorties souhaitées, et
l’ordinateur recherche des solutions pour obtenir ces sorties en fonction de ces entrées.
Le but recherché est que l’ordinateur apprenne la règle générale qui mappe les entrées
et les sorties. Le Machine Learning avec supervision peut être utilisé pour faire des
prédictions sur des données indisponibles ou futures (on parle de « modélisation
prédictive »). L’algorithme essaie de développer une fonction qui prédit avec précision la
sortie à partir des variables d’entrée – par exemple, prédire la valeur d’un bien immobilier

22
(sortie) à partir d’entrées telles que nombre de pièces, année de construction, surface du
terrain, emplacement, etc.

Le Machine Learning avec supervision peut se subdiviser en deux types :

 Classification : La variable de sortie est une catégorie.

 Régression : La variable de sortie est une valeur spécifique.

Les principaux algorithmes du Machine Learning avec supervision sont les suivants :
forêts aléatoires, arbres décisionnels, méthode du k plus proche voisin (k-NN),
régression linéaire, classification naïve bayésienne, machine à vecteurs de support
(SVM), régression logistique et boosting des gradients.

2.2.2 Machine Learning sans supervision

Dans le Machine Learning sans supervision, l’algorithme est laissé à lui-même pour
déterminer la structure de l’entrée (aucun label n’est communiqué à l’algorithme). Cette
approche peut être un but en soi (qui permet de découvrir des structures enfouies dans
les données) ou un moyen d’atteindre un certain but. Cette approche est également
appelée « apprentissage des caractéristiques » (feature learning).

Un exemple de Machine Learning sans supervision est l’algorithme de reconnaissance


faciale prédictive de Facebook, qui identifie les personnes sur les photos publiées par les
utilisateurs.

Il existe deux types de Machine Learning sans supervision :

 Clustering : L’objectif consiste à trouver des regroupements dans les données.

 Association : L’objectif consiste à identifier les règles qui permettront de définir


de grands groupes de données.

Les principaux algorithmes du Machine Learning sans supervision sont les suivants : K-
Means, clustering/regroupement hiérarchique et réduction de la dimensionnalité.

2.2.3 Machine Learning par renforcement

Dans le Machine Learning par renforcement, un programme informatique interagit avec


un environnement dynamique dans lequel il doit atteindre un certain but, par exemple
conduire un véhicule ou affronter un adversaire dans un jeu. Le programme-apprenti
reçoit du feedback sous forme de « récompenses » et de « punitions » pendant qu’il

23
navigue dans l’espace du problème et qu’il apprend à identifier le comportement le plus
efficace dans le contexte considéré.

En 2013, c’était déjà un algorithme de Machine Learning par renforcement (Q-learning)


qui s’était rendu célèbre en apprenant comment gagner dans six jeux vidéo Atari sans
aucune intervention d’un programmeur.

Il existe deux types de Machine Learning par renforcement :

 Monte Carlo : Le programme reçoit ses récompenses à la fin de l’état « terminal ».

 Machine Learning par Différence Temporelle (TD) : Les récompenses sont


évaluées et accordées à chaque étape.

Les principaux algorithmes du Machine Learning par renforcement sont les suivants : Q-
learning, Deep Q Network (DQN) et SARSA (State-Action-Reward-State-Action).

2.3 Algorithmes Machine Learning

2.3.1 Decision Tree

L'arbre de décision est un outil de prise de décision qui utilise une structure arborescente
semblable à un organigramme ou est un modèle de décisions et de tous leurs résultats
possibles, y compris les résultats, les coûts des intrants et l'utilité. L'algorithme d'arbre de
décision appartient à la catégorie des algorithmes d'apprentissage supervisé. Il
fonctionne à la fois pour les variables de sortie continues et catégorielles.

Les branches / arêtes représentent le résultat du nœud et les nœuds ont soit:

 A Conditions [nœuds de décision]

 B Résultat [End Nodes]

Les branches / arêtes représentent la vérité / la fausseté de l'énoncé et prend une


décision basée sur celle de l'exemple ci-dessous qui montre un arbre de décision qui
évalue le plus petit des trois nombres :

24
Figure 3: Decision Tree

La régression d'arbre de décision observe les caractéristiques d'un objet et entraîne un


modèle dans la structure d'un arbre pour prédire les données futures afin de produire
une sortie continue significative. La sortie continue signifie que la sortie / le résultat n'est
pas discret, c'est-à-dire qu'il n'est pas représenté uniquement par un ensemble discret et
connu de nombres ou de valeurs.

Chaque arbre de décision a une variance élevée, mais lorsque nous les combinons tous
ensemble en parallèle, la variance résultante est faible car chaque arbre de décision est
parfaitement formé sur cet échantillon de données particulier et, par conséquent, la sortie
ne dépend pas d'un arbre de décision mais de décisions multiples des arbres. Dans le
cas d'un problème de classification, la sortie finale est prise en utilisant le classificateur
de vote majoritaire. Dans le cas d'un problème de régression, la sortie finale est la
moyenne de toutes les sorties. Cette partie est l'agrégation.

25
2.3.2 Random Forest

Random Forest est un algorithme d'apprentissage automatique robuste qui peut être
utilisé pour une variété de tâches, y compris la régression et la classification. Il s'agit
d'une méthode d'ensemble, ce qui signifie qu'un modèle forestier aléatoire est composé
d'un grand nombre de petits arbres de décision , appelés estimateurs , qui produisent
chacun leurs propres prédictions. Le modèle de forêt aléatoire combine les prédictions
des estimateurs pour produire une prédiction plus précise.

Les classificateurs d' arbre de décision standard ont l'inconvénient d'être sujets à un sur
ajustement à l'ensemble d'apprentissage. La conception d'ensemble de la forêt aléatoire
permet à la forêt aléatoire de compenser cela et de bien généraliser aux données
invisibles, y compris les données avec des valeurs manquantes. Les forêts aléatoires
sont également efficaces pour gérer de grands ensembles de données avec une
dimensionnalité élevée et des types d'entités hétérogènes (par exemple, si une colonne
est catégorique et une autre est numérique).

Les forêts aléatoires sont également des boîtes noires: contrairement à certains
algorithmes d'apprentissage automatique plus traditionnels, il est difficile de regarder à
l'intérieur d'un classificateur de forêt aléatoire et de comprendre le raisonnement derrière
ses décisions. En outre, ils peuvent être lents à s'entraîner et à s'exécuter, et produire
des fichiers de grande taille. Parce qu'elles sont extrêmement robustes, faciles à prendre

26
en main, bonnes pour les types de données hétérogènes et ont très peu d'hyper-
paramètres , les forêts aléatoires sont souvent le premier port d'escale d'un scientifique
des données lors du développement d'un nouveau système d'apprentissage
automatique, car elles permettent aux scientifiques des données d'obtenir un aperçu
rapide du type de précision qui peut raisonnablement être obtenu sur un problème,
même si la solution finale peut ne pas impliquer une forêt aléatoire.

 Le fonctionnement du Random Forest

Random Forest est un algorithme d'apprentissage supervisé . La «forêt» qu'elle construit


est un ensemble d'arbres de décision, généralement formés avec la méthode du
«bagging». L'idée générale de la méthode d'ensachage est qu'une combinaison de
modèles d'apprentissage augmente le résultat global. En termes simples: une forêt
aléatoire crée plusieurs arbres de décision et les fusionne pour obtenir une prédiction
plus précise et plus stable.

L'un des grands avantages de la forêt aléatoire est qu'elle peut être utilisée à la fois pour
les problèmes de classification et de régression, qui constituent la majorité des systèmes
d'apprentissage automatique actuels. Examinons la forêt aléatoire dans la classification,
car la classification est parfois considérée comme la pierre angulaire de l'apprentissage
automatique.

Ci-dessous, nous pouvons voir à quoi ressemblerait une forêt aléatoire avec deux arbres
:

Figure 4 : Random Forest

27
La forêt aléatoire ajoute un caractère aléatoire supplémentaire au modèle, tout en faisant
pousser les arbres. Au lieu de rechercher la fonctionnalité combinaison la plus
importante lors de la division d'un nœud, il recherche la meilleure fonctionnalité parmi un
sous-ensemble aléatoire de fonctionnalités. Il en résulte une grande diversité qui aboutit
généralement à un meilleur modèle.

Par conséquent, dans la forêt aléatoire, seul un sous-ensemble aléatoire des


caractéristiques est pris en compte par l'algorithme de division d'un nœud. On peut
même rendre les arbres plus aléatoires en utilisant en plus des seuils aléatoires pour
chaque fonctionnalité plutôt que de rechercher les meilleurs seuils possibles (comme le
fait un arbre de décision normal).

 Importance des fonctionnalités

Une autre grande qualité de l'algorithme de forêt aléatoire est qu'il est très facile de
mesurer l'importance relative de chaque entité sur la prédiction. Sklearn fournit un
excellent outil pour cela qui mesure l'importance d'une fonctionnalité en examinant dans
quelle mesure les nœuds d'arbre qui utilisent cette fonctionnalité réduisent les impuretés
dans tous les arbres de la forêt. Il calcule automatiquement ce score pour chaque
fonctionnalité après l'entraînement et met à l'échelle les résultats de sorte que la somme
de toute importance soit égale à un.

 Modélisation des prédictions

La méthode de la forêt aléatoire peut créer des modèles de prédiction à l'aide d'arbres
de régression forestière aléatoires, qui sont généralement non réglés pour donner des
prédictions solides. La méthode d'échantillonnage bootstrap est utilisée sur les arbres de
régression, qui ne doivent pas être élagués. Les nœuds optimaux sont échantillonnés à
partir du nombre total de nœuds dans l'arborescence pour former la fonction de
fractionnement optimale.

La technique d'échantillonnage aléatoire utilisée dans la sélection de la fonction de


division optimale réduit la corrélation et, par conséquent, la variance des arbres de
régression. Il améliore la capacité de prédiction d'arbres distincts dans la
forêt. L'échantillonnage utilisant le bootstrap augmente également l'indépendance entre
les arbres individuels.

28
En examinant l'importance des fonctionnalités, on peut décider des fonctionnalités à
supprimer car elles ne contribuent pas suffisamment (ou parfois rien du tout) au
processus de prédiction. Ceci est important car une règle générale en apprentissage
automatique est que plus vous avez de fonctionnalités, plus votre modèle souffrira de
sur-ajustement et vice versa.

2.3.3 XGBoost

XGBoost ou amplification de gradient extrême est l'une des techniques de renforcement


de gradient bien connues (ensemble) ayant des performances et une vitesse améliorées
dans les algorithmes d'apprentissage automatique basés sur des arbres (arbres de
décision séquentiels).

Il s'agit de l'algorithme le plus couramment utilisé pour l'apprentissage automatique


appliqué dans les compétitions et a gagné en popularité grâce à des solutions gagnantes
dans des données structurées et tabulaires. Auparavant, seuls les packages python et
R étaient construits pour XGBoost, mais maintenant il s'est étendu à Java, Scala, Julia et
à d'autres langages. Pour comprendre XGboost, une compréhension claire des arbres
de décision et des algorithmes d'apprentissage d'ensemble est nécessaire.

Différence entre les différentes techniques basées sur les arbres :

Figure 5 : Positionnement de l’algorithme XGBOOST dans le spectre ML

29
XGBoost appartient à la catégorie des techniques de Boosting. L'apprentissage
d'ensemble consiste en une collection de prédicteurs qui sont des modèles multiples
pour fournir une meilleure précision de prédiction. Dans la technique Boosting, les
erreurs commises par les modèles précédents sont essayées pour être corrigées par des
modèles successifs en ajoutant des poids aux modèles.

Figure 6 : Technique Gradient Boosted

Contrairement à d'autres algorithmes d'amplification où les poids des branches mal


classées sont augmentés, dans les algorithmes Gradient Boosted, la fonction de perte
est optimisée. XGBoost est une implémentation avancée de l'augmentation de gradient
avec certains facteurs de régularisation.

Caractéristiques de XGBoost:

 Peut être exécuté sur des systèmes uniques et distribués (Hadoop, Spark).

 XGBoost est utilisé dans l'apprentissage supervisé (problèmes de régression et


de classification).

 Prend en charge le traitement parallèle.

 Optimisation du cache.

 Gestion efficace de la mémoire pour les grands ensembles de données dépassant


la RAM.

 Possède une variété de régularisations qui aident à réduire le sur-ajustement.

30
 Élagage automatique des arbres - L'arbre de décision ne poussera plus après
certaines limites en interne.

 Peut gérer les valeurs manquantes.

 Possède une validation croisée intégrée.

 Prend soin des valeurs aberrantes dans une certaine mesure.

Dans les cas où on utilise le Machine Learning, il est indispensable d’assurer le


paramétrage en amont. La résolution d’un problème est basée sur des hypothèses
initiales qui peuvent largement varier selon le contexte. La modification d’une variable
peut modifier la structure dans son entièreté. On parle alors d’effet papillon. Il est donc
impératif de faire les bons choix de traitement.

Néanmoins, il faut garder en tête que ces algorithmes ne sont pas fiables à 100%, ils
doivent servir d’appui, de complément à l’intelligence et l’analyse humaine.

31
Chapitre 3 :

Problématique

32
3.

3.1 Environnement micro

Plusieurs travaux ont souligné l'importance économique du commerce des pièces de


rechange, une gestion optimale est essentielle à la réussite des entreprises. Une
maitrise de l’approvisionnement en pièces détachées est aujourd'hui un facteur important
d’un meilleur service après-vente et ceci impacte le choix de la marque par le client.

Les clients de MIFA Motors, le distributeur exclusif de la marque YAMAHA, voient dans
la qualité de son service après-vente l’un des principaux atouts. La disponibilité des
pièces de rechange en est un élément clé.

Ainsi, un client qui possède une machine doit être en mesure de trouver une pièce de
rechange dans un délai minimal, d’autant plus que la disponibilité rapide des pièces,
constitue un critère primordial lors du processus d'acquisition d'une machine neuve.

De ce fait, la disponibilité des pièces de rechange joue un rôle de première importance


dans le choix d’investissement du client.

La diversité des produits présentés par MIFA Motors que ce soit au niveau des motos,
Hors-bord, quads ou bien des scooters de mer, a fait que le magasin de pièces de
rechange englobe une diversité d’articles qui dépassent les 36,000 références.

Aussi, le fait que MIFA Motors est un distributeur exclusif, elle commercialise des pièces
d’origine approvisionnées exclusivement auprès de la Direction «Pièces de Rechange»
de la maison mère YAMAHA. Les pièces écoulées sont vendues sous emballage au nom
du constructeur ; leurs qualités correspondent à la qualité « Original » et répond au
cahier de charges du constructeur.

3.1.1 Approvisionnement

Une commande fait référence à une demande de pièces ainsi que leurs prix. Elle
peut être déclinée en plusieurs types :

1. Devis

33
Une facture pro-forma est établie lorsqu'un devis est demandé par le distributeur. Il ne
s’agit pas d’une commande confirmée. Elle est valable 90 jours à compter de la date
d'envoi.

2. Commande confirmée

Lorsque la commande passée est traitée comme une commande confirmée, une
confirmation est remise, marquant l'acceptation de la commande.

Il existe trois types de commandes, en fonction de l'urgence et de l'importance des


pièces, qui déterminera le type de la commande passée.

 Commandes normales
 L’expédition de ces commandes se fait par voie maritime. Ce type de commande
est utilisé pour commander régulièrement des pièces dans le cadre du
réapprovisionnement du stock du magasin de la pièce de rechange
Commandes d'urgence

On passe des commandes si nous avons besoin de pièces en urgence. Il existe


principalement deux types de commandes :

 Par avion

 Par coursier (DHL Express, Fedex, etc).

Les frais de transport des services de livraison par avion et par coursier étant calculés en
fonction du poids brut ou du poids volumétrique, selon le plus élevé, il est important de
renseigner la taille et le poids de la pièce lorsque la commande est passée.

 Commandes initiales

Il s'agit de commandes spéciales pour des pièces de rechange qui seront utilisées sur
des modèles commercialisés pour la première fois. Elles sont expédiées par voie
maritime.

Il est important de passer une commande initiale rapidement afin de disposer d'un
nombre suffisant de pièces lors du lancement.

34
Figure 7 : Processus Approvisionnement PDR

35
3.1.2 Mécanismes de commande

Les pièces de rechange peuvent être commandées de deux manières :

a. Par Fastweb

Fastweb est une interface permettant aux distributeurs de passer leurs commandes par
Internet. Ils sont accompagnés pas à pas tout au long de la procédure de passation de
commandes. Dans ce cas, une facture pro forma / confirmation de commande et délivrée
soit le jour même, soit le jour suivant, selon l'heure à laquelle le distributeur passe sa
commande.

b. Par e-mail

Le distributeur envoie par e-mail sous format Excel, une liste de pièces à commander. Y
MC établit une facture pro forma / confirmation de commande, et l'envoie au distributeur.

La compréhension des affaires joue un rôle très important dans la réussite de tout projet,
car tout le cycle de vie tourne autour de l'objectif commercial. Afin d'acquérir les données
correctes, nous devons être en mesure de comprendre l'aspect commercial. Poser des
questions sur l'ensemble de données et fixer un objectif commercial approprié aideront à
rendre le processus d'acquisition de données beaucoup plus facile.

De par l’importance du gain obtenu de la vente des pièces de rechange, plusieurs


acteurs commencent à s’intéresser à cette filière.

3.1.3 Analyse de la concurrence

Les principaux concurrents du magasin PDR de MIFA Motors sont :

 Les importateurs/distributeurs distribuant principalement des pièces dites


«adaptables».

Ce sont, les distributeurs qui vendent des pièces d’une qualité incertaine. En effet,
les pièces adaptables comme leurs noms l’indiquent, sont des pièces qui peuvent

36
être intégrés dans n’importe quelle marque de motos. Elles sont souvent importées
d’Asie et ne présentent aucune garantie, d’où leur caractère moins couteux.

 Les réseaux des fabricants locaux de pièces

Un certain nombre de lignes de produits sont fabriquées au Maroc et sont distribuées


directement par leurs fabricants tels que les filtres, les plaquettes de frein, les
échappements, les jantes, les joints, les courroies et les câbles de commande.

Ces fabricants sont des fournisseurs de grands distributeurs et disposent également de


leur propre réseau qui concurrence les distributeurs.

 Les revendeurs

Ces acteurs achètent tout le stock du magasin, profitent de la remise et vendent le même
produit avec un prix inférieur à celui proposé par le magasin PDR de MIFA Motors.

Chez ces revendeurs, les différents types de marques et catégories de qualité coexistent
et sont vendus en fonction des besoins techniques exprimés et surtout du pouvoir
d’achat du client final.

 Les ambulants

Il s’agit de commerçants propriétaires de camions dont l’intérieur est aménagé en


magasin de pièces de rechange. Ce sont donc des détaillants principalement actifs dans
les zones à faible densité de population et difficilement accessibles.

37
Figure 8 : Environnement Externe du magasin PDR

3.1.4 Analyse de la clientèle

Les distributeurs des adaptables et les concurrents du magasin PDR, sont eux même
des clients.

Ils s’ajoutent à ces clients, les véhicules qui sont encore sous garantie et les besoins de
l’atelier de réparation.

38
Figure 9 : principaux clients du Magasin PDR

3.2 Détection des anomalies

La relation entre les quantités des pièces commandées et le volume des stocks en
magasin est la suivante ‘’Mauvaise structure entre "stocks et achats’’.

La quantité instable des stocks est due aux commandes non régulières auprès du
fournisseur. Il est difficile d'effectuer un contrôle des stocks, les pièces à rotation rapide
sont rapidement épuisées. À l'inverse, le stock de pièces pour lesquelles la demande est
nul à tendance à augmenter. Ainsi, le ratio de l'offre de pièces chute et la satisfaction de
la clientèle diminue De ces faits e magasin de la PDR perd de nombreuses opportunités
de vente à cause des ruptures de stock fréquentes ce qui explique le chiffre d'affaire
instable, il ne suit pas une augmentation continue comme le montre le graphique ci-
dessous:

Figure 10 : Histogramme du chiffre d’affaires

La complexité de notre problématique réside au niveau des données, aujourd’hui il est


difficile d’avoir un historique de ventes fiable qui nous permettra de générer des
prévisions proches de la réalité en utilisant les méthodes traditionnelles comme il est
expliqué dans le schéma ci-dessous :

39
Figure 11 : Mauvaise structure entre "stocks et achats"

1. Commandes

Les pièces ne sont pas commandées régulièrement.

2. Arrivages

La quantité de stocks au magasin est instable et il n'y a presque pas de stock de pièces
à certains mois.

3. Stocks

Le stock de pièces à forte rotation (A) est insuffisant et le stock de pièces pour lesquelles
la demande est nulle (D) est élevé.

40
4. Offre

En raison de la pénurie de pièces, le temps de réaction pour exécuter une commande se


détériore. De plus, le ratio d'offre de pièces est faible et instable.

5. Ventes

Comme l'offre de pièces n'est pas stable, les ventes le sont aussi et n'augmentent pas.

6. Calcul des commandes

L’historique des commandes et les autres informations pouvant être réunies étant rares,
il est difficile de prévoir la demande.

Afin de déterminer la quantité appropriée de stock de précaution, il est important de


prévoir précisément la demande future.

3.3 Amélioration du processus de gestion

L’objectif de notre travail est de procéder à des commandes régulières de pièces une
fois par mois et de maintenir le volume de stocks à un niveau stable. Ainsi, le ratio d'offre
augmentera et les ventes seront substantielles. A partir des prévisions précises des
ventes grâce aux algorithmes, il est possible de déterminer la quantité appropriée à
commander afin d’atteindre le schéma d’approvisionnement adéquat présenté ci-
dessous :

41
Figure 12 : Cycle adéquat entre "Stocks et Achats"

1. Commandes

Les pièces seront commandées régulièrement (une fois par mois).

2. Arrivages

Une quantité stable de stocks est conservée pendant toute l'année.

3. Stocks

Un stock bien équilibré est conservé au magasin.

4. Offre

42
Le magasin réagissant bien aux commandes des clients, le ratio d'offre de pièces peut
être maintenu à un bon niveau.

5. Ventes

L'offre de pièces étant stable, les ventes peuvent être maintenues à un niveau élevé.

6. Calcul des commandes

L'historique des commandes et les autres informations pouvant être réunies et bien
fournies, il est facile de prévoir la demande avec précision.

Dans cette section, nous avons souligné l’importance des pièces de rechange et la
description détaillée de l’environnement de la gestion de la PDR ainsi que les différentes
anomalies liées à la gestion qui seront résolus avec la Data Science.

43
Chapitre 4:

Modélisation

44
4.

4.1 Traitement et analyse des données

Après avoir présenté l’entreprise d’accueil ainsi que les différentes parties
prenantes impactant le processus de production des données de notre étude.
Nous entamons maintenant l’élaboration et la mise en place tout en adoptant une
démarche Data science afin de répondre aux objectifs de ce projet. A travers le
respect des différentes étapes de la méthodologie choisie, nous serons capables
de garantir les meilleurs rendements de performance et adopter les outils les plus
adaptés à la nature de notre étude.

4.1.1 Données manquantes

Une explication des champs de la base de données s’impose avant de traiter les
valeurs manquantes.

Les différents champs de la base de données se constituent comme suit :

 Sites de vente : Initialement la société disposait de dix sites de vente. Suite


à une restructuration, certains sites ont été fermés (Fnideq, Agadir, Oulfa).
Ces trois agences fermées ont été affectées respectivement aux agences
(Tanger, Agadir, Casablanca). Ainsi, la nouvelle configuration se limitete aux
agences ci-dessous :
 102 : Agence Casablanca
 104 : Agence Marrakech
 105 : Agence Agadir
 106 : Agence Tanger
 117 : Un site crée en 2018 pour une facturation exceptionnelle
 124 : Atelier Casablanca
 134 : Agence Rabat

 Date facture : date d’établissement des factures journalière entre le


01.01.2016 au 31.12.2020

 Catégorie client : Se constitue des revendeurs, pécheurs, agences et


particuliers

 Client facture : Numéro de compte des clients

 Catégorie article : Comporte les engins(mots,quads,hors-bords,Jetski), PDR

45
 Code Article : Chaque pièce a une référence qui change en fonction de
l’année de production pièce peut avoir plusieurs codes articles. La difficulté
était de ne garder qu’un code par pièce. On a passé de 7000 références à
5000 références

 Famille statistique : C’est la famille de produit. On a quatre familles


statistique Cyclo,ATV-SSV, Marine

 Désignation : C’est le nom de la pièce. Une pièce peut avoir la même


désignation mais destinées à des familles statistiques différentes

 Qté : Représente les ventes par pièce. Sur la base des ventes journalières
de la période de 2016 à 2020 on a utilisé GROUPBY par mois afin d’avoir les
ventes mensuelles.
Données manquantes

Le Data Cleaning (nettoyage de données) est l’étape la plus importante avant


d’analyser ou modéliser des données mais elle peut être très fastidieuse. La
première chose à vérifier sont les données manquantes, ces derniers peuvent
survenir dans le jeu de données pour plusieurs raisons :

- les données du champ spécifique n'ont pas été ajoutées par l'utilisateur /
l'application de collecte de données,

- Les données ont été perdues


lors du transfert manuel,

- Une erreur de programmation,


etc. Il est parfois essentiel d'en
comprendre la cause car
cela influencera la manière dont
on traite ces données.

Figure 13 : Valeurs manquantes

À partir du graphique précédent, il est


plus facile de lire la répartition des

46
valeurs manquantes. Les marques blanches sur le graphique indiquent ces
valeurs.

Les valeurs manquantes se trouvent principalement au niveau des N’OR,


désignation et villes. Ces derniers ne seront pas pris en considération lors de la
modélisation.

Les champs les plus importants et qui n’enregistrent aucune valeur manquante
sont les suivants; la famille statistique 3, Désignation, Article 2020, Site vente,
marge et prix

4.1.2 Valeurs aberrantes

Une valeur aberrante est une valeur extrêmement élevée ou extrêmement faible
dans l'ensemble de données. Ces valeurs aberrantes peuvent fausser et induire
en erreur le processus de formation de l'apprentissage automatique, ce qui se
traduit par des temps de formation moins précis et plus longs et des résultats plus
médiocres.

47
Figure 14 : Visualisation des valeurs

Dans cette étude, les valeurs aberrantes qui sont identifiées en 2019 et 2020 sont
dues aux ventes exceptionnelles réalisées pour liquider le stock dormant.

L’algorithme DBSCAN a été utilisé afin de filtrer les valeurs aberrantes et les
supprimer. DBSCAN fonctionne en agglomérant avidement des points proches les
uns des autres. Les grappes avec peu de points sont considérées comme des
valeurs aberrantes.

Traditionnellement, DBSCAN prend:

1) un paramètre ε qui spécifie un seuil de distance sous lequel deux points sont
considérés comme proches

2) le nombre minimum de points qui doivent être dans le rayon ε d'un point avant
que ce point puisse commencer à s'agglomérer.

Les deux figures ci-dessous montrent notre DBSCAN en action sur des points
dans le plan. Il existe deux groupes. Les points jaunes avaient suffisamment de
voisins proches pour agglomérer ces points, tandis que les points moves ne se
sont pas agglomérés sont les valeurs aberrantes.

Figure 15 : Valeurs aberrantes

4.1.3 Visualisation des données

48
A- Analyse des familles de produits et des sites de vente

La visualisation des données est la discipline qui consiste à essayer de


comprendre les données en les plaçant dans un contexte visuel. La visualisation
des données est la technique permettant de présenter les données sous un format
pictural ou graphique. Il permet aux parties prenantes et aux décideurs d'analyser
visuellement les données. Les données dans un format graphique permettent
d'identifier facilement les nouvelles tendances et modèles.

Nous étudierons dans un premier temps le détail des ventes de chaque famille et
chaque site de vente en CA ainsi qu’en marge.

Figure 16 : Diagramme circulaire de la marge et CA par site

Suivant le diagramme circulaire ci-dessus, les agences 102 et 104 représentent


plus que 50% du CA. En revanche, 40% de la marge est représentée par l’agence
102 uniquement. Ceci peut être expliqué par le faite que l’agence 102 a plus de
ventes à plein tarif avec les particuliers car elle a un atelier de service après-vente
plus performant que celui des autres agences.

Un service après ventes performant permet d’améliorer le CA et la marge de la


PDR.

49
Figure 17 : Diagramme circulaire de la marge et CA par famille de produits

Suivant le diagramme circulaire, sur 24 familles, 80% du CA est réalisé par 6


familles de produits dispatchées comme ci-dessous :

HB 15 29,29% WR 3,92%

ATV 13,22% V50 ET YB50 9,63%

Cyclos>50CC 9,67% HB>25 6,80%

Bougie 8%

En ce qui concerne la marge, il n’y a que 6 familles de produits représentant 86%


de la marge

HB15 27,17% WR 10%

ATV 20,07% V50 ET YB50 8,18%

Cyclos>50C
C 12,25% HB>25 8%

La répartition change quand on analyse en terme de marge au niveau des WR,


V50 /YB50 et Bougies.

Sur l’histogramme ci-dessous on voit que la marge des WR est plus importante
que V50 /YB50. On a aussi la famille des TMAX et Maxi Scooter qui sont
performantes en termes de marge mais pas assez en CA. A noter que la marge
des bougies est négative.

50
Figure 18 : Histogramme du CA/Marge par famille de produits

Le suivi de la marge permet d'éviter de tomber dans le piège d'une stratégie basée
uniquement sur le chiffre d'affaires. Une entreprise qui qui ne se focalise que sur
son le chiffre d'affaires peut perdre de vue une notion bien plus importante : la
rentabilité. L'étude de la marge permet le suivi de la rentabilité de l'entreprise et
donc de sa performance.

B- Analyse des références

Dans le secteur des pièces, où l'on gère des centaines ou des milliers de pièces, il
est important de classer les pièces en deux catégories : celles qui se vendent
beaucoup et les autres. Il est nécessaire de conserver des stocks suffisants de
pièces à forte rotation afin d'éviter de laisser passer des opportunités de ventes et
de maintenir un haut niveau de service. Toutefois, les stocks de pièces à rotation
faible doivent être limités au maximum afin d'éviter qu'ils ne se transforment en
stocks de pièces qui ne se vendent pas.

51
L'analyse ABC est la technique la plus efficace pour analyser le détail des stocks
pour stocker des pièces à forte rotation ou réduire les stocks de pièces à rotation
nulle. La méthode de gestion basée sur l'analyse ABC s'appelle la gestion ABC
qu’on a appliqué avec python comme ci-dessous :

 "Classe A" : les produits de cette classe représentent généralement 80 % de


la valeur totale du CA et 20 % du nombre total d'articles. C'est sur ce point que
la méthode de classification ABC est l'héritière du principe de Pareto.

 "Classe B" : les articles représentent généralement 15 % de la valeur totale du


CA et 30 % du nombre total d'articles

 "Classe C " : les articles représentent généralement 5 % de la valeur totale du


CA et 50 % du nombre total d'articles.

52
Figure 19 : Diagramme circulaire de la méthode ABC

On remarque ainsi, que la classe A est représentée par 583 articles, alors que la
majorité des autres références sont de la classe B avec 1324 références et la
classe C avec 3806 références, c’est à dire leurs stocks ne tourne pas
suffisamment.

L’impact du nombre limité des articles de classe A réside dans la facilitation du


travail de l’approvisionneur qui n’aura plus à donner la priorité
d’approvisionnement à plus de 5713 références mais à seulement aux 583 articles
qui apportent le plus à l’entreprise en assurant un stock de sécurité optimal
contrairement à la classe C.

C- Analyse du chiffre d’affaire et de la marge

Sur cette partie on va analyser le CA par rapport à la marge, sur les deux graphs
ci-dessous on voit que l’augmentation du CA en 2017 est proportionnelle à la
marge en même année, contrairement à l’année 2019, on remarque qu’il y a eu
une net augmentation du CA. En revanche cette évolution n’était pas suivie par
une augmentation de la marge, on peut émettre deux hypothèses :

1) Le CA a été réalisé principalement par des familles qui ne génèrent pas


assez de marge comme discuté au paragraphe précèdent

53
2) Il y a eu une baisse des prix ce qui a augmenté les ventes et influencer
négativement la marge

Figure 20 : Courbe du CA et de la Marge

Une augmentation du CA est suivie généralement par une baisse et une


stagnation des ventes, il n’y a pas eu d’évolution continue durant les 5 années
passées et ceci est expliqué par la complexité du marché de la PDR au Maroc.
Comme les ventes ne sont pas stables, il est difficile de prédire la demande en
utilisant les méthodes traditionnelles d’où vient notre réflexion à mettre en place
des algorithmes pour prédire les ventes futures

4.2 Paramétrage de l’algorithme

Le but final d’un projet de Machine Learning est de construire un modèle de


prédiction. On peut le voir comme une fonction qui prend un échantillon en entrée
et une décision en sortie. Dans le cas d’apprentissage supervisé où nous
souhaitons expliquer une variable de sortie, l’échantillon est classiquement
subdivisé en 2 parties :

1) -L’échantillon d’apprentissage correspond à l’échantillon principal où sont


appliquées les méthodes, sur lequel les algorithmes apprennent. Il sert à
ajuster le modèle. Il représente dans notre cas 90% des données, afin
d’avoir assez de données pour la partie d’entrainement puisqu’on a un

54
historique de ventes que de cinq ans seulement et on est en face d’un
marché instable,

2) L’échantillon de test est utilisé pour évaluer le modèle optimal (au sens du
résultat de la validation croisée). Il n’a donc pas été utilisé pour
l’apprentissage, ce qui fait que le modèle sélectionné est indépendant de
cet échantillon test. L’idée source est de simuler la réception de nouvelles
données afin de prédire la variable à expliquer à partir du modèle final et de
les comparer aux « vraies » valeurs de la variable à expliquer. Cet
échantillon permet d’évaluer objectivement l’erreur réelle.

Figure 21 : Répartition de la Dataset

4.2.1 Encoding

Nos données extraites de Sage sous format Excel comportent les colonnes ci-
dessous représentants les ventes de 2016 à 2020

55
Les performances d'un modèle d'apprentissage automatique dépendent non
seulement du modèle et des hyper-paramètres qu’on va voir par la suite, mais
également de la façon dont nous traitons et alimentons différents types de
variables dans le modèle. Étant donné que la plupart des modèles d'apprentissage
automatique n'acceptent que des variables numériques, le prétraitement des
variables catégorielles devient une étape nécessaire. Nous devons convertir les
variables catégorielles en nombres afin que le modèle soit capable de comprendre
et d'extraire des informations précieuses.

En termes simples, le but du codage catégoriel est de produire des variables que
nous pouvons utiliser pour former des modèles d'apprentissage automatique et
créer des fonctionnalités prédictives à partir de catégories.

Il existe plusieurs techniques pour ce type de transformation de données dans


notre cas on a utilisé Encodage entier (étiquette). Le codage entier (également
connu sous le nom de codage d'étiquette) comprend le remplacement des
catégories par des chiffres de 1 à n (ou de 0 à n-1 , selon l'implémentation),
où n est le nombre de catégories distinctes de la variable (la cardinalité ), et ces
numéros sont attribués arbitrairement.

L’encodage entier de 0 à n classes-1 a été utilisé au niveau des champs suivants :


Code Article, Désignation, Site vente.

4.2.2 Métriques d’erreur

Pour juger de l’efficacité d’un algorithme et donc du modèle qui en découle, il faut
calculer l’erreur des apprentissages effectués. Pour cela nous avons pris en
compte deux métriques pour analyser la qualité de prédiction des modèles.

56
L'étape essentielle de tout modèle d'apprentissage automatique consiste à évaluer
la précision du modèle.

 L'erreur quadratique moyenne est la racine carrée de l'erreur quadratique


moyenne. Il mesure l'écart type des résidus.

 Le coefficient de détermination également appelé score R2 est utilisé pour


évaluer les performances d'un modèle de régression. C'est le montant de la
variation de l'attribut dépendant de la sortie qui est prévisible à partir des
variables indépendantes d'entrée. Il est utilisé pour vérifier dans quelle
mesure les résultats bien observés sont reproduits par le modèle, en
fonction du rapport d'écart total des résultats décrit par le modèle.

Formule mathématique :

R2 = 1- SS res / SS tot

 SS res est la somme des carrés des erreurs résiduelles.


 SS tot est la somme totale des erreurs.

Interprétation du score R2 :
Supposons que R2 = 0,68

On peut se référer que 68% de l'attribut de sortie dépendant peut être expliquée
par le modèle tandis que les 32% restants de la variabilité sont encore
inexpliqués.

R2 indique la proportion de points de données qui se trouvent à l'intérieur de la


ligne créée par l'équation de régression. Une valeur plus élevée de R2 est
souhaitable car il indique de meilleurs résultats.

57
4.2.3 Hyper-paramétrage

Dans un modèle de machine learning, on appelle hyper-paramètres les


paramètres de l’algorithme étant fixés avant la phase d’apprentissage. Par
opposition, les valeurs des autres paramètres sont déterminées selon les résultats
de l’apprentissage. Une fois les hyper-paramètres déterminés, l’algorithme fixe les
autres paramètres optimaux à partir des données d’apprentissage.

La technique traditionnelle pour optimiser les hyper-paramètres est la méthode de


Grid Search, qui consiste à tester toutes les combinaisons possibles des hyper-
paramètres que l’on a fournis. C’est en pratique une bonne méthode pour obtenir
des résultats cohérents. L’algorithme de Grid Search doit être guidé par l’évolution
d’une métrique d’erreur, mesurée généralement par validation croisée sur
l’algorithme d’apprentissage. C’est typiquement ce que nous avons réalisé dans le
cadre de notre projet en utilisant la métrique personnalisée.

L’espace des valeurs prises par les hyper-paramètres peuvent-être infinies (pour
des paramètres continus par exemple), c’est pourquoi il est nécessaire de
sélectionner manuellement un nombre fini de valeurs possibles. Si nous prenons
l’exemple de l’algorithme du gradient boosting, il existe une pléthore de
paramètres de réglage pour les apprenants basés sur des arbres dans XGBoost
les plus courants sont les paramètres ci-dessous:

 max_depth [par défaut = 6] détermine à quelle profondeur chaque arbre


est autorisé à pousser pendant toute ronde de stimulation.

 min_child_weight [par défaut = 1] dans une tâche de régression linéaire,


cela correspond au nombre minimum d'instances nécessaires à chaque
nœud. Plus il min_child_weight est grand, plus l'algorithme sera
conservateur.

 plage: [0, ∞] subsample [par défaut = 1] Ratio de sous-échantillon des


instances d'entraînement. Le définir sur 0,5 signifie que XGBoost
échantillonnerait au hasard la moitié des données d'entraînement avant de
faire pousser des arbres et cela évitera le sur-ajustement. Le sous-
échantillonnage se produira une fois dans chaque itération d'amplification.

58
 plage: (0,1] colsample_bytreeest [Par défaut = 1] le rapport de sous-
échantillon des colonnes lors de la construction de chaque arbre. Le sous-
échantillonnage se produit une fois pour chaque arbre construit.

Pour optimiser ces paramètres continus, nous sélectionnons un ensemble fini de


valeurs pour chacun d’eux et procédons à la méthode de Grid Search afin de
tester toutes les combinaisons possibles.

Il convient également de mentionner que bien on utilise des arbres comme


apprenants de base, on peut également utiliser les apprenants de base linéaires
relativement moins populaires de XGBoost et un autre apprenant d'arbre connu
sous le nom de fléchette.

Dans le cadre de l’application de l’algorithme du gradient Boosting sur les


données d’apprentissage. Ainsi, nous retiendrons les valeurs de 0,9 pour l’hyper-
paramètre subsample, colsample_bytree 1,max_depth 7, et pour
min_child_weight 10.

Pour chacun des algorithmes effectués, la même procédure est utilisée afin de
sélectionner les meilleurs jeux de paramètres. A la fin de l’étape d’hyper-
paramétrage, un modèle est obtenu pour chaque algorithme sélectionné avec des
hyper-paramètres optimaux.

On a testé 3 algorithmes XGBOOST, Decision Tree et Random forest. Afin


d’obtenir un resultat plus précis, nous avons décidé d’utiliser d’autres algorithmes
et de mettre en place d’autres methodes d’ajustement

4.3 Ajustement des données aux modèles et résultats

59
Cette étape d’hyper-paramétrage n’est pas instantanée, dans le sens où il ne
s’agit pas d’insérer un nombre aléatoire de valeurs possibles pour chaque hyper-
paramètre puis de faire tourner la boucle de Grid Search pour obtenir en sortie un
jeu satisfaisant et passer à l’étape suivante.

- Le paramétrage de l’algorithme dépend de l’étape d’exploration et de


prétraitement des données, et est en général très différent selon les retraitements
apportés aux données brutes. Ces trois étapes sont donc interactives et forment
une boucle. Il est important d’étudier l’impact de chaque nouveau retraitement sur
l’étape de validation croisée, le but étant toujours de minimiser l’erreur. Il ne s’agit
pas seulement de tester plusieurs valeurs de paramètres, mais également
plusieurs retraitements possibles pour la calibration optimale du modèle.

Figure 22 : Etape d’ajustement du modèle

4.3.1 Amélioration de la précision des modèles

L'amélioration des performances du modèle peut être difficile. On a utilisé 3


méthodes afin de restructurer notre approche modèle. Un modèle prédictif peut
être construit de plusieurs manières. Il n'y a pas de règle «à suivre».

 Ajouter plus de valeurs

Avoir plus de données est toujours une bonne idée. Il permet aux «données de se
dire par elles-mêmes», au lieu de s'appuyer sur des hypothèses et de faibles
corrélations. La présence de plus de données donne des modèles meilleurs et

60
précis. Dans notre cas on a ajouté la moyenne, le minimum, le maximum et l’écart
type des ventes par site des cinq dernières années. On a ajouté aussi la classe de
chaque référence en utilisant l’analyse ABC expliquée au chapitre précédent.

 Ingénierie des fonctionnalités

L'objectif fondamental de l'analyse de régression est de modéliser la valeur


attendue d'une variable dépendante y en fonction de la valeur d'une variable
indépendante x. En régression simple. Pour ceci on a appliqué la régression
polynomiale au 4ème degré qui a impacté considérablement la précision de nos
algorithmes.

La régression polynomiale est une forme de régression linéaire dans laquelle la


relation entre la variable indépendante x et la variable dépendante y est modélisée
comme un polynôme au nième degré. La régression polynomiale correspond à
une relation non linéaire entre la valeur de x et la moyenne conditionnelle
correspondante de y, notée E (y | x).

 Algorithmes multiples

 Light Gradient Boosted Machine

Light Gradient Boosted Machine, ou LightGBM en abrégé, est une bibliothèque


open-source qui fournit une implémentation efficace et efficiente de l'algorithme
d'amplification de gradient.

LightGBM étend l'algorithme d'amplification de gradient en ajoutant un type de


sélection automatique de fonctionnalités et en se concentrant sur des exemples
d'amplification avec des gradients plus grands. Cela peut entraîner une
accélération spectaculaire de la formation et une amélioration des performances
prédictives.

En tant que tel, LightGBM est devenu un algorithme de facto pour les compétitions
d'apprentissage automatique lorsqu’on travaille avec des données tabulaires pour
des tâches de modélisation prédictive de régression.

61
 La régression Ridge

La régression Ridge est une extension de la régression linéaire où la fonction de


perte est modifiée pour minimiser la complexité du modèle. Cette modification se
fait en ajoutant un paramètre de pénalité équivalent au carré de la grandeur des
coefficients.

Fonction de perte = somme des moindres carrés ordinaires + alpha * (valeurs de


coefficient au carré).

Les moindres carrés ordinaires fonctionnent en minimisant la somme des carrés


des résidus (valeur réelle - valeur prédite).

Dans la fonction de perte ci-dessus, alpha est le paramètre que nous devons
sélectionner. Une valeur alpha faible peut conduire à un ajustement excessif,
tandis qu'une valeur alpha élevée peut entraîner un ajustement insuffisant. Dans
notre la valeur de alpha est 0.84 en utilisant GRID SEARCH arrange(0, 1, 0.01)

 La régression par lasso

La régression par lasso est également une modification de la régression


linéaire. Dans Lasso, la fonction de perte est modifiée pour minimiser la
complexité du modèle en limitant la somme des valeurs absolues des coefficients
du modèle (également appelée norme l1).

La fonction de perte pour la régression Lasso peut être exprimée comme suit :

Fonction de perte = OLS + alpha * sommation (valeurs absolues de l'amplitude


des coefficients)

Dans la fonction de perte ci-dessus, alpha est le paramètre de pénalité que nous
devons aussi sélectionner. L'utilisation d'une contrainte de norme l1 force
certaines valeurs de poids à zéro pour permettre à d'autres coefficients de prendre
des valeurs non nulles.

 Régression ElasticNet

ElasticNet combine les propriétés de la régression Ridge et Lasso. Cela


fonctionne en pénalisant le modèle en utilisant à la fois la norme l2 et la norme l1.

62
Dans scikit-learn, un modèle de régression ElasticNet est construit à l'aide de la
classe ElasticNet.

 Histogram Gradient Boosting Regressor

Histogram Gradient Boosting Regressor est un arbre de régression avec


amplification de gradient basé sur un histogramme. Cet estimateur est beaucoup
plus rapide que Gradient Boosting Regressor pour les grands ensembles de
données (n_samples> = 10 000).

Cet estimateur prend en charge nativement les valeurs manquantes


(NaN). Pendant la formation, l'arboriculteur apprend à chaque point de partage si
les échantillons avec des valeurs manquantes doivent aller à l'enfant gauche ou
droit, en fonction du gain potentiel. Lors de la prédiction, les échantillons avec des
valeurs manquantes sont attribués à l'enfant gauche ou droit en conséquence. Si
aucune valeur manquante n'a été rencontrée pour une fonctionnalité donnée
pendant l'apprentissage, les échantillons avec des valeurs manquantes sont
mappés à l'enfant qui a le plus d'échantillons.

 Bagging regressor

Bagging regressor est un méta-estimateur d'ensemble qui ajuste les régresseurs


de base chacun sur des sous-ensembles aléatoires de l'ensemble de données
d'origine, puis agrège leurs prédictions individuelles (soit par vote, soit par
moyenne) pour former une prédiction finale. Un tel méta-estimateur peut
typiquement être utilisé comme moyen de réduire la variance d'un estimateur boîte
noire (par exemple, un arbre de décision), en introduisant la randomisation dans
sa procédure de construction et en en faisant ensuite un ensemble.

 Gradient Boosting

Le Gradient Boosting est un algorithme particulier de Boosting. Le Boosting


consiste à assembler plusieurs « weak learners » pour en faire un « strong learner
», c’est-à-dire assembler plusieurs algorithmes ayant une performance peu élevée
pour en créer un beaucoup plus efficace et satisfaisant. L’assemblage de « weak

63
learners » en « strong learner » se fait par l’appel successif de ceux-ci pour
estimer une variable d’intérêt.

Dans le cadre d’une régression, le principe va être d’estimer les outputs par le
modèle 1, puis d’utiliser les résidus de ce modèle comme variable cible du modèle
2 et ainsi de suite. XGBOOST est un algorithme de Gradient Boosting.

4.3.2 Comparaison des modèles étudiés

Nous venons de voir que l’étape de validation croisée précédente est réalisée
pour les différents modèles utilisés. Chacun de ces modèles possède désormais
son jeu de paramètres optimal calibré sur les données d’apprentissage.

Le choix du modèle se fait au moyen de l’échantillon test qui a été laissé de côté
jusqu’à maintenant. Cette partie n’a jamais été utilisé par les algorithmes de
machine learning. Il va donc permettre de voir si le modèle calibré possède une
bonne capacité de généralisation, c’est-à-dire une bonne qualité de prédiction de
la migration de note même face à de nouvelles données jamais rencontrées
jusqu’à aujourd’hui.

Chacun des modèles est testé sur l’échantillon test, les prédictions qui
représentent les ventes prévisionnelles de la pièce détachée sont comparées aux
données réelles par le biais des métriques d’erreurs explicitées précédemment.
Une fois erreurs calculées, elles ont été comparées afin de sélectionner le meilleur
modèle.

R2_score RMSE

HistGradientBoostingRegressor 0.5790 33.36

BaggingRegressor 0.5853 33.11

GradientBoostingRegressor 0.6675 29.6503

LASSO 0.5483 34.5601

Ridge 0.5446 34.7000

ElasticNet 0.5211 35.5859

64
LGB 0.6826 28.9714

XGBOOST 0.5968 32.650

RandomForestRegressor 0.6225 31.5942

DecisionTreeRegressor 0.6076 32.2128

Figure 23 : Choix du meilleur modèle

Le tableau ci-dessus présente les résultats obtenus. Ces derniers indiquent que la
méthode de LGB est à privilégier. Le R2_score est de 0,6826 ce qui nous amène
à penser que le modèle créé est performant.

4.4 Exploitation du modèle

Après avoir généré les prédictions des mois futures grâce aux algorithmes, nous
allons mettre en place un tableau de bord qui nous permettra de calculer
Purshases, Sales, Incomes mensuellement (le PSI) .

Pour la réalisation du PSI, nous avons utilisé principalement les boucles en


python.

Le PSI est sous le format ci-dessous :

 STOCK : il représente le stock mensuel de chaque article

Pour le stock du mois en cours, une extraction doit être faite de X3 à la fin de
chaque mois. Pour le stock des mois d’après le calcul se fait comme suit :

STOCK= STOCK (N-1)+ IN (N-1)-OUT (N-1)

Pour effectuer ce calcul, nous avons inséré une boucle qui récupère les données
(Stock, IN, OUT) de chaque article du mois précèdent pour obtenir le stock
mensuel du mois N. Cette opération se répète pour chaque mois à prédire.

65
 IN : Il représente les réceptions à la fin de chaque mois par article

Le IN du mois en cours fera l’objet d’une extraction de X3 mais les mois à prédire
représenteront le projet de commande de chaque mois suivant la formule ci-
dessous :

IN= STOCK (N) +QTE_MEAN (N)-OUT (N)

Une boucle est mise en place pour calculer automatiquement l’ensemble des
mois

 OUT: Il représente les ventes mensuelles par article

Les ventes mensuelles futures de chaque article sont représentées par les
prédictions des ventes générées par notre algorithme le plus précis.

66
Figure 24 : PSI

Ce chapitre est consacré à l’étude empirique de notre projet. Nous avons


commencé par analyser les données. Ensuite, nous avons adopté une
méthodologie de travail basée sur le cycle d’une démarche Data Science.

Puis, nous avons appliqué la démarche adoptée en exécutant les différents


pipelines. Et finalement nous avons déployé nos fichiers de sorties qui contiennent
les prédictions et le PSI

67
Conclusion Générale

La science de données « Data science » est considérée parmi les sciences les
plus dynamiques dans notre époque moderne. C’est un champ vaste qui connait
des améliorations en vue de recherche de maturité. Ceci est dû en parti aux
secteurs d’usage où le domaine du Data science et Machine Learning apportent
leurs atouts en vue de mieux servir les pratiques où même révolutionner les
méthodes de travail.

Ceci dit, nous avons adopté une démarche académique et scientifique visant à
mettre en place un modèle de Machine Learning prédictif avec son déploiement.
En s’intéressant en premier lieu à une étude théorique visant à s’approprier des
différents concepts fondamentaux qui constituent notre thème de recherche. Cette
étude documentaire nous a permis de cerner les principaux algorithmes de
régression ainsi que les autres compartiments du data science modélisés par la
communauté scientifique.

Ensuite, nous avons entamé la partie empirique en commençant tout d’abord par
la présentation de l’entreprise d’accueil, le pre-processing du fichier d’entrée ainsi
que la mise en place des algorithmes de régression pour prédire les ventes
mensuelles.

Finalement, nous avons comparé la performance des modèles utilisés en retenant


un seul algorithme prédiction et de le projeter. Ce projet a permis de mettre en
place un algorithme de prédiction des ventes précis à 0.68% et de générer les
projets de commande automatiquement.

Pour conclure, notre algorithme peut prédire les ventes de la PDR existante mais il
ne peut pas prédire les ventes de nouvelles références. Pour pallier à ce problème
il faut lier la prédiction de la PDR avec le parc existant des engins et faire une
mise à jour mensuelle des références.

68
BIBLIOGRAPHIE

Vasant Dhar, « Data Science and Prediction », Communications of the ACM, no


12, December 2013, p. 64-73

Davenport et DJ Patil « Data Scientist: The Sexiest Job of the 21st Century »,
Harvard Business Review, 2012

 « Data Science Blog » [archive], sur France Data Science Blog, 2020 (consulté
le 19 juin 2020).

Moore, D. S. (1991), Teaching statistics as a respectable subject. In Gordon, F.


and S. Gordon (eds.), Statistics for the twenty-first century, 14-25, Mathematical
Association of America.

 Kégl B (2014) La science des données pour les données de la science. In 9th
Journées Informatique de l'IN2P3-IRFU.

 McClave, James T. et co. (1997) Statistics , Prentice Hall, New Jersey


 Commission d'enrichissement de la langue française, « Vocabulaire de
l’intelligence artificielle (liste de termes, expressions et définitions adoptés) »,
Journal officiel de la République française no 0285 du 9 décembre 2018.
 Danah Boyd et Kate Crawford, « Critical Questions for Big Data : Provocations
for a cultural, technological, and scholarly phenomenon », Information,
Communication & Society, 2011.
 Patrice Bertail, David Bounie, Stephan Clémençon et Patrick Waelbroeck, «
Algorithmes : biais, discrimination et équité », sur https://www.telecom-paris.fr.
 Machine Learning, chap. 13 Reinforcement Learning, p. 367-390
 Krzysztof Wołk, Machine Learning in translation corpora processing, Boca
Raton, FL, Taylor & Francis, 2019, 264 p.
 Machine Learning, chap. 9 Genetic Algorithms, p. 249-273.
 Gary Marcus, Deep Learning, a Critical Appraisal, New York University
75
 Sinno Jialin Pan et Qiang Yang, « A Survey on Transfer Learning »,
IEEETransactions on Knowledge and Data Engineering, vol. 22, no 10, octobre
2010, p. 1345-1359

69
 « apprentissage automatique » [archive], Le Grand Dictionnaire terminologique,
Office québécois de la langue française (consulté le 01 Octobre 2020).

 Danah Boyd et Kate Crawford, « Critical Questions for Big Data : Provocations
for a cultural, technological, and scholarly phenomenon », Information,
Communication & Society, 2011.

André Meyer, POWER BI DESKTOP - DE L'ANALYSE DE DONNEES AU


REPORTING, Editions ENI Solutions Business, 2019.

 « Bring your data to life with Microsoft Power BI » (consulté le 10/09/2020)


Microsoft.com, Microsoft.

70

Vous aimerez peut-être aussi