Académique Documents
Professionnel Documents
Culture Documents
Rapport de Projet de Fin D Etude
Rapport de Projet de Fin D Etude
DATA SCIENCE AU
SERVICE DE LA
PIECE DETACHEE
Réalisé et soutenu par :
1
Dédicace
La femme la plus affectueuse et la plus douce au monde, l’ange la plus tendre qui a été
toujours pour moi une source d’amour, à ma très chère mère.
L’être le plus cher au monde en témoignage de mon respect, à mon amour et mon plus
grand rattachement, à mon très cher père.
2
Remerciements
J’adresse mes vifs remerciements à toutes les personnes qui ont contribué de près ou
de loin à l’élaboration de ce modeste travail.
Je tiens précisément à exprimer ma gratitude envers ma famille et mes amis sans qui je
ne serais jamais arrivé à ce stade.
Je remercie vivement mon encadrant Mr. FADIL de m’avoir assisté tout au long de mon
projet, pour sa disponibilité et pour ses conseils avisés.
Aussi, mes gratitudes les plus profondes à M. Omar ALAMI Directeur Général qui m’a
donné l’occasion d’effectuer ce rapport à MIFA MOTORS.
Mes remerciements les plus sincères vont également à Mme Souad HAMMOUDI
Directrice du Département et mes chers collègues Mr. Yacine AMADE Responsable
Service Après-Vente et Mr. Mohammad SERDABE pour le soutien moral qu’ils m´ont
approuvé et leurs disponibilités.
3
Figures
4
Liste des abréviations :
Abréviation Désignation
ML Machine Learning
RF Random Forest
LR Logistic Regression
BR Bagging Regressor
5
Table des matières
Dédicace..........................................................................................................................................................................2
Remerciements...............................................................................................................................................................3
Figures..............................................................................................................................................................................4
Liste des abréviations :..................................................................................................................................................5
Résumé............................................................................................................................................................................7
Introduction générale.....................................................................................................................................................8
Chapitre I :.......................................................................................................................................................................9
Présentation de L’Entreprise........................................................................................................................................9
1.1 Histoire constructeur : YAMAHA..............................................................................................................10
1.2 Présentation du groupe MIFA...................................................................................................................12
1.3 Présentation de la société MIFA Motors.................................................................................................13
Chapitre 2:.....................................................................................................................................................................16
La Data Science............................................................................................................................................................16
et......................................................................................................................................................................................16
Machine Learning.........................................................................................................................................................16
2.1 Plateforme et outils Data Science............................................................................................................17
2.2 Machine Learning.......................................................................................................................................21
2.2.1 Machine Learning avec supervision....................................................................................................22
2.2.2 Machine Learning sans supervision....................................................................................................23
2.2.3 Machine Learning par renforcement...................................................................................................23
2.3 Algorithmes Machine Learning.................................................................................................................24
2.3.1 Random Forest.......................................................................................................................................26
2.3.2 Decision Tree....................................................................................................Erreur ! Signet non défini.
2.3.3 XGBoost...................................................................................................................................................29
Chapitre 3 :....................................................................................................................................................................32
Problématique...............................................................................................................................................................32
3.1 Environnement micro.................................................................................................................................33
3.1.1 Approvisionnement.................................................................................................................................33
3.1.2 Mécanismes de commande..................................................................................................................36
3.1.3 Analyse de la concurrence....................................................................................................................36
3.1.4 Analyse de la clientèle...........................................................................................................................38
3.2 Détection des anomalies...........................................................................................................................39
3.3 Amélioration du processus de gestion.....................................................................................................41
Chapitre 4:.....................................................................................................................................................................44
Modélisation..................................................................................................................................................................44
4.1 Traitement et analyse des données.........................................................................................................45
4.1.1 Données manquantes............................................................................................................................45
4.1.2 Valeurs aberrantes.................................................................................................................................47
4.1.3 Visualisation des données....................................................................................................................49
4.2 Paramétrage de l’algorithme.....................................................................................................................55
4.2.1 Encoding..................................................................................................................................................56
4.2.2 Métriques d’erreur..................................................................................................................................57
4.2.3 Hyper-paramétrage................................................................................................................................58
4.3 Ajustement des données aux modèles et résultats...............................................................................60
4.3.1 Amélioration de la précision des modèles..........................................................................................61
4.3.2 Comparaison des modèles étudiés.....................................................................................................64
4.4 Déploiement du modèle.............................................................................................................................65
Conclusion Générale....................................................................................................................................................68
BIBLIOGRAPHIE..........................................................................................................................................................69
6
Résumé
Pour ce faire, et après une revue documentaire, une démarche Data Science a été
appliquée sur les données collectées de l’entreprise afin de concrétiser un modèle de
Machine Learning prédictif basée sur des algorithmes avec une mise en place d’un PSI
automatisé.
Ce travail permettra à Mifa Motors d’éviter les ruptures de stock et ainsi d’augmenter la
satisfaction des clients par la maitrise des prévisions de ventes et d’approvisionnement
des différentes références de la PDR. Ceci passe par la mise en place du PSI, un
tableau de bord automatisé qui controle l’ensemble des données, Purshases, Sales,
Incomes.Mots-clés : Ajouter ici 4 à 6 mots clés les plus pertinents de votre rapport et qui
doivent être cités dans le texte du résumé ci-dessus
7
Introduction générale
Une mauvaise décision sur le calcul des stocks peut amener à un taux d’obsolescence
important qui peut coûter des millions de dirhams. Aussi, un mauvais taux de service a
pour conséquence immédiate une augmentation des reliquats, une baisse des ventes et
par conséquent, une diminution de l’EBIT. Une forte disponibilité des pièces de rechange
doit être recherchée tout en optimisant les coûts de stockage. La complexité réside dans
le dilemme: comment assurer un service maximal avec un stock minimal ? Pour ce faire,
le service des pièces de rechange se doit d’optimiser son approvisionnement.
Mon expérience au sein de MIFA Motors est traduite par ce rapport dont la première
partie sera réservée à la présentation de la société et de son secteur d’activité. Le
deuxième chapitre présentera les concepts du Machine Learning et Data Science. Le
troisième chapitre portera sur la problématique et les fondamentaux économiques de la
distribution des pièces détachées. Au dernier chapitre, on procèdera à l'analyse et la
préparation de notre base de données, suivie de la construction et le déploiement de
notre modèle avec le PSI.
8
Chapitre I :
Présentation de L’Entreprise
9
1.1 Histoire constructeur : YAMAHA
YAMAHA est une entreprise japonaise opérant dans de nombreux domaines, parmi
lesquels les instruments de musique (son activité première), les motos, les motoneiges,
les scooters des mers, les moteurs, les circuits intégrés et les appareils électroniques
grand public. Elle a été fondée en 1887 par un horloger pour la fabrication d'orgues,
Torakusu YAMAHA mais s'est diversifiée à partir de la Seconde Guerre mondiale. Elle
est devenue depuis une multinationale.
Les copies vont néanmoins vite être abandonnées pour de véritables créations. La Y A-1
apparait en 1955, année durant laquelle la firme est rebaptisée YAMAHA en hommage à
son fondateur. Le rachat de la firme SHOWA permet à YAMAHA d’acquérir la maîtrise
de la technologie deux-temps.
Les succès en série : Jusque dans les années 60, les modèles YAMAHA vont s’écouler
à vitesse grand V et vont se hisser sur les hautes marches des podiums en compétition
aussi bien au Japon qu’en Europe. Puis la société se lance dans les rails sur la demande
de l’importateur YAMAHA US qui réclame à l’usine une machine capable de
concurrencer les Greeves et Bultaco en off-road, et c’est avec la DT1 que la société
répond à la demande. Au cours des années 70, le gros des ventes est assuré par les
deux-temps ce qui n’empêche pas YAMAHA de développer une gamme de quatre temps
avec notamment la XT 500. La marque s’essayera ensuite brièvement au trois cylindres
avec la XS750 avant de donner naissance en 1980 a la XJ650.
Au cours des années qui suivront, YAMAHA se forgera une image sportive non
seulement en compétition mais aussi en sortant des modèles tels que la RD 500LC
capable d’atteindre les 217km/h. Ce seront ensuite les FZ qui feront leur apparition pour
asseoir l’esprit sportif de la marque.
10
Au-delà des modèles purement sportifs, la marque ne cessera d’innover et de proposer
des motos toujours plus performantes.
Fiche signalétique :
Création : 1887
Chiffre d’affaires : 432,2 milliards de JPY (2015) soit env. 3,27 milliards d’EURO (2015)
11
1.2 Présentation du groupe MIFA
MIFA Equipements
MIFA Musique :
MIFA Motors :
Service après-vente.
MIFA Services :
Transfert d’argent
12
1.3 Présentation de la société MIFA Motors
Depuis 45 ans, MIFA groupe est le distributeur exclusif de YAMAHA Motors Corporation
au Maroc à travers sa société MIFA Motors. C’est avec beaucoup de fierté, passion et
professionnalisme que le Groupe représente la marque YAMAHA sur l’ensemble du
territoire marocain, et ce, en assurant la commercialisation, la garantie, et le service
après-vente de ses produits tout en veillant au respect des normes et standards du
constructeur japonais.
MIFA Motors a su pendant des années garantir à ses clients des produits de qualité
dignes d’un constructeur de renommée mondiale. Le service après-vente constitue le
cheval de bataille de MIFA Motors. La technologie YAMAHA exige une qualité de service
que seul un importateur exclusif peut offrir en toute sécurité pour les produits de la
marque. C’est ce qui en assure à la fois la pérennité et la rentabilité d’investissement
pour ses clients.
Département Marketing
Des études ont été menées et ont abouti à la définition de zones géographiques
stratégiques. Ces zones devaient faire l’objet d’une attention particulière en raison de
leur potentiel ou de leur poids dans les ventes de MIFA Motors. La Société a donc
décidé de revoir les modes et conditions de distribution dans ces zones.
13
Service Commercial
Il a pour mission de centraliser les achats de toute la société MIFA Motors, de satisfaire
les besoins de la société en termes de qualité, coût et délai, et d’assurer les besoins en
matière des Engins et pièces de rechange:
Service Informatique
Depuis 2015, le système d’information a migré vers SAGE X3 lui assurant une gestion
intégrée et un accès systématique à une base de données intégrale des fonctions de
l’entreprise.
14
Gestion des ventes
Gestion de la paie
Reportions
Etc
Service Logistique
15
Chapitre 2:
Data Science
et
Machine Learning
1-
16
2.1 Plateforme et outils Data Science
La Data Science est un domaine interdisciplinaire dont le but est d’analyser des
quantités importantes de données et d’en extraire des connaissances. Elle intègre des
méthodes issues de l’Informatique, des Statistiques, du Machine Learning, de l’Analyse
de Données et des Mathématiques Décisionnelles.
La Data Science permet d’exploiter les données afin de modéliser des comportements,
de prendre des décisions, ou de faire des prédictions en utilisant des algorithmes.
structurer et organiser les données dans des bases de données, des entrepôts de
données (Data Warehouses) et des Datamarts, en faisant éventuellement appel à
des ontologies et au Big Data.
17
Collecter, intégrer et agréger des données à partir de plusieurs sources,
éventuellement hétérogènes, à l’aide d’outils d’ETL.
Valider, contrôler et nettoyer les données, par exemple à l’aide de règles métier
(BRMS);
Détection de fraude
Diagnostic de pannes
Maintenance préventive.
Afin de mener à bien un projet Data Science, il est très important de suivre toutes les
étapes du cycle de vie afin d’assurer le bon déroulement du projet. Les étapes à suivre
pour réussir un projet de Data Science sont décrites dans le graphique ci-dessous :
18
Figure 2 : Les étapes d’un projet Data Science
Vient ensuite la phase d’évaluation qui vise à vérifier le(s) modèle(s) ou les
connaissances obtenues afin de s’assurer qu’ils répondent aux objectifs formulés au
19
début du projet. C’est dans cette phase que l’on décide si le modèle est assez robuste et
donc prêt au déploiement, ou bien s’il faut l’améliorer encore.
L’étape finale du cycle de vie consiste en une mise en production pour les utilisateurs
finaux des modèles développés.
Les outils utilisés dans notre projet afin d’exploiter nos données extraites de Sage sous
format Excel sont les suivants :
Jupyter/Colab :
Python :
20
Publié dans sa première version en 1991, Python est un langage de haut niveau élégant,
portable et extensible qui permet de créer du code lisible, selon l'un des paradigmes de
programmation souhaités.
Python est doté d'un typage dynamique fort : cela signifie que le typage, bien que non
vérifié lors de la « compilation », Python effectue des vérifications de cohérence sur les
types manipulés, et permet de transformer explicitement une variable d'un type à l'autre.
Le Machine Learning est une technique de programmation informatique qui utilise des
probabilités statistiques pour donner aux ordinateurs la capacité d’apprendre par eux-
mêmes sans programmation explicite. Pour son objectif de base, le Machine Learning «
apprend à apprendre » aux ordinateurs – et par la suite, à agir et réagir – comme le font
les humains, en améliorant leur mode d’apprentissage et leurs connaissances de façon
autonome sur la durée. L’objectif ultime serait que les ordinateurs agissent et réagissent
sans être explicitement programmés pour ces actions et réactions. Le Machine Learning
utilise des programmes de développement qui s’ajustent chaque fois qu’ils sont exposés
à différents types de données en entrée.
Un bon exemple de ML est la voiture autonome. Une voiture autonome est équipée de
plusieurs caméras, plusieurs radars et d’un capteur lidar. Ces différents équipements
assurent les fonctions suivantes :
21
Analyser la section de route située en avant de la voiture.
Détecter les objets mobiles ou fixes situés sur l’arrière ou les côtés de la voiture.
Le Machine Learning n’est pas une nouvelle technologie. Le premier réseau neuronal
artificiel, appelé « Perceptron », a été inventé en 1958 par le psychologue américain
Frank Rosenblatt.
Au départ, Perceptron devait être une machine, et non un algorithme. En 1960, il a été
utilisé pour le développement de la machine de reconnaissance d’images « Mark 1
Perceptron ». Mark 1 Perceptron a été le premier ordinateur à utiliser des réseaux
neuronaux artificiels (ANN) pour simuler la réflexion humaine et apprendre par essais et
erreurs. Le Machine Learning est de plus en plus utilisé en raison de la multiplication des
bibliothèques et des frameworks open source et de la multiplication par plusieurs
milliards de fois de la puissance de traitement des ordinateurs entre 1956 et 2018.
Aujourd’hui, le ML est partout : des transactions boursières à la protection contre les
logiciels malveillants en passant par la personnalisation du marketing. Quelle que soit sa
simplicité ou sa complexité, le Machine Learning peut être classé en trois grandes
catégories
Le Machine Learning avec supervision est une technologie élémentaire mais stricte. Les
opérateurs présentent à l’ordinateur des exemples d’entrées et les sorties souhaitées, et
l’ordinateur recherche des solutions pour obtenir ces sorties en fonction de ces entrées.
Le but recherché est que l’ordinateur apprenne la règle générale qui mappe les entrées
et les sorties. Le Machine Learning avec supervision peut être utilisé pour faire des
prédictions sur des données indisponibles ou futures (on parle de « modélisation
prédictive »). L’algorithme essaie de développer une fonction qui prédit avec précision la
sortie à partir des variables d’entrée – par exemple, prédire la valeur d’un bien immobilier
22
(sortie) à partir d’entrées telles que nombre de pièces, année de construction, surface du
terrain, emplacement, etc.
Les principaux algorithmes du Machine Learning avec supervision sont les suivants :
forêts aléatoires, arbres décisionnels, méthode du k plus proche voisin (k-NN),
régression linéaire, classification naïve bayésienne, machine à vecteurs de support
(SVM), régression logistique et boosting des gradients.
Dans le Machine Learning sans supervision, l’algorithme est laissé à lui-même pour
déterminer la structure de l’entrée (aucun label n’est communiqué à l’algorithme). Cette
approche peut être un but en soi (qui permet de découvrir des structures enfouies dans
les données) ou un moyen d’atteindre un certain but. Cette approche est également
appelée « apprentissage des caractéristiques » (feature learning).
Les principaux algorithmes du Machine Learning sans supervision sont les suivants : K-
Means, clustering/regroupement hiérarchique et réduction de la dimensionnalité.
23
navigue dans l’espace du problème et qu’il apprend à identifier le comportement le plus
efficace dans le contexte considéré.
Les principaux algorithmes du Machine Learning par renforcement sont les suivants : Q-
learning, Deep Q Network (DQN) et SARSA (State-Action-Reward-State-Action).
L'arbre de décision est un outil de prise de décision qui utilise une structure arborescente
semblable à un organigramme ou est un modèle de décisions et de tous leurs résultats
possibles, y compris les résultats, les coûts des intrants et l'utilité. L'algorithme d'arbre de
décision appartient à la catégorie des algorithmes d'apprentissage supervisé. Il
fonctionne à la fois pour les variables de sortie continues et catégorielles.
Les branches / arêtes représentent le résultat du nœud et les nœuds ont soit:
24
Figure 3: Decision Tree
Chaque arbre de décision a une variance élevée, mais lorsque nous les combinons tous
ensemble en parallèle, la variance résultante est faible car chaque arbre de décision est
parfaitement formé sur cet échantillon de données particulier et, par conséquent, la sortie
ne dépend pas d'un arbre de décision mais de décisions multiples des arbres. Dans le
cas d'un problème de classification, la sortie finale est prise en utilisant le classificateur
de vote majoritaire. Dans le cas d'un problème de régression, la sortie finale est la
moyenne de toutes les sorties. Cette partie est l'agrégation.
25
2.3.2 Random Forest
Random Forest est un algorithme d'apprentissage automatique robuste qui peut être
utilisé pour une variété de tâches, y compris la régression et la classification. Il s'agit
d'une méthode d'ensemble, ce qui signifie qu'un modèle forestier aléatoire est composé
d'un grand nombre de petits arbres de décision , appelés estimateurs , qui produisent
chacun leurs propres prédictions. Le modèle de forêt aléatoire combine les prédictions
des estimateurs pour produire une prédiction plus précise.
Les classificateurs d' arbre de décision standard ont l'inconvénient d'être sujets à un sur
ajustement à l'ensemble d'apprentissage. La conception d'ensemble de la forêt aléatoire
permet à la forêt aléatoire de compenser cela et de bien généraliser aux données
invisibles, y compris les données avec des valeurs manquantes. Les forêts aléatoires
sont également efficaces pour gérer de grands ensembles de données avec une
dimensionnalité élevée et des types d'entités hétérogènes (par exemple, si une colonne
est catégorique et une autre est numérique).
Les forêts aléatoires sont également des boîtes noires: contrairement à certains
algorithmes d'apprentissage automatique plus traditionnels, il est difficile de regarder à
l'intérieur d'un classificateur de forêt aléatoire et de comprendre le raisonnement derrière
ses décisions. En outre, ils peuvent être lents à s'entraîner et à s'exécuter, et produire
des fichiers de grande taille. Parce qu'elles sont extrêmement robustes, faciles à prendre
26
en main, bonnes pour les types de données hétérogènes et ont très peu d'hyper-
paramètres , les forêts aléatoires sont souvent le premier port d'escale d'un scientifique
des données lors du développement d'un nouveau système d'apprentissage
automatique, car elles permettent aux scientifiques des données d'obtenir un aperçu
rapide du type de précision qui peut raisonnablement être obtenu sur un problème,
même si la solution finale peut ne pas impliquer une forêt aléatoire.
L'un des grands avantages de la forêt aléatoire est qu'elle peut être utilisée à la fois pour
les problèmes de classification et de régression, qui constituent la majorité des systèmes
d'apprentissage automatique actuels. Examinons la forêt aléatoire dans la classification,
car la classification est parfois considérée comme la pierre angulaire de l'apprentissage
automatique.
Ci-dessous, nous pouvons voir à quoi ressemblerait une forêt aléatoire avec deux arbres
:
27
La forêt aléatoire ajoute un caractère aléatoire supplémentaire au modèle, tout en faisant
pousser les arbres. Au lieu de rechercher la fonctionnalité combinaison la plus
importante lors de la division d'un nœud, il recherche la meilleure fonctionnalité parmi un
sous-ensemble aléatoire de fonctionnalités. Il en résulte une grande diversité qui aboutit
généralement à un meilleur modèle.
Une autre grande qualité de l'algorithme de forêt aléatoire est qu'il est très facile de
mesurer l'importance relative de chaque entité sur la prédiction. Sklearn fournit un
excellent outil pour cela qui mesure l'importance d'une fonctionnalité en examinant dans
quelle mesure les nœuds d'arbre qui utilisent cette fonctionnalité réduisent les impuretés
dans tous les arbres de la forêt. Il calcule automatiquement ce score pour chaque
fonctionnalité après l'entraînement et met à l'échelle les résultats de sorte que la somme
de toute importance soit égale à un.
La méthode de la forêt aléatoire peut créer des modèles de prédiction à l'aide d'arbres
de régression forestière aléatoires, qui sont généralement non réglés pour donner des
prédictions solides. La méthode d'échantillonnage bootstrap est utilisée sur les arbres de
régression, qui ne doivent pas être élagués. Les nœuds optimaux sont échantillonnés à
partir du nombre total de nœuds dans l'arborescence pour former la fonction de
fractionnement optimale.
28
En examinant l'importance des fonctionnalités, on peut décider des fonctionnalités à
supprimer car elles ne contribuent pas suffisamment (ou parfois rien du tout) au
processus de prédiction. Ceci est important car une règle générale en apprentissage
automatique est que plus vous avez de fonctionnalités, plus votre modèle souffrira de
sur-ajustement et vice versa.
2.3.3 XGBoost
29
XGBoost appartient à la catégorie des techniques de Boosting. L'apprentissage
d'ensemble consiste en une collection de prédicteurs qui sont des modèles multiples
pour fournir une meilleure précision de prédiction. Dans la technique Boosting, les
erreurs commises par les modèles précédents sont essayées pour être corrigées par des
modèles successifs en ajoutant des poids aux modèles.
Caractéristiques de XGBoost:
Peut être exécuté sur des systèmes uniques et distribués (Hadoop, Spark).
Optimisation du cache.
30
Élagage automatique des arbres - L'arbre de décision ne poussera plus après
certaines limites en interne.
Néanmoins, il faut garder en tête que ces algorithmes ne sont pas fiables à 100%, ils
doivent servir d’appui, de complément à l’intelligence et l’analyse humaine.
31
Chapitre 3 :
Problématique
32
3.
Les clients de MIFA Motors, le distributeur exclusif de la marque YAMAHA, voient dans
la qualité de son service après-vente l’un des principaux atouts. La disponibilité des
pièces de rechange en est un élément clé.
Ainsi, un client qui possède une machine doit être en mesure de trouver une pièce de
rechange dans un délai minimal, d’autant plus que la disponibilité rapide des pièces,
constitue un critère primordial lors du processus d'acquisition d'une machine neuve.
La diversité des produits présentés par MIFA Motors que ce soit au niveau des motos,
Hors-bord, quads ou bien des scooters de mer, a fait que le magasin de pièces de
rechange englobe une diversité d’articles qui dépassent les 36,000 références.
Aussi, le fait que MIFA Motors est un distributeur exclusif, elle commercialise des pièces
d’origine approvisionnées exclusivement auprès de la Direction «Pièces de Rechange»
de la maison mère YAMAHA. Les pièces écoulées sont vendues sous emballage au nom
du constructeur ; leurs qualités correspondent à la qualité « Original » et répond au
cahier de charges du constructeur.
3.1.1 Approvisionnement
Une commande fait référence à une demande de pièces ainsi que leurs prix. Elle
peut être déclinée en plusieurs types :
1. Devis
33
Une facture pro-forma est établie lorsqu'un devis est demandé par le distributeur. Il ne
s’agit pas d’une commande confirmée. Elle est valable 90 jours à compter de la date
d'envoi.
2. Commande confirmée
Lorsque la commande passée est traitée comme une commande confirmée, une
confirmation est remise, marquant l'acceptation de la commande.
Commandes normales
L’expédition de ces commandes se fait par voie maritime. Ce type de commande
est utilisé pour commander régulièrement des pièces dans le cadre du
réapprovisionnement du stock du magasin de la pièce de rechange
Commandes d'urgence
Par avion
Les frais de transport des services de livraison par avion et par coursier étant calculés en
fonction du poids brut ou du poids volumétrique, selon le plus élevé, il est important de
renseigner la taille et le poids de la pièce lorsque la commande est passée.
Commandes initiales
Il s'agit de commandes spéciales pour des pièces de rechange qui seront utilisées sur
des modèles commercialisés pour la première fois. Elles sont expédiées par voie
maritime.
Il est important de passer une commande initiale rapidement afin de disposer d'un
nombre suffisant de pièces lors du lancement.
34
Figure 7 : Processus Approvisionnement PDR
35
3.1.2 Mécanismes de commande
a. Par Fastweb
Fastweb est une interface permettant aux distributeurs de passer leurs commandes par
Internet. Ils sont accompagnés pas à pas tout au long de la procédure de passation de
commandes. Dans ce cas, une facture pro forma / confirmation de commande et délivrée
soit le jour même, soit le jour suivant, selon l'heure à laquelle le distributeur passe sa
commande.
b. Par e-mail
Le distributeur envoie par e-mail sous format Excel, une liste de pièces à commander. Y
MC établit une facture pro forma / confirmation de commande, et l'envoie au distributeur.
La compréhension des affaires joue un rôle très important dans la réussite de tout projet,
car tout le cycle de vie tourne autour de l'objectif commercial. Afin d'acquérir les données
correctes, nous devons être en mesure de comprendre l'aspect commercial. Poser des
questions sur l'ensemble de données et fixer un objectif commercial approprié aideront à
rendre le processus d'acquisition de données beaucoup plus facile.
Ce sont, les distributeurs qui vendent des pièces d’une qualité incertaine. En effet,
les pièces adaptables comme leurs noms l’indiquent, sont des pièces qui peuvent
36
être intégrés dans n’importe quelle marque de motos. Elles sont souvent importées
d’Asie et ne présentent aucune garantie, d’où leur caractère moins couteux.
Les revendeurs
Ces acteurs achètent tout le stock du magasin, profitent de la remise et vendent le même
produit avec un prix inférieur à celui proposé par le magasin PDR de MIFA Motors.
Chez ces revendeurs, les différents types de marques et catégories de qualité coexistent
et sont vendus en fonction des besoins techniques exprimés et surtout du pouvoir
d’achat du client final.
Les ambulants
37
Figure 8 : Environnement Externe du magasin PDR
Les distributeurs des adaptables et les concurrents du magasin PDR, sont eux même
des clients.
Ils s’ajoutent à ces clients, les véhicules qui sont encore sous garantie et les besoins de
l’atelier de réparation.
38
Figure 9 : principaux clients du Magasin PDR
La relation entre les quantités des pièces commandées et le volume des stocks en
magasin est la suivante ‘’Mauvaise structure entre "stocks et achats’’.
La quantité instable des stocks est due aux commandes non régulières auprès du
fournisseur. Il est difficile d'effectuer un contrôle des stocks, les pièces à rotation rapide
sont rapidement épuisées. À l'inverse, le stock de pièces pour lesquelles la demande est
nul à tendance à augmenter. Ainsi, le ratio de l'offre de pièces chute et la satisfaction de
la clientèle diminue De ces faits e magasin de la PDR perd de nombreuses opportunités
de vente à cause des ruptures de stock fréquentes ce qui explique le chiffre d'affaire
instable, il ne suit pas une augmentation continue comme le montre le graphique ci-
dessous:
39
Figure 11 : Mauvaise structure entre "stocks et achats"
1. Commandes
2. Arrivages
La quantité de stocks au magasin est instable et il n'y a presque pas de stock de pièces
à certains mois.
3. Stocks
Le stock de pièces à forte rotation (A) est insuffisant et le stock de pièces pour lesquelles
la demande est nulle (D) est élevé.
40
4. Offre
5. Ventes
Comme l'offre de pièces n'est pas stable, les ventes le sont aussi et n'augmentent pas.
L’historique des commandes et les autres informations pouvant être réunies étant rares,
il est difficile de prévoir la demande.
L’objectif de notre travail est de procéder à des commandes régulières de pièces une
fois par mois et de maintenir le volume de stocks à un niveau stable. Ainsi, le ratio d'offre
augmentera et les ventes seront substantielles. A partir des prévisions précises des
ventes grâce aux algorithmes, il est possible de déterminer la quantité appropriée à
commander afin d’atteindre le schéma d’approvisionnement adéquat présenté ci-
dessous :
41
Figure 12 : Cycle adéquat entre "Stocks et Achats"
1. Commandes
2. Arrivages
3. Stocks
4. Offre
42
Le magasin réagissant bien aux commandes des clients, le ratio d'offre de pièces peut
être maintenu à un bon niveau.
5. Ventes
L'offre de pièces étant stable, les ventes peuvent être maintenues à un niveau élevé.
L'historique des commandes et les autres informations pouvant être réunies et bien
fournies, il est facile de prévoir la demande avec précision.
Dans cette section, nous avons souligné l’importance des pièces de rechange et la
description détaillée de l’environnement de la gestion de la PDR ainsi que les différentes
anomalies liées à la gestion qui seront résolus avec la Data Science.
43
Chapitre 4:
Modélisation
44
4.
Après avoir présenté l’entreprise d’accueil ainsi que les différentes parties
prenantes impactant le processus de production des données de notre étude.
Nous entamons maintenant l’élaboration et la mise en place tout en adoptant une
démarche Data science afin de répondre aux objectifs de ce projet. A travers le
respect des différentes étapes de la méthodologie choisie, nous serons capables
de garantir les meilleurs rendements de performance et adopter les outils les plus
adaptés à la nature de notre étude.
Une explication des champs de la base de données s’impose avant de traiter les
valeurs manquantes.
45
Code Article : Chaque pièce a une référence qui change en fonction de
l’année de production pièce peut avoir plusieurs codes articles. La difficulté
était de ne garder qu’un code par pièce. On a passé de 7000 références à
5000 références
Qté : Représente les ventes par pièce. Sur la base des ventes journalières
de la période de 2016 à 2020 on a utilisé GROUPBY par mois afin d’avoir les
ventes mensuelles.
Données manquantes
- les données du champ spécifique n'ont pas été ajoutées par l'utilisateur /
l'application de collecte de données,
46
valeurs manquantes. Les marques blanches sur le graphique indiquent ces
valeurs.
Les champs les plus importants et qui n’enregistrent aucune valeur manquante
sont les suivants; la famille statistique 3, Désignation, Article 2020, Site vente,
marge et prix
Une valeur aberrante est une valeur extrêmement élevée ou extrêmement faible
dans l'ensemble de données. Ces valeurs aberrantes peuvent fausser et induire
en erreur le processus de formation de l'apprentissage automatique, ce qui se
traduit par des temps de formation moins précis et plus longs et des résultats plus
médiocres.
47
Figure 14 : Visualisation des valeurs
Dans cette étude, les valeurs aberrantes qui sont identifiées en 2019 et 2020 sont
dues aux ventes exceptionnelles réalisées pour liquider le stock dormant.
L’algorithme DBSCAN a été utilisé afin de filtrer les valeurs aberrantes et les
supprimer. DBSCAN fonctionne en agglomérant avidement des points proches les
uns des autres. Les grappes avec peu de points sont considérées comme des
valeurs aberrantes.
1) un paramètre ε qui spécifie un seuil de distance sous lequel deux points sont
considérés comme proches
2) le nombre minimum de points qui doivent être dans le rayon ε d'un point avant
que ce point puisse commencer à s'agglomérer.
Les deux figures ci-dessous montrent notre DBSCAN en action sur des points
dans le plan. Il existe deux groupes. Les points jaunes avaient suffisamment de
voisins proches pour agglomérer ces points, tandis que les points moves ne se
sont pas agglomérés sont les valeurs aberrantes.
48
A- Analyse des familles de produits et des sites de vente
Nous étudierons dans un premier temps le détail des ventes de chaque famille et
chaque site de vente en CA ainsi qu’en marge.
49
Figure 17 : Diagramme circulaire de la marge et CA par famille de produits
HB 15 29,29% WR 3,92%
Bougie 8%
Cyclos>50C
C 12,25% HB>25 8%
Sur l’histogramme ci-dessous on voit que la marge des WR est plus importante
que V50 /YB50. On a aussi la famille des TMAX et Maxi Scooter qui sont
performantes en termes de marge mais pas assez en CA. A noter que la marge
des bougies est négative.
50
Figure 18 : Histogramme du CA/Marge par famille de produits
Le suivi de la marge permet d'éviter de tomber dans le piège d'une stratégie basée
uniquement sur le chiffre d'affaires. Une entreprise qui qui ne se focalise que sur
son le chiffre d'affaires peut perdre de vue une notion bien plus importante : la
rentabilité. L'étude de la marge permet le suivi de la rentabilité de l'entreprise et
donc de sa performance.
Dans le secteur des pièces, où l'on gère des centaines ou des milliers de pièces, il
est important de classer les pièces en deux catégories : celles qui se vendent
beaucoup et les autres. Il est nécessaire de conserver des stocks suffisants de
pièces à forte rotation afin d'éviter de laisser passer des opportunités de ventes et
de maintenir un haut niveau de service. Toutefois, les stocks de pièces à rotation
faible doivent être limités au maximum afin d'éviter qu'ils ne se transforment en
stocks de pièces qui ne se vendent pas.
51
L'analyse ABC est la technique la plus efficace pour analyser le détail des stocks
pour stocker des pièces à forte rotation ou réduire les stocks de pièces à rotation
nulle. La méthode de gestion basée sur l'analyse ABC s'appelle la gestion ABC
qu’on a appliqué avec python comme ci-dessous :
52
Figure 19 : Diagramme circulaire de la méthode ABC
On remarque ainsi, que la classe A est représentée par 583 articles, alors que la
majorité des autres références sont de la classe B avec 1324 références et la
classe C avec 3806 références, c’est à dire leurs stocks ne tourne pas
suffisamment.
Sur cette partie on va analyser le CA par rapport à la marge, sur les deux graphs
ci-dessous on voit que l’augmentation du CA en 2017 est proportionnelle à la
marge en même année, contrairement à l’année 2019, on remarque qu’il y a eu
une net augmentation du CA. En revanche cette évolution n’était pas suivie par
une augmentation de la marge, on peut émettre deux hypothèses :
53
2) Il y a eu une baisse des prix ce qui a augmenté les ventes et influencer
négativement la marge
54
historique de ventes que de cinq ans seulement et on est en face d’un
marché instable,
2) L’échantillon de test est utilisé pour évaluer le modèle optimal (au sens du
résultat de la validation croisée). Il n’a donc pas été utilisé pour
l’apprentissage, ce qui fait que le modèle sélectionné est indépendant de
cet échantillon test. L’idée source est de simuler la réception de nouvelles
données afin de prédire la variable à expliquer à partir du modèle final et de
les comparer aux « vraies » valeurs de la variable à expliquer. Cet
échantillon permet d’évaluer objectivement l’erreur réelle.
4.2.1 Encoding
Nos données extraites de Sage sous format Excel comportent les colonnes ci-
dessous représentants les ventes de 2016 à 2020
55
Les performances d'un modèle d'apprentissage automatique dépendent non
seulement du modèle et des hyper-paramètres qu’on va voir par la suite, mais
également de la façon dont nous traitons et alimentons différents types de
variables dans le modèle. Étant donné que la plupart des modèles d'apprentissage
automatique n'acceptent que des variables numériques, le prétraitement des
variables catégorielles devient une étape nécessaire. Nous devons convertir les
variables catégorielles en nombres afin que le modèle soit capable de comprendre
et d'extraire des informations précieuses.
En termes simples, le but du codage catégoriel est de produire des variables que
nous pouvons utiliser pour former des modèles d'apprentissage automatique et
créer des fonctionnalités prédictives à partir de catégories.
Pour juger de l’efficacité d’un algorithme et donc du modèle qui en découle, il faut
calculer l’erreur des apprentissages effectués. Pour cela nous avons pris en
compte deux métriques pour analyser la qualité de prédiction des modèles.
56
L'étape essentielle de tout modèle d'apprentissage automatique consiste à évaluer
la précision du modèle.
Formule mathématique :
R2 = 1- SS res / SS tot
Interprétation du score R2 :
Supposons que R2 = 0,68
On peut se référer que 68% de l'attribut de sortie dépendant peut être expliquée
par le modèle tandis que les 32% restants de la variabilité sont encore
inexpliqués.
57
4.2.3 Hyper-paramétrage
L’espace des valeurs prises par les hyper-paramètres peuvent-être infinies (pour
des paramètres continus par exemple), c’est pourquoi il est nécessaire de
sélectionner manuellement un nombre fini de valeurs possibles. Si nous prenons
l’exemple de l’algorithme du gradient boosting, il existe une pléthore de
paramètres de réglage pour les apprenants basés sur des arbres dans XGBoost
les plus courants sont les paramètres ci-dessous:
58
plage: (0,1] colsample_bytreeest [Par défaut = 1] le rapport de sous-
échantillon des colonnes lors de la construction de chaque arbre. Le sous-
échantillonnage se produit une fois pour chaque arbre construit.
Pour chacun des algorithmes effectués, la même procédure est utilisée afin de
sélectionner les meilleurs jeux de paramètres. A la fin de l’étape d’hyper-
paramétrage, un modèle est obtenu pour chaque algorithme sélectionné avec des
hyper-paramètres optimaux.
59
Cette étape d’hyper-paramétrage n’est pas instantanée, dans le sens où il ne
s’agit pas d’insérer un nombre aléatoire de valeurs possibles pour chaque hyper-
paramètre puis de faire tourner la boucle de Grid Search pour obtenir en sortie un
jeu satisfaisant et passer à l’étape suivante.
Avoir plus de données est toujours une bonne idée. Il permet aux «données de se
dire par elles-mêmes», au lieu de s'appuyer sur des hypothèses et de faibles
corrélations. La présence de plus de données donne des modèles meilleurs et
60
précis. Dans notre cas on a ajouté la moyenne, le minimum, le maximum et l’écart
type des ventes par site des cinq dernières années. On a ajouté aussi la classe de
chaque référence en utilisant l’analyse ABC expliquée au chapitre précédent.
Algorithmes multiples
En tant que tel, LightGBM est devenu un algorithme de facto pour les compétitions
d'apprentissage automatique lorsqu’on travaille avec des données tabulaires pour
des tâches de modélisation prédictive de régression.
61
La régression Ridge
Dans la fonction de perte ci-dessus, alpha est le paramètre que nous devons
sélectionner. Une valeur alpha faible peut conduire à un ajustement excessif,
tandis qu'une valeur alpha élevée peut entraîner un ajustement insuffisant. Dans
notre la valeur de alpha est 0.84 en utilisant GRID SEARCH arrange(0, 1, 0.01)
La fonction de perte pour la régression Lasso peut être exprimée comme suit :
Dans la fonction de perte ci-dessus, alpha est le paramètre de pénalité que nous
devons aussi sélectionner. L'utilisation d'une contrainte de norme l1 force
certaines valeurs de poids à zéro pour permettre à d'autres coefficients de prendre
des valeurs non nulles.
Régression ElasticNet
62
Dans scikit-learn, un modèle de régression ElasticNet est construit à l'aide de la
classe ElasticNet.
Bagging regressor
Gradient Boosting
63
learners » en « strong learner » se fait par l’appel successif de ceux-ci pour
estimer une variable d’intérêt.
Dans le cadre d’une régression, le principe va être d’estimer les outputs par le
modèle 1, puis d’utiliser les résidus de ce modèle comme variable cible du modèle
2 et ainsi de suite. XGBOOST est un algorithme de Gradient Boosting.
Nous venons de voir que l’étape de validation croisée précédente est réalisée
pour les différents modèles utilisés. Chacun de ces modèles possède désormais
son jeu de paramètres optimal calibré sur les données d’apprentissage.
Le choix du modèle se fait au moyen de l’échantillon test qui a été laissé de côté
jusqu’à maintenant. Cette partie n’a jamais été utilisé par les algorithmes de
machine learning. Il va donc permettre de voir si le modèle calibré possède une
bonne capacité de généralisation, c’est-à-dire une bonne qualité de prédiction de
la migration de note même face à de nouvelles données jamais rencontrées
jusqu’à aujourd’hui.
Chacun des modèles est testé sur l’échantillon test, les prédictions qui
représentent les ventes prévisionnelles de la pièce détachée sont comparées aux
données réelles par le biais des métriques d’erreurs explicitées précédemment.
Une fois erreurs calculées, elles ont été comparées afin de sélectionner le meilleur
modèle.
R2_score RMSE
64
LGB 0.6826 28.9714
Le tableau ci-dessus présente les résultats obtenus. Ces derniers indiquent que la
méthode de LGB est à privilégier. Le R2_score est de 0,6826 ce qui nous amène
à penser que le modèle créé est performant.
Après avoir généré les prédictions des mois futures grâce aux algorithmes, nous
allons mettre en place un tableau de bord qui nous permettra de calculer
Purshases, Sales, Incomes mensuellement (le PSI) .
Pour le stock du mois en cours, une extraction doit être faite de X3 à la fin de
chaque mois. Pour le stock des mois d’après le calcul se fait comme suit :
Pour effectuer ce calcul, nous avons inséré une boucle qui récupère les données
(Stock, IN, OUT) de chaque article du mois précèdent pour obtenir le stock
mensuel du mois N. Cette opération se répète pour chaque mois à prédire.
65
IN : Il représente les réceptions à la fin de chaque mois par article
Le IN du mois en cours fera l’objet d’une extraction de X3 mais les mois à prédire
représenteront le projet de commande de chaque mois suivant la formule ci-
dessous :
Une boucle est mise en place pour calculer automatiquement l’ensemble des
mois
Les ventes mensuelles futures de chaque article sont représentées par les
prédictions des ventes générées par notre algorithme le plus précis.
66
Figure 24 : PSI
67
Conclusion Générale
La science de données « Data science » est considérée parmi les sciences les
plus dynamiques dans notre époque moderne. C’est un champ vaste qui connait
des améliorations en vue de recherche de maturité. Ceci est dû en parti aux
secteurs d’usage où le domaine du Data science et Machine Learning apportent
leurs atouts en vue de mieux servir les pratiques où même révolutionner les
méthodes de travail.
Ceci dit, nous avons adopté une démarche académique et scientifique visant à
mettre en place un modèle de Machine Learning prédictif avec son déploiement.
En s’intéressant en premier lieu à une étude théorique visant à s’approprier des
différents concepts fondamentaux qui constituent notre thème de recherche. Cette
étude documentaire nous a permis de cerner les principaux algorithmes de
régression ainsi que les autres compartiments du data science modélisés par la
communauté scientifique.
Ensuite, nous avons entamé la partie empirique en commençant tout d’abord par
la présentation de l’entreprise d’accueil, le pre-processing du fichier d’entrée ainsi
que la mise en place des algorithmes de régression pour prédire les ventes
mensuelles.
Pour conclure, notre algorithme peut prédire les ventes de la PDR existante mais il
ne peut pas prédire les ventes de nouvelles références. Pour pallier à ce problème
il faut lier la prédiction de la PDR avec le parc existant des engins et faire une
mise à jour mensuelle des références.
68
BIBLIOGRAPHIE
Davenport et DJ Patil « Data Scientist: The Sexiest Job of the 21st Century »,
Harvard Business Review, 2012
« Data Science Blog » [archive], sur France Data Science Blog, 2020 (consulté
le 19 juin 2020).
Kégl B (2014) La science des données pour les données de la science. In 9th
Journées Informatique de l'IN2P3-IRFU.
69
« apprentissage automatique » [archive], Le Grand Dictionnaire terminologique,
Office québécois de la langue française (consulté le 01 Octobre 2020).
Danah Boyd et Kate Crawford, « Critical Questions for Big Data : Provocations
for a cultural, technological, and scholarly phenomenon », Information,
Communication & Society, 2011.
70