Académique Documents
Professionnel Documents
Culture Documents
Chapitre 4
Toutes les bases statistiques nécessaires dans cet ouvrage se trouvent dans
l'annexe statistique en fin d'ouvrage.
1
1. Les 5 « M » du processus
Tous les processus, quels qu’ils soient, sont incapables de produire toujours
exactement le même produit. Cela tous les opérateurs le savent bien et c’est
d’ailleurs un des problèmes principaux auxquels les régleurs sont confrontés
tous les jours.
Méthodes Milieu
• Machine Gamme
• Main-d’œuvre
• Matière
Machine
• Méthodes Matière
• Milieu
Main-d'œuvre
La mesure est un processus à lui tout seul avec ses propres 5M. Un préalable
à la maîtrise d'un processus de fabrication et la maîtrise du processus de
mesure.
moyenne µ
Modèle :
loi de Gauss
Écart type σ
Observation
d'un échantillon
Dispersion = 6 σ
Dans le cas d'une machine de production, nous sommes bien dans le cadre de
ce théorème. En effet, de nombreux facteurs (les 5M) agissent sur la
caractéristique. Ces facteurs sont en grande partie indépendants et l'ordre de
grandeur de ces effets est faible dans un processus maîtrisé.
Premier Second
réglage réglage
Causes Communes
-3 Cible +3
Dans les cas traditionnels, si une distribution n’a pas la courbe en forme de
cloche, c’est qu’il se passe quelque chose, le théorème central limite n'est pas
vérifié. Il y a donc un (ou plusieurs) facteur qui agit avec un ordre de
grandeur plus important que les autres. Le processus n’est pas réglé sur la
même position. En effet, si l’on produit 50 pièces réglées sur la valeur -3, et
50 pièces réglées sur +3, on obtient la courbe figure 3.
Il est donc important lorsqu’on regarde une distribution de bien vérifier que
la courbe à la forme d’une cloche. Si ce n’est pas le cas c’est probablement
le signe qu'un ou plusieurs déréglages importants se sont produits pendant la
production.
Cette dichotomie entre les causes de dispersion est une des bases
fondamentales de la méthode MSP. Il convient donc de les expliciter
davantage.
Causes spéciales
Causes
communes
Tolérance
Maxi
Tolérance
Cible
Mini
Souvent, les opérateurs pilotent les processus à partir des limites de tolérance
plutôt que d'utiliser les limites naturelles. Cela peut conduire à deux types
d'erreurs illustrées par la figure 7.
Tolérance Tolérance
Pièce
prélevée
Dispersion Dispersion
Limite Limite Limite Limite
Naturelle Cas 1 Naturelle Naturelle Cas 2 Naturelle
Dans le cas 1, processus capable, l'opérateur prélève une pièce qui se situe à
l'intérieur des tolérances. Traditionnellement, cette pièce étant
« bonne », il continue sa production. Pourtant, la pièce est en dehors des
limites naturelles. Le processus n'est pas centré sur la cible, il faut régler.
Dans le cas 2, processus non capable, l'opérateur prélève une pièce qui se
situe à l'extérieur des tolérances. Traditionnellement, cette pièce étant «
mauvaise », il règle le processus. Pourtant, la pièce est dans les limites
naturelles. Il est possible que le processus soit parfaitement centré. Dans ce
cas on ne doit pas toucher au processus.
Comme le montrent les deux exemples précédents, il faut dissocier l'action
sur le processus (réglage) et l'action sur le produit (acceptation, tri,
contrôle…).
• Les tolérances servent à déterminer si les pièces qu'on vient de faire
sont bonnes ou mauvaises. Elles servent à agir sur les pièces pour
décider de l'acceptation ou du refus des pièces que l'on a fabriquées.
On regarde en arrière.
• Les limites naturelles servent à déterminer si le processus de
fabrication est toujours centré sur la cible. Elles servent à agir sur le
processus pour que les prochaines pièces à réaliser restent bonnes. On
regarde en avant.
Ainsi, même dans le cas d'un contrôle à 100 % en petite série, on a intérêt
d'utiliser un raisonnement statistique.
Dispersion
Figure 9 – Addition du réglage et de la dispersion
Pour être capable de piloter une machine, il faut arriver à éliminer l'effet de
la dispersion afin de déterminer où se trouve le réglage de la machine. La
seule solution est de ne pas raisonner sur une seule valeur, mais sur la
moyenne de plusieurs valeurs. Le fait de faire une moyenne élimine en
grande partie l'effet de la dispersion.
Dispersion
sur la
moyenne
Probabilité de
détecter le
Dispersion décentrage avec
une seule valeur
Date 23/02
Heure 6h00 6h30 7h00 7h30 8h00 8h30 8h35 9h00 9h30
Mesure 1 1 -1 1 0 1 0 -2 -1 -2
Mesure 2 1 0 0 0 1 2 1 1 -1
Mesure 3 -2 -2 -1 -3 0 3 -1 1 -1
Mesure 4 1 0 -1 -1 1 2 -1 -1 0
Mesure 5 0 0 0 0 0 3 2 0 0
Total 1 -3 -1 -4 3 10 -1 0 -4
Étendue 3 2 2 3 1 3 4 2 2
Limite inférieure -1
de contrôle -2 Vérification du réglage
Limite supérieure
de contrôle 6
4
Moyenne
étendues 2
Étendue de l'échantillon
Dérive détectée
par la carte Cible
des moyennes
Dérive détectée
par la carte
des étendues
Cas 1 Cas 2
Définir
Identification des paramètres critiques
du processus
Mesurer
Vérification de la capabilité du moyen de mesure
Mesurer
Observation du processus
(Réaliser une carte de contrôle sans limite) Problèmes de
capabilité
Analyser
Amélioration continue
Analyser
Recherche des sources de variabilité
Contrôler ❏ Analyse des 5 M
Suivi et pilotage par carte de contrôle ❏ Analyse de la variance
Détection des causes spéciales ❏ Etudes des corrélations …
Mise « sous contrôle » du processus
Innover - Améliorer
Réduction de la variabilité
❏ Plans d’expériences, plans produits
❏ Mise en place des améliorations
Standardiser
Optimisation du processus,
Le processus est mis « sur rails »
Diminution de la fréquence des contrôles
La figure 16 illustre les étapes de mise sous contrôle d'un processus. On note
sur ce diagramme les deux étapes préalables très importantes qui sont :
4.2. Définir
Pièce A Pièce B
Largeur10
Diamètre2
Diam7tre4
Hauteur8
Longueur
Caractéristiques client
Parallélism
Profondeur
Importance
2
e
sur le produit
(Tous les clients
Assemblage, produit
fini…)
Fonctionnement souple 5 9 9
Pas de jeu visible 3 9 3 9 3
Assemblage sans forcer 2 3 1 9
Fiabilité 5 3 1 9
Importance 72 24 11 27 54 47 18
Capabilité prévisionelle Ppk
L'impact est noté 1 (Faible); 3 (Moyen); 9 (Fort)
Exemple
• Dans un premier temps on donne une note d'importance à chaque
caractéristique client, puis on pondère l'impact de chaque
caractéristique élémentaire sur les caractéristiques clients.
Ce point est un point essentiel dans la réussite de la mise sous contrôle d'un
processus. Il est inutile de placer une carte de contrôle si la dispersion de
l'instrument de mesure occupe déjà la presque totalité de la tolérance comme
nous l'avons vu parfois ! La première étape consiste à vérifier si on sait
mesurer dans de bonnes conditions de répétabilité et de reproductibilité.
Nous conseillons vivement au lecteur de se reporter au chapitre 3 sur les
capabilités des moyens de mesure notamment de la méthode R&R avant de
mettre en place une carte d'observation.
Les cartes de contrôle ont pour objectif de surveiller que les variations
observées sur le processus ne sont pas supérieures aux variations
« normales » générées par les causes communes. Il faut donc connaître,
avant de mettre en place une carte de contrôle, quelles sont ces variations.
C'est le but de cette phase d'observation.
Une méthode très simple pour réaliser cette phase d'observation consiste à
remplir une carte de contrôle sur laquelle aucune limite n'aura été portée. Les
prélèvements s’effectuent par petits sous-groupes de taille constante et
identique à celle qui sera retenue pour la carte de contrôle (on prend en
général de 3 à 6 pièces consécutives prélevées de façon périodique par
exemple toutes les 15 minutes, 2 fois par équipe, un prélèvement par bac...).
Le but de ce travail étant d'éliminer toutes les variabilités qui peuvent être
supprimées par la simple observation du processus. Une fois cette étape
réalisée, on peut mettre en place la carte d'observation.
Lors des prélèvements des pièces, il faut respecter les conditions essentielles
suivantes :
1. les pièces à l’intérieur de chacun des sous-groupes doivent être
produites dans des conditions très similaires sur un très court intervalle
de temps. Il est donc hors de question qu'un réglage ait lieu à
l'intérieur d'un prélèvement. Mais, il est tout à fait possible de réaliser
des corrections entre deux prélèvements.
2. la taille des échantillons doit demeurer constante pour tous les sous-
groupes.
Lorsqu'on travaille sur des machines multipostes telles que les transferts
rotatifs, les tours multibroches, nous montrerons qu'il est préférable de
prélever des échantillons de taille égale au nombre de postes. On prendra par
exemple 6 pièces sur une machine
multibroche à 6 broches. L'inconvénient d'un nombre tel que 6 ou 8 réside
dans les calculs de moyenne qui nécessitent l'utilisation d'une calculette.
Bien entendu cet inconvénient disparaît si le calcul des cartes a été
automatisé par un logiciel MSP.
Fréquence d’échantillonnage
Le but du prélèvement étant de donner une image du processus sans pour
autant mesurer toutes les pièces, il faut que la fréquence d’échantillonnage
donne une image la plus juste possible du processus.
Évolution réelle
du processus
X5 0 -1 2 2 0 2 0 3 -1 2 -3 0 2 -1 1 3 0 0 2 2
Xb 2.2 -0.2 1.0 0.4 1.0 2.6 1.6 1.2 0.8 2.4 1.0 1.0 1.0 1.8 0.8 1.4 -0.6 0.6 1.0 1.0
R 7 5 5 3 4 4 3 3 3 3 6 3 3 4 4 3 3 4 5 4
3.0
2.0
1.0
X 0.0
-1.0
-2.0
-3.0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
38.0
2.0
6
1.0
R 0.04
-1.0
2
-2.0
0
-3.0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
4.4. Analyser
La moyenne des étendues est très importante car elle indique l'importance de
la variabilité naturelle du processus.
Calcul des limites de contrôle
Les limites de contrôle se calculent en utilisant les formules suivantes :
Carte X-bar-R
1
1
UCL=2.278
2
Moyennes
1
_
0 X=0
-1
-2 LCL=-2.278
1 3 5 7 9 11 13 15 17 19
8 UCL=8.352
6
Étendues
_
4 R=3.95
2
0 LCL=0
1 3 5 7 9 11 13 15 17 19
Échantillon
4.5. Contrôler
4.5.1. Pilotage du processus par cartes de contrôle
Lors de cette phase, le processus est piloté en observant les cartes de
contrôle. Pour une efficacité maximale des cartes de contrôle, il est
indispensable que les décisions d'actions sur le processus soient dictées par
les cartes. Le pilotage par cartes de contrôle doit se substituer et non
s'additionner aux méthodes empiriques de pilotage. Cette remarque préalable
peut sembler anodine, elle est pourtant fondamentale. De très nombreuses
applications de cartes de contrôle ont échoué faute d'avoir mis en pratique
cette remarque.
Méthode de pilotage
La phase de pilotage consiste donc à observer les cartes, les interpréter afin
de détecter l'apparition de causes spéciales et de réagir avant de générer des
produits hors spécification. Les interprétations des cartes de contrôle sont
relativement simples, il suffit de connaître les quelques situations de base.
Décision Décision
Graphique Description
carte des moyennes carte des étendues
Processus sous contrôle
LSC • Les courbes X et R os-
cillent de chaque côté
de la moyenne. Production Production
• 2/3 des points sont dans
LIC
le tiers central de la
carte.
Cas limite supérieure
• La capabilité court terme se dé-
Point hors limites tériore. Il faut trouver l'origine de
LSC Régler le processus
cette détérioration et intervenir.
Le dernier point tracé a • Il y a une erreur de mesure
de la valeur de l'écart qui sé-
franchi une limite de Cas limite inférieure
pare le point de la valeur cible.
LIC contrôle. • La capabilité court terme s'amé-
liore
• Le système de mesure est bloqué
Cas tendance supérieure
• La capabilité court terme se dé-
Tendance supérieure
tériore. Il faut trouver l'origine de
LSC ou inférieure Régler le processus
cette détérioration et intervenir.
Cas tendance inférieure
7 points consécutifs sont de l'écart moyen qui sépare la
• La capabilité court terme s'amé-
supérieurs ou inférieurs à tendance à la valeur cible
LIC liore. Il faut trouver l'origine de
la moyenne .
cette amélioration pour la main-
tenir.
Cas série croissante
Tendance croissante • La capabilité court terme se dé-
Régler le processus
ou décroissante tériore. Il faut trouver l'origine de
LSC
cette détérioration et intervenir.
si le dernier point approche les
7 points consécutifs sont Cas série décroissante
limites de contrôle de l'écart
en augmentation réguliè- • La capabilité court terme s'amé-
qui sépare le dernier point à la
LIC re ou en diminution ré- liore. Il faut trouver l'origine de
valeur cible
gulière. cette amélioration pour la main-
tenir.
Confirmer
Cas limite supérieure
en prélevant immédiatement
1 point proche Surveiller la capabilité
un autre échantillon.
LSC des limites
Si le point revient dans le tiers
Si plusieurs points de la carte sont
central – production
Le dernier point tracé se également proches de la limite su-
Si le point est également pro-
situe dans le 1/6 au bord périeure, la capabilité se détériore.
LIC che des limites ou hors limites,
de la carte de contrôle Il faut trouver l'origine de cette dé-
régler de la valeur moyenne
térioration et intervenir.
des deux points
En cas de réglage : un nouvel échantillon est mesuré et marqué sur la carte. Pour être acceptable, le point doit se
situer dans le tiers central de la carte des moyennes
Le dernier point
Cp compris entre Cp supérieur à
sur la carte de Cp inférieur à 1,33
1,33 et 1,67 1,67
contrôle indique :
4.7. Standardiser
Les cartes étant en place, il faudra interpréter celles-ci afin de détecter
l'apparition des causes spéciales. Nous serons alors dans la phase d'utilisation
des cartes de contrôle. L'utilisation des cartes de contrôle motive les
opérateurs et l'encadrement à améliorer le processus et ainsi, à diminuer la
variabilité naturelle de celui-ci. Lorsque cette variabilité aura diminué, il
faudra alors recalculer les cartes... et continuer à améliorer. Nous entrons
alors dans la phase d'amélioration continue qui est en fait l'objectif de la
MSP. Le but est de mettre le processus sous contrôle, nous utilisons le mot «
sur rails » pour bien imager le but de ce travail : limiter au maximum le
nombre d'interventions nécessaires pour maintenir la caractéristique sur la
cible.
Enfin toutes les bonnes pratiques qui ont été mises en place dans le projet
doivent être dupliquées aux autres processus. Les démarches de pilotage
doivent être formalisées afin de garantir la pérennité de la mise sous
contrôle.
Chapitre 5
Le concept de capabilité
dans le MSP
5.1. Le besoin de formaliser une notion floue
Le concept de capabilité est certainement la notion la mieux répandue dans
les ateliers de production. En effet lorsqu'on analyse la plupart des
conversations techniques sur un domaine de production, on s'aperçoit que
ces discussions reviennent souvent à des problèmes de capabilité. Les
problèmes sont généralement ramenés à la question suivante : ce moyen de
production est-il oui ou non adapté aux exigences du produit qu'il est censé
fabriquer ? Et pourtant, combien de discussions stériles ont lieu sur le sujet à
cause des divergences d'opinion des intervenants sur la capabilité du moyen
de production.
Les responsables de production ont toujours une vague idée de la qualité des
machines disponibles dans l’atelier, mais ils sont incapables de mettre une
valeur numérique derrière cette impression. Or il est fondamental, lorsqu’on
parle de qualité, d’être précis et de savoir exactement ce dont est capable le
processus par rapport à ce qu’on lui demande.
Dispersion = 6σ Dispersion = 6σ
Figure 25 – L'indicateur Pp
Nous venons de voir qu'une des conditions nécessaires pour qu'un processus
soit capable est que l'indicateur Pp soit supérieur à 1,33. Cette condition est-
elle suffisante ?
Dispersion Dispersion
Pp = 1,5 Pp = 1,5
Dans la figure 26, les deux situations ont un Pp supérieur à 1,33, et pourtant,
lorsque la production est décentrée, il existe des pièces hors tolérance.
L'indicateur Pp est donc insuffisant et il faut mettre en place un autre
indicateur Ppk, qui tiendra compte du déréglage du processus.
Cet indicateur devra être aussi simple d'interprétation que le Pp, c'est-à-dire
que le processus sera capable si Ppk est supérieur à 1 (dans un premier
temps). Bien sûr, comme pour le Pp, un Ppk de 1 sera trop risqué, nous
retiendrons comme limite 1,33.
D2
Dispersion
Le terme Ppk vient du fait que l'on calcule le Pp du coté le plus proche de la
spécification en faisant le ratio entre la distance exprimé en nombre d'écart
type (kσ) divisée par la moitié de la dispersion (3σ). On a donc Ppk = k/3
Mais il ne faut pas pour autant négliger le Pp. En effet, en comparant pour
un processus le Pp et le Ppk, nous pouvons obtenir de précieux
renseignements.
En cas de réglage parfait, on vérifie aisément que Pp = Ppk. En revanche,
plus le déréglage est important et plus la différence entre Pp et Ppk devient
importante. L'objectif des opérateurs sera donc d'avoir un Ppk le plus proche
possible du Pp.
Caractéristique
Tolérance Supérieure
Dispersion
Dispersion
court terme
long terme
DCTCT
DLTLT
Tolérance Inférieure
Temps
Première méthode
Intervalle de tolérance IT
Cp
Dispersion court terme du processus 6σCT
Remarque : On trouve également dans certain cas l'indicateur CR :
6σCT
CR 1
Cp Tolérance
Deuxième méthode
Nous pensons en effet (figure 29) que, dans certains cas, un Ppk de bon
niveau (Ppk = 2) peut donner moins de satisfaction qu’un Ppk considéré
comme limite (Ppk de 1,33). Dans les relations clients/ fournisseurs établies
sur le Ppk, les deux productions donnent satisfaction. Pourtant une des
productions est centrée avec le maximum de densité de probabilité sur la
valeur cible, alors que la seconde est décentrée et la densité de probabilité
pour la valeur cible est pratiquement nulle.
Nous pensons que limiter les exigences en matière de capabilité au seul Ppk
peut être dangereux. Le seul respect de l'indicateur de performance Ppk >
1,33 peut conduire à des montages impossibles dans le cas d'un
tolérancement statistique (voir chapitre 10).
X Cible
IT Cp
Cpm = = 2
1 + 9(Cp − Cpk)
2 2
6. σi + X − Cible
49.95 50.05
LSL 50.009 USL
σ = 0.009
Le processus est jugé juste capable selon le critère Ppm (Ppm > 1,33).
Cela signifie que la perte moyenne générée par les produits de cette
population est égale à la perte moyenne d’une population centrée ayant une
performance Pp de 1,33.
Bien que la seconde solution semble plus difficile à respecter a priori, nous
sommes persuadés qu’à long terme cette solution est de loin la plus
économique en matière de moyens de production à mettre en œuvre.
Cependant, si le Ppm offre une vision plus moderne des capabilités que le
Pp, Ppk, il ne les remplace pas pour autant, mais plutôt il les complète. Nous
proposons au chapitre 11 une approche novatrice de tolérancement (le
tolérancement inertiel) fondée sur cette approche.
On peut donc établir le tableau suivant qui précise les différents indicateurs
de capabilité que l'on peut calculer.
Court terme
capabilité Cp Cpk Cpm
(1/4 heure)
Long terme
performance Pp Ppk Ppm
(1 semaine)
Court terme
Cp Condition
d'acceptation
Stabilité Long terme
potentiel
du processus
Pp
Caractéristique Caractéristique
Dispersion Dispersion
Dispersion long terme Dispersion long terme
court terme court terme
Chaque caractéristique ayant une case grisée doit être discutée pour
permettre une amélioration. On note l'intérêt du Ppm qui globalise
l'ensemble de la chute de capabilité. L'interprétation du tableau figure 35 est
la suivante :