Académique Documents
Professionnel Documents
Culture Documents
présentée à
Emmanuel DUCLOS
pour obtenir le
Le travail présenté dans ce mémoire a été réalisé au Laboratoire de Logiciels pour la Productique
d’Annecy (LLP/CESALP) dirigé par Monsieur Alain HAURAT. Je tiens à lui adresser mes
remerciements pour m’avoir accueilli au sein de son laboratoire. Je remercie particulièrement
Maurice PILLET pour le travail qu’il a effectué a mes côté ainsi que pour les rapports chaleureux
qu’il a su entretenir.
Je tiens à remercier Alain COURTOIS Professeur à l’Université de Savoie pour les précieux
conseils qu’il m’a donné au cours de ce travail.
Je suis très reconnaissant à Monsieur Gilbert SAPORTA, Professeur au Conservatoire National des
Arts et Métiers de Paris, d’avoir accepté d’être rapporteur de ce travail.
Je remercie vivement Monsieur Guy COLLIARD, directeur d’ODS Europe, dont la motivation a
été déterminante pour l’élaboration de cette convention CIFRE.
Je remercie également les entreprises qui m’ont permis de mettre en œuvre et de tester les
méthodes présentées dans ce mémoire : DAPTA, ID, SALOMON, ...
Je remercie Mohammed TABIZA, doctorant au LAMII, pour le temps qu’il m’a consacré lors de
longues séances d’initiation à la statistique, ainsi que Pascal ZAVAGNO pour son dévouement et
ses nombreux coups de main en informatique.
Je remercie enfin, tous les membres du LLP pour l’ambiance chaleureuse à laquelle ils contribuent,
avec une mention particulière pour Régis, Olivier, Isabelle et Gulçin qui ont partagé mon bureau.
Table des matières
Chapitre 1
Concepts et outils statistiques de la M.S.P.
Chapitre 2
La non normalité abordée par la Maîtrise Statistique des Procédés
Chapitre 3
Mise en place d’une carte de contrôle pour les procédés non normaux
Chapitre 4
Application industrielle de la carte L
Chapitre 5
Conclusion et Perspectives
Chapitre 1
Concepts et outils statistiques de la M.S.P.
1. Introduction______________________________________________________________1
2. Statistiques d’ordre et L-estimateurs___________________________________________3
2.1 Introduction aux statistiques d’ordre_____________________________________________3
2.1.1 Les statistiques d’ordre______________________________________________________________3
2.1.2 Lois de probabilité associées à une statistique d’ordre______________________________________4
2.1.3 Moments des statistiques d’ordre______________________________________________________4
2.2 Les L-statistiques______________________________________________________________5
2.2.1 Loi asymptotique des L-statistiques____________________________________________________5
2.2.2 Robustesse des L-statistiques_________________________________________________________7
3. Proposition d’un autre estimateur pour les cartes de contrôle_______________________8
3.1 Choix de l’estimateur___________________________________________________________8
3.2 Le L-estimateur des moindres carrés______________________________________________9
3.2.1 Présentation______________________________________________________________________9
3.2.2 Estimation par les moindres carrés_____________________________________________________9
3.3 Cas particulier des distributions symétriques______________________________________11
3.3.1 Etude qualitative du L-estimateur_____________________________________________________12
Calcul du L-estimateur par la méthode de Lloyd___________________________________________12
Calcul du L-estimateur par la méthode de Bovik___________________________________________14
Variance asymptotique du milieu_______________________________________________________14
3.3.2 Etude de la P.OM.________________________________________________________________16
3.4 Généralisation au cas non symétrique____________________________________________18
3.4.1 Choix du paramètre de localisation___________________________________________________18
Cas d’une fonction perte symétrique__________________________ __________________________ 18
Cas d’une fonction perte non symétrique_________________________________________________19
3.4.2 Choix du paramètre de dispersion____________________________________________________21
3.4.3 Exemple d’application d’un L-estimateur à une loi non normale.____________________________21
Caractéristiques de la population_______________________________________________________21
Etude de variance___________________________________________________________________22
Distribution des estimateurs___________________________________________________________23
4. Mise en oeuvre de la carte L________________________________________________24
4.1 Construction du L-estimateur___________________________________________________24
4.2 Démarrage d’une carte L_______________________________________________________25
4.2.1 Les procédés à évolution lente_______________________________________________________25
4.2.2 Les procédés à évolution rapide et les petites séries.______________________________________28
Les méthodes bootstrap______________________________________________________________28
Application à un échantillon ordonné____________________________________________________28
Pré-requis à l’utilisation de la méthode bootstrap___________________________________________30
Exemple d’application_______________________________________________________________30
4.3 Calcul des limites de contrôle___________________________________________________32
4.3.1 Problématique____________________________________________________________________32
4.3.2 Intervalle de confiance pour un paramètre de localisation__________________________________32
Intervalle de confiance pour un p-quantile________________________________________________33
Intervalle de confiance « universel »____________________________________________________33
Limites traditionnelles des cartes de contrôle______________________________________________34
4.3.3 Choix des limites de contrôle________________________________________________________34
Tolérance aux valeurs extrêmes________________________________________________________34
4.3.4 Intervalle de confiance pour le paramètre d’échelle_______________________________________35
4.4 Incidence sur les règles de pilotage_______________________________________________36
4.4.1 Procédé sous contrôle______________________________________________________________36
4.4.2 Procédé hors contrôle______________________________________________________________37
4.4.3 Tendance Supérieure ou Inférieure à la cible____________________________________________37
4.4.4 Tendance Croissante ou Décroissante_________________________________________________38
4.4.5 Point proche d’une limite de contrôle__________________________________________________39
4.4.6 Synthèse des règles de pilotage________________________________________ ______________39
4.5 Sensibilité de la carte L________________________________________________________40
4.5.1 Sensibilité à un décentrage__________________________________________________________40
Cas d’une non normalité très marquée___________________________________________________40
Cas d’une faible non normalité_________________________________________________________43
Remarque_________________________________________________________________________44
4.5.2 Sensibilité à une déformation de la population___________________________________________44
Cadre de notre étude_________________________________________________________________44
Résultats__________________________________________________________________________47
Conclusion________________________________________________________________________48
4.5.3 Le cas particulier des défauts de forme_________________________________________________50
Choix des paramètres à estimer____________________________ ____________________________ 50
Variance du L-estimateur dans le cas des défauts de forme___________________________________51
Conclusion________________________________________________________________________52
4.6 Extensions de la carte L________________________________________________________53
4.6.1 La carte CUSUM L________________________________________________________________53
Principe de la carte CUSUM-L_________________________________________________________53
Exemple d’application_______________________________________________________________54
P.O.M. de la carte CUSUM-L_________________________________________________________55
Conclusion________________________________________________________________________56
5. Conclusions et perspectives_________________________________________________57
Une approche généraliste_____________________________________________________________57
Avantages de la carte L______________________________________________________________57
Mise en œuvre_____________________________________________________________________58
Les limites de la carte L______________________________________________________________58
Perspectives____________________________________ ___________________________________ 58
Chapitre 4
Application industrielle de la carte L
Après avoir présenté les concepts de la M.S.P, et certains de leurs développements récents, nous
rappellerons quelques notions importantes de la théorie de l’estimation. Nous aborderons en effet
dans notre exposé le problème des estimations s'appuyant sur un modèle statistique non
paramétrique.
Nous étudierons ensuite les différents cas de non normalité rencontrés dans le cadre d’applications
industrielles et certaines des méthodes proposées pour estimer les indicateurs de capabilité. Nous
discuterons également des performances de cartes de contrôle dédiées aux procédés non normaux et
de l’intérêt pratique des méthodes employées.
Pour améliorer les performances des cartes de contrôle dans le cas de procédés non normaux, nous
proposerons l’utilisation d’un estimateur non paramétrique qui a des propriétés intéressantes en
terme de variance pour un large ensemble de lois. Nous mettrons en évidence les performances de
ces nouvelles cartes de contrôle (la carte L) et présenterons plusieurs méthodes pour sa mise en
œuvre dans un contexte industriel. Ces études seront validées par des exemples d’application en
milieu industriel.
Chapitre I
Chapitre I
La M.S.P. sous ses différentes formes constitue aujourd’hui le fer de lance d’une stratégie de
prévention. La M.S.P. n’est pas à elle seule synonyme de qualité, on la conjugue avec d’autres
outils tels que l’AMDEC, les plans d’expérience, les techniques de régression, le QFD ainsi que les
7 outils de la qualité pour obtenir un ensemble cohérent, capable de soutenir le système qualité.
L’avènement de la M.S.P.
L’industrie japonaise utilise de façon intensive les outils statistiques depuis plus d’une quarantaine
d’années. L’évolution des méthodes de production et du niveau de qualité souhaité est à l’origine de
la prise de conscience des bénéfices importants qu’il était possible de réaliser grâce aux statistiques.
Au cours de l’histoire, le contrôle qualité s’est d’abord orienté sur le produit fini. Ce contrôle était
réalisé soit par un contrôle à 100% soit par un contrôle statistique alors qu’aucune de ces deux
méthodes ne permet d’obtenir 100% de produits bons. Les plans de contrôle nécessitent, en effet,
des prélèvements importants pour ne garantir qu’un niveau assez médiocre de produits non
conformes, alors que les niveaux de qualité requis sont souvent de l’ordre de quelques pièces par
millions (ppm).
D’autre part, les cadences de production ayant considérablement augmentées, il devient impossible
de procéder à du contrôle 100%. Ce type de contrôle ne donne d’ailleurs que des résultats
médiocres lorsqu’il est réalisé par l’homme, du fait de son caractère répétitif.
Enfin, le contrôle final, qu’il soit statistique ou à 100%, est très critiquable puisqu’il mobilise du
personnel qui n’apporte aucune valeur ajoutée au produit. Il garantit plus ou moins un niveau de
qualité pour le client mais n’empêche pas la fabrication de produits non conformes qui finissent par
s’avérer très coûteux pour les entreprises.
Ces constats ont donc motivé les entreprises à évoluer vers un contrôle, plus réactif, en amont du
produit fini. Il s’agit de l’auto-contrôle.
Le tableau (Figure 1 ) présente le degré d’utilité de chacun de ces outils pour les différentes étapes
de définition du processus de fabrication et de conception du produit. On remarque en particulier
que la M.S.P. est l’élément terminal de cette longue chaîne de spécifications et qu’elle est le seul
outil capable d’assurer la qualité du produit au niveau de l’outil de production.
Phases de PLAN QFD AMDEC AMDEC MSP
développement D’EXPERIENCES PRODUIT PROCEDE
Définition
du produit L J
Définition des
caractéristiques J J
Validation
du produit J J
Définition du
processus J L
Validation du
processus J J K
Définition des
spécifications J J K
Suivi et pilotage en
production J
J Utilisation Majeure L Utilisation Mineure (d’après Pil 931)
Figure 1
1
PILLET M. Contribution à la Maîtrise Statistique des Procédés - Cas particulier des petites séries - Thèse en
Sciences de L’ingénieur - Univ. Savoie -1993
Concepts de la M.S.P
La naissance de la M.S.P. remonte à la fin des années 20 par les célèbres travaux de Shewhart
[She 32]2 où ce dernier propose de déceler les causes de non qualité d’un produit à partir de tests
statistiques sous forme graphique ; la carte de contrôle est née. Dans les décennies qui ont suivi, la
M.S.P. s’est enrichie d’outils modernes répondant à de nouvelles attentes des industriels. Parmi les
applications de la M.S.P, nous nous limiterons à l’étude des outils dédiés aux critères mesurables.
Ces outils, aussi différents soient ils, s’appuient sur deux concepts essentiels de la M.S.P :
· L’analyse de capabilité
· Le pilotage par carte de contrôle
Bien que les concepts de capabilité et de carte de contrôle n’aient pas été introduits en même temps,
ils sont très étroitement liés.
Une étude de capabilité permet de définir si le procédé de fabrication est apte à fournir un produit
avec le niveau de qualité requis. Les indices de capabilité consistent en effet à comparer la qualité
d’une production sur une période donnée, par rapport à un objectif donné.
Tandis que les cartes de contrôle permettent de piloter un procédé, afin de maintenir et d’améliorer
sa capabilité.
Notion de capabilité
Introduction
2
SHEWHART Economic Control of Quality of Manufactured Products -Van Nostrand Co. Inc Princeton - 1932
Ce problème sera largement abordé dans le chapitre suivant, c’est pourquoi nous ne nous y
attarderons pas plus longtemps.
Deux générations d’indicateurs de capabilité ont ainsi vu le jour :
· Les indicateurs de première génération qui s’appuient sur un calcul de la dispersion des mesures.
· Les indicateurs de deuxième génération, qui se basent sur la fonction perte introduite par
Taguchi.
Il n’est plus besoin de vanter les mérites des indicateurs de capabilité Cp et Cpk. Ils sont déjà
largement utilisés dans l’industrie pour définir la qualité d’un produit livré au client.
Rappelons les formules de ces indicateurs (Eq 0). On note m et s la moyenne et la dispersion de la
population, IT est l’intervalle de tolérance, TS et TI sont respectivement les Tolérances Supérieure
et Inférieure.
Cp=
IT
6s
Cpk =Min
TS −m , m−TI
3s
Eq 0
Ces indicateurs de capabilité sont indissociables si l’on souhaite formaliser correctement le niveau
de qualité d’une production. Cependant de nombreuses relations client fournisseur s’appuient
uniquement sur le Cpk, pour la simple raison que cet indicateur intègre à la fois une notion de
centrage et de dispersion.
On peut montrer au travers d’un exemple qu’un Cpk seul, ne permet pas de rendre compte de la
qualité d’un produit livré (Figure 2).
TI
8s TS TI
16 s TS
4s
6s 6s
Figure 2
On constate dans ces deux cas que le Cpk est de 1,33 alors que la qualité de ces produits est
fondamentalement différente. Dans le 1er cas le Cp est de 1,33 alors qu’il est de 2,67 dans le second
cas, ce qui peut conduire à la conclusion que la production 2 est de meilleure qualité. Or nous
verrons dans le paragraphe suivant que c’est exactement l’inverse.
L’utilisation du Cp et du Cpk ne permet donc pas une interprétation aisée de la qualité d’une
production. Il est encore plus difficile de comparer deux productions lorsque leurs Cp et Cpk sont
différents.
Le Cpm a été introduit par Hsiang T.C. et Taguchi G. [Hsi 85]3 bien après le Cp et le Cpk.
Cet indicateur a la particularité de prendre en compte à la fois la dispersion et le centrage de la
production. Son avantage est donc de fournir une indication précise sur la qualité de la production
au travers d’une seule valeur.
IT
Produit 1 Produit 2
Cible
Figure 3
Taguchi considère au contraire que tout écart d’un critère par rapport à la valeur cible est
dommageable pour la qualité du produit. Il propose donc d’évaluer la « non qualité » d’une
production en calculant un écart quadratique moyen par rapport à la cible, cette procédure est plus
connue sous le nom de « fonction perte de Taguchi ».
La perte engendrée par une valeur individuelle est donc évaluée par L=K X −Cible 2 .
Dans le cas d’un échantillon de moyenne m et d’écart type s la perte moyenne par pièce est donnée
par la relation (Eq 0) :
L= K s 2 m−Cible
2
Eq 0
3
HSIANG T. C. TAGUCHI G. A tutorial on Quality Control and assurance - The Taguchi Methods
ASA - Annual Meeting Las Vegas - 1985
Le Cpm est alors défini par (Eq 0) :
IT
Cpm=
6 s2 m−Cible 2
Eq 0
Notion de rendement
Une particularité intéressante du Cpm est d’intégrer une notion de rendement de réglage du
procédé. En effet, on constate que le Cpm est égal au Cp lorsque le procédé est parfaitement réglé :
c’est-à-dire lorsque Cp = Cpk. Plus le réglage se détériore (le Cpk s’écarte du Cp), plus le Cpm
tend vers 0.
2.5
2
Cp
1.5
Cpk
1 Cpm
0.5
0 k
0 1 2 3 4 5 6
Ainsi le Cpm s’avère beaucoup plus sensible au décentrage que le Cpk. On trouve par exemple un
Cpm de 1.33 pour un décentrage de k=1.11s alors que Cpk=1.33 pour un décentrage de k=2s.
Le cas unilatéral
Du fait de sa limitation aux critères bilatéraux le Cpm était encore considéré par certains
utilisateurs comme un outil mineur de la M.S.P. Une extension au cas unilatéral proposée par M.
Pillet [Pil 96b]4 [Pil 97b]5 élargit le cadre d’application du Cpm et le rend, ainsi, au moins aussi
attrayant que le Cp et le Cpk.
4
PILLET M. DUCLOS E. COURTOIS A. Généralisation de l’indicateur de capabilité Cpm -
Cas des tolérances unilatérales - Contrôle Industriel et Qualité - N°196 - Février 96
5
PILLET M. ROCHON S. DUCLOS E. Generalization of capability index Cpm. Case of unilateral tolerances
Quality engineering, accepté, USA
Nous avons vu précédemment que le Cpm intégrait une notion de rendement par rapport à une
situation où le procédé est parfaitement centré. Dans le cas unilatéral, il n’est pas possible de
centrer le procédé, c’est pourquoi nous allons définir une situation de référence (Figure 4) telle
que :
· la moyenne soit située à ls de 0 ;
· La moyenne soit située à 4s de la limite supérieure ;
· Le Cpm de référence soit de 1,33.
IT
ls 4s
e
Pert
X
Figure 4
La valeur l détermine le niveau de qualité souhaité, c’est pourquoi il doit être le fruit d’un
consensus entre le client et le fournisseur. Elle sera fixée entre 3 et 5.
IT 4 λ ⋅s 4 λ
Cpm= = =1, 33 d ' o A=
A s m A s 2 λ⋅s 1, 33 1 λ 2
2 2 2
Eq 0
l 3 4 5
A 1.66 1.46 1.33
Figure 5
La formule du Cpm est indépendante de la distribution de la population, ainsi son application est
particulièrement aisée dans le cas des défauts de forme.
Les pertes non symétriques
La philosophie du Cpm est très différente de celle des indicateurs Cp et Cpk. Alors que le Cp et le
Cpk sont très liés à la notion de pourcentages hors tolérance, le Cpm traduit plus la qualité globale
des produits.
Une des subtilités du Cpm est d’ailleurs de pouvoir considérer qu’un écart positif par rapport à la
cible peut engendrer des pertes différentes d’un écart négatif [Tag 89]6. Ce cas de figure est
rencontré fréquemment dans l’industrie lorsque le dépassement d’une tolérance provoque dans un
cas une opération de retouche sur le produit (faible coût), et dans l’autre cas un rebut (coût élevé).
TI TS
K 1
K
Cible
2
x1 x2
Figure 6
Dans ce cas, l’intuition nous dit que la meilleure politique n’est pas forcément de centrer la
production sur la cible pour minimiser la perte (Figure 6). Nous aborderons ce sujet plus en détail
dans le chapitre 3.
Rappelons enfin que les indicateurs de capabilités sont estimés en remplaçant m et s par des
et S), d’où une incertitudes qui se traduit par un intervalle de confiance, trop peu
estimations ( X
souvent utilisé. Nous verrons au chapitre 2 §2.3 une utilisation des intervalles de confiance sur les
indicateurs de capabilité.
6
TAGUCHI G. ELSAYED A. HSIANG T. C. Quality engineering in production systems - Mc Graw-Hill 1989
Les cartes de contrôle
Les principes de base
Les cartes de contrôle sont des outils indispensables pour réaliser un pilotage rationnel du procédé
de fabrication. Une application rigoureuse de cette méthode permet d’améliorer de manière
significative la capabilité du procédé pour deux raisons :
· L’emploi de critères de décisions statistiques permet de réduire les erreurs liées à un réglage
inopportun ou à une absence de réglage. Il en résulte une augmentation du rendement de
stabilité.
· De plus, l’application d’une politique consistant à viser une valeur cible permet d’augmenter le
rendement de réglage
Lorsque nous avons abordé la notion de capabilité, nous avons bien sûr parlé de la dispersion du
procédé. Cette variabilité provient de l’ensemble du procédé de production que l’on décompose
généralement en cinq sources élémentaires de dispersion (les 5M) et, par conséquent, cinq causes
fondamentales de la non qualité : Machine, Main d’œuvre, Matière, Méthodes et Milieu.
L’objectif de la qualité étant de réduire l’influence des causes de dispersion, on ciblera tout
naturellement notre action sur les 5M du procédé. Or, il est souvent difficile d’agir sur la dispersion
de la machine, à moins d’investissements importants. Cette dispersion résiduelle, que l’on qualifie
aussi de « dispersion naturelle », détermine donc la capabilité maximale que l’on puisse atteindre :
c’est la capabilité machine.
On distinguera donc deux types de dispersion : la dispersion instantanée causée par la machine et
dans une moindre mesure les « autres M », et la dispersion globale qui est une résultante des
variations causées par les 5M sur la période de production.
Dispersion Dispersion
instantanée globale Dispersion Dispersion
instantanée globale
Cote
Cote
Temps Temps
Figure 7
Pour réduire la dispersion globale du procédé et, donc, pour que la capabilité procédé tende vers la
capabilité machine, il est nécessaire de limiter les variations de consigne de la machine en la
pilotant. Le problème qui se pose alors est de distinguer les écarts du procédé qui sont naturels, de
ceux qui doivent entraîner un réglage.
Maintenir le procédé sous contrôle
En analysant finement la dispersion d’un procédé, on peut extraire deux causes essentielles de
dispersion. Il s’agit des causes communes, qui sont liées à des phénomènes aléatoires, et des causes
spéciales qui sont des causes de dispersion identifiables.
Contrairement aux causes communes, les causes spéciales nécessitent une intervention sur le
procédé.
Causes
Spéciales
Réglage 1 Réglage 2
Causes Communes
Les cartes de contrôle ont été développées dans le but de détecter l’apparition de causes spéciales et
de les dissocier des causes communes qui ne nécessitent pas d’intervention sur le procédé. Pour
cela on réalise deux tests statistiques :
· Le premier pour s’assurer que la machine n’est pas déréglée,
· Le second pour vérifier que la dispersion naturelle n’a pas changé.
La carte de contrôle proposée par Shewhart est constituées d’un test par intervalle de confiance,
pour vérifier la conformité d’un paramètre du procédé à une valeur théorique et une estimation
ponctuelle qui permet de déterminer le réglage à effectuer si la valeur du paramètre estimé a
évolué.
La carte de Shewhart, se compose de deux graphiques : une carte de position et une carte de
dispersion permettant respectivement de représenter l’évolution de la position et de la dispersion de
la machine (Figure 8).
Date
Heure
X1
X2
X3
X4
X5
Moyenne
Ecart-type
Figure 8
Intervalle de confiance
· L’autre alternative notée H1 est valide lorsque l’estimation m est différente de la valeur
théorique.
m¹m0
Deux types d’erreurs peuvent être commises lors d’un test d’hypothèse :
· On peut tout d’abord rejeter l’hypothèse nulle H0 alors qu’elle est vraie. La probabilité de faire
cette erreur (type I) est aussi appelée risque a ou risque fournisseur.
· On peut également accepter l’hypothèse nulle H0 alors qu’elle est fausse. La probabilité de faire
cette erreur (type II) est aussi appelée risque b ou risque client.
Carte position
Pour construire la carte de position, on suppose qu’en l’absence de causes spéciales, la population
suit une loi normale.
Dans le cas de la carte de Shewhart, nous considérons que l’écart type s de la population est connu.
On en déduit que l’écart type de la moyenne d’un échantillon de n observations est : s / n .
LIC
LSC
s
Risque
a /2 Popula
tion
Cible
Dispersion naturelle de la
moyenne
Figure 9
Pour déterminer les limites de contrôle de la carte qui, comme on peut le constater sur la Figure 9,
correspondent à la dispersion naturelle de la moyenne, on se fixe un risque a.
On note u une variable aléatoire distribuée selon une loi normale réduite :
∣Moyenne−Cible∣
u=
s/ n
La table de la loi normale réduite fournit la probabilité que les réalisations d’une variable aléatoire
X distribuée selon la loi normale réduite soit supérieure à la valeur u.
En consultant cette table, on note que pour u=3, le risque a=0,0027. Si ce risque nous apparaît
satisfaisant, on place les limites de contrôle selon la relation (Eq 0).
s
LSC =Cible3
n
s
LIC =Cible−3
n
Eq 0
Calcul de la dispersion
Le calcul des limites de contrôle de la carte de position suppose que l’écart type des observations
soit connu. Cela n’est généralement pas le cas, c’est pourquoi il est nécessaire de l’estimer.
Pendant la période de référence, où le procédé est supposé réglé, on procède à un échantillonnage à
intervalle régulier de k sous-groupes, dont l’effectif n’est pas forcément constant.
L’estimation S de l’écart-type s est alors donnée par la relation (Eq 0) :
k
∑ νi S i2 n
x ij − xi
2
S= i=1
avec ni=ni-1 et S 2 = ∑
k i j=1 n−1
∑ νi
i=1
Eq 0
Carte de dispersion
Une carte de dispersion est également utilisée pour détecter l’occurrence de causes spéciales dont
les effets se traduiraient par une modification de la dispersion instantanée du procédé.
De plus, le test précédent de comparaison des moyennes, n’est valide que dans l’hypothèse où
l’écart-type s de la population est connu et constant. Il suffit donc que la carte de dispersion soit
sous contrôle pour valider cette hypothèse.
La carte de dispersion se base sur un test de comparaison de la variance de l’échantillon par rapport
à la variance de la population. Pour cela on calcule l’étendue ou l’écart type de l’échantillon que
l’on compare à des limites de contrôle.
S2
Considérons la variable V = n−1 distribuée selon une loi du c 2 .
s2
Nous voulons savoir, en admettant un risque a, si l’écart type de l’échantillon appartient à la
population d’écart-type s. Les limites du test sont alors déterminées en fonction du risque a choisi
par l’inégalité :
c 2α / 2 V c 1−α
2
/2
d’où
c α2 / 2
2
c1−α /2
⋅sS ⋅s
n−1 n−1
Eq 0
Une autre approche, beaucoup plus largement appliquée, consiste à prendre les limites à ± 3 écart-
types de S, de manière analogue à la moyenne.
L’écart type de S est donné par la relation s 1−c 4 2 où c4 est un coefficient correcteur du biais de
l’écart-type empirique moyen par rapport à l’écart-type. En effet, le rapport S /c 4 donne un
estimation sans biais de s.
Dans ce cas on obtient les limites de contrôle (Eq 0) :
42
LSC =c 4 s3 s 1−c
LIC =c 4 s−3 s 1−c 2
4
Eq 0
Un des principaux inconvénients des cartes de type Shewhart est de ne baser son test que sur les
dernières informations recueillies. Elle ignore ainsi les informations relatives aux tendances du
procédé contenues dans les dernières estimations. La carte de Shewhart s’avère donc peu
performante pour la détection de faibles décentrages.
Les cartes CUSUM (Cumulative Sum) et EWMA (Exponentially Weighted Moving Averages)
constituent une alternative intéressante à la carte Shewhart puisqu’elles ont la particularité de
détecter les très faibles dérives du procédé.
Le principe de la carte CUSUM est de sommer les écarts entre les estimations de la position du
procédé et la cible. Lorsque le cumul des écarts positifs ou le cumul des écarts négatifs dépasse une
certaine valeur, on conclut à un décentrage du procédé (Eq 0). Selon la sensibilité de la carte
souhaitée, les limites de contrôle H varient entre 4 et 5.
Afin d’éliminer les variations résiduelles imputables aux causes communes, qui peuvent être à
l’origine de fausses alarmes, on applique un « filtre » K dont la valeur est souvent d’un demi écart
type.
S L =Max [ 0, Cible−K − X i S L ]
i i−1
Eq 0
Au même titre que la carte CUSUM, la carte EWMA est particulièrement adaptée à la détection de
faibles dérives.
La statistique M reportée sur la carte de contrôle se calcule par la relation (Eq 0).
[
λ⋅[ 1− 1−λ ]
2i
LSC M =Cible3 s
λ⋅[ 1− 1− λ ] n 2−λ
2i i
d’ou les limites
s M =s
n 2− λ
LIC M =Cible−3 s
λ⋅ 1− 1−λ
2i
]
i n 2− λ
Ces cartes de contrôle s’adressent aux procédés multivariés dont plusieurs caractéristiques sont
interdépendantes [Hot 47]7[Jau 97]8. Dans ce cadre, si plusieurs paramètres doivent être contrôlés
simultanément, une pratique élémentaire veut que l’on construise une carte de contrôle pour chacun
des critères étudiés. Ce faisant, on écarte toute éventualité de corrélation entre les variables.
Supposons que l’on suive indépendamment deux caractéristiques X1 et X2. L’utilisation simultanée
de deux cartes de Shewhart conduit à une région de contrôle rectangulaire (Figure 10).
La probabilité que l’une ou l’autre des caractéristiques sorte des limites de contrôle est p= 0.27%.
En revanche, la probabilité jointe que les deux caractéristiques soient hors contrôle est p=0.00272,
ce qui est excessivement faible. La représentation sous forme d’une carte de contrôle
bidimentionnelle est une zone « sous contrôle » rectangulaire.
Posons maintenant le problème sous forme vectorielle en considérant la variable X distribuée selon
une loi normale bidimensionnelle N(m0,S0) (Eq 0).
[ ] [ ] [ ]
2
X1 m01 s 01 s 012
X= m0 = S 0= 2
X2 m02 s 012 s 02
Eq 0
D’un point de vue statistique, la construction d’une carte de contrôle pour deux variables se
rapporte à un test bivarié avec les hypothèses H0 : m=m0 et H1 : m¹m0
7
HOTELLING H. « Multivariable Quality Control » - Techniques of statistical analysis
Mc Graw-Hill - New York - 1947
8
JAUPI L. SAPORTA G. Cartes de contrôle pour la variabilité des procédés multidimensionnels
Congrès Qualité et Sûreté de fonctionnement - Mars 97 - Angers
X 1
X 1
Zone de rejet Zone de rejet
du test du test
LSC X 1 LSC X 1
2
2
2
LIC X
LIC X
LSC X
LSC X
Les variables sont indépendantes X 2 Les variables sont corrélées X 2
Figure 10
Si l’on compare les zones d’acceptation pour le contrôle univarié (rectangle) et multivarié (ellipse),
on voit apparaître deux zones A et B où les conclusions des tests sont différentes.
· La Zone A correspond à la non détection d’un état hors contrôle par la méthode univariée alors
que le test multivarié conclue que le procédé est hors contrôle.
· La Zone B correspond à une fausse alerte de la part de la méthode univariée puisque le test
multivarié considère que le procédé est sous contrôle.
La taille des Zones A et B dépend essentiellement de la corrélation entre les variables X1 et X2.
Néanmoins, ces zones existent toujours, ce qui justifie l’emploi d’une méthode multivariée.
Les apports de la MSP dans le domaine de la production en grandes séries ne sont plus à démontrer.
Le formalisme et l’efficacité de la démarche MSP ont été largement plébiscités par les industriels
qui ont su l’appliquer avec rigueur. Ces méthodes semblent cependant limitées aux productions de
type grandes et moyennes séries, alors qu’une grande partie de la production industrielle repose
aujourd’hui sur une organisation de type « petites séries ». La mise en place des concepts de Juste-
à-Temps, va d’ailleurs dans le sens d’une diminution de la taille des lots, de même que la
diversification des produits qui oblige les industriels à réduire la taille de leur cycle de production.
Cette évolution, semble irréversible, c’est pourquoi de nouveaux concepts ont été développés pour
appliquer la M.S.P. aux productions en petites séries
La principale difficulté rencontrée lorsqu’on étudie des productions en petite série est de les classer
par catégories. Les petites séries connaissent en effet une grande diversité, de sorte que chacune
d’elles semble un cas particulier. « Nos procédés sont trop particuliers pour appliquer la M.S.P. »
entend-on souvent dans les ateliers ! Ce raisonnement conduit le plus souvent à une approche
artisanale, très subjective, qui nécessite une expérience importante de la part des opérateurs pour
mener à bien le pilotage du procédé.
Nous retiendrons deux approches fondamentalement différentes pour le traitement des petites
séries.
· La première d’entre elles, consiste à rechercher un effet de série dans des productions répétitives
de courte durée. Les observations recueillies pour des critères différents ou des opérations
différentes peuvent être regroupées sur une même carte de contrôle de type grande série.
· Une autre philosophie est d’anticiper au maximum les prises de décision, même pour des séries
très courtes. Il s’agit donc d’exploiter au maximum les données récoltées pour piloter le procédé
L’objectif d’une carte de type effet de série est de pouvoir suivre l’évolution d’un procédé qui
réalise un travail répétitif en petites séries. Dans le cas de grandes séries, on utilise autant de cartes
de contrôle que de produits ou de séries lancées. Ceci est bien évidemment inapplicable dans le cas
de petites séries puisque les cartes de contrôle obtenues ne comporteraient pas plus de deux ou trois
points chacune. L’originalité de cette carte réside donc dans l’application d’un changement de
variable, de manière à pouvoir reporter sur la même carte (Figure 11) les points issus d’opérations
affectant des produits différents (cibles et dispersions différentes).
Si on considère des opérations A, B et C avec des cibles et des dispersions différentes, on reportera
mais une variable réduite du type (Eq 0). [Hil 69]9 [Koo 91]10
sur la carte, non pas les mesures X
11
[Whe 91]
−Cible A
X
sA/ n
Eq 0
9
HILLER F. S. Xb and R chart Control Limits based on a small number of subgroups -
Journal of Quality Technology - pp17-26 - 1969
10
KOONS G. F. SPC : Use in low volume manufacturing environment - Statistical Process Control in Manufacturing
- Quality and reliability - ASQC Quality Press - 1991
11
WHEELER D. J. Short Run S.P.C. - SPC Press - 1991
Carte effet de série
Date 3/09/97 3/09/97 5/09/97 5/09/97 6/09/97
Heure 8:25 11:56 9:32 17:15 18:41
Référence A B B A C
n 5 4 5 5 6
X1 12.21 15.10 15.11 12.02 10.51
X2 12.01 15.02 15.05 12.05 10.52
X3 11.98 15.03 15.02 12.03 10.55
X4 11.99 14.99 15.01 12.06 10.58
X5 12.05 15.03 12.05 10.56
X6 10.57
2
1.5
1
0.5
0
-0.5
-1
-1.5
-2
1 2 3 4 5 6
Figure 11
La carte petite série [Pil 92]12 [Pil 96a]13, comme son nom l’indique, est particulièrement adaptée
aux séries très courtes et aux démarrages de séries. Son objectif est de permettre le pilotage du
procédé dès les premières pièces. Elle s’appuie sur la technique de pilotage traditionnelle des cartes
de type Shewhart.
La M.S.P. préconise en général de travailler à partir d’échantillons pour améliorer la précision des
méthodes statistiques. Mais pourquoi attendre l’acquisition d’une nème mesure pour savoir si le
procédé est décentré ? Le principe de la carte petite série consiste donc à décomposer un échantillon
afin de placer un point sur la carte à chaque nouvelle mesure (Figure 12). Pour tenir compte de
l’enrichissement de l’information à chaque nouvelle mesure, les limites de contrôle se resserrent
(Eq 0).
LC =Cible±3 s / n
Eq 0
12
PILLET M. Application du SPC aux Petites Séries
Revue contrôle industriel et qualité - N°174 - pp58-61 - 1992
13
PILLET M. A specific SPC chart for Small-Batch control Quality Engineering - 8(4) - pp 581-586 - 1996
Cette carte sera donc très appréciée pour des séries de moins de 10 pièces.
Elle peut également servir à lancer une grande série, en la « collant » à une carte de Shewhart, afin
de vérifier si le procédé est sous contrôle dés les premières mesures.
6
4 LSC
R
2
Cible
0
1 2 3 4 5
Figure 12
Outre le pilotage de petites séries, cette méthode est particulièrement adaptée au démarrage de
grandes séries.
Cartes de pré-contrôle
Certaines entreprises qui critiquent la M.S.P. pour la lourdeur des calculs et de sa méthodologie,
substituent les cartes de contrôle par des cartes de pré-contrôle [Bho 91]14. Même si ces cartes ne
constituent pas réellement une avancée pour la M.S.P, elles ont la particularité d’être de plus en
plus utilisées dans l’industrie.
L’objectif des cartes de pré-contrôle est de détecter des dérives du procédé qui peuvent entraîner
une production de pièces non conformes. Cette méthode a l’avantage de ne nécessiter aucune
construction graphique et ne demande que le prélèvement de 2 échantillons pour prendre une
décision.
Une carte de pré-contrôle (Eq 0) est constituée de 3 zones. La moitié centrale de la zone de
spécification, délimitée par les limites de pré-contrôle, constitue la zone verte tandis que les deux
autres quarts de la spécification constituent la zone jaune. A l’extérieur des tolérances, on trouve la
zone rouge.
Pour déterminer si le procédé est capable à un instant donné, on prélève cinq pièces consécutives.
Si les cinq pièces sont dans la zone verte, le procédé est sous contrôle et l’on a une forte probabilité
que le Cm soit au moins de 1,33.
On peut calculer dans le cas d’une production centrée, distribuée selon une loi normale, la
probabilité p qu’au moins une pièce sur les 5 prélevées soit hors de la zone verte.
14
BHOTE K. R. World Class Quality - Amacom -1991 -225p
Schéma Description Action
1 Les deux observations sont dans Continuer la production
la zone verte.
Figure 15
Les cartes de pré-contrôle ont l’avantage de fournir une méthode très simple. Cependant elles
peuvent avoir un certain nombre d’inconvénients relatifs à leur efficacité.
· La faible taille des échantillons ne permet pas de détecter de petites dérives. C’est pourquoi il est
impératif de n’utiliser cette méthode que pour des machines ayant une bonne capabilité, sans
quoi on risque de produire beaucoup de critères hors des spécifications.
· Les cartes de pré-contrôle ne fournissent aucune méthode pour le réglage du procédé.
· La taille des échantillons n’est pas liée à l’efficacité.
Les études de performance des cartes de contrôle ont deux objectifs : elles permettent, dans un
premier temps, d’orienter le choix sur un type de carte de contrôle, selon le niveau de performance
souhaité. D’autre part, les cartes de contrôle étant des méthodes de test par prélèvement
d’échantillons, leur capacité à détecter une dérive est étroitement liée à la taille des échantillons. Il
est donc possible d’optimiser la taille des échantillons en fonction de la sensibilité requise.
Deux méthodes sont employées pour exprimer l’efficacité d’une carte de contrôle.
On trouve pour certaines cartes, des abaques fournissant la probabilité de conclure que le procédé
est centré en fonction du décentrage de la population et de la taille des échantillons.
Un autre indicateur, est la Période Opérationnelle Moyenne (P.O.M. ou Average Run Length) qui
représente le nombre moyen d’échantillons successifs avant la détection d’un point hors contrôle
On peut caractériser la sensibilité d’une carte de contrôle par sa P.O.M. dans deux états du
procédé : La P.O.M. pour un procédé centré est notée POM0, et la P.O.M. pour un procédé décentré
de k est notée POMk. Le décentrage k est l’écart réduit entre la cible et la moyenne du procédé : k=
(m-cible)/s.
La norme AFNOR [AF0 95]15 préconise d’utiliser POM1.(décentrage d’un écart-type) et considère
qu’une bonne carte de contrôle doit rentrer dans le gabarit suivant : POM0 > 100 et
1 <POM1< quelques unités.
P.O.M.
100
1 k
Figure 16
Si la POM0 est importante, cela signifie que pour un procédé centré, le nombre de fausses alertes
est faibles (risque a).
Si la POM1 est faible, le temps de détection d’un décentrage d’un écart-type est court. C’est donc
que la carte est sensible aux décentrages.
Le choix des limites d’une carte de contrôle résulte le plus souvent d’un compromis entre ces deux
P.O.M. En effet, le choix d’une POM0 élevée implique une POM1 élevée. Il est donc nécessaire de
relaxer l’une des contraintes pour obtenir des performance acceptables
15
AFNOR Norme NF X 06-031-0 Application de la Statistique - Cartes de contrôle - Principes Généraux 1995
Le choix d’une méthode statistique
Nous avons rappelé dans le début de ce chapitre un certain nombre de méthodes statistiques qui
sont utilisées dans le cadre de la M.S.P. Ces méthodes obéissent bien entendu à un certain nombre
d’hypothèses statistiques, qui permettent d’échafauder un modèle.
Il est possible d’envisager plusieurs modèles pour traiter un problème. Le résultat obtenu dépendra
de la validité du modèle et de l’efficacité de la méthode employée ; l’un et l’autre étant étroitement
liés.
Ce paragraphe a pour objectif de rappeler quelques notions sur la statistique non paramétrique et
l’efficacité des méthodes statistiques. Ces deux thèmes constituent en effet, le cœur de la
problématique que nous développerons dans le chapitre suivant.
Problématique de la modélisation
La majorité des méthodes de la Maîtrise Statistique des Procédés abordent les problèmes
d’estimation d’un point de vue paramétrique. En effet, partant d’un constat expérimental, on
suppose que la distribution des observations peut être caractérisée par une loi ou une famille de lois.
Cette famille de lois est elle-même fonction d’un nombre restreint de paramètres, comme la
moyenne et l’écart type pour une loi normale. Une telle approche peut être parfaitement appropriée
si la famille des lois de probabilité est liée à certaines caractéristiques physiques du procédé.
Dans certains cas, cette loi s’impose d’elle même. On peut citer par exemple la loi
hypergéométrique lorsque l’on fait du contrôle aux attributs.
A l’opposé, dans de nombreux cas, il s’agit de choisir une loi sachant qu’elle conditionne de
manière importante l’étude statistique d’un phénomène. Le choix d’un modèle est en effet une
formalisation mathématique des hypothèses faites sur les observations. Bien que cette formalisation
soit importante, elle est souvent négligée au profit du choix de la méthode statistique à employer.
Or il est bien évident que la méthode de résolution du problème dépend particulièrement du modèle
adopté.
Le développement récent de la statistique mathématique a été dominé par l’étude des formes faibles
du modèle statistique. C’est à dire que l’on postule des hypothèses relativement plus faibles que sur
une structure paramétrique classique. Cette problématique a donné naissance à deux approches :
· L’approche non paramétrique (ce qui ne veut pas dire que les paramètres disparaissent) qui
consiste à se placer dans une large classe de lois de probabilités plutôt que dans une famille
paramétrique donnée.
· La robustesse dont la principale préoccupation est de mettre en oeuvre des estimateurs qui
éliminent les valeurs extrêmes, mais aussi d’étudier la stabilité d’une procédure statistique
lorsqu’on s’éloigne du modèle pour lequel elle est optimale.
Les modèles paramétriques
On considère qu’un modèle paramétrique décrit un ensemble de lois, tel que deux lois quelconques
de cet ensemble ne diffèrent entre elles que par la valeur d’un paramètre.
Le modèle paramétrique le plus connu pour décrire la distribution d’observations réelles est le
modèle normal qui regroupe l’ensemble des lois normales.
A la différence d’un modèle paramétrique qui spécifie la loi de chaque observation par la valeur
d’un paramètre, un modèle non paramétrique laisse beaucoup plus de souplesse quant à la forme et
à la nature possible des lois des observations. Bien que les modèles paramétriques soient
particulièrement appréciés pour leur simplicité et la précision des descriptions offertes, ils sont dans
bien des cas peu envisageables. Pendant très longtemps, le développement des méthodes
statistiques et l’étude de leurs propriétés ont été fondés essentiellement sur la normalité de la
famille de lois. Or la validité d’un tel modèle n’est pas toujours assurée.
En effet, différents facteurs comme des erreurs d’expérimentation, des erreurs de mesures ou
encore des perturbations aléatoires non prises en compte dans le modèle peuvent rendre un modèle
paramétrique inexact.
Il existe F appartenant à F0 et m appartenant à R tels que X est une observation de la loi Fm définie
xÎR,F rSub { size 8{m} } left (x right )=F left (x-m right )} {}
par :
¿
Modèle d’échelle pour une observation
xÎR,F rSub { size 8{s} } left (x right )=F left ( {x} slash {s} right )} {}
définie par :
¿
Il existe F appartenant à Fs et (m,s) appartenant à R´R tels que X est une observation de la
+*
Nous verrons au chapitre 3, l’application d’un estimateur construit sur un modèle linéaire
localisation échelle. Ce modèle est un peu différent de celui présenté précédemment puisqu’il
concerne un échantillon.
Il existe F appartenant à F et (m,s) appartenant à R´R tels que X1, ..., Xn est un échantillon
+*
Avant de donner une définition des méthodes non paramétriques, rappelons ce qu’est une méthode
paramétrique. La notion de méthode paramétrique est assez bien partagée par les statisticiens : elle
consiste à chercher une solution optimale selon deux critères de qualité qui sont la validité et
l’efficacité. Par exemple : un estimateur à variance minimale (efficacité) parmi les estimateurs sans
biais (validité).
L’objectif des méthodes non paramétriques est un peu différent puisqu’il consiste à rechercher des
solutions qui sont applicables pour un vaste domaine de lois spécifiées par le modèle. On souhaite
en effet que la validité des résultats ne dépende pas trop fortement de la loi des observations. Il faut
cependant garder à l’esprit que la solution est rarement indépendante de la loi. Alors que la validité
d’un résultat est parfois peu sensible aux types de lois considérées, l’efficacité des solutions dépend
généralement de ces lois.
Nous souhaiterons donc également que l’efficacité de la méthode soit raisonnable.
Qualité des méthodes non paramétriques
Le choix d’une méthode statistique est souvent conditionné par sa qualité par rapport à d’autres
méthodes statistiques. Dans le cas de méthodes non paramétriques, il semble naturel de comparer
les résultats obtenus à ceux d’une autre méthode non paramétrique dans des conditions
équivalentes. Il est également très instructif de comparer ces résultats à ceux d’une méthode
paramétrique. En effet, l’utilisation d’une méthode non paramétrique sous un modèle paramétrique
donné peut occasionner une perte d’efficacité importante par rapport à la méthode paramétrique
optimale. Il est donc bon de savoir si l’élargissement du domaine de validité des modèles n’est pas
trop pénalisant d’un point de vue de l’efficacité. Dans ce cas on étudie les variances respectives des
estimateurs, ce qui se traduit par le calcul de l’efficacité relative.
Outre les performances à l’intérieur d’un modèle spécifié, la qualité d’une méthode se juge aussi
suite à une déviation du modèle. C’est pourquoi la statistique non paramétrique se préoccupe
particulièrement de cette notion qu’est la robustesse.
Avant d’aborder ces notions de performance des estimateurs, rappelons ce qu’est une estimation
pontuelle.
On dispose d’une information sur la loi F(X) par un échantillon (x1, ... , xn) de la variable X.
m est un paramètre de la loi que l’on souhaite estimer.
On note j m une grandeur que l’on cherche à estimer. Souvent cette grandeur n’est autre que le
paramètre m lui même. C’est le cas lorsque l’on cherche à estimer la moyenne d’une loi normale.
Cependant, il arrive que la grandeur à estimer soit une fonction de m : par exemple lorsqu’on
s’intéresse à la variance d’une loi normale s² et non son écart-type s.
On appelle estimateur ponctuel de j m toute statistique Tn construite sur l’échantillon X n .
L’erreur quadratique moyenne
La démarche utilisée pour comparer deux estimateurs repose sur le calcul d’une perte quadratique
engendrée par l’estimation. Il s’agit de l’erreur quadratique moyenne (Eq 0).
[
EQ n , m0 =E T n − j m0
2
]
Eq 0
Le critère EQ(n,m0), que l’on cherche à minimiser, représente l’espérance du carré des écarts entre
les réalisations de l’estimateur Tn et les vraies valeurs de j(m0)
Il apparaît alors logique de prendre parmi deux estimateurs, celui dont l’erreur quadratique
moyenne est la plus faible.
Si les estimateurs sont sans biais pour un même paramètre, l’erreur quadratique moyenne n’est
autre que la variance de l’estimateur. On dit d’ailleurs qu’un estimateur sans biais est plus efficace
qu’un autre estimateur si sa variance est plus petite.
[ 2
]
EQ n , m0 =E T n −E T n E T n − j m0
2
EQ n , m0 =Var T n b 2 n , m0
Eq 0
L’erreur quadratique moyenne est un critère qui tient compte à la fois du biais et de la dispersion de
l’estimation. Ainsi même si un estimateur sans biais est intuitivement séduisant, on pourra lui
préférer un estimateur faiblement biaisé mais de plus faible variance.
L’efficacité relative
Afin de comparer les qualités respectives de deux estimateurs sans biais, on calcule souvent le
rapport de leurs variances ou de leurs variances asymptotiques.
Soient Tn et Tn’ deux estimateurs définis à partir d’observations indépendantes d’une loi F.
On appelle alors efficacité relative de Tn par rapport à Tn’ la quantité (Eq 0) [Cap 88] :
Var T n '
ER T n , T n ' =
Var T n
Eq 0
J. Pitman [Pit 48]16 à introduit une notion d’efficacité relative légèrement différente. Il pose le
problème de la manière suivante :
Si on considère deux statistiques Tn et Tn’ équivalentes selon un certain critère (ce peut être la
variance) et pour des tailles d’échantillons n et n’ . Le rapport n/n’ est appelée efficacité relative de
Tn par rapport à Tn’.
Nous considérons pour notre part que la première définition de l’efficacité relative est plus
satisfaisante car elle nous permet de comparer les performances de deux estimateurs pour un
nombre d’observations données. La M.S.P. accorde en effet beaucoup d’importance à la taille des
échantillons car elle a une influence économique et pratique capitale. De plus, la relation (Eq 0)
permet d’obtenir la formule de l’efficacité relative asymptotique lorsque l’on fait tendre le nombre
d’observations vers l’infini.
Dans bien des cas, la variance exacte d’un estimateur fonction de n observations est difficile à
obtenir. Aussi un critère souvent utilisé pour comparer deux estimateurs est l’efficacité relative
asymptotique (Eq 0) :
Var T n '
ERA T n , T n ' =Lim
n ¥ Var T n
Eq 0
La borne de Frechet
Il paraît évident que la variance d’un estimateur T ne peut être nulle. Il est alors logique de se poser
la question de l’existence d’une borne inférieure.
On peut montrer en effet que la variance d’un estimateur ne peut être inférieur à une limite appelée
Borne de Frechet ou Borne de Cramer-Rao. Un estimateur sans biais est dit efficace si sa variance
est égale à la borne de Frechet [Tas 89]17.
La moyenne est par exemple l’estimateur efficace lorsque les observations suivent une loi normale
(Voir Annexe 2).
Rappelons que cette borne n’est valable que pour des distributions dont le support ne dépend pas du
paramètre estimé.
L’optimalité
Lorsque la borne de Frechet n’est pas atteinte, et c’est souvent le cas, on affaiblit le critère de
l’efficacité absolue pour se contenter d’un estimateur optimal. On appelle estimateur optimal un
estimateur T sans biais, préférable à tout autre au sens de la variance.
T rSub { size 8{1} } ÏB rSub { size 8{0} } V left (T right ) <= V left (T rSub { size 8{1} } right )} {}
¿
16
PITMAN E. J. Notes on non parametric statistical inference - Manuscrit non publié
17
TASSI P. Méthodes Statistiques - Economica 2nde Edition - 1989
Robustesse d’un estimateur
L’étude de la robustesse d’un estimateur consiste, entre autre, à quantifier sa tolérance aux valeurs
extrêmes et sa sensibilité à de nouvelles observations. La taille des échantillon étant le plus souvent
constante en M.S.P. grandes séries, on ne s’intéressera qu’à la propriété de tolérance aux valeurs
extrêmes d’un estimateur. Pour cela on définit un coefficient de tolérance.
On suppose un estimateur Tn fonction des observations X1, ... ,Xn. Soient a et b deux entiers tels
que :
·
left (x rSub { size 8{1} } ,K,x rSub { size 8{n} } right )ÎR rSup { size 8{n} } ,x rSub { size 8{ left (α+1 right )} } <= t rSub { size 8{n} } <= x rSub { size 8{ left (n-β right )} } } {}
¿
· si l’on fixe les valeurs de x(a+2),...x(n) et que x α1 -¥ alors t n -¥
· si l’on fixe les valeurs de x(1),...x(n-b-1) et que x n− β +¥ alors t n +¥
Si a* et b* sont respectivement les plus petits entiers satisfaisant les conditions précédentes. On dit
alors que le coefficient de tolérance à gauche est t(Tn)= a*/n et le coefficient de tolérance à droite
est t(Tn)= b*/n.
Si l’estimateur a des propriétés de symétrie, on trouve a* = b*.
On appelle point de rupture asymptotique la grandeur a*/n, lorsque n ¥ .
n t X n t X n
5 0 0.40
10 0 0.40
20 0 0.45
100 0 0.49
+¥ 0 0.50
Figure 17
Cet exemple met en évidence la grande robustesse de la médiane empirique par rapport à la
moyenne empirique qui ne tolère aucune observation aberrante.
Orientation des travaux
Nous verrons dans le Chapitre 2 que la MSP n’est pas sans réponses face aux cas de non normalité.
Nous rappellerons quelques unes des méthodes développées au cours des dix dernières années pour
répondre aux problèmes posés quant à l’utilisation des cartes de contrôle et des indicateurs de
capabilité. Après avoir analysé et critiqué ces méthodes nous poserons une nouvelle problématique.
Nous proposerons ensuite dans le Chapitre 3 l’utilisation d’une méthode non paramétrique dont
l’objectif est de fournir une carte de contrôle possédant de bonnes performances quelle que soit la
distribution des observations. Deux objectifs sont alors poursuivis : la minimisation de la variance
des estimations ainsi que la minimisation de la perte au sens de Taguchi, occasionnée par la
dispersion naturelle du procédé.
Nous présenterons enfin dans le Chapitre 4, quelques applications industrielles mettant en lumière
l’efficacité de la méthode et son adéquation au besoin industriel.
Chapitre 2
Chapitre 2
Justification de la normalité
L'objectif de la M.S.P. est, comme nous l'avons vu au chapitre précédent, de mettre un procédé
«sous contrôle». C'est-à-dire éliminer les causes spéciales à l'origine de non stationnarité du
procédé, pour ne garder que les causes communes, non réductibles. Lorsque toutes les causes
spéciales ont été éliminées, on considère que la distribution des critères étudiés suit une loi
normale. Cette hypothèse se justifie par le nombre important des causes communes et leurs effets
d'un ordre de grandeur équivalent.
D'autre part, pour des raisons d'efficacité que nous avons déjà soulignées, on préfère utiliser des
cartes de contrôle par échantillonnage de type X /R . Même si le théorème central limite n'est
valable que pour des échantillons de grande taille, il a une influence non négligeable sur la
distribution des moyennes, calculées à partir d'échantillons de faible taille. Ainsi, la distribution des
moyennes, suivra une loi normale si la distribution des valeurs individuelles ne présente pas un
caractère non normal trop prononcé. Dans ces mêmes conditions, on ne peut établir la distribution
de l’étendue R et de l’écart-type empirique S.
Toutefois le large développement de la M.S.P, dans de nombreux domaines, a contribué à la mise
en évidence de différents cas de non normalité. Nous allons voir que la non normalité d'un procédé
n'est pas forcément le résultat d'un procédé mal maîtrisé au sens de Shewhart. Il existe en effet des
procédés qui sont naturellement non normaux alors qu’ils sont sous contrôle. C’est le cas en
l’occurrence des critères de forme. D’autres procédés sont soumis à des causes spéciales
parfaitement identifiées. En toute rigueur le procédé n’est pas sous contrôle, mais on se satisfait de
cette situation pour des raisons techniques ou économiques. Nous citerons dans cette catégorie, les
procédés multipostes ou multi-empreintes.
Introduction
Si on étudie les critères suivis en M.S.P. sur un procédé de fabrication, deux facteurs essentiels
peuvent être à l'origine de leur non normalité:
· Le premier est lié à la nature même du procédé. De nombreux procédés sont en effet non
symétriques pour des raisons mécaniques ou physiques. Prenons par exemple le cas du remplissage
de bouteilles proposé par R. Mortel [Mor 95]18. Ce procédé est constitué de 24 têtes de remplissages
dont le débit peut être réglé indépendamment. A chaque cycle de remplissage, 24 bouteilles sont
remplies simultanément. On conçoit aisément que les différentes buses ne peuvent pas avoir
rigoureusement le même débit. De plus celui-ci n'évolue pas forcément de la même manière dans le
temps. L'obstruction de l'orifice ou les bulles d'air sont autant de causes qui influent sur le débit des
têtes de remplissage. La production ne suit pas une tendance centrale mais plusieurs, ce qui
explique la non normalité du procédé.
· Le second dépend du type de données traitées. En effet, certaines grandeurs physiques sont
bornées ou correspondent à des singularités : une circularité est nécessairement positive, un pH de 0
ou une température de 0 Kelvin sont des singularités, donc des valeurs non égalables. Ces
caractéristiques introduisent bien entendu des dissymétries dans la répartition des mesures. D'autre
part, les grandeurs représentées proviennent parfois d'un calcul basé sur plusieurs mesures. C'est le
cas par exemple de la circularité d'une pièce mécanique qui se calcule en effectuant la différence
entre le diamètre du cercle inscrit et celui du cercle circonscrit. Ce problème est bien connu en
M.S.P. sous l'appellation de «défaut de forme».
18
MORTEL R.R. & RUNGE G.C. Statistical Process Control of Multiple Stream Process Journal of Quality
Technology Vol 27 N° 1 - 1995
Les procédés multigénérateurs
Les procédés multigénérateurs, bien que peu abordés en M.S.P. constituent une part importante des
moyens de production. On regroupe sous cette appellation tous les procédés constitués de plusieurs
«machines élémentaires» indépendantes les unes des autres, réalisant les mêmes caractéristiques.
Nous citerons à titre d'exemple les procédés les plus classiques tels que les tours multibroches, les
presses à injecter multi-empreintes, ou encore les filières.
Les caractéristiques issues de chaque générateur ou machine élémentaire sont distribuées selon une
loi élémentaire, qui peut être une loi normale si la caractéristique étudiée est bilatérale, ou une loi
de défaut de forme dans le cas d'un critère unilimite.
Caractéristique Caractéristique
Figure 18
Dans l'exemple de la Figure 18 on considère une population constituée de k=5 strates de moyenne
et d'écart-type respectif mi et si. En supposant que les générateurs produisent chacun =1/5 de la
production, on définit alors la densité de probabilité de la population fp en fonction des lois
élémentaires f1 ... f2 par:
f p f1 f5
On note mi(q) les moments d'ordre q des variables aléatoires distribuées selon fi. X est la variable
aléatoire de fp.
Les moments non centrés d'ordre q de la variable X se calculent par l'expression:
k
E X q i mi
( q)
i 1
[ ]
k k 2
V [ X ] =E [ X ] −E [ X ] = p ∑ − p ∑ mi
2 2
s i2 mi2
i=1 i=1
Eq 0
La Maîtrise Statistique des Procédés a pour objectif de réduire l'influence des causes spéciales (ici
évidentes) à l'origine de la non normalité de la population. Cependant cette procédure peut s'avérer
très délicate et surtout très coûteuse : modification de la structure d'une machine ou encore retouche
de moules pour une presse à injecter.
Considérons par exemple une presse à injecter avec un moule comportant 10 empreintes identiques.
Malgré tout le soin que peuvent apporter les outilleurs dans la fabrication du moule, il est
impossible de réaliser 10 empreintes identiques. A chaque injection, la presse va donc produire 10
pièces provenant de 10 générateurs différents. Les critères étudiés auront donc nécessairement une
distribution non normale. La population est alors dite « stratifiée ». En revanche, on peut admettre
que les distributions élémentaires issues de chaque générateur (chaque moule) suivent une loi
normale.
Figure 19
Si, comme c'est le cas de la Figure 19, l'aptitude du procédé est satisfaisante par rapport aux
tolérances à respecter, faut-il chercher à supprimer l'influence de la cause spéciale ici évidente (les
différences entre les empreintes) ? Réduire les dissemblances consisterait alors à retoucher les
moules. Cela coûterait une fortune pour un résultat très hasardeux du fait des dispersions d'usinage.
Il nous semble préférable dans ce cas, de considérer que les causes communes génèrent une
population non normale et d'essayer de piloter ce "paquet" pour le maintenir sur la cible.
Les défauts de forme
Dans le domaine mécanique, les critères unilimites présentent une part importante des critères
étudiés [Joh 93]19. Les critères de forme tels que les rugosités, les planéités, les circularités sont non
symétriques par nature puisque bornés en zéro. Prenons l'exemple d'un calcul de circularité (Figure
20) qui consiste à faire la différence entre le rayon du cercle inscrit Rmin et le rayon du cercle
circonscrit de même centre Rmax d'un alésage.
R min R max
Figure 20
Ces deux variables aléatoires sont supposées distribuées selon une loi normale. La différence de ces
deux variables, notée z = Rmax - Rmin, est distribuée selon une loi normale N(m,sn), encore appelée
«loi normale sous-jacente». Cependant il existe une relation d’ordre entre Rmax et Rmin qui est
d’ordre dimensionnelle. On conçoit aisément que Rmin sur une pièce soit supérieur à Rmax d’une
autre pièce si l’écart entre la moyenne de chacune des variables est faible. En revanche, Rmax est par
définition supérieur à Rmin sur une même pièce. La circularité est alors distribuée selon une loi de
∣z∣=∣R max −R min∣ (loi de défaut de forme), très caractéristique pour son repliement sur l'intervalle
positif. Cette loi est aussi connue sous le nom de loi normale repliée.
Intervalle de tolérance
Loi de défaut
de forme
Loi normale
sous-jacente
m m
Pour que la caractéristique de circularité suive une loi de défaut de forme, il faut que les
mesures Rmin et Rmax suivent une loi normale de même écart type.
19
JOHNSON N. L. KOTZ S. Process Capability Indices - Chapman & Hall - 1993
De manière plus générale, on note z la variable aléatoire distribuée selon la loi normale
sous-jacente N(mn,sn), obtenue à partir des variables x et y (Rmax et Rmin dans l’exemple
précédent).
La moyenne de z est donnée par :
E [ z ] =m n =E [ x ] −E [ y ]
z³0}} {}
[ e ] ¿
2 2
1 z−mn 1 zm n
− −
1 2 sn 2 sn
f d z = e
sn 2 p
¿
Eq 0
La moyenne et la variance de la loi normale repliée sont données par (Eq 0)
2 −m 1−2 F m / s
mn / s n 2
−
2
m=s n ⋅e n n n
p
s 2 =m2ns 2n −m2
Eq 0
Critères de position
Un autre cas de non normalité concerne les caractéristiques distribuées de façon circulaire autour
d'un point central. Pour décrire de tels critères, on utilise la loi de Rayleigh.
On considère le cas d'un alésage effectué sur une machine à commande numérique. Ses
coordonnées sont programmées selon les coordonnées rectangulaires qui correspondent aux axes de
déplacement de l'outil, dans le plan perpendiculaire à l'axe de perçage. La dispersion occasionnée
par le jeu cinématique des deux axes suit une loi normale. Il n'en est pas de même pour les
coordonnées polaires. Les positions radiales sont distribuées suivant une loi de Rayleigh (Figure 4)
tandis que les positions angulaires suivent une loi uniforme.
On est souvent confronté à ce type de mesure de distance radiale en mécanique ; étude d'une
coaxialité par exemple.
En supposant que les caractéristiques des deux lois normales, décrivant les variations de position en
coordonnées rectangulaires, soient parfaitement connues, on peut alors établir l'expression de la loi
de Rayleigh et déterminer ses paramètres.
Y
sn
sn
X
sr
sn
r
m r
m
r
Figure 22
sn
Il est possible de généraliser cette approche pour les cas où la moyenne des variables X et Y ne
correspond pas avec le centre du cercle.
Répercussions de la non normalité sur les méthodes de la
M.S.P.
L'analyse de capabilité et le pilotage de procédés par cartes de contrôle sont le plus souvent fondés
sur l'hypothèse de normalité. Cependant les procédés non normaux sont relativement fréquents,
nous l'avons vu précédemment, ce qui peut nous conduire à remettre en cause la validité de ces
méthodes. L’appellation « non normalité » regroupe une grande variété de lois dont les
caractéristiques sont parfois très différentes de la loi normale. C'est pourquoi il serait dangereux de
conclure que les méthodes de la M.S.P. sont applicables ou inapplicables dans un contexte non
normal. Il serait plus juste de se demander si ces méthodes sont robustes et tolèrent quelques écarts
par rapport à un modèle ; ici la loi normale.
Les indicateurs de capabilité ont pour objectif de déterminer dans quelle mesure un procédé de
fabrication peut respecter les spécifications que l'on s'est fixé. Bien que le calcul des indicateurs de
capabilité tels que le Cp et le Cpk (Eq 0) repose uniquement sur la comparaison entre la tolérance
et la dispersion d'une caractéristique, celui-ci impose la connaissance a priori de la distribution des
données. On souhaite généralement que les données soient distribuées selon une loi normale.
IT min m−TI ; TS −m
Cp= Cpk =
6 .s 3 .s
Eq 0
La connaissance de la loi de distribution des mesures permet en effet de faire le lien entre la valeur
de l'indicateur de capabilité et le pourcentage de mesures hors tolérances. Pour un Cpk donné, il est
facile à l'aide d'une table de la loi normale réduite de connaître le pourcentage hors des tolérances.
Malheureusement ce calcul n'est plus possible lorsque la distribution des mesures ne suit pas une
loi normale. Il devient alors aventureux de comparer des indices de capabilité si l'on n'est pas
certain de la normalité de la loi ou si les deux productions non normales peuvent être décrites par
une même loi. Gunter [Gun 89]20 est l'un des premiers à avoir abordé ce problème d'interprétation
des indicateurs de capabilité en montrant que des productions non normales différentes ayant le
même Cp et Cpk généraient des pourcentages de non conformités différents.
Tout le problème se résume à la définition de la dispersion des mesures lorsque la production n'est
pas décrite par une loi normale. La situation de référence que nous connaissons est celle de la loi
normale. En effet, lorsque l'on définit sa dispersion à 6s on sait que la proportion de la population
située dans l'intervalle m±3 s est de 99.73% (Figure 5).
20
GUNTER The use and abuse of Cpk - Quality Progress 22(3), pp108-109 & 22(5), pp 79-80 - 1989
TI Intervalle de tolérance TS
99.73%
Dispersion
Figure 23
Dès lors que l'on définit la dispersion comme étant l'intervalle renfermant 99.73% de la population,
les indicateurs de capabilité peuvent être interprétés indépendamment de la distribution de la
population. La détermination de la dispersion n'est pas une chose aisée d'un point de vue
expérimental, lorsque l'on ne peut s'appuyer sur un modèle statistique. Nous verrons dans le
paragraphe suivant quelques méthodes permettant de répondre à ce problème.
De nombreuses études concernent l'impact de la non normalité sur l'efficacité des cartes de
contrôle. Burr [Burr 67]21, par exemple a montré que les cartes de contrôle ne pouvaient être
raisonnablement utilisées que si la population ne se révélait pas fortement non normale. Shilling et
Nelson [Shi 76]22 ont alors cherché à déterminer quelles étaient les domaines d'applications valides
des cartes de contrôle. L'une des répercussions essentielles de la non normalité sur les performances
d'une carte de contrôle est la modification des risques a liés aux tests d'hypothèse. Shilling et
Nelson considèrent que le domaine d'application d'une carte X n'est valide que pour un risque a
proche de 0.3%. Pour cela deux alternatives sont envisageables : soit la distribution des moyennes
suit une loi normale et on garde les limites traditionnelles ( Cible±3 s X ), soit il faut modifier les
limites de contrôle.
Les auteurs ont donc calculé les risques pour différentes lois non normales et pour différentes tailles
d'échantillons. Les résultats obtenus ne permettent pas de conclure à une quelconque méthode pour
établir les limites de contrôle. Cependant, ils confirment que les risques a sont dans la plupart des
cas très différents de 0.27% si l'on s'en tient aux limites habituelles Cible±3 s X . De plus, on peut
constater que le théorème central limite n'est pas un bon argument pour placer des limites de
contrôle à Cible±3 s X lorsque les échantillons sont de taille moyenne. En effet, la convergence en
loi de la distribution de la moyenne est parfois très lente. A titre d'exemple, le tableau (Figure 24)
donne la taille minimum d'un échantillon pour obtenir des risques de l'ordre de 0.3% pour
différentes lois de distribution de la population.
21
and R charts Industrial Quality Control, Vol. 23,
BURR, I. W. The effect of Non-Normality on constants for X
N°11, pp563-568 Mai 1967
22
SHILLING E.G. & NELSON P.R. The effect of non normality on the control limits of Xb charts - Journal of
Quality technology - Vol 8 N°4 pp183-188 - 1976
Type de loi Echantillon mini
Uniforme n>25
Gamma a=1/2 n>100
Gamma a=1 n>100
Gamma a=2 n>100
Gamma a=3 n>50
Gamma a=4 n>50
Bimodale symétrique n>500
Bimodale dissymétrique n>25
Figure 24
Pour chacun de ces cas, les tailles d'échantillons sont rédhibitoires pour l’utilisation des cartes de
contrôle. En pratique, on considère souvent que des risques inférieurs à 0.3% permettent une
utilisation satisfaisante des cartes de contrôle. Dans ce cas les échantillons minimum sont d’une
taille plus acceptable pour la loi uniforme et la loi bimodale symétrique (Figure 25).
On retiendra essentiellement deux thèses dans le choix des limites d’une carte de contrôle :
· Une première approche que l’on qualifiera de « puriste » tend à garder les risques a aussi
proches que possible de 0.27% pour la carte des moyennes, quel que soit le type de distribution
abordée. Nous décrirons dans ce chapitre quelques unes des méthodes permettant d’aboutir à ce
résultat. Nous citerons par exemple les travaux de Yourstone [Your 92]23 qui suggère un
ajustement des limites de contrôle basé sur une identification de la distribution de la population.
· Une autre approche, un peu plus « pragmatique » consiste à placer systématiquement les limites
de contrôle à ±3 s estimateur quelle que soit la carte utilisée. Ce choix de l’intervalle de confiance
bien que simpliste, fait néanmoins autorité puisque les cartes de contrôle les plus répandues
utilisent ce type de limites. Parmi ces cartes, nous pouvons citer la carte aux écart-types (S), la
carte aux étendues (R), les cartes aux attributs (p,np c et u) pour lesquelles l’estimateur utilisé ne
suit pas une loi normale.
23
YOURSTONE Steven A. & ZIMMER W.J. Non normality and the design of control; charts for averages
Decision Science Vol 23 N°5 pp 1099-1113 - 1992
David [Dav 81]24 considère en effet, que l’ajustement des limites de contrôle dans le but de
conserver des risques proches de 0,27% est un raffinement dont l’apport pratique est limité.
Wheeler [Whe 92]25adopte le même point de vue et montre pour plusieurs exemples de distributions
non normales que la distribution des moyennes offre des risques a d’un ordre de grandeur très
raisonnable pour de faibles tailles d’échantillons.
La problématique ne se borne malheureusement pas au calcul des limites pour une carte de
contrôle. Le problème de l’estimateur ponctuel est aussi un élément important. Nous savons par
exemple que si la population est distribuée selon une loi normale, alors la moyenne est le meilleur
estimateur sans biais qui puisse exister. En effet, sa variance atteint la borne de Frechet qui fixe la
variance théorique minimum de l’estimateur en fonction de l’information qui lui est fournie. Qu’en
est il lorsque la population n’est pas distribuée selon une loi normale ?
On peut montrer par exemple que la médiane est particulièrement performante pour des lois à
caractère impulsionnel, tandis que le milieu de l’étendue aura un bon comportement pour des lois
proches de la loi uniforme.
X = X
n1
2
(n impair)
= 1 ∑ xi
X
n n
X n − X 1
2
Figure 26
24
DAVID H. A. Order Statistics - New York - Willey - 1981
25
WHEELER D. J. Understanding Statistical Process Control - SPC press - 1992
D’autre part, les règles de décision telles que : « 7 points consécutifs sont du même coté de la cible
alors le procédé est hors contrôle » n’ont plus la même signification lorsque la distribution de
l’estimateur n’est pas symétrique. Quand la distribution de la population suit une loi normale, la
moyenne et la médiane de la population sont superposées. Ainsi les probabilités que la moyenne
d’un échantillon soit à droite ou à gauche de la moyenne de la population ( X ) sont égales. Cette
propriété est à la base de ces règles de décision.
Or, lorsque la population est dissymétrique, la moyenne et la médiane ne sont plus superposées.
Cela signifie que la probabilité qu’une valeur individuelle tombe à droite de la moyenne n’est pas
égale à celle qu’elle tombe à gauche. Le problème est donc le même si la distribution de la
moyenne n’est pas symétrique. La moyenne des moyennes est différente de la médiane des
moyennes. En toute rigueur, le test n’est plus valable.
La capabilité des procédés non Normaux
Le calcul des capabilités pour les procédés non normaux est un problème important étant donnée la
forte sensibilité de ces indicateurs à une déviation de la population par rapport au modèle que
constitue la loi normale. Pour que les indicateurs de capabilité puissent être exploitables
indépendamment de la forme de la population, il est nécessaire de définir la dispersion comme
l'intervalle centré couvrant 99.73% de la population.
On note xp un p-quantile de la loi de distribution de la population. Alors les indicateurs de capabilité
peuvent s’écrire de manière générale :
IT min TS −x 0 . 5 ; x 0 . 5−TI
Cp= et Cpk = avec D=x 99 . 865 −x 0 .135
D 1
D
2
· Les méthodes les plus connues consistent à faire l’hypothèse que la distribution peut être
approchée par une distribution théorique. Cette hypothèse doit pouvoir se justifier par la nature
des observations, défaut de forme par exemple. Dans le cas contraire, on appliquera un test
d’adéquation pour créditer l’hypothèse de départ. Ces méthodes sont qualifiées de
« descendantes » (top-down) car on postule une loi avant de pouvoir vérifier son adéquation avec
les observations expérimentales. Elles seront abordées très succinctement car elles sont déjà très
largement répandues en milieu industriel.
· D’autres méthodes dites « paramétriques empiriques » s’appuient sur des familles de lois de
distributions ou des familles de fonctions. Les familles de lois utilisées telles que les lois de
Burr, lois de Pearson ou fonctions de Johnson ont la particularité de pouvoir décrire un grand
nombre de configurations en faisant varier certains de leurs paramètres. A l’inverse des
méthodes précédentes, les méthodes paramétriques sont « ascendantes » (bottom-up) car on
estime des paramètres à partir des observations du procédé pour en déduire la fonction
représentant le mieux la distribution de la population.
La difficulté liée à la loi de défaut de forme, est d’établir sa dispersion, car sa forme varie en
fonction du décentrage et de la dispersion de la loi normale sous-jacente. Il est donc nécessaire de
déterminer les caractéristiques de la loi normale sous-jacente afin de connaître la dispersion de la
population.
z³0}} {}
[ e ] ¿
2 2
1 z−m 1 zm
− −
1 2 sn 2 sn
f d z = e
sn 2 p
¿
Nous distinguerons trois cas pour le calcul de la dispersion de la loi de défaut de forme, en se
basant sur les valeurs du rapport m/s (Figure 27).
· 1er Cas
Si le rapport m/s < 1.323, la moyenne de la loi normale sous-jacente est inférieure à 0, ce qui est
contraire aux hypothèse de la loi de défaut de forme. Dans ce cas, on suppose que la moyenne de la
loi de défaut de forme est centrée sur 0. La dispersion est alors définie par D=5s, ce qui correspond
à 99.74% de la population. (Voir en Annexe 2 les démonstrations mathématiques)
· 2ème Cas
Lorsque le rapport est compris entre 1.323 et 3, on se place dans le cas ou une partie de la loi
normale sous-jacente est du côté négatif. Dans ce cas les normes fournissent généralement, sous
forme d’un tableau la valeur du p-quantile x0.9973 déterminé à partir du rapport m/s ou de la moyenne
de la loi normale sous-jacente [AFN 94]26 (Voir en Annexe 2).
26
AFNOR Norme NF E 60-181 Moyens de production - Conditions de réception -
Méthode d’évaluation de l’aptitude à réaliser des pièces - 1994
· 3ème Cas
Lorsque m/s > 3 la loi normale de défaut de forme peut être assimilée à une loi normale. On définit
donc la dispersion comme la somme de la moyenne de la loi de défaut de forme et le p-quantile de
la loi normale x0.9973.s, c’est à dire 2,78s que l’on approxime parfois à 3s.
Dans ces trois cas, la dispersion de la loi de défaut de forme est définie par l’intervalle qui couvre
99,73% de la population en partant de zéro.
D D D
Figure 27
La loi de Rayleigh
En ce qui concerne la loi de Rayleigh, les calculs permettant d’établir les indicateurs de capabilité
Cp et Cpk sont particulièrement simples. On peut montrer [Sou 86]27 que la portion de la loi de
Rayleigh couvrant 99.73% de la population est de 5.25 sr lorsqu’il n’y a pas de décentrage.
Les relations du Cp et du Cpk en fonction de l’écart type des observations sr sont alors immédiates
(Eq 0).
IT IT TG−m r
Cp= = et Cpk =
Dispersion 5 . 25 s r 5 . 25⋅s r −mr
Eq 0
27
SOUVAY P. La statistique outil de la qualité Edition AFNOR - 1986
La loi Log-normale
Contrairement à la loi de Rayleigh, la loi Log-normale n’a pas de justification physique. On doit
son utilisation à sa simplicité. Elle permet de modéliser assez fidèlement des distributions bornées
telles que les défauts de forme.
Le problème qui se pose encore est de calculer le p-quantile de la loi Log-normale correspondant à
99.865% pour pouvoir calculer le Cpk.
TS −m
Cpk =
x 99 .865−m
Rappelons tout d’abord, que si une variable aléatoire Y est distribuée selon une loi normale, alors la
variable définie par X=exp(Y) suit une loi log-normale.
Une manière très simple de trouver le p-quantile, est d’opérer une transformation vers la loi
normale à toutes les réalisation de la variable X : Y=ln(X).
On calcule alors les paramètres caractéristiques de la loi normale, qui sont respectivement la
moyenne m et l’écart type s.
Si Y suit une loi normale N(m ;s), alors X=eY suit une loi Log-normale dont l’espérance m vaut
2
m3 s
e ms / 2 et le quantile 0.99865 de X vaut e . D’où l’expression du Cpk (Eq 0).
TS −m
Cpk = m3 s
e −m
Eq 0
Les méthodes présentées dans ce paragraphe font partie des grands classiques de la M.S.P. et
répondent aux problèmes les plus courants de non normalité. Elles ont l’avantage d’être
relativement simples du fait des lois postulées. L’existence de tests d’adéquation pour la loi de
Rayleigh et la loi log-normale contribue aussi à les rendre attrayantes.
Cependant les hypothèses formulées sont très restrictives quant à la définition des procédés. En
effet, la loi de défaut de forme ne concerne que des critères unilimites particuliers. La loi de
Rayleigh n’est applicable que si les deux sources de dispersion sont orthogonales et ont même
écart-type.
Ces différentes méthodes n’ont pas la prétention de répondre à tous les problèmes de non normalité.
C’est cet inconvénient majeur qui a motivé le développement de méthodes basées sur des familles
de lois, afin d’élargir le domaine d’application des indicateurs de capabilité à un plus grand nombre
de lois non normales.
Indicateurs de capabilité fondés sur des familles de
distributions
L’intérêt de ces méthodes paramétriques par rapport aux précédentes est de mettre en œuvre un
modèle statistique plus général, valide pour une grande variété de formes de densités de probabilité.
Plusieurs auteurs ont proposé l'utilisation de méthodes robustes pour estimer la capabilité de
procédés dans le cas de lois non normales. Parmi eux, Clements [Cle 89]28 suppose que la
distribution du procédé peut être représentée par une loi de Pearson. Il fournit des tables qui
permettent de déterminer la capabilité du procédé en fonction du coefficient de Skewness b 1 et
de Kurtosis b2 de la population. Dans le même état d'esprit, Farnum [Far 97]29 propose la
construction d’indicateurs de capabilité à l'aide des lois de Johnson.
Bien qu’elles utilisent des modèles différents, ces approches sont sensiblement équivalentes.
L’objectif est en effet de déterminer les p-quantiles délimitant la dispersion de la population en se
servant du modèle que l’on aura identifié.
Le modèle de lois proposé par Burr [Bur 42]30 permet de représenter les fonctions de répartition
d’une distribution contrairement aux lois de Pearson et Johnson qui décrivent sa densité de
probabilité. La fonction de répartition est introduite sous forme d'une équation différentielle.
On appelle loi de Burr une loi continue f(x) dont la fonction de répartition F(x) satisfait l'équation
différentielle: F ' x =F x [ 1−F x ] g x où g(x) est une fonction non négative.
La solution de cette équation différentielle s'écrit:
1 x
F x = avec G x =∫-¥ g u du une loi strictement croissante.
1exp [−G x ]
Pour pouvoir identifier la loi de distribution des données, Burr propose de calculer la somme des
¥ a
moments centrés théoriques. M k =∫a x k [ 1−F x ] dx−∫-¥ x k F x dx
Cela permet de fournir les p-quantiles de la loi sans avoir à calculer les probabilités en passant par
la densité de probabilité. Par contre il est nécessaire de connaître la forme a priori de la loi de
distribution.
28
CLEMENTS J.A. Process capability calculations for non normal distributions
Quality Progress - N°22 pp95-100 - 1989
29
FARNUM R.N. Using Johnson curves to describe non-normal process data
Quality engineering 9(2) - pp329-336 - 1997
30
BURR, I. W. Cumulative frequency functions - Annals of Mathematical Statistics, N°13, pp215-232 - 1942
Identification de la loi
Castagliola [Cas 96]31 propose une variante de la méthode de Burr en construisant une fonction de
répartition empirique Fe (Eq 0) à partir d’un échantillon ordonné. La fonction Fe n’étant pas
continue, on ne peut l’utiliser directement pour estimer les p-quantiles de la population.
{
0, x x 1
F e x = k , x k ≤x x k 1
n
1, x³x n
Eq 0
valeurs de x(k) (k=1, 2, ... , n-1). Pour obtenir une fonction continue, on propose de remplacer la
fonction Ge inconnue par un polynôme Gr(x) d’ordre r. Ce polynôme est obtenu en appliquant la
méthode des moindres carrés sur les n-1 couples { x(k) ; Ge(x(k))}.
1
La fonction de répartition s’écrit alors F r x = .
1exp [ −G r x ]
Remarque
Quelques restrictions sont à émettre concernant la fonction G(x). En effet, la fonction G(x) et donc
Gr(x) doit être strictement croissante. En conséquence, il faut que le polynôme Gr(x) soit d’ordre
impair.
A partir de la fonction de répartition empirique Fr(x), on calcule les probabilités d’avoir des
mesures à l’extérieur des tolérances pi et ps
Cp=
1
[ F −1 1− p s −F −1 pi ]
6
31
CASTAGLIOLA Ph Evaluation of non normal Process capability indices using Burr's distributions
Quality engineering 8(4) pp587-593 - 1996
Grâce à ces formules, il est possible d'estimer les valeurs du Cp et du Cpk conformément à leur
définition même lorsque la loi est non normale. Pour cela, on se base sur les proportions hors
tolérances. Les indicateurs de capabilité Cp et Cpk obtenus (Eq 0) peuvent donc être comparés à
ceux calculés dans le cas d’une population normale.
F r (TS)
1
F TS
r
TI TS
Figure 28
Cp=
1
[ F −1 F r TS −F −1 F r TI ]
6
Eq 0
Conclusion
L’utilisation des courbes de Burr par Castagliola est assez originale car elle est fondée sur la
construction de la fonction de répartition empirique de la population. Les courbes de Burr offrent
alors un cadre suffisamment souple pour décrire un nombre important de lois.
Il faut toutefois prendre quelques précautions pour que la méthode fournisse de bons résultats. La
première contrainte est de prélever au moins une centaine d’observations pour que la fonction de
répartition empirique soit parfaitement décrite, surtout au niveau des queues. Il faut ensuite
déterminer l’ordre du polynôme Gr(x) pour que son tracé approche au mieux les données.
Castagliola n’énonce malheureusement pas de règle à ce sujet.
La famille des lois de Pearson
Clements [Cle 89]32 a proposé, de son côté, une méthode de calcul des indicateurs de capabilité Cp
et Cpk en se basant non pas sur les lois de Burr mais sur les lois de Pearson.
La démarche de Clements est à peu près équivalente à celle de Burr, car il considère que la
définition des indices de capabilité Cp et Cpk est fondée sur le pourcentage hors tolérances.
On suppose que les courbes de Pearson peuvent être caractérisées à partir de quatre paramètres qui
sont la moyenne, l'écart type, le coefficient de Skewness et le coefficient de Kurtosis. Ces différents
paramètres sont calculés à partir de données expérimentales du procédé.
On utilise la médiane M plutôt que la moyenne pour estimer de manière robuste la tendance
centrale de la population. D’autre part, les coefficients de Skewness et de Kurtosis sont construits à
partir des moments d'ordre trois et quatre. L’auteur rappelle à cet égard que la taille des
échantillons de capabilité ne doit pas être inférieure à n= 20. Ceci n'est absolument pas contraignant
pour réaliser une étude ce capabilité car les normes imposent souvent des tailles d’échantillons bien
supérieures.
A partir des différents paramètres des courbes de Pearson, Clements utilise le tableau établi par
Gruska et Al [Gru 89]33 pour connaître la dispersion de la population. En effet ce tableau fournit les
probabilités supérieure ps et inférieure pi des lois de Pearson réduites (m=0 et s=1) en fonction des
coefficients de Skewness et Kurtosis.
Les indicateurs de capabilité obtenus par cette méthode s’écrivent alors sous la forme (Eq 0) :
USL−LSL
C p=
p s− pi
C pk =min
USL− M M −LSC
p s− M
;
M − pi
Eq 0
Par la suite, W. L. Pearn et S. Kotz [Pea 95]34 ont étendu cette méthode de calcul à d'autres
indicateurs de capabilité. Il s'agit en l'occurrence des indicateurs, dits de 2ème et 3ème génération,
comme le Cpm, le Cpmk et le Cpm* (Eq 0).
La mise en place ne présente aucune difficulté supplémentaire ; il suffit pour les obtenir de
déterminer les p-quantiles définissant la dispersion.
32
CLEMENTS J. A. «Process Capability Calculations for Non-normal Distributions»
Quality Progress N°22 - pp995-100, Sep 1989
33
GRUSKA G. F. MIRKHANI K. & LAMBERSON L.R. Non normal Data Analysis
Applied Computer Solutions Inc - 1989
34
REARN W.L. & KOTZ S. Application of clements method for calculating second and third generation capability
indices for non normal pearsonian population - Quality Engineering 7(1) pp 139-145 - 1995
TS −TI
C pm=
[ ]
2 1/2
6 p s − p i /6 M −Cible
2
min TS − M ; M −TI
C pm¿=
[ ]
2 1/ 2
6 p s − p i /6 M −Cible
2
[ [ ]
TS − M M −TI
C pmk =min ;
3
2
p s−M /3 M −Cible ]
2 1/ 2
3 [ M − p /3 M −Cible ]
i
2 2 1/ 2
Eq 0
Ces derniers résultats nous semblent très critiquables car la notion de perte est totalement
indépendante des pourcentages hors tolérances. Dans la philosophie originale du Cpm, on
considére, au contraire, que l’utilisation de l’indicateur Cpm est totalement indépendante de la
distribution de la population. Le Cpm est calculé à partir de la fonction perte, qui ne tient compte
que de l’écart quadratique des observations avec la cible (Voir Chapitre 1). La substitution de s par
(ps-pi)/6 est donc inadaptée.
La méthode proposée par Clements ne semble pas dénuée d’intérêt et bon nombre d’auteurs y font
référence. Cet engouement s’explique en grande partie par le caractère systématique de la méthode
et sa simplicité. Elle se révèle d’ailleurs d’une grande souplesse puisque les courbes de Pearson
permettent de représenter un grand nombre de situations. Cependant pour obtenir des résultats
fiables, il est recommandé de calculer les coefficients de Skewness et de Kurtosis sur un échantillon
de taille relativement importante, faute de quoi l’estimation de la dispersion peut aboutir à des
valeurs extravagantes.
Les courbes de Johnson furent présentée en 1949 comme une alternative aux lois de Pearson pour la
description des lois non normales. Leur principe est similaire aux lois de Pearson puisqu’à l’aide de
3 familles de lois, on peut décrire une grande variété de formes de distributions. L’éventail des
possibilités offertes par les courbes de Johnson est sensiblement équivalent à celui des courbes de
Pearson. Les courbes de Johnson offrent néanmoins quelques avantages sur les courbes de Pearson.
En effet, elle bénéficient de méthodes permettant de choisir la courbe qui décrit le mieux la
population. Des transformations permettent également de simplifier les problèmes de calculs de
probabilité en se ramenant à une loi normale réduite. De plus, l’estimation des paramètres des
courbes est basée sur une approximation de p-quantiles de l’échantillon des observations. Cette
approche est généralement plus fiable que les méthodes basées sur les moments comme celle
proposée par Clements.
Présentation des courbes de Johnson
Johnson a proposé trois courbes pour décrire différents types de distributions. Chacune d’elles peut
être transformée (approximativement) en une loi normale réduite.
Les fonctions k1, k2 et k3 sont à la base des transformations de variables que l’on opère pour
ramener la distribution d’une variable, décrite par une loi de Johnson, à une loi normale réduite.
· k 2 x , λ , e =ln
x−e
λe−x
Au contraire cette équation décrit des distributions qui sont
définies sur un intervalle ouvert ]e,e+l[.
· k 3 x , λ , e =ln x−e
λ
Les dernières courbes sont de type log-normal et trouveront
leur application pour des critères unilimites comme les
défauts de forme.
Slifker et Shapiro [Sli 80]35 ont introduit une méthode basée sur l’approximation de p-quantiles afin
de déterminer quelle est la courbe la plus à même de décrire la distribution de la population.
La première étape de cette méthode consiste à choisir une valeur z et calculer les valeurs de la
fonction de répartition de la variable N(0,1) en -3z, -z, z, 3z.
Les auteurs proposent de prendre z = 0.524.
On estime ensuite les p-quantiles de la population correspondant aux probabilités précédentes. Ceci
peut être fait à l’aide d’un échantillon ordonné comme le fait Castagliola pour la construction des
courbes de Burr.
A l’aide des p-quantiles que l’on note x-3z, x-z, xz, x3z, on calcule les coefficients m, n et p, qui
permettront de choisir la famille de courbes.
35
SLIFKER J. F. SHAPIRO S. S. The Johnson System : Selection and parameter estimation
Technometrics - Vol 22 N°2 - pp239-246 - 1980
On distingue trois cas :
Le type de courbe étant déterminé, on estime les paramètres de la loi en appliquant les équations
ayant pour variables m, n et p. Pour plus de précision, on trouvera l’ensemble de ces équations en
Annexe Mathématique (§1).
Pour calculer la dispersion de la distribution de la population, modélisée par une courbe de Johnson,
on prend les p-quantiles de la loi normale réduite délimitant 99.73% de la population, c’est à dire -3
et 3.
On applique une transformation qui permet alors de reporter les p-quantiles qui délimitent la
dispersion sur la courbe de Johnson.
[ ]
−1
g −z
· Courbes bornées x=eλ 1exp
h
Les indicateurs de capabilité se calculent en reprenant les formules utilisées pour la méthode de
Clements. Johnson propose lui aussi de suivre la tendance centrale de la population à l’aide de la
médiane.
Les différentes méthodes proposées dans ce paragraphe sont basées sur le principe d’approximation
de la distribution de la population par une famille de courbes paramétriques.
Pour estimer les paramètres de ces lois on distingue deux approches : l’une basée sur un calcul de
moments de la population tandis que l’autre utilise une approximation de p-quantiles de la
population. Ces dernières sont, selon Farnum [Far 97]36, beaucoup plus fiables que celles utilisant
les moments. Cependant, il faut souligner que les méthodes utilisant les p-quantiles ne donnent des
résultats vraiment fiables que pour des échantillons de taille respectable (de l’ordre de 100).
36
FARNUM R.N. Using Johnson curves to describe non-normal process data
Quality engineering 9(2) 329-336 - 1997
Bien que ces méthodes revêtent un caractère général, elles n’en sont pas moins limitées par le type
de courbes qu’elles utilisent. En effet les courbes de Pearson ne peuvent décrire que des
populations dont la distribution est unimodale. Les courbes de Burr en revanche permettent de
décrire des distributions un peu plus complexes comme les lois multimodales. Cette propriété nous
semble particulièrement intéressante car bon nombre d’applications industrielles génèrent des lois
multimodales ; les couples de serrages par exemple [Gui 97]. Pour leur part, les lois de Johnson
présentent la particularité de décrire des lois définies sur un support borné. Le cadre d’application
nous semble ici moins évident mais on peut imaginer que des distributions soient tronquées pour
des raisons physiques.
Les spécificités de chacune des méthodes proposées exigent donc que l’utilisateur ait une « petite
idée » a priori de la distribution de la population.
Méthodes bootstrap
Les méthodes bootstrap ont une approche totalement différente de celles présentées auparavant
puisque leur objectif n’est pas de modéliser au mieux la distribution de la population pour estimer
sa dispersion. Ce sont des méthodes d’estimation non paramétriques basées sur un
rééchantillonnage de l’échantillon original nécessaire à l’estimation des indicateurs de capabilité.
Les premiers travaux furent présentés par Efron B.[Efr 79]37, puis Efron & al [Efr 83] [Efr 86]
développèrent trois types d’algorithmes bootstrap. Ces méthodes, qui permettent de construire un
intervalle de confiance pour la statistique étudiée, sont respectivement le bootstrap standard ou naïf,
le bootstrap par les p-quantiles et le bootstrap à biais corrigé par les p-quantiles.
Ces différents algorithmes ont été étudiés par Franklin L.A. & Wasserman G.S. [Fra 91]38 [Fra 92]39
pour la construction d’intervalles de confiance pour les indicateurs de capabilité Cp Cpk et Cpm.
37
EFRON B. Bootstrap Methods :Another look at the Jackknife - Annals of Statistics - N°7 - pp1-26 - 1979
38
FRANKLIN L.A.& WASSERMAN G.S. Bootstrap Confidence Interval estimates of Cpk : An introduction
Communications in Statistics - Simulation and Computation - N°20 - pp231-242 - 1991
39
FRANKLIN L.A.& WASSERMAN G.S. - Bootsrap Lower confidence limits for capability Indices
Journal of Quality Technology Vol 24 N° 4 - 1992
La méthode de calcul
On note x 1 , x 2 , L , x n un échantillon de taille n prélevé sur le procédé pour calculer les indicateurs
de capabilité du procédé. On appelle échantillon bootstrap, un échantillon x 1 , x 2 , L , x n constitué
¿ ¿ ¿
par tirage avec remise dans l’échantillon original. Il est possible de constituer nn échantillons, à
partir d’un échantillon original de taille n. Pour chacun des nn échantillons on calcule les
C p *, C pk∗ou C pm∗¿
statistiques d’intérêt qui sont respectivement des estimateurs du Cp Cpk
¿
ou Cpm.
Efron B conseille de prendre un minimum de 1000 échantillons bootstrap.
L’objectif étant de démontrer le bien fondé de ces méthodes, nous nous contenterons d’en donner
un rapide aperçu. Nous commenterons ensuite les résultats obtenus par Franklin et Wasserman.
L’estimation d’une statistique d’intérêt par la méthode bootstrap consiste dans la plupart des cas à
calculer la moyenne des B réalisations de cette statistique (Eq 0). La statistique bootstrapée, notée
C∗¿ est indifféremment le Cp ou le Cpk.
¿
B
1
C∗¿ ∑ C ∗¿
B i=1 i
¿
Eq 0
C∗¿
On note Sc* un estimateur de l’écart type de l’estimateur de l’indice de capabilité
¿
B
1
2
S c∗¿ ∑ C¿ −C ¿
B−1 i=1 i
Dans le cas d’un intervalle de confiance bilatéral (1-a) on calcule les limites par la relation
classique.
C ±x 1 −α / 2⋅S ¿c
Cette deuxième méthode ne diffère de la première que par le calcul de l’intervalle de confiance. On
C∗¿
la construit à partir des statistiques d’ordre de correspondant aux p-quantiles a/2 et 1-a/2 (Eq
¿
0).
[C
¿
B α/2
; C ¿B 1−α /2 ]
Eq 0
Cette méthode peut cependant souffrir de biais. Pour remédier à ce problème, une seconde méthode
a été développée. Il s’agit du Bootstrap à biais corrigé par les p-quantiles.
C∗¿
C’est à dire le nombre de statistiques bootstrapées supérieures à , divisé par B.
¿
On calcule alors le p-quantile correspondant pour la loi normale réduite afin de déterminer les
probabilités associées à chacune des limites de l’intervalle de confiance.
x 0 =F −1 p 0 ⇒
{ P L =F 2 x 0 −x 1−α / 2
P U =F 2 x 0 x 1−α/ 2
[C ¿
P L⋅B
; C P ⋅B
¿
U ]
Eq 0
Résultats
Les travaux de Franklin et Wasserman ont mis en évidence que la méthode bootstrap naïve était la
plus précise et la plus robuste à la non normalité. En effet, les intervalles de confiance de 95%
construits à partir d’un échantillon de taille n=30, 50 ou 75 sont aussi performants que ceux
calculés dans le cas de la loi normale.
Au delà du calcul d’intervalle de confiance, on retiendra que l’intérêt des méthodes bootstrap est de
pouvoir fournir une estimation de bonne qualité d’une statistique quand on a un nombre réduit
d’observations. Cela peut s’avérer intéressant pour les indicateurs de capabilité ainsi que d’autres
statistiques telles que des estimateurs de dispersion (S).
L’étude réalisée par Franklin et Wasserman ne concerne que la robustesse des intervalles de
confiance à la non normalité. On regrette en effet que les indicateurs Cp et Cpk utilisés soient ceux
définis dans le cas d’une loi normale. La dispersion n’est plus dans ce cas, conforme à sa définition
sous l’hypothèse de normalité (99.73% de la population).
Les cartes de contrôle
Le problème lié à l’utilisation de cartes de contrôle dans un contexte de non normalité, reste encore
relativement peu abordé dans la littérature scientifique. La première raison qui peut expliquer ce
phénomène est la relative robustesse des cartes de contrôle à la non normalité. En effet, lorsque la
population est faiblement dissymétrique, la moyenne, utilisée pour estimer la position du procédé,
reste distribuée selon une loi normale. Cependant cette robustesse est très limitée du fait de la faible
taille des prélèvements. De plus cette relative « immunité » à la non normalité n’est pas valable
pour les cartes aux valeurs individuelles ou encore pour les cartes utilisant d’autres estimateurs que
la moyenne : la médiane par exemple.
La seconde raison, qui peut expliquer ce manque d’enthousiasme pour l’étude des cartes de
contrôle dans une situation non normale, est la ressemblance du problème avec celui du calcul des
indicateurs de capabilité lorsque la population est non normale.
Une méthode pour calculer les limites de contrôle d’une carte X , proposée par Yourstone, utilise
d’ailleurs les courbes de Burr pour modéliser la fonction de répartition des moyennes. Des
méthodes équivalentes sont tout à fait envisageables avec les courbes de Johnson ou Pearson.
Les cartes de contrôle de type Shewhart sont construites en posant l’hypothèse de normalité de la
distribution des moyennes. Cette hypothèse bien que très forte, peut ne pas être valable si la
population est fortement non normale. Dans ce cas, les limites de contrôle placées à ±3 s de la
cible ne garantissent plus des risques statistiques de l’ordre de 0.27%. Partant de ce constat,
Yourstone [You 92]40 a proposé une méthode de construction de carte de contrôle basée sur la
famille de lois de Burr. L’objectif de cette méthode est de conserver le niveau de risque a proche de
0.27% quelle que soit la distribution de population.
Le problème de modélisation de la distribution de la moyenne pour fixer les limites de contrôle, est
beaucoup moins complexe que dans le cas des capabilités car la distribution des moyennes bien
qu’occasionnellement non normale possède une forte tendance centrale, et les distributions
considérées sont dans la plupart des cas unimodales (sauf si les mesures d’un échantillon ne sont
pas identiquement distribuées).
Contrairement à Castagliola qui construit la loi de Burr à partir d’une estimation des p-quantiles de
la population, Yourstone se base sur les moments.
40
YOURSTONE Steven A. & ZIMMER W.J. Non normality and the design of control charts for averages
Decision Science Vol 23 N°5 pp 1099-1113 - 1992
Lorsque la distribution des moyennes ne peut être modélisée par une distribution normale, deux
alternatives se présentent à l’utilisateur de cartes de contrôle :
La première solution consiste à transformer les valeurs individuelles de telle manière que la
variable obtenue soit distribuée selon une loi normale. L’inconvénient d’une telle méthode est lié à
la difficulté de déterminer et de justifier la transformation appropriée.
Une autre alternative consiste à modifier les limites de contrôle de la carte. Cette approche a
l'avantage de ne pas modifier les données de base. De plus, la modification des limites semble plus
simple à effectuer et à justifier. Une manière de modifier les limites est de procéder au calcul des
probabilités. Cela requiert que l'on connaisse la forme de la distribution des moyennes ou qu'on
l'approche précisément. Burr a développé une fonction algébrique qui a la propriété de décrire un
nombre important de distributions. Celle-ci peut-être utilisée pour déterminer les limites
dissymétriques de la carte.
La distribution de BURR
La distribution de BURR généralisée est utilisée pour déterminer les limites non symétriques de la
carte de contrôle. La fonction de répartition de la distribution de BURR est définie par :
[
F y y = 1−
1
1 y c
k
] y0
F y y =0 y≤0
0.8
0.6
F(y)
0.4
0.2
y
0
0 0.2 0.4 0.6 0.8 1 1.2
Loi Gamma Loi Normal
Figure 29
Détermination des paramètres de la loi de Burr
Comme toute approche statistique, la construction d’une carte de contrôle nécessite une analyse
préliminaire du procédé. On utilise un minimum de 50 valeurs individuelles pour déterminer X
ainsi que les coefficients de Skewness et de Kurtosis (Eq 0) de la population.
N N
1
1
N
∑ 3
X i− X
N
∑ X i − X
4
i=1 i=1
α3= α4 =
[ ] [ ]
3 N 2
N
1
∑ X i − X
2
1
∑ X i − X
N i=1
2 2
N i=1
Eq 0
Il est évident que deux distributions ayant les quatre premiers moments identiques ne sont pas
nécessairement identiques, cependant il est raisonnable de penser qu'il n'y aura pas de différence
d’un point de vue pratique.
α3 α4 −3
α 3 X = α 4 X = 3
1
n
n2
A partir des tables de BURR [Bur 67]42 et des coefficients α 3 X et α 4 X , on détermine les
.
coefficients c et k de la loi de Burr représentant la distribution de X
A partir du modèle mathématique que constitue la loi de Burr, on peut estimer la forme des queues
de la distribution de la moyenne, et donc calculer les limites de contrôle assurant un certain niveau
de risque à gauche et à droite de la distribution.
La fonction de répartition inverse d’une distribution de Burr définie par la relation (Eq 0) :
[ ]
1
1
− c
Y = 1−P k −1
Eq 0
est utilisée pour déterminer les p-quantiles x 0,00135 et x 0,99865 nécessaires au calcul des limites de
contrôle.
41
SAPORTA G. Théorie et Méthodes de la Statistique - Technip - 1978
42
BURR, I. W. The effect of Non-Normality on constants for X and R charts
Industrial Quality Control, Vol. 23, N°11, pp563-568 Mai 1967
On note Y une variable aléatoire distribuée selon la loi de Burr caractérisée par les coefficients k, c,
M et S. Les variables réduites de loi de Burr et de la distribution de la moyenne sont alors égales.
Y −M X −m
=
S s/n
Il suffit alors de substituer Y par les p-quantiles issus de la fonction de répartition inverse d’une
distribution de Burr (Eq 0) pour connaître les limites de la carte de contrôle de type Shewhart (Eq
0).
[ ] ¿ Ss n
1
1
− c
LIC =m− M − 1−Pi −1 k
[ −M ]⋅Ss n
1
1
− c
LSC =m 1−Ps −1 k
Eq 0
Conclusion
La démarche proposée par Yourstone présente l’avantage de fournir un cadre rigoureux pour la
détermination des limites de contrôle. Cet avantage est incontestable quand on sait que les limites
de contrôle sont systématiquement placées à ±3s de l’estimateur considéré. Il faut aussi souligner
que cette méthode n’exige pas un nombre excessif d’observations pour déterminer les limites de
contrôle. L’auteur suggère en effet d’utiliser au minimum 50 observations pour calculer les
coefficients de Kurtosis et de Skewness de la distribution de la moyenne.
Cependant comme le fait remarquer Rodriguez [Rod 92]43 les méthodes basées sur les moments
peuvent donner des résultats instables. C’est pourquoi il est très hasardeux de vouloir trop réduire le
nombre d’observations.
43
RODRIGUEZ R.N. Recent developments in process capability analysis
Journal of Quality Technology Vol 24 N° 4 - 1992
44
SCHNEIDER H. KASPERSKI W.J. & al Control charts for skewed and censored data
Quality engineering 8(2):263-274 - 1996
Cas des populations stratifiées
Méthodes d'échantillonnage
Parmi les procédés permettant d’améliorer la précision des estimations obtenues à partir d’un
échantillonnage aléatoire, on peut retenir la technique de stratification [Gen 74]45 [Ard 95]46. Ces
techniques concernent les populations non homogènes dont on peut isoler les lois élémentaires
(Figure 30). La stratification, préalable à l’échantillonnage, consiste à diviser la population en un
certain nombre de groupes homogènes appelés strates et à tirer indépendamment un échantillon
dans chacune des strates.
Strate
Strate N° 1
N° 3
Strate
N° 2
Figure 30
L’échantillon est alors constitué d’autant de sous-échantillons qu’il y a de strates, chaque sous-
échantillon étant prélevé au hasard dans une strate. De manière générale, on a toujours intérêt à
stratifier une population lorsque cela est possible.
Cette technique n’est bien entendu possible que si les générateurs (ou strates) sont identifiables sur
le procédé étudié. Pour des raisons économiques évidentes, les échantillons prélevés pour les cartes
de contrôle, pour chacune des strates seront de petites tailles et le plus souvent unitaires.
Le problème essentiel qui conditionne l’efficacité de la méthode est le choix des strates et leur
délimitation. Pour être choisi comme critère de stratification, un caractère statistique quantitatif ou
qualitatif doit être en corrélation étroite avec les variables étudiées. Pour un procédé multi-
empreintes, par exemple, on applique la stratification par empreinte.
L’efficacité de la stratification dépend en effet de l’homogénéité des strates vis à vis de ces
variables.
45
GENET J., PUPION G., REPUSSARD M. Probabilités, Statistiques et sondages - Vuibert - 1974
46
ARDILLY Les techniques de sondage - Technip - 1995
On peut montrer qu’on a intérêt à multiplier le nombre de strates pour accroître la précision de
l’estimation. On reste néanmoins limité par la nécessité de tirer au moins un échantillon (même
unitaire) par strate.
La stratification permet d’améliorer considérablement la précision des estimations, d’autant qu’il
est possible de déterminer une répartition optimum des échantillons entre les différentes strates.
Dans le cas où le taux de sondage est uniforme entre les strates, l’échantillon est appelé échantillon
stratifié représentatif. Ce type d’échantillonnage n’offre pas un gain de précision aussi important
que si le taux de sondage par classe est optimisé.
L’objectif de cet échantillonnage est de répartir entre les différentes strates l’échantillon, dont
l’effectif global n est fixé. Cette répartition est faite de façon à obtenir la meilleure estimation
possible.
Il s’agit de déterminer les tailles n1, n2, ..., nk des échantillons dans les différentes strates, pour
lesquelles la variance de l’estimateur est minimum avec la condition :
k
∑ nh=n
h=1
k
W n1 , . . . , n =V x ' λ⋅ ∑ nh −1 où l est le multiplicateur de Lagrange
k
h=1
Pour obtenir la meilleure estimation possible, le taux de sondage dans chaque strate doit donc être
proportionnel à l’écart-type dans la strate de la variable étudiée.
La valeur du coefficient de proportionnalité est déterminé par la relation (Eq 0) :
n
K= k
∑ N h sh
h=1
Eq 0
Une fois l’échantillonnage effectué dans chacune des strates, on peut estimer la moyenne de la
population en appliquant la relation (Eq 0).
k n
1 Nh h
x ' =
N
∑ ∑x
n h i=1 hi
h=1
Eq 0
avec
N l’effectif total
Nh l’effectif de la strate h
nh la taille de l’échantillon de la strate h
k nombre de strates
Dans le cas d’un échantillon stratifié représentatif la relation se résume à la moyenne des
échantillons (Eq 0).
k nh k nh
Nh 1
x ' = ∑ ⋅
N N
∑ x hi = 1n ∑ ∑ x hi
h=1 i=1 h=1 i=1
Eq 0
Nh 1 1
avec ⋅ =
N nh n
k
N 2h N h−n h s 2h k N 2h N h−n h S h
V x ' = ∑ ⋅ ⋅ =∑ ⋅ ⋅
h=1 N 2 N h−1 n h h=1 N 2 N h n h
Eq 0
avec
N h −1
s 2h = ⋅S h
Nh
Exemple d’application à un procédé mutigénérateur
On peut montrer au travers d’un exemple numérique qu’il est très avantageux de prélever un
échantillon dans les strates d’une population, plutôt que de procédé à cet échantillonnage de
manière aléatoire.
Prenons l’exemple d’un tour comportant 6 broches. Les 6 broches ont la même dispersion s = 0.2 ;
l’échantillon stratifié représentatif (1 pièce par broche) est aussi l’échantillon de Neyman
On suppose que les différentes strates ont respectivement pour moyenne 10.5 ; 10.1 ; 9.9 ; 10.2 ;
10.5 ; 10.0
[ ]
k k 2
V [ X ] =E [ X ] −E [ X ] = p ∑ − p ∑ mi
2 2
s i2 mi2
i=1 i=1
1
V [ X ] =0 . 2 2 10. 5 2 10. 1 2 9 . 9 2 10 . 2 2 10 . 5 2 10 . 0 2 −10 . 2 2=0 . 0933
6
La variance de la moyenne dans le cas d’un échantillonnage aléatoire de taille n= 6 est donc :
V [X
] =V [ X ] / n=0 . 0155
En revanche si l’estimateur est construit à partir d’un échantillon stratifié représentatif, sa variance
est donnée par la relation :
nh= 1 h
sh= 0.2
Nh=N/6 h
k= 6
k
1
d’ou V [X
' ]=
36
∑ s h2=0 . 00666
h=1
L’efficacité relative de l’estimateur construit sur un échantillon stratifié représentatif par rapport à
la moyenne est donc :
V [X
' ] 0 . 00666
= » 43
V [X
] 0 . 01555
Aspect pratiques
Les méthodes de stratification s’appliquent tout particulièrement aux procédés dont la production
peut être décomposée en sous-groupes homogènes. Pour les procédés multigénérateurs la
décomposition est évidente puisque chaque générateur est à l’origine d’une loi élémentaire.
Pour un procédé de type multibroches, on a tout intérêt à prélever une pièce minimum par broche
(comme nous le montre l’exemple ci-dessus), pour constituer l’échantillon stratifié représentatif.
Cette méthode est néanmoins contraignante car elle oblige à prélever des échantillons dont la taille
est multiple du nombre de générateurs. Si le procédé possède un nombre important de générateurs
(machines transferts à tables rotatives 18 postes) il devient difficile de procéder à la stratification de
la population pour des raisons économiques. On lui préfère parfois l’échantillonnage séquentiel qui
consiste à prendre un échantillon par strates consécutives [Pil 97a]47. Même si on n’a pas un
échantillon minimum par strate, cette technique permet de réduire de manière significative la
variance des estimations de la moyenne. Dans le cas particulier où la taille d’échantillon est égale
au nombre de générateurs, on a un échantillon stratifié représentatif.
On peut également prélever systématiquement les échantillons dans les mêmes strates. Cela permet
de réduire la taille des échantillons, ou tout au moins de ne pas être contraint à prendre une taille
d’échantillon égale au nombre de générateurs. Cette démarche permet d’obtenir une variance
inférieure à celle d’un échantillonnage séquentiel mais a l’inconvénient majeur d’être biaisée.
Lorsque l’on rencontre une population stratifiée, celle ci a très souvent pour origine un procédé
multigénérateur. Le suivi de procédés multigénérateurs est assez complexe car il nécessite que l’on
détecte à la fois les dérives de l’ensemble du procédé et les dérives d’un seul générateur.
Montgomery propose dans son ouvrage [Mon 91]48 l’utilisation de cartes de contrôles spécifiques
pour le contrôle statistique de ces procédés.
Il propose d’utiliser deux cartes de contrôle pour effectuer le suivi d’un procédé multigénérateur.
L’une pour la détection de causes spéciales qui affectent l’ensemble des générateurs, et l’autre pour
les causes spéciales qui n’occasionnent le décentrage que d’un générateur ou un ensemble de
générateurs.
Pour détecter un décentrage du procédé dans sa globalité, on prélève un échantillon de taille n par
générateur, la moyenne maxi et la moyenne mini sont reportées sur une carte de contrôle. Si les
deux points sont sous contrôle, c’est qu’a fortiori les autres générateurs sont sous contrôle. Les
limites de cette carte de contrôle sont basées sur l’écart-type de la moyenne des échantillons
prélevés sur chaque générateur.
47
PILLET M. DUCLOS E. Optimisation de la taille des échantillons dans le cas des systèmes multigénérateurs -
Revue Pratique de Contrôle Industriel - N° 203 - Février 97
48
MONGOMERY Douglas C. Introduction to Statistical Quality Control - Wiley & Sons 2nd edition 1991
Pour détecter la dérive d’un générateur par rapport aux autres générateurs, on reporte sur une
seconde carte quel est le générateur dont la moyenne est maxi ou mini. Si la moyenne des
échantillons sur un générateur est plusieurs fois consécutives supérieure ou inférieure à celle des
autres générateurs, alors on peut considérer que ce générateur est hors contrôle.
3 s
LSC = X
LSC X
−3 s
LIC = X
LIC X
S max
ou
R max
Max 1 3 3 7 7 7 7 7 2 5 4 2
Min 5 6 1 5 6 3 5 6 6 1 5 5
Détection de la dérive du
générateur 7
Un inconvénient majeur de ce type de carte est sa faible efficacité lorsque la variance globale du
procédé est très grande par rapport à celle de chaque générateur.
En effet, si on considère
· Ytj une variable aléatoire représentant les mesures sur un générateur j à l’instant t,
· m la moyenne du procédé ou la cible,
· At une variable aléatoire de moyenne nulle, et de variance sa2 qui représente la différence entre
les moyennes des générateurs à l’instant t et m,
· etj une variable aléatoire de moyenne nulle et de variance s2 qui représente les variations du
générateur j à l’instant t.
Alors on peut modéliser la moyenne d’un échantillon de taille n, prélevé sur un générateur par la
relation suivante :
Y tj =m At e tj
En conséquence, la variance de la moyenne des échantillons prélevés sur un générateur est sa2+s2/n
2
et les limites d’une carte de contrôle de Montgomery sont, dans ce cas, placées à m±3 s 2 s / n
a
. Si l’on considère s très supérieur à s alors une évolution de s ne sera pas détectable.
a
2 2 2
R.R. Mortell et G. C. Runger [Mor 95]49 ont proposé une alternative à cette méthode en suivant
d’autres variables. Deux cartes sont également utilisées pour suivre les procédés multigénérateurs.
Une carte de contrôle pour détecter les dérives de l’ensemble des générateurs et une deuxième carte
pour déceler les dérives d’un générateur par rapport aux autres.
La première carte est une simple carte de Shewhart sur laquelle on reporte la moyenne de
l’ensemble des générateurs. Les échantillons sont la plupart du temps unitaires sur chacun des
générateurs.
La seconde carte, utilisée pour détecter les dérives d’un générateur, est également constituée d’une
carte de type Shewhart ou CUSUM. Afin d’éliminer l’effet des causes spéciales sur l’ensemble des
générateurs, on soustrait à la moyenne de chaque échantillon (prélevé sur un générateur donné), la
moyenne des échantillons de l’ensemble des générateurs à un instant donné. Ces grandeurs, aussi
appelées résidus, sont insensibles à l’autocorrélation de At et permettent par conséquent de dissocier
les causes spéciales qui influent sur un ou plusieurs générateurs, de celles qui agissent sur
l’ensemble des générateurs. Les limites de contrôle d’une telle carte sont placées à ±3 s / n .
Une autre alternative pour détecter d’éventuelles dérives d’un générateur est de suivre l’étendue
entre la moyenne des échantillons prélevés sur chaque générateur à un instant t.
Cette variable notée R t =max Y tj −min Y tj peut être suivie à l’aide d’une carte de Shewhart ou
j j
une carte CUSUM. Cette procédure présente l’avantage sur la précédente de ne reporter qu’une
seule variable sur la carte de contrôle, quel que soit le nombre de générateurs du procédé de
fabrication.
Conclusion
Le cadre d’application des cartes de contrôle de Mortell R. et de Montgomery D. sont les procédés
multigénérateurs pour lesquels la production d’un générateur peut être isolée. Ces cartes présentent
donc l’intérêt de fournir une information synthétique sur l’évolution du procédé. Elle permettent en
effet de dissocier les évolutions communes à l’ensemble des générateurs de celles limitées à un
générateur.
Cette approche multivariée nécessite donc que l’on prélève au moins une observation par
générateur comme il a été suggéré au paragraphe précédent. Ceci entraîne donc un coût élevé de
prélèvement.
49
MORTEL R.R. & RUNGE G.C. Startistical Process Control of Multiple Stream Process
Journal of Quality Technology Vol 27 N° 1 - 1995
Une approche non paramétrique
Ce n’est que très récemment que l’on s’est intéressé aux méthodes d’estimations non paramétriques
pour les appliquer aux cartes de contrôle.
Alloway et Raghavachi [All 91]50 ont proposé une carte de contrôle utilisant l’estimateur de
Hodges-Lehmann pour remplacer la carte X . L’estimateur de Hodges-Lehmann possède la
caractéristique essentielle d’offrir une grande tolérance aux valeurs extrêmes. De plus, il ne postule
aucune loi a priori.
Nous nous plaçons tout d’abord dans le cas d’un modèle non paramétrique de localisation. On
considère une variable aléatoire X telle que X-q a une fonction de répartition F vérifiant F(0) = ½.
Le paramètre de localisation q est la médiane.
L’estimateur de Hodges-Lehmann, associé aux statistiques de rang signées de Wilcoxon permet de
résoudre le problème de test suivant :
{ H 0 : q=0
H 1 : q¹0
Sous l’hypothèse H0, la loi de l’estimateur de Hodges-Lehmann est symétrique par rapport à son
espérance.
On construit l’estimateur de Hodges-Lehmann de la manière suivante :
· Pour chaque échantillon de taille n, on calcule les M=n(n+1)/2 moyennes de Walsh définies par :
X X j
W i , j= i avec 1 ≤i≤ j≤n
2
q =md iane W i ,1 , W i ,2 , L , W i , M
Eq 0
50
ALLOWAY J. A. RAGHAVACHI M. Control charts based on the Hodges-Lehmann Estimator
Journal of Quality Technology - N°23 - pp336-347 - 1991
Si M est impair q =W i , M 1
2
W W M
Si M est pair
q =
i,
M
2 i,
2
1
2
Si la population est symétrique par rapport à la médiane q, alors q est distribué symétriquement
par rapport à q. De plus q est un estimateur non biaisé de q (quand les moments de X existent) et
équivariant par translation.
P [ W i , k qW i , M −k 1 ] » 1−α
Cette relation fait appel aux statistiques de rang signées de Wilcoxon. Seul un nombre limité des
tests d’hypothèse sont réalisables puisque les statistiques de rang signées de Wilcoxon sont
discrètes. On trouve par exemple pour un échantillon de taille n= 8 et pour k=2 que l’intervalle de
confiance est de 98.4%, ce qui semble tout à fait acceptable pour une application SPC.
Alloway et Raghavachi ont mis en évidence que la taille d’un échantillon ne devait pas être
inférieure à n=10 de manière à obtenir des risques a de l’ordre de 0.27%.
Si on prend les moyennes de Walsh extrêmes, pour un échantillon de taille 10, on montre que
99.8% de la population est entre les limites de la carte. Ainsi la Période Opérationnelle Moyenne
théorique pour un procédé centré (POM0=1/a) est de l’ordre de 500.
Les résultats de simulation de E. Pappanastos & Adams [Pap 96]51 montrent que les limites de la
carte de Hodges-Lehmann basées sur les distribution de Wilcoxon fournissent une POM0 nettement
supérieure à la POM théorique.
51
PAPPANASTOS E.A. & ADAMS B.M. Alternative Designs of Hodges-Lehmann Control Chart
Journal of Quality Technology Vol 28 N°2 - 1996
Comparaison entre la carte de Shewhart et la carte de Hodges-Lehmann
m−m0
On note d = le décentrage du procédé. Pappanastos & Adams ont comparés la POM des
s
cartes de Shewhart et de Hodges-Lehmann pour différentes valeurs du décentrage d et des
échantillons d’effectif n=10.
D’autres méthodes de calcul des limites de contrôle ont été proposées par E. Pappanastos. Il s’agit
notamment de construire les limites de contrôle à partir d’une équation de la forme : q ¿±C2 ¿ S2 .
où q ¿ est la médiane des estimations précédentes q1 , q2 , ... , qm .
S2 est la moyenne des variances des échantillons.
Le coefficient C2* est choisi pour fournir la POM0 souhaitée.
Cette alternative (HL*) permet de rendre la carte de contrôle Hodges-Lehmann plus sensible aux
décentrages du procédé grâce à des limites de contrôle plus resserrées.
Malgré cet accroissement de sensibilité, la carte de contrôle de Shewhart reste beaucoup plus
sensible que la carte de Hodges-Lehmann à un décentrage du procédé. Ceci a pu être constaté pour
plusieurs types de distributions : loi normale, loi uniforme et double exponentielle (Figure 31).
Papanastos et Adams concluent à la suite de ces résultats que l’utilisation de cartes de contrôle
mettant en œuvre l’estimateur de Hodges-Lehmann pour un paramètre de localisation, n’est
absolument pas viable.
Même si leur conclusion peut s’avérer juste dans bon nombre de cas, il faut garder à l’esprit que
l’estimateur de Hodges-Lehmann a une variance asymptotique inférieure à celle de la moyenne
pour les lois à tendance leptokurtique. Ce résultat n’est a priori pas surprenant car la médiane a de
très bonnes performances lorsque la distribution de la population est de nature leptokurtique.
V X
0 . 864≤ERA q , X
= 3
V q
L’idée de loi fortement unimodale est assez vague. Elle concerne en fait toutes les lois dont le poids
des queues est compris entre la loi uniforme U[-1,1] et la loi de Dirichlet De(0,1) selon le critère
de Van Zwet [Van 64]52. Ce critère permet de classifier les lois selon le poids de leurs queues.
et HL* de la
On retrouve ces résultats en examinant les périodes opérationnelles des cartes X
Figure 31. Les limites ayant été placées systématiquement à ±3 s / n , on peut constater que la
POM0 de l’estimateur de Hodges-Lehmann est plus faible que celle de la moyenne pour la loi
normale. La variance de l’estimateur de Hodges-Lehmann est donc bien supérieure à celle de la
moyenne. On note au contraire que la POM0 est très nettement supérieure lorsque l’on est dans le
cas de la loi double exponentielle.
En outre, on peut se demander si les objectifs visés ne sont pas contradictoires. En effet, en
appliquant l’estimateur de Hodges-Lehmann à la M.S.P, on cherche à détecter des évolutions de la
population avec un estimateur qui se caractérise par une très grande robustesse ; donc une faible
sensibilité aux évolutions.
52
VAN ZWET W. R. Convex Transformations of Random Variables- Mathematisch Centrum - 1964
Calcul des limites à partir des p-quantiles empiriques d’un échantillon ordonné
Une autre approche proposée par Willemain et Runger [Wil 96]53 consiste à construire les limites
d’une carte de contrôle en estimant les p-quantiles de la distribution de la variable reportée sur la
carte, à partir d’un échantillon ordonné. Cette méthode permet de construire un intervalle de
confiance indépendamment de la distribution des variables considérées (Distribution-free tolerance
intervals) [Wil 62]54.
Pour réaliser le calcul des limites de contrôle on supposera une période d’étude du procédé,
préliminaire au pilotage. Lors de cette période, le procédé doit être stable pour que les informations
collectées soient représentatives de la distribution de la population.
Figure 32
On note P la probabilité qu’une réalisation de Y tombe entre les limites de l’un de ces blocs (Eq 0).
P=Pr [ y k ≤Y ≤ y k b ]=F y k b −F y k
Eq 0
53
WILLEMAIN Th. R. & RUNGER G. C. Designing Control Charts using an Empirical Reference Distribution -
Journal of Quality Technology Vol 28 N°1 - 1996
54
WILKS S.S. Mathematical statistics - Wiley 1962
Si on place les limites de manière empirique : LIC=Y(k) et LSC = Y(k+b), b étant le nombre de blocs
entre les limites de contrôle.
Alors P est la probabilité qu’un point soit placé entre les limites.
P est une variable aléatoire distribuée selon une loi beta de paramètres b et m (Eq 0).
m! m−b
g p = ⋅p b−1 1− p ,0 ≤ p≤1
b−1 ! m−b !
Eq 0
On note R le nombre de tests avant détection d’un point hors contrôle. R suit conditionnellement à
P une loi géométrique de paramètre 1-P telle que E(R/P=p)= 1/(1-p). La période opérationnelle
moyenne est donc une variable aléatoire dépendant de P.
Si on prend des limites de contrôle LSC= y(k+b) et LIC= y(k) la distribution marginale de la POM
est une loi beta inverse (Eq 0) :
b−1
C POM −1
h POM = POM ³1
POM m1
Eq 0
Dont en déduit l’espérance et la variance de la POM (Eq 0) :
m bm
E [ E R/ P ] =E [ POM ] = et Var [ POM ] = 2
m−b m−b m−1−b
Eq 0
On note qu’en choisissant des limites de manière à obtenir la POM souhaitée, cela ne signifie pas
que sa variance sera raisonnable. En effet, pour obtenir des limites avec un bonne précision, il est
nécessaire de prélever un grand nombre d’observation dans la phase préliminaire, comme en
témoigne la Figure 33.
m = nombre d’observation
b = nombre de blocs à l’intérieur
m b E(POM) σ(POM)
741 73 370 370
8890 8866 370 77.1
184 830 184 331 370 16
Figure 33
Tout d’abord, pour que E[POM] et Var[POM] soient finis, il faut que bm−1 .
Par ailleurs, les auteurs préconisent de laisser au moins trois blocs de part et d’autre des limites de
contrôle pour obtenir des résultats satisfaisants en terme de variance.
De plus, ils montrent qu’il faut prélever au moins 4.E[POM] observations, pour obtenir la POM
souhaitée. Cependant, ceci ne garanti pas que la Variance de la POM sera raisonnable.
Ces différentes restrictions sur la méthode, la rendent difficilement applicable dans le domaine
industriel. En effet le nombre de données requises pour déterminer les limites de contrôle est tout à
fait rédhibitoire. On imagine mal un industriel attendre 50 000 mesures avant de pouvoir piloter son
procédé.
La seule alternative consisterait éventuellement à appliquer cette méthode sur les données d’un
historique de production ou bien sur un procédé pouvant fournir un volume important de données.
D’autre part cette méthode ne traite que les distributions symétriques puisque l’on ne considère que
les paramètres b et m dans le calcul de la POM alors que le paramètre k a aussi beaucoup
d’importance.
Synthèse
Les différents outils d’analyse de capabilité présentés dans ce chapitre répondent globalement assez
bien à la demande industrielle dans la mesure où on considère qu’une pièce est bonne quand on est
dans les tolérances. Cependant leur utilisation nécessite un minimum de précautions pour obtenir
des résultats cohérents. En effet, le pari qui consiste à évaluer la dispersion à 99,73% de la
population est particulièrement ambitieux, et chacune de ces méthodes possède un cadre
d’application bien défini, qui si on en sort, peut aboutir à des résultats bien différents de ceux
escomptés.
Nous résumerons les avantages et inconvénients de chacune des méthodes étudiées sous forme d’un
tableau (Figure 36).
Deux écoles s’opposent sur la définition des indicateurs de capabilité et notamment sur la définition
de la dispersion :
· La première, dont nous venons d’étudier les travaux adopte une approche qui consiste à
considérer que la notion de capabilité est étroitement liée à celle de pourcentage hors tolérance.
On définit alors la dispersion sur un intervalle contenant 99,73% de la population.
· La seconde école considère au contraire que la dispersion définie sur 6 écart-types de la globalité
des observations fournit une bien meilleure idée du niveau de qualité de la production.
Dispersion à 6σ
Prenons par exemple (Figure 34) le cas d’une loi uniforme et d’une loi normale d’écart-types
unitaires avec une tolérance de ± 2. Pour chacune de ces lois, il est possible de calculer le ratio
IT/6s que nous associerons à l’indicateur Cp.
Dans ce cas, on constate qu’une distribution selon une loi normale engendre de l’ordre de 4.5% de
pièces hors tolérances, ce qui se traduit par un Cpk très faible, alors que dans le cas d’une loi
uniforme aucune pièce ne sort des spécifications.
On comprend aisément que pour le fournisseur, cette situation ne soit pas très agréable. En effet,
malgré la conformité aux tolérances, le Cp et le Cpk sont inférieurs à 1 et sa production risque
d’être refusée.
s s
2.28% 2.28%
m m
Figure 34
Du point de vue du client, le Cpk étant inférieur à 1.33, il peut selon la norme en vigueur, refuser le
lot ou imposer le tri de la production. Le tri des pièces distribuées selon la loi normale permettra
d’améliorer le Cp. En revanche, celui de la loi uniforme, n’apportera aucune amélioration. Certains
constructeurs comme General Motors préconisent donc un tri de la population avec un calibre
resserré afin que la dispersion (6s) soit suffisamment faible pour garantir un bon Cp.
Ces mesures draconiennes, sont a priori peu économiques car elle rebutent des pièces qui sont dans
l’intervalle de tolérance. Cependant l’objectif qui se résume a fournir des pièces dans les tolérances
n’est pas suffisant pour garantir le niveau de qualité du produit fini. Il faut aussi que la production
soit centrée sur la cote cible.
Considérons maintenant le cas où les indices de capabilité sont établis en fonction de la l’intervalle
couvrant 99,73% de la population (Figure 35).
Dispersion Dispersion
Figure 35
Pour le fournisseur, cette construction des indicateurs Cp et Cpk est beaucoup plus avantageuse. En
effet, une population uniforme a des Cp et Cpk identiques à ceux d’une loi normale ayant la même
dispersion (99,73%). Or le coût de la non qualité au sens de Taguchi est beaucoup plus élevée pour
la loi uniforme que pour la loi normale du fait de la faible concentration des observations autour de
la cible.
Il est évident dans ce cas, que le client « se fait avoir » sur la qualité de la marchandise.
D’autre part, on imagine mal un fournisseur appliquer cette méthode si la distribution de la
population suit une loi a tendance leptokurtique. Dans ce cas, en effet, un Cpk calculé en se basant
sur la définition de la dispersion à 99,73% de la population, est inférieur à un Cpk classique. Alors
pourquoi utiliser une méthode complexe et pénalisante ?
Conclusion
Selon nous, la variance ou l’écart type offrent une définition de la dispersion beaucoup plus
cohérente et beaucoup plus révélatrice de la qualité du produit que celle basée sur les 99,73% de la
population. Les indicateurs de capabilités ainsi utilisés fournissent alors une information plus fidèle
du niveau de qualité de la production.
Par ailleurs, nous pensons que la multiplication des méthodes de calcul des indicateurs de capabilité
est un vecteur de confusion pour les industriels déjà confrontés aux problèmes de méthodologie de
la M.S.P.
Synthèse des indicateurs de capabilité dans le cas de populations non normales
Type Méthode proposée Avantages Inconvénients
d’application
Lois bornées · Loi de défaut de Facilité de mise en place. ü La validité du modèle
forme nécessite une parfaite
· Loi de Rayleigh connaissance du type de
· Loi Log-normale critère étudié.
ü L’éventail des
applications est limité.
Il faut cependant rappeler que les cartes de contrôle ne se limitent pas à une représentation
graphique de tests d’hypothèse. La carte de contrôle est bien entendu un outil de prise de décision
statistique, mais c’est aussi un outil de réglage grâce à l’estimation ponctuelle fournie par la
moyenne ou la médiane. La non normalité de la population a aussi des répercussions sur l’efficacité
des estimateurs. Ce phénomène est d’ailleurs très remarquable dans l’application de la carte de
Hodges-Lehmann, qui est plus performante que la carte de Shewhart pour des populations de type
impulsionnelles.
Calcul des limites par Toute loi Méthode utilisable sur Le nombre
les p-quantiles les réalisations de d’échantillon
n’importe quelle nécessaire pour
variable aléatoire. obtenir des limites de
contrôle fiables est
exorbitant
Figure 37
Conclusion
L’aspect applicatif est de loin le plus important pour la M.S.P. On regrette donc que certaines
méthodes soient proposées sans tenir compte des réalités industrielles. On citera par exemple la
méthode non paramétrique de calcul des limites de contrôle à partir des p-quantiles empiriques d’un
échantillon ordonné. Pour que les limites puissent assurer une P.O.M. de 370 par exemple, la
méthode proposée requiert 1500 échantillons. Etant donné la tendance est au raccourcissement des
séries, bon nombre d’entre elles seraient terminées avant que les limites de la carte de contrôle ne
soient établies !
L’aspect applicatif concerne également le nombre d’observations au sein d’un échantillon. En effet,
la taille d’un échantillon revêt une importance économique et pratique qui peut prévaloir par
rapport à l’optimalité des estimations en terme de variance. Dans le cas de procédés
multigénérateurs par exemple, nous savons que la variance des estimations est minimale si l’on
prélève un échantillon de Neyman. Mais peut-on sérieusement penser qu’un industriel prélèvera au
moins une pièce sur chacune des 12 empreintes d'une presse ? C’est en effet illusoire.
Il serait donc particulièrement intéressant d’explorer des méthodes non paramétriques permettant
d’offrir des estimations dont la variance est inférieure à celle de la moyenne quelle que soit la
distribution des observations. Il serait aussi important que la carte de contrôle mise en œuvre, ne
limite pas son application à un type d’échantillonnage particulier.
Chapitre 3
Chapitre 3
Introduction
La non normalité est un problème important pour l’application de la Maîtrise Statistique des
Procédés, c’est pourquoi ce sujet a été assez largement abordé ces dernières années.
Les approches utilisées pour aborder ce problème sont le plus souvent assez classiques car elles
consistent à adapter les méthodes de la Maîtrise Statistique des Procédés à certains types de non
normalités. Ainsi, l’accent est particulièrement porté sur le calcul des limites de contrôle des cartes,
en vue d’une amélioration de la Période Opérationnelle Moyenne.
En revanche, on s’intéresse assez peu aux performances des estimateurs utilisés. Ainsi on utilise
assez systématiquement la moyenne ou la médiane comme estimateur ponctuel de la position du
procédé. Mais peut-on réellement envisager d’optimiser la P.O.M. d’une carte de contrôle, sans
s’interroger sur les performances de ces estimateurs ponctuels ?
Les caractéristiques essentielles d’un estimateur sont sa justesse et sa précision. Or nous savons que
l’un des inconvénients majeurs des méthodes paramétriques, est de voir leurs performances chuter
lorsque les conditions expérimentales s’éloignent du modèle statistique utilisé (la loi normale par
exemple). Ainsi la moyenne est l’estimateur optimal en terme de variance lorsque la population suit
une loi normale. En revanche la médiane a de bonnes performances pour des lois à tendance
leptokurtiques ou impulsionnelles (Chapitre 2 §1.3.3).
Le second élément à prendre en considération est le choix des paramètres de localisation et
d’échelle de la population. Comment justifier le choix de la médiane plutôt que celui de la
moyenne ? Nous verrons qu’il est possible de justifier ce choix en considérant le coût de la non
qualité au sens de Taguchi.
Tout au long de nos travaux, nous avons tenté de résoudre les différents problèmes liés à
l’optimalité de l’estimateur ponctuel, le choix des paramètres de la population, afin de mettre en
œuvre une méthode générale indépendante du caractère de la population.
Nous proposons dans ce chapitre une nouvelle approche pour la mise en place de la M.S.P. dans le
cas de procédés non normaux. L’originalité du concept que nous proposons, repose essentiellement
sur une approche non paramétrique de l’estimation de paramètres de la population. La carte de
contrôle que nous présentons a l’avantage d’être plus précise et plus sensible aux décentrages du
procédé, que des cartes utilisant la moyenne.
· Dans un premier temps, nous ferons quelques rappels sur la notion de statistiques d’ordre et plus
particulièrement sur les combinaisons linéaires de statistiques d’ordre ou L-statistiques. Après
avoir présenté le L-estimateur des moindres carrés, nous étudierons certaines de ses propriétés
afin de montrer son adéquation au problème d’estimation auquel nous sommes confrontés.
· Dans un second temps nous définirons plusieurs méthodes de mise en place de la « carte L »
(construite à partir du L-estimateur des moindres carrés) selon la richesse de l’information dont
on dispose. Nous déterminerons également le choix des paramètres de la population, en se basant
sur le critère de la perte au sens de Taguchi.
· Enfin nous comparerons les performances de la carte L à celles de cartes de contrôle utilisant la
moyenne comme estimateur ponctuel.
Statistiques d’ordre et L-estimateurs
Les statistiques d’ordre ont joué un rôle prépondérant dans le développement de méthodes robustes
et non paramétriques. On les rencontre de façon assez naturelle et depuis longtemps dans les
problèmes de rejet de valeurs extrêmes, grâce à des estimateurs tels que les moyennes a tronquées.
Nous commencerons, dans ce chapitre, par donner les définitions et quelques propriétés des
statistiques d’ordre, puis nous étudierons les lois exactes et asymptotiques des statistiques d’ordre
et enfin leurs combinaisons linéaires (L-statistiques).
Soient des variables x 1 , x 2 , K , x n que l’on range dans l’ordre croissant et que l’on note
x 1 ≤ x 2 ≤ L≤x n . La variable aléatoire X(i) associe à toute réalisation x 1 , x 2 , K , x n est la ième
plus petite valeur de l’échantillon. Cette variable est appelée statistique d’ordre i (i = 1, 2, ...n).
Le sujet des statistiques d’ordre est très vaste car il concerne toutes les fonctions de variables
aléatoires ordonnées. Un exemple très classique de telles fonctions est l’étendue R=x n −x 1 très
largement utilisée pour donner une estimation rapide de la dispersion d’une population. Une autre
x =x n
fonction bien connue des utilisateurs de la M.S.P, est la médiane 1
avec n impair, qui
2
fournit une estimation robuste de la position de la population.
55
LECOUTRE J.P. & TASSI P. Statistique non Paramétrique et Robustesse - Economica - 1987
56
CAPERAA Ph & VAN CUTSEM B Méthodes et modèles en statistiques non paramétriques Exposé fondamental
- Presse de l'université Laval - DUNOD - 1988
57
DAVID H. A. Order Statistics - New York - Willey - 1981
Lois de probabilité associées à une statistique d’ordre
1 n−s
f s x = ⋅F s−1 x [ 1−F x ] ⋅f x
s−1 ! n−s !
Eq 0
Cette expression de fs(x) peut permettre d’établir la loi de distribution de la médiane si on connaît la
fonction de répartition des observations x.
La densité jointe de deux statistiques d’ordre X(i) et X(j) est donnée par la relation (Eq 0).
n! j−i−1 n− j
f ij x , y = ⋅F i−1 x ⋅ f x [ F y −F x ] ⋅f y [ 1−F y ]
i−1 ! j−i−1 ! n− j !
Eq 0
A partir de la densité jointe de deux statistiques d’ordre, on peut établir la densité de probabilité de
statistiques d’ordre telles que l’étendue. On trouvera dans l’annexe mathématique le
développement de ce calcul pour une population distribuée selon une loi uniforme.
Nous avons vu dans la section précédente qu’il est difficile d’exprimer les lois marginales des
statistiques d’ordre au moyen de fonctions élémentaires. Il en est de même pour les moments exacts
de ces statistiques.
Si une variable X possède un moment d’ordre k, alors pour tout r {1, ... ,n}, la rème statistique
d’ordre X(r ) possède un moment d’ordre k. Ce moment s’exprime par la relation (Eq 0).
¥
n! n−r
E X
[ r k ] = ∫
r−1 ! n−r ! -¥
x k F r−1 x 1−F x ⋅dF x
Eq 0
Les conditions d’existence de la covariance de deux statistiques d’ordre sont sensiblement
équivalentes à celles des moments d’ordre k. En effet, si l’espérance E[X] de la variable X existe
alors, pour tout couple (r, s) tel que 1 ≤rs≤n , E [ X r X s ] existe (Eq 0).
n! n−r
E [ X r X s ]= ∬
r−1 ! s−r−1 ! n−s ! x y
xy⋅F r−1 x ⋅ 1−F x ⋅dF x
Eq 0
Les L-statistiques
Les exemples de la médiane ou encore de l’étendue suggèrent la généralisation de l’utilisation de
combinaisons linéaires des composantes du vecteur des statistiques d’ordre.
Soient X1, X2, ... , Xn un échantillon d’une loi F et X le vecteur des statistiques d’ordre associé.
Soient c1, c2, ... , cn n coefficients réels. On appelle L-statistique, la statistique Tn définie par (Eq 0).
n
T n =∑ c i⋅X i
i=1
Eq 0
Les L-statistiques peuvent être utilisées pour estimer les paramètres de localisation ou de dispersion
d’une loi parente. On les appelle alors L-estimateurs.
La loi exacte d’une L-statistique est souvent très délicate à établir du fait de la complexité des
calculs. On ne trouve dans la littérature que quelques démonstrations concernant des lois parentes
relativement simples telles que la loi uniforme ou encore la loi exponentielle. Seuls les premiers
moments peuvent être calculés ou approximés aisément. On peut en revanche obtenir des résultats
de manière plus aisée en considérant la loi asymptotique des L-statistiques. Même si dans le cadre
d’application de la M.S.P. nous sommes bien loin des conditions asymptotiques (puisque n est
relativement petit en M.S.P.) nous pouvons nous intéresser à ces propriétés pour les tests par
intervalle de confiance. Rappelons à ce titre que la distribution de la moyenne empirique X est
souvent supposée suivre une loi normale pour établir les limites d’une carte de contrôle alors
qu’elle n’est qu’asymptotiquement normale.
Comme les valeurs centrales et les valeurs extrêmes des statistiques d’ordre n’ont pas les mêmes
lois asymptotiques, les lois limites obtenues pour une L-statistique seront très différentes selon les
poids (coefficient ci de la L-statistique) attribués à chacune des statistiques d’ordre.
Pour obtenir une loi limite qui soit une loi normale, les coefficients extrêmes c1 et cn ne doivent pas
être trop grand. En effet, un théorème développé dans David [Dav 81] énonce qu’une condition
suffisante pour que la distribution d’un L-estimateur soit normale, est qu’un poids nul soit donné
aux valeurs extrêmes.
En fait, les conditions pour que la distribution d’un L-estimateur soit asymptotiquement normale
porte à la fois sur la loi parente, la valeur des coefficients de la L-statistique et le nombre de ses
coefficients. Une version simplifiée du théorème de Shorack [Sho 1972]58 est énoncé dans
l’ouvrage de Capéràa [Cap 88]. Les hypothèses postulées par Shorack concernent le comportement
de la fonction de poids (poids affecté à chacune des statistiques d’ordre) pour les valeurs extrêmes
ainsi que l’évolution de la fonction de répartition de la population pour les valeurs excentrées. Il
montre la dualité entre deux critères.
· Plus la fonction de répartition F converge lentement vers 0 et 1, plus les contraintes sur la
fonction de poids sont fortes. Il faut en effet que les poids affectés aux statistiques d’ordre
extrêmes soit nuls, comme l’a énoncé David.
· Dans le cas contraire, si les coefficients affectés aux statistiques d’ordre extrêmes sont non nuls
(la moyenne empirique par exemple), les contraintes sur la fonction de répartition sont plus
fortes pour que l’on puisse conclure à la normalité asymptotique du L-estimateur.
1 Si la fonction de poids
est non nulle en 0 et 1,
il est nécessaire (et pas
Tendance
F(x)
forcément suffisant)
J(u)
1 Si la fonction de
répartition converge
lentement vers 0 et 1, il
Tendance
est nécessaire que la
J(u)
F(x)
Leptokurtique
fonction de poids soit
nulle en 0 et 1.
0
x 0 u 1
Cette dernière affirmation montre que la moyenne et les L-estimateurs (si les coefficients sont non
nuls aux extrêmes) sont soumis aux mêmes conditions quant à leur distribution asymptotique. Nous
verrons donc un peu plus loin comment envisager le calcul des limites de contrôle d’une carte
utilisant un L-estimateur.
58
SHORACK G.R. Functions of order statistics - Ann. Math. Statist - N° 43 pp 412-427 - 1972
Robustesse des L-statistiques
Une statistique est dite robuste, si l’influence des valeurs extrêmes est limitée et varie continûment.
Ainsi, les images de deux lois proches, par une statistique robuste, restent proches.
On voit alors que les critères pour que la fonctionnelle T soit continue sont ceux énoncés au
paragraphe précédent : Pour que la statistique Tn soit robuste, il faut
· soit que la fonction de poids soit nulle à l’extérieur du support [a,1-a],
· soit que la loi P converge rapidement vers 0 et 1.
Des études de robustesse menées par Hampel [Ham 74] concernant des estimateurs très classiques
comme la moyenne empirique, la médiane empirique, les moyennes a tronquées ou encore
l’estimateur de Hodges-Lehmann, ont mis en évidence que seule la moyenne parmi ces estimateurs
possède une fonctionnelle non continue. Cette non robustesse se traduit alors par une tolérance
nulle aux valeurs extrêmes. En effet le coefficient de tolérance de la moyenne est nul, ce qui
signifie toute valeur aberrante à une répercussion sur l’estimation. En revanche, un estimateur très
robuste comme la médiane a un point de rupture asymptotique de 0,5 (Voir chapitre 1).
59
HUBER P. Robuste estimation of a location parameter - Ann. Math. Statist. N°35 - pp 73-101
60
HAMPEL F. R. The Influence curve and its in robust estimation J. Amer. Statist. Assoc. -
N°69 pp 383-393 - 1974
Proposition d’un autre estimateur pour les cartes
de contrôle
Choix de l’estimateur
Le choix d’un estimateur est souvent un problème complexe qui oblige à des compromis. De
nombreux critères, parfois contradictoires, sont à prendre en compte.
Notre choix s’est donc articulé autour de trois critères essentiels :
· Nous souhaitions tout d’abord que la méthode utilisée soit non paramétrique afin de ne pas
restreindre notre domaine d’application à une famille de lois statistiques. En effet, la majorité
des méthodes de la Maîtrise Statistique des Procédés aborde les problèmes d’un point de vue
paramétrique, ce qui selon nous, est un procédé réducteur et pénalisant. On suppose que la
distribution des observations peut être caractérisée par une loi ou une famille de lois. Cette
famille est elle-même fonction d’un nombre restreint de paramètres, comme la moyenne et
l’écart-type pour une loi normale. La simplicité des méthodes paramétriques réside
essentiellement dans le nombre restreint de paramètres à estimer pour caractériser la loi. Une
telle approche peut être parfaitement adaptée si la famille de lois est liée à certaines
caractéristiques physiques du procédé. Cependant, le choix d’un modèle paramétrique comme la
loi normale, bien que valide dans bon nombre de cas, ne peut raisonnablement satisfaire tous les
cas de figure.
· D’autre part, l’objectif étant de remplacer la moyenne par un autre estimateur, celui-ci se doit
d’être sans biais et avec une variance inférieure ou égale à celle de la moyenne. La moyenne
n’étant pas toujours le meilleur estimateur, en terme de variance, lorsque la distribution de la
population est non normale, il est possible de trouver un estimateur dont la variance sera plus
faible quelle que soit la distribution des observations. Ces conditions sont en effet indispensables
pour que la carte de contrôle mise en oeuvre détecte des causes spéciales au moins aussi
rapidement qu’une carte de Shewhart.
· Enfin, pour que la méthode proposée possède un caractère général, il est important que
l’estimateur utilisé converge vers la moyenne dans les cas ou la population est distribuée selon
une loi normale.
Le L-estimateur des moindres carrés
Présentation
L'estimateur que nous allons utiliser s’applique à un très grand nombre de distributions,
pour ne pas dire toutes, puisqu’il s’agit de distributions qui ne dépendent que d'un paramètre de
position et d'un paramètre d'échelle, quelles que soient leurs formes.
Pour de telles distributions, Lloyd [Llo 52]61 montre que les paramètres peuvent être estimés en
appliquant la théorie des moindres carrés généralisés à un échantillon ordonné.
Ces estimateurs, qui sont des combinaisons linéaires des observations ordonnées, ont la propriété
très intéressante d'être à la fois sans biais et à variance minimale. En effet, la variance de
l'estimateur de la position de Lloyd n’excède jamais la variance de la moyenne.
La construction de cet estimateur se base sur une modélisation de la distribution empirique ou
théorique de la population.
Dans ce paragraphe nous donnons une rapide démonstration de la construction du L-estimateur des
moindres carrés. Pour plus de détails nous invitons le lecteur à se reporter à l’annexe mathématique
(Annexe §2)
Nous appelons m et s respectivement les paramètres de position et d'échelle de la distribution de la
fonction. Ces paramètres, que l’on cherche à estimer par la méthode des moindres carrés, ne sont
pas nécessairement la moyenne et l'écart type de la population.
On note (x(1),x(2),...,x(n)) les observations ordonnées du vecteur Xk telles que x 1 ≤x 2 ≤L≤x n
x −m
Nous allons construire la variable réduite U(r) de rang r, telle que : U r = r
s
Les moments d’ordre 1 et 2 de la variable U sont alors notés
On écrit l'expression de l'espérance des statistiques d'ordre x(r) sous forme vectorielle
E [ X ] =m⋅esα
61
LLOYD E. H. Least-Squares Estimation of Location and Scale parameters Using Order Statistics - Biometrika -
Vol 39 - pp 88-95 - 1952
où α est le vecteur des ar
e est un vecteur ayant des composantes unitaires
X est le vecteur des mesures ordonnées
α1 1 x 1
que l’on note respectivement α= M e= M et X = M
αn 1 xn
E [ X ] = A⋅q
où q= m
s
[ ]
1 α1
A= M M
1 αn
Le modèle étant un modèle linéaire multiple ordinaire de la forme E [ X ] = A⋅q , on connaît une
estimation du vecteur q au sens des moindres carrés généralisés, donnée par la relation (Eq 0) :
−1
q = At⋅−1⋅A ⋅At⋅−1⋅X
Eq 0
α t⋅⋅α
Var [ m
] =s 2⋅
det At −1 A
e t⋅⋅e
Var [ s ] =s 2⋅
det At −1 A
e t⋅−1⋅X
m=
e t⋅−1⋅e
Eq 0
α t⋅−1⋅X
s =
α t⋅−1⋅α
Eq 0
s2
Var m
=
e t⋅−1⋅e
Eq 0
s2
Var s =
α t⋅−1⋅α
Eq 0
Cet estimateur a trouvé une de ses premières applications en traitement d’image. Bovik [Bov 83]
propose en effet une application de filtrage où l’image, représentant un signal informatif s, est
entachée d’un bruit blanc additif b.
X j =sb j
Pour supprimer les effets du bruit, Bovik cherche le L-estimateur qui minimise l’erreur quadratique
moyenne E s −s .
Nous ne développerons pas ici le calcul des coefficients du L-estimateur de position, celui-ci est
néanmoins disponible dans l’annexe mathématique (Annexe2 §3)
Les coefficients optimaux au sens de l’erreur quadratique moyenne sont donnés par la relation Eq
0.
H −1⋅e
C=
e t⋅H −1⋅e
Eq 0
Les résultats présentés par Bovik sont assez éloquents, quant aux améliorations apportées par le L-
estimateur des moindres carrés dans le cadre d’une population non normale. Les performances du
L-estimateurs peuvent se résumer à un calcul de l’efficacité relative par rapport à la moyenne et la
médiane pour différents types de distributions (Figure 38). L’effectif des échantillons est n=3.
L’efficacité du L-estimateur est d’autant plus grande par rapport à la moyenne que la loi diffère de
la loi normale. Les variances sont les mêmes pour une loi normale et l’amélioration n’est que
substantielle pour une loi triangulaire.
En revanche, les progrès par rapport à la médiane sont d’autant plus grands que les queues de la
distribution sont légères. Ainsi les résultats sont très satisfaisants pour une loi uniforme et le sont
beaucoup moins pour une loi à tendance centrale très prononcée comme la loi de Laplace.
Le calcul formel des coefficients d’un L-estimateur est relativement pénible car il faut établir
plusieurs moments caractéristiques des statistiques étudiées. Ainsi, si on utilise la méthode
proposée par Lloyd on calcule la matrice de covariance des statistiques d'ordre réduites 8 ainsi que
le vecteur des espérances des statistiques d'ordre α. Pour la méthode de Bovik, on détermine la
matrice H.
Nous donnerons à titre d’exemple le développement du calcul pour une loi uniforme. Pour des
distributions plus complexes nous aurons recours au calcul numérique par ordinateur.
Supposons que la variable aléatoire X soit distribuée selon une loi uniforme U sur l'intervalle [0,1].
Sa densité est f(x)=1 et sa fonction de répartition F(x)=x sur ce même intervalle (Figure 39).
f(x)
F(x)
1
1
0 1 x 0 1 x
Figure 39
L’expression de l’espérance d’une statistique d’ordre se simplifie dans le cas de la loi uniforme
+¥
E[ ] k −1
X k =n . C n−1 . ∫ X k . 1−F X n−k . f x . dx
-¥
1
. ∫ x k . 1− x
k −1 n−k
¿ n .C n−1 . dx
0
b
I =∫ x−a b− x
m1 m2
Cette intégrale est de la forme générale dx
a
m1! m2 !
d'où sa solution I (b a) m1 m 2 1 avec ici b=1 a=0 m1=k m2=n-k
m1 m2 1
n−1 ! k ! n−k ! k
d'où E [ X k ] =n⋅ ⋅ =
k −1 ! n−k ! n1 ! n1
k n−k 1
Var [ X k ] =
n1 2 n2
k n−l 1
Cov [ X k , X l ]= avec 1 ≤k l ≤n
n1 2 n2
[ ]
3 2 1
1
= ⋅2 4 2
80
1 2 3
On inverse les matrices de covariance W
[ ]
2 −1 0
−1
=20⋅ −1 2 −1
0 −1 2
En utilisant la relation (Eq 0) de Lloyd, on trouve que le L-estimateur optimal est le filtre milieu. Il
est optimal en terme de variance parmi les estimateurs linéaires.
1
2
C opt = 0
1
2
La méthode proposée par Bovik suppose que le bruit soit centré. C’est pourquoi nous allons
considérer ici une loi uniforme U − , [ ] 1
2
1
2
. Le calcul de la matrice H n’est pas très aisé pour une
telle distribution. C’est pourquoi nous allons nous appuyer sur les résultats précédents de la matrice
de covariance qui est invariante par translation de la population.
E [ X k X l ] =Cov [ X k X l ] E [ X k ]⋅E [ X l ]
2 k −n−1
où E [ X k ] =
2 n1
On en déduit la matrice H :
[ ]
4 1 −2
1
H= 1 2 1
40
−2 1 4
On peut montrer que la variance du L-estimateur des moindres carrés évolue asymptotiquement en
1/n2 alors que celle de la moyenne varie en 1/n dans le cas de la loi uniforme.
La variance d'un L-estimateur est définie par la relation suivante :
Var m
=C t HC =C t C
En effet, pour des raisons de symétrie de la matrice H, les moments du bruit centré étant tantôt
positifs tantôt négatifs, ces deux relations sont équivalentes.
k n−k 1
Var [ X k ]=12 s 2⋅
n1 2 n2
k n−l 1
Cov [ X k , X l ] =12 s 2⋅ avec 1 ≤k ≤l ≤n
n1 2 n2
Pour la suite du calcul, on ne s'intéresse qu'aux coefficients placés dans les angles de la matrice R,
car les autres seront annulés lors de la multiplication avec le vecteur C des coefficients du filtre
milieu.
[ ]
n L? L 1
12 s 2
d'où R= ⋅M O M
n1 2 n2 1 L? L n
2
1 12 s ⋅ n1 6 s2
d'où ]=t C C = ⋅
Var [ m =
2 n1 2 n2 n1 n2
6 s2
La variance asymptotique du L-estimateur est donc Lim Var m
= . Elle évolue en 1/n2 alors
n ¥ n2
s2
que la moyenne empirique évolue en 1/n : Lim Var X
=
n¥ n
Etude de la Période Opérationnelle Moyenne
Nous avons montré au travers de simulations [Duc 96]62 que la réduction de la variance apportée
par le L-estimateur permettait d’améliorer la Période opérationnelle d’une carte de contrôle de type
Shewhart.
Pour ces simulations, nous avons choisi de prendre les limites de contrôle égales à ±3 s / n quelle
que soit la forme de la population et le type d'estimateur. On compare donc les performances des
cartes de contrôle à limites constantes. La Figure 41 donne d’ailleurs un aperçu de la P.O.M. des
deux cartes de contrôle étudiées lorsque la population suit une loi normale. La P.O.M. est
représentée en fonction du décentrage k.s ou k est un réel. La distribution du L-estimateur étant
plus étroite que celle de la moyenne, on minimise de façon importante les risques a, d’où une
P.O.M. importante pour k= 0.
1000
800
600
400
200
0
0.7 25
0
0.225
0.325
0.425
0.625
0.825
0.925
0.525
0.125
Figure 41
62
DUCLOS E. PILLET M. COURTOIS A. Optimisation de la Maîtrise Statistique des Procédés par une méthode
de filtrage d’ordre - Revue de Statistique Appliquée XLIV (2) pp 61-79 - 1996
63
NC : Non calculable car les limites de contrôle sont à l’extérieur de la distribution de la population.
Nous avons également traité le cas qui consiste à travailler à risque a constant. Ainsi, pour la carte
on fixe les limites de contrôle à 3 s/ n , et on recalcule les limites de la carte de Shewhart avec
X
L-estimateur, de manière à obtenir un risque a équivalent à celui de la carte X . L’exemple choisi
est celui d’un échantillon de taille n=7 avec une distribution uniforme (Ligne grisée de la Figure
40). Les limites sont fixées à 2,76 s / n pour obtenir une P.O.Mk=0= 650. Les calculs mettent en
évidence que la carte utilisant le L-estimateur minimise les risques de fausses détections lorsque le
décentrage est faible. En revanche, si le décentrage est significatif (k>0,9), la P.O.M. de la carte de
contrôle avec L-estimateur devient plus faible que celle de la carte X (Figure 42). On constate par
exemple pour la limite supérieure 3 s / n=3/ 7=1, 13 , que P.O.M.Moyenne= 2 et P.O.M.L-estimateur
=1,5 ; on détecte donc les décentrages beaucoup plus rapidement en utilisant un L-estimateur.
10
9 Moyenne
8 L-estim ateur
7
6
P.O.M.
5
4
3
2
1
0
0.7 0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2
k
Figure 42
Ces premières simulations sur des distributions simples mais possédant un caractère non normal
prononcé ont montré que les L-estimateurs pouvaient être une alternative intéressante à l’utilisation
de la moyenne dans un contexte non normal.
Nous avons donc cherché à généraliser notre approche aux lois non normales ne possédant pas de
propriété de symétrie.
Généralisation au cas non symétrique
Choix du paramètre de localisation
Médiane
Moyenne
Moyenne Mode
Médiane
Figure 43
Nous avons donc choisi de mettre en place un critère qui permette de déterminer un paramètre
optimal. Le coût de la non qualité nous est apparu un critère satisfaisant pour justifier le choix du
paramètre de localisation. En effet, nous allons chercher le paramètre de localisation qui, lorsqu’il
coïncide avec la cible du procédé, permet de minimiser la perte au sens de Taguchi [Tag 89]64
(Figure 44).
Paramètre de
localisation
Cible
Fon
ction
Pert
e
Figure 44
64
TAGUCHI G. ELSAYED A. HSIANG T. C. Quality engineering in production systems
Mc Graw-Hill - 1989
La justification du choix du paramètre m p est assez triviale car il suffit de minimiser l’expression
de la perte moyenne par individu produit.
[ ]
L =K⋅E X −m p 2 = K⋅ E [ X 2 ] −2 m p⋅E [ X ] m
p
2
On cherche un extremum de la fonction en la dérivant par rapport à m p :
¶ L
=K 2 ⋅E X −2 m p =0 Ûm p =E X
¶ mp
Le paramètre de localisation est donc la moyenne pour que la perte soit minimale quand ce
paramètre est égal à la cible. Ceci est vrai quelle que soit la distribution de la population.
Le coût de la non qualité associé à la production d’une pièce n’est pas systématiquement
symétrique. En effet les opérations effectuées à la suite d’un dépassement de la tolérance
supérieure ne sont pas forcément aussi coûteuses si on dépasse la tolérance inférieure.
Prenons l’exemple rencontré pour l’usinage de paliers ou des manetons de vilebrequins. Les pièces
usinées ont une forte valeur. On considère en effet que la perte d’un vilebrequin entraîne un coût de
2000 francs. Ce cas de figure est rencontré lorsque la tolérance inférieure du diamètre est dépassée.
En revanche si on dépasse la tolérance supérieure, on effectue une retouche qui est évaluée à 50
francs.
Dans ce cas il est évident que le paramètre moyenne ne permet pas de minimiser la perte lorsqu’on
le centre sur la cible (Figure 45). Il faut donc trouver un autre paramètre de localisation. Son choix
dépend ici des coefficients K1 et K2 de la fonction perte respectivement à gauche et à droite de la
cible.
TI TS
L 1 =K 1
(x 1 -x 0
)2
Fonction
Perte
Cible
L 2 =K 2 (x 2 -x 0 )2
Figure 45
{
2
L1=K 1 X 1− X 0 X 1 ≤ X 0
2
L 2 =K 2 X 2 − X 0 X 2 X 0
On considère que la distribution de la population est centrée sur la cible de telle manière que le
paramètre de localisation se superpose à la cible : m= X 0
P est la probabilité qu’une mesure soit inférieure au paramètre de localisation : P=Pr(X<m)
-¥ m
La résolution non triviale de cette équation où P dépend de m nécessite la connaissance de la loi des
observations, ce qui est inacceptable dans un cadre non paramétrique.
Nous supposerons dans la suite de notre étude que la fonction perte est symétrique, dans ce cas le
paramètre à estimer est la moyenne.
Choix du paramètre de dispersion
Pour le paramètre d’échelle, nous n’avons pas mis en évidence de critère de choix particulier, si ce
n’est l’aspect pratique. En effet, le paramètre qui paraît le plus évident à estimer est l’écart type.
Caractéristiques de la population
Nous avons choisi de traiter le cas d’une population stratifiée composée de 6 lois
élémentaires normales de mêmes écart-types :
N1(0 , 1) N4(5 , 1)
N2(5.5 , 1) N5(5 , 1)
N3(-3.2 , 1) N6(-3.5 , 1)
0.4
N(5.0;1)
0.35
N(5.5;1)
0.3 N(0;1)
0.25 N(-3.2;0)
f(x)
0.2 N(-3.5;1)
0.15 fp(x)
0.1
0.05
0
-8
-6
-4
-2
10
0
Figure 46
Cet exemple simule le cas industriel d’une fabrication sur une presse avec 6 empreintes.
Les prélèvements sur chacun des générateurs étant équiprobables ( = 1/6), on définit la densité de
probabilité des critères générés par :
f p ( X ) f N 1 ( X ) f N 2 ( X ) ... f N 6 ( X )
A titre d’exemple, on donne (Figure 47&Figure 48) les coefficients des deux estimateurs pour n=3,
4 et 5. On remarque sur la Figure 47 que la fonction de poids est relativement proche de celle du
milieu de l’étendue. Dans ce cas, on peut se demander si le choix du milieu de l’étendue n’est pas
une bonne solution à chaque fois que la distribution de la population à une tendance platikurtique.
Plusieurs considérations nous dissuaderons d’une telle approche. Tout d’abord, le milieu de
l’étendue n’est pas optimal en terme de variance pour toutes les lois à tendance platikurtique. Et
d’autre part, le paramètre de position qu’elle estime est différent de la moyenne lorsque la loi n’est
pas symétrique.
L-estimateur de position
n c1 c2 c3 c4 c5
3 0.52 -0.07 0.55
4 0.53 -0.06 -0.04 0.57
5 0.53 -0.045 -0.046 -0.01 0.57
Figure 47
L-estimateur de dispersion
n c1 c2 c3 c4 c5
3 -0.58 -0.0037 0.59
4 -0.50 0.025 -0.025 0.50
5 -0.47 0.026 0.0013 -0.023 0.46
Figure 48
Etude de variance
Comme nous pouvons le constater dans le tableau de la Figure 49 et sur la Figure 50, la
variance du L-estimateur est toujours très inférieure à celle de la moyenne. Pour l’industriel, il est
alors possible de tirer parti de cette réduction de la variance en améliorant la commandabilité et
donc la capabilité de son procédé de fabrication, ou en réduisant la taille des prélèvements. Par
exemple, pour une moyenne calculée sur un échantillon de taille n=7, le L-estimateur ne requiert, à
variance équivalente, qu’un échantillon de taille n=4.
0
3 4 5 6 n 7 8 9 10
Figure 50
Remarque :
· La variance de la moyenne est calculée par s 2 / n avec l'écart type de la population.
Var [ m
]
· L’efficacité relative du L-estimateur par rapport à la moyenne est donnée par :
Var [ moy ]
La distribution de la moyenne ainsi que la distribution des L-estimateurs dans certains cas sont
asymptotiquement normales. Cette étude réalisée sur un très grand nombre de données a montré
que pour une population fortement non normale, ni la moyenne ni le L-estimateurs ne suivent une
loi normale pour des échantillons de taille modérée (Figure 51).
0.05
0.02 p(X)
p(X) 0.04
0.015
0.03
0.01
0.02
0.005 0.01
0 0
-6 -4 -2 0 2 4 6 8 -6 -4 -2 0 2 4 6 8
X X
Figure 51
Alors que la distribution de la moyenne converge vers une loi normale, au fur et à mesure que n
grandit, on constate que la distribution du L-estimateur possède une tendance leptokurtique.
Mise en oeuvre de la carte L
Construction du L-estimateur
La construction du L-estimateur de Lloyd nécessite le calcul de la matrice de covariance des
statistiques d'ordre réduites 8 ainsi que le vecteur des espérances des statistiques d'ordre a.
Nous savons que le calcul littéral des moments d’ordre 1 et 2 des statistiques d’ordre est
particulièrement pénible. En effet, les coefficients de la matrice de covariance s’expriment par la
relation (Eq 0).
¥ y
Cov [ X r : n X s : n ] =∫∫ x−mr : n y−m s : n ⋅ f rs x , y ⋅dxdy
-¥ -¥
Eq 0
avec
n! s−r−1 n−s
f rs x , y = ⋅F r−1 x ⋅f x F y −F x ⋅p y [ 1−P y ]
r−1 ! s−r−1 ! n−s !
Cette relation requiert que la loi de distribution de la population soit parfaitement connue. Il faut
donc identifier la population à une loi paramétrique. Ceci, est inacceptable à nos yeux pour deux
raisons :
· D’une part, il est tout à fait illusoire de vouloir identifier la distribution d’un critère dans des
conditions de production,
· D’autre part, cette procédure nous place dans un cadre paramétrique, que nous ne souhaitons
pas. Nous préférons donc estimer W et a à partir de mesures prélevées sur le procédé (Eq 0).
1
w ij = ∑ x − x x − x
m−1 m [ i i j j ]
1
αi = ∑ x i
m m
Eq 0
Le calcul de la matrice W et du vecteur a nécessitent que le procédé soit stationnaire, autrement dit
qu’il soit sous contrôle. En effet si l’information apportée par W et a est corrompue par une dérive
du procédé, les estimations pourront être de mauvaise qualité.
Nous exposerons donc plusieurs méthodes pour calculer le L-estimateur, adaptées au type de
procédé piloté.
Démarrage d’une carte L
Pour que l’utilisation d’un L-estimateur soit bénéfique par rapport à un estimateur comme la
moyenne, il est nécessaire que le surplus d’information apporté par la matrice de covariance et le
vecteur des moments soient cohérents avec ce que l’on souhaite réellement modéliser.
L'échantil on est
Procédé
représentatif de la
stationnaire population
L'échantil on ne
possède aucune des
Procédé non
caractéristiques
stationnaire statistiques de la
population
Figure 52
Le problème est ici sensiblement équivalent à celui rencontré lorsque l’on veut calculer une
capabilité machine. Pour ce faire, on prélève les mesures sur une période suffisamment courte pour
que les dérives du procédé (qui pourraient être compensées par un bon pilotage) soient peu
significatives. Cette procédure est bien sûr satisfaisante si le procédé n’est pas soumis à un trop
grand nombre de perturbations.
La notion de stabilité est ici relative à la cadence de production et non pas au temps. En effet, un
procédé pour lequel on ne note qu’une faible dérive pour un nombre important de pièces produites
est présumé stable quel que soit le temps nécessaire à cette production. En revanche, un procédé
sera qualifié d’instable si des causes spéciales sont fréquemment identifiables.
Nous distinguerons deux cas : celui des procédés à évolution rapide ou à évolution lente.
Les procédés à évolution lente sont en général assez peu problématiques car la quantité de données
recueillables sur une période stable suffit à établir les statistiques d’intérêt.
La norme AFNOR [AF1 95]65 suggère, par exemple, de calculer la dispersion de la population à
partir d’une vingtaine de sous-groupes, lors de la « période de référence » préalable à toute mise en
place d’une procédure M.S.P. Un minimum de trente valeurs individuelles est en effet souhaitable
pour que le calcul d’une variance empirique converge vers une valeur exploitable.
65
AFNOR Norme NF X 06-031-1 Application de la Statistique - Cartes de contrôle de Shewhart aux mesures ISSN
0335-3931
De manière analogue, nous avons montré expérimentalement que pour débuter une carte L, trente à
quarante échantillons suffisent pour que les coefficients de la matrice de covariance soient dans le
voisinage de leurs valeurs asymptotiques. Pendant le prélèvement de ces données, on reportera la
moyenne et l’écart type des échantillons sur une carte préliminaire, afin de s’assurer de la stabilité
du procédé (Figure 53). Après avoir calculé le L-estimateur, on peut placer les limites de la carte de
contrôle. On vérifiera de manière rétrospective que le procédé était bien sous contrôle pendant la
période de référence. Dans le cas contraire, le calcul des coefficients du L-estimateur a été pollué
par des causes spéciales.
Carte de Suivi
a1 1,1 1,n
c1
a W
Calcul du CL estimateur
a2 n ,1 n ,n
L-estimateur cn
Paramètres s et m
LSC
Cible
Carte de contrôle
LIC
Pilotage
Figure 53
Cette période d’étude préliminaire nous semble acceptable pour un industriel. Nous savons
néanmoins par expérience, que les cartes d’observations préliminaires ne sont pas toujours utilisées
sur des procédés « bien connus ». Afin de réduire au minimum la période de référence et éviter
l’utilisation d’une carte de suivi au profit d’une carte de contrôle, nous proposons de faire évoluer
les coefficients du L-estimateur progressivement de la moyenne (1/n) aux coefficients optimaux.
Pour cela nous avons choisi d’utiliser un algorithme de lissage (Eq 0).
Au fur et à mesure que les échantillons sont prélevés, les coefficients de l'estimateur CLissage
évoluent de la moyenne (Ci= 1/n) vers les coefficients optimaux CL-estimateur estimés à l’aide de la
relation (Eq 0).
[]
1
n
k k
C Lissage = ⋅C L−Estimateur 1− ⋅ M
k max k max
1
n
Eq 0
On note k le numéro de l’échantillon prélevé et kmax le nombre d'échantillons qui fixe la fin de la
période de référence. On choisira de préférence une valeur de kmax supérieure à trente. Lorsque le
nombre d’échantillon k atteint la valeur kmax, les coefficients du L-estimateur sont ceux du L-
estimateur des moindres carrés.
Cette procédure a l’avantage de permettre le pilotage du procédé avec les seules valeurs m et s
fixées par « l’expérience». De plus, rappelons que les coefficients obtenus par lissage donnent une
estimation sans biais de la position de la population puisqu’il s’agit d’une combinaison linéaire de
deux estimateurs sans biais (Eq 0).
1
m=C Lissage⋅X =
α⋅C L−estimateur⋅X 1−α ⋅e⋅X
Estimation par les moindres carr s
n
Moyenne
Eq 0
Nous présentons à titre d’exemple (Figure 54, Figure 55 & Figure 56) une simulation du démarrage
d’une carte L de position avec kmax= 40. Les coefficients du L-estimateurs sont initialisés à 1/5 et
convergent respectivement [0.53 0.045 -0.045 -0.012 0.57]
0.7
Coefficients du L-
0.6
0.5
estimateur
0.4
0.3
0.2
0.1
0.0
-0.1
0 10 20 30 40 50 60 70 80 90
Figure 54
3.5
3.0
Variance
2.5
2.0
1.5
1.0
0 10 20 30 40 n 50 60 70 80 90 100
Figure 55
7
Carte de position
-1
-3
-5
Moyenne L Estim ateur
Figure 56
Nous pouvons constater que la variance de l’estimation évolue de s2/5 = 3,19 à 1,5 qui correspond à
la variance du L-estimateur des moindres carrés. Nous aborderons dans le paragraphe suivant le
calcul des limites de contrôle de la carte L.
Si le calcul des coefficients du L-estimateur n’est pas trop délicat pour les procédés relativement
stables, il n’en est pas de même pour ceux qui sont particulièrement perturbés. En effet, les
périodes de stabilité étant très courtes, il est difficile de recueillir suffisamment de données pour
construire le L-estimateur. Nous considérons que les petites séries se rapportent au même cas de
figure puisque le nombre de données exploitables est faible.
L’idée consiste donc à exploiter au maximum le peu de données recueillies, pour faire converger
les coefficients de la matrice W et du vecteur a vers des valeurs raisonnables. Pour cela nous
utiliserons une méthode de type bootstrap à partir d’un échantillon de capabilité machine ou d’une
carte préliminaire construite avec les toutes premières mesures d’une série courte.
Les méthodes bootstrap déjà évoquées au chapitre précédent font partie des méthodes intensives de
calcul. Elles se sont développées avec la montée en puissance des ordinateurs. C’est une procédure
de réechantillonnage dont l’objectif est d’étudier les propriétés d’une statistique T fondée sur un
échantillon (X1,X2, ...,Xm) d’une variable aléatoire.
L’algorithme du bootstrap est relativement simple. Nous le résumerons en trois étapes (Figure 57) :
· Nous considérons tout d’abord un échantillon indépendant E= (X1,X2, ...,Xm).
· On prélève N valeurs de façon équiprobable avec remise, dans la population empirique que
constitue E. L’échantillon ainsi prélevé est noté E*.
· La dernière étape consiste à étudier le comportement de la statistique « bootstrapée » T*
construite à partir de E*. Ainsi, on itère un grand nombre de fois le réechantillonnage et le calcul
de T* pour donner lieu à une approximation par la méthode de Monte-Carlo.
Les statistiques étudiées seront des statistiques d’ordre associées au calcul des éléments de W et a.
Les échantillons bootstrap sont de la taille des sous groupes de la carte de contrôle : N=n.
T ∗¿
¿
E¿¿
¿
Eq 0
On possède un échantil on
Distribution de la population de N mesures
indépendantes. Cet
On opère un
réechantil onnage aléatoire
avec remise dans E . Chaque
échantil on bootstrap permet
Distribution empirique de calculer une statistique
bootstrapée T*.
E(T*)
L'ensemble des B
statistiques T* permet
d'approximer le
s (T*) comportement de T.
2 20 60 87 90 84 60 45 35 20 15 10
Distribution de T*
E * (T*); V *
(T*); ...
Figure 57
Pré-requis à l’utilisation de la méthode bootstrap
· Cette méthode ne peut être appliquée que si l’échantillonnage effectué sur le procédé est
aléatoire. En effet, le réechantillonnage avec remise, élimine toute corrélation entre les mesures
de l’échantillon original. Dans le cas de procédés multigénérateurs, il se peut qu’un
échantillonnage aléatoire ne soit pas adapté au suivi par carte de contrôle. L’un des effets de
l’échantillonnage séquentiel, par exemple, est de réduire le nombre de combinaisons de
générateurs au sein d’un échantillon. Il en résulte une variance inter échantillon plus faible que
pour un échantillonnage aléatoire. Dans ce cas le réechantillonnage aurait pour conséquence de
modifier la variance inter échantillons et les valeurs de W et a. On est donc contraint de calculer
le L-estimateur à partir des échantillons prélevés lors de la période de référence, par la méthode
de lissage.
· Pour que l’échantillon original soit représentatif de la population, il est nécessaire que le procédé
soit stable pendant le prélèvement de l’échantillon. Plus la taille de l’échantillon est grande, plus
les résultats obtenus seront de bonne qualité. Avec une vingtaine de mesures individuelles, on
peut déjà obtenir des coefficients du L-estimateur qui sont dans le voisinage des coefficients
optimaux.
Exemple d’application
On se propose de suivre le procédé décrit au paragraphe . simulant une fabrication sur presse à
injecter avec six empreintes.
L-estimateur de position
c1 c2 c3 c4 c5
Coefficients par méthode Bootstrap 0.55 -0.030 -0.042 -0.027 0.55
Coefficients Optimaux 0.53 -0.045 -0.046 -0.010 0.57
On constate que les coefficients obtenus par méthode bootstrap sont très proches des coefficients
optimaux. L’efficacité relative du L-estimateur de position par rapport à la moyenne est de 0,49
avec les coefficients estimés par la méthode bootstrap alors qu’elle est de 0,47 pour les coefficients
optimaux.
L-estimateur de dispersion
c1 c2 c3 c4 c5
Coefficients par méthode Bootstrap -0.49 0.034 -0.062 -0.0047 0.47
Coefficients Optimaux -0.47 0.026 0.0013 -0.023 0.46
Les coefficients obtenus par la méthode bootstrap permettent un suivi de très bonne qualité, comme
on peut le constater sur la Figure 58.
7.5
5.5
3.5
1.5
-0.5
-2.5
-4.5
Xb L-EstX Cible X
6
4
0
S L-EstS
Figure 58
Calcul des limites de contrôle
Outre le calcul du L-estimateur, la construction d’une carte L nécessite également la détermination
de limites de contrôle. Celles-ci permettent de préciser le moment opportun pour effectuer un
réglage. Les limites de contrôle d’une carte de Shewhart sont en général placées à ±3 s p / n , de
façon à obtenir un risque a de l’ordre de 0,27% dans l’hypothèse d’une population relativement
proche d’une loi normale. Cette hypothèse sort bien entendu du cadre de notre étude. Il est donc
indispensable de reconsidérer le choix des limites de contrôle.
Problématique
Le calcul ou l’évaluation de la distribution d’un L-estimateur est un problème qui reste encore
entier à l’heure actuelle. En effet les calculs sont relativement complexes et nécessitent la
connaissance de l’expression de la loi de distribution de la population, ce qui n’est pas notre cas. Le
calcul des lois exactes n’étant pas concevable, nous aurons recours à des approximations.
Nous avons exposé au chapitre précédent quelques méthodes permettant d’établir les limites de
contrôle d’une carte de la moyenne, pour des lois non normales. Les méthodes exposées sont pour
la plupart basées sur l’identification d’une loi paramétrique (Courbes de Burr [You 92], loi de
Weibull [Sch 96]66 etc.). La parfaite connaissance des caractéristiques de la loi permet de
déterminer aisément les limites de contrôle telles que les risques a soient de l’ordre de 0,27%.
Ces méthodes nous apparaissent cependant peu intéressantes du fait de leur approche paramétrique,
qui par essence ne peut satisfaire à tous les cas de figure. De plus, la modélisation des queues d’une
distribution reste modérément fiable, surtout si cette modélisation est réalisée à partir d’un
échantillon représentatif de faible taille.
Notre souci étant principalement de fournir une méthode générale, nous allons rappeler plusieurs
méthodes classiques, permettant de déterminer un intervalle de confiance pour un paramètre de
localisation. Nous discuterons ensuite de leurs avantages et inconvénients dans le cadre de notre
application.
La construction d’un intervalle de confiance nécessite généralement la connaissance de la loi des
observations pour pouvoir garantir un certain niveau de confiance. Néanmoins il existe des
méthodes dites « distribution-free » qui ne postulent aucune loi a priori.
Deux méthodes sont couramment proposées lorsque l’on considère un modèle non paramétrique de
localisation échelle. Il s’agit d’une méthode basée sur les p-quantiles empiriques d’un échantillon
ordonné et d’une autre approche au caractère un peu plus arbitraire.
66
SCHNEIDER H. KASPERSKI W.J. & al Control charts for skewed and censored data
Quality engineering 8(2):263-274 - 1996
Intervalle de confiance pour un p-quantile
Une méthode qui résulte des propriétés des statistiques d’ordre, consiste à calculer l’intervalle de
confiance d’un p-quantile xp= 0.5. L’intervalle de confiance est alors défini par deux statistiques
d’ordre X(i) et X(m+1-i) où m est le nombre de mesures disponibles. On cherche donc à définir l’entier
i tel que :
m−i
r!
P X i ≤ x p ≤ X m1−i = ∑ 1/ 2 m ³1−α
r=i r !⋅ m−r !
Cette méthode a l’avantage de permettre la construction d’un intervalle de confiance à partir des
réalisations d’une variable aléatoire, quelle que soit sa loi. Néanmoins les travaux de Willemain et
Runger [Wil 96] (voir Chapitre 2 §3.3.2) montrent que la Période Opérationnelle Moyenne d’une
carte de contrôle construite sur ce principe est très influencée par la dispersion des statistiques
d’ordre X(i) et X(m+1-i). Cela implique que les limites soient calculées à partir d’un échantillon
important. En effet Willemain suggère de prélever quatre fois plus d’échantillons que la POM
souhaitée pour que les limites soient fiables. Si l’on souhaite P.O.Mk=0=370 pour maintenir un
risque a=0.27%, alors il fait posséder au moins 1480 observations. Ceci n’est malheureusement pas
admissible, d’autant plus que les observations qui proviennent du L-estimateur, sont peu
nombreuses lors de la période de référence.
Une deuxième méthode, est d’utiliser l’intervalle de confiance qui s’impose lorsque les
observations proviennent d’une loi normale ou de Student. Ceci est très souvent le cas, même si le
modèle ne le justifie pas. On définit cet intervalle de confiance par la relation (Eq 0).
[ n⋅
m−t
s
n
n⋅
; mt
s
n ]
Eq 0
Cette dernière méthode, ne se caractérise pas par sa précision car il est difficile d’avoir une idée des
risques engendrés. En procédant de manière équivalente, il est possible de choisir des limites de
contrôle dont la philosophie se rapproche un peu plus de celle des autres cartes de contrôle, tout en
conservant un niveau de confiance acceptable.
Limites traditionnelles des cartes de contrôle
La plupart des cartes de contrôle basées sur le principe de Shewhart, comme la carte aux étendues
(R ), la carte aux écart-types (S), les cartes aux attributs (p, np, c et u) construisent leurs limites à
±3 écart-types de l’estimateur utilisé (Eq 0).
Nous allons discuter le choix des limites de contrôle pour la carte L de position. Ce choix étant lié,
comme nous allons le voir, à la tolérance du L-estimateur aux valeurs extrêmes.
Parmi les populations qu’il peut nous être donné de rencontrer, nous distinguerons deux familles de
lois. Celles qui ont des queues plus lourdes que la loi normale, comme la loi double exponentielle,
et celles qui ont des queues plus légères, comme la loi uniforme.
L’efficacité d’un L-estimateur est conditionnée par sa fonction de poids. Celle-ci affectera
beaucoup de poids aux valeurs centrales du L-estimateur si les queues de la loi de la population
sont plus lourdes que celles de la loi normale (médiane). En revanche, on donnera plus de poids aux
valeurs extrêmes si les queues de la loi sont plus légères que celles de la loi normale (milieu).
Si les poids affectés aux valeurs extrêmes X(1) et X(n) ne sont pas nuls et si l’une ou l’autre de ces
valeurs prend une valeur exagérément grande, elle affectera de façon importante le résultat du L-
estimateur. On retiendra en effet, que si la fonction de poids d’un L-estimateur, définie sur [0,1], est
non nulle dans le voisinage de 0 et 1, alors la tolérance aux valeurs extrêmes est nulle (voir §).
C’est le cas de la moyenne empirique par exemple, mais également celui du L-estimateur de
moindres carrés dans la plupart des cas.
Dans les cas où la population a des queues soit beaucoup plus lourdes, soit beaucoup plus légères
que celles de la moyenne, la distribution du L-estimateur des moindres carrés sera leptokurtique.
· En effet, dans le cas d’une population platikurtique, la faible robustesse aux valeurs extrêmes se
traduira par des queues lourdes pour sa distribution.
· Dans le cas d’une population leptokurtique, la faible pondération des coefficients extrêmes ne
pourra éliminer totalement la présence des queues de la population, du fait de la faible taille des
échantillons.
Ainsi, les risques engendrés par des limites (Eq 0) seront toujours supérieurs à 0,27%. L’ordre de
grandeur de ces risques évolue sensiblement selon la taille des échantillons et la symétrie de la
population. On aura souvent des valeurs de l’ordre de 2%.
· Si l’objectif est de minimiser les risques a, on choisira l’intervalle de confiance donné par (Eq
0), soit :
s
LSC =m p 3 ⋅
n
s
LIC =m p −3 ⋅
n
Les risques seront très inférieurs à 0.27% si la population est platikurtique. Ils seront en revanche
plus grands pour une population leptokurtique.
· La deuxième alternative (Eq 0) fournit des risques supérieurs ou égaux à 0,27%. Ils sont toujours
supérieurs à ceux engendrés par les limites (Eq 0).
LSC = c 4 3 1−c 24 . s
LIC = c 4 −3 1−c 24 . s
Eq 0
LSC =s3 s L−estimateur
LIC =s−3 s L−estimateur
Eq 0
Les limites de contrôle des deux cartes L étant déterminées, il est possible de piloter de manière
statistique un procédé. Néanmoins il existe d’autres règles de contrôle, qui ne sont pas basées sur le
test par intervalle de confiance, qui méritent d’être étudiées.
Règle de pilotage
Décision
Règle de pilotage
Décision
Si un état hors contrôle est détecté sur la carte de position le procédé est décentré. On préconise
alors d’effectuer un réglage de la valeur qui sépare le point de la cible.
Si un point hors contrôle est noté sur la carte de dispersion, la capabilité machine peut avoir évolué.
On vérifiera tout d’abord que le décentrage n’est pas imputable à une erreur de mesure. Dans le cas
contraire, la distribution de la population ayant évolué, il faut recalculer les coefficients du L-
estimateur.
La détection d’un point hors contrôle peut être le seul fait d’une évolution du paramètre d’échelle
de la population, auquel cas les coefficients du L-estimateur fournissent encore une estimation sans
biais à variance minimale. Cependant il est difficile de vérifier cette hypothèse et la détection d’un
point hors contrôle déclenche le plus souvent des actions correctives qui modifient le comportement
du procédé. C’est pourquoi nous conseillons fortement de recalculer les coefficients du L-
estimateur et d’appliquer l’une des procédures de démarrage décrites au paragraphe 4.2 de ce
chapitre.
Règle de pilotage
Dans les différentes études réalisées, la distribution du L-estimateurs de position de Lloyd s’est
avérée avoir une tendance centrale et des propriétés de symétrie plus fortes que la moyenne, dans
un contexte non normal. De plus, la distribution du L-estimateur de dispersion est la plupart du
temps semblable à celle de l’écart type. Cette règle nous semble donc tout à fait applicable aux
cartes L. La valeur fatidique de 7 points consécutifs peut néanmoins être revue si l’on a la certitude
que les risques a sont très différents de 0,27%. Le nombre de points peut être défini de telle sorte
que la probabilité d’être n fois consécutives du même côté (0.5n) soit du même ordre de grandeur
que les risques a associés à la position des limites de contrôle. On peut citer, par exemple, la norme
AFNOR [AF1 95]67 qui considère que 9 points consécutifs du même côté permettent de conclure à
un décentrage du procédé ; la probabilité d’un tel événement est de 0,002.
Décision
Si une tendance est décelée sur la carte de position, il est conseillé de régler le procédé de l’écart
moyen qui sépare la tendance de la cible. Il faut noter dans ce cas que le réglage préconisé par le L-
estimateur de position sera bien meilleur que celui donné par la moyenne pour un échantillon de
même taille.
Si la tendance est détectée sur la carte de dispersion, il est préférable de recalculer le L-estimateur
ainsi que les limites des deux cartes de contrôle.
Règle de pilotage
67
AFNOR Norme NF X 06-031-1 Application de la Statistique - Cartes de contrôle de Shewhart aux mesures ISSN
0335-3931
Décision
Si une tendance croissante ou décroissante est détectée sur la carte de position, on recentre le
procédé de la valeur qui sépare le dernier point de la cible.
Si une tendance est révélée sur la carte de dispersion, on recalcule le L-estimateur et les limites de
deux cartes de contrôle ; comme dans le cas précédent.
Règle de pilotage
Décision
On prélève immédiatement un autre échantillon. Si le point reporté se trouve dans le tiers central de
la carte, ce n’était qu’une fausse alerte. On repasse donc en production.
Pour la carte de position, si le second point se trouve dans la même zone que le premier, le procédé
est décentré. On préconise alors de régler de la valeur qui sépare la cible de la moyenne de ces deux
points.
Pour la carte de dispersion, on s’intéressera uniquement au cas où deux points sont proches de la
limite supérieure. La capabilité machine s’étant détériorée, on recalcule le L-estimateur et les cartes
de contrôle.
L’étude détaillée de ces cinq règles de pilotage montre que la carte L ne requiert pas de méthode de
pilotage spécifique. Nous n’avons apporté aucune modification aux règles traditionnelles de
pilotage du point de vue de leurs principes. En revanche, nous avons rappelé les fondements
mathématiques de chacune de ces règles afin de nuancer leur application dans des cas où la
distribution de l’estimateur ne suit pas une loi normale. Nous avons également précisé quels
événements étaient susceptibles de remettre en cause les coefficients du L-estimateur.
L’utilisation et l’interprétation de cartes de contrôle avec L-estimateur sera donc totalement
transparente pour un utilisateur libéré des procédures de calcul.
Sensibilité de la carte L
La sensibilité des cartes de contrôle est une des caractéristiques essentielles permettant de juger
leurs performances. Pour appréhender ce niveau de performance on peut procéder de deux manières
sensiblement équivalentes. La première consiste à calculer la période opérationnelle moyenne
(P.O.M.) pour un décentrage donné, l’autre se résume à calculer la forme de la distribution de
l’estimateur pour déterminer la probabilité de détecter un état hors contrôle. Cette dernière méthode
n’est d’ailleurs applicable que pour les cartes de contrôle de type X .
La Période Opérationnelle Moyenne est un indicateur reconnu par l’ensemble des professionnels de
la qualité ; une description est d’ailleurs proposée dans la norme AFNOR paru en 95 [AF1 95]. Les
études de P.O.M. peuvent, dans des cas simples, être réalisées par calcul. C’est le cas de la carte de
Shewhart dans des conditions de normalité du procédé. Lorsque l’hypothèse de normalité de la
population n’est pas valide, ou que l’estimateur utilisé n’est pas la moyenne, on procède par
simulations informatiques. Lors de ces études, on suppose également que les caractéristiques de la
population ne sont pas affectées par le décentrage (ce n’est pas le cas d’un défaut de forme par
exemple).
Dans un premier temps nous avons réalisé une étude de P.O.M. de façon à évaluer les améliorations
potentielles d’une carte L par rapport à la carte de Shewhart. Etant donné le caractère non
paramétrique de notre approche, les performances de la carte dépendent de la population étudiée.
Nous avons donc jugé utile de traiter un cas où le L-estimateur possède une variance très inférieure
à celle de la moyenne, pour vérifier si l’amélioration en variance se répercutait sur la P.O.M. Nous
avons également choisi de traiter un cas où la variance du L-estimateur est proche de celle de la
moyenne, pour s’assurer que les performances de la carte L ne sont pas inférieures à celles d’une
carte X .
La seconde partie de notre étude concerne le suivi d’un procédé dont l’évolution se traduit par une
modification de la distribution de la population.
Sensibilité à un décentrage
La détection des dérives aussi bien rapides que lentes sur un procédé de production est lié au choix
des limites de contrôle et à la distribution de l’estimateur utilisé.
Le premier cas que nous avons choisi de présenter est celui d’une distribution possédant des queues
légères (Figure 59). Il s’agit d’un mélange de lois normales de moyennes différentes. Nous avons
vu au paragraphe que la forme de la population avait une répercussion importante sur la
distribution des estimateurs, surtout si les échantillons sont de petite taille. Il en résulte que les
risques a sont inférieurs à 0.27% lorsque les limites sont placées à ±3 s p / n . Cela se traduit par
une POM supérieure à 370.
Pour le L-estimateur, le problème est un peu délicat car nous ne connaissons pas a priori sa
distribution.
0.08
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0.00
Population Loi Normale
Figure 59
Nous avons donc calculé les P.O.M. de la carte X et de la carte L dans les mêmes conditions. Il
ressort de cette étude trois points essentiels :
· La P.O.M. de la carte L avec des limites placée à ±3 s / n est d’un ordre de grandeur
équivalent à celle de la carte X , pour des décentrages k compris entre - 3/ n et + 3/ n . Pour
des décentrages inférieurs aux limites de contrôle, c’est le poids des queues qui détermine la
P.O.M. C’est pourquoi les résultats peuvent être très variables selon la taille des échantillons
(Figure 60).
· Pour des décentrages supérieurs aux limites de contrôle, la P.O.M. de la carte L tend plus
rapidement vers 1 que la carte X . Ceci s’explique par le caractère impulsionnel de la loi du L-
estimateur. Une faible augmentation du décentrage occasionne une forte augmentation de la
probabilité de détecter le décentrage.
1 600 7
Carte L Carte L
1 400
Carte Xb 6 Carte Xb
1 200
5
1 000
P.O.M.
P.O.M.
800 4
600
3
400
200 2
0 k 1 k
-1.0 -0.5 0.0 0.5 1.0 1.0 1.2 1.4 1.6 1.8 2.0
Figure 60
· La P.OM. de la carte L pour des limites placées à ±3 s L−estimateur est toujours inférieure à la
. Les risques a sont ici de l’ordre de 0.6%, ce qui est loin d’être alarmant
P.O.M. de la carte X
(Figure 61). Le choix de telles limites a l’avantage de fournir une carte très sensible aux
décentrages.
1 000 5
Carte Xb Carte Xb
800 Carte L 4 Carte L
P.O.M.
600 3
P.O.M.
400 2
200 1
0 k 0 k
-1.0 -0.5 0.0 0.5 1.0 1.0 1.2 1.4 1.6 1.8 2.0
Figure 61
La Figure 62 permet de faire une rapide synthèse des caractéristiques des Périodes Opérationnelles
Moyennes des différentes cartes. Pour illustrer ces résultats nous avons simulé sur une carte de
contrôle la dérive d’un procédé (Figure 63). La dérive simulée est linéaire. En effet le décentrage de
la population est proportionnel au numéro de l’échantillon, ce qui signifie que le procédé est
stationnaire pendant la constitution de l’échantillon.
· On peut constater que la détection de la dérive est faite un peu plus tôt avec la moyenne qu’avec
le L-estimateur lorsque les limites sont placées à ±3 s p / n (LC1). Ceci s’explique par la
variance importante de la moyenne par rapport au L-estimateur. Nous pouvons considérer que
nous n’avons pas eu de chance car la moyenne surestime tout le temps la position du procédé
entre l’échantillon N°35 et l’échantillon N°46. Dans le cas contraire, nous aurions pu détecter
cette dérive avec le L-estimateur bien avant, puisqu’il suit avec précision la tendance du
procédé.
· La détection est en revanche plus rapide (échantillon N°27) avec les limites placées à
±3 s L−estimateur (LC2) au risque de générer un nombre important de fausses alarmes.
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Moyenne L-estimateur LC1 Tendance Cible LC2
Figure 63
Si nous avions appliqué la règle de pilotage qui consiste à compter le nombre de points consécutifs
d’un même côté de la cible, nous aurions détecté la dérive du procédé dès l’échantillon N°15 avec
le L-estimateur alors que cela n’aurait été fait (avec beaucoup de perspicacité) qu’au 24ème
échantillon avec la moyenne.
Dans le cas d’une faible non normalité, l’amélioration apportée par le L-estimateur en terme de
variance est assez peu significative. L’exemple proposé met en œuvre un L-estimateur de position
dont l’efficacité relative par rapport à la moyenne est de 0,85.
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
Population Loi Normale
Figure 64
400 3
300
2
200
100 1
0 k 0
-1.0 -0.5 0.0 0.5 1.0 1.0 1.2 1.4 1.6 1.8 2.0
Remarque
Dans le cas de populations fortement dissymétriques, la P.O.M. obtenue pour les différentes cartes,
sera elle aussi dissymétrique. Yourstone montre dans ses travaux que le choix des limites peut
permettre de minimiser cette dissymétrie, mais que ce n’est pas suffisant.
Ce problème est d’un intérêt fondamental pour l’utilisation des cartes L. En effet, nous savons
qu’un L-estimateur des moindres carrés est construit à partir de la matrice de covariance des
statistiques d’ordre, qui apporte une information fortement liée à l’échantillonnage et à la
distribution de la population. Or, si cette distribution évolue, le L-estimateur ne sera plus en mesure
de fournir une estimation à variance minimale, ni même sans biais. La question qui se pose alors,
est de savoir si la détection d’une déformation est possible avant que les performances du L-
estimateur ne se dégradent trop. Cette question a trait donc à la robustesse du L-estimateur des
moindres carrés.
Nous avons vu au paragraphe (§) les deux conditions pour qu’un L-estimateur soit robuste selon
Huber. La première condition, qui est relative aux poids des coefficients extrêmes n’est
qu’exceptionnellement satisfaite avec le L-estimateur des moindres carrés. Le second critère
demande que les lois convergent rapidement vers 0 et 1 pour que l’estimateur soit robuste. Cette
condition peut être satisfaite si la distribution de la population est tronquée ou a des queues légères.
Ceci ne concerne donc qu’un nombre limité de cas.
Le cadre non paramétrique étant peu propice aux démonstrations, nous avons étudié le cas ou le L-
estimateur de position est de toute évidence très peu robuste. Ils s’agit en l’occurrence du cas ou les
coefficients extrêmes sont fortement pondérés.
-8 -6 -4 -2 0 2 4 6 8 10 12 -8 -6 -4 -2 0 2 4 6 8 10 12 -8 -6 -4 -2 0 2 4 6 8 10 12
Figure 65
Cette étude réalisée par simulation informatique a conduit à la comparaison des distributions des L-
estimateurs de position et de dispersion, respectivement avec celles de la moyenne et de l’écart
type.
Les comparaisons ont été réalisées sur trois distributions qui diffèrent légèrement les unes des
autres (Figure 65). Dans des conditions normales, la distribution de la population suit la loi N°1. Au
fur et à mesure que le procédé se dégrade, la distribution des observations suit la loi N°2 puis la loi
N°3. Dans cet exemple, les estimations réalisées à l’aide de la moyenne et du L-estimateur
s’appuient sur des échantillons d’effectif n=5.
Estimateurs d’un paramètre de localisation Estimateurs d’un paramètre de dispersion
Loi N°1 N(5,1) N(5.5,1) N(5.0,1) N(0,1) N(-3.2,1) N(3.5,1)
L-estimateur L-estimateur
Moyenne S
-4.1 -2.8 -1.5 -0.3 0.9 2.2 3.4 4.7 5.9 7.2 8.4 0.4 1.0 1.6 2.2 2.8 3.4 4.0 4.6 5.2 5.8 6.4 7.0 7.7
L-estimateur L-estimateur
Moyenne S
-4.0 -2.8 -1.5 -0.3 0.9 2.1 3.4 4.6 5.8 7.0 8.2 0.4 1.1 1.7 2.4 3.1 3.7 4.4 5.0 5.7 6.4 7.0 7.7
L-estimateur L-estimateur
Moyenne S
-4.0 -2.7 -1.2 0.2 1.6 3.1 4.5 5.9 7.4 8.8 0.4 1.2 2.0 2.9 3.7 4.5 5.3 6.1 6.9 7.7
Figure 66
On considère que la « Loi N°1 » représente la distribution de la population lorsque le procédé est
stationnaire. Les coefficients du L-estimateur de Lloyd ont donc été calculés à partir de ce modèle.
Dans ce cas, le L-estimateur de position m et de dispersion s sont sans biais et à variance
minimale. Nous allons donc évaluer quelles sont les pertes de performance du L-estimateur lorsque
la loi originale subit une faible déformation (Loi N°2) puis un forte déformation (Loi N°3).
Les différents indicateurs de performance étudiés sont :
· L’efficacité relative de la moyenne par rapport au L-estimateur de position
ER X
,m =Var [ m ] /Var [ X
]
· L’efficacité relative de l’écart type empirique par rapport au L-estimateur de dispersion
ER S , s =Var [ s ] /Var [ S ]
· Le biais réduit du L-estimateur de position B m = m−m p/ s p
· Le biais réduit du L-estimateur de position B s = s −s p / s p
ER X
,m ER S , s B m B s
Loi N°1 0.5 0.9 0 0
Loi N°2 0.5 0.9 0.02 0
Loi N°3 0.7 1 0.1 0
Figure 67
Résultats
· Le tracé des distributions Figure 66 confirme la faible robustesse du L-estimateur des moindres
carrés pour un paramètre de localisation. En effet, sa distribution est affectée de manière
significative par l’évolution de la population contrairement à la moyenne qui s’avère plus
robuste.
· Malgré la forte dégradation des performances du L-estimateur de position, (qui se traduit par une
augmentation importante de l’efficacité relative de la moyenne par rapport au L-estimateur) son
biais reste modéré. Les corrections éventuelles que l’on apportera au procédé ne seront donc pas
dommageables à sa stabilité.
· Le L-estimateur de dispersion semble plus robuste aux évolutions de la population car son biais
reste négligeable. Le décalage entre s et S que l’on peut constater sur les trois courbes est
essentiellement imputable au biais de S en tant qu’estimateur de sp. Rappelons d’ailleurs que
dans le cas d’une loi non normale, S / c 4 est aussi un estimateur biaisé de sp.
· L’évolution de la moyenne de la population, liée à sa déformation est ici très faible (k= 0.2 entre
les Lois N°1 & 3). En conséquence, la détection de ce décentrage par un dépassement des limites
de contrôle est peu probable. On peut faire la même remarque pour la dispersion de la
population. Néanmoins, les performances des L-estimateurs étant encore acceptables, on peut
détecter l’apparition d’une tendance sur les deux cartes L (Figure 68).
D’autres simulations, effectuées sur une population leptokurtique ont mis en évidence les mêmes
phénomènes.
Carte de position
6.0
5.0
4.0
3.0
2.0
1.0
0.0
-1.0
-2.0
Shew hart Carte L Xbb LSC LIC
Carte de dispersion
8.0
7.0
6.0
5.0
4.0
3.0
2.0 Loi N°1 Loi N°3
1.0
Carte L Carte S Ecart-Type Population LSC
Figure 68
Conclusion
L’étude réalisée dans ce paragraphe nous a permis de vérifier que la faible robustesse du L-
estimateur de position ne constituait pas une entrave à l’utilisation de la carte L puisque les
modifications de la distribution de la population sont détectées au même titre que les autres causes
spéciales. Notons d’ailleurs que le faible biais du L-estimateur de position a tendance à favoriser
cette détection. De plus, les modifications subies par la population sont ici particulièrement
importante et peu vraisemblables sur un outils de production.
Ces résultats et ceux obtenus par Pappanastos [Pap 96]68 confirment en effet, que la robustesse d’un
estimateur et la détection d’anomalies de production par une carte de contrôle sont antinomiques.
Nous avons vu au chapitre 2 que L’estimateur de Hodges-Lehmann qui se caractérise par une
grande robustesse fournit généralement des résultats médiocres, lorsqu’il est employé pour une
carte de contrôle. Le L-estimateur des moindres carrés, qui en revanche est peu robuste détecte
rapidement les évolutions de la population.
La non stationnarité des procédés est un problème bien connu en automatique. Elle conditionne en
effet la validité des modèles mathématiques mis en œuvre. Pour remédier à cette non stationnarité,
on a souvent recours aux méthodes dites « adaptatives », dont l’objectif est de prendre en compte
les évolutions du procédé pour que les modèles mathématiques utilisés restent acceptables.
Il serait intéressant de pouvoir maintenir les coefficient du L-estimateur dans le voisinage des
valeurs qui assurent une estimation à variance minimale et sans biais.
Une stratégie très classique, par exemple, consiste à recalculer périodiquement les coefficients à
partir d’une fenêtre de données limitée dans le temps.
68
PAPPANASTOS E.A. & ADAMS B.M. Alternative Designs of Hodges-Lehmann Control Chart Journal of
Quality Technology Vol 28 N°2 - 1996
Le cas particulier des défauts de forme
Nous allons nous intéresser dans ce paragraphe aux défauts de forme, qui représentent une part
importante des non normalités rencontrées dans le milieu industriel.
Le cas des défauts de forme est a priori facile à traiter puisque la distribution de la population est
parfaitement caractérisée lorsqu’on connaît le rapport m/ s où m et s sont respectivement la
moyenne et l’écart type de la loi de défaut de forme. On peut donc s’affranchir du calcul de la
matrice de variance covariance ainsi que du vecteur des moments d’ordre 1 pour déterminer les
coefficients du L-estimateur. On peut en effet imaginer que l’on possède une base de données des
coefficients du L-estimateur, indexée par le coefficient m/ s et la taille d’échantillon.
n=3
z / sz
k= C1 C2 C3
0.0 0.403632 0.223596 0.372771
0.1 0.406518 0.208337 0.385146
0.2 0.413629 0.197614 0.388757
0.3 0.407658 0.211248 0.381094
0.4 0.408133 0.200376 0.391490
0.5 0.418098 0.184483 0.397419
... ... ... ...
Figure 69
Rappelons que l’utilisation du L-estimateur des moindres carrés, même si cette méthode est non
paramétrique, suppose que la loi des observations peut être décrite par un modèle non paramétrique
localisation échelle.
Dans le cas de la loi de défaut de forme, ce modèle n’est pas valable car les deux paramètres mp et
sp sont liés. Toute modification du paramètre de localisation de la population entraîne une
modification du paramètre d’échelle, du fait d’une modification de la loi des observations.
Nous avons montré au paragraphe que la carte L était particulièrement sensible aux modifications
de la distribution de la population. Cela se traduit en particulier par une baisse de l’efficacité du L-
estimateur et un léger biais.
L’objectif d’une carte de contrôle étant de détecter toute modification significative de la population,
il n’est pas inintéressant d’utiliser une carte L dans le cas d’un défaut de forme, sous réserve que les
performances du L-estimateur soient nettement supérieures à celles de la moyenne.
Nous avons justifié au paragraphe le choix du paramètre de localisation, en prenant pour critère, la
minimisation des coûts de la non qualité. Dans le cas de tolérances unilatérales, Taguchi définit la
fonction perte par L=KX² (Figure 70). Le paramètre de localisation n’étant pas superposable à la
cible, son choix n’intervient pas dans la minimisation de la perte moyenne.
n
L = K ∑ X i 2=K X 2s2
n i=1
Eq 0
.X²
L=K
0
Figure 70
On prendra donc de manière très naturelle la moyenne de la loi de défaut de forme comme
paramètre de localisation.
Avant de mettre en place une carte L, il est nécessaire de calculer la variance du L-estimateur pour
apprécier si son efficacité relative par rapport à la moyenne justifie son utilisation.
Pour les défauts de forme, nous nous intéresserons particulièrement au cas où le rapport m/ s est
proche de 0 puisqu’il caractérise une forte non normalité. En revanche, si le rapport m/ s tend vers
3, la loi de défaut de forme est une loi normale.
0.96 n=4
0.95 n=5
0.94
n=6
0.93
0.92
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3
k
Figure 71
Nous avons calculé avec Matlab les coefficients du L-estimateur des moindres carrés, par
intégration numérique (Eq 0 & Eq 0 p101). Ces résultats nous ont permis de déterminer l’efficacité
relative de la moyenne par rapport au L-estimateur de position (Figure 71).
On constate que la variance du L-estimateur est inférieure à celle de la moyenne pour de faibles
décentrages de la population, et qu’elle atteint son minimum pour un décentrage de l’ordre d’un
écart type. L’efficacité relative tend ensuite vers 1 pour k>2, puisque la distribution de la
population se rapproche de la loi normale.
D’un point de vu quantitatif, il faut admettre que l’amélioration apportée par le L-estimateur en
terme de variance par rapport à la moyenne est substantielle. En effet, celle-ci ne dépasse pas 5%
pour un échantillon de taille n=5, ce qui n’entraîne aucune amélioration sur la sensibilité d’une
carte de contrôle de type Shewhart
Conclusion
Les résultats de notre étude tendent à conclure que la carte L n’est pas applicable au cas des défauts
de forme.
En effet, l’utilisation du L-estimateur des moindres carrés est particulièrement délicate dans le cas
des défauts de forme, car toute évolution de la moyenne entraîne une modification de distribution
des observations. Le L-estimateur n’est donc optimal que très localement.
D’autre part, la variance du L-estimateur de position est sensiblement équivalente à celle de la
moyenne. Il est donc plus intéressant d’utiliser une carte X , qui pour des performances
équivalentes a l’avantage d’être très simple.
Extensions de la carte L
La carte L que nous avons proposée dans la section précédente n’est pas la seule application
possible du L-estimateur des moindres carrés. Son application peut, en effet, couvrir un large
ensemble d’outils, au même titre que les estimateurs classiques de position et de dispersion.
L’un des outils majeurs dans l’évolution moderne de la M.S.P. est la carte CUSUM pour sa grande
sensibilité aux faibles dérives.
La carte CUSUM L
Le cartes CUSUM peuvent être utilisées à partir de valeurs individuelles ou d’échantillons. Nous
nous intéresserons aux cartes construites à partir d’un échantillon, pour lesquelles, nous
substituerons L-estimateur de position à moyenne.
Le principe de la carte CUSUM est de faire le cumul des écarts d’une estimation par rapport à la
valeur cible que l’on s’est fixée. Si le procédé subit une dérive, cela se répercute par une
augmentation de la somme des écarts.
Pour détecter les dérives à la fois croissantes et décroissantes, on utilisera deux sommes SH et SL,
respectivement haute et basse.
[ CibleK S H
S H =Max 0, m−
i ] i−1
La valeur K, aussi appelée filtre, est utilisée pour limiter l’influence des faibles écarts, qui
conduisent parfois à la détection d’une dérive alors que celle-ci est peu significative. K=k.s avec k
généralement fixé à 0,5 pour détecter un décentrage d’un écart type.
Les limites sont notées H telle que H=h.sestimateur. Les limites habituelles sont fixées à partir de
l’écart-type de la moyenne. Nous fixerons ici les limites en fonction de l’écart type du L-
estimateur : H=h.sL-estimateur
La variance du L-estimateur étant plus faible que celle de la moyenne, les sommes cumulées ainsi
obtenues, seront moins « polluées » par la dispersion de l’estimateur. La carte CUSUM-L a alors
l’avantage évident de faire ressortir des tendances de manière beaucoup plus claire.
Exemple d’application
Nous présentons ici l’étude d’un procédé dont la non normalité conduit à un L-estimateur dont
l’efficacité relative est de l’ordre de 0,85 (Figure 72). Cette amélioration en variance ne conduit
pas, en pratique, à une carte L plus performante que la carte de Shewhart. En effet, nous avons vu
au paragraphe , que la P.O.M. de la carte L était peu différente de celle d’une carte de Shewhart
lorsque les limites sont placées à ±3 s/ n .
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
Population Loi Normale
Figure 72
Nous avons donc cherché à mettre en évidence les performances de la carte CUSUM-L par rapport
à une carte CUSUM classique.
La Figure 73 présente le suivi du procédé à l’aide d’une carte de Shewhart. On constate ici que les
estimations effectuées à l’aide de la moyenne (n=5) et du L-estimateur de position sont
comparables. De plus, le suivi du procédé sur 25 échantillons ne permet pas la détection d’un état
hors contrôle si l’on s’en tient aux règles de pilotage énoncées au §. Le procédé subit ici une dérive
linéaire. Au 25ème échantillon le procédé est décentré de 0,5s.
4
3
2
1
0
-1
Xb
-2 L-estim
Tendance
-3
-4
1 3 5 7 9 11 13 15 17 19 21 23 25
Figure 73
Si on applique une carte CUSUM à la même série de données, on constate sans surprise que la
dérive du procédé est détectée (Figure 74). Le propre de la carte CUSUM étant en effet de déceler
les dérives lentes.
Figure 74
Carte CUSUM-L
10
8
6
4
2
0
-2
-4 SH SL
-6
1 3 5 7 9 11 13 15 17 19 21 23 25
Figure 75
L’utilisation du L-estimateur des moindres carrés est donc particulièrement intéressante avec une
carte CUSUM même pour des non normalités peu prononcées.
Une étude de Période Opérationnelle Moyenne réalisée à partir du même exemple de population a
permis de vérifier la sensibilité de la carte CUSUM-L.
Les calculs ont été effectués par simulation pour des échantillons de taille n=5. Le nombre de
détection a été fixé à 5000 pour établir la P.O.M, soit 2,1.106 itérations pour une P.O.M. de 420.
Les limites sont placées avec un coefficient h=5 et la valeur du filtre est k=0,5. Le décentrage l est
un multiple de l’écart-type de la population.
Le tracé de P.O.M. de la carte CUSUM-L est relativement simple à interpréter puisqu’il est
toujours inférieur à celui de la carte CUSUM standard (Figure 76). Cela signifie que la détection
d’une dérive par la carte CUSUM-L intervient toujours avant celle de la carte CUSUM standard
pour des risques a sensiblement équivalents (Figure 77). Nous avons pu montrer par ailleurs
(Chapitre 4) que les amélioration apportée par la carte CUSUM-L par rapport à la carte CUSUM
standard sont d’autant plus importantes que la non normalité est marquée.
500 4.0
400 3.5
300 3.0
200 2.5
100 2.0
0 1.5
-1.0 -0.5 0.0 0.5 1.0 1.0 1.5 2.0
Figure 76
Conclusion
La carte L que nous avons proposée dans ce chapitre bénéficie de la faible variance du L-estimateur
des moindres carrés. Cela permet notamment de déceler des dérives avec beaucoup d’acuité et
d’effectuer des réglages de meilleure qualité sur le procédé. Cependant ces avantages s’estompent
très rapidement si l’efficacité relative du L-estimateur par rapport à la moyenne n’est pas
suffisante. On notera pour mémoire que la carte L ne nous semble pas d’un grand intérêt quand
l’efficacité relative est supérieure à 0,8. En effet, la faible amélioration par rapport à la carte de
Shewhart, ne justifie pas un surcoût de calculs.
La carte CUSUM-L, en revanche est plus sensible que la carte CUSUM standard, même dans le cas
où le L-estimateur est peu efficace.
Son intérêt est donc d’étendre le domaine d’application des cartes de contrôle construites à partir
d’un L-estimateur. De plus, cette carte particulièrement sensible aux dérives peut permettre de
détecter d’éventuelles évolutions de la distribution de la population.
La carte CUSUM-L n’est bien entendu pas la seule extension possible de la carte L. On peut
effectivement envisager d’applique le L-estimateur des moindres carrés à des cartes de type
EWMA.
Conclusions et perspectives
L’originalité de notre étude réside essentiellement dans une approche non paramétrique des
problèmes d’estimation de position et de dispersion d’une population à partir d’un échantillon de
faible taille. L’approche non paramétrique permet en effet de s’affranchir de l’hypothèse de
normalité souvent peu justifiée. Le modèle « localisation échelle », utilisé dans notre étude, permet
en effet de décrire un large éventail de distributions qui se caractérisent par un paramètre de
localisation et un paramètre d’échelle.
L’estimateur que nous proposons, pour la construction d’une nouvelle carte de contrôle a la
particularité de pouvoir estimer d’autres paramètres de localisation que la moyenne ou la médiane.
Ces paramètres, le plus souvent utilisés par défaut, ne sont pas forcément les meilleurs.
Nous avons montré, que l’on pouvait déterminer ce paramètre de localisation en minimisant le
critère du coût de non qualité au sens de Taguchi.
Nous avons montré que le paramètre de localisation optimal est la moyenne de la population
lorsque la fonction perte est symétrique. Dans le cas contraire, le choix du paramètre de localisation
dépend de la densité de loi de la population, ce qui rend le paramètre difficile à déterminer
expérimentalement.
Avantages de la carte L
La carte L que nous avons présenté dans ce chapitre est construite à partir du L-estimateur des
moindres carrés introduit par Lloyd en 1952. Cet estimateur a la particularité de fournir des
estimations sans biais d’un paramètre de localisation et d’un paramètre d’échelle de la population.
C’est aussi un estimateur optimal en terme de variance parmi les estimateurs construits à partir
d’une combinaison linéaire des observations.
Les répercussions de cette faible variance sur la carte L sont notamment de fournir un tracé moins
bruité que la carte de Shewhart, de telle sorte que les règles de pilotage basées sur la mise en
évidence de tendances sont plus faciles à appliquer.
De plus la P.O.M de la carte L est toujours très inférieure à celle de la carte Shewhart lorsque les
limites sont placées à ±3 s L−estimateur . La sensibilité de la carte L aux décentrages est donc plus
grande que celle de la carte de Shewhart. Cet avantage peut aussi s’avérer un inconvénient lorsque
les risques a sont trop grands. Les risques a sont en effet souvent de l’ordre 2%, ce qui peut
apparaître inacceptable pour certains utilisateurs. On peut donc choisir de minimiser ces risques en
prenant des limites plus larges à ±3 s / n .
Nous avons également proposé une extension de la carte L, appelée CUSUM-L, qui consiste à
appliquer une procédure CUSUM à des estimations provenant du L-estimateur des moindres carrés.
La carte CUCUM-L a l’intérêt d’être plus sensible aux faibles dérives que la carte CUSUM
proposée par Page [Pag 54]69.
69
PAGE E. S. Continuous Inspection Schemes - Biometrics - Vol 41 - 1954
Cette propriété est d’autant plus intéressante qu’elle est toujours valable lorsque les performances
du L-estimateur sont médiocres par rapport à la moyenne.
Mise en œuvre
Afin de faciliter la mise en œuvre de la carte L nous avons proposé deux procédures de démarrage.
Le démarrage par lissage des coefficients du L-estimateur permet un passage progressif de la
moyenne vers les coefficients optimaux, au fur et à mesure de l’apprentissage du procédé. Cette
procédure est plus particulièrement destinée aux séries longues car elle exige un minimum de 30
échantillons pour que les coefficients du L-estimateurs soient correctement estimés.
La seconde procédure s’appuyant sur une méthode bootstrap est plus particulièrement destinée aux
séries courtes ou aux procédés à évolution rapide. Son principe repose sur la constitution d’une
population empirique, à partir de laquelle on construit les coefficients du L-estimateur par
rééchantillonnage. Le nombre d’observations nécessaires au calcul des coefficients peut ainsi être
réduit à une trentaine, ce qui est particulièrement intéressant lorsque le procédé est peu stable.
L’utilisation de méthodes non paramétriques ne signifie pas que ces méthodes sont universelles. En
effet, les modèles postulés, même très larges ne peuvent satisfaire toutes les situations. Ainsi le
modèle localisation échelle, utilisé pour le L-estimateur des moindres carrés n’est pas valable pour
les lois de type défaut de forme puisque tout décentrage du procédé entraîne une modification de la
distribution de la population. Les paramètres de localisation et d’échelle n’ont donc plus la même
signification lorsque la distribution de la population évolue.
Perspectives
Ce problème est aussi rencontré pour des critères différents des défauts de forme. On suppose par
exemple que les caractéristiques de la distribution des observations évoluent pour une raison
quelconque. Une bonne utilisation de la M.S.P. veut que ce phénomène soit détecté car nous avons
eu l’occurrence d’une cause spéciale. Nous avons vu au paragraphe que ce type d’évolution était
parfaitement détectable à l’aide d’une carte L. Cependant, dans de telles condition les performances
en variance du L-estimateur chutent de manière importante. Pour augmenter nos chances de
détecter les modifications de la distribution de la population, il peut être intéressant de mettre en
place une procédure adaptative, de sorte que les coefficients du L-estimateur garantissent des
performances optimales.
Chapitre 4
Chapitre 4
Depuis sa création, la M.S.P. s’est enrichie d’un nombre important d’outils élargissant le domaine
des applications de la carte X /R. Ces outils souvent très spécialisés, comme les cartes de contrôle
multidimensionnelles ou les cartes petites séries, nécessitent une parfaite adéquation avec le
problème traité pour que leur application soit couronnée de succès.
Chacun des outils de la M.S.P. a des spécificités à la fois statistiques et méthodologiques, qui le
rendent plus ou moins apte à piloter une famille de procédés. En effet, on utilisera plus volontiers
une carte aux valeurs individuelles sur un procédé continu de l’industrie chimique, que sur un
procédé discret de l’industrie mécanique.
Ainsi, nous allons préciser le cadre d’application de la carte L ainsi que les conditions opératoires
qui garantissent des performances intéressantes.
La méthode d’échantillonnage
La procédure d’échantillonnage possède un aspect théorique important pour les méthodes
d’estimation statistiques par sondage. Son choix conditionne en effet la précision et la validité des
résultats. De plus, elle revêt un aspect pratique et économique primordial pour les utilisateurs de la
M.S.P. puisque les contraintes des cadences de production ou de lots, ne permettent pas toujours de
mettre en place les méthodes d’échantillonnage les plus efficaces.
Nous avons présenté au chapitre 2 un certain nombre de méthodes d’échantillonnage dont les
performances et les applications sont parfois très différentes. Parmi celles-ci, nous avons retenu
quatre méthodes incontournables dans les applications industrielles :
· La plus connue d’entre elles est bien entendu l’échantillonnage aléatoire que l’on pratique
notamment en contrôle réception. Cette méthode est la plus simple car elle ne tient pas compte
d’une éventuelle stratification de la population. On l’utilisera de préférence pour des procédés
non stratifiés, cependant sa simplicité peut motiver son utilisation dans d’autres situations.
· L’échantillonnage séquentiel, s’applique exclusivement aux procédés stratifiés. Il a l’avantage
de réduire la variance des estimations par rapport à l’échantillonnage aléatoire du fait d’une
réduction de la variance inter échantillons. Cette procédure est particulièrement adaptée aux
procédés tels que les multibroches où les observations proviennent successivement de strates
différentes.
· Un cas particulier de l’échantillonnage séquentiel est celui où la taille des échantillons est égale
au nombre de strates. Dans ce cas l’échantillon est dit représentatif puisque l’on a une
observation par strate. Cette méthode est la plus efficace des trois mais aussi la plus
contraignante car elle nécessite une distinction physique des différentes strates.
· Le prélèvement d’un échantillon représentatif est particulièrement intéressant car il réduit
fortement la variance inter échantillons. Dans le même état d’esprit, on peut prélever
systématiquement des observations sur des strates définies à l’avance. L’avantage de cette
démarche est de pouvoir fournir des estimations à faible variance tout en prélevant des
échantillons économiquement viables. Cependant cette approche occulte l’information provenant
des autres strates de la population, et par conséquent ne pourra détecter un éventuel accident sur
les strates non surveillées.
Le choix de ces méthodes est généralement dicté par le type de procédé à piloter. Dans chacun de
ces cas, on peut utiliser la moyenne ou le L-estimateur pour estimer le paramètre de position de la
population. Les coefficients du L-estimateur ainsi que sa variance seront bien entendu différents
selon la méthode d’échantillonnage retenue.
Cependant l’utilisation du L-estimateur de position, reste intéressante pour chacune des méthodes
présentées puisque ses performances en terme de variance sont meilleures ou égales à celles de la
moyenne.
En outre, rappelons qu’il est possible d’optimiser les prélèvements au sein d’une strate. Cet
échantillon appelé échantillon de Neyman tient compte de la dispersion de chacune des strates de la
population. Un échantillon représentatif peut être un échantillon de Neyman si la dispersion de
chacune des strates est d’un même ordre de grandeur. Dans le cas particulier où les échantillons
prélevés sont des échantillons de Neyman on peut remarquer que le L-estimateur de position est la
moyenne. La moyenne est donc l’estimateur à variance minimale parmi les estimateurs linéaires.
Dans ce cas, il est évident que le calcul du L-estimateur a peu d’intérêt.
Exemple
Pour illustrer notre propos, nous avons calculé la variance du L-estimateur de position et de la
moyenne pour l’échantillonnage séquentiel et l’échantillonnage aléatoire. Ces calculs ont été
réalisés pour une population constituée de six strates (Voir chapitre 3).
N(5, 1), N(5, 1), N(5.5, 1), N(0, 1), N(-3.2, 1), N(-3.5, 1)
Dans ce cas, l’échantillon de Neyman est l’échantillon représentatif puisque les strates ont la même
dispersion.
Echantillonnage Aléatoire
Echantillon n=3 n=4 n=5 n=6 n=7 n=8 n=9 n = 10
L-estimateur m 4.29 2.46 1.52 1.01 0.72 0.55 0.44 0.36
Moyenne 5.32 3.99 3.19 2.66 2.28 2.00 1.77 1.60
Efficacité relative 0.81 0.62 0.48 0.38 0.32 0.28 0.25 0.22
Echantillonnage Séquentiel
Echantillon n=3 n=4 n=5 n=6 n=7 n=8 n=9 n = 10
L-estimateur m 0.49 0.45 0.33 0.17 0.20 0.20 0.14 0.16
Moyenne 1.02 1.31 0.80 0.17 0.45 0.39 0.30 0.34
Efficacité relative 0.48 0.34 0.41 1 0.44 0.51 0.47 0.47
Figure 78
1
Aléatoire
0.8 Séquentiel
Variance
0.6
0.4
0.2
0 n
3 4 5 6 7 8 9 10
Figure 79
A la lumière de cet exemple, nous constatons, que pour l’échantillonnage séquentiel, l’efficacité
relative du L-estimateur par rapport à la moyenne ne dépend pas de la taille d’échantillon,
contrairement à l’échantillonnage aléatoire. D’autre part, on vérifie bien que la moyenne et le L-
estimateur ont la même variance quand on prélève l’échantillon de Neyman.
Dans l’exemple proposé, on peut ramener le nombre de strates à cinq puisque deux d’entre elles on
la même moyenne :
N(5, 2), N(5.5, 1), N(0, 1), N(-3.2, 1), N(-3.5, 1)
L’échantillon de Neyman est alors le même que précédemment puisqu’on prélèvera deux
observations sur la première strate et une seule pour chacune des autres strates.
Nous allons présenter brièvement les fonctionnalités développées dans ce logiciel pour exploiter au
maximum les possibilités des cartes L et CUSUM L.
La maquette réalisée se compose de quatre modules qui s’articulent autour d’une base de données.
Les fonctionnalités des différents modules sont :
· La spécification de la gamme de contrôle du critère étudié : Cible, écart-type de la population,
mode de calcul des limites de contrôle, méthode de détermination des coefficients du L-
estimateur.
· Le calcul des coefficients du L-estimateur par méthode bootstrap ou par simulation de Monte
Carlo.
· L’analyse de capabilité machine et de capabilité procédé.
· Le pilotage par carte de contrôle et la saisie de nouvelles données.
Définition du procédé
La plasturgie
L’industrie de la plasturgie possède un nombre important de techniques de mise en forme du
plastique : le thermoformage, le moulage par transfert, injection, ou projection. Parmi ces
techniques, nous nous sommes particulièrement intéressés aux presses à injecter qui comptent
parmi les procédés les plus classiques de la plasturgie. Ces procédés permettent de fabriquer des
formes pleines par injection de plastique dans un moule. Pour des raisons de rentabilité évidentes,
on utilise le plus possible des moules comportant plusieurs empreintes : les multi-empreintes.
Injection
de
Plastique
Moule
Figure 80
Les deux paramètres prépondérants du process d’une presse à injecter sont la température du
plastique et la pression d’injection. Néanmoins une parfaite maîtrise de ces paramètres ne suffit pas
à obtenir des pièces identiques. En effet, une parfaite homogénéité de la production suppose que les
empreintes soient strictement identiques et que la matière première soit répartie de manière
équivalente entre elles. Ces deux raisons expliquent à elles seules que ces procédés sont
particulièrement non normaux.
Notre première étude a été réalisée dans l’entreprise ID, spécialisée dans la fabrication de pièces
plastiques de petites tailles pour les composants électroniques ou la connectique. La fabrication de
pièces de précision nécessite un soin particulier pour l’élaboration des moules.
Le procédé que nous avons étudié comporte 8 empreintes et fabrique des connecteurs électriques.
Nous avons suivi l’une des cotes critique de cette pièce, qui est une surépaisseur permettant d’offrir
une résistance mécanique lors de l’enfichage ou le retrait du connecteur.
Schéma du connecteur
5.38 ±0.05mm
Analyse de variance
Nous avons tout d’abord réalisé une analyse de variance pour chacune des empreintes du moule,
afin de vérifier de manière rigoureuse la non normalité du procédé. Pour cela nous avons prélevé 10
mesures par empreinte.
L’objectif de l’analyse de variance est de déterminer si la variabilité liée aux différents facteurs
(empreintes) est significative par rapport à la dispersion imputable aux facteurs non contrôlés,
c’est-à-dire les causes communes.
Facteurs 1 2 3 4 5 6 7 8 9 10
X 10
∑ X i− X
i=1
Empreinte 1 5.388 5.387 5.384 5.385 5.387 5.387 5.389 5.389 5.386 5.387 5.3869 2.29E-5
Empreinte 2 5.385 5.388 5.385 5.385 5.384 5.383 5.386 5.388 5.385 5.384 5.3853 2.41E-5
Empreinte 3 5.38 5.382 5.381 5.382 5.382 5.38 5.38 5.378 5.381 5.38 5.3806 1.44E-5
Empreinte 4 5.387 5.386 5.387 5.385 5.385 5.388 5.387 5.388 5.386 5.389 5.3868 1.56E-5
Empreinte 5 5.383 5.386 5.385 5.384 5.382 5.384 5.385 5.382 5.383 5.384 5.3838 1.56E-5
Empreinte 6 5.383 5.378 5.379 5.381 5.375 5.381 5.38 5.377 5.378 5.379 5.3791 4.69E-5
Empreinte 7 5.388 5.386 5.389 5.384 5.387 5.387 5.385 5.389 5.39 5.385 5.387 3.60E-5
Empreinte 8 5.386 5.384 5.386 5.384 5.385 5.386 5.387 5.385 5.385 5.387 5.3855 1.05E-5
X S
5.3844 1.86E-4
Le résultat de cette étude nous montre que le rapport entre la variance inter échantillon et la
variance résiduelle V A /V R =F exp rience , est très supérieur à Fthéorique que l’on trouve dans la table de
la loi de Snedecor en fonction des paramètres nA= 7 nR= 72 et a=5%
On conclut donc que l’influence des facteurs est significative. C’est-à-dire que la stratification de la
population est importante.
Distribution de la population
Si on calcule la variance et la moyenne de chacune des empreintes, en supposant que chacune des
empreintes génère une loi normale, on peut avoir une idée de la distribution de la population
(Figure 82).
Empreinte 1 2 3 4 5 6 7 8
Moyenne 5.3869 5.3853 5.3806 5.3868 5.3838 5.3791 5.387 5.3855
Ecart-type 0.00159 0.00164 0.00127 0.00132 0.00132 0.00228 0.00200 0.00108
Figure 82
On vérifie tout d’abord par un test de Hartley si les écarts entre la variance des empreintes sont
significatifs (Eq 0) :
V max
r= =4 . 458 . 95 avec a=5%
V min
Eq 0
La ratio entre la variance maximum et la variance minimum étant inférieur à la valeur fournie dans
un tableau en fonction de la taille des échantillons (ici n=10), le test conclut que l’écart les
variances n’est pas significatif. On peut donc considérer que toutes les empreintes ont la même
variance pour obtenir la distribution Figure 83.
Distribution de la population
Figure 83
Notre période d’étude étant limitée dans le temps, nous avons choisi de calculer les coefficients du
L-estimateur par la méthode bootstrap à partir de 30 observations. Nous pouvons constater sur la
courbe ci-dessous, que les coefficients obtenus sont très proches de ceux calculés par une méthode
de Monte Carlo à partir de la distribution Figure 83. Cela signifie dans ce cas que l’hypothèse de
normalité de la distribution des empreintes est tout à fait valable.
Ces deux méthodes diffèrent en effet par leur manière de générer des données. Alors que la
méthode bootstrap est une méthode de rééchantillonnage à partir de données prélevées sur le
procédé, la simulation de Monte Carlo que nous avons menée suppose la connaissance du nombre
de générateurs et de leurs lois respectives.
0.4
0.3
J(u )
0.2
0.1
0
u
-0.1
0 0.25 0.5 0.5 1
Bootstrap Simulation
Figure 84
· Variance de la moyenne
s 2∗¿
Var X
= =1, 72⋅10−6
n
¿
Var m
ER X =
,m » 0 . 67
Var X
Eq 0
Pour piloter le procédé, nous avons effectué des prélèvements de 5 pièces de manière aléatoire tous
les quarts d’heure.
Les tracés de la carte de Shewhart et de la carte L sont représentés Figure 85. On constate que le
procédé dérive lentement. Toutefois cette dérive ne peut donner lieu à une action corrective pour les
raisons suivantes :
· Aucun point ne dépasse les limites de contrôle,
· on ne peut compter que 6 points au-dessus de la cible,
· on a alternativement des séquences de points croissantes ou décroissantes.
L’amélioration apportée ici par la carte L est assez sensible puisque son tracé est un peu moins
mouvementé que celui de la carte de Shewhart. Le point N° 10 est très proche de la limite
supérieure, ce qui peut amener l’opérateur à intervenir sur le procédé.
Carte de Shewhart
5.385
5.383
5.381
5.379 LC(Xb)
mu
5.377 Xb
LC(mu)
5.375
1 2 3 4 5 6 7 8 9 10 11
m 5.3785 5.3794 5.3804 5.3791 5.3793 5.3820 5.3826 5.3807 5.3809 5.3830 5.3811
X 5.3784 5.3799 5.3809 5.3785 5.3799 5.3827 5.3829 5.3809 5.3801 5.3825 5.3813
Figure 85
Etant donné que le procédé dérive de manière lente, nous avons considéré que le suivi par une carte
CUSUM était mieux adapté à ce type de configuration.
Les Figure 86 et Figure 87 représentent respectivement les tracés de la carte CUSUM standard et la
carte CUSUM-L pour la même séquence de données que précédemment (Figure 85).
Les cartes CUSUM ont été calculées avec les paramètres suivants :
CUSUM CUSUM-L
Ecart type de 1,31.10-3 1,07.10-3
l’estimateur
Filtre k= 0.5 k=0.5
Limites de contrôle h= 5 h= 5
Carte CUSUM
0.008
0.006
0.004
0.002
0 LSC
-0.002 SH
-0.004 SL
-0.006 LIC
-0.008
1 2 3 4 5 6 7 8 9 10 11
Figure 86
Carte CUSUM-L
0.008
0.006
0.004
0.002
LSC
0
SH
-0.002
SL
-0.004
LIC
-0.006
1 2 3 4 5 6 7 8 9 10 11
Les données collectées pour cet exemple proviennent d’un sous-traitant d’un fabricant de fixations
de skis. La presse à injecter étudiée comporte quatre empreintes et les pièces fabriquées sont des
pistons pour le talon d’une fixation de ski.
30.30
+0.0/-0.30
Etude préliminaire.
Afin de déterminer la cote à étudier, nous nous sommes basés sur une étude de capabilité
antérieure. Il ressort de cette étude que la longueur du piston suit une distribution stratifiée. L’étude
de capabilité a été réalisée indépendamment sur chacune des empreintes en prélevant 30 mesures.
Les résultats sont assez significatifs et il n’est pas besoin d’effectuer une analyse de variance pour
conclure que l’influence des empreintes est significative. En effet le tracé (Figure 89) laisse paraître
une forte stratification de la population.
Distribution des observations
Figure 89
Coefficients du L-estimateur
0.1
0
-0.1
-0.2 u
0 0.25 0.5 0.75 1
Bootstrap Simulation
Var m
= 1,31.10-4 = 2,44.10-4 d’où l’efficacité relative : ER X
Var X =0 . 541
,m
Ces valeurs sont obtenues en prenant l’écart-type de la population empirique sp comme
approximation de l’écart type de la population.
Pour construire la carte L nous avons pris comme cible le milieu de l’intervalle de tolérance.
Les échantillons sont prélevés aléatoirement par groupe de 5.
Carte X Carte L
Formule s p∗¿
Cible±3 Cible±3 s L−estimateur
n
¿
LSC 30.197 30.184
LIC 30.103 30.116
Carte L et Carte Xb
30.20
30.18
30.16
LC(mu)
30.14
Mu
30.12 Moyenne
LC(Xb)
30.10
1 2 3 4 5 6 7 8 9 10 11 12 13
m 30.161 30.154 30.161 30.132 30.154 30.156 30.172 30.169 30.173 30.176 30.171 30.164 30.191
X 30.153 30.156 30.149 30.138 30.151 30.156 30.159 30.189 30.179 30.174 30.157 30.163 30.197
Figure 90
La règle de pilotage veut que le réglage effectué soit de la valeur de l’écart entre la tendance
moyenne et la cible. On peut avoir une idée de la précision du réglage effectué en calculant l’écart
type des estimations de la position du procédé, à partir des point N°5 à N°11.
R glage
En calculant le rapport R= (une sorte de rapport Signal/Bruit) on peut donc caractériser
s Estimation
l’efficacité du réglage effectué. Plus cette valeur est grande, plus on peut considérer que le réglage
est fiable. Une valeur de R inférieure à 2 est en revanche le signe d’un réglage peu fiable.
Cible -
∑ m i -0.01798
11
m i=5
=
1
7 i=5
∑ m i − m 2 5.99
7
7
=0.0030
11
Cible -
∑ X i -0.01714
11
2
X i=5
=
1
7
∑ X i − X 3.43
7 i=5
7
=0.0050
Figure 91
La comparaison réalisée Figure 91 montre, comme on pouvait s’y attendre, que les réglages
effectués à l’aide de la carte de Shewhart sont moins précis que ceux réalisés à partir de la carte L.
La faible variance du L-estimateur de position permet en effet d’obtenir une valeur de R beaucoup
plus élevée que dans le cas de la moyenne.
Carte CUSUM-L
Pour compléter notre étude, nous avons calculé les cartes CUSUM pour la série de données étudiée
précédemment, afin de vérifier si le décentrage du procédé est détecté.
Carte CUSUM
0.15
0.1
0.05
LSC
0 SH
SL
-0.05 LIC
-0.1
1 2 3 4 5 6 7 8 9 10 11 12 13
Dans ce cas, la carte CUSUM ne détecte pas plus rapidement le décentrage que dans le cas de la
carte de Shewhart. Même si, il est vrai, les points sont très proches de la limite supérieure à partir
du 10ème point, celles-ci ne sont franchies qu’au 12ème échantillon.
Avec la carte CUSUM-L, le procédé est hors contrôle dès le 10ème point, ce qui est un peu mieux
que la carte de Shewhart lorsque l’on utilise la règle de pilotage des tendances.
Carte CUSUM-L
0.15
0.1
0.05
LSC
0 SH
SL
-0.05 LIC
-0.1
1 2 3 4 5 6 7 8 9 10 11 12 13
Figure 93
Les deux études réalisées dans la plasturgie ont montré que la carte L pouvait avoir un grand intérêt
pour le pilotage de procédés multi-empreintes, et notamment sur des cotes critiques lorsque la
capabilité machine n’est pas très grande.
L’industrie du décolletage
L’industrie du décolletage implantée massivement dans la vallée de l’Arve travaille essentiellement
pour le secteur automobile. Les procédés utilisés pour la fabrication de pièces cylindriques sont
pour la plupart des tours. Le plus utilisé d’entre eux est sans doute le tour multibroches, dont
l’intérêt est de pouvoir réaliser plusieurs opérations (6 ou 8) en un cycle. Nous nous sommes donc
intéressés à l’une de ces productions
Broches
Outil Plateau
Pièce à usiner
Figure 94
Le critère que nous avons choisi d’étudier est une longueur 5.25mm sur une pièce de décolletage.
Le contrôle est réalisé à l’aide d’un manchon.
5.25 ±0.1
Capteur Inductif
Butée
Figure 95
Dans le cadre de cet exemple, les données ont été recueillies à l’aide d’un terminal d’atelier PAT
600â.
Etude préliminaire
Conformément aux procédures établies, nous avons réalisé un prélèvement de 30 pièces sur une
période de production très courte pour calculer la capabilité machine. Les résultats obtenus révèlent
une très bonne capabilité machine (Figure 96).
Moyenne 5.267
Ecart-type 0.00974
Tolérance 5.35
Supérieure
Tolérance Inférieure 5.15
Cm 3.42
Cmk 2.83
Figure 96
La construction d’un histogramme et le calcul du test du c2 laissent supposer que la distribution des
observations suit une loi normale. Cependant il faut garder à l’esprit que le test du c2 conclut très
souvent à la normalité d’une distribution lorsque le nombre d’observations est faible. c2observé =
1.589 < c2Théorique = 5.991
En outre le test de Kolmogorov confirme ce résultat (Figure 97).
Figure 97
Il faut néanmoins admettre, aux vues des résultats que la distribution des observations ne peut être
que faiblement non normale
Calcul des coefficients du L-estimateur
Les opérateurs semblent ne pas se soucier de l’ordre des pièces lorsqu’elles sont éjectées du tour.
Plutôt que de prélever six pièces consécutives à la sortie de la machine, ils prélèvent les pièces dans
le bac de réception. La première méthode a pourtant plusieurs avantages :
· Les observations constituent un échantillon représentatif.
· Les observations étant consécutives, le procédé est supposé stationnaire et on minimise les effets
d’éventuelles dérives.
· Les observations provenant des derniers cycles d’usinage, on améliore la réactivité en cas de
réglage.
L’échantillonnage étant aléatoire nous décidons de calculer les coefficients du L-estimateur par la
méthode bootstrap, en s’appuyant sur les 30 observations de l’échantillon de capabilité machine. La
taille des échantillons définie dans la gamme de contrôle est de n=6.
La fonction de poids obtenue, a une forme en U peu prononcée, qui peut être attribuée à la faible
représentation des observations dans les queues de la distribution empirique, ce qui donne un
caractère platikurtique à cette dernière.
0.4
0.3
J(u )
0.2
0.1
0 u
0.17 0.33 0.5 0.67 0.83 1
Bootstrap Moyenne
Le calcul des variances de la moyenne empirique et du L-estimateur de position nous permet alors
d’établir l’efficacité relative des deux estimateurs, qui est ici très proche de 1, comme on pouvait
s’y attendre.
Dans ce cas il est évident que les estimations effectuées à l’aide de la moyenne et du L-estimateur
de position sont indiscernables les unes des autres. Comme on peut le constater sur la carte de
contrôle (Figure 98) les limites de contrôle, les tracés de la carte de Shewhart et la carte L se
superposent totalement.
Carte L et Carte Xb
5.28
5.27
5.26
LC(mu)
5.25
Mu
5.24 Moyenne
LC(Xb)
5.23
Figure 98
Les données reportées sur la carte de contrôle révèlent un procédé hors contrôle. Celui-ci est
cependant parfaitement piloté, mais avec des limites de contrôle élargies, qui permettent de garantir
que la production reste dans les tolérances tout en autorisant une certaine dérive de la moyenne.
Cette procédure est très souvent appliquée lorsque la capabilité machine est supérieure à 2, car elle
permet de réduire le nombre d’interventions sur un procédé difficilement pilotable.
Conclusion
Ce chapitre nous a permis d’étudier en détail le comportement de la carte L au travers de trois
applications industrielles.
Après avoir défini les conditions opératoires pour une bonne application de la carte L nous avons
traité deux exemples en plasturgie sur des procédés de type multi-empreintes et un exemple dans
l’industrie du décolletage sur un tour multibroches.
Les études menées sur des presses à injecter ont mis en évidence la forte non normalité des critères
couramment surveillés. Dans ces conditions, la carte L s’avère particulièrement intéressante car elle
permet de détecter beaucoup plus rapidement les dérives du procédé. Par ailleurs, les réglages
effectués sur le procédé lors de la détection d’un état hors contrôle du procédé (point hors des
limites ou détection d’une tendance) sont beaucoup plus précis lorsque l’on utilise une carte L.
La troisième étude menée sur un tour multibroches a révélé, contre toute attente, que la loi de
distribution des observations pouvait être assimilée à une loi normale. Nous avons montré dans ce
cas que l’utilisation de la carte L était sans risque puisque les coefficients du L-estimateur étaient
très proches de ceux de la moyenne et que par conséquent l’efficacité de la carte L et de la carte de
Shewhart X /S étaient équivalentes. Nous conseillons donc par prudence d’utiliser de la carte L
sur des procédés qui sont potentiellement non normaux, même si celle-ci n’a pas été vérifiée. En
effet, dans le « pire des cas » (celui d’une normalité), la carte L sera aussi performante que la carte
de Shewhart.
Chapitre 5
Conclusion et perspectives
Parmi les sujets qui préoccupent les industriels et les chercheurs dans le domaine de la M.S.P,
l’étude des procédés non normaux est particulièrement à l’honneur. Nos travaux, qui s’inscrivent
dans ce cadre, ont eu pour ambition de fournir une approche générale pour le pilotage des procédés
non normaux.
En guise de conclusion, nous effectuerons, une synthèse des résultats obtenus puis nous ferons le
point sur les orientations à donner aux travaux futurs pour enrichir ces premiers résultats.
Notre premier objectif a été de recenser les facteurs qui peuvent engendrer la non normalité d’une
production. L’étude de procédés non normaux est parfois complexe et ne révèle pas toujours les
causes de cette non normalité. Cependant on peut distinguer deux types de non normalité :
· La non normalité provient souvent de l’influence prépondérante de plusieurs facteurs de
dispersion inhérents au procédé. Il s’agit par exemple des empreintes sur une presse à injecter.
· Dans d’autres cas, la grandeur physique surveillée explique à elle seule la non normalité de la
distribution des mesures. C’est le cas des planéités ou des circularités en mécanique.
L’état de l’art
La non validité de l’hypothèse de normalité des observations a des répercussions à la fois sur la
validité et les performances des différents outils statistiques utilisés. Ainsi de nombreuses
approches ont été proposées pour le calcul des indicateurs de capabilité et la construction de cartes
de contrôle.
La bibliographie concernant le calcul des indicateurs de capabilité est sans aucun doute la plus
riche. Le problème de la validité de ces indicateurs concerne en effet un grand nombre de sous-
traitants de l’automobile qui connaissent soit des procédés non normaux soit des procédés mal
maîtrisés.
La plupart des méthodes proposées s’appuient sur une définition de la dispersion qui est étroitement
liée au pourcentage de pièces hors tolérances. La dispersion est en effet définie comme étant
l’intervalle centré couvrant 99,73% de la population.
Nous considérons pour notre part, que cette construction des indicateurs ne fournit pas une
information conforme au niveau de qualité réel de la production.
En effet une production décrite par une loi platikurtique (provenant d’un procédé non maîtrisé) aura
les mêmes Cp et Cpk qu’une production décrite par une loi normale (provenant d’un procédé
parfaitement maîtrisé) de même dispersion (99,73%). Cette dernière ayant pourtant un niveau de
qualité bien supérieur.
Les indicateurs de capabilité « classiques », qui se basent sur une définition de la dispersion de 6s,
donnent en revanche une interprétation du niveau de qualité assez proche de celle que propose
Taguchi en pénalisant tout écart d’une mesure par rapport à la cible.
Placer les pièces à l’intérieur de l’intervalle de tolérance est certes une condition nécessaire à
l’obtention de la qualité, mais pas une condition suffisante. Il faut aussi centrer la production sur la
cible. C’est pourquoi nous préférons la définition classique des indicateurs Cp et Cpk qui peuvent
être utilement complétés par le Cpm.
Les travaux concernant les cartes de contrôle sont peu nombreux. Ils se focalisent essentiellement
sur la précision des tests par intervalle de confiance dans le but de garantir un risque a de 0,27%.
Cette approche que nous qualifions de « puriste » ne nous apparaît pas d’un intérêt fondamental. En
pratique, la dispersion et les queues des distributions ne peuvent être connues parfaitement. On se
satisfait généralement de tests permettant de prendre des décisions avec des risques
« raisonnables ».
La performance des estimateurs ponctuels est par contre peu abordée alors qu’elle conditionne à la
fois la sensibilité de la carte et la précision des réglages. La moyenne et la médiane utilisées assez
systématiquement peuvent en effet s’avérer des estimateurs médiocres pour certains types de
distributions.
Définition du cadre d’étude
Les deux objectifs que nous nous sommes fixés pour définir le cadre de travail étaient donc :
· Rechercher l’optimalité de l’estimateur ponctuel
· Proposer une approche non paramétrique pour ne pas limiter notre domaine d’application à une
famille particulière de lois.
Nos travaux se sont donc appuyés sur les statistiques d’ordre qui constituent un outil privilégié de
la statistique non paramétrique. Le L-estimateur des moindres carrés proposé par Lloyd s’est avéré
particulièrement adapté à notre problème. Il a en effet les propriétés suivantes :
· Il se base sur un modèle non paramétrique de localisation échelle,
· Il fournit une estimation sans biais des paramètres de localisation et d’échelle,
· Il fournit une estimation à variance minimale parmi les estimateurs construits à partir d’une
combinaison linéaires des observations,
· Les paramètres à estimer peuvent être définis par l’utilisateur.
Pour satisfaire ces objectifs, nous avons proposé une nouvelle carte de contrôle (la carte L)
s’appuyant sur des L-statistiques, particulièrement adaptées aux cas des procédés non normaux.
Le choix du paramètre de localisation peut être sujet à discussion lorsque la population n’est pas
symétrique puisque la tendance centrale de la loi n’a plus de signification. Nous avons donc
proposé de définir ce paramètre selon le critère de la perte au sens de Taguchi.
Nous avons montré que le paramètre moyenne permettait de minimiser la perte au sens de Taguchi
dans le cas d’une fonction perte symétrique. Dans le cas contraire, le calcul nécessite la
connaissance de la loi de distribution des observations. Ce cas de figure ne rentre donc pas dans le
cadre non paramétrique que nous nous sommes fixés.
Performances de la carte L
En outre, nous avons proposé une extension de la carte L en appliquant une procédure CUSUM aux
estimations du L-estimateur des moindres carrés. Cette carte s’avère plus sensible que la carte
CUSUM standard et possède encore de bonnes performances quand l’efficacité relative de la
moyenne par rapport au L-estimateur est de l’ordre de 0.8.
Néanmoins cette approche n’est pas la seule possible. On peut aussi envisager de construire
d’autres cartes comme les cartes EWMA.
Bien que le modèle non paramétrique de localisation échelle décrive un grand nombre de lois, nous
avons montré que celui-ci n’était pas adapté aux lois de défaut de forme. En effet, les paramètres de
localisation et d’échelle n’ont plus la même signification lorsque la distribution de la population
évolue.
Application industrielle
L’étude de presses à injecter multi-empreintes a mis en évidence la forte non normalité des critères
étudiés. Nous avons montré dans ces cas que la carte L était particulièrement intéressante
puisqu’elle détecte plus rapidement les dérives du procédé et permet des réglages plus précis.
A l’opposé, le suivi d’un tour multibroche a révélé contre toute attente que la loi de distribution des
observations pouvait être assimilée à une loi normale. Dans ce cas, les coefficients du L-estimateur
étant très proches de 1/n les performances de la carte L sont équivalentes à celles de la carte de
Shewhart.
L’utilisation de la carte L est donc sans risque si la non normalité d’un procédé n’a pas été vérifiée.
Perspectives
Avant d’énumérer les aspects de la recherche qu’il nous semble important de développer pour
compléter ces premiers résultats, nous rappellerons les principales motivations de nos travaux.
Les conventions CIFRE ont en effet pour vocation de favoriser le transfert technologique et les
échanges d’idées, souvent trop ponctuels, entre le milieu universitaire et le milieu industriel. Ainsi
un travail important reste à réaliser pour la diffusion auprès des industriels des méthodes présentées
dans ce mémoire. Ce travail de diffusion doit également s’accompagner d’un développement
d’outils informatiques permettant l’application des ces nouveaux concepts.
Le premier sujet de recherche découle des limites constatées lors de l’application des cartes L dans
le cas des défauts de forme. Il serait en effet intéressant de proposer une méthode pour piloter les
procédés dont la loi évolue en fonction du paramètre de localisation. C’est le cas de nombreux
critères unilatéraux.
Un second sujet concerne la vérification de l’optimalité du L-estimateur des moindres carrés sur des
procédés non stationnaires. On peut par exemple envisager une approche adaptative du calcul des
coefficients du L-estimateur. On peut aussi envisager une vérification régulière de la validité des
coefficients par rapport à la loi de distribution des dernières observations. Les méthodes bootstrap
ainsi que la construction d’intervalle de confiance sur les statistiques bootstrapées peuvent selon
nous apporter une réponse intéressante à ce type de problème.
Enfin, une étude portant sur l’application des cartes L dans le cas des petites séries permettrait de
connaître les limites de la méthode dans un contexte où le volume d’informations est
particulièrement faible.
Statistiques d’ordre
X1 , X 2 , , Xn Variables aléatoires indépendantes.
x1 , x2 , , xn Observations indépendantes.
m rs:n E X r: n X s :n
Statistique classique
mX Espérance de la variable X.
ER m
,X .
par rapport à X
Efficacité relative de m
ERA m
,X .
par rapport à X
Efficacité relative asymptotique de m
Développements mathématiques
Equation
z=g h⋅sinh−1
x−e
λ
{ [ ]}
−1
−1 1 m n
· h=2 z cosh
2 p p
{ [ ] }
1/ 2 −1
−1 n m m n
· g =h⋅sinh − 2 ⋅ −1
p p p p
[ ]
1/ 2 −1
1/ 2
m n m n m n
· λ=2 p⋅ ⋅ −1 −2 2
p p p p p p
[ ]
−1
x z x−z n m m n
· e= p − 2 2
2 p p p p
Equation
{ [ }
−1
]
−1/ 2
−1 1 p p
· h=z cosh 1 1
2 m n
{ [ ] [ ] }
1/ 2 −1
−1 p p p p pp
· g =h⋅sinh − 1 1 −4 ⋅2 −1
n m m n mn
{[ ] }
2 1/ 2 −1
p p pp
· λ= p 1 1 −2 −4 −1
m n mn
[ ]
−1
x z x−z λ p p pp
· e= − p − 2 −1
2 2 n m mn
Courbes log-normales (mn/p2 = 1)
Equation
z=g h⋅ln x−e
2z
· h=
ln m/ p
· g =h⋅ln
m/ p−1
p m/ p
1/ 2
· e=
x z x−z p m/ p1
2
−
2 m/ p−1
Construction du L-estimateur des moindres carrés
de Lloyd
Introduction
Nous allons dans cette annexe justifier la construction de l'estimateur des moindres carrés.
Rappelons tout d’abord quelques résultats concernant la méthode des moindres carrés généralisés.
y1
Y = M est appelée variable d’intérêt.
yn
u1
u= M est un vecteur aléatoire modélisant les variations de Y .
un
b1
b= M est le vecteur des paramètres que l’on cherche à estimer par les moindres carrés.
bn
[ ]
x 11 L x1 n
X= M O M est une matrice contenant des variables dites « exogènes » non aléatoires.
x m1 L x mn
On suppose les conditions suivantes satisfaites: E(u) 0 et V(u) s2 In
Estimer les paramètres b par les moindres carrés consiste à minimiser l’influence de la variable
n
n m 2
Reprenons maintenant le problème posé par Lloyd. On écrit l'expression de l'espérance des
statistiques d'ordre X(r) sous forme vectorielle
E [ X r ] =m p . es p α
où a est le vecteur des αr et e est un vecteur avec des composantes unitaires.
x 1 1 α1
On note X = M e= M α= M
xn 1 αn
[ ]
1 α1
où q=
m
s
et A= M
1
M
αn
{
X = A⋅qu
E u =0
V u =V X =s 2⋅
on a :
{ E v =0
V v = MV u M t =s 2 I n
Z=Tb+v est donc un modèle linéaire multiple ordinaire et on connaît l’estimateur des moindres
carrés ordinaires de q.
−1
q = T t T ⋅T t Z
−1
¿ At M t MA At M t MX
−1
¿ At −1 A At −1 X
Une estimation du vecteur q au sens des moindres carrés généralisés est donnée par :
−1
q = At⋅−1⋅A ⋅At⋅−1⋅X
α t⋅⋅α
Var [ m
] =s 2⋅
p det At −1 A
e t⋅⋅e
Var [ s ] =s 2p⋅
det At −1 A
Construction du L-estimateur de Bovik
Introduction
Ainsi, la sortie Yk d'un L-filtre est donnée par une combinaison linéaire des statistiques d'ordre x(j)
avec des coefficients réels notés Cj (où j=1..n).
n
Yk C j x( j) (1)
j 1
F:ÂÂ
Telle que :Y k =F x 1 ⋅¿⋅¿ x 2
x(j)=sk+B(j)
Yk sk C j C j B ( j )
La symétrie de la distribution du bruit nous amène à traiter un cas assez particulier car d'une part
l'espérance des réalisation de la variable aléatoire associée au bruit est nulle, E B 0 ., et d'autre
part les coefficients de pondération du L-estimateur sont symétriques du fait de la structure des L-
filtres.
C1 j Cn j j
on a alors E Yk sk
j
C j C j E B ( j ) sk C j
j j
Une condition suffisante pour obtenir un biais nul est E Yk sk , ce qui implique que la somme
des coefficients C doit être égale à 1. Si on utilise un vocabulaire propre au traitement du signal, on
dit que le L-filtre a un gain statique unitaire.
[ 2
] [
Var [ Y k ] =E Y k −E Y k =E Y k −s k
2
]
¿E
[∑ C ⋅B j ∑ C ⋅B p ]
j
j
p
p
L'expression de la variance d'un L-estimateur met en évidence que son efficacité est
conditionnée par le bon choix des coefficients C. Pour calculer les coefficients optimaux nous
allons nous appuyer sur deux critères que l'on essayera d'optimiser.
D'une part nous souhaitons avoir la somme des coefficients C la plus proche possible de 1 :
Cj 1
j
Pour optimiser les deux critères que l'on s'est fixé, nous allons minimiser la fonctionnelle suivante :
n n n
¶j
= ∑ R ⋅c ∑ R ⋅c −λ=2 ⋅∑ R nk⋅c k −λ
¶ c n j=1 jn j p=1 np p k =1
[]
¶j
¶ c1
Le vecteur des dérivées partielles peut donc s'écrit M =2 . RC −λe
¶j
¶ cn
La fonctionnelle admet un minimum absolu lorsque les dérivées partielles s'annulent. Pour
connaître les coefficients C nous cherchons donc à résoudre le système d'équation :
t {
2 ⋅RC −λe=0
e⋅C =1
2 R 1 e
Les solutions sont : l et C
t
e R 1 e t
e R 1 e
Les coefficients optimaux des L-estimateurs sont donc calculés à l'aide de la relation :
R 1 e
C t
e R 1 e
Etude de capabilité dans le cas d’une loi de défaut
de forme
Nous allons donc calculer ce rapport pour une loi normale sous-jacente de moyenne nulle.
e
− x2
2
f d x =2 ⋅ x³0} {}
2 p
¿
¥
2
m=∫ x⋅f d x ⋅dx= =0 . 7979
0 p
2
s= E X 2 −E X = 1− =0 . 60281
2
p
m
s
=
2
p−2
=1 . 323608
∫ f d x ⋅dx=0 . 997422
0
Calcul de la dispersion de la loi de défaut de forme en fonction
de sa moyenne et son écart-type
Le calcul de la dispersion de la loi de défaut de forme n’étant pas aisé, les normes fournissent
généralement cette information sous forme de tableau en fonction d’un paramètre facilement
estimable.
La Norme AFNOR E 60-181 fournit ces donnée en fonction du rapport m/s.
Démonstrations
On suppose une variable aléatoire X qui suit une loi normale N(m,s).
x−m 2
− 2
e 2s
f x =
s 2 p
Nous cherchons à calculer la bornes de Frechet pour une statistique Tn qui est une estimateur du
paramètre m.
[ ]
2
¶
I m =E ⋅Log f x , m
¶m
2
¥ x−m
−
1 1
I m = 3 ∫
s 2 p -¥
e 2 s2
dx =
s
2
On peut alors calculer la borne de Frechet pour une statistique Tn utilisant un échantillon de taille n.
1 1 s2
BF= = =
I n m n . I m n
2
= s =B F
La moyenne empirique est donc une estimateur efficace de m puisque V X
n
Programme Maple
restart :
with(linalg) :
f :=(x)->exp(-(((x-mu)/sigma)^2)/2)/(sigma*sqrt(2*Pi)) ;
information de Fisher
g :=unapply(simplify(diff(log(f(x,mu)),mu$2)),(x,mu)) ;
i :=int(-g(x,mu)*f(x),x=-infinity..infinity) ;
Borne de Frechet
frechet :=evalf(1/(n*i)) ;
Le procédé
Le procédé que nous avons simulé se constitue d’une population stratifiée composée de 6 lois
normales (voir chapitre 3 §3.4.3).
On constate, à travers ces résultats, que malgré son optimalité par rapport aux estimateurs linéaires
(construits a partir d’une combinaison linéaire des observations), le L-estimateur des moindres
) >> BF).
carrés n’est pas un estimateur efficace (Var( m
[ ]
0 . 5595 0 . 2757 0 . 1649
= 0 . 2757 0 . 4486 0 . 2757
0 . 1649 0 . 2757 0 . 5595
restart:
with(linalg):
Taille de l'échantillon
Nbechant:=3;
Moyenne et Ecart type de la population
moypop:=0;Ecpop:=1;
Vecteur des moyennes des statistiques d'ordre (de x(1) à x(n))
alpha:=matrix([[-0.8462843753],[0],[0.8462843753]]);
Matrice de covariance de bruit ordonné : COV (Yr,Ys)
vect:=matrix([[0.5595, 0.2757, 0.1649, 0.4487,0.2757, 0.5595]]):
omega:=matrix(Nbechant,Nbechant):
z:=0:
for i from 1 to Nbechant do
for j from i to Nbechant do z:=z+1:omega[i,j]:= vect[1,z]:omega[j,i]:=vect[1,z]:od:
od;
print (omega);
e:=convert(array(identity,1..Nbechant),matrix):
Matrice de covariance inverse
omega2:=inverse(omega);A:=concat(e,alpha);Atrans:=transpose (A):
Dans le cas de la loi normal, les coefficients sont ceux de la moyenne puisque l’on trouve :
Coefs= [ 0 . 333332
−0 . 590818
0 . 333332
0
0 . 333332
0 . 590818 ]
La variance du L-estimateur de position est la même que celle de la moyenne :
s2
Vmu=0 . 33333=
3
Vsigma=0 . 27548
Références Bibliographiques
Ouvrages
Ard 95 ARDILLY
Les techniques de sondage - Technip - 1995
Dav 81 DAVID H. A.
Order Statistics - New York - Willey - 1981
Hot 47 HOTELLING H.
« Multivariable Quality Control » - Techniques of statistical analysis
Mc Graw-Hill - New York - 1947
Kau 94 KAUFMANN P
Information Estimation Tests - Economie-Module DUNOD - 1994
Mon 91 MONGOMERY D. C.
Introduction to Statistical Quality Control
John Wiley & Sons 2nd edition 1991
Rya 89 RYAN P.
Statistical Méthods for quality improvement
John Wiley & Sons 2nd edition - 1989
Sap 78 SAPORTA G.
Théorie et Méthodes de la Statistique - Technip - 1978
She 32 SHEWHART W. A.
Economic Control of Quality of Manufactured Products
Van Nostrand Co. Inc Princeton - 1932
Sou 86 SOUVAY P.
La statistique outil de la qualité Edition AFNOR - 1986
Tas 89 TASSI Ph
Méthodes Statistiques - Economica 2nde Edition - 1989
Whe 92 WHEELER D. J.
Understanding Statistical Process Control - SPC press - 1992
Articles
Bho 91 BHOTE K. R.
World Class Quality - Amacom -1991 -225p
Bov 83 BOVIK A. C.
A generalization of Median Filtering using Linear Combinations of Order
Statistics - IEEE Transaction on acoustics, speech, and signal processing Vol
ASSP 31 - No 6 - 1983
Boy 91 BOYLES R. A.
The Taguchi Capability Index
Journal of Quality Technology - Vol 30 N°1 - pp17-26 - 1991
Bur 42 BURR, I. W.
Cumulative frequency functions - Annals of Mathematical Statistics,
N°13, pp215-232 - 1942
Bur 67 BURR, I. W.
The effect of Non-Normality on constants for X and R charts
Industrial Quality Control, Vol. 23, N°11, pp563-568 Mai 1967
Cas 96 CASTAGLIOLA Ph
Evaluation of non normal Process capability indices using Burr's distributions
Quality engineering 8(4):587-593 - 1996
Dow 54 DOWNTON F.
Least Squares estimates
Annals of Mathematical Statistics Vol 25 pp303-316 1954
Efr 79 EFRON B.
Bootstrap Methods :Another look at the Jackknife
Annals of Statistics - N°7 - pp1-26 - 1979
Gui 96 GUIDEZ L.
Indicateurs de capabilité et populations non gaussiennes
Congrès Qualité SIA - 1996
Gui 97 GUIDEZ L.
MSP : Impact de la non normalité sur les indicateurs de capabilité
2ème congrès Pluridisciplinaire Qualité et Sûreté de Fonctionnement - 1997
Gun 89 GUNTER
The use and abuse of Cpk
Quality Progress 22(3), pp108-109 & 22(5), pp 79-80 - 1989
Ham 68 HAMPEL F. R.
Contributions to the theory of robust estimation
PhD Thesis, Université de Californie - 1968
Ham 74 HAMPEL F. R.
The Influence curve and its in robust estimation J. Amer. Statist. Assoc. - N°69
pp 383-393 - 1974
Hil 69 HILLER F. S.
Xb and R-chart Control Limits based on a small number of subgroups -
Journal of Quality Technology - pp17-26 - 1969
Koo 91 KOONS G. F.
SPC : Use in low volume manufacturing environment - Statistical Process
Control in Manufacturing - Quality and reliability - ASQC Quality Press - 1991
Llo 52 LLOYD E. H.
Least-Squares Estimation of Location and Scale parameters Using Order
Statistics - Biometrika - Vol 39 - pp 88-95 - 1952
Pit 48 PITMAN E. J.
Notes on non parametric statistical inference
Manuscrit non publié
Pag 54 PAGE E. S.
Continuous Inspection Schemes - Biometrics - Vol 41 - 1954
Pil 92 PILLET M.
Application du SPC aux Petites Séries
Revue contrôle industriel et qualité - N°174 - pp58-61 - 1992
Pil 93 PILLET M.
Contribution à la Maîtrise Statistique des Procédés - Cas particulier des petites
séries - Thèse en Sciences de L’ingénieur - Univ. Savoie -1993
Pyz 92 PYZDEK T.
Process Capability Analysis Using Personal Computers
Quality. Engineering 4(3), pp419-440 - 1992
Ren RENAULT
Moyens de Production Agrement Capabilite des moyens "Multipostes ..."
Normalisation Equipement E41.32.220.R