Vous êtes sur la page 1sur 210

THESE

présentée à

L’ECOLE SUPERIEURE D’INGENIEURS D’ANNECY (ESIA)


UNIVERSITE DE SAVOIE
par

Emmanuel DUCLOS
pour obtenir le

DIPLÔME DE DOCTEUR DE L’UNIVERSITE DE SAVOIE


spécialité :

Electronique - Electrotechnique - Automatique

Contribution à la Maîtrise Statistique


des Procédés
Cas des procédés non normaux

Le 27 Novembre 1997 devant le Jury composé de :

Mr A. BARREAU Rapporteur Professeur à l’Université de Angers


Mr G. COLLIARD Examinateur Directeur de la société ODS Europe
Mr A. COURTOIS Directeur de Thèse Professeur à l’Université de Savoie
Mr G. MOREL Examinateur Professeur à l’Université de Nancy I
Mr M. PILLET Co-directeur de Thèse Docteur-Agrégé de l’Université de Savoie
Mr G. SAPORTA Rapporteur Professeur au C.N.A.M. de Paris
A Joss
et mes amis des Aravis
Remerciements

Le travail présenté dans ce mémoire a été réalisé au Laboratoire de Logiciels pour la Productique
d’Annecy (LLP/CESALP) dirigé par Monsieur Alain HAURAT. Je tiens à lui adresser mes
remerciements pour m’avoir accueilli au sein de son laboratoire. Je remercie particulièrement
Maurice PILLET pour le travail qu’il a effectué a mes côté ainsi que pour les rapports chaleureux
qu’il a su entretenir.
Je tiens à remercier Alain COURTOIS Professeur à l’Université de Savoie pour les précieux
conseils qu’il m’a donné au cours de ce travail.

Je remercie vivement Monsieur Alain BARREAU, Professeur à l’Institut des Sciences et


Techniques de l’Ingénieur d’Angers, pour avoir accepté de rapporter sur ce travail et de participer
au jury. Sa notoriété dans le domaine de la Qualité m’honore particulièrement.

Je suis très reconnaissant à Monsieur Gilbert SAPORTA, Professeur au Conservatoire National des
Arts et Métiers de Paris, d’avoir accepté d’être rapporteur de ce travail.

Je remercie Monsieur Gérard MOREL, Professeur à l’Université de Nancy I, de me faire l’honneur


de participer au Jury.

Je remercie vivement Monsieur Guy COLLIARD, directeur d’ODS Europe, dont la motivation a
été déterminante pour l’élaboration de cette convention CIFRE.

Je remercie également les entreprises qui m’ont permis de mettre en œuvre et de tester les
méthodes présentées dans ce mémoire : DAPTA, ID, SALOMON, ...

Je remercie Mohammed TABIZA, doctorant au LAMII, pour le temps qu’il m’a consacré lors de
longues séances d’initiation à la statistique, ainsi que Pascal ZAVAGNO pour son dévouement et
ses nombreux coups de main en informatique.

Je remercie enfin, tous les membres du LLP pour l’ambiance chaleureuse à laquelle ils contribuent,
avec une mention particulière pour Régis, Olivier, Isabelle et Gulçin qui ont partagé mon bureau.
Table des matières

Chapitre 1
Concepts et outils statistiques de la M.S.P.

Chapitre 2
La non normalité abordée par la Maîtrise Statistique des Procédés

Chapitre 3
Mise en place d’une carte de contrôle pour les procédés non normaux

Chapitre 4
Application industrielle de la carte L

Chapitre 5
Conclusion et Perspectives
Chapitre 1
Concepts et outils statistiques de la M.S.P.

1. La MSP, une nécessité économique____________________________________________1


1.1 L’avènement de la M.S.P._______________________________________________________1
1.2 Classification des outils de la qualité______________________________________________2
2. Concepts de la M.S.P_______________________________________________________4
2.1 Notion de capabilité____________________________________________________________4
2.1.1 Introduction______________________________________________________________________4
2.1.2 Les indicateurs - Cp et Cpk__________________________________________________________5
2.1.3 Vers un indicateur plus synthétique - Le Cpm____________________________________________6
Notion de rendement_________________________________________________________________7
Le cas unilatéral_____________________________________________________________________7
Les pertes non symétriques_____________________________________________________________9
2.2 Les cartes de contrôle__________________________________________________________10
2.2.1 Les principes de base______________________________________________________________10
Dispersion instantanée et dispersion globale______________________________________________10
Maintenir le procédé sous contrôle______________________________________________________11
2.2.2 Carte de type Shewhart____________________________________________________________11
Estimation par intervalle de confiance___________________________________________________12
Carte position______________________________________________________________________12
Carte de dispersion__________________________________________________________________14
2.2.3 Autres cartes de contrôle______________________________ _____________________________ 15
Les cartes CUSUM & EWMA_________________________________________________________15
Cartes de contrôle multidimensionnelles_________________________________________________16
Cartes petite série___________________________________________________________________17
Cartes de pré-contrôle________________________________________________________________21
2.2.4 Etude de performance des cartes de contrôle____________________________________________22
3. Le choix d’une méthode statistique___________________________________________24
3.1 Problématique de la modélisation_______________________________________________24
3.1.1 Les modèles paramétriques_________________________________________________________25
3.1.2 Modèles non paramétriques_________________________________________________________25
Modèle de localisation pour une observation______________________________________________25
Modèle d’échelle pour une observation__________________________________________________26
Modèle de localisation échelle pour une observation________________________________________26
Modèle de localisation échelle pour un échantillon_________________________________________26
3.1.3 Méthodes non paramétriques________________________________________________________26
3.1.4 Qualité des méthodes non paramétriques_______________________________________________27
3.2 Performances d’un estimateur__________________________________________________27
3.2.1 Efficacité d’un estimateur___________________________________________________________27
Estimation ponctuelle________________________________________________________________27
L’erreur quadratique moyenne_________________________________________________________28
L’efficacité relative__________________________________________________________________28
La borne de Frechet_________________________________________________________________29
L’optimalité_______________________________________________________________________29
3.2.2 Robustesse d’un estimateur____________________________ _____________________________ 30
4. Orientation des travaux____________________________________________________31
4.1 Les principes de base de la M.S.P. et leurs limites__________________________________31
4.2 Orientation de nos travaux_____________________________________________________31
Chapitre 2
La non normalité abordée par la Maîtrise Statistique des Procédés

1. Le mythe de la loi normale___________________________________________________1


1.1 Justification de la normalité_____________________________________________________1
1.2 Procédés non normaux__________________________________________________________2
1.2.1 Introduction______________________________________________________________________2
1.2.2 Les procédés multigénérateurs________________________________________________________3
1.2.3 Les défauts de forme_______________________________________________________________5
1.2.4 Critères de position_________________________________________________________________6
1.3 Répercussions de la non normalité sur les méthodes de la M.S.P.______________________8
1.3.1 Incidence sur les indicateurs de capabilité_______________________________________________8
1.3.2 Déterminer les limites des cartes de contrôle_____________________________________________9
1.3.3 Incidence sur le choix de l’estimateur_________________________________________________11
2. La capabilité des procédés non Normaux______________________________________13
2.1 Les indicateurs fondés sur des distributions théoriques_____________________________14
2.1.1 Les critères de forme______________________________________________________________14
2.1.2 La loi de Rayleigh________________________________ ________________________________ 15
2.1.3 La loi Log-normale________________________________________________________________16
2.1.4 Limite de ces méthodes____________________________________________________________16
2.2 Indicateurs de capabilité fondés sur des familles de distributions_____________________17
2.2.1 La famille des lois de Burr__________________________________________________________17
Identification de la loi________________________________________________________________18
Construction des indicateurs de capabilité________________________________________________18
Conclusion________________________________________________________________________19
2.2.2 La famille des lois de Pearson_______________________________________________________20
2.2.3 La famille des lois de Johnson_______________________________________________________21
Présentation des courbes de Johnson____________________________________________________22
Choix de la famille de courbes_________________________________________________________22
Calcul de la dispersion et des indicateurs de capabilité.______________________________________23
2.2.4 Critique des méthodes_____________________________________________________________23
2.3 Approches non paramétriques__________________________________________________24
2.3.1 Méthodes bootstrap_______________________________ ________________________________ 24
La méthode de calcul________________________________________________________________25
Le Bootstrap standard ou Naïf_________________________________________________________25
Bootstrap par les p-quantiles___________________________________________________________26
Bootstrap à biais corrigé par les p-quantiles.______________________________________________26
Résultats__________________________________________________________________________27
3. Les cartes de contrôle______________________________________________________28
3.1 Méthodes fondées sur une famille de lois__________________________________________28
3.1.1 Construction d’une carte à partir des lois de Burr________________________________________28
La distribution de BURR_____________________________________________________________29
Détermination des paramètres de la loi de Burr____________________________________________30
Développement de la carte de contrôle non symétrique______________________________________30
Conclusion________________________________________________________________________31
3.2 Cas des populations stratifiées__________________________________________________32
3.2.1 Méthodes d'échantillonnage_________________________________________________________32
Définition des strates________________________________________________________________32
Répartition optimum de l’échantillon entre les strates_______________________________________33
Estimation de la moyenne de la population_______________________________________________34
Variance de l’estimateur de la moyenne__________________________________________________34
Exemple d’application à un procédé mutigénérateur________________________________________35
Aspect pratiques____________________________________________________________________36
3.2.2 Cartes de contrôle pour les populations stratifiées________________________________________36
Conclusion________________________________________________________________________38
3.3 Une approche non paramétrique________________________________________________39
3.3.1 L’estimateur de Hodges Lehmann____________________________________________________39
Présentation de l’estimateur de Hodges-Lehmann__________________________________________39
Les limites de contrôle_______________________________________________________________40
Les performances de la carte de contrôle de Hodges-Lehmann________________________________40
Comparaison entre la carte de Shewhart et la carte de Hodges-Lehmann________________________41
Critique des résultats_________________________________________________________________42
3.3.2 Calcul des limites à partir des p-quantiles empiriques d’un échantillon ordonné_________________43
Analyse de la période opérationnelle____________________________________________________44
Quelques restrictions sur la méthode :___________________________________________________45
4. Synthèse_________________________________________________________________46
4.1 Les indicateurs de capabilité____________________________________________________46
4.1.1 Indicateurs de capabilité pour les procédés non normaux__________________________________46
4.1.2 Réflexion sur les indicateurs_________________________________________________________46
Dispersion à 6s_____________________________________________________________________46
Dispersion sur 99,73% de la population__________________________________________________47
Conclusion________________________________________________________________________48
4.2 Les cartes de contrôle__________________________________________________________50
4.3 Conclusion___________________________________________________________________51
Chapitre 3
Mise en place d’une carte de contrôle pour les procédés non normaux

1. Introduction______________________________________________________________1
2. Statistiques d’ordre et L-estimateurs___________________________________________3
2.1 Introduction aux statistiques d’ordre_____________________________________________3
2.1.1 Les statistiques d’ordre______________________________________________________________3
2.1.2 Lois de probabilité associées à une statistique d’ordre______________________________________4
2.1.3 Moments des statistiques d’ordre______________________________________________________4
2.2 Les L-statistiques______________________________________________________________5
2.2.1 Loi asymptotique des L-statistiques____________________________________________________5
2.2.2 Robustesse des L-statistiques_________________________________________________________7
3. Proposition d’un autre estimateur pour les cartes de contrôle_______________________8
3.1 Choix de l’estimateur___________________________________________________________8
3.2 Le L-estimateur des moindres carrés______________________________________________9
3.2.1 Présentation______________________________________________________________________9
3.2.2 Estimation par les moindres carrés_____________________________________________________9
3.3 Cas particulier des distributions symétriques______________________________________11
3.3.1 Etude qualitative du L-estimateur_____________________________________________________12
Calcul du L-estimateur par la méthode de Lloyd___________________________________________12
Calcul du L-estimateur par la méthode de Bovik___________________________________________14
Variance asymptotique du milieu_______________________________________________________14
3.3.2 Etude de la P.OM.________________________________________________________________16
3.4 Généralisation au cas non symétrique____________________________________________18
3.4.1 Choix du paramètre de localisation___________________________________________________18
Cas d’une fonction perte symétrique__________________________ __________________________ 18
Cas d’une fonction perte non symétrique_________________________________________________19
3.4.2 Choix du paramètre de dispersion____________________________________________________21
3.4.3 Exemple d’application d’un L-estimateur à une loi non normale.____________________________21
Caractéristiques de la population_______________________________________________________21
Etude de variance___________________________________________________________________22
Distribution des estimateurs___________________________________________________________23
4. Mise en oeuvre de la carte L________________________________________________24
4.1 Construction du L-estimateur___________________________________________________24
4.2 Démarrage d’une carte L_______________________________________________________25
4.2.1 Les procédés à évolution lente_______________________________________________________25
4.2.2 Les procédés à évolution rapide et les petites séries.______________________________________28
Les méthodes bootstrap______________________________________________________________28
Application à un échantillon ordonné____________________________________________________28
Pré-requis à l’utilisation de la méthode bootstrap___________________________________________30
Exemple d’application_______________________________________________________________30
4.3 Calcul des limites de contrôle___________________________________________________32
4.3.1 Problématique____________________________________________________________________32
4.3.2 Intervalle de confiance pour un paramètre de localisation__________________________________32
Intervalle de confiance pour un p-quantile________________________________________________33
Intervalle de confiance « universel »____________________________________________________33
Limites traditionnelles des cartes de contrôle______________________________________________34
4.3.3 Choix des limites de contrôle________________________________________________________34
Tolérance aux valeurs extrêmes________________________________________________________34
4.3.4 Intervalle de confiance pour le paramètre d’échelle_______________________________________35
4.4 Incidence sur les règles de pilotage_______________________________________________36
4.4.1 Procédé sous contrôle______________________________________________________________36
4.4.2 Procédé hors contrôle______________________________________________________________37
4.4.3 Tendance Supérieure ou Inférieure à la cible____________________________________________37
4.4.4 Tendance Croissante ou Décroissante_________________________________________________38
4.4.5 Point proche d’une limite de contrôle__________________________________________________39
4.4.6 Synthèse des règles de pilotage________________________________________ ______________39
4.5 Sensibilité de la carte L________________________________________________________40
4.5.1 Sensibilité à un décentrage__________________________________________________________40
Cas d’une non normalité très marquée___________________________________________________40
Cas d’une faible non normalité_________________________________________________________43
Remarque_________________________________________________________________________44
4.5.2 Sensibilité à une déformation de la population___________________________________________44
Cadre de notre étude_________________________________________________________________44
Résultats__________________________________________________________________________47
Conclusion________________________________________________________________________48
4.5.3 Le cas particulier des défauts de forme_________________________________________________50
Choix des paramètres à estimer____________________________ ____________________________ 50
Variance du L-estimateur dans le cas des défauts de forme___________________________________51
Conclusion________________________________________________________________________52
4.6 Extensions de la carte L________________________________________________________53
4.6.1 La carte CUSUM L________________________________________________________________53
Principe de la carte CUSUM-L_________________________________________________________53
Exemple d’application_______________________________________________________________54
P.O.M. de la carte CUSUM-L_________________________________________________________55
Conclusion________________________________________________________________________56
5. Conclusions et perspectives_________________________________________________57
Une approche généraliste_____________________________________________________________57
Avantages de la carte L______________________________________________________________57
Mise en œuvre_____________________________________________________________________58
Les limites de la carte L______________________________________________________________58
Perspectives____________________________________ ___________________________________ 58
Chapitre 4
Application industrielle de la carte L

1. Pré-requis à l’application d’une carte L________________________________________2


1.1 Les procédés étudiés____________________________________________________________2
1.2 La méthode d’échantillonnage___________________________________________________3
1.2.1 Exemple_________________________________________________________________________4
1.3 Les besoins informatiques_______________________________________________________5
1.3.1 Nécessité d’un outil informatisé_______________________________________________________5
1.3.2 Présentation de la maquette informatique________________________________________________6
2. Exemples d’application______________________________________________________8
2.1 La plasturgie__________________________________________________________________8
2.1.1 Etude d’une presse à injecter 8 empreintes_______________________________________________9
2.1.2 Etude d’une presse à injecter 4 empreintes______________________________________________14
2.2 L’industrie du décolletage______________________________________________________19
2.2.1 Etude d’un tour multibroches 6 broches________________________________________________19
3. Conclusion______________________________________________________________23
Introduction

La mondialisation de l'économie suscite aujourd'hui une concurrence importante entre les


entreprises. La recherche de la qualité est devenue un point-clé de la compétition du fait de
l'importance de l'offre par rapport à la demande. Ainsi, l'obtention de la qualité des services et des
produits passe le plus souvent par la mise en place d’un système d’assurance qualité et par
l'utilisation des outils de la qualité tant au niveau de la conception que de la réalisation des produits.
La Maîtrise Statistique des Procédés, qui s'inscrit dans une stratégie de prévention et dont l’objectif
est d'améliorer la qualité d'une production, a donc connu un fort développement dans l'industrie
européenne ces dix dernières années.
Cette utilisation intensive et la diversité des applications ont contribué à mettre en évidence des cas
où les hypothèses statistiques sur lesquelles reposent les outils de la M.S.P. ne sont pas valables.
Parmi ces cas, la non normalité de la distribution des observations est fréquemment rencontrée par
les industriels. L’objectif de notre travail a été dans un premier temps d’étudier l’incidence de la
non normalité sur les performances des outils de la M.S.P. et la validité des solutions proposées.
Nous avons ensuite présenté une nouvelle approche pour la construction de cartes de contrôle dans
le cas d’une population non normale. La non normalité de la distribution des observations est selon
Shewhart significative d'un processus qui n'est pas "sous contrôle". Cette non normalité peut
néanmoins être acceptable pour un industriel et nous montrerons dans notre exposé qu'il est
possible de tirer parti de la composante déterministe du signal pour améliorer l'efficacité des cartes
de contrôle.

Après avoir présenté les concepts de la M.S.P, et certains de leurs développements récents, nous
rappellerons quelques notions importantes de la théorie de l’estimation. Nous aborderons en effet
dans notre exposé le problème des estimations s'appuyant sur un modèle statistique non
paramétrique.

Nous étudierons ensuite les différents cas de non normalité rencontrés dans le cadre d’applications
industrielles et certaines des méthodes proposées pour estimer les indicateurs de capabilité. Nous
discuterons également des performances de cartes de contrôle dédiées aux procédés non normaux et
de l’intérêt pratique des méthodes employées.

Pour améliorer les performances des cartes de contrôle dans le cas de procédés non normaux, nous
proposerons l’utilisation d’un estimateur non paramétrique qui a des propriétés intéressantes en
terme de variance pour un large ensemble de lois. Nous mettrons en évidence les performances de
ces nouvelles cartes de contrôle (la carte L) et présenterons plusieurs méthodes pour sa mise en
œuvre dans un contexte industriel. Ces études seront validées par des exemples d’application en
milieu industriel.
Chapitre I

Chapitre I

Concepts et outils statistiques de la MSP

La MSP, une nécessité économique


C’est en 1929 que Shewhart a présenté sa célèbre « Control Chart », ouvrant ainsi la voie à une
nouvelle discipline qu’est la M.S.P. Tout d’abord oubliée, ce n’est que dans les années 60 que
Deming a su insuffler un regain d’intérêt à cette technique.
En effet, les japonais avaient déjà compris l’enjeu que représentait la qualité au lendemain de la
deuxième guerre mondiale. Le passage d’une économie de production, durant les 30 glorieuses, à
une économie de marché après la crise de 73 poussa l’industrie européenne à subir de fortes
mutations et c’est seulement dans les années 80 que la qualité s’imposa comme une évidence en
Europe.

La M.S.P. sous ses différentes formes constitue aujourd’hui le fer de lance d’une stratégie de
prévention. La M.S.P. n’est pas à elle seule synonyme de qualité, on la conjugue avec d’autres
outils tels que l’AMDEC, les plans d’expérience, les techniques de régression, le QFD ainsi que les
7 outils de la qualité pour obtenir un ensemble cohérent, capable de soutenir le système qualité.
L’avènement de la M.S.P.
L’industrie japonaise utilise de façon intensive les outils statistiques depuis plus d’une quarantaine
d’années. L’évolution des méthodes de production et du niveau de qualité souhaité est à l’origine de
la prise de conscience des bénéfices importants qu’il était possible de réaliser grâce aux statistiques.
Au cours de l’histoire, le contrôle qualité s’est d’abord orienté sur le produit fini. Ce contrôle était
réalisé soit par un contrôle à 100% soit par un contrôle statistique alors qu’aucune de ces deux
méthodes ne permet d’obtenir 100% de produits bons. Les plans de contrôle nécessitent, en effet,
des prélèvements importants pour ne garantir qu’un niveau assez médiocre de produits non
conformes, alors que les niveaux de qualité requis sont souvent de l’ordre de quelques pièces par
millions (ppm).

D’autre part, les cadences de production ayant considérablement augmentées, il devient impossible
de procéder à du contrôle 100%. Ce type de contrôle ne donne d’ailleurs que des résultats
médiocres lorsqu’il est réalisé par l’homme, du fait de son caractère répétitif.
Enfin, le contrôle final, qu’il soit statistique ou à 100%, est très critiquable puisqu’il mobilise du
personnel qui n’apporte aucune valeur ajoutée au produit. Il garantit plus ou moins un niveau de
qualité pour le client mais n’empêche pas la fabrication de produits non conformes qui finissent par
s’avérer très coûteux pour les entreprises.

Ces constats ont donc motivé les entreprises à évoluer vers un contrôle, plus réactif, en amont du
produit fini. Il s’agit de l’auto-contrôle.

Classification des outils de la qualité


Pour aborder la démarche de la qualité totale, celle-ci doit s’appliquer au niveau le plus élevé de
l’entreprise. C’est par l’application simultanée des outils et méthodes de la qualité que les
industriels performants arrivent à placer rapidement sur le marché des produits compétitifs.
La M.S.P. que nous aborderons en détail dans ce mémoire n’est qu’un maillon de la chaîne de la
qualité, que l’on applique tout au long du processus de création et de fabrication d’un produit.

Le tableau (Figure 1 ) présente le degré d’utilité de chacun de ces outils pour les différentes étapes
de définition du processus de fabrication et de conception du produit. On remarque en particulier
que la M.S.P. est l’élément terminal de cette longue chaîne de spécifications et qu’elle est le seul
outil capable d’assurer la qualité du produit au niveau de l’outil de production.
Phases de PLAN QFD AMDEC AMDEC MSP
développement D’EXPERIENCES PRODUIT PROCEDE
Définition
du produit L J
Définition des
caractéristiques J J
Validation
du produit J J
Définition du
processus J L
Validation du
processus J J K
Définition des
spécifications J J K
Suivi et pilotage en
production J
J Utilisation Majeure L Utilisation Mineure (d’après Pil 931)
Figure 1

1
PILLET M. Contribution à la Maîtrise Statistique des Procédés - Cas particulier des petites séries - Thèse en
Sciences de L’ingénieur - Univ. Savoie -1993
Concepts de la M.S.P
La naissance de la M.S.P. remonte à la fin des années 20 par les célèbres travaux de Shewhart
[She 32]2 où ce dernier propose de déceler les causes de non qualité d’un produit à partir de tests
statistiques sous forme graphique ; la carte de contrôle est née. Dans les décennies qui ont suivi, la
M.S.P. s’est enrichie d’outils modernes répondant à de nouvelles attentes des industriels. Parmi les
applications de la M.S.P, nous nous limiterons à l’étude des outils dédiés aux critères mesurables.

Ces outils, aussi différents soient ils, s’appuient sur deux concepts essentiels de la M.S.P :
· L’analyse de capabilité
· Le pilotage par carte de contrôle

Bien que les concepts de capabilité et de carte de contrôle n’aient pas été introduits en même temps,
ils sont très étroitement liés.
Une étude de capabilité permet de définir si le procédé de fabrication est apte à fournir un produit
avec le niveau de qualité requis. Les indices de capabilité consistent en effet à comparer la qualité
d’une production sur une période donnée, par rapport à un objectif donné.
Tandis que les cartes de contrôle permettent de piloter un procédé, afin de maintenir et d’améliorer
sa capabilité.

Notion de capabilité

Introduction

On définit la capabilité d’un moyen de production comme étant une quantification de la


performance réelle du procédé par rapport à la
performance souhaitée. La traduction en langage
mathématique de cette définition donne lieu,
encore à l’heure actuelle, à beaucoup de
discussions. Deux questions se posent en effet, à
savoir :
· Quelle est la traduction de la performance
souhaitée ?
· Comment mesurer la performance réelle ?

Si tout le monde est à peu près d’accord pour


prendre l’intervalle de tolérance comme
référentiel de la performance, le calcul de la
performance réelle suscite encore quelques
interrogations lorsque l’on s’intéresse aux
procédés non normaux.
Notion de capabilité selon Serre.

2
SHEWHART Economic Control of Quality of Manufactured Products -Van Nostrand Co. Inc Princeton - 1932
Ce problème sera largement abordé dans le chapitre suivant, c’est pourquoi nous ne nous y
attarderons pas plus longtemps.
Deux générations d’indicateurs de capabilité ont ainsi vu le jour :

· Les indicateurs de première génération qui s’appuient sur un calcul de la dispersion des mesures.
· Les indicateurs de deuxième génération, qui se basent sur la fonction perte introduite par
Taguchi.

Les indicateurs - Cp et Cpk

Il n’est plus besoin de vanter les mérites des indicateurs de capabilité Cp et Cpk. Ils sont déjà
largement utilisés dans l’industrie pour définir la qualité d’un produit livré au client.
Rappelons les formules de ces indicateurs (Eq 0). On note m et s la moyenne et la dispersion de la
population, IT est l’intervalle de tolérance, TS et TI sont respectivement les Tolérances Supérieure
et Inférieure.

Cp=
IT
6s
Cpk =Min 
TS −m , m−TI
3s 
Eq 0

Ces indicateurs de capabilité sont indissociables si l’on souhaite formaliser correctement le niveau
de qualité d’une production. Cependant de nombreuses relations client fournisseur s’appuient
uniquement sur le Cpk, pour la simple raison que cet indicateur intègre à la fois une notion de
centrage et de dispersion.
On peut montrer au travers d’un exemple qu’un Cpk seul, ne permet pas de rendre compte de la
qualité d’un produit livré (Figure 2).

TI
8s TS TI
16 s TS

4s

6s 6s
Figure 2

On constate dans ces deux cas que le Cpk est de 1,33 alors que la qualité de ces produits est
fondamentalement différente. Dans le 1er cas le Cp est de 1,33 alors qu’il est de 2,67 dans le second
cas, ce qui peut conduire à la conclusion que la production 2 est de meilleure qualité. Or nous
verrons dans le paragraphe suivant que c’est exactement l’inverse.
L’utilisation du Cp et du Cpk ne permet donc pas une interprétation aisée de la qualité d’une
production. Il est encore plus difficile de comparer deux productions lorsque leurs Cp et Cpk sont
différents.

Le besoin d’un indicateur de capabilité plus synthétique se fait donc ressentir.

Vers un indicateur plus synthétique - Le Cpm

Le Cpm a été introduit par Hsiang T.C. et Taguchi G. [Hsi 85]3 bien après le Cp et le Cpk.
Cet indicateur a la particularité de prendre en compte à la fois la dispersion et le centrage de la
production. Son avantage est donc de fournir une indication précise sur la qualité de la production
au travers d’une seule valeur.

Le principe du Cpm repose sur la considération suivante :


Le principal critère utilisé pour juger si un produit est de qualité ou ne l’est pas, est de vérifier si les
critères qui le caractérisent sont conformes aux spécifications. En tout état de cause, un produit qui
est juste à l’extérieur des tolérances sera rejeté alors qu’un produit qui est juste à l’intérieur de ces
tolérances est jugé satisfaisant alors que la qualité intrinsèque de ces deux produits est peu
différente (Figure 3).

IT

Produit 1 Produit 2
Cible

Figure 3

Taguchi considère au contraire que tout écart d’un critère par rapport à la valeur cible est
dommageable pour la qualité du produit. Il propose donc d’évaluer la « non qualité » d’une
production en calculant un écart quadratique moyen par rapport à la cible, cette procédure est plus
connue sous le nom de « fonction perte de Taguchi ».

La perte engendrée par une valeur individuelle est donc évaluée par L=K  X −Cible  2 .
Dans le cas d’un échantillon de moyenne m et d’écart type s la perte moyenne par pièce est donnée
par la relation (Eq 0) :

L= K  s 2   m−Cible  
2

Eq 0

3
HSIANG T. C. TAGUCHI G. A tutorial on Quality Control and assurance - The Taguchi Methods
ASA - Annual Meeting Las Vegas - 1985
Le Cpm est alors défini par (Eq 0) :
IT
Cpm=
6  s2 m−Cible 2
Eq 0

Si on se reporte à l’exemple énoncé au §, on constate que le Cpm pénalise énormément le


décentrage d’un procédé puisque dans le premier cas Cpm= 1,33 alors que dans le second cas,
Cpm= 0,64. Cette différence s’explique par un mauvais rendement de réglage dans le cas N°2 ou le
Cp est très bon mais le centrage du procédé laisse à désirer.

Notion de rendement

Une particularité intéressante du Cpm est d’intégrer une notion de rendement de réglage du
procédé. En effet, on constate que le Cpm est égal au Cp lorsque le procédé est parfaitement réglé :
c’est-à-dire lorsque Cp = Cpk. Plus le réglage se détériore (le Cpk s’écarte du Cp), plus le Cpm
tend vers 0.

2.5

2
Cp
1.5
Cpk
1 Cpm

0.5

0 k
0 1 2 3 4 5 6

Ainsi le Cpm s’avère beaucoup plus sensible au décentrage que le Cpk. On trouve par exemple un
Cpm de 1.33 pour un décentrage de k=1.11s alors que Cpk=1.33 pour un décentrage de k=2s.

Le cas unilatéral

Du fait de sa limitation aux critères bilatéraux le Cpm était encore considéré par certains
utilisateurs comme un outil mineur de la M.S.P. Une extension au cas unilatéral proposée par M.
Pillet [Pil 96b]4 [Pil 97b]5 élargit le cadre d’application du Cpm et le rend, ainsi, au moins aussi
attrayant que le Cp et le Cpk.

4
PILLET M. DUCLOS E. COURTOIS A. Généralisation de l’indicateur de capabilité Cpm -
Cas des tolérances unilatérales - Contrôle Industriel et Qualité - N°196 - Février 96
5
PILLET M. ROCHON S. DUCLOS E. Generalization of capability index Cpm. Case of unilateral tolerances
Quality engineering, accepté, USA
Nous avons vu précédemment que le Cpm intégrait une notion de rendement par rapport à une
situation où le procédé est parfaitement centré. Dans le cas unilatéral, il n’est pas possible de
centrer le procédé, c’est pourquoi nous allons définir une situation de référence (Figure 4) telle
que :
· la moyenne soit située à ls de 0 ;
· La moyenne soit située à 4s de la limite supérieure ;
· Le Cpm de référence soit de 1,33.

IT
ls 4s

e
Pert

X
Figure 4

La valeur l détermine le niveau de qualité souhaité, c’est pourquoi il doit être le fruit d’un
consensus entre le client et le fournisseur. Elle sera fixée entre 3 et 5.

Voyons comment réécrire l’équation du Cpm (Eq 0) :

IT  4 λ ⋅s  4 λ 
Cpm= = =1, 33 d ' o A=
A  s m A  s 2  λ⋅s  1, 33  1 λ 2
2 2 2

Eq 0

Ainsi on peut donner les différentes valeurs de A en fonction de l (Figure 5) :

l 3 4 5
A 1.66 1.46 1.33
Figure 5

La formule du Cpm est indépendante de la distribution de la population, ainsi son application est
particulièrement aisée dans le cas des défauts de forme.
Les pertes non symétriques

La philosophie du Cpm est très différente de celle des indicateurs Cp et Cpk. Alors que le Cp et le
Cpk sont très liés à la notion de pourcentages hors tolérance, le Cpm traduit plus la qualité globale
des produits.
Une des subtilités du Cpm est d’ailleurs de pouvoir considérer qu’un écart positif par rapport à la
cible peut engendrer des pertes différentes d’un écart négatif [Tag 89]6. Ce cas de figure est
rencontré fréquemment dans l’industrie lorsque le dépassement d’une tolérance provoque dans un
cas une opération de retouche sur le produit (faible coût), et dans l’autre cas un rebut (coût élevé).

TI TS
K 1

K
Cible
2

x1 x2

Figure 6

Dans ce cas, on définit la perte moyenne par la relation (Eq 0) :

L = 1 ⋅ K 1⋅∑ '  x−Cible  2 K 2⋅∑ ''  x−Cible  2


[ ]
N
Eq 0

avec : K1 le coefficient de la fonction perte pour tout x<Cible


K2 le coefficient de la fonction perte pour tout x>Cible

Dans ce cas, l’intuition nous dit que la meilleure politique n’est pas forcément de centrer la
production sur la cible pour minimiser la perte (Figure 6). Nous aborderons ce sujet plus en détail
dans le chapitre 3.

Rappelons enfin que les indicateurs de capabilités sont estimés en remplaçant m et s par des
 et S), d’où une incertitudes qui se traduit par un intervalle de confiance, trop peu
estimations ( X
souvent utilisé. Nous verrons au chapitre 2 §2.3 une utilisation des intervalles de confiance sur les
indicateurs de capabilité.

6
TAGUCHI G. ELSAYED A. HSIANG T. C. Quality engineering in production systems - Mc Graw-Hill 1989
Les cartes de contrôle
Les principes de base

Les cartes de contrôle sont des outils indispensables pour réaliser un pilotage rationnel du procédé
de fabrication. Une application rigoureuse de cette méthode permet d’améliorer de manière
significative la capabilité du procédé pour deux raisons :
· L’emploi de critères de décisions statistiques permet de réduire les erreurs liées à un réglage
inopportun ou à une absence de réglage. Il en résulte une augmentation du rendement de
stabilité.
· De plus, l’application d’une politique consistant à viser une valeur cible permet d’augmenter le
rendement de réglage

Dispersion instantanée et dispersion globale

Lorsque nous avons abordé la notion de capabilité, nous avons bien sûr parlé de la dispersion du
procédé. Cette variabilité provient de l’ensemble du procédé de production que l’on décompose
généralement en cinq sources élémentaires de dispersion (les 5M) et, par conséquent, cinq causes
fondamentales de la non qualité : Machine, Main d’œuvre, Matière, Méthodes et Milieu.
L’objectif de la qualité étant de réduire l’influence des causes de dispersion, on ciblera tout
naturellement notre action sur les 5M du procédé. Or, il est souvent difficile d’agir sur la dispersion
de la machine, à moins d’investissements importants. Cette dispersion résiduelle, que l’on qualifie
aussi de « dispersion naturelle », détermine donc la capabilité maximale que l’on puisse atteindre :
c’est la capabilité machine.

On distinguera donc deux types de dispersion : la dispersion instantanée causée par la machine et
dans une moindre mesure les « autres M », et la dispersion globale qui est une résultante des
variations causées par les 5M sur la période de production.

Dispersion Dispersion
instantanée globale Dispersion Dispersion
instantanée globale
Cote

Cote

Temps Temps
Figure 7

Pour réduire la dispersion globale du procédé et, donc, pour que la capabilité procédé tende vers la
capabilité machine, il est nécessaire de limiter les variations de consigne de la machine en la
pilotant. Le problème qui se pose alors est de distinguer les écarts du procédé qui sont naturels, de
ceux qui doivent entraîner un réglage.
Maintenir le procédé sous contrôle

En analysant finement la dispersion d’un procédé, on peut extraire deux causes essentielles de
dispersion. Il s’agit des causes communes, qui sont liées à des phénomènes aléatoires, et des causes
spéciales qui sont des causes de dispersion identifiables.
Contrairement aux causes communes, les causes spéciales nécessitent une intervention sur le
procédé.

Causes
Spéciales

Réglage 1 Réglage 2

Causes Communes

Les cartes de contrôle ont été développées dans le but de détecter l’apparition de causes spéciales et
de les dissocier des causes communes qui ne nécessitent pas d’intervention sur le procédé. Pour
cela on réalise deux tests statistiques :
· Le premier pour s’assurer que la machine n’est pas déréglée,
· Le second pour vérifier que la dispersion naturelle n’a pas changé.

Carte de type Shewhart

La carte de contrôle proposée par Shewhart est constituées d’un test par intervalle de confiance,
pour vérifier la conformité d’un paramètre du procédé à une valeur théorique et une estimation
ponctuelle qui permet de déterminer le réglage à effectuer si la valeur du paramètre estimé a
évolué.

La carte de Shewhart, se compose de deux graphiques : une carte de position et une carte de
dispersion permettant respectivement de représenter l’évolution de la position et de la dispersion de
la machine (Figure 8).
Date
Heure
X1
X2
X3
X4
X5
Moyenne
Ecart-type

Figure 8

Intervalle de confiance

On note m une estimation ponctuelle d’un paramètre m0 d’une loi Fm(X).


Pour réaliser un test par intervalle de confiance ou test d’hypothèse sur un paramètre d’un procédé
on considère deux cas :
· On suppose que l’estimation du paramètre du procédé est égale à une valeur théorique que l’on
spécifie (la cible pour une carte de contrôle). Cette hypothèse est appelée hypothèse nulle H0.
m=m0

· L’autre alternative notée H1 est valide lorsque l’estimation m est différente de la valeur
théorique.
m¹m0

Deux types d’erreurs peuvent être commises lors d’un test d’hypothèse :
· On peut tout d’abord rejeter l’hypothèse nulle H0 alors qu’elle est vraie. La probabilité de faire
cette erreur (type I) est aussi appelée risque a ou risque fournisseur.
· On peut également accepter l’hypothèse nulle H0 alors qu’elle est fausse. La probabilité de faire
cette erreur (type II) est aussi appelée risque b ou risque client.

Carte position

Pour construire la carte de position, on suppose qu’en l’absence de causes spéciales, la population
suit une loi normale.
Dans le cas de la carte de Shewhart, nous considérons que l’écart type s de la population est connu.
On en déduit que l’écart type de la moyenne d’un échantillon de n observations est : s /  n .

Ayant calculé la moyenne d’un échantillon de n observations, nous cherchons à déterminer si


l’écart de cette moyenne par rapport à la cible n’est pas supérieur à la dispersion naturelle de la
moyenne. Si l’écart est supérieur à un écart maximal admis pour un niveau de confiance donné
(dispersion naturelle de la moyenne), on conclut que la population n’est pas centrée sur la cible.
s n

LIC

LSC
s
Risque
a /2 Popula
tion

Cible
Dispersion naturelle de la
moyenne

Figure 9

Pour déterminer les limites de contrôle de la carte qui, comme on peut le constater sur la Figure 9,
correspondent à la dispersion naturelle de la moyenne, on se fixe un risque a.
On note u une variable aléatoire distribuée selon une loi normale réduite :

∣Moyenne−Cible∣
u=
s/  n

La table de la loi normale réduite fournit la probabilité que les réalisations d’une variable aléatoire
X distribuée selon la loi normale réduite soit supérieure à la valeur u.
En consultant cette table, on note que pour u=3, le risque a=0,0027. Si ce risque nous apparaît
satisfaisant, on place les limites de contrôle selon la relation (Eq 0).

s
LSC =Cible3
n
s
LIC =Cible−3
n
Eq 0

Calcul de la dispersion

Le calcul des limites de contrôle de la carte de position suppose que l’écart type des observations
soit connu. Cela n’est généralement pas le cas, c’est pourquoi il est nécessaire de l’estimer.
Pendant la période de référence, où le procédé est supposé réglé, on procède à un échantillonnage à
intervalle régulier de k sous-groupes, dont l’effectif n’est pas forcément constant.
L’estimation S de l’écart-type s est alors donnée par la relation (Eq 0) :


k
∑ νi S i2 n
 x ij − xi 
2

S= i=1
avec ni=ni-1 et S 2 = ∑
k i j=1 n−1
∑ νi
i=1

Eq 0

Carte de dispersion

Une carte de dispersion est également utilisée pour détecter l’occurrence de causes spéciales dont
les effets se traduiraient par une modification de la dispersion instantanée du procédé.
De plus, le test précédent de comparaison des moyennes, n’est valide que dans l’hypothèse où
l’écart-type s de la population est connu et constant. Il suffit donc que la carte de dispersion soit
sous contrôle pour valider cette hypothèse.
La carte de dispersion se base sur un test de comparaison de la variance de l’échantillon par rapport
à la variance de la population. Pour cela on calcule l’étendue ou l’écart type de l’échantillon que
l’on compare à des limites de contrôle.

S2
Considérons la variable V =  n−1  distribuée selon une loi du c 2 .
s2
Nous voulons savoir, en admettant un risque a, si l’écart type de l’échantillon appartient à la
population d’écart-type s. Les limites du test sont alors déterminées en fonction du risque a choisi
par l’inégalité :

c 2α / 2 V c 1−α
2
/2
d’où

 c α2 / 2

2
c1−α /2
⋅sS  ⋅s
 n−1   n−1 
Eq 0

Une autre approche, beaucoup plus largement appliquée, consiste à prendre les limites à ± 3 écart-
types de S, de manière analogue à la moyenne.

L’écart type de S est donné par la relation s 1−c 4 2 où c4 est un coefficient correcteur du biais de
l’écart-type empirique moyen par rapport à l’écart-type. En effet, le rapport S /c 4 donne un
estimation sans biais de s.
Dans ce cas on obtient les limites de contrôle (Eq 0) :
 42
LSC =c 4 s3 s 1−c
LIC =c 4 s−3 s  1−c 2
4

Eq 0

Autres cartes de contrôle


La carte de Shewhart est un outil incontournable de la M.S.P, mais il existe bien évidemment
d’autres cartes de contrôle. Nous présenterons succinctement les principes de celles qui, selon nous,
ont contribué le plus à l’évolution de la M.S.P.

Les cartes CUSUM & EWMA

Un des principaux inconvénients des cartes de type Shewhart est de ne baser son test que sur les
dernières informations recueillies. Elle ignore ainsi les informations relatives aux tendances du
procédé contenues dans les dernières estimations. La carte de Shewhart s’avère donc peu
performante pour la détection de faibles décentrages.

Les cartes CUSUM (Cumulative Sum) et EWMA (Exponentially Weighted Moving Averages)
constituent une alternative intéressante à la carte Shewhart puisqu’elles ont la particularité de
détecter les très faibles dérives du procédé.

Le principe de la carte CUSUM est de sommer les écarts entre les estimations de la position du
procédé et la cible. Lorsque le cumul des écarts positifs ou le cumul des écarts négatifs dépasse une
certaine valeur, on conclut à un décentrage du procédé (Eq 0). Selon la sensibilité de la carte
souhaitée, les limites de contrôle H varient entre 4 et 5.
Afin d’éliminer les variations résiduelles imputables aux causes communes, qui peuvent être à
l’origine de fausses alarmes, on applique un « filtre » K dont la valeur est souvent d’un demi écart
type.

S H =Max [ 0, X i −CibleK −S H ]


i i−1

S L =Max [ 0, Cible−K − X i S L ]
i i−1

Eq 0

Au même titre que la carte CUSUM, la carte EWMA est particulièrement adaptée à la détection de
faibles dérives.
La statistique M reportée sur la carte de contrôle se calcule par la relation (Eq 0).

M i = λ X i   1−λ  M i−1 λÎ \]0;1\[} {}


¿
Eq 0
La constante l détermine le poids que l’on souhaite affecter aux dernières mesures. Plus cette
valeur est grande, plus la carte est sensible aux dérives subites. En contrepartie, elle détecte moins
bien les petits écarts par rapport à la cible.
Les limites de contrôle de la carte EWMA se construisent à ±3 écart-types de la variable M.

[
λ⋅[ 1−  1−λ  ]
2i


LSC M =Cible3 s
λ⋅[ 1−  1− λ  ] n  2−λ 
2i i
d’ou les limites


s M =s
n  2− λ 
LIC M =Cible−3 s
λ⋅ 1−  1−λ 
2i
]
i n  2− λ 

Cartes de contrôle multidimensionnelles

Ces cartes de contrôle s’adressent aux procédés multivariés dont plusieurs caractéristiques sont
interdépendantes [Hot 47]7[Jau 97]8. Dans ce cadre, si plusieurs paramètres doivent être contrôlés
simultanément, une pratique élémentaire veut que l’on construise une carte de contrôle pour chacun
des critères étudiés. Ce faisant, on écarte toute éventualité de corrélation entre les variables.

Supposons que l’on suive indépendamment deux caractéristiques X1 et X2. L’utilisation simultanée
de deux cartes de Shewhart conduit à une région de contrôle rectangulaire (Figure 10).
La probabilité que l’une ou l’autre des caractéristiques sorte des limites de contrôle est p= 0.27%.
En revanche, la probabilité jointe que les deux caractéristiques soient hors contrôle est p=0.00272,
ce qui est excessivement faible. La représentation sous forme d’une carte de contrôle
bidimentionnelle est une zone « sous contrôle » rectangulaire.

Posons maintenant le problème sous forme vectorielle en considérant la variable X distribuée selon
une loi normale bidimensionnelle N(m0,S0) (Eq 0).

[ ] [ ] [ ]
2
X1 m01 s 01 s 012
X= m0 = S 0= 2
X2 m02 s 012 s 02
Eq 0

D’un point de vue statistique, la construction d’une carte de contrôle pour deux variables se
rapporte à un test bivarié avec les hypothèses H0 : m=m0 et H1 : m¹m0

Pour un échantillon X n le test n  X


 −m0 t S 0  X
 −m0  c 22, α conduit à une région critique en forme
d’ellipse. La région de validité du test est alors représenté par la surface de l’ellipse tandis que la
zone de rejet est à l’extérieur.

7
HOTELLING H. « Multivariable Quality Control » - Techniques of statistical analysis
Mc Graw-Hill - New York - 1947
8
JAUPI L. SAPORTA G. Cartes de contrôle pour la variabilité des procédés multidimensionnels
Congrès Qualité et Sûreté de fonctionnement - Mars 97 - Angers
X 1
X 1
Zone de rejet Zone de rejet
du test du test
LSC X 1 LSC X 1

Zone d'accept Zone A


ation
d'acceptation du test
du test
LIC X 1 LIC X 1
B
2

2
2

2
LIC X

LIC X
LSC X

LSC X
Les variables sont indépendantes X 2 Les variables sont corrélées X 2

Figure 10

Si l’on compare les zones d’acceptation pour le contrôle univarié (rectangle) et multivarié (ellipse),
on voit apparaître deux zones A et B où les conclusions des tests sont différentes.
· La Zone A correspond à la non détection d’un état hors contrôle par la méthode univariée alors
que le test multivarié conclue que le procédé est hors contrôle.
· La Zone B correspond à une fausse alerte de la part de la méthode univariée puisque le test
multivarié considère que le procédé est sous contrôle.

La taille des Zones A et B dépend essentiellement de la corrélation entre les variables X1 et X2.
Néanmoins, ces zones existent toujours, ce qui justifie l’emploi d’une méthode multivariée.

Cartes petite série

Les apports de la MSP dans le domaine de la production en grandes séries ne sont plus à démontrer.
Le formalisme et l’efficacité de la démarche MSP ont été largement plébiscités par les industriels
qui ont su l’appliquer avec rigueur. Ces méthodes semblent cependant limitées aux productions de
type grandes et moyennes séries, alors qu’une grande partie de la production industrielle repose
aujourd’hui sur une organisation de type « petites séries ». La mise en place des concepts de Juste-
à-Temps, va d’ailleurs dans le sens d’une diminution de la taille des lots, de même que la
diversification des produits qui oblige les industriels à réduire la taille de leur cycle de production.
Cette évolution, semble irréversible, c’est pourquoi de nouveaux concepts ont été développés pour
appliquer la M.S.P. aux productions en petites séries

La principale difficulté rencontrée lorsqu’on étudie des productions en petite série est de les classer
par catégories. Les petites séries connaissent en effet une grande diversité, de sorte que chacune
d’elles semble un cas particulier. « Nos procédés sont trop particuliers pour appliquer la M.S.P. »
entend-on souvent dans les ateliers ! Ce raisonnement conduit le plus souvent à une approche
artisanale, très subjective, qui nécessite une expérience importante de la part des opérateurs pour
mener à bien le pilotage du procédé.
Nous retiendrons deux approches fondamentalement différentes pour le traitement des petites
séries.
· La première d’entre elles, consiste à rechercher un effet de série dans des productions répétitives
de courte durée. Les observations recueillies pour des critères différents ou des opérations
différentes peuvent être regroupées sur une même carte de contrôle de type grande série.
· Une autre philosophie est d’anticiper au maximum les prises de décision, même pour des séries
très courtes. Il s’agit donc d’exploiter au maximum les données récoltées pour piloter le procédé

L’objectif d’une carte de type effet de série est de pouvoir suivre l’évolution d’un procédé qui
réalise un travail répétitif en petites séries. Dans le cas de grandes séries, on utilise autant de cartes
de contrôle que de produits ou de séries lancées. Ceci est bien évidemment inapplicable dans le cas
de petites séries puisque les cartes de contrôle obtenues ne comporteraient pas plus de deux ou trois
points chacune. L’originalité de cette carte réside donc dans l’application d’un changement de
variable, de manière à pouvoir reporter sur la même carte (Figure 11) les points issus d’opérations
affectant des produits différents (cibles et dispersions différentes).

Si on considère des opérations A, B et C avec des cibles et des dispersions différentes, on reportera
 mais une variable réduite du type (Eq 0). [Hil 69]9 [Koo 91]10
sur la carte, non pas les mesures X
11
[Whe 91]

 −Cible A
X
sA/ n
Eq 0

9
HILLER F. S. Xb and R chart Control Limits based on a small number of subgroups -
Journal of Quality Technology - pp17-26 - 1969
10
KOONS G. F. SPC : Use in low volume manufacturing environment - Statistical Process Control in Manufacturing
- Quality and reliability - ASQC Quality Press - 1991
11
WHEELER D. J. Short Run S.P.C. - SPC Press - 1991
Carte effet de série
Date 3/09/97 3/09/97 5/09/97 5/09/97 6/09/97
Heure 8:25 11:56 9:32 17:15 18:41
Référence A B B A C
n 5 4 5 5 6
X1 12.21 15.10 15.11 12.02 10.51
X2 12.01 15.02 15.05 12.05 10.52
X3 11.98 15.03 15.02 12.03 10.55
X4 11.99 14.99 15.01 12.06 10.58
X5 12.05 15.03 12.05 10.56
X6 10.57
2
1.5
1
0.5
0
-0.5
-1
-1.5
-2
1 2 3 4 5 6

Figure 11

La carte petite série [Pil 92]12 [Pil 96a]13, comme son nom l’indique, est particulièrement adaptée
aux séries très courtes et aux démarrages de séries. Son objectif est de permettre le pilotage du
procédé dès les premières pièces. Elle s’appuie sur la technique de pilotage traditionnelle des cartes
de type Shewhart.
La M.S.P. préconise en général de travailler à partir d’échantillons pour améliorer la précision des
méthodes statistiques. Mais pourquoi attendre l’acquisition d’une nème mesure pour savoir si le
procédé est décentré ? Le principe de la carte petite série consiste donc à décomposer un échantillon
afin de placer un point sur la carte à chaque nouvelle mesure (Figure 12). Pour tenir compte de
l’enrichissement de l’information à chaque nouvelle mesure, les limites de contrôle se resserrent
(Eq 0).

LC =Cible±3 s /  n
Eq 0

12
PILLET M. Application du SPC aux Petites Séries
Revue contrôle industriel et qualité - N°174 - pp58-61 - 1992
13
PILLET M. A specific SPC chart for Small-Batch control Quality Engineering - 8(4) - pp 581-586 - 1996
Cette carte sera donc très appréciée pour des séries de moins de 10 pièces.
Elle peut également servir à lancer une grande série, en la « collant » à une carte de Shewhart, afin
de vérifier si le procédé est sous contrôle dés les premières mesures.

Carte Petite Série


Date 3/09/97 4/09/97 4/09/97 5/09/97 6/09/97
Heure 8:10 11:05 15:12 10:35 9:49
X1 0
X2 -1
X3 -1
X4 +3
X5 1
Total 0 -1 -2 +1 +2

X 0 -0.5 -0.66 +0.25 +0.4
R 1 1 4 4
4
3
2
1
0
-1 LSC
-2 Xb
-3 LIC
-4 Cible
1 2 3 4 5

6
4 LSC
R
2
Cible
0
1 2 3 4 5

Figure 12

Outre le pilotage de petites séries, cette méthode est particulièrement adaptée au démarrage de
grandes séries.
Cartes de pré-contrôle

Certaines entreprises qui critiquent la M.S.P. pour la lourdeur des calculs et de sa méthodologie,
substituent les cartes de contrôle par des cartes de pré-contrôle [Bho 91]14. Même si ces cartes ne
constituent pas réellement une avancée pour la M.S.P, elles ont la particularité d’être de plus en
plus utilisées dans l’industrie.

L’objectif des cartes de pré-contrôle est de détecter des dérives du procédé qui peuvent entraîner
une production de pièces non conformes. Cette méthode a l’avantage de ne nécessiter aucune
construction graphique et ne demande que le prélèvement de 2 échantillons pour prendre une
décision.

Une carte de pré-contrôle (Eq 0) est constituée de 3 zones. La moitié centrale de la zone de
spécification, délimitée par les limites de pré-contrôle, constitue la zone verte tandis que les deux
autres quarts de la spécification constituent la zone jaune. A l’extérieur des tolérances, on trouve la
zone rouge.

Limite supérieure de spécification


Limite supérieure de pré-contrôle
Cible IT/2
ZONE VERTE
ZONE JAUNE
ZONE ROUGE
Figure 13

Pour déterminer si le procédé est capable à un instant donné, on prélève cinq pièces consécutives.
Si les cinq pièces sont dans la zone verte, le procédé est sous contrôle et l’on a une forte probabilité
que le Cm soit au moins de 1,33.
On peut calculer dans le cas d’une production centrée, distribuée selon une loi normale, la
probabilité p qu’au moins une pièce sur les 5 prélevées soit hors de la zone verte.

Cm 2 1.5 1.33 1 0.8


p 1.5% 11.6% 20.8% 51.2% 71.7%
Figure 14

Pour effectuer un pilotage du procédé, on prélève deux observations consécutives de façon


périodique. La période d’échantillonnage est fixée à un sixième de la période moyenne séparant
deux interventions. Cinq règles régissent le fonctionnement des cartes de pré-contrôle (Figure 15).

14
BHOTE K. R. World Class Quality - Amacom -1991 -225p
Schéma Description Action
1 Les deux observations sont dans Continuer la production
la zone verte.

2 Une observation dans la zone Continuer la production


verte, une autre dans la zone
jaune.

3 Deux observations dans la même Régler le procédé


zone jaune.

4 Une observations dans chaque Arrêter le procédé et rechercher


zone jaune les causes de dispersion.

5 Une observation dans la zone Arrêter le procédé et trouver la


rouge cause du critère défectueux

Figure 15

Les cartes de pré-contrôle ont l’avantage de fournir une méthode très simple. Cependant elles
peuvent avoir un certain nombre d’inconvénients relatifs à leur efficacité.
· La faible taille des échantillons ne permet pas de détecter de petites dérives. C’est pourquoi il est
impératif de n’utiliser cette méthode que pour des machines ayant une bonne capabilité, sans
quoi on risque de produire beaucoup de critères hors des spécifications.
· Les cartes de pré-contrôle ne fournissent aucune méthode pour le réglage du procédé.
· La taille des échantillons n’est pas liée à l’efficacité.

Etude de performance des cartes de contrôle

Les études de performance des cartes de contrôle ont deux objectifs : elles permettent, dans un
premier temps, d’orienter le choix sur un type de carte de contrôle, selon le niveau de performance
souhaité. D’autre part, les cartes de contrôle étant des méthodes de test par prélèvement
d’échantillons, leur capacité à détecter une dérive est étroitement liée à la taille des échantillons. Il
est donc possible d’optimiser la taille des échantillons en fonction de la sensibilité requise.
Deux méthodes sont employées pour exprimer l’efficacité d’une carte de contrôle.
On trouve pour certaines cartes, des abaques fournissant la probabilité de conclure que le procédé
est centré en fonction du décentrage de la population et de la taille des échantillons.
Un autre indicateur, est la Période Opérationnelle Moyenne (P.O.M. ou Average Run Length) qui
représente le nombre moyen d’échantillons successifs avant la détection d’un point hors contrôle
On peut caractériser la sensibilité d’une carte de contrôle par sa P.O.M. dans deux états du
procédé : La P.O.M. pour un procédé centré est notée POM0, et la P.O.M. pour un procédé décentré
de k est notée POMk. Le décentrage k est l’écart réduit entre la cible et la moyenne du procédé : k=
(m-cible)/s.
La norme AFNOR [AF0 95]15 préconise d’utiliser POM1.(décentrage d’un écart-type) et considère
qu’une bonne carte de contrôle doit rentrer dans le gabarit suivant : POM0 > 100 et
1 <POM1< quelques unités.
P.O.M.

100

1 k
Figure 16

Si la POM0 est importante, cela signifie que pour un procédé centré, le nombre de fausses alertes
est faibles (risque a).
Si la POM1 est faible, le temps de détection d’un décentrage d’un écart-type est court. C’est donc
que la carte est sensible aux décentrages.

Le choix des limites d’une carte de contrôle résulte le plus souvent d’un compromis entre ces deux
P.O.M. En effet, le choix d’une POM0 élevée implique une POM1 élevée. Il est donc nécessaire de
relaxer l’une des contraintes pour obtenir des performance acceptables

15
AFNOR Norme NF X 06-031-0 Application de la Statistique - Cartes de contrôle - Principes Généraux 1995
Le choix d’une méthode statistique

Nous avons rappelé dans le début de ce chapitre un certain nombre de méthodes statistiques qui
sont utilisées dans le cadre de la M.S.P. Ces méthodes obéissent bien entendu à un certain nombre
d’hypothèses statistiques, qui permettent d’échafauder un modèle.
Il est possible d’envisager plusieurs modèles pour traiter un problème. Le résultat obtenu dépendra
de la validité du modèle et de l’efficacité de la méthode employée ; l’un et l’autre étant étroitement
liés.
Ce paragraphe a pour objectif de rappeler quelques notions sur la statistique non paramétrique et
l’efficacité des méthodes statistiques. Ces deux thèmes constituent en effet, le cœur de la
problématique que nous développerons dans le chapitre suivant.

Problématique de la modélisation
La majorité des méthodes de la Maîtrise Statistique des Procédés abordent les problèmes
d’estimation d’un point de vue paramétrique. En effet, partant d’un constat expérimental, on
suppose que la distribution des observations peut être caractérisée par une loi ou une famille de lois.
Cette famille de lois est elle-même fonction d’un nombre restreint de paramètres, comme la
moyenne et l’écart type pour une loi normale. Une telle approche peut être parfaitement appropriée
si la famille des lois de probabilité est liée à certaines caractéristiques physiques du procédé.
Dans certains cas, cette loi s’impose d’elle même. On peut citer par exemple la loi
hypergéométrique lorsque l’on fait du contrôle aux attributs.
A l’opposé, dans de nombreux cas, il s’agit de choisir une loi sachant qu’elle conditionne de
manière importante l’étude statistique d’un phénomène. Le choix d’un modèle est en effet une
formalisation mathématique des hypothèses faites sur les observations. Bien que cette formalisation
soit importante, elle est souvent négligée au profit du choix de la méthode statistique à employer.
Or il est bien évident que la méthode de résolution du problème dépend particulièrement du modèle
adopté.

Le développement récent de la statistique mathématique a été dominé par l’étude des formes faibles
du modèle statistique. C’est à dire que l’on postule des hypothèses relativement plus faibles que sur
une structure paramétrique classique. Cette problématique a donné naissance à deux approches :
· L’approche non paramétrique (ce qui ne veut pas dire que les paramètres disparaissent) qui
consiste à se placer dans une large classe de lois de probabilités plutôt que dans une famille
paramétrique donnée.
· La robustesse dont la principale préoccupation est de mettre en oeuvre des estimateurs qui
éliminent les valeurs extrêmes, mais aussi d’étudier la stabilité d’une procédure statistique
lorsqu’on s’éloigne du modèle pour lequel elle est optimale.
Les modèles paramétriques

On considère qu’un modèle paramétrique décrit un ensemble de lois, tel que deux lois quelconques
de cet ensemble ne diffèrent entre elles que par la valeur d’un paramètre.
Le modèle paramétrique le plus connu pour décrire la distribution d’observations réelles est le
modèle normal qui regroupe l’ensemble des lois normales.

Ce modèle est décrit de la manière suivante :


On considère un couple de paramètre (m,s2) dans R´R+* tel que X est une observation de la loi
N(m,s2).
 x−m  2

2 s2
e
f  x =
2 ps 2

Modèles non paramétriques

A la différence d’un modèle paramétrique qui spécifie la loi de chaque observation par la valeur
d’un paramètre, un modèle non paramétrique laisse beaucoup plus de souplesse quant à la forme et
à la nature possible des lois des observations. Bien que les modèles paramétriques soient
particulièrement appréciés pour leur simplicité et la précision des descriptions offertes, ils sont dans
bien des cas peu envisageables. Pendant très longtemps, le développement des méthodes
statistiques et l’étude de leurs propriétés ont été fondés essentiellement sur la normalité de la
famille de lois. Or la validité d’un tel modèle n’est pas toujours assurée.
En effet, différents facteurs comme des erreurs d’expérimentation, des erreurs de mesures ou
encore des perturbations aléatoires non prises en compte dans le modèle peuvent rendre un modèle
paramétrique inexact.

Les modèles non paramétriques fondamentaux pour une observation sont :


· le modèle de localisation,
· le modèle d’échelle
· et le modèle de localisation-échelle.

Avant de présenter ces modèles non paramétriques, définissons un ensemble de lois.


On considère tout d’abord un ensemble F des lois continues, définies sur R.
Un sous ensemble de F, est l’ensemble F0 des lois à médiane nulle ( F  0  =1/ 2 ).
Et enfin un sous ensemble de F0, est l’ensemble Fs des lois symétriques par rapport à l’origine (
F  x  =1− F −x  ).

Modèle de localisation pour une observation

Il existe F appartenant à F0 et m appartenant à R tels que X est une observation de la loi Fm définie
xÎR,F rSub { size 8{m} } left (x right )=F left (x-m right )} {}
par :
¿
Modèle d’échelle pour une observation

Il existe F appartenant à Fs et s appartenant à R tels que X est une observation de la loi Fs


+*

xÎR,F rSub { size 8{s} } left (x right )=F left ( {x} slash {s} right )} {}
définie par :
¿

Modèle de localisation échelle pour une observation

Il existe F appartenant à Fs et (m,s) appartenant à R´R tels que X est une observation de la
+*

loi Fm,s définie par :


xÎR,F rSub { size 8{m,s} } left (x right )=F left ( { left (x-m right )} slash {s} right )} {}
¿

Pour ces différents modèles, m et s sont respectivement appelés paramètres de localisation et


paramètres d’échelle.

Nous verrons au chapitre 3, l’application d’un estimateur construit sur un modèle linéaire
localisation échelle. Ce modèle est un peu différent de celui présenté précédemment puisqu’il
concerne un échantillon.

Modèle de localisation échelle pour un échantillon

Il existe F appartenant à F et (m,s) appartenant à R´R tels que X1, ..., Xn est un échantillon
+*

de la loi Fm,s définie par :


xÎR,F rSub { size 8{m,s} } left (x right )=F left ( { left (x-m right )} slash {s} right )} {}
¿

Méthodes non paramétriques

Avant de donner une définition des méthodes non paramétriques, rappelons ce qu’est une méthode
paramétrique. La notion de méthode paramétrique est assez bien partagée par les statisticiens : elle
consiste à chercher une solution optimale selon deux critères de qualité qui sont la validité et
l’efficacité. Par exemple : un estimateur à variance minimale (efficacité) parmi les estimateurs sans
biais (validité).
L’objectif des méthodes non paramétriques est un peu différent puisqu’il consiste à rechercher des
solutions qui sont applicables pour un vaste domaine de lois spécifiées par le modèle. On souhaite
en effet que la validité des résultats ne dépende pas trop fortement de la loi des observations. Il faut
cependant garder à l’esprit que la solution est rarement indépendante de la loi. Alors que la validité
d’un résultat est parfois peu sensible aux types de lois considérées, l’efficacité des solutions dépend
généralement de ces lois.
Nous souhaiterons donc également que l’efficacité de la méthode soit raisonnable.
Qualité des méthodes non paramétriques

Le choix d’une méthode statistique est souvent conditionné par sa qualité par rapport à d’autres
méthodes statistiques. Dans le cas de méthodes non paramétriques, il semble naturel de comparer
les résultats obtenus à ceux d’une autre méthode non paramétrique dans des conditions
équivalentes. Il est également très instructif de comparer ces résultats à ceux d’une méthode
paramétrique. En effet, l’utilisation d’une méthode non paramétrique sous un modèle paramétrique
donné peut occasionner une perte d’efficacité importante par rapport à la méthode paramétrique
optimale. Il est donc bon de savoir si l’élargissement du domaine de validité des modèles n’est pas
trop pénalisant d’un point de vue de l’efficacité. Dans ce cas on étudie les variances respectives des
estimateurs, ce qui se traduit par le calcul de l’efficacité relative.

Outre les performances à l’intérieur d’un modèle spécifié, la qualité d’une méthode se juge aussi
suite à une déviation du modèle. C’est pourquoi la statistique non paramétrique se préoccupe
particulièrement de cette notion qu’est la robustesse.

Performances d’un estimateur


L’un des problèmes qui se pose fréquemment aux utilisateurs de la statistique consiste à choisir
entre plusieurs estimateurs d’une même quantité pour résoudre un problème. Le choix d’un critère
est alors primordial pour déterminer si un estimateur est préférable à un autre. La comparaison de
l’efficacité de deux estimateurs suscite alors deux questions : l’estimateur choisi est il le meilleur
parmi tous les estimateurs (efficacité absolue) ? ou bien est-il tout simplement le meilleur dans une
classe d’estimateurs donnée (optimalité) ?

Efficacité d’un estimateur


Estimation ponctuelle

Avant d’aborder ces notions de performance des estimateurs, rappelons ce qu’est une estimation
pontuelle.

On dispose d’une information sur la loi F(X) par un échantillon (x1, ... , xn) de la variable X.
m est un paramètre de la loi que l’on souhaite estimer.
On note j  m  une grandeur que l’on cherche à estimer. Souvent cette grandeur n’est autre que le
paramètre m lui même. C’est le cas lorsque l’on cherche à estimer la moyenne d’une loi normale.
Cependant, il arrive que la grandeur à estimer soit une fonction de m : par exemple lorsqu’on
s’intéresse à la variance d’une loi normale s² et non son écart-type s.
On appelle estimateur ponctuel de j  m  toute statistique Tn construite sur l’échantillon X n .
L’erreur quadratique moyenne

La démarche utilisée pour comparer deux estimateurs repose sur le calcul d’une perte quadratique
engendrée par l’estimation. Il s’agit de l’erreur quadratique moyenne (Eq 0).

[
EQ  n , m0  =E  T n − j  m0  
2
]
Eq 0

Le critère EQ(n,m0), que l’on cherche à minimiser, représente l’espérance du carré des écarts entre
les réalisations de l’estimateur Tn et les vraies valeurs de j(m0)
Il apparaît alors logique de prendre parmi deux estimateurs, celui dont l’erreur quadratique
moyenne est la plus faible.

Si les estimateurs sont sans biais pour un même paramètre, l’erreur quadratique moyenne n’est
autre que la variance de l’estimateur. On dit d’ailleurs qu’un estimateur sans biais est plus efficace
qu’un autre estimateur si sa variance est plus petite.

Si l’estimateur Tn est un estimateur quelconque, l’erreur quadratique moyenne s’écrit (Eq 0) :

[ 2
]
EQ  n , m0  =E  T n −E  T n    E  T n  − j  m0  
2

EQ  n , m0  =Var  T n  b 2  n , m0 
Eq 0

L’erreur quadratique moyenne est un critère qui tient compte à la fois du biais et de la dispersion de
l’estimation. Ainsi même si un estimateur sans biais est intuitivement séduisant, on pourra lui
préférer un estimateur faiblement biaisé mais de plus faible variance.

L’efficacité relative

Afin de comparer les qualités respectives de deux estimateurs sans biais, on calcule souvent le
rapport de leurs variances ou de leurs variances asymptotiques.
Soient Tn et Tn’ deux estimateurs définis à partir d’observations indépendantes d’une loi F.

On appelle alors efficacité relative de Tn par rapport à Tn’ la quantité (Eq 0) [Cap 88] :

Var  T n ' 
ER T n , T n ' =
Var  T n 
Eq 0
J. Pitman [Pit 48]16 à introduit une notion d’efficacité relative légèrement différente. Il pose le
problème de la manière suivante :
Si on considère deux statistiques Tn et Tn’ équivalentes selon un certain critère (ce peut être la
variance) et pour des tailles d’échantillons n et n’ . Le rapport n/n’ est appelée efficacité relative de
Tn par rapport à Tn’.

Nous considérons pour notre part que la première définition de l’efficacité relative est plus
satisfaisante car elle nous permet de comparer les performances de deux estimateurs pour un
nombre d’observations données. La M.S.P. accorde en effet beaucoup d’importance à la taille des
échantillons car elle a une influence économique et pratique capitale. De plus, la relation (Eq 0)
permet d’obtenir la formule de l’efficacité relative asymptotique lorsque l’on fait tendre le nombre
d’observations vers l’infini.

Dans bien des cas, la variance exacte d’un estimateur fonction de n observations est difficile à
obtenir. Aussi un critère souvent utilisé pour comparer deux estimateurs est l’efficacité relative
asymptotique (Eq 0) :

Var  T n ' 
ERA T n , T n ' =Lim
n ¥ Var  T n 
Eq 0

La borne de Frechet

Il paraît évident que la variance d’un estimateur T ne peut être nulle. Il est alors logique de se poser
la question de l’existence d’une borne inférieure.

On peut montrer en effet que la variance d’un estimateur ne peut être inférieur à une limite appelée
Borne de Frechet ou Borne de Cramer-Rao. Un estimateur sans biais est dit efficace si sa variance
est égale à la borne de Frechet [Tas 89]17.
La moyenne est par exemple l’estimateur efficace lorsque les observations suivent une loi normale
(Voir Annexe 2).
Rappelons que cette borne n’est valable que pour des distributions dont le support ne dépend pas du
paramètre estimé.

L’optimalité

Lorsque la borne de Frechet n’est pas atteinte, et c’est souvent le cas, on affaiblit le critère de
l’efficacité absolue pour se contenter d’un estimateur optimal. On appelle estimateur optimal un
estimateur T sans biais, préférable à tout autre au sens de la variance.
T rSub { size 8{1} } ÏB rSub { size 8{0} } V left (T right ) <= V left (T rSub { size 8{1} } right )} {}
¿

16
PITMAN E. J. Notes on non parametric statistical inference - Manuscrit non publié
17
TASSI P. Méthodes Statistiques - Economica 2nde Edition - 1989
Robustesse d’un estimateur

L’étude de la robustesse d’un estimateur consiste, entre autre, à quantifier sa tolérance aux valeurs
extrêmes et sa sensibilité à de nouvelles observations. La taille des échantillon étant le plus souvent
constante en M.S.P. grandes séries, on ne s’intéressera qu’à la propriété de tolérance aux valeurs
extrêmes d’un estimateur. Pour cela on définit un coefficient de tolérance.

On suppose un estimateur Tn fonction des observations X1, ... ,Xn. Soient a et b deux entiers tels
que :
·
left (x rSub { size 8{1} } ,K,x rSub { size 8{n} } right )ÎR rSup { size 8{n} } ,x rSub { size 8{ left (α+1 right )} } <= t rSub { size 8{n} } <= x rSub { size 8{ left (n-β right )} } } {}
¿
· si l’on fixe les valeurs de x(a+2),...x(n) et que x  α1   -¥ alors t n  -¥
· si l’on fixe les valeurs de x(1),...x(n-b-1) et que x  n− β   +¥ alors t n  +¥

Si a* et b* sont respectivement les plus petits entiers satisfaisant les conditions précédentes. On dit
alors que le coefficient de tolérance à gauche est t(Tn)= a*/n et le coefficient de tolérance à droite
est t(Tn)= b*/n.
Si l’estimateur a des propriétés de symétrie, on trouve a* = b*.
On appelle point de rupture asymptotique la grandeur a*/n, lorsque n  ¥ .

On peut donner à titre d’exemple le coefficient de tolérance pour la médiane empirique et la


moyenne empirique (Figure 17).

n t  X n  t  X n 
5 0 0.40
10 0 0.40
20 0 0.45
100 0 0.49
+¥ 0 0.50
Figure 17

Cet exemple met en évidence la grande robustesse de la médiane empirique par rapport à la
moyenne empirique qui ne tolère aucune observation aberrante.
Orientation des travaux

Les principes de base de la M.S.P. et leurs limites


Dans les premières heures de la M.S.P, les industriels se contentaient d’appliquer la MSP dans des
cas où les hypothèses des outils statistiques utilisés, n’étaient pas trop mises à mal. Le
développement de ces méthodes et leur généralisation dans l’entreprise, ont conduit tout
naturellement les ingénieurs à se confronter à des cas atypiques où l’application de la MSP pouvait
être discutable.
Nous pouvons citer parmi ces cas :
· Les cas où les données sont corrélées (procédés continus), ce qui rend difficile l’estimation de la
dispersion instantanée et biaise l’estimation de position du procédé.
· Les petites séries ou de manière générale les procédés offrant un faible volume d’information
sur leur évolution, conduisant ainsi à des difficultés d’échantillonnage et d’estimation de la
dispersion instantanée.
· Les procédés non normaux qui remettent en cause le calcul des indicateurs de capabilité ainsi
que celui des limites pour une carte de contrôle.

Orientation de nos travaux


Le travail que nous allons développer dans ce mémoire concerne l’application d’une méthode non
paramétrique à la M.S.P. Les outils statistiques de la M.S.P, comme nous venons de le voir, se
basent pour la plupart sur un modèle paramétrique de loi. La loi normale est l’un de ces modèles
incontournables, dont l’utilisation est souvent justifiée. Néanmoins cette approche souffre de
l’étroitesse de son cadre d’application et les exemples de non normalité que nous soumettent les
industriels illustrent bien ses limites. Nous proposerons donc une approche plus générale, ne
postulant aucune loi a priori, permettant de construire des cartes de contrôle dont les performances
sont supérieures à celles des cartes utilisant la moyenne.

Nous verrons dans le Chapitre 2 que la MSP n’est pas sans réponses face aux cas de non normalité.
Nous rappellerons quelques unes des méthodes développées au cours des dix dernières années pour
répondre aux problèmes posés quant à l’utilisation des cartes de contrôle et des indicateurs de
capabilité. Après avoir analysé et critiqué ces méthodes nous poserons une nouvelle problématique.

Nous proposerons ensuite dans le Chapitre 3 l’utilisation d’une méthode non paramétrique dont
l’objectif est de fournir une carte de contrôle possédant de bonnes performances quelle que soit la
distribution des observations. Deux objectifs sont alors poursuivis : la minimisation de la variance
des estimations ainsi que la minimisation de la perte au sens de Taguchi, occasionnée par la
dispersion naturelle du procédé.

Nous présenterons enfin dans le Chapitre 4, quelques applications industrielles mettant en lumière
l’efficacité de la méthode et son adéquation au besoin industriel.
Chapitre 2

Chapitre 2

La non normalité abordée par la Maîtrise


Statistique des Procédés

Le mythe de la loi normale


La loi normale prend une part très importante dans les méthodes de décisions statistiques. Ce
modèle statistique a en effet l’intérêt incontestable de pouvoir décrire avec simplicité un grand
nombre de phénomènes aléatoires naturels. Son caractère n’en est pas universel pour autant et on
constate que bon nombre d’applications statistiques ne peuvent se satisfaire de l’hypothèse de
normalité. Nous présenterons dans ce paragraphe quelques exemples typiques de non normalités
rencontrées couramment dans l’application de la M.S.P.

Justification de la normalité
L'objectif de la M.S.P. est, comme nous l'avons vu au chapitre précédent, de mettre un procédé
«sous contrôle». C'est-à-dire éliminer les causes spéciales à l'origine de non stationnarité du
procédé, pour ne garder que les causes communes, non réductibles. Lorsque toutes les causes
spéciales ont été éliminées, on considère que la distribution des critères étudiés suit une loi
normale. Cette hypothèse se justifie par le nombre important des causes communes et leurs effets
d'un ordre de grandeur équivalent.
D'autre part, pour des raisons d'efficacité que nous avons déjà soulignées, on préfère utiliser des
cartes de contrôle par échantillonnage de type X  /R . Même si le théorème central limite n'est
valable que pour des échantillons de grande taille, il a une influence non négligeable sur la
distribution des moyennes, calculées à partir d'échantillons de faible taille. Ainsi, la distribution des
moyennes, suivra une loi normale si la distribution des valeurs individuelles ne présente pas un
caractère non normal trop prononcé. Dans ces mêmes conditions, on ne peut établir la distribution
de l’étendue R et de l’écart-type empirique S.
Toutefois le large développement de la M.S.P, dans de nombreux domaines, a contribué à la mise
en évidence de différents cas de non normalité. Nous allons voir que la non normalité d'un procédé
n'est pas forcément le résultat d'un procédé mal maîtrisé au sens de Shewhart. Il existe en effet des
procédés qui sont naturellement non normaux alors qu’ils sont sous contrôle. C’est le cas en
l’occurrence des critères de forme. D’autres procédés sont soumis à des causes spéciales
parfaitement identifiées. En toute rigueur le procédé n’est pas sous contrôle, mais on se satisfait de
cette situation pour des raisons techniques ou économiques. Nous citerons dans cette catégorie, les
procédés multipostes ou multi-empreintes.

Procédés non normaux

Introduction

Si on étudie les critères suivis en M.S.P. sur un procédé de fabrication, deux facteurs essentiels
peuvent être à l'origine de leur non normalité:

· Le premier est lié à la nature même du procédé. De nombreux procédés sont en effet non
symétriques pour des raisons mécaniques ou physiques. Prenons par exemple le cas du remplissage
de bouteilles proposé par R. Mortel [Mor 95]18. Ce procédé est constitué de 24 têtes de remplissages
dont le débit peut être réglé indépendamment. A chaque cycle de remplissage, 24 bouteilles sont
remplies simultanément. On conçoit aisément que les différentes buses ne peuvent pas avoir
rigoureusement le même débit. De plus celui-ci n'évolue pas forcément de la même manière dans le
temps. L'obstruction de l'orifice ou les bulles d'air sont autant de causes qui influent sur le débit des
têtes de remplissage. La production ne suit pas une tendance centrale mais plusieurs, ce qui
explique la non normalité du procédé.

· Le second dépend du type de données traitées. En effet, certaines grandeurs physiques sont
bornées ou correspondent à des singularités : une circularité est nécessairement positive, un pH de 0
ou une température de 0 Kelvin sont des singularités, donc des valeurs non égalables. Ces
caractéristiques introduisent bien entendu des dissymétries dans la répartition des mesures. D'autre
part, les grandeurs représentées proviennent parfois d'un calcul basé sur plusieurs mesures. C'est le
cas par exemple de la circularité d'une pièce mécanique qui se calcule en effectuant la différence
entre le diamètre du cercle inscrit et celui du cercle circonscrit. Ce problème est bien connu en
M.S.P. sous l'appellation de «défaut de forme».

18
MORTEL R.R. & RUNGE G.C. Statistical Process Control of Multiple Stream Process Journal of Quality
Technology Vol 27 N° 1 - 1995
Les procédés multigénérateurs

Les procédés multigénérateurs, bien que peu abordés en M.S.P. constituent une part importante des
moyens de production. On regroupe sous cette appellation tous les procédés constitués de plusieurs
«machines élémentaires» indépendantes les unes des autres, réalisant les mêmes caractéristiques.
Nous citerons à titre d'exemple les procédés les plus classiques tels que les tours multibroches, les
presses à injecter multi-empreintes, ou encore les filières.

Les caractéristiques issues de chaque générateur ou machine élémentaire sont distribuées selon une
loi élémentaire, qui peut être une loi normale si la caractéristique étudiée est bilatérale, ou une loi
de défaut de forme dans le cas d'un critère unilimite.

La population constituée de la production de l'ensemble des générateurs est ainsi un mélange de


lois, encore appelé stratification (Figure 18).
Nous allons établir les caractéristiques essentielles de cette distribution, qui sont la moyenne et la
variance en fonction des différentes lois élémentaires.

Intervalle de tolérance Intervalle de tolérance

Caractéristique Caractéristique

Figure 18

Dans l'exemple de la Figure 18 on considère une population constituée de k=5 strates de moyenne
et d'écart-type respectif mi et si. En supposant que les générateurs produisent chacun =1/5 de la
production, on définit alors la densité de probabilité de la population fp en fonction des lois
élémentaires f1 ... f2 par:

f p    f1     f5

On note mi(q) les moments d'ordre q des variables aléatoires distribuées selon fi. X est la variable
aléatoire de fp.
Les moments non centrés d'ordre q de la variable X se calculent par l'expression:
k

E X q     i  mi
( q)

i 1

D'où la moyenne et la variance (Eq 0):


k
E X     i  mi
i 1

[ ]
k k 2

V [ X ] =E [ X ] −E [ X ] = p ∑   − p ∑ mi
2 2
s i2 mi2
i=1 i=1

Eq 0
La Maîtrise Statistique des Procédés a pour objectif de réduire l'influence des causes spéciales (ici
évidentes) à l'origine de la non normalité de la population. Cependant cette procédure peut s'avérer
très délicate et surtout très coûteuse : modification de la structure d'une machine ou encore retouche
de moules pour une presse à injecter.

Considérons par exemple une presse à injecter avec un moule comportant 10 empreintes identiques.
Malgré tout le soin que peuvent apporter les outilleurs dans la fabrication du moule, il est
impossible de réaliser 10 empreintes identiques. A chaque injection, la presse va donc produire 10
pièces provenant de 10 générateurs différents. Les critères étudiés auront donc nécessairement une
distribution non normale. La population est alors dite « stratifiée ». En revanche, on peut admettre
que les distributions élémentaires issues de chaque générateur (chaque moule) suivent une loi
normale.

Figure 19

Si, comme c'est le cas de la Figure 19, l'aptitude du procédé est satisfaisante par rapport aux
tolérances à respecter, faut-il chercher à supprimer l'influence de la cause spéciale ici évidente (les
différences entre les empreintes) ? Réduire les dissemblances consisterait alors à retoucher les
moules. Cela coûterait une fortune pour un résultat très hasardeux du fait des dispersions d'usinage.
Il nous semble préférable dans ce cas, de considérer que les causes communes génèrent une
population non normale et d'essayer de piloter ce "paquet" pour le maintenir sur la cible.
Les défauts de forme

Dans le domaine mécanique, les critères unilimites présentent une part importante des critères
étudiés [Joh 93]19. Les critères de forme tels que les rugosités, les planéités, les circularités sont non
symétriques par nature puisque bornés en zéro. Prenons l'exemple d'un calcul de circularité (Figure
20) qui consiste à faire la différence entre le rayon du cercle inscrit Rmin et le rayon du cercle
circonscrit de même centre Rmax d'un alésage.

R min R max

Figure 20

Ces deux variables aléatoires sont supposées distribuées selon une loi normale. La différence de ces
deux variables, notée z = Rmax - Rmin, est distribuée selon une loi normale N(m,sn), encore appelée
«loi normale sous-jacente». Cependant il existe une relation d’ordre entre Rmax et Rmin qui est
d’ordre dimensionnelle. On conçoit aisément que Rmin sur une pièce soit supérieur à Rmax d’une
autre pièce si l’écart entre la moyenne de chacune des variables est faible. En revanche, Rmax est par
définition supérieur à Rmin sur une même pièce. La circularité est alors distribuée selon une loi de
∣z∣=∣R max −R min∣ (loi de défaut de forme), très caractéristique pour son repliement sur l'intervalle
positif. Cette loi est aussi connue sous le nom de loi normale repliée.

Intervalle de tolérance
Loi de défaut
de forme

Loi normale
sous-jacente

m m

m: moyenne de la loi normale sous-jacente


m : moyenne de la loi de défaut de forme
Figure 21

Pour que la caractéristique de circularité suive une loi de défaut de forme, il faut que les
mesures Rmin et Rmax suivent une loi normale de même écart type.
19
JOHNSON N. L. KOTZ S. Process Capability Indices - Chapman & Hall - 1993
De manière plus générale, on note z la variable aléatoire distribuée selon la loi normale
sous-jacente N(mn,sn), obtenue à partir des variables x et y (Rmax et Rmin dans l’exemple
précédent).
La moyenne de z est donnée par :

E [ z ] =m n =E [ x ] −E [ y ]

La loi de défaut de forme s’exprime donc par l'expression (Eq 0) :

z³0}} {}

[   e   ] ¿
2 2
1 z−mn 1 zm n
− −
1 2 sn 2 sn
f d  z = e
sn  2 p
¿
Eq 0
La moyenne et la variance de la loi normale repliée sont données par (Eq 0)

2  −m  1−2 F  m / s  
 mn / s n 2



2
m=s n ⋅e n n n
p
s 2 =m2ns 2n −m2
Eq 0

Critères de position

Un autre cas de non normalité concerne les caractéristiques distribuées de façon circulaire autour
d'un point central. Pour décrire de tels critères, on utilise la loi de Rayleigh.

On considère le cas d'un alésage effectué sur une machine à commande numérique. Ses
coordonnées sont programmées selon les coordonnées rectangulaires qui correspondent aux axes de
déplacement de l'outil, dans le plan perpendiculaire à l'axe de perçage. La dispersion occasionnée
par le jeu cinématique des deux axes suit une loi normale. Il n'en est pas de même pour les
coordonnées polaires. Les positions radiales sont distribuées suivant une loi de Rayleigh (Figure 4)
tandis que les positions angulaires suivent une loi uniforme.
On est souvent confronté à ce type de mesure de distance radiale en mécanique ; étude d'une
coaxialité par exemple.

En supposant que les caractéristiques des deux lois normales, décrivant les variations de position en
coordonnées rectangulaires, soient parfaitement connues, on peut alors établir l'expression de la loi
de Rayleigh et déterminer ses paramètres.
Y

sn

sn

X
sr

sn

r
m r

m
r

Figure 22

La fonction de répartition F et la densité de probabilité f s'écrivent respectivement:


r2 r2

r 
Fr   1  e f  r   2  e 2 s n  r  0 , ¥ 
2 2
2 s n

sn

La moyenne et l'écart type de la loi de Rayleigh sont donnés par:


 
mr   sn  1,25  sn sr  2   sn  0,655  s n
2 2

Il est possible de généraliser cette approche pour les cas où la moyenne des variables X et Y ne
correspond pas avec le centre du cercle.
Répercussions de la non normalité sur les méthodes de la
M.S.P.
L'analyse de capabilité et le pilotage de procédés par cartes de contrôle sont le plus souvent fondés
sur l'hypothèse de normalité. Cependant les procédés non normaux sont relativement fréquents,
nous l'avons vu précédemment, ce qui peut nous conduire à remettre en cause la validité de ces
méthodes. L’appellation « non normalité » regroupe une grande variété de lois dont les
caractéristiques sont parfois très différentes de la loi normale. C'est pourquoi il serait dangereux de
conclure que les méthodes de la M.S.P. sont applicables ou inapplicables dans un contexte non
normal. Il serait plus juste de se demander si ces méthodes sont robustes et tolèrent quelques écarts
par rapport à un modèle ; ici la loi normale.

Incidence sur les indicateurs de capabilité

Les indicateurs de capabilité ont pour objectif de déterminer dans quelle mesure un procédé de
fabrication peut respecter les spécifications que l'on s'est fixé. Bien que le calcul des indicateurs de
capabilité tels que le Cp et le Cpk (Eq 0) repose uniquement sur la comparaison entre la tolérance
et la dispersion d'une caractéristique, celui-ci impose la connaissance a priori de la distribution des
données. On souhaite généralement que les données soient distribuées selon une loi normale.

IT min  m−TI ; TS −m 
Cp= Cpk =
6 .s 3 .s
Eq 0

La connaissance de la loi de distribution des mesures permet en effet de faire le lien entre la valeur
de l'indicateur de capabilité et le pourcentage de mesures hors tolérances. Pour un Cpk donné, il est
facile à l'aide d'une table de la loi normale réduite de connaître le pourcentage hors des tolérances.
Malheureusement ce calcul n'est plus possible lorsque la distribution des mesures ne suit pas une
loi normale. Il devient alors aventureux de comparer des indices de capabilité si l'on n'est pas
certain de la normalité de la loi ou si les deux productions non normales peuvent être décrites par
une même loi. Gunter [Gun 89]20 est l'un des premiers à avoir abordé ce problème d'interprétation
des indicateurs de capabilité en montrant que des productions non normales différentes ayant le
même Cp et Cpk généraient des pourcentages de non conformités différents.
Tout le problème se résume à la définition de la dispersion des mesures lorsque la production n'est
pas décrite par une loi normale. La situation de référence que nous connaissons est celle de la loi
normale. En effet, lorsque l'on définit sa dispersion à 6s on sait que la proportion de la population
située dans l'intervalle m±3 s est de 99.73% (Figure 5).

20
GUNTER The use and abuse of Cpk - Quality Progress 22(3), pp108-109 & 22(5), pp 79-80 - 1989
TI Intervalle de tolérance TS

99.73%

Dispersion
Figure 23

Dès lors que l'on définit la dispersion comme étant l'intervalle renfermant 99.73% de la population,
les indicateurs de capabilité peuvent être interprétés indépendamment de la distribution de la
population. La détermination de la dispersion n'est pas une chose aisée d'un point de vue
expérimental, lorsque l'on ne peut s'appuyer sur un modèle statistique. Nous verrons dans le
paragraphe suivant quelques méthodes permettant de répondre à ce problème.

Déterminer les limites des cartes de contrôle

De nombreuses études concernent l'impact de la non normalité sur l'efficacité des cartes de
contrôle. Burr [Burr 67]21, par exemple a montré que les cartes de contrôle ne pouvaient être
raisonnablement utilisées que si la population ne se révélait pas fortement non normale. Shilling et
Nelson [Shi 76]22 ont alors cherché à déterminer quelles étaient les domaines d'applications valides
des cartes de contrôle. L'une des répercussions essentielles de la non normalité sur les performances
d'une carte de contrôle est la modification des risques a liés aux tests d'hypothèse. Shilling et
Nelson considèrent que le domaine d'application d'une carte X  n'est valide que pour un risque a
proche de 0.3%. Pour cela deux alternatives sont envisageables : soit la distribution des moyennes
suit une loi normale et on garde les limites traditionnelles ( Cible±3 s X ), soit il faut modifier les
limites de contrôle.
Les auteurs ont donc calculé les risques pour différentes lois non normales et pour différentes tailles
d'échantillons. Les résultats obtenus ne permettent pas de conclure à une quelconque méthode pour
établir les limites de contrôle. Cependant, ils confirment que les risques a sont dans la plupart des
cas très différents de 0.27% si l'on s'en tient aux limites habituelles Cible±3 s X . De plus, on peut
constater que le théorème central limite n'est pas un bon argument pour placer des limites de
contrôle à Cible±3 s X lorsque les échantillons sont de taille moyenne. En effet, la convergence en
loi de la distribution de la moyenne est parfois très lente. A titre d'exemple, le tableau (Figure 24)
donne la taille minimum d'un échantillon pour obtenir des risques de l'ordre de 0.3% pour
différentes lois de distribution de la population.

21
 and R charts Industrial Quality Control, Vol. 23,
BURR, I. W. The effect of Non-Normality on constants for X
N°11, pp563-568 Mai 1967
22
SHILLING E.G. & NELSON P.R. The effect of non normality on the control limits of Xb charts - Journal of
Quality technology - Vol 8 N°4 pp183-188 - 1976
Type de loi Echantillon mini
Uniforme n>25
Gamma a=1/2 n>100
Gamma a=1 n>100
Gamma a=2 n>100
Gamma a=3 n>50
Gamma a=4 n>50
Bimodale symétrique n>500
Bimodale dissymétrique n>25
Figure 24

Pour chacun de ces cas, les tailles d'échantillons sont rédhibitoires pour l’utilisation des cartes de
contrôle. En pratique, on considère souvent que des risques inférieurs à 0.3% permettent une
utilisation satisfaisante des cartes de contrôle. Dans ce cas les échantillons minimum sont d’une
taille plus acceptable pour la loi uniforme et la loi bimodale symétrique (Figure 25).

Type de loi Echantillon mini Risque α pour n=5


Uniforme 2 0.00094
Gamma a=1/2 331 0.01
Gamma a=1 166 0.0093
Gamma a=2 83 0.0067
Gamma a=3 56 0.0056
Gamma a=4 42 0.0049
Bimodale symétrique 2 0.0008
Bimodale dissymétrique 47 0.005
Figure 25

On retiendra essentiellement deux thèses dans le choix des limites d’une carte de contrôle :
· Une première approche que l’on qualifiera de « puriste » tend à garder les risques a aussi
proches que possible de 0.27% pour la carte des moyennes, quel que soit le type de distribution
abordée. Nous décrirons dans ce chapitre quelques unes des méthodes permettant d’aboutir à ce
résultat. Nous citerons par exemple les travaux de Yourstone [Your 92]23 qui suggère un
ajustement des limites de contrôle basé sur une identification de la distribution de la population.

· Une autre approche, un peu plus « pragmatique » consiste à placer systématiquement les limites
de contrôle à ±3 s estimateur quelle que soit la carte utilisée. Ce choix de l’intervalle de confiance
bien que simpliste, fait néanmoins autorité puisque les cartes de contrôle les plus répandues
utilisent ce type de limites. Parmi ces cartes, nous pouvons citer la carte aux écart-types (S), la
carte aux étendues (R), les cartes aux attributs (p,np c et u) pour lesquelles l’estimateur utilisé ne
suit pas une loi normale.

23
YOURSTONE Steven A. & ZIMMER W.J. Non normality and the design of control; charts for averages
Decision Science Vol 23 N°5 pp 1099-1113 - 1992
David [Dav 81]24 considère en effet, que l’ajustement des limites de contrôle dans le but de
conserver des risques proches de 0,27% est un raffinement dont l’apport pratique est limité.
Wheeler [Whe 92]25adopte le même point de vue et montre pour plusieurs exemples de distributions
non normales que la distribution des moyennes offre des risques a d’un ordre de grandeur très
raisonnable pour de faibles tailles d’échantillons.

Incidence sur le choix de l’estimateur

La problématique ne se borne malheureusement pas au calcul des limites pour une carte de
contrôle. Le problème de l’estimateur ponctuel est aussi un élément important. Nous savons par
exemple que si la population est distribuée selon une loi normale, alors la moyenne est le meilleur
estimateur sans biais qui puisse exister. En effet, sa variance atteint la borne de Frechet qui fixe la
variance théorique minimum de l’estimateur en fonction de l’information qui lui est fournie. Qu’en
est il lorsque la population n’est pas distribuée selon une loi normale ?
On peut montrer par exemple que la médiane est particulièrement performante pour des lois à
caractère impulsionnel, tandis que le milieu de l’étendue aura un bon comportement pour des lois
proches de la loi uniforme.

Estimateur Domaine d’application

X = X
 
n1
2
(n impair)

 = 1 ∑ xi
X
n n

X  n − X  1 
2

Figure 26

24
DAVID H. A. Order Statistics - New York - Willey - 1981
25
WHEELER D. J. Understanding Statistical Process Control - SPC press - 1992
D’autre part, les règles de décision telles que : « 7 points consécutifs sont du même coté de la cible
alors le procédé est hors contrôle » n’ont plus la même signification lorsque la distribution de
l’estimateur n’est pas symétrique. Quand la distribution de la population suit une loi normale, la
moyenne et la médiane de la population sont superposées. Ainsi les probabilités que la moyenne
d’un échantillon soit à droite ou à gauche de la moyenne de la population ( X  ) sont égales. Cette
propriété est à la base de ces règles de décision.

Or, lorsque la population est dissymétrique, la moyenne et la médiane ne sont plus superposées.
Cela signifie que la probabilité qu’une valeur individuelle tombe à droite de la moyenne n’est pas
égale à celle qu’elle tombe à gauche. Le problème est donc le même si la distribution de la
moyenne n’est pas symétrique. La moyenne des moyennes est différente de la médiane des
moyennes. En toute rigueur, le test n’est plus valable.
La capabilité des procédés non Normaux

Le calcul des capabilités pour les procédés non normaux est un problème important étant donnée la
forte sensibilité de ces indicateurs à une déviation de la population par rapport au modèle que
constitue la loi normale. Pour que les indicateurs de capabilité puissent être exploitables
indépendamment de la forme de la population, il est nécessaire de définir la dispersion comme
l'intervalle centré couvrant 99.73% de la population.
On note xp un p-quantile de la loi de distribution de la population. Alors les indicateurs de capabilité
peuvent s’écrire de manière générale :

IT min  TS −x 0 . 5 ; x 0 . 5−TI 
Cp= et Cpk = avec D=x 99 . 865 −x 0 .135
D 1
D
2

Il est peu concevable d’estimer les p-quantiles de la distribution de la population en se basant


uniquement sur les mesures relevées lors d’une étude de capabilité. En effet, ces estimations
seraient très approximatives du fait de l’insuffisance des observations.
La littérature compte un nombre important de méthodes proposant une extension de la définition
des indicateurs de capabilité pour des lois non normales. Parmi elles on distingue quatre approches
fondamentalement différentes :

· Les méthodes les plus connues consistent à faire l’hypothèse que la distribution peut être
approchée par une distribution théorique. Cette hypothèse doit pouvoir se justifier par la nature
des observations, défaut de forme par exemple. Dans le cas contraire, on appliquera un test
d’adéquation pour créditer l’hypothèse de départ. Ces méthodes sont qualifiées de
« descendantes » (top-down) car on postule une loi avant de pouvoir vérifier son adéquation avec
les observations expérimentales. Elles seront abordées très succinctement car elles sont déjà très
largement répandues en milieu industriel.

· D’autres méthodes dites « paramétriques empiriques » s’appuient sur des familles de lois de
distributions ou des familles de fonctions. Les familles de lois utilisées telles que les lois de
Burr, lois de Pearson ou fonctions de Johnson ont la particularité de pouvoir décrire un grand
nombre de configurations en faisant varier certains de leurs paramètres. A l’inverse des
méthodes précédentes, les méthodes paramétriques sont « ascendantes » (bottom-up) car on
estime des paramètres à partir des observations du procédé pour en déduire la fonction
représentant le mieux la distribution de la population.

· Les méthodes graphiques reprennent pour la plupart la philosophie de l’histogramme en lui


apportant des propriétés de continuité. Pour obtenir un histogramme lissé on utilise par exemple
la méthode des noyaux (Kernel) ou encore un algorithme des splines cubiques.
· Il existe aussi quelques méthodes non paramétriques dont les principes, plus originaux, ne
s’appuient sur aucune loi ou famille de lois pour calculer la dispersion.
Le cadre de travail défini par un modèle paramétrique peut être parfaitement approprié lorsque
la famille des lois de probabilité est liée aux caractéristiques physiques de l’expérience.
Cependant, le choix d’un modèle statistique est souvent un procédé simplificateur de la réalité.
C’est pourquoi il est parfois préférable d’utiliser les formes faibles d’un modèle statistique
lorsque la validité d’un modèle paramétrique est mis en doute.

Les indicateurs fondés sur des distributions théoriques

Les critères de forme

La difficulté liée à la loi de défaut de forme, est d’établir sa dispersion, car sa forme varie en
fonction du décentrage et de la dispersion de la loi normale sous-jacente. Il est donc nécessaire de
déterminer les caractéristiques de la loi normale sous-jacente afin de connaître la dispersion de la
population.

Nous avons vu que la loi de défaut de forme s’exprime par la relation :

z³0}} {}

[   e   ] ¿
2 2
1 z−m 1 zm
− −
1 2 sn 2 sn
f d  z = e
sn  2 p
¿

On note m et s la moyenne et l’écart-type de la loi de défaut de forme.

Nous distinguerons trois cas pour le calcul de la dispersion de la loi de défaut de forme, en se
basant sur les valeurs du rapport m/s (Figure 27).

· 1er Cas
Si le rapport m/s < 1.323, la moyenne de la loi normale sous-jacente est inférieure à 0, ce qui est
contraire aux hypothèse de la loi de défaut de forme. Dans ce cas, on suppose que la moyenne de la
loi de défaut de forme est centrée sur 0. La dispersion est alors définie par D=5s, ce qui correspond
à 99.74% de la population. (Voir en Annexe 2 les démonstrations mathématiques)

· 2ème Cas
Lorsque le rapport est compris entre 1.323 et 3, on se place dans le cas ou une partie de la loi
normale sous-jacente est du côté négatif. Dans ce cas les normes fournissent généralement, sous
forme d’un tableau la valeur du p-quantile x0.9973 déterminé à partir du rapport m/s ou de la moyenne
de la loi normale sous-jacente [AFN 94]26 (Voir en Annexe 2).

26
AFNOR Norme NF E 60-181 Moyens de production - Conditions de réception -
Méthode d’évaluation de l’aptitude à réaliser des pièces - 1994
· 3ème Cas
Lorsque m/s > 3 la loi normale de défaut de forme peut être assimilée à une loi normale. On définit
donc la dispersion comme la somme de la moyenne de la loi de défaut de forme et le p-quantile de
la loi normale x0.9973.s, c’est à dire 2,78s que l’on approxime parfois à 3s.

Dans ces trois cas, la dispersion de la loi de défaut de forme est définie par l’intervalle qui couvre
99,73% de la population en partant de zéro.

1er Cas 2ème Cas 3ème Cas


m m m
1 . 3236 1 . 3236≤ ≤3 . 0 3 . 0
s s s
D=x 0 . 9973⋅s
D=5 ⋅s D=m3 ⋅s

D D D
Figure 27

La loi de Rayleigh

En ce qui concerne la loi de Rayleigh, les calculs permettant d’établir les indicateurs de capabilité
Cp et Cpk sont particulièrement simples. On peut montrer [Sou 86]27 que la portion de la loi de
Rayleigh couvrant 99.73% de la population est de 5.25 sr lorsqu’il n’y a pas de décentrage.

Les relations du Cp et du Cpk en fonction de l’écart type des observations sr sont alors immédiates
(Eq 0).

IT IT TG−m r
Cp= = et Cpk =
Dispersion 5 . 25 s r 5 . 25⋅s r −mr
Eq 0

27
SOUVAY P. La statistique outil de la qualité Edition AFNOR - 1986
La loi Log-normale

Contrairement à la loi de Rayleigh, la loi Log-normale n’a pas de justification physique. On doit
son utilisation à sa simplicité. Elle permet de modéliser assez fidèlement des distributions bornées
telles que les défauts de forme.

Le problème qui se pose encore est de calculer le p-quantile de la loi Log-normale correspondant à
99.865% pour pouvoir calculer le Cpk.

TS −m
Cpk =
x 99 .865−m

Rappelons tout d’abord, que si une variable aléatoire Y est distribuée selon une loi normale, alors la
variable définie par X=exp(Y) suit une loi log-normale.

Une manière très simple de trouver le p-quantile, est d’opérer une transformation vers la loi
normale à toutes les réalisation de la variable X : Y=ln(X).
On calcule alors les paramètres caractéristiques de la loi normale, qui sont respectivement la
moyenne m et l’écart type s.
Si Y suit une loi normale N(m ;s), alors X=eY suit une loi Log-normale dont l’espérance m vaut
 2
  m3 s 
e ms / 2 et le quantile 0.99865 de X vaut e . D’où l’expression du Cpk (Eq 0).

TS −m
Cpk = m3 s
e −m
Eq 0

Limite de ces méthodes

Les méthodes présentées dans ce paragraphe font partie des grands classiques de la M.S.P. et
répondent aux problèmes les plus courants de non normalité. Elles ont l’avantage d’être
relativement simples du fait des lois postulées. L’existence de tests d’adéquation pour la loi de
Rayleigh et la loi log-normale contribue aussi à les rendre attrayantes.

Cependant les hypothèses formulées sont très restrictives quant à la définition des procédés. En
effet, la loi de défaut de forme ne concerne que des critères unilimites particuliers. La loi de
Rayleigh n’est applicable que si les deux sources de dispersion sont orthogonales et ont même
écart-type.

Ces différentes méthodes n’ont pas la prétention de répondre à tous les problèmes de non normalité.
C’est cet inconvénient majeur qui a motivé le développement de méthodes basées sur des familles
de lois, afin d’élargir le domaine d’application des indicateurs de capabilité à un plus grand nombre
de lois non normales.
Indicateurs de capabilité fondés sur des familles de
distributions

L’intérêt de ces méthodes paramétriques par rapport aux précédentes est de mettre en œuvre un
modèle statistique plus général, valide pour une grande variété de formes de densités de probabilité.

Plusieurs auteurs ont proposé l'utilisation de méthodes robustes pour estimer la capabilité de
procédés dans le cas de lois non normales. Parmi eux, Clements [Cle 89]28 suppose que la
distribution du procédé peut être représentée par une loi de Pearson. Il fournit des tables qui
permettent de déterminer la capabilité du procédé en fonction du coefficient de Skewness  b 1 et
de Kurtosis b2 de la population. Dans le même état d'esprit, Farnum [Far 97]29 propose la
construction d’indicateurs de capabilité à l'aide des lois de Johnson.
Bien qu’elles utilisent des modèles différents, ces approches sont sensiblement équivalentes.
L’objectif est en effet de déterminer les p-quantiles délimitant la dispersion de la population en se
servant du modèle que l’on aura identifié.

La famille des lois de Burr

Le modèle de lois proposé par Burr [Bur 42]30 permet de représenter les fonctions de répartition
d’une distribution contrairement aux lois de Pearson et Johnson qui décrivent sa densité de
probabilité. La fonction de répartition est introduite sous forme d'une équation différentielle.
On appelle loi de Burr une loi continue f(x) dont la fonction de répartition F(x) satisfait l'équation
différentielle: F '  x  =F  x  [ 1−F  x  ] g  x  où g(x) est une fonction non négative.
La solution de cette équation différentielle s'écrit:
1 x
F  x = avec G  x  =∫-¥ g  u  du une loi strictement croissante.
1exp [−G  x  ]

Pour pouvoir identifier la loi de distribution des données, Burr propose de calculer la somme des
¥ a
moments centrés théoriques. M k =∫a x k [ 1−F  x  ] dx−∫-¥ x k F  x  dx
Cela permet de fournir les p-quantiles de la loi sans avoir à calculer les probabilités en passant par
la densité de probabilité. Par contre il est nécessaire de connaître la forme a priori de la loi de
distribution.

28
CLEMENTS J.A. Process capability calculations for non normal distributions
Quality Progress - N°22 pp95-100 - 1989
29
FARNUM R.N. Using Johnson curves to describe non-normal process data
Quality engineering 9(2) - pp329-336 - 1997
30
BURR, I. W. Cumulative frequency functions - Annals of Mathematical Statistics, N°13, pp215-232 - 1942
Identification de la loi
Castagliola [Cas 96]31 propose une variante de la méthode de Burr en construisant une fonction de
répartition empirique Fe (Eq 0) à partir d’un échantillon ordonné. La fonction Fe n’étant pas
continue, on ne peut l’utiliser directement pour estimer les p-quantiles de la population.

{
0, x x  1 
F e  x = k , x  k ≤x x  k 1 
n
1, x³x  n 
Eq 0

Où x  1  , x  2  , K , x  n  est un échantillon ordonné de n observations du procédé x 1 , x 2 , K , x n .

En conséquence, la fonction G e =ln


 Fex
1−F e  x  
ne peut être calculée à partir de Fe que pour n-1

valeurs de x(k) (k=1, 2, ... , n-1). Pour obtenir une fonction continue, on propose de remplacer la
fonction Ge inconnue par un polynôme Gr(x) d’ordre r. Ce polynôme est obtenu en appliquant la
méthode des moindres carrés sur les n-1 couples { x(k) ; Ge(x(k))}.
1
La fonction de répartition s’écrit alors F r  x  = .
1exp [ −G r  x  ]

Remarque
Quelques restrictions sont à émettre concernant la fonction G(x). En effet, la fonction G(x) et donc
Gr(x) doit être strictement croissante. En conséquence, il faut que le polynôme Gr(x) soit d’ordre
impair.

Construction des indicateurs de capabilité

A partir de la fonction de répartition empirique Fr(x), on calcule les probabilités d’avoir des
mesures à l’extérieur des tolérances pi et ps

On peut écrire le Cp et Cpk en fonction de la loi normale réduite :

Cp=
1
[ F −1  1− p s −F −1  pi  ]
6

Cpk = min [−F −1  p i  , F −1  1− p s  ]


1
3

31
CASTAGLIOLA Ph Evaluation of non normal Process capability indices using Burr's distributions
Quality engineering 8(4) pp587-593 - 1996
Grâce à ces formules, il est possible d'estimer les valeurs du Cp et du Cpk conformément à leur
définition même lorsque la loi est non normale. Pour cela, on se base sur les proportions hors
tolérances. Les indicateurs de capabilité Cp et Cpk obtenus (Eq 0) peuvent donc être comparés à
ceux calculés dans le cas d’une population normale.

Loi non normale Loi normale réduite

F r (TS) 
1
 F  TS  
r

TI TS

Figure 28

Cp=
1
[ F −1  F r  TS  −F −1  F r  TI   ]
6

Cpk = min [−F −1  F r  TI   , F −1  F r  TS   ]


1
3

Eq 0

En utilisant cette transformation, P. Castagliola utilise implicitement la médiane comme estimateur


de position de la population.

Conclusion

L’utilisation des courbes de Burr par Castagliola est assez originale car elle est fondée sur la
construction de la fonction de répartition empirique de la population. Les courbes de Burr offrent
alors un cadre suffisamment souple pour décrire un nombre important de lois.
Il faut toutefois prendre quelques précautions pour que la méthode fournisse de bons résultats. La
première contrainte est de prélever au moins une centaine d’observations pour que la fonction de
répartition empirique soit parfaitement décrite, surtout au niveau des queues. Il faut ensuite
déterminer l’ordre du polynôme Gr(x) pour que son tracé approche au mieux les données.
Castagliola n’énonce malheureusement pas de règle à ce sujet.
La famille des lois de Pearson

Clements [Cle 89]32 a proposé, de son côté, une méthode de calcul des indicateurs de capabilité Cp
et Cpk en se basant non pas sur les lois de Burr mais sur les lois de Pearson.
La démarche de Clements est à peu près équivalente à celle de Burr, car il considère que la
définition des indices de capabilité Cp et Cpk est fondée sur le pourcentage hors tolérances.

On suppose que les courbes de Pearson peuvent être caractérisées à partir de quatre paramètres qui
sont la moyenne, l'écart type, le coefficient de Skewness et le coefficient de Kurtosis. Ces différents
paramètres sont calculés à partir de données expérimentales du procédé.

On utilise la médiane M plutôt que la moyenne pour estimer de manière robuste la tendance
centrale de la population. D’autre part, les coefficients de Skewness et de Kurtosis sont construits à
partir des moments d'ordre trois et quatre. L’auteur rappelle à cet égard que la taille des
échantillons de capabilité ne doit pas être inférieure à n= 20. Ceci n'est absolument pas contraignant
pour réaliser une étude ce capabilité car les normes imposent souvent des tailles d’échantillons bien
supérieures.

A partir des différents paramètres des courbes de Pearson, Clements utilise le tableau établi par
Gruska et Al [Gru 89]33 pour connaître la dispersion de la population. En effet ce tableau fournit les
probabilités supérieure ps et inférieure pi des lois de Pearson réduites (m=0 et s=1) en fonction des
coefficients de Skewness et Kurtosis.

Les indicateurs de capabilité obtenus par cette méthode s’écrivent alors sous la forme (Eq 0) :

USL−LSL
C p=
p s− pi

C pk =min

USL− M M −LSC
p s− M
;
M − pi 
Eq 0

Par la suite, W. L. Pearn et S. Kotz [Pea 95]34 ont étendu cette méthode de calcul à d'autres
indicateurs de capabilité. Il s'agit en l'occurrence des indicateurs, dits de 2ème et 3ème génération,
comme le Cpm, le Cpmk et le Cpm* (Eq 0).
La mise en place ne présente aucune difficulté supplémentaire ; il suffit pour les obtenir de
déterminer les p-quantiles définissant la dispersion.

32
CLEMENTS J. A. «Process Capability Calculations for Non-normal Distributions»
Quality Progress N°22 - pp995-100, Sep 1989
33
GRUSKA G. F. MIRKHANI K. & LAMBERSON L.R. Non normal Data Analysis
Applied Computer Solutions Inc - 1989
34
REARN W.L. & KOTZ S. Application of clements method for calculating second and third generation capability
indices for non normal pearsonian population - Quality Engineering 7(1) pp 139-145 - 1995
TS −TI
C pm=
[ ]
2 1/2
6   p s − p i  /6    M −Cible 
2

min  TS − M ; M −TI 
C pm¿=
[ ]
2 1/ 2
6   p s − p i  /6    M −Cible 
2

[ [ ]
TS − M M −TI
C pmk =min ;
3
2
 p s−M  /3   M −Cible  ]
2 1/ 2
3 [   M − p  /3   M −Cible  ]
i
2 2 1/ 2

Eq 0

Ces derniers résultats nous semblent très critiquables car la notion de perte est totalement
indépendante des pourcentages hors tolérances. Dans la philosophie originale du Cpm, on
considére, au contraire, que l’utilisation de l’indicateur Cpm est totalement indépendante de la
distribution de la population. Le Cpm est calculé à partir de la fonction perte, qui ne tient compte
que de l’écart quadratique des observations avec la cible (Voir Chapitre 1). La substitution de s par
(ps-pi)/6 est donc inadaptée.

La méthode proposée par Clements ne semble pas dénuée d’intérêt et bon nombre d’auteurs y font
référence. Cet engouement s’explique en grande partie par le caractère systématique de la méthode
et sa simplicité. Elle se révèle d’ailleurs d’une grande souplesse puisque les courbes de Pearson
permettent de représenter un grand nombre de situations. Cependant pour obtenir des résultats
fiables, il est recommandé de calculer les coefficients de Skewness et de Kurtosis sur un échantillon
de taille relativement importante, faute de quoi l’estimation de la dispersion peut aboutir à des
valeurs extravagantes.

La famille des lois de Johnson

Les courbes de Johnson furent présentée en 1949 comme une alternative aux lois de Pearson pour la
description des lois non normales. Leur principe est similaire aux lois de Pearson puisqu’à l’aide de
3 familles de lois, on peut décrire une grande variété de formes de distributions. L’éventail des
possibilités offertes par les courbes de Johnson est sensiblement équivalent à celui des courbes de
Pearson. Les courbes de Johnson offrent néanmoins quelques avantages sur les courbes de Pearson.
En effet, elle bénéficient de méthodes permettant de choisir la courbe qui décrit le mieux la
population. Des transformations permettent également de simplifier les problèmes de calculs de
probabilité en se ramenant à une loi normale réduite. De plus, l’estimation des paramètres des
courbes est basée sur une approximation de p-quantiles de l’échantillon des observations. Cette
approche est généralement plus fiable que les méthodes basées sur les moments comme celle
proposée par Clements.
Présentation des courbes de Johnson

Johnson a proposé trois courbes pour décrire différents types de distributions. Chacune d’elles peut
être transformée (approximativement) en une loi normale réduite.
Les fonctions k1, k2 et k3 sont à la base des transformations de variables que l’on opère pour
ramener la distribution d’une variable, décrite par une loi de Johnson, à une loi normale réduite.

· Ces courbes sont définies sur un intervalle non borné


x−e
k 1  x , λ , e  =sinh−1
λ   (l’ensemble des réels).

· k 2  x , λ , e  =ln  
x−e
λe−x
Au contraire cette équation décrit des distributions qui sont
définies sur un intervalle ouvert ]e,e+l[.

· k 3  x , λ , e  =ln  x−e
λ
Les dernières courbes sont de type log-normal et trouveront
leur application pour des critères unilimites comme les
défauts de forme.

Choix de la famille de courbes

Slifker et Shapiro [Sli 80]35 ont introduit une méthode basée sur l’approximation de p-quantiles afin
de déterminer quelle est la courbe la plus à même de décrire la distribution de la population.

La première étape de cette méthode consiste à choisir une valeur z et calculer les valeurs de la
fonction de répartition de la variable N(0,1) en -3z, -z, z, 3z.
Les auteurs proposent de prendre z = 0.524.

D’où P-3z = P-1.572 = 0.058


P-z = P-0.524 = 0.3
Pz = P0.524 = 0.7
P3z = P1.572 = 0.942

On estime ensuite les p-quantiles de la population correspondant aux probabilités précédentes. Ceci
peut être fait à l’aide d’un échantillon ordonné comme le fait Castagliola pour la construction des
courbes de Burr.
A l’aide des p-quantiles que l’on note x-3z, x-z, xz, x3z, on calcule les coefficients m, n et p, qui
permettront de choisir la famille de courbes.

m = x-3z - x-z n = x-z - xz p = xz - x3z

35
SLIFKER J. F. SHAPIRO S. S. The Johnson System : Selection and parameter estimation
Technometrics - Vol 22 N°2 - pp239-246 - 1980
On distingue trois cas :

mn/p2 < 1 mn/p2 = 1 mn/p2 > 1


Courbe Bornée k2 Courbe Log-normale k3 Courbe non bornée k1

Le type de courbe étant déterminé, on estime les paramètres de la loi en appliquant les équations
ayant pour variables m, n et p. Pour plus de précision, on trouvera l’ensemble de ces équations en
Annexe Mathématique (§1).

Calcul de la dispersion et des indicateurs de capabilité.

Pour calculer la dispersion de la distribution de la population, modélisée par une courbe de Johnson,
on prend les p-quantiles de la loi normale réduite délimitant 99.73% de la population, c’est à dire -3
et 3.
On applique une transformation qui permet alors de reporter les p-quantiles qui délimitent la
dispersion sur la courbe de Johnson.

Trois transformations existent selon le type de loi choisi.

· Courbes non bornées x=e−λ⋅sinh   g−z


h

[  ]
−1
g −z
· Courbes bornées x=eλ 1exp
h

· Courbes Log-normales x=eλ⋅exp  


z−g
h

Les indicateurs de capabilité se calculent en reprenant les formules utilisées pour la méthode de
Clements. Johnson propose lui aussi de suivre la tendance centrale de la population à l’aide de la
médiane.

Critique des méthodes

Les différentes méthodes proposées dans ce paragraphe sont basées sur le principe d’approximation
de la distribution de la population par une famille de courbes paramétriques.
Pour estimer les paramètres de ces lois on distingue deux approches : l’une basée sur un calcul de
moments de la population tandis que l’autre utilise une approximation de p-quantiles de la
population. Ces dernières sont, selon Farnum [Far 97]36, beaucoup plus fiables que celles utilisant
les moments. Cependant, il faut souligner que les méthodes utilisant les p-quantiles ne donnent des
résultats vraiment fiables que pour des échantillons de taille respectable (de l’ordre de 100).

36
FARNUM R.N. Using Johnson curves to describe non-normal process data
Quality engineering 9(2) 329-336 - 1997
Bien que ces méthodes revêtent un caractère général, elles n’en sont pas moins limitées par le type
de courbes qu’elles utilisent. En effet les courbes de Pearson ne peuvent décrire que des
populations dont la distribution est unimodale. Les courbes de Burr en revanche permettent de
décrire des distributions un peu plus complexes comme les lois multimodales. Cette propriété nous
semble particulièrement intéressante car bon nombre d’applications industrielles génèrent des lois
multimodales ; les couples de serrages par exemple [Gui 97]. Pour leur part, les lois de Johnson
présentent la particularité de décrire des lois définies sur un support borné. Le cadre d’application
nous semble ici moins évident mais on peut imaginer que des distributions soient tronquées pour
des raisons physiques.
Les spécificités de chacune des méthodes proposées exigent donc que l’utilisateur ait une « petite
idée » a priori de la distribution de la population.

Plusieurs auteurs comme Franklin et Wasserman se sont affranchis de ces problèmes de


modélisation en proposant des méthodes non paramétriques.

Approches non paramétriques

Méthodes bootstrap

Les méthodes bootstrap ont une approche totalement différente de celles présentées auparavant
puisque leur objectif n’est pas de modéliser au mieux la distribution de la population pour estimer
sa dispersion. Ce sont des méthodes d’estimation non paramétriques basées sur un
rééchantillonnage de l’échantillon original nécessaire à l’estimation des indicateurs de capabilité.
Les premiers travaux furent présentés par Efron B.[Efr 79]37, puis Efron & al [Efr 83] [Efr 86]
développèrent trois types d’algorithmes bootstrap. Ces méthodes, qui permettent de construire un
intervalle de confiance pour la statistique étudiée, sont respectivement le bootstrap standard ou naïf,
le bootstrap par les p-quantiles et le bootstrap à biais corrigé par les p-quantiles.
Ces différents algorithmes ont été étudiés par Franklin L.A. & Wasserman G.S. [Fra 91]38 [Fra 92]39
pour la construction d’intervalles de confiance pour les indicateurs de capabilité Cp Cpk et Cpm.

37
EFRON B. Bootstrap Methods :Another look at the Jackknife - Annals of Statistics - N°7 - pp1-26 - 1979
38
FRANKLIN L.A.& WASSERMAN G.S. Bootstrap Confidence Interval estimates of Cpk : An introduction
Communications in Statistics - Simulation and Computation - N°20 - pp231-242 - 1991
39
FRANKLIN L.A.& WASSERMAN G.S. - Bootsrap Lower confidence limits for capability Indices
Journal of Quality Technology Vol 24 N° 4 - 1992
La méthode de calcul

On note x 1 , x 2 , L , x n un échantillon de taille n prélevé sur le procédé pour calculer les indicateurs
de capabilité du procédé. On appelle échantillon bootstrap, un échantillon x 1 , x 2 , L , x n constitué
¿ ¿ ¿

par tirage avec remise dans l’échantillon original. Il est possible de constituer nn échantillons, à
partir d’un échantillon original de taille n. Pour chacun des nn échantillons on calcule les
C p *, C pk∗ou C pm∗¿
statistiques d’intérêt qui sont respectivement des estimateurs du Cp Cpk
¿
ou Cpm.
Efron B conseille de prendre un minimum de 1000 échantillons bootstrap.

L’objectif étant de démontrer le bien fondé de ces méthodes, nous nous contenterons d’en donner
un rapide aperçu. Nous commenterons ensuite les résultats obtenus par Franklin et Wasserman.

Le Bootstrap standard ou Naïf

L’estimation d’une statistique d’intérêt par la méthode bootstrap consiste dans la plupart des cas à
calculer la moyenne des B réalisations de cette statistique (Eq 0). La statistique bootstrapée, notée

C∗¿ est indifféremment le Cp ou le Cpk.
¿
B
1

C∗¿ ∑ C ∗¿
B i=1  i 
¿
Eq 0

C∗¿
On note Sc* un estimateur de l’écart type de l’estimateur de l’indice de capabilité
¿


B
1
 
2
S c∗¿ ∑ C¿ −C ¿
B−1 i=1  i 

Dans le cas d’un intervalle de confiance bilatéral (1-a) on calcule les limites par la relation
classique.

C ±x 1 −α / 2⋅S ¿c

Où x et un p-quantile de la loi normale réduite pour la probabilité p=1-a/2.


Bootstrap par les p-quantiles

Cette deuxième méthode ne diffère de la première que par le calcul de l’intervalle de confiance. On

C∗¿
la construit à partir des statistiques d’ordre de correspondant aux p-quantiles a/2 et 1-a/2 (Eq
¿
0).

[C  
¿
B α/2

; C ¿B  1−α /2 ]
Eq 0
Cette méthode peut cependant souffrir de biais. Pour remédier à ce problème, une seconde méthode
a été développée. Il s’agit du Bootstrap à biais corrigé par les p-quantiles.

Bootstrap à biais corrigé par les p-quantiles.

Pour détecter un éventuel décentrage de la distribution, on calcule à partir des réalisations



C∗¿
ordonnées de , la probabilité :
¿
p 0 =P  C∗
 ¿ c 


C∗¿
C’est à dire le nombre de statistiques bootstrapées supérieures à , divisé par B.
¿
On calcule alors le p-quantile correspondant pour la loi normale réduite afin de déterminer les
probabilités associées à chacune des limites de l’intervalle de confiance.

x 0 =F −1  p 0  ⇒
{ P L =F  2 x 0 −x 1−α / 2 
P U =F  2 x 0 x 1−α/ 2 

d’où l’intervalle de confiance (Eq 0)

[C ¿
P L⋅B 
; C  P ⋅B 
¿
U ]
Eq 0
Résultats

Les travaux de Franklin et Wasserman ont mis en évidence que la méthode bootstrap naïve était la
plus précise et la plus robuste à la non normalité. En effet, les intervalles de confiance de 95%
construits à partir d’un échantillon de taille n=30, 50 ou 75 sont aussi performants que ceux
calculés dans le cas de la loi normale.
Au delà du calcul d’intervalle de confiance, on retiendra que l’intérêt des méthodes bootstrap est de
pouvoir fournir une estimation de bonne qualité d’une statistique quand on a un nombre réduit
d’observations. Cela peut s’avérer intéressant pour les indicateurs de capabilité ainsi que d’autres
statistiques telles que des estimateurs de dispersion (S).
L’étude réalisée par Franklin et Wasserman ne concerne que la robustesse des intervalles de
confiance à la non normalité. On regrette en effet que les indicateurs Cp et Cpk utilisés soient ceux
définis dans le cas d’une loi normale. La dispersion n’est plus dans ce cas, conforme à sa définition
sous l’hypothèse de normalité (99.73% de la population).
Les cartes de contrôle

Le problème lié à l’utilisation de cartes de contrôle dans un contexte de non normalité, reste encore
relativement peu abordé dans la littérature scientifique. La première raison qui peut expliquer ce
phénomène est la relative robustesse des cartes de contrôle à la non normalité. En effet, lorsque la
population est faiblement dissymétrique, la moyenne, utilisée pour estimer la position du procédé,
reste distribuée selon une loi normale. Cependant cette robustesse est très limitée du fait de la faible
taille des prélèvements. De plus cette relative « immunité » à la non normalité n’est pas valable
pour les cartes aux valeurs individuelles ou encore pour les cartes utilisant d’autres estimateurs que
la moyenne : la médiane par exemple.
La seconde raison, qui peut expliquer ce manque d’enthousiasme pour l’étude des cartes de
contrôle dans une situation non normale, est la ressemblance du problème avec celui du calcul des
indicateurs de capabilité lorsque la population est non normale.
Une méthode pour calculer les limites de contrôle d’une carte X  , proposée par Yourstone, utilise
d’ailleurs les courbes de Burr pour modéliser la fonction de répartition des moyennes. Des
méthodes équivalentes sont tout à fait envisageables avec les courbes de Johnson ou Pearson.

Méthodes fondées sur une famille de lois

Construction d’une carte à partir des lois de Burr

Les cartes de contrôle de type Shewhart sont construites en posant l’hypothèse de normalité de la
distribution des moyennes. Cette hypothèse bien que très forte, peut ne pas être valable si la
population est fortement non normale. Dans ce cas, les limites de contrôle placées à ±3 s de la
cible ne garantissent plus des risques statistiques de l’ordre de 0.27%. Partant de ce constat,
Yourstone [You 92]40 a proposé une méthode de construction de carte de contrôle basée sur la
famille de lois de Burr. L’objectif de cette méthode est de conserver le niveau de risque a proche de
0.27% quelle que soit la distribution de population.

Le problème de modélisation de la distribution de la moyenne pour fixer les limites de contrôle, est
beaucoup moins complexe que dans le cas des capabilités car la distribution des moyennes bien
qu’occasionnellement non normale possède une forte tendance centrale, et les distributions
considérées sont dans la plupart des cas unimodales (sauf si les mesures d’un échantillon ne sont
pas identiquement distribuées).
Contrairement à Castagliola qui construit la loi de Burr à partir d’une estimation des p-quantiles de
la population, Yourstone se base sur les moments.

40
YOURSTONE Steven A. & ZIMMER W.J. Non normality and the design of control charts for averages
Decision Science Vol 23 N°5 pp 1099-1113 - 1992
Lorsque la distribution des moyennes ne peut être modélisée par une distribution normale, deux
alternatives se présentent à l’utilisateur de cartes de contrôle :

La première solution consiste à transformer les valeurs individuelles de telle manière que la
variable obtenue soit distribuée selon une loi normale. L’inconvénient d’une telle méthode est lié à
la difficulté de déterminer et de justifier la transformation appropriée.
Une autre alternative consiste à modifier les limites de contrôle de la carte. Cette approche a
l'avantage de ne pas modifier les données de base. De plus, la modification des limites semble plus
simple à effectuer et à justifier. Une manière de modifier les limites est de procéder au calcul des
probabilités. Cela requiert que l'on connaisse la forme de la distribution des moyennes ou qu'on
l'approche précisément. Burr a développé une fonction algébrique qui a la propriété de décrire un
nombre important de distributions. Celle-ci peut-être utilisée pour déterminer les limites
dissymétriques de la carte.

La distribution de BURR

La distribution de BURR généralisée est utilisée pour déterminer les limites non symétriques de la
carte de contrôle. La fonction de répartition de la distribution de BURR est définie par :

[
F y  y = 1−
1
 1 y c 
k
] y0

F y  y =0 y≤0

y donc est une variable aléatoire dépendant deux paramètres positifs c et k.

Cas particuliers (Voir Figure 29) :


c = 4.85437 et k = 6.22665 décrit une loi normale N(0 ; 1)
c=3 et k=6 décrit une loi gamma de paramètre a=16

Fonctions de répartition de Burr


1

0.8

0.6
F(y)

0.4

0.2
y
0
0 0.2 0.4 0.6 0.8 1 1.2
Loi Gamma Loi Normal

Figure 29
Détermination des paramètres de la loi de Burr

Comme toute approche statistique, la construction d’une carte de contrôle nécessite une analyse
préliminaire du procédé. On utilise un minimum de 50 valeurs individuelles pour déterminer X 
ainsi que les coefficients de Skewness et de Kurtosis (Eq 0) de la population.
N N
1
1
N
∑   3
X i− X
N
∑  X i − X 
4

i=1 i=1
α3= α4 =

[ ] [ ]
3 N 2
N
1
∑  X i − X 
2
1
∑  X i − X 
N i=1
2 2

N i=1

Eq 0

Il est évident que deux distributions ayant les quatre premiers moments identiques ne sont pas
nécessairement identiques, cependant il est raisonnable de penser qu'il n'y aura pas de différence
d’un point de vue pratique.

On déduit des équations (Eq 0) la valeur des coefficients de Skewness et de Kurtosis de la


distribution des moyennes [Sap 78]41.

α3 α4 −3
α 3 X = α 4 X = 3
1
n
n2

A partir des tables de BURR [Bur 67]42 et des coefficients α 3 X et α 4 X , on détermine les
 .
coefficients c et k de la loi de Burr représentant la distribution de X

Développement de la carte de contrôle non symétrique

A partir du modèle mathématique que constitue la loi de Burr, on peut estimer la forme des queues
de la distribution de la moyenne, et donc calculer les limites de contrôle assurant un certain niveau
de risque à gauche et à droite de la distribution.
La fonction de répartition inverse d’une distribution de Burr définie par la relation (Eq 0) :

[ ]
1
1
− c
Y =  1−P  k −1
Eq 0

est utilisée pour déterminer les p-quantiles x 0,00135 et x 0,99865 nécessaires au calcul des limites de
contrôle.

41
SAPORTA G. Théorie et Méthodes de la Statistique - Technip - 1978
42
BURR, I. W. The effect of Non-Normality on constants for X and R charts
Industrial Quality Control, Vol. 23, N°11, pp563-568 Mai 1967
On note Y une variable aléatoire distribuée selon la loi de Burr caractérisée par les coefficients k, c,
M et S. Les variables réduites de loi de Burr et de la distribution de la moyenne sont alors égales.

Y −M X −m
=
S s/n

m et s étant respectivement la moyenne et l’écart type de la population.

D’où le changement de variable :


 = s /  n⋅ Y −M  m
X
S

Il suffit alors de substituer Y par les p-quantiles issus de la fonction de répartition inverse d’une
distribution de Burr (Eq 0) pour connaître les limites de la carte de contrôle de type Shewhart (Eq
0).

[   ] ¿ Ss  n
1
1
− c
LIC =m− M −  1−Pi  −1 k

[   −M ]⋅Ss  n
1
1
− c
LSC =m 1−Ps  −1 k

Eq 0

Conclusion

La démarche proposée par Yourstone présente l’avantage de fournir un cadre rigoureux pour la
détermination des limites de contrôle. Cet avantage est incontestable quand on sait que les limites
de contrôle sont systématiquement placées à ±3s de l’estimateur considéré. Il faut aussi souligner
que cette méthode n’exige pas un nombre excessif d’observations pour déterminer les limites de
contrôle. L’auteur suggère en effet d’utiliser au minimum 50 observations pour calculer les
coefficients de Kurtosis et de Skewness de la distribution de la moyenne.
Cependant comme le fait remarquer Rodriguez [Rod 92]43 les méthodes basées sur les moments
peuvent donner des résultats instables. C’est pourquoi il est très hasardeux de vouloir trop réduire le
nombre d’observations.

D’autres approches sensiblement équivalentes s’appuient sur une identification de la distribution de


la moyenne par la loi de Weibull ou Log-normale [Sch 96]44. On peut effectivement utiliser
d’autres réseaux de courbes comme les lois de Pearson ou Johnson présentées au paragraphe
précédent, même si l’utilisation des courbes de Burr nous semble plus générale.

43
RODRIGUEZ R.N. Recent developments in process capability analysis
Journal of Quality Technology Vol 24 N° 4 - 1992
44
SCHNEIDER H. KASPERSKI W.J. & al Control charts for skewed and censored data
Quality engineering 8(2):263-274 - 1996
Cas des populations stratifiées

Méthodes d'échantillonnage

Parmi les procédés permettant d’améliorer la précision des estimations obtenues à partir d’un
échantillonnage aléatoire, on peut retenir la technique de stratification [Gen 74]45 [Ard 95]46. Ces
techniques concernent les populations non homogènes dont on peut isoler les lois élémentaires
(Figure 30). La stratification, préalable à l’échantillonnage, consiste à diviser la population en un
certain nombre de groupes homogènes appelés strates et à tirer indépendamment un échantillon
dans chacune des strates.

Strate
Strate N° 1
N° 3
Strate
N° 2

Figure 30

L’échantillon est alors constitué d’autant de sous-échantillons qu’il y a de strates, chaque sous-
échantillon étant prélevé au hasard dans une strate. De manière générale, on a toujours intérêt à
stratifier une population lorsque cela est possible.

Cette technique n’est bien entendu possible que si les générateurs (ou strates) sont identifiables sur
le procédé étudié. Pour des raisons économiques évidentes, les échantillons prélevés pour les cartes
de contrôle, pour chacune des strates seront de petites tailles et le plus souvent unitaires.

Définition des strates

Le problème essentiel qui conditionne l’efficacité de la méthode est le choix des strates et leur
délimitation. Pour être choisi comme critère de stratification, un caractère statistique quantitatif ou
qualitatif doit être en corrélation étroite avec les variables étudiées. Pour un procédé multi-
empreintes, par exemple, on applique la stratification par empreinte.
L’efficacité de la stratification dépend en effet de l’homogénéité des strates vis à vis de ces
variables.

45
GENET J., PUPION G., REPUSSARD M. Probabilités, Statistiques et sondages - Vuibert - 1974
46
ARDILLY Les techniques de sondage - Technip - 1995
On peut montrer qu’on a intérêt à multiplier le nombre de strates pour accroître la précision de
l’estimation. On reste néanmoins limité par la nécessité de tirer au moins un échantillon (même
unitaire) par strate.
La stratification permet d’améliorer considérablement la précision des estimations, d’autant qu’il
est possible de déterminer une répartition optimum des échantillons entre les différentes strates.
Dans le cas où le taux de sondage est uniforme entre les strates, l’échantillon est appelé échantillon
stratifié représentatif. Ce type d’échantillonnage n’offre pas un gain de précision aussi important
que si le taux de sondage par classe est optimisé.

Répartition optimum de l’échantillon entre les strates

L’objectif de cet échantillonnage est de répartir entre les différentes strates l’échantillon, dont
l’effectif global n est fixé. Cette répartition est faite de façon à obtenir la meilleure estimation
possible.

Il s’agit de déterminer les tailles n1, n2, ..., nk des échantillons dans les différentes strates, pour
lesquelles la variance de l’estimateur est minimum avec la condition :
k
∑ nh=n
h=1

Ceci revient à rechercher le minimum de l’expression.

 
k
W  n1 , . . . , n =V  x ' λ⋅ ∑ nh −1 où l est le multiplicateur de Lagrange
k
h=1

Pour obtenir la meilleure estimation possible, le taux de sondage dans chaque strate doit donc être
proportionnel à l’écart-type dans la strate de la variable étudiée.
La valeur du coefficient de proportionnalité est déterminé par la relation (Eq 0) :

n
K= k
∑ N h sh
h=1

Eq 0

Cet échantillon est appelé échantillon de Neyman.


D’un point de vu pratique, il semble difficile d’appliquer un tel échantillonnage sur un procédé de
fabrication. Cela voudrait supposer que la dispersion sur chacun des générateurs est parfaitement
connue et n’évolue pas dans le temps.
Estimation de la moyenne de la population

Une fois l’échantillonnage effectué dans chacune des strates, on peut estimer la moyenne de la
population en appliquant la relation (Eq 0).

k n
1 Nh h
x ' =
N
∑ ∑x
n h i=1 hi
h=1

Eq 0

avec
N l’effectif total
Nh l’effectif de la strate h
nh la taille de l’échantillon de la strate h
k nombre de strates

Dans le cas d’un échantillon stratifié représentatif la relation se résume à la moyenne des
échantillons (Eq 0).

k nh k nh
Nh 1
x ' = ∑ ⋅
N N
∑ x hi = 1n ∑ ∑ x hi
h=1 i=1 h=1 i=1

Eq 0

Nh 1 1
avec ⋅ =
N nh n

Variance de l’estimateur de la moyenne

L’expression générale de la variance de l’estimateur de la moyenne de la population est donnée par


la relation (Eq 0).

k
N 2h N h−n h s 2h k N 2h N h−n h S h
V  x ' = ∑ ⋅ ⋅ =∑ ⋅ ⋅
h=1 N 2 N h−1 n h h=1 N 2 N h n h
Eq 0
avec
N h −1
s 2h = ⋅S h
Nh
Exemple d’application à un procédé mutigénérateur

On peut montrer au travers d’un exemple numérique qu’il est très avantageux de prélever un
échantillon dans les strates d’une population, plutôt que de procédé à cet échantillonnage de
manière aléatoire.

Prenons l’exemple d’un tour comportant 6 broches. Les 6 broches ont la même dispersion s = 0.2 ;
l’échantillon stratifié représentatif (1 pièce par broche) est aussi l’échantillon de Neyman
On suppose que les différentes strates ont respectivement pour moyenne 10.5 ; 10.1 ; 9.9 ; 10.2 ;
10.5 ; 10.0

La variance de la population s’obtient à partir des relations (Eq 0)

[ ]
k k 2

V [ X ] =E [ X ] −E [ X ] = p ∑   − p ∑ mi
2 2
s i2 mi2
i=1 i=1
1
V [ X ] =0 . 2 2   10. 5 2 10. 1 2 9 . 9 2 10 . 2 2 10 . 5 2 10 . 0 2 −10 . 2 2=0 . 0933
6

La variance de la moyenne dans le cas d’un échantillonnage aléatoire de taille n= 6 est donc :
V [X
 ] =V [ X ] / n=0 . 0155

En revanche si l’estimateur est construit à partir d’un échantillon stratifié représentatif, sa variance
est donnée par la relation :

nh= 1 h
sh= 0.2
Nh=N/6 h
k= 6
k
1
d’ou V [X
 ' ]=
36
∑ s h2=0 . 00666
h=1

L’efficacité relative de l’estimateur construit sur un échantillon stratifié représentatif par rapport à
la moyenne est donc :

V [X
 ' ] 0 . 00666
= » 43
V [X
 ] 0 . 01555
Aspect pratiques

Les méthodes de stratification s’appliquent tout particulièrement aux procédés dont la production
peut être décomposée en sous-groupes homogènes. Pour les procédés multigénérateurs la
décomposition est évidente puisque chaque générateur est à l’origine d’une loi élémentaire.

Pour un procédé de type multibroches, on a tout intérêt à prélever une pièce minimum par broche
(comme nous le montre l’exemple ci-dessus), pour constituer l’échantillon stratifié représentatif.
Cette méthode est néanmoins contraignante car elle oblige à prélever des échantillons dont la taille
est multiple du nombre de générateurs. Si le procédé possède un nombre important de générateurs
(machines transferts à tables rotatives 18 postes) il devient difficile de procéder à la stratification de
la population pour des raisons économiques. On lui préfère parfois l’échantillonnage séquentiel qui
consiste à prendre un échantillon par strates consécutives [Pil 97a]47. Même si on n’a pas un
échantillon minimum par strate, cette technique permet de réduire de manière significative la
variance des estimations de la moyenne. Dans le cas particulier où la taille d’échantillon est égale
au nombre de générateurs, on a un échantillon stratifié représentatif.
On peut également prélever systématiquement les échantillons dans les mêmes strates. Cela permet
de réduire la taille des échantillons, ou tout au moins de ne pas être contraint à prendre une taille
d’échantillon égale au nombre de générateurs. Cette démarche permet d’obtenir une variance
inférieure à celle d’un échantillonnage séquentiel mais a l’inconvénient majeur d’être biaisée.

Cartes de contrôle pour les populations stratifiées

Lorsque l’on rencontre une population stratifiée, celle ci a très souvent pour origine un procédé
multigénérateur. Le suivi de procédés multigénérateurs est assez complexe car il nécessite que l’on
détecte à la fois les dérives de l’ensemble du procédé et les dérives d’un seul générateur.
Montgomery propose dans son ouvrage [Mon 91]48 l’utilisation de cartes de contrôles spécifiques
pour le contrôle statistique de ces procédés.

Il propose d’utiliser deux cartes de contrôle pour effectuer le suivi d’un procédé multigénérateur.
L’une pour la détection de causes spéciales qui affectent l’ensemble des générateurs, et l’autre pour
les causes spéciales qui n’occasionnent le décentrage que d’un générateur ou un ensemble de
générateurs.

Pour détecter un décentrage du procédé dans sa globalité, on prélève un échantillon de taille n par
générateur, la moyenne maxi et la moyenne mini sont reportées sur une carte de contrôle. Si les
deux points sont sous contrôle, c’est qu’a fortiori les autres générateurs sont sous contrôle. Les
limites de cette carte de contrôle sont basées sur l’écart-type de la moyenne des échantillons
prélevés sur chaque générateur.

47
PILLET M. DUCLOS E. Optimisation de la taille des échantillons dans le cas des systèmes multigénérateurs -
Revue Pratique de Contrôle Industriel - N° 203 - Février 97
48
MONGOMERY Douglas C. Introduction to Statistical Quality Control - Wiley & Sons 2nd edition 1991
Pour détecter la dérive d’un générateur par rapport aux autres générateurs, on reporte sur une
seconde carte quel est le générateur dont la moyenne est maxi ou mini. Si la moyenne des
échantillons sur un générateur est plusieurs fois consécutives supérieure ou inférieure à celle des
autres générateurs, alors on peut considérer que ce générateur est hors contrôle.

La période opérationnelle (P.O.M.) de cette deuxième carte est donnée par :


g r −1 où g est le nombre de générateurs et r le nombre de fois consécutives ou un
POM 1=
g −1
générateur prend une valeur extrême.

 3 s 
LSC = X
LSC X

 −3 s 
LIC = X
LIC X

S max
ou
R max

Max 1 3 3 7 7 7 7 7 2 5 4 2
Min 5 6 1 5 6 3 5 6 6 1 5 5
Détection de la dérive du
générateur 7

Un inconvénient majeur de ce type de carte est sa faible efficacité lorsque la variance globale du
procédé est très grande par rapport à celle de chaque générateur.
En effet, si on considère
· Ytj une variable aléatoire représentant les mesures sur un générateur j à l’instant t,
· m la moyenne du procédé ou la cible,
· At une variable aléatoire de moyenne nulle, et de variance sa2 qui représente la différence entre
les moyennes des générateurs à l’instant t et m,
· etj une variable aléatoire de moyenne nulle et de variance s2 qui représente les variations du
générateur j à l’instant t.
Alors on peut modéliser la moyenne d’un échantillon de taille n, prélevé sur un générateur par la
relation suivante :

Y tj =m At e tj

En conséquence, la variance de la moyenne des échantillons prélevés sur un générateur est sa2+s2/n
 2
et les limites d’une carte de contrôle de Montgomery sont, dans ce cas, placées à m±3 s 2 s / n
a
. Si l’on considère s très supérieur à s alors une évolution de s ne sera pas détectable.
a
2 2 2
R.R. Mortell et G. C. Runger [Mor 95]49 ont proposé une alternative à cette méthode en suivant
d’autres variables. Deux cartes sont également utilisées pour suivre les procédés multigénérateurs.
Une carte de contrôle pour détecter les dérives de l’ensemble des générateurs et une deuxième carte
pour déceler les dérives d’un générateur par rapport aux autres.

La première carte est une simple carte de Shewhart sur laquelle on reporte la moyenne de
l’ensemble des générateurs. Les échantillons sont la plupart du temps unitaires sur chacun des
générateurs.

La seconde carte, utilisée pour détecter les dérives d’un générateur, est également constituée d’une
carte de type Shewhart ou CUSUM. Afin d’éliminer l’effet des causes spéciales sur l’ensemble des
générateurs, on soustrait à la moyenne de chaque échantillon (prélevé sur un générateur donné), la
moyenne des échantillons de l’ensemble des générateurs à un instant donné. Ces grandeurs, aussi
appelées résidus, sont insensibles à l’autocorrélation de At et permettent par conséquent de dissocier
les causes spéciales qui influent sur un ou plusieurs générateurs, de celles qui agissent sur
l’ensemble des générateurs. Les limites de contrôle d’une telle carte sont placées à ±3 s /  n .

Une autre alternative pour détecter d’éventuelles dérives d’un générateur est de suivre l’étendue
entre la moyenne des échantillons prélevés sur chaque générateur à un instant t.
Cette variable notée R t =max  Y tj  −min  Y tj  peut être suivie à l’aide d’une carte de Shewhart ou
j j
une carte CUSUM. Cette procédure présente l’avantage sur la précédente de ne reporter qu’une
seule variable sur la carte de contrôle, quel que soit le nombre de générateurs du procédé de
fabrication.

Conclusion
Le cadre d’application des cartes de contrôle de Mortell R. et de Montgomery D. sont les procédés
multigénérateurs pour lesquels la production d’un générateur peut être isolée. Ces cartes présentent
donc l’intérêt de fournir une information synthétique sur l’évolution du procédé. Elle permettent en
effet de dissocier les évolutions communes à l’ensemble des générateurs de celles limitées à un
générateur.
Cette approche multivariée nécessite donc que l’on prélève au moins une observation par
générateur comme il a été suggéré au paragraphe précédent. Ceci entraîne donc un coût élevé de
prélèvement.

49
MORTEL R.R. & RUNGE G.C. Startistical Process Control of Multiple Stream Process
Journal of Quality Technology Vol 27 N° 1 - 1995
Une approche non paramétrique

L’estimateur de Hodges Lehmann

Ce n’est que très récemment que l’on s’est intéressé aux méthodes d’estimations non paramétriques
pour les appliquer aux cartes de contrôle.
Alloway et Raghavachi [All 91]50 ont proposé une carte de contrôle utilisant l’estimateur de
Hodges-Lehmann pour remplacer la carte X  . L’estimateur de Hodges-Lehmann possède la
caractéristique essentielle d’offrir une grande tolérance aux valeurs extrêmes. De plus, il ne postule
aucune loi a priori.

Présentation de l’estimateur de Hodges-Lehmann

Nous nous plaçons tout d’abord dans le cas d’un modèle non paramétrique de localisation. On
considère une variable aléatoire X telle que X-q a une fonction de répartition F vérifiant F(0) = ½.
Le paramètre de localisation q est la médiane.
L’estimateur de Hodges-Lehmann, associé aux statistiques de rang signées de Wilcoxon permet de
résoudre le problème de test suivant :

{ H 0 : q=0
H 1 : q¹0

Sous l’hypothèse H0, la loi de l’estimateur de Hodges-Lehmann est symétrique par rapport à son
espérance.
On construit l’estimateur de Hodges-Lehmann de la manière suivante :
· Pour chaque échantillon de taille n, on calcule les M=n(n+1)/2 moyennes de Walsh définies par :
X X j
W i , j= i avec 1 ≤i≤ j≤n
2

· On ordonne les moyennes de Walsh : W  i ,1  ≤W  i ,2  ≤ L≤W  i , M  Où W(i,k) est la statistique


d’ordre k des moyennes de Walsh ordonnées de l’échantillon i.

L’estimateur de Hodges Lehmann est alors défini par (Eq 0) :

q =md iane  W  i ,1  , W  i ,2  , L , W  i , M  
Eq 0

50
ALLOWAY J. A. RAGHAVACHI M. Control charts based on the Hodges-Lehmann Estimator
Journal of Quality Technology - N°23 - pp336-347 - 1991
Si M est impair q =W i ,  M 1
2 
W W M
Si M est pair
q =
 
i,
M
2  i,
2
1 
2

Si la population est symétrique par rapport à la médiane q, alors q est distribué symétriquement
par rapport à q. De plus q est un estimateur non biaisé de q (quand les moments de X existent) et
équivariant par translation.

Les limites de contrôle


Les limites de contrôle de la carte de Hodges-Lehmann sont calculées expérimentalement à partir
de m échantillons de taille n.

LIC =md iane  W  1, k  , W  2, k  , K , W  m , k  


LSC =md iane  W  1, M −k 1  , W  2, M −k 1  , K , W  m , M −k 1  

L’ordre k des moyennes de Walsh est déterminé à l’aide de la relation suivante :

P [ W  i , k  qW  i , M −k 1  ] » 1−α

Cette relation fait appel aux statistiques de rang signées de Wilcoxon. Seul un nombre limité des
tests d’hypothèse sont réalisables puisque les statistiques de rang signées de Wilcoxon sont
discrètes. On trouve par exemple pour un échantillon de taille n= 8 et pour k=2 que l’intervalle de
confiance est de 98.4%, ce qui semble tout à fait acceptable pour une application SPC.

Les performances de la carte de contrôle de Hodges-Lehmann

Alloway et Raghavachi ont mis en évidence que la taille d’un échantillon ne devait pas être
inférieure à n=10 de manière à obtenir des risques a de l’ordre de 0.27%.
Si on prend les moyennes de Walsh extrêmes, pour un échantillon de taille 10, on montre que
99.8% de la population est entre les limites de la carte. Ainsi la Période Opérationnelle Moyenne
théorique pour un procédé centré (POM0=1/a) est de l’ordre de 500.
Les résultats de simulation de E. Pappanastos & Adams [Pap 96]51 montrent que les limites de la
carte de Hodges-Lehmann basées sur les distribution de Wilcoxon fournissent une POM0 nettement
supérieure à la POM théorique.

51
PAPPANASTOS E.A. & ADAMS B.M. Alternative Designs of Hodges-Lehmann Control Chart
Journal of Quality Technology Vol 28 N°2 - 1996
Comparaison entre la carte de Shewhart et la carte de Hodges-Lehmann

m−m0
On note d = le décentrage du procédé. Pappanastos & Adams ont comparés la POM des
s
cartes de Shewhart et de Hodges-Lehmann pour différentes valeurs du décentrage d et des
échantillons d’effectif n=10.

d 0 0.25 0.50 0.75 1



POM X 494.62 108.42 16.54 4.43 1.86
POM HL 20820.89 8317.32 7926.39 7710.20 7732.00

On peut conclure aisément en se référant au tableau ci-dessus que la carte de Hodges-Lehmann


n’est absolument pas sensible aux décentrages du procédé.

D’autres méthodes de calcul des limites de contrôle ont été proposées par E. Pappanastos. Il s’agit
notamment de construire les limites de contrôle à partir d’une équation de la forme : q ¿±C2 ¿  S2 .
où q ¿ est la médiane des estimations précédentes q1 , q2 , ... , qm .
S2 est la moyenne des variances des échantillons.
Le coefficient C2* est choisi pour fournir la POM0 souhaitée.

Cette alternative (HL*) permet de rendre la carte de contrôle Hodges-Lehmann plus sensible aux
décentrages du procédé grâce à des limites de contrôle plus resserrées.
Malgré cet accroissement de sensibilité, la carte de contrôle de Shewhart reste beaucoup plus
sensible que la carte de Hodges-Lehmann à un décentrage du procédé. Ceci a pu être constaté pour
plusieurs types de distributions : loi normale, loi uniforme et double exponentielle (Figure 31).

d 0.00 0.25 0.50 0.75 1.00


Distribution normale

X 366.78 89.33 14.63 4.02 1.82
HL* 373 107.4 18.01 4.74 2.05
Distribution uniforme

X 198.79 48.60 9.00 2.95 1.58
HL* 158.37 56.56 13.48 4.49 2.07
Distribution double exponentielle

X 293.66 96.85 18.17 4.79 1.98
HL* 672.56 197.04 31.24 6.41 2.11
Figure 31
Critique des résultats

Papanastos et Adams concluent à la suite de ces résultats que l’utilisation de cartes de contrôle
mettant en œuvre l’estimateur de Hodges-Lehmann pour un paramètre de localisation, n’est
absolument pas viable.
Même si leur conclusion peut s’avérer juste dans bon nombre de cas, il faut garder à l’esprit que
l’estimateur de Hodges-Lehmann a une variance asymptotique inférieure à celle de la moyenne
pour les lois à tendance leptokurtique. Ce résultat n’est a priori pas surprenant car la médiane a de
très bonnes performances lorsque la distribution de la population est de nature leptokurtique.

Un théorème énonce d’ailleurs les propriétés d’efficacité relative asymptotique de l’estimateur de


Hodges-Lehmann pour les lois fortement unimodales [Cap 88].

V X
0 . 864≤ERA  q , X
 = 3
V  q 

L’idée de loi fortement unimodale est assez vague. Elle concerne en fait toutes les lois dont le poids
des queues est compris entre la loi uniforme U[-1,1] et la loi de Dirichlet De(0,1) selon le critère
de Van Zwet [Van 64]52. Ce critère permet de classifier les lois selon le poids de leurs queues.

Si l’on interprète ce théorème, on s’aperçoit que la variance de la moyenne est légèrement


inférieure à celle de l’estimateur de Hodges-Lehmann lorsque la loi est proche d’une loi uniforme.
Au contraire celle-ci devient nettement supérieure quand la loi tend vers une loi de Dirichlet.

 et HL* de la
On retrouve ces résultats en examinant les périodes opérationnelles des cartes X
Figure 31. Les limites ayant été placées systématiquement à ±3 s /  n , on peut constater que la
POM0 de l’estimateur de Hodges-Lehmann est plus faible que celle de la moyenne pour la loi
normale. La variance de l’estimateur de Hodges-Lehmann est donc bien supérieure à celle de la
moyenne. On note au contraire que la POM0 est très nettement supérieure lorsque l’on est dans le
cas de la loi double exponentielle.

L’estimateur de Hodges-Lehmann n’est donc pas si inintéressant que Pappanastos le prétend. Il


suffirait d’ajuster convenablement les limites de contrôle pour avoir une meilleure Période
Opérationnelle Moyenne.
Un point important sur lequel les auteurs ne se sont pas trompés, concerne l’applicabilité de la carte
HL. En effet nous avons vu que les caractéristiques de l’estimateur de Hodges-Lehmann étaient
particulièrement intéressantes pour des lois à tendance leptokurtiques, mais qu’en revanche elles
étaient médiocres pour des lois platikurtiques.

En outre, on peut se demander si les objectifs visés ne sont pas contradictoires. En effet, en
appliquant l’estimateur de Hodges-Lehmann à la M.S.P, on cherche à détecter des évolutions de la
population avec un estimateur qui se caractérise par une très grande robustesse ; donc une faible
sensibilité aux évolutions.

52
VAN ZWET W. R. Convex Transformations of Random Variables- Mathematisch Centrum - 1964
Calcul des limites à partir des p-quantiles empiriques d’un échantillon ordonné

Une autre approche proposée par Willemain et Runger [Wil 96]53 consiste à construire les limites
d’une carte de contrôle en estimant les p-quantiles de la distribution de la variable reportée sur la
carte, à partir d’un échantillon ordonné. Cette méthode permet de construire un intervalle de
confiance indépendamment de la distribution des variables considérées (Distribution-free tolerance
intervals) [Wil 62]54.

Les auteurs proposent d’étudier m réalisations d’une variable aléatoire Yi , 1 ≤i≤m


Cette variable aléatoire Yi est celle reportée sur la carte de contrôle dont on cherche à calculer les
limites ; c’est aussi bien une observation individuelle que la moyenne ou l’étendue d’un
échantillon. Les Yi sont supposés indépendants et identiquement distribués.

Pour réaliser le calcul des limites de contrôle on supposera une période d’étude du procédé,
préliminaire au pilotage. Lors de cette période, le procédé doit être stable pour que les informations
collectées soient représentatives de la distribution de la population.

On note y(k) la statistique d’ordre k de l’échantillon de taille m. Par convention


y  0  =-¥ et y  m1  =+¥
Les m statistiques d’ordre divisent l’espace des réalisations de Y en m+1 « blocs statistiquement
équivalents ».

y (1) y (2) .... y (m-1) y (m) y

Figure 32

On note P la probabilité qu’une réalisation de Y tombe entre les limites de l’un de ces blocs (Eq 0).

P=Pr [ y  k  ≤Y ≤ y  k b  ]=F  y  k b   −F  y  k  
Eq 0

53
WILLEMAIN Th. R. & RUNGER G. C. Designing Control Charts using an Empirical Reference Distribution -
Journal of Quality Technology Vol 28 N°1 - 1996
54
WILKS S.S. Mathematical statistics - Wiley 1962
Si on place les limites de manière empirique : LIC=Y(k) et LSC = Y(k+b), b étant le nombre de blocs
entre les limites de contrôle.

Alors P est la probabilité qu’un point soit placé entre les limites.
P est une variable aléatoire distribuée selon une loi beta de paramètres b et m (Eq 0).

m! m−b
g  p = ⋅p b−1  1− p  ,0 ≤ p≤1
 b−1  !  m−b  !
Eq 0

On note que g(p) ne dépend pas de f(y) qui est inconnue.


La probabilité qu’un point tombe entre deux limites a pour espérance et pour variance (Eq 0) :
b b  m1−b 
E [ P ]= Var [ P ] =
m1  m1 2  m2 
Eq 0

Analyse de la période opérationnelle

On note R le nombre de tests avant détection d’un point hors contrôle. R suit conditionnellement à
P une loi géométrique de paramètre 1-P telle que E(R/P=p)= 1/(1-p). La période opérationnelle
moyenne est donc une variable aléatoire dépendant de P.

Si on prend des limites de contrôle LSC= y(k+b) et LIC= y(k) la distribution marginale de la POM
est une loi beta inverse (Eq 0) :
b−1
C  POM −1 
h  POM  = POM ³1
POM m1
Eq 0
Dont en déduit l’espérance et la variance de la POM (Eq 0) :

m bm
E [ E  R/ P  ] =E [ POM ] = et Var [ POM ] = 2
m−b  m−b   m−1−b 
Eq 0

On note qu’en choisissant des limites de manière à obtenir la POM souhaitée, cela ne signifie pas
que sa variance sera raisonnable. En effet, pour obtenir des limites avec un bonne précision, il est
nécessaire de prélever un grand nombre d’observation dans la phase préliminaire, comme en
témoigne la Figure 33.
m = nombre d’observation
b = nombre de blocs à l’intérieur

m b E(POM) σ(POM)
741 73 370 370
8890 8866 370 77.1
184 830 184 331 370 16
Figure 33

Quelques restrictions sur la méthode :

Tout d’abord, pour que E[POM] et Var[POM] soient finis, il faut que bm−1 .
Par ailleurs, les auteurs préconisent de laisser au moins trois blocs de part et d’autre des limites de
contrôle pour obtenir des résultats satisfaisants en terme de variance.
De plus, ils montrent qu’il faut prélever au moins 4.E[POM] observations, pour obtenir la POM
souhaitée. Cependant, ceci ne garanti pas que la Variance de la POM sera raisonnable.

Ces différentes restrictions sur la méthode, la rendent difficilement applicable dans le domaine
industriel. En effet le nombre de données requises pour déterminer les limites de contrôle est tout à
fait rédhibitoire. On imagine mal un industriel attendre 50 000 mesures avant de pouvoir piloter son
procédé.
La seule alternative consisterait éventuellement à appliquer cette méthode sur les données d’un
historique de production ou bien sur un procédé pouvant fournir un volume important de données.
D’autre part cette méthode ne traite que les distributions symétriques puisque l’on ne considère que
les paramètres b et m dans le calcul de la POM alors que le paramètre k a aussi beaucoup
d’importance.
Synthèse

Les indicateurs de capabilité

Indicateurs de capabilité pour les procédés non normaux

Les différents outils d’analyse de capabilité présentés dans ce chapitre répondent globalement assez
bien à la demande industrielle dans la mesure où on considère qu’une pièce est bonne quand on est
dans les tolérances. Cependant leur utilisation nécessite un minimum de précautions pour obtenir
des résultats cohérents. En effet, le pari qui consiste à évaluer la dispersion à 99,73% de la
population est particulièrement ambitieux, et chacune de ces méthodes possède un cadre
d’application bien défini, qui si on en sort, peut aboutir à des résultats bien différents de ceux
escomptés.
Nous résumerons les avantages et inconvénients de chacune des méthodes étudiées sous forme d’un
tableau (Figure 36).

Réflexion sur les indicateurs

Deux écoles s’opposent sur la définition des indicateurs de capabilité et notamment sur la définition
de la dispersion :
· La première, dont nous venons d’étudier les travaux adopte une approche qui consiste à
considérer que la notion de capabilité est étroitement liée à celle de pourcentage hors tolérance.
On définit alors la dispersion sur un intervalle contenant 99,73% de la population.
· La seconde école considère au contraire que la dispersion définie sur 6 écart-types de la globalité
des observations fournit une bien meilleure idée du niveau de qualité de la production.

Nous argumenterons et comparerons donc ces deux approches.

Dispersion à 6σ

Prenons par exemple (Figure 34) le cas d’une loi uniforme et d’une loi normale d’écart-types
unitaires avec une tolérance de ± 2. Pour chacune de ces lois, il est possible de calculer le ratio
IT/6s que nous associerons à l’indicateur Cp.
Dans ce cas, on constate qu’une distribution selon une loi normale engendre de l’ordre de 4.5% de
pièces hors tolérances, ce qui se traduit par un Cpk très faible, alors que dans le cas d’une loi
uniforme aucune pièce ne sort des spécifications.
On comprend aisément que pour le fournisseur, cette situation ne soit pas très agréable. En effet,
malgré la conformité aux tolérances, le Cp et le Cpk sont inférieurs à 1 et sa production risque
d’être refusée.

Cp= Cpk= 0.667


IT= 4 IT= 4

s s
2.28% 2.28%

m m
Figure 34

Du point de vue du client, le Cpk étant inférieur à 1.33, il peut selon la norme en vigueur, refuser le
lot ou imposer le tri de la production. Le tri des pièces distribuées selon la loi normale permettra
d’améliorer le Cp. En revanche, celui de la loi uniforme, n’apportera aucune amélioration. Certains
constructeurs comme General Motors préconisent donc un tri de la population avec un calibre
resserré afin que la dispersion (6s) soit suffisamment faible pour garantir un bon Cp.
Ces mesures draconiennes, sont a priori peu économiques car elle rebutent des pièces qui sont dans
l’intervalle de tolérance. Cependant l’objectif qui se résume a fournir des pièces dans les tolérances
n’est pas suffisant pour garantir le niveau de qualité du produit fini. Il faut aussi que la production
soit centrée sur la cote cible.

Dispersion sur 99,73% de la population

Considérons maintenant le cas où les indices de capabilité sont établis en fonction de la l’intervalle
couvrant 99,73% de la population (Figure 35).

Cp= Cpk= 1.33


IT= 4 IT= 4
m m

Dispersion Dispersion
Figure 35
Pour le fournisseur, cette construction des indicateurs Cp et Cpk est beaucoup plus avantageuse. En
effet, une population uniforme a des Cp et Cpk identiques à ceux d’une loi normale ayant la même
dispersion (99,73%). Or le coût de la non qualité au sens de Taguchi est beaucoup plus élevée pour
la loi uniforme que pour la loi normale du fait de la faible concentration des observations autour de
la cible.

Il est évident dans ce cas, que le client « se fait avoir » sur la qualité de la marchandise.
D’autre part, on imagine mal un fournisseur appliquer cette méthode si la distribution de la
population suit une loi a tendance leptokurtique. Dans ce cas, en effet, un Cpk calculé en se basant
sur la définition de la dispersion à 99,73% de la population, est inférieur à un Cpk classique. Alors
pourquoi utiliser une méthode complexe et pénalisante ?

Conclusion

Selon nous, la variance ou l’écart type offrent une définition de la dispersion beaucoup plus
cohérente et beaucoup plus révélatrice de la qualité du produit que celle basée sur les 99,73% de la
population. Les indicateurs de capabilités ainsi utilisés fournissent alors une information plus fidèle
du niveau de qualité de la production.
Par ailleurs, nous pensons que la multiplication des méthodes de calcul des indicateurs de capabilité
est un vecteur de confusion pour les industriels déjà confrontés aux problèmes de méthodologie de
la M.S.P.
Synthèse des indicateurs de capabilité dans le cas de populations non normales
Type Méthode proposée Avantages Inconvénients
d’application
Lois bornées · Loi de défaut de Facilité de mise en place. ü La validité du modèle
forme nécessite une parfaite
· Loi de Rayleigh connaissance du type de
· Loi Log-normale critère étudié.
ü L’éventail des
applications est limité.

Lois non · Lois de Pearson ü La méthode de La modélisation à partir


normales · Lois de Johnson Cléments est de moments ou de p-
unimodales particulièrement simple. quantiles conduisent
ü Les courbes de parfois à des résultats peu
Johnson, offrent un plus fiables. Il est donc
grand nombre de préférable de prélever un
possibilités, bien que plus nombre important
délicates à utiliser d’observations.

Lois unimodales · Courbes de Burr La construction des ü Le nombre


et multimodales courbes de Burr à partir d’observations nécessaire
continues de la fonction de à la modélisation de la
répartition empirique de fonction de répartition
la population permet de empirique peut être élevé.
décrire des distributions ü L’ordre du polynôme
multimodales. peut avoir des
répercussions importantes
sur la représentation de la
fonction de répartition.

Modèle non · Méthode Estimations fiables pour Les méthodes bootstrap


paramétrique Bootstrap un nombre restreint nécessitent des moyens
d’observations. de calcul relativement
La construction d’un puissants.
intervalle de confiance
permet d’exclure les
estimations ponctuelles
aberrantes.
Figure 36
Les cartes de contrôle
La plupart des études portant sur la mise en œuvre de cartes de contrôle, dans le contexte de
procédés non normaux, se focalisent sur le problème d’efficacité du test d’hypothèse. On retiendra,
au gré des publications, deux approches sensiblement équivalentes qui consistent, soit à adapter les
limites de contrôle au type de loi rencontré, soit à transformer la variable représentant le procédé
afin qu’elle soit distribuée selon une loi normale.

Il faut cependant rappeler que les cartes de contrôle ne se limitent pas à une représentation
graphique de tests d’hypothèse. La carte de contrôle est bien entendu un outil de prise de décision
statistique, mais c’est aussi un outil de réglage grâce à l’estimation ponctuelle fournie par la
moyenne ou la médiane. La non normalité de la population a aussi des répercussions sur l’efficacité
des estimateurs. Ce phénomène est d’ailleurs très remarquable dans l’application de la carte de
Hodges-Lehmann, qui est plus performante que la carte de Shewhart pour des populations de type
impulsionnelles.

Synthèse des cartes de contrôle dans le cas de populations non normales


Méthode Cadre d’application Avantages Inconvénients
Détermination des La moyenne des Méthode simple Les méthodes se
limites de contrôle en échantillons suit une Les limites calculées, basant sur les
modélisant la loi non normale. assurent un risque a moments nécessitent
population par une loi de l’ordre de 0,27% souvent un volume
de Burr important de données.

Extraction des Procédés L’échantillonnage Il faut pouvoir isoler


tendances de la multigénérateurs stratifié représentatif la production de
population et des fournit une estimation chacun des
générateurs extrêmes dont la variance est générateurs
proche de la variance
optimale.

Estimateur de Toute loi non normale Modèle non La robustesse de cet


Hodges-Lehmann satisfaisant le modèle paramétrique estimateur est au
non paramétrique de Estimateur plus dépend de sa
localisation. performant que la sensibilité. Ce qui se
moyenne pour les lois caractérise par une
leptokurtiques POM médiocre.

Calcul des limites par Toute loi Méthode utilisable sur Le nombre
les p-quantiles les réalisations de d’échantillon
n’importe quelle nécessaire pour
variable aléatoire. obtenir des limites de
contrôle fiables est
exorbitant

Figure 37
Conclusion
L’aspect applicatif est de loin le plus important pour la M.S.P. On regrette donc que certaines
méthodes soient proposées sans tenir compte des réalités industrielles. On citera par exemple la
méthode non paramétrique de calcul des limites de contrôle à partir des p-quantiles empiriques d’un
échantillon ordonné. Pour que les limites puissent assurer une P.O.M. de 370 par exemple, la
méthode proposée requiert 1500 échantillons. Etant donné la tendance est au raccourcissement des
séries, bon nombre d’entre elles seraient terminées avant que les limites de la carte de contrôle ne
soient établies !
L’aspect applicatif concerne également le nombre d’observations au sein d’un échantillon. En effet,
la taille d’un échantillon revêt une importance économique et pratique qui peut prévaloir par
rapport à l’optimalité des estimations en terme de variance. Dans le cas de procédés
multigénérateurs par exemple, nous savons que la variance des estimations est minimale si l’on
prélève un échantillon de Neyman. Mais peut-on sérieusement penser qu’un industriel prélèvera au
moins une pièce sur chacune des 12 empreintes d'une presse ? C’est en effet illusoire.

Il serait donc particulièrement intéressant d’explorer des méthodes non paramétriques permettant
d’offrir des estimations dont la variance est inférieure à celle de la moyenne quelle que soit la
distribution des observations. Il serait aussi important que la carte de contrôle mise en œuvre, ne
limite pas son application à un type d’échantillonnage particulier.
Chapitre 3

Chapitre 3

Mise en place d’une carte de contrôle pour


les procédés non normaux.

Introduction

La non normalité est un problème important pour l’application de la Maîtrise Statistique des
Procédés, c’est pourquoi ce sujet a été assez largement abordé ces dernières années.
Les approches utilisées pour aborder ce problème sont le plus souvent assez classiques car elles
consistent à adapter les méthodes de la Maîtrise Statistique des Procédés à certains types de non
normalités. Ainsi, l’accent est particulièrement porté sur le calcul des limites de contrôle des cartes,
en vue d’une amélioration de la Période Opérationnelle Moyenne.
En revanche, on s’intéresse assez peu aux performances des estimateurs utilisés. Ainsi on utilise
assez systématiquement la moyenne ou la médiane comme estimateur ponctuel de la position du
procédé. Mais peut-on réellement envisager d’optimiser la P.O.M. d’une carte de contrôle, sans
s’interroger sur les performances de ces estimateurs ponctuels ?
Les caractéristiques essentielles d’un estimateur sont sa justesse et sa précision. Or nous savons que
l’un des inconvénients majeurs des méthodes paramétriques, est de voir leurs performances chuter
lorsque les conditions expérimentales s’éloignent du modèle statistique utilisé (la loi normale par
exemple). Ainsi la moyenne est l’estimateur optimal en terme de variance lorsque la population suit
une loi normale. En revanche la médiane a de bonnes performances pour des lois à tendance
leptokurtiques ou impulsionnelles (Chapitre 2 §1.3.3).
Le second élément à prendre en considération est le choix des paramètres de localisation et
d’échelle de la population. Comment justifier le choix de la médiane plutôt que celui de la
moyenne ? Nous verrons qu’il est possible de justifier ce choix en considérant le coût de la non
qualité au sens de Taguchi.
Tout au long de nos travaux, nous avons tenté de résoudre les différents problèmes liés à
l’optimalité de l’estimateur ponctuel, le choix des paramètres de la population, afin de mettre en
œuvre une méthode générale indépendante du caractère de la population.

Nous proposons dans ce chapitre une nouvelle approche pour la mise en place de la M.S.P. dans le
cas de procédés non normaux. L’originalité du concept que nous proposons, repose essentiellement
sur une approche non paramétrique de l’estimation de paramètres de la population. La carte de
contrôle que nous présentons a l’avantage d’être plus précise et plus sensible aux décentrages du
procédé, que des cartes utilisant la moyenne.

· Dans un premier temps, nous ferons quelques rappels sur la notion de statistiques d’ordre et plus
particulièrement sur les combinaisons linéaires de statistiques d’ordre ou L-statistiques. Après
avoir présenté le L-estimateur des moindres carrés, nous étudierons certaines de ses propriétés
afin de montrer son adéquation au problème d’estimation auquel nous sommes confrontés.
· Dans un second temps nous définirons plusieurs méthodes de mise en place de la « carte L »
(construite à partir du L-estimateur des moindres carrés) selon la richesse de l’information dont
on dispose. Nous déterminerons également le choix des paramètres de la population, en se basant
sur le critère de la perte au sens de Taguchi.
· Enfin nous comparerons les performances de la carte L à celles de cartes de contrôle utilisant la
moyenne comme estimateur ponctuel.
Statistiques d’ordre et L-estimateurs

Les statistiques d’ordre ont joué un rôle prépondérant dans le développement de méthodes robustes
et non paramétriques. On les rencontre de façon assez naturelle et depuis longtemps dans les
problèmes de rejet de valeurs extrêmes, grâce à des estimateurs tels que les moyennes a tronquées.
Nous commencerons, dans ce chapitre, par donner les définitions et quelques propriétés des
statistiques d’ordre, puis nous étudierons les lois exactes et asymptotiques des statistiques d’ordre
et enfin leurs combinaisons linéaires (L-statistiques).

L’objectif de ce paragraphe est de rappeler en quelques lignes les résultats fondamentaux


communément admis. Pour plus de précisions nous invitons le lecteur à se reporter aux ouvrages de
J. P. Lecoutre [Lec 87]55 P. Capéràa & B. Van Cutsem [Cap 88]56 ou encore H. David [Dav 81]57.

Introduction aux statistiques d’ordre

Les statistiques d’ordre

Soient des variables x 1 , x 2 , K , x n que l’on range dans l’ordre croissant et que l’on note
x 1 ≤ x  2  ≤ L≤x  n  . La variable aléatoire X(i) associe à toute réalisation x 1 , x 2 , K , x n est la ième
plus petite valeur de l’échantillon. Cette variable est appelée statistique d’ordre i (i = 1, 2, ...n).

Le sujet des statistiques d’ordre est très vaste car il concerne toutes les fonctions de variables
aléatoires ordonnées. Un exemple très classique de telles fonctions est l’étendue R=x  n  −x  1  très
largement utilisée pour donner une estimation rapide de la dispersion d’une population. Une autre
x =x n
fonction bien connue des utilisateurs de la M.S.P, est la médiane 1  
avec n impair, qui
2
fournit une estimation robuste de la position de la population.

55
LECOUTRE J.P. & TASSI P. Statistique non Paramétrique et Robustesse - Economica - 1987
56
CAPERAA Ph & VAN CUTSEM B Méthodes et modèles en statistiques non paramétriques Exposé fondamental
- Presse de l'université Laval - DUNOD - 1988
57
DAVID H. A. Order Statistics - New York - Willey - 1981
Lois de probabilité associées à une statistique d’ordre

On note F(x) la fonction de répartition de la variable aléatoire X et f(x) sa densité de probabilité. La


fonction de répartition de la statistique d’ordre X(s) est notée Fs(x) et sa densité de probabilité
(marginale) fs(x) (Eq 0).

1 n−s
f s  x = ⋅F s−1  x  [ 1−F  x  ] ⋅f  x 
 s−1  !  n−s  !
Eq 0

Cette expression de fs(x) peut permettre d’établir la loi de distribution de la médiane si on connaît la
fonction de répartition des observations x.

La densité jointe de deux statistiques d’ordre X(i) et X(j) est donnée par la relation (Eq 0).

n! j−i−1 n− j
f ij  x , y  = ⋅F i−1  x ⋅ f  x  [ F  y  −F  x  ] ⋅f  y  [ 1−F  y  ]
 i−1  !  j−i−1  !  n− j  !
Eq 0

A partir de la densité jointe de deux statistiques d’ordre, on peut établir la densité de probabilité de
statistiques d’ordre telles que l’étendue. On trouvera dans l’annexe mathématique le
développement de ce calcul pour une population distribuée selon une loi uniforme.

Moments des statistiques d’ordre

Nous avons vu dans la section précédente qu’il est difficile d’exprimer les lois marginales des
statistiques d’ordre au moyen de fonctions élémentaires. Il en est de même pour les moments exacts
de ces statistiques.

Si une variable X possède un moment d’ordre k, alors pour tout r  {1, ... ,n}, la rème statistique
d’ordre X(r ) possède un moment d’ordre k. Ce moment s’exprime par la relation (Eq 0).
¥
n! n−r
E X
[  r k ] = ∫
 r−1  !  n−r  ! -¥
x k F r−1  x   1−F  x   ⋅dF  x 

Eq 0
Les conditions d’existence de la covariance de deux statistiques d’ordre sont sensiblement
équivalentes à celles des moments d’ordre k. En effet, si l’espérance E[X] de la variable X existe
alors, pour tout couple (r, s) tel que 1 ≤rs≤n , E [ X  r  X  s  ] existe (Eq 0).

n! n−r
E [ X  r  X  s  ]= ∬
 r−1  !  s−r−1  !  n−s  ! x y
xy⋅F r−1  x ⋅ 1−F  x   ⋅dF  x 

Eq 0

Les L-statistiques
Les exemples de la médiane ou encore de l’étendue suggèrent la généralisation de l’utilisation de
combinaisons linéaires des composantes du vecteur des statistiques d’ordre.

Soient X1, X2, ... , Xn un échantillon d’une loi F et X  le vecteur des statistiques d’ordre associé.
Soient c1, c2, ... , cn n coefficients réels. On appelle L-statistique, la statistique Tn définie par (Eq 0).
n
T n =∑ c i⋅X  i 
i=1

Eq 0
Les L-statistiques peuvent être utilisées pour estimer les paramètres de localisation ou de dispersion
d’une loi parente. On les appelle alors L-estimateurs.

Loi asymptotique des L-statistiques

La loi exacte d’une L-statistique est souvent très délicate à établir du fait de la complexité des
calculs. On ne trouve dans la littérature que quelques démonstrations concernant des lois parentes
relativement simples telles que la loi uniforme ou encore la loi exponentielle. Seuls les premiers
moments peuvent être calculés ou approximés aisément. On peut en revanche obtenir des résultats
de manière plus aisée en considérant la loi asymptotique des L-statistiques. Même si dans le cadre
d’application de la M.S.P. nous sommes bien loin des conditions asymptotiques (puisque n est
relativement petit en M.S.P.) nous pouvons nous intéresser à ces propriétés pour les tests par
intervalle de confiance. Rappelons à ce titre que la distribution de la moyenne empirique X  est
souvent supposée suivre une loi normale pour établir les limites d’une carte de contrôle alors
qu’elle n’est qu’asymptotiquement normale.

Comme les valeurs centrales et les valeurs extrêmes des statistiques d’ordre n’ont pas les mêmes
lois asymptotiques, les lois limites obtenues pour une L-statistique seront très différentes selon les
poids (coefficient ci de la L-statistique) attribués à chacune des statistiques d’ordre.
Pour obtenir une loi limite qui soit une loi normale, les coefficients extrêmes c1 et cn ne doivent pas
être trop grand. En effet, un théorème développé dans David [Dav 81] énonce qu’une condition
suffisante pour que la distribution d’un L-estimateur soit normale, est qu’un poids nul soit donné
aux valeurs extrêmes.
En fait, les conditions pour que la distribution d’un L-estimateur soit asymptotiquement normale
porte à la fois sur la loi parente, la valeur des coefficients de la L-statistique et le nombre de ses
coefficients. Une version simplifiée du théorème de Shorack [Sho 1972]58 est énoncé dans
l’ouvrage de Capéràa [Cap 88]. Les hypothèses postulées par Shorack concernent le comportement
de la fonction de poids (poids affecté à chacune des statistiques d’ordre) pour les valeurs extrêmes
ainsi que l’évolution de la fonction de répartition de la population pour les valeurs excentrées. Il
montre la dualité entre deux critères.
· Plus la fonction de répartition F converge lentement vers 0 et 1, plus les contraintes sur la
fonction de poids sont fortes. Il faut en effet que les poids affectés aux statistiques d’ordre
extrêmes soit nuls, comme l’a énoncé David.

· Dans le cas contraire, si les coefficients affectés aux statistiques d’ordre extrêmes sont non nuls
(la moyenne empirique par exemple), les contraintes sur la fonction de répartition sont plus
fortes pour que l’on puisse conclure à la normalité asymptotique du L-estimateur.

Fonction de répartition de la Fonction de poids Conditions de


population normalité

1 Si la fonction de poids
est non nulle en 0 et 1,
il est nécessaire (et pas
Tendance
F(x)

forcément suffisant)
J(u)

Platikurtique que la fonction de


répartition converge
0 rapidement vers 0 et 1.
x 0 u 1

1 Si la fonction de
répartition converge
lentement vers 0 et 1, il
Tendance
est nécessaire que la
J(u)
F(x)

Leptokurtique
fonction de poids soit
nulle en 0 et 1.
0
x 0 u 1

Cette dernière affirmation montre que la moyenne et les L-estimateurs (si les coefficients sont non
nuls aux extrêmes) sont soumis aux mêmes conditions quant à leur distribution asymptotique. Nous
verrons donc un peu plus loin comment envisager le calcul des limites de contrôle d’une carte
utilisant un L-estimateur.

58
SHORACK G.R. Functions of order statistics - Ann. Math. Statist - N° 43 pp 412-427 - 1972
Robustesse des L-statistiques

Une statistique est dite robuste, si l’influence des valeurs extrêmes est limitée et varie continûment.
Ainsi, les images de deux lois proches, par une statistique robuste, restent proches.

Pour étudier la robustesse d’une statistique, on introduira la notion de fonctionnelle statistique.


Soit q une fonction paramétrique et P une loi de probabilité ; alors T est une fonctionnelle telle que
q=T  P  .
Une définition importante de la robustesse, proposée par P Huber [Hub 64]59 et F Hampel
[Ham 68]60 repose sur la continuité de la fonctionnelle T au voisinage de la fonction P.
Nous donnerons les résultats qui proviennent de cette définition pour les L-statistiques sans rentrer
dans les détails mathématiques.

On suppose que la fonctionnelle d’une L-statistique est définie par la relation


1
T  P  =∫ P −1  u ⋅J  u ⋅du
0

où J est la fonction de poids des coefficients définie sur le support [0,1].

On voit alors que les critères pour que la fonctionnelle T soit continue sont ceux énoncés au
paragraphe précédent : Pour que la statistique Tn soit robuste, il faut
· soit que la fonction de poids soit nulle à l’extérieur du support [a,1-a],
· soit que la loi P converge rapidement vers 0 et 1.

La normalité de la distribution d’une L-statistique et sa robustesse sont donc étroitement liées.

Des études de robustesse menées par Hampel [Ham 74] concernant des estimateurs très classiques
comme la moyenne empirique, la médiane empirique, les moyennes a tronquées ou encore
l’estimateur de Hodges-Lehmann, ont mis en évidence que seule la moyenne parmi ces estimateurs
possède une fonctionnelle non continue. Cette non robustesse se traduit alors par une tolérance
nulle aux valeurs extrêmes. En effet le coefficient de tolérance de la moyenne est nul, ce qui
signifie toute valeur aberrante à une répercussion sur l’estimation. En revanche, un estimateur très
robuste comme la médiane a un point de rupture asymptotique de 0,5 (Voir chapitre 1).

59
HUBER P. Robuste estimation of a location parameter - Ann. Math. Statist. N°35 - pp 73-101
60
HAMPEL F. R. The Influence curve and its in robust estimation J. Amer. Statist. Assoc. -
N°69 pp 383-393 - 1974
Proposition d’un autre estimateur pour les cartes
de contrôle

Choix de l’estimateur

Le choix d’un estimateur est souvent un problème complexe qui oblige à des compromis. De
nombreux critères, parfois contradictoires, sont à prendre en compte.
Notre choix s’est donc articulé autour de trois critères essentiels :

· Nous souhaitions tout d’abord que la méthode utilisée soit non paramétrique afin de ne pas
restreindre notre domaine d’application à une famille de lois statistiques. En effet, la majorité
des méthodes de la Maîtrise Statistique des Procédés aborde les problèmes d’un point de vue
paramétrique, ce qui selon nous, est un procédé réducteur et pénalisant. On suppose que la
distribution des observations peut être caractérisée par une loi ou une famille de lois. Cette
famille est elle-même fonction d’un nombre restreint de paramètres, comme la moyenne et
l’écart-type pour une loi normale. La simplicité des méthodes paramétriques réside
essentiellement dans le nombre restreint de paramètres à estimer pour caractériser la loi. Une
telle approche peut être parfaitement adaptée si la famille de lois est liée à certaines
caractéristiques physiques du procédé. Cependant, le choix d’un modèle paramétrique comme la
loi normale, bien que valide dans bon nombre de cas, ne peut raisonnablement satisfaire tous les
cas de figure.

· D’autre part, l’objectif étant de remplacer la moyenne par un autre estimateur, celui-ci se doit
d’être sans biais et avec une variance inférieure ou égale à celle de la moyenne. La moyenne
n’étant pas toujours le meilleur estimateur, en terme de variance, lorsque la distribution de la
population est non normale, il est possible de trouver un estimateur dont la variance sera plus
faible quelle que soit la distribution des observations. Ces conditions sont en effet indispensables
pour que la carte de contrôle mise en oeuvre détecte des causes spéciales au moins aussi
rapidement qu’une carte de Shewhart.

· Enfin, pour que la méthode proposée possède un caractère général, il est important que
l’estimateur utilisé converge vers la moyenne dans les cas ou la population est distribuée selon
une loi normale.
Le L-estimateur des moindres carrés

Présentation

L'estimateur que nous allons utiliser s’applique à un très grand nombre de distributions,
pour ne pas dire toutes, puisqu’il s’agit de distributions qui ne dépendent que d'un paramètre de
position et d'un paramètre d'échelle, quelles que soient leurs formes.
Pour de telles distributions, Lloyd [Llo 52]61 montre que les paramètres peuvent être estimés en
appliquant la théorie des moindres carrés généralisés à un échantillon ordonné.

Ces estimateurs, qui sont des combinaisons linéaires des observations ordonnées, ont la propriété
très intéressante d'être à la fois sans biais et à variance minimale. En effet, la variance de
l'estimateur de la position de Lloyd n’excède jamais la variance de la moyenne.
La construction de cet estimateur se base sur une modélisation de la distribution empirique ou
théorique de la population.

Estimation par les moindres carrés

Dans ce paragraphe nous donnons une rapide démonstration de la construction du L-estimateur des
moindres carrés. Pour plus de détails nous invitons le lecteur à se reporter à l’annexe mathématique
(Annexe §2)
Nous appelons m et s respectivement les paramètres de position et d'échelle de la distribution de la
fonction. Ces paramètres, que l’on cherche à estimer par la méthode des moindres carrés, ne sont
pas nécessairement la moyenne et l'écart type de la population.

On note (x(1),x(2),...,x(n)) les observations ordonnées du vecteur Xk telles que x 1 ≤x  2 ≤L≤x  n 
 x −m 
Nous allons construire la variable réduite U(r) de rang r, telle que : U  r =  r 
s
Les moments d’ordre 1 et 2 de la variable U sont alors notés

E [ U  r  ]=α r Var [ U  r  ] =w rr Cov [ U  r  , U  s  ] =w rs

On écrit l'expression de l'espérance des statistiques d'ordre x(r) sous forme vectorielle

E [ X ] =m⋅esα

61
LLOYD E. H. Least-Squares Estimation of Location and Scale parameters Using Order Statistics - Biometrika -
Vol 39 - pp 88-95 - 1952
où α est le vecteur des ar
e est un vecteur ayant des composantes unitaires
X est le vecteur des mesures ordonnées

   
α1 1 x 1 
que l’on note respectivement α= M e= M et X = M
αn 1 xn

L’expression de l’espérance des statistiques d’ordre peut se simplifier sous la forme

E [ X ] = A⋅q

où q= m
s

[ ]
1 α1
A= M M
1 αn

La matrice de covariance de X est donnée par : COV  X  =s 2⋅


W est une matrice (nxn) des éléments w rs

Le modèle étant un modèle linéaire multiple ordinaire de la forme E [ X ] = A⋅q , on connaît une
estimation du vecteur q au sens des moindres carrés généralisés, donnée par la relation (Eq 0) :
−1
q = At⋅−1⋅A  ⋅At⋅−1⋅X
Eq 0

La variance des estimateurs est donnée par :

α t⋅⋅α
Var [ m
 ] =s 2⋅
det  At −1 A 
e t⋅⋅e
Var [ s ] =s 2⋅
det  At −1 A 

Ce qui permet de comparer aisément les performances de la moyenne à celle du L-estimateur de


position.
D’autres auteurs comme Downton [Dow 54] ont étudié les performances du L-estimateur des
moindres carrés pour des distributions classiques telles que la loi uniforme, une loi triangulaire
tronquée, la loi exponentielle et une loi de Pearson de type III. Il confirme que la variance du L-
estimateur de Lloyd est inférieure à celle de la moyenne pour la loi uniforme et la loi triangulaire.
De plus, il montre que l’estimateur des moindres carrés est la moyenne pour la loi exponentielle, ce
qui était prévisible puisque la moyenne est dans ce cas l’estimateur sans biais à variance minimale.

Cas particulier des distributions symétriques


Lloyd a également détaillé le cas où la loi parente est symétrique. Il montre que les estimateurs de
localisation et de dispersion sont respectivement donnés par les équations Eq 0 et Eq 0.

e t⋅−1⋅X

m=
e t⋅−1⋅e
Eq 0

α t⋅−1⋅X
s =
α t⋅−1⋅α
Eq 0

La variance des estimateurs est donnée par les relations Eq 0 et Eq 0 :

s2
Var  m
 =
e t⋅−1⋅e
Eq 0

s2
Var  s  =
α t⋅−1⋅α
Eq 0

Cet estimateur a trouvé une de ses premières applications en traitement d’image. Bovik [Bov 83]
propose en effet une application de filtrage où l’image, représentant un signal informatif s, est
entachée d’un bruit blanc additif b.

X j =sb j

La loi de distribution du bruit est supposée symétrique.

Pour supprimer les effets du bruit, Bovik cherche le L-estimateur qui minimise l’erreur quadratique
moyenne E  s −s  .
Nous ne développerons pas ici le calcul des coefficients du L-estimateur de position, celui-ci est
néanmoins disponible dans l’annexe mathématique (Annexe2 §3)
Les coefficients optimaux au sens de l’erreur quadratique moyenne sont donnés par la relation Eq
0.

H −1⋅e
C=
e t⋅H −1⋅e
Eq 0

ou H est la matrice des coefficients H ij =E [ b  i ⋅b


  j]

Etude qualitative du L-estimateur

Les résultats présentés par Bovik sont assez éloquents, quant aux améliorations apportées par le L-
estimateur des moindres carrés dans le cadre d’une population non normale. Les performances du
L-estimateurs peuvent se résumer à un calcul de l’efficacité relative par rapport à la moyenne et la
médiane pour différents types de distributions (Figure 38). L’effectif des échantillons est n=3.

Distribution Var(L-estimateur)/Var(Médiane) Var(L-estimateur)/Var(Moyenne)


Forme en U 0.306 0.749
Uniforme 0.500 0.900
Parabolique 0.603 0.963
Triangulaire 0.667 0.988
Normale 0.742 1.000
Laplace 0.900 0.862
Figure 38

L’efficacité du L-estimateur est d’autant plus grande par rapport à la moyenne que la loi diffère de
la loi normale. Les variances sont les mêmes pour une loi normale et l’amélioration n’est que
substantielle pour une loi triangulaire.
En revanche, les progrès par rapport à la médiane sont d’autant plus grands que les queues de la
distribution sont légères. Ainsi les résultats sont très satisfaisants pour une loi uniforme et le sont
beaucoup moins pour une loi à tendance centrale très prononcée comme la loi de Laplace.

Calcul du L-estimateur par la méthode de Lloyd

Le calcul formel des coefficients d’un L-estimateur est relativement pénible car il faut établir
plusieurs moments caractéristiques des statistiques étudiées. Ainsi, si on utilise la méthode
proposée par Lloyd on calcule la matrice de covariance des statistiques d'ordre réduites 8 ainsi que
le vecteur des espérances des statistiques d'ordre α. Pour la méthode de Bovik, on détermine la
matrice H.
Nous donnerons à titre d’exemple le développement du calcul pour une loi uniforme. Pour des
distributions plus complexes nous aurons recours au calcul numérique par ordinateur.
Supposons que la variable aléatoire X soit distribuée selon une loi uniforme U sur l'intervalle [0,1].
Sa densité est f(x)=1 et sa fonction de répartition F(x)=x sur ce même intervalle (Figure 39).

f(x)

F(x)
1
1

0 1 x 0 1 x

Figure 39

L’expression de l’espérance d’une statistique d’ordre se simplifie dans le cas de la loi uniforme

E[ ] k −1
X  k  =n . C n−1 . ∫ X k .  1−F  X  n−k . f  x . dx

1
. ∫ x k .  1− x 
k −1 n−k
¿ n .C n−1 . dx
0

b
I =∫  x−a   b− x 
m1 m2
Cette intégrale est de la forme générale dx
a
m1! m2 !
d'où sa solution I  (b  a) m1 m 2 1  avec ici b=1 a=0 m1=k m2=n-k
m1  m2  1

 n−1  ! k !  n−k ! k
d'où E [ X  k  ] =n⋅ ⋅ =
 k −1  !  n−k  !  n1 ! n1

On en déduit E[X(k)X(l)] ainsi que la variance de Xk et la covariance de Xk et Xl.

k  n−k 1 
Var [ X  k  ] =
 n1 2  n2 
k  n−l 1 
Cov [ X  k  , X  l  ]= avec 1 ≤k l ≤n
 n1 2  n2 

Il est alors possible de construire la matrice W et la matrice H. Le calcul des coefficients du L-


estimateur étant particulièrement délicat dans le cas général d'un échantillon de taille n, nous nous
contenterons de traiter l'exemple n=3.

[ ]
3 2 1
1
= ⋅2 4 2
80
1 2 3
On inverse les matrices de covariance W

[ ]
2 −1 0
−1
 =20⋅ −1 2 −1
0 −1 2

En utilisant la relation (Eq 0) de Lloyd, on trouve que le L-estimateur optimal est le filtre milieu. Il
est optimal en terme de variance parmi les estimateurs linéaires.


1
2
C opt = 0
1
2

Calcul du L-estimateur par la méthode de Bovik

La méthode proposée par Bovik suppose que le bruit soit centré. C’est pourquoi nous allons
considérer ici une loi uniforme U − , [ ] 1
2
1
2
. Le calcul de la matrice H n’est pas très aisé pour une
telle distribution. C’est pourquoi nous allons nous appuyer sur les résultats précédents de la matrice
de covariance qui est invariante par translation de la population.

E [ X  k  X  l  ] =Cov [ X  k  X  l  ] E [ X  k  ]⋅E [ X  l  ]
2 k −n−1
où E [ X  k  ] =
2  n1 

On en déduit la matrice H :

[ ]
4 1 −2
1
H= 1 2 1
40
−2 1 4

En appliquant la relation (Eq 0) on trouve là aussi que l’estimateur est le milieu.

Variance asymptotique du milieu

On peut montrer que la variance du L-estimateur des moindres carrés évolue asymptotiquement en
1/n2 alors que celle de la moyenne varie en 1/n dans le cas de la loi uniforme.
La variance d'un L-estimateur est définie par la relation suivante :

Var  m
  =C t HC =C t  C

En effet, pour des raisons de symétrie de la matrice H, les moments du bruit centré étant tantôt
positifs tantôt négatifs, ces deux relations sont équivalentes.

Nous avons démontré précédemment les calculs de l'espérance de la variance et de la covariance


d'une statistique d'ordre dans le cas d'une distribution uniforme définie sur l'intervalle [0,1] Cette
dernière a pour variance 1/12.
Nous pouvons généraliser ces résultats à des distributions uniformes de variance s2 en multipliant
par un coefficient d’échelle 12 s2 .

k  n−k 1 
Var [ X  k  ]=12 s 2⋅
 n1 2  n2 
k  n−l 1 
Cov [ X  k  , X  l  ] =12 s 2⋅ avec 1 ≤k ≤l ≤n
 n1 2  n2 

Pour la suite du calcul, on ne s'intéresse qu'aux coefficients placés dans les angles de la matrice R,
car les autres seront annulés lors de la multiplication avec le vecteur C des coefficients du filtre
milieu.

[ ]
n L? L 1
12 s 2
d'où R= ⋅M O M
 n1 2  n2  1 L? L n

2
1 12 s ⋅ n1  6 s2
d'où  ]=t C  C = ⋅
Var [ m =
2  n1 2  n2   n1  n2 

6 s2
La variance asymptotique du L-estimateur est donc Lim  Var  m
 = . Elle évolue en 1/n2 alors
n ¥ n2
s2
que la moyenne empirique évolue en 1/n : Lim  Var  X
  =
n¥ n
Etude de la Période Opérationnelle Moyenne

Nous avons montré au travers de simulations [Duc 96]62 que la réduction de la variance apportée
par le L-estimateur permettait d’améliorer la Période opérationnelle d’une carte de contrôle de type
Shewhart.

Pour ces simulations, nous avons choisi de prendre les limites de contrôle égales à ±3 s /  n quelle
que soit la forme de la population et le type d'estimateur. On compare donc les performances des
cartes de contrôle à limites constantes. La Figure 41 donne d’ailleurs un aperçu de la P.O.M. des
deux cartes de contrôle étudiées lorsque la population suit une loi normale. La P.O.M. est
représentée en fonction du décentrage k.s ou k est un réel. La distribution du L-estimateur étant
plus étroite que celle de la moyenne, on minimise de façon importante les risques a, d’où une
P.O.M. importante pour k= 0.

P.O.M. pour la loi uniforme


k 0 0,2 0,4 0,7 1 1,25 1,5 2 3
n=3 L-Estim. NC63 1284 159 31,1 10,3 5,27 3,15 1,44 1,01

X NC 1175 146 26,6 9,24 4,64 2,89 1,50 1,01
n=5 L-Estim. 1691 429 101 20,1 5,99 2,60 1,45 1,05 1,00

X 1058 263 61,7 13,1 4,46 2,42 1,59 1,08 1,00
n=7 L-Estim. 1720 449 95,7 15,1 3,46 1,44 1,12 1,00 1,00

X 650 177 39,8 7,72 2,70 1,62 1,20 1,01 1,00
Risque α constant L-Estim. 650 217 53,2 9,77 2,38 1,25 1,07 1,00 1,00
Figure 40

P.O.M. pour une loi uniforme


1800
1600 L-estimateur - n=5
1400 L-estimateur - n=7
Moyenne - n=5
1200
Moyenne - n=7
P.O.M.

1000
800
600
400
200
0
0.7 25
0

0.225

0.325

0.425

0.625

0.825

0.925
0.525
0.125

Figure 41

62
DUCLOS E. PILLET M. COURTOIS A. Optimisation de la Maîtrise Statistique des Procédés par une méthode
de filtrage d’ordre - Revue de Statistique Appliquée XLIV (2) pp 61-79 - 1996
63
NC : Non calculable car les limites de contrôle sont à l’extérieur de la distribution de la population.
Nous avons également traité le cas qui consiste à travailler à risque a constant. Ainsi, pour la carte
 on fixe les limites de contrôle à 3 s/  n , et on recalcule les limites de la carte de Shewhart avec
X
L-estimateur, de manière à obtenir un risque a équivalent à celui de la carte X  . L’exemple choisi
est celui d’un échantillon de taille n=7 avec une distribution uniforme (Ligne grisée de la Figure
40). Les limites sont fixées à 2,76 s /  n pour obtenir une P.O.Mk=0= 650. Les calculs mettent en
évidence que la carte utilisant le L-estimateur minimise les risques de fausses détections lorsque le
décentrage est faible. En revanche, si le décentrage est significatif (k>0,9), la P.O.M. de la carte de
contrôle avec L-estimateur devient plus faible que celle de la carte X  (Figure 42). On constate par
exemple pour la limite supérieure 3 s /  n=3/  7=1, 13 , que P.O.M.Moyenne= 2 et P.O.M.L-estimateur
=1,5 ; on détecte donc les décentrages beaucoup plus rapidement en utilisant un L-estimateur.

10
9 Moyenne
8 L-estim ateur
7
6
P.O.M.

5
4
3
2
1
0
0.7 0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2
k

Figure 42

Ces premières simulations sur des distributions simples mais possédant un caractère non normal
prononcé ont montré que les L-estimateurs pouvaient être une alternative intéressante à l’utilisation
de la moyenne dans un contexte non normal.
Nous avons donc cherché à généraliser notre approche aux lois non normales ne possédant pas de
propriété de symétrie.
Généralisation au cas non symétrique
Choix du paramètre de localisation

Cas d’une fonction perte symétrique

Lorsque la distribution de la population est symétrique, le choix du paramètre de localisation de la


population ne se pose pas réellement puisque la moyenne et la médiane se superposent à l’axe de
symétrie de la courbe.
Dans le cas contraire ce choix est discutable car la médiane et la moyenne ne correspondent pas
forcément à une caractéristique géométrique de la loi. De plus, ces deux paramètres sont le plus
souvent distincts (Figure 43). La question qui se pose alors, est de savoir s’il est préférable de
choisir la moyenne plutôt que la médiane ou tout autre paramètre ?

Médiane
Moyenne
Moyenne Mode
Médiane

Figure 43

Nous avons donc choisi de mettre en place un critère qui permette de déterminer un paramètre
optimal. Le coût de la non qualité nous est apparu un critère satisfaisant pour justifier le choix du
paramètre de localisation. En effet, nous allons chercher le paramètre de localisation qui, lorsqu’il
coïncide avec la cible du procédé, permet de minimiser la perte au sens de Taguchi [Tag 89]64
(Figure 44).

Paramètre de
localisation
Cible
Fon
ction
Pert
e

Figure 44

64
TAGUCHI G. ELSAYED A. HSIANG T. C. Quality engineering in production systems
Mc Graw-Hill - 1989
La justification du choix du paramètre m p est assez triviale car il suffit de minimiser l’expression
de la perte moyenne par individu produit.

Tout d’abord, rappelons que la fonction perte est définie par :


2
L=K  X − X 0 

où · X est la valeur prise par une caractéristique


· X0 est la cible de la production
· K une constante qui dépend des coûts engendrés par un dépassement des tolérances

L’expression de la perte moyenne est donc


[
L =K⋅E  X − X 0  2 ]
On suppose que le paramètre de localisation est placé sur la cible : m p = X 0

[ ] 
L =K⋅E  X −m p 2 = K⋅ E [ X 2 ] −2 m p⋅E [ X ] m
p
2 
On cherche un extremum de la fonction en la dérivant par rapport à m p :

¶ L
=K  2 ⋅E  X  −2 m p  =0 Ûm p =E  X 
¶ mp

Le paramètre de localisation est donc la moyenne pour que la perte soit minimale quand ce
paramètre est égal à la cible. Ceci est vrai quelle que soit la distribution de la population.

Cas d’une fonction perte non symétrique

Le coût de la non qualité associé à la production d’une pièce n’est pas systématiquement
symétrique. En effet les opérations effectuées à la suite d’un dépassement de la tolérance
supérieure ne sont pas forcément aussi coûteuses si on dépasse la tolérance inférieure.

Prenons l’exemple rencontré pour l’usinage de paliers ou des manetons de vilebrequins. Les pièces
usinées ont une forte valeur. On considère en effet que la perte d’un vilebrequin entraîne un coût de
2000 francs. Ce cas de figure est rencontré lorsque la tolérance inférieure du diamètre est dépassée.
En revanche si on dépasse la tolérance supérieure, on effectue une retouche qui est évaluée à 50
francs.
Dans ce cas il est évident que le paramètre moyenne ne permet pas de minimiser la perte lorsqu’on
le centre sur la cible (Figure 45). Il faut donc trouver un autre paramètre de localisation. Son choix
dépend ici des coefficients K1 et K2 de la fonction perte respectivement à gauche et à droite de la
cible.

TI TS
L 1 =K 1
(x 1 -x 0
)2

Fonction
Perte

Cible
L 2 =K 2 (x 2 -x 0 )2

Figure 45

On note respectivement L1 L2 les pertes à gauche et à droite de la cible.

{
2
L1=K 1  X 1− X 0  X 1 ≤ X 0
2
L 2 =K 2  X 2 − X 0  X 2  X 0

On considère que la distribution de la population est centrée sur la cible de telle manière que le
paramètre de localisation se superpose à la cible : m= X 0
P est la probabilité qu’une mesure soit inférieure au paramètre de localisation : P=Pr(X<m)

La perte moyenne de la production est alors donnée par :


m +¥
E  L  =K 1∫  x−m  ⋅f  x ⋅dxK 2 ∫  x−m  ⋅f  x ⋅dx
2 2

-¥ m

Le minimum de E(L) s’obtient en annulant sa dérivée par rapport à m soit :


m +¥
m  K 1 . P K 2 .  1−P  =K 1∫ x⋅f  x ⋅dx K 2 ∫ x⋅f  x ⋅dx
-¥ m

La résolution non triviale de cette équation où P dépend de m nécessite la connaissance de la loi des
observations, ce qui est inacceptable dans un cadre non paramétrique.
Nous supposerons dans la suite de notre étude que la fonction perte est symétrique, dans ce cas le
paramètre à estimer est la moyenne.
Choix du paramètre de dispersion

Pour le paramètre d’échelle, nous n’avons pas mis en évidence de critère de choix particulier, si ce
n’est l’aspect pratique. En effet, le paramètre qui paraît le plus évident à estimer est l’écart type.

Exemple d’application d’un L-estimateur à une loi non normale.

Caractéristiques de la population

Nous avons choisi de traiter le cas d’une population stratifiée composée de 6 lois
élémentaires normales de mêmes écart-types :

N1(0 , 1) N4(5 , 1)
N2(5.5 , 1) N5(5 , 1)
N3(-3.2 , 1) N6(-3.5 , 1)

0.4
N(5.0;1)
0.35
N(5.5;1)
0.3 N(0;1)
0.25 N(-3.2;0)
f(x)

0.2 N(-3.5;1)
0.15 fp(x)

0.1
0.05
0
-8

-6

-4

-2

10
0

Figure 46

Cet exemple simule le cas industriel d’une fabrication sur une presse avec 6 empreintes.

Les prélèvements sur chacun des générateurs étant équiprobables ( = 1/6), on définit la densité de
probabilité des critères générés par :

f p ( X )    f N 1 ( X )    f N 2 ( X ) ...    f N 6 ( X )

La fonction perte étant symétrique, le paramètre de localisation est la moyenne m et le paramètre


d’échelle est l'écart type s .
La méthode de calcul présentée dans le chapitre 2 (§1.2.2) est utilisée pour déterminer la moyenne
et l’écart-type du mélange de lois.

D'où m=1 . 4667 s=3 . 9965

A titre d’exemple, on donne (Figure 47&Figure 48) les coefficients des deux estimateurs pour n=3,
4 et 5. On remarque sur la Figure 47 que la fonction de poids est relativement proche de celle du
milieu de l’étendue. Dans ce cas, on peut se demander si le choix du milieu de l’étendue n’est pas
une bonne solution à chaque fois que la distribution de la population à une tendance platikurtique.
Plusieurs considérations nous dissuaderons d’une telle approche. Tout d’abord, le milieu de
l’étendue n’est pas optimal en terme de variance pour toutes les lois à tendance platikurtique. Et
d’autre part, le paramètre de position qu’elle estime est différent de la moyenne lorsque la loi n’est
pas symétrique.

L-estimateur de position
n c1 c2 c3 c4 c5
3 0.52 -0.07 0.55
4 0.53 -0.06 -0.04 0.57
5 0.53 -0.045 -0.046 -0.01 0.57
Figure 47

L-estimateur de dispersion
n c1 c2 c3 c4 c5
3 -0.58 -0.0037 0.59
4 -0.50 0.025 -0.025 0.50
5 -0.47 0.026 0.0013 -0.023 0.46
Figure 48

Etude de variance
Comme nous pouvons le constater dans le tableau de la Figure 49 et sur la Figure 50, la
variance du L-estimateur est toujours très inférieure à celle de la moyenne. Pour l’industriel, il est
alors possible de tirer parti de cette réduction de la variance en améliorant la commandabilité et
donc la capabilité de son procédé de fabrication, ou en réduisant la taille des prélèvements. Par
exemple, pour une moyenne calculée sur un échantillon de taille n=7, le L-estimateur ne requiert, à
variance équivalente, qu’un échantillon de taille n=4.

Variance des estimateurs


Echantillon n=3 n=4 n=5 n=6 n=7 n=8 n=9 n = 10
L-estimateur m 4.29 2.46 1.52 1.01 0.72 0.55 0.44 0.36
Moyenne 5.32 3.99 3.19 2.66 2.28 2.00 1.77 1.60
Efficacité relative 0.81 0.62 0.48 0.38 0.32 0.28 0.25 0.22
Figure 49
Variance des estimateurs - Echantillonnage aléatoire
6
L-estim ateur
5
Moyenne
4
Variance

0
3 4 5 6 n 7 8 9 10

Figure 50

Remarque :
· La variance de la moyenne est calculée par s 2 / n avec  l'écart type de la population.
Var [ m
]
· L’efficacité relative du L-estimateur par rapport à la moyenne est donnée par :
Var [ moy ]

Distribution des estimateurs

La distribution de la moyenne ainsi que la distribution des L-estimateurs dans certains cas sont
asymptotiquement normales. Cette étude réalisée sur un très grand nombre de données a montré
que pour une population fortement non normale, ni la moyenne ni le L-estimateurs ne suivent une
loi normale pour des échantillons de taille modérée (Figure 51).

Distribution de la Moyenne - Echantillonnage aléatoire Distribution du L-estimateur - Echantillonnage aléatoire


0.035 0.08
n=3
n=3
0.03 n=6 0.07
n=6
n=10
0.06 n=10
0.025

0.05
0.02 p(X)
p(X) 0.04
0.015
0.03

0.01
0.02

0.005 0.01

0 0
-6 -4 -2 0 2 4 6 8 -6 -4 -2 0 2 4 6 8
X X

Figure 51

Alors que la distribution de la moyenne converge vers une loi normale, au fur et à mesure que n
grandit, on constate que la distribution du L-estimateur possède une tendance leptokurtique.
Mise en oeuvre de la carte L

Construction du L-estimateur
La construction du L-estimateur de Lloyd nécessite le calcul de la matrice de covariance des
statistiques d'ordre réduites 8 ainsi que le vecteur des espérances des statistiques d'ordre a.
Nous savons que le calcul littéral des moments d’ordre 1 et 2 des statistiques d’ordre est
particulièrement pénible. En effet, les coefficients de la matrice de covariance s’expriment par la
relation (Eq 0).
¥ y
Cov [ X r : n X s : n ] =∫∫  x−mr : n  y−m s : n ⋅ f rs  x , y ⋅dxdy
-¥ -¥

Eq 0
avec
n! s−r−1 n−s
f rs  x , y = ⋅F r−1  x ⋅f  x   F  y −F  x   ⋅p  y  [ 1−P  y  ]
 r−1 ! s−r−1 !  n−s !

Cette relation requiert que la loi de distribution de la population soit parfaitement connue. Il faut
donc identifier la population à une loi paramétrique. Ceci, est inacceptable à nos yeux pour deux
raisons :
· D’une part, il est tout à fait illusoire de vouloir identifier la distribution d’un critère dans des
conditions de production,
· D’autre part, cette procédure nous place dans un cadre paramétrique, que nous ne souhaitons
pas. Nous préférons donc estimer W et a à partir de mesures prélevées sur le procédé (Eq 0).

1
w ij = ∑ x − x x − x
m−1 m [   i   i    j   j   ]
1
αi = ∑ x  i 
m m
Eq 0

Le calcul de la matrice W et du vecteur a nécessitent que le procédé soit stationnaire, autrement dit
qu’il soit sous contrôle. En effet si l’information apportée par W et a est corrompue par une dérive
du procédé, les estimations pourront être de mauvaise qualité.
Nous exposerons donc plusieurs méthodes pour calculer le L-estimateur, adaptées au type de
procédé piloté.
Démarrage d’une carte L
Pour que l’utilisation d’un L-estimateur soit bénéfique par rapport à un estimateur comme la
moyenne, il est nécessaire que le surplus d’information apporté par la matrice de covariance et le
vecteur des moments soient cohérents avec ce que l’on souhaite réellement modéliser.

L'échantil on est
Procédé
représentatif de la
stationnaire population

L'échantil on ne
possède aucune des
Procédé non
caractéristiques
stationnaire statistiques de la
population

Figure 52

Le problème est ici sensiblement équivalent à celui rencontré lorsque l’on veut calculer une
capabilité machine. Pour ce faire, on prélève les mesures sur une période suffisamment courte pour
que les dérives du procédé (qui pourraient être compensées par un bon pilotage) soient peu
significatives. Cette procédure est bien sûr satisfaisante si le procédé n’est pas soumis à un trop
grand nombre de perturbations.
La notion de stabilité est ici relative à la cadence de production et non pas au temps. En effet, un
procédé pour lequel on ne note qu’une faible dérive pour un nombre important de pièces produites
est présumé stable quel que soit le temps nécessaire à cette production. En revanche, un procédé
sera qualifié d’instable si des causes spéciales sont fréquemment identifiables.
Nous distinguerons deux cas : celui des procédés à évolution rapide ou à évolution lente.

Les procédés à évolution lente

Les procédés à évolution lente sont en général assez peu problématiques car la quantité de données
recueillables sur une période stable suffit à établir les statistiques d’intérêt.
La norme AFNOR [AF1 95]65 suggère, par exemple, de calculer la dispersion de la population à
partir d’une vingtaine de sous-groupes, lors de la « période de référence » préalable à toute mise en
place d’une procédure M.S.P. Un minimum de trente valeurs individuelles est en effet souhaitable
pour que le calcul d’une variance empirique converge vers une valeur exploitable.

65
AFNOR Norme NF X 06-031-1 Application de la Statistique - Cartes de contrôle de Shewhart aux mesures ISSN
0335-3931
De manière analogue, nous avons montré expérimentalement que pour débuter une carte L, trente à
quarante échantillons suffisent pour que les coefficients de la matrice de covariance soient dans le
voisinage de leurs valeurs asymptotiques. Pendant le prélèvement de ces données, on reportera la
moyenne et l’écart type des échantillons sur une carte préliminaire, afin de s’assurer de la stabilité
du procédé (Figure 53). Après avoir calculé le L-estimateur, on peut placer les limites de la carte de
contrôle. On vérifiera de manière rétrospective que le procédé était bien sous contrôle pendant la
période de référence. Dans le cas contraire, le calcul des coefficients du L-estimateur a été pollué
par des causes spéciales.

Carte de Suivi

 a1  1,1  1,n  
      c1 
a    W        
Calcul du      CL  estimateur   
 a2   n ,1  n ,n    
L-estimateur  cn 
Paramètres s et m 

LSC

Cible
Carte de contrôle
LIC

Pilotage

Figure 53

Cette période d’étude préliminaire nous semble acceptable pour un industriel. Nous savons
néanmoins par expérience, que les cartes d’observations préliminaires ne sont pas toujours utilisées
sur des procédés « bien connus ». Afin de réduire au minimum la période de référence et éviter
l’utilisation d’une carte de suivi au profit d’une carte de contrôle, nous proposons de faire évoluer
les coefficients du L-estimateur progressivement de la moyenne (1/n) aux coefficients optimaux.
Pour cela nous avons choisi d’utiliser un algorithme de lissage (Eq 0).
Au fur et à mesure que les échantillons sont prélevés, les coefficients de l'estimateur CLissage
évoluent de la moyenne (Ci= 1/n) vers les coefficients optimaux CL-estimateur estimés à l’aide de la
relation (Eq 0).

[]
1
n
k k
C Lissage = ⋅C L−Estimateur  1− ⋅ M
k max k max
1
n

Eq 0
On note k le numéro de l’échantillon prélevé et kmax le nombre d'échantillons qui fixe la fin de la
période de référence. On choisira de préférence une valeur de kmax supérieure à trente. Lorsque le
nombre d’échantillon k atteint la valeur kmax, les coefficients du L-estimateur sont ceux du L-
estimateur des moindres carrés.
Cette procédure a l’avantage de permettre le pilotage du procédé avec les seules valeurs m et s
fixées par « l’expérience». De plus, rappelons que les coefficients obtenus par lissage donnent une
estimation sans biais de la position de la population puisqu’il s’agit d’une combinaison linéaire de
deux estimateurs sans biais (Eq 0).

1

m=C Lissage⋅X = 
α⋅C L−estimateur⋅X   1−α  ⋅e⋅X
Estimation par les moindres carr s

n
Moyenne

Eq 0

Nous présentons à titre d’exemple (Figure 54, Figure 55 & Figure 56) une simulation du démarrage
d’une carte L de position avec kmax= 40. Les coefficients du L-estimateurs sont initialisés à 1/5 et
convergent respectivement [0.53 0.045 -0.045 -0.012 0.57]
0.7
Coefficients du L-

0.6
0.5
estimateur

0.4
0.3
0.2
0.1
0.0
-0.1
0 10 20 30 40 50 60 70 80 90

Figure 54

3.5
3.0
Variance

2.5
2.0
1.5
1.0
0 10 20 30 40 n 50 60 70 80 90 100

Figure 55

7
Carte de position

-1

-3

-5
Moyenne L Estim ateur

Figure 56
Nous pouvons constater que la variance de l’estimation évolue de s2/5 = 3,19 à 1,5 qui correspond à
la variance du L-estimateur des moindres carrés. Nous aborderons dans le paragraphe suivant le
calcul des limites de contrôle de la carte L.

Les procédés à évolution rapide et les petites séries.

Si le calcul des coefficients du L-estimateur n’est pas trop délicat pour les procédés relativement
stables, il n’en est pas de même pour ceux qui sont particulièrement perturbés. En effet, les
périodes de stabilité étant très courtes, il est difficile de recueillir suffisamment de données pour
construire le L-estimateur. Nous considérons que les petites séries se rapportent au même cas de
figure puisque le nombre de données exploitables est faible.

L’idée consiste donc à exploiter au maximum le peu de données recueillies, pour faire converger
les coefficients de la matrice W et du vecteur a vers des valeurs raisonnables. Pour cela nous
utiliserons une méthode de type bootstrap à partir d’un échantillon de capabilité machine ou d’une
carte préliminaire construite avec les toutes premières mesures d’une série courte.

Les méthodes bootstrap

Les méthodes bootstrap déjà évoquées au chapitre précédent font partie des méthodes intensives de
calcul. Elles se sont développées avec la montée en puissance des ordinateurs. C’est une procédure
de réechantillonnage dont l’objectif est d’étudier les propriétés d’une statistique T fondée sur un
échantillon (X1,X2, ...,Xm) d’une variable aléatoire.

L’algorithme du bootstrap est relativement simple. Nous le résumerons en trois étapes (Figure 57) :
· Nous considérons tout d’abord un échantillon indépendant E= (X1,X2, ...,Xm).
· On prélève N valeurs de façon équiprobable avec remise, dans la population empirique que
constitue E. L’échantillon ainsi prélevé est noté E*.
· La dernière étape consiste à étudier le comportement de la statistique « bootstrapée » T*
construite à partir de E*. Ainsi, on itère un grand nombre de fois le réechantillonnage et le calcul
de T* pour donner lieu à une approximation par la méthode de Monte-Carlo.

Application à un échantillon ordonné

Les statistiques étudiées seront des statistiques d’ordre associées au calcul des éléments de W et a.
Les échantillons bootstrap sont de la taille des sous groupes de la carte de contrôle : N=n.

T ∗¿ X  i  i=1,2 , K , n pour éléments du vecteur a.


T ∗¿  X  i  − X i   X  j  − X j   1 ≤i j≤n pour les éléments de la matrice W.
On note E* l’espérance calculée à partir de B échantillons bootstrap. L’espérance des statistiques
bootstrapées est calculée par la relation (Eq 0).

T ∗¿
¿
E¿¿
¿
Eq 0

On possède un échantil on
Distribution de la population de N mesures
indépendantes. Cet

E ensemble de mesures sert


de population de base.

On opère un
réechantil onnage aléatoire
avec remise dans E . Chaque
échantil on bootstrap permet
Distribution empirique de calculer une statistique
bootstrapée T*.
E(T*)

L'ensemble des B
statistiques T* permet
d'approximer le
s (T*) comportement de T.
2 20 60 87 90 84 60 45 35 20 15 10

Distribution de T*

E * (T*); V *
(T*); ...

Figure 57
Pré-requis à l’utilisation de la méthode bootstrap

· Cette méthode ne peut être appliquée que si l’échantillonnage effectué sur le procédé est
aléatoire. En effet, le réechantillonnage avec remise, élimine toute corrélation entre les mesures
de l’échantillon original. Dans le cas de procédés multigénérateurs, il se peut qu’un
échantillonnage aléatoire ne soit pas adapté au suivi par carte de contrôle. L’un des effets de
l’échantillonnage séquentiel, par exemple, est de réduire le nombre de combinaisons de
générateurs au sein d’un échantillon. Il en résulte une variance inter échantillon plus faible que
pour un échantillonnage aléatoire. Dans ce cas le réechantillonnage aurait pour conséquence de
modifier la variance inter échantillons et les valeurs de W et a. On est donc contraint de calculer
le L-estimateur à partir des échantillons prélevés lors de la période de référence, par la méthode
de lissage.
· Pour que l’échantillon original soit représentatif de la population, il est nécessaire que le procédé
soit stable pendant le prélèvement de l’échantillon. Plus la taille de l’échantillon est grande, plus
les résultats obtenus seront de bonne qualité. Avec une vingtaine de mesures individuelles, on
peut déjà obtenir des coefficients du L-estimateur qui sont dans le voisinage des coefficients
optimaux.

Exemple d’application

On se propose de suivre le procédé décrit au paragraphe . simulant une fabrication sur presse à
injecter avec six empreintes.

· On procède à un échantillonnage aléatoire de taille n=5 pour construire la carte de contrôle. Le


procédé étant modérément stable, on prélève m=30 mesures individuelles (soit six échantillons
M.S.P.) dans un laps de temps relativement court pour que l’évolution du procédé ne soit pas
significative. Cet échantillon est l’échantillon de base qui servira à construire le L-estimateur par
la méthode bootstrap.
· On génère B=1000 échantillons ordonnés de taille n=5. On peut prélever jusqu'à
m  m1  L  mn−1 
K nm= =C nmn−1 échantillons différents à partir de l’échantillon original.
n!
K mn−1 étant le nombre de combinaisons avec répétition (Ici K nmn−1 =278256)
n

· On calcule à partir de ces échantillons les coefficients de la matrice W et du vecteur a.


B n
1 1
m = ∑ ∑ X ∗¿
· Si le paramètre de localisation de la population est la moyenne, alors p B i=1 n j=1 i , j ,
¿
la moyenne de l’ensemble des échantillons bootstrap.
· Le paramètre d’échelle est l’écart-type des B*n mesures individuelles.
· A l’issue des calculs, on obtient les coefficients suivants :

L-estimateur de position
c1 c2 c3 c4 c5
Coefficients par méthode Bootstrap 0.55 -0.030 -0.042 -0.027 0.55
Coefficients Optimaux 0.53 -0.045 -0.046 -0.010 0.57
On constate que les coefficients obtenus par méthode bootstrap sont très proches des coefficients
optimaux. L’efficacité relative du L-estimateur de position par rapport à la moyenne est de 0,49
avec les coefficients estimés par la méthode bootstrap alors qu’elle est de 0,47 pour les coefficients
optimaux.

L-estimateur de dispersion
c1 c2 c3 c4 c5
Coefficients par méthode Bootstrap -0.49 0.034 -0.062 -0.0047 0.47
Coefficients Optimaux -0.47 0.026 0.0013 -0.023 0.46

Les coefficients obtenus par la méthode bootstrap permettent un suivi de très bonne qualité, comme
on peut le constater sur la Figure 58.

7.5
5.5
3.5
1.5
-0.5
-2.5
-4.5
Xb L-EstX Cible X

6
4

0
S L-EstS

Figure 58
Calcul des limites de contrôle
Outre le calcul du L-estimateur, la construction d’une carte L nécessite également la détermination
de limites de contrôle. Celles-ci permettent de préciser le moment opportun pour effectuer un
réglage. Les limites de contrôle d’une carte de Shewhart sont en général placées à ±3 s p /  n , de
façon à obtenir un risque a de l’ordre de 0,27% dans l’hypothèse d’une population relativement
proche d’une loi normale. Cette hypothèse sort bien entendu du cadre de notre étude. Il est donc
indispensable de reconsidérer le choix des limites de contrôle.

Problématique

Le calcul ou l’évaluation de la distribution d’un L-estimateur est un problème qui reste encore
entier à l’heure actuelle. En effet les calculs sont relativement complexes et nécessitent la
connaissance de l’expression de la loi de distribution de la population, ce qui n’est pas notre cas. Le
calcul des lois exactes n’étant pas concevable, nous aurons recours à des approximations.
Nous avons exposé au chapitre précédent quelques méthodes permettant d’établir les limites de
contrôle d’une carte de la moyenne, pour des lois non normales. Les méthodes exposées sont pour
la plupart basées sur l’identification d’une loi paramétrique (Courbes de Burr [You 92], loi de
Weibull [Sch 96]66 etc.). La parfaite connaissance des caractéristiques de la loi permet de
déterminer aisément les limites de contrôle telles que les risques a soient de l’ordre de 0,27%.
Ces méthodes nous apparaissent cependant peu intéressantes du fait de leur approche paramétrique,
qui par essence ne peut satisfaire à tous les cas de figure. De plus, la modélisation des queues d’une
distribution reste modérément fiable, surtout si cette modélisation est réalisée à partir d’un
échantillon représentatif de faible taille.

Intervalle de confiance pour un paramètre de localisation

Notre souci étant principalement de fournir une méthode générale, nous allons rappeler plusieurs
méthodes classiques, permettant de déterminer un intervalle de confiance pour un paramètre de
localisation. Nous discuterons ensuite de leurs avantages et inconvénients dans le cadre de notre
application.
La construction d’un intervalle de confiance nécessite généralement la connaissance de la loi des
observations pour pouvoir garantir un certain niveau de confiance. Néanmoins il existe des
méthodes dites « distribution-free » qui ne postulent aucune loi a priori.
Deux méthodes sont couramment proposées lorsque l’on considère un modèle non paramétrique de
localisation échelle. Il s’agit d’une méthode basée sur les p-quantiles empiriques d’un échantillon
ordonné et d’une autre approche au caractère un peu plus arbitraire.

66
SCHNEIDER H. KASPERSKI W.J. & al Control charts for skewed and censored data
Quality engineering 8(2):263-274 - 1996
Intervalle de confiance pour un p-quantile

Une méthode qui résulte des propriétés des statistiques d’ordre, consiste à calculer l’intervalle de
confiance d’un p-quantile xp= 0.5. L’intervalle de confiance est alors défini par deux statistiques
d’ordre X(i) et X(m+1-i) où m est le nombre de mesures disponibles. On cherche donc à définir l’entier
i tel que :
m−i
r!
P  X  i  ≤ x p ≤ X  m1−i  = ∑  1/ 2  m ³1−α
r=i r !⋅ m−r  !

Cette méthode a l’avantage de permettre la construction d’un intervalle de confiance à partir des
réalisations d’une variable aléatoire, quelle que soit sa loi. Néanmoins les travaux de Willemain et
Runger [Wil 96] (voir Chapitre 2 §3.3.2) montrent que la Période Opérationnelle Moyenne d’une
carte de contrôle construite sur ce principe est très influencée par la dispersion des statistiques
d’ordre X(i) et X(m+1-i). Cela implique que les limites soient calculées à partir d’un échantillon
important. En effet Willemain suggère de prélever quatre fois plus d’échantillons que la POM
souhaitée pour que les limites soient fiables. Si l’on souhaite P.O.Mk=0=370 pour maintenir un
risque a=0.27%, alors il fait posséder au moins 1480 observations. Ceci n’est malheureusement pas
admissible, d’autant plus que les observations qui proviennent du L-estimateur, sont peu
nombreuses lors de la période de référence.

Intervalle de confiance « universel »

Une deuxième méthode, est d’utiliser l’intervalle de confiance qui s’impose lorsque les
observations proviennent d’une loi normale ou de Student. Ceci est très souvent le cas, même si le
modèle ne le justifie pas. On définit cet intervalle de confiance par la relation (Eq 0).

[  n⋅
m−t
s
n
 n⋅
; mt
s
n ]
Eq 0

Où m  est un estimateur du paramètre de localisation m tandis que s est un estimateur du


paramètre de dispersion. La valeur tn est telle que le niveau de cet intervalle de confiance soit au
moins égal à 1-a. Or la grandeur de tn, dépend de la loi de m  / s , qui elle même dépend de la loi
des observations que nous ne connaissons pas. Pour que les limites soient conformes à celles de la
carte de Shewhart lorsque la variance du L-estimateur est proche de celle de la moyenne, il est
possible de prendre tn=3.

Cette dernière méthode, ne se caractérise pas par sa précision car il est difficile d’avoir une idée des
risques engendrés. En procédant de manière équivalente, il est possible de choisir des limites de
contrôle dont la philosophie se rapproche un peu plus de celle des autres cartes de contrôle, tout en
conservant un niveau de confiance acceptable.
Limites traditionnelles des cartes de contrôle

La plupart des cartes de contrôle basées sur le principe de Shewhart, comme la carte aux étendues
(R ), la carte aux écart-types (S), les cartes aux attributs (p, np, c et u) construisent leurs limites à
±3 écart-types de l’estimateur utilisé (Eq 0).

LSC =Cible3 s L−estimateur de Localisation


LIC =Cible−3 s L−estimateur de Localisation
Eq 0

Ce choix bien qu’arbitraire garantit néanmoins un fonctionnement satisfaisant des cartes de


contrôle. Les risques a sont bien entendus différents des 0,27% de la carte de Shewhart mais restent
d’un ordre de grandeur acceptable. D’ailleurs, le raffinement qui consiste à calculer des limites de
contrôle assurant un risque de 0,27% apparaît futile quand on remarque que les risques a peuvent
s’écarter de manière importante de la valeur souhaitée, même quand la population suit une loi
normale. Il suffit de faire quelques simulations pour s’en convaincre. On effectue, par exemple, 30
tirages d’une variable aléatoire suivant une loi normale, on calcule l’écart type empirique S de
l’échantillon, puis on place les limites de contrôle à ±3 s /  n de la cible, où s est estimé par
l’écart-type empirique S. Les risques engendrés par de telles limites peuvent varier de 3% à 0,01%.

Nous allons discuter le choix des limites de contrôle pour la carte L de position. Ce choix étant lié,
comme nous allons le voir, à la tolérance du L-estimateur aux valeurs extrêmes.

Choix des limites de contrôle

Tolérance aux valeurs extrêmes

Parmi les populations qu’il peut nous être donné de rencontrer, nous distinguerons deux familles de
lois. Celles qui ont des queues plus lourdes que la loi normale, comme la loi double exponentielle,
et celles qui ont des queues plus légères, comme la loi uniforme.
L’efficacité d’un L-estimateur est conditionnée par sa fonction de poids. Celle-ci affectera
beaucoup de poids aux valeurs centrales du L-estimateur si les queues de la loi de la population
sont plus lourdes que celles de la loi normale (médiane). En revanche, on donnera plus de poids aux
valeurs extrêmes si les queues de la loi sont plus légères que celles de la loi normale (milieu).
Si les poids affectés aux valeurs extrêmes X(1) et X(n) ne sont pas nuls et si l’une ou l’autre de ces
valeurs prend une valeur exagérément grande, elle affectera de façon importante le résultat du L-
estimateur. On retiendra en effet, que si la fonction de poids d’un L-estimateur, définie sur [0,1], est
non nulle dans le voisinage de 0 et 1, alors la tolérance aux valeurs extrêmes est nulle (voir §).
C’est le cas de la moyenne empirique par exemple, mais également celui du L-estimateur de
moindres carrés dans la plupart des cas.
Dans les cas où la population a des queues soit beaucoup plus lourdes, soit beaucoup plus légères
que celles de la moyenne, la distribution du L-estimateur des moindres carrés sera leptokurtique.
· En effet, dans le cas d’une population platikurtique, la faible robustesse aux valeurs extrêmes se
traduira par des queues lourdes pour sa distribution.
· Dans le cas d’une population leptokurtique, la faible pondération des coefficients extrêmes ne
pourra éliminer totalement la présence des queues de la population, du fait de la faible taille des
échantillons.

Ainsi, les risques engendrés par des limites (Eq 0) seront toujours supérieurs à 0,27%. L’ordre de
grandeur de ces risques évolue sensiblement selon la taille des échantillons et la symétrie de la
population. On aura souvent des valeurs de l’ordre de 2%.

Nous distinguerons deux cas dans le choix des limites de contrôle :

· Si l’objectif est de minimiser les risques a, on choisira l’intervalle de confiance donné par (Eq
0), soit :

s
LSC =m p 3 ⋅
n
s
LIC =m p −3 ⋅
n
Les risques seront très inférieurs à 0.27% si la population est platikurtique. Ils seront en revanche
plus grands pour une population leptokurtique.

· La deuxième alternative (Eq 0) fournit des risques supérieurs ou égaux à 0,27%. Ils sont toujours
supérieurs à ceux engendrés par les limites (Eq 0).

Intervalle de confiance pour le paramètre d’échelle

Pour le paramètre d’échelle, la construction de l’intervalle de confiance est relativement simple. On


constate en effet que la distribution de l’écart-type empirique et du L-estimateur de dispersion sont
toujours extrêmement proches l’une de l’autre.
Malgré la similarité des distributions nous choisirons les limites (Eq 0) qui ont l’avantage de
prendre pour cible sp. De plus, les limites de contrôle traditionnelles (Eq 0) sont construites à partir
du coefficient c4 qui introduit un biais lorsque la distribution des observations ne suit pas une loi
normale.


LSC = c 4 3  1−c 24 . s
LIC =  c 4 −3  1−c 24  . s
Eq 0
LSC =s3 s L−estimateur
LIC =s−3 s L−estimateur
Eq 0

Les limites de contrôle des deux cartes L étant déterminées, il est possible de piloter de manière
statistique un procédé. Néanmoins il existe d’autres règles de contrôle, qui ne sont pas basées sur le
test par intervalle de confiance, qui méritent d’être étudiées.

Incidence sur les règles de pilotage


Le pilotage par carte de contrôle est régi par un certain nombre de règles de décision qui s’appuient
sur la statistique. Les règles énoncées dans le cadre de l’utilisation des cartes L, sont sensiblement
équivalentes à celles utilisées pour une carte de type Shewhart, sous certaines conditions. Nous
commenterons les cinq situations entraînant une prise de décision de la part de l’opérateur.

Procédé sous contrôle

Règle de pilotage

Les points reportés sur la carte de position et de dispersion oscillent de


part et d’autre de la cible. Le procédé est parfaitement centré.
Si la distribution de l’estimateur suit une loi normale alors la
probabilité qu’une mesure soit dans l’intervalle de confiance ±s est
p=0.683. C’est pourquoi on énonce souvent un quota de 2/3 des points dans le tiers central de la
carte de contrôle. Cette dernière règle n’est donc pas applicable à la lettre avec un L-estimateur du
fait du caractère leptokurtique de sa distribution (p>0.683). Elle n’a d’ailleurs qu’un intérêt limité à
partir du moment où le procédé ne répond pas aux différentes règles qui suivent (procédé hors
contrôle).

Décision

Il faut poursuivre la production.


Procédé hors contrôle

Règle de pilotage

Le dernier point placé sur la carte de position ou de dispersion est en


dehors des limites de contrôle.
L’hypothèse H0 du test par intervalle de confiance n’est pas valide,
que le niveau de confiance 1-a soit parfaitement ou partiellement
connu. Le procédé est hors contrôle. Il faut donc intervenir sur le procédé.

Décision

Si un état hors contrôle est détecté sur la carte de position le procédé est décentré. On préconise
alors d’effectuer un réglage de la valeur qui sépare le point de la cible.
Si un point hors contrôle est noté sur la carte de dispersion, la capabilité machine peut avoir évolué.
On vérifiera tout d’abord que le décentrage n’est pas imputable à une erreur de mesure. Dans le cas
contraire, la distribution de la population ayant évolué, il faut recalculer les coefficients du L-
estimateur.
La détection d’un point hors contrôle peut être le seul fait d’une évolution du paramètre d’échelle
de la population, auquel cas les coefficients du L-estimateur fournissent encore une estimation sans
biais à variance minimale. Cependant il est difficile de vérifier cette hypothèse et la détection d’un
point hors contrôle déclenche le plus souvent des actions correctives qui modifient le comportement
du procédé. C’est pourquoi nous conseillons fortement de recalculer les coefficients du L-
estimateur et d’appliquer l’une des procédures de démarrage décrites au paragraphe 4.2 de ce
chapitre.

Tendance Supérieure ou Inférieure à la cible

Règle de pilotage

Sept points consécutifs sont détectés au dessus ou en dessous de la


cible, tout en restant entre les limites de contrôle.
Ce test est lié à des propriétés de symétrie de la distribution de
l’estimateur utilisé. Intéressons nous tout d’abord à une carte X  . La
cible de la carte de contrôle est le plus souvent la moyenne des estimations X  . Si la distribution de
 suit une loi normale ou possède des propriétés de symétrie, alors la moyenne des moyennes
X
 est confondue avec la médiane des moyennes. Dans l’hypothèse où le procédé est centré, la
X
probabilité qu’un point tombe d’un côté ou de l’autre de la cible est de 0,5. La probabilité de voir
des points consécutifs d’un côté de la cible est donc relativement faible.
Le phénomène peut être considéré anormal au bout de sept points consécutifs car la probabilité
qu’un huitième point tombe de ce même côté est du même ordre de grandeur que les risques a.
L’hypothèse H0 n’est donc plus valable.
Cette règle veut que la distribution de l’estimateur soit symétrique. On peut cependant trouver
assez facilement des contre-exemples comme l’écart type S et l’étendue R dont les distributions
sont non symétriques.

Dans les différentes études réalisées, la distribution du L-estimateurs de position de Lloyd s’est
avérée avoir une tendance centrale et des propriétés de symétrie plus fortes que la moyenne, dans
un contexte non normal. De plus, la distribution du L-estimateur de dispersion est la plupart du
temps semblable à celle de l’écart type. Cette règle nous semble donc tout à fait applicable aux
cartes L. La valeur fatidique de 7 points consécutifs peut néanmoins être revue si l’on a la certitude
que les risques a sont très différents de 0,27%. Le nombre de points peut être défini de telle sorte
que la probabilité d’être n fois consécutives du même côté (0.5n) soit du même ordre de grandeur
que les risques a associés à la position des limites de contrôle. On peut citer, par exemple, la norme
AFNOR [AF1 95]67 qui considère que 9 points consécutifs du même côté permettent de conclure à
un décentrage du procédé ; la probabilité d’un tel événement est de 0,002.

Décision

Si une tendance est décelée sur la carte de position, il est conseillé de régler le procédé de l’écart
moyen qui sépare la tendance de la cible. Il faut noter dans ce cas que le réglage préconisé par le L-
estimateur de position sera bien meilleur que celui donné par la moyenne pour un échantillon de
même taille.
Si la tendance est détectée sur la carte de dispersion, il est préférable de recalculer le L-estimateur
ainsi que les limites des deux cartes de contrôle.

Tendance Croissante ou Décroissante

Règle de pilotage

Sept points consécutifs forment une tendance croissante ou


décroissante.
Ce test s’appuie sur l’hypothèse d’indépendance des données. Sous
cette hypothèse, les points reportés sur les cartes doivent former un
tracé dont les tendances sont alternativement croissantes ou décroissantes. Si ce n’est pas le cas, il y
a de fortes chances que le procédé soit en train de dériver.
P  X i  X i1 L X i1  =1/7 !α
Ceci est vrai quel que soit l’estimateur utilisé et quelle que soit sa distribution.

67
AFNOR Norme NF X 06-031-1 Application de la Statistique - Cartes de contrôle de Shewhart aux mesures ISSN
0335-3931
Décision

Si une tendance croissante ou décroissante est détectée sur la carte de position, on recentre le
procédé de la valeur qui sépare le dernier point de la cible.
Si une tendance est révélée sur la carte de dispersion, on recalcule le L-estimateur et les limites de
deux cartes de contrôle ; comme dans le cas précédent.

Point proche d’une limite de contrôle

Règle de pilotage

Le dernier point est situé dans le sixième supérieur ou inférieur de la


carte, proche des limites. Le procédé n’est pas hors contrôle,
cependant le procédé peut avoir subi un décentrage. Si le point est
excentré du fait des causes communes, la probabilité est très faible
qu’un second point se situe dans la même zone.

Décision

On prélève immédiatement un autre échantillon. Si le point reporté se trouve dans le tiers central de
la carte, ce n’était qu’une fausse alerte. On repasse donc en production.
Pour la carte de position, si le second point se trouve dans la même zone que le premier, le procédé
est décentré. On préconise alors de régler de la valeur qui sépare la cible de la moyenne de ces deux
points.
Pour la carte de dispersion, on s’intéressera uniquement au cas où deux points sont proches de la
limite supérieure. La capabilité machine s’étant détériorée, on recalcule le L-estimateur et les cartes
de contrôle.

Synthèse des règles de pilotage

L’étude détaillée de ces cinq règles de pilotage montre que la carte L ne requiert pas de méthode de
pilotage spécifique. Nous n’avons apporté aucune modification aux règles traditionnelles de
pilotage du point de vue de leurs principes. En revanche, nous avons rappelé les fondements
mathématiques de chacune de ces règles afin de nuancer leur application dans des cas où la
distribution de l’estimateur ne suit pas une loi normale. Nous avons également précisé quels
événements étaient susceptibles de remettre en cause les coefficients du L-estimateur.
L’utilisation et l’interprétation de cartes de contrôle avec L-estimateur sera donc totalement
transparente pour un utilisateur libéré des procédures de calcul.
Sensibilité de la carte L
La sensibilité des cartes de contrôle est une des caractéristiques essentielles permettant de juger
leurs performances. Pour appréhender ce niveau de performance on peut procéder de deux manières
sensiblement équivalentes. La première consiste à calculer la période opérationnelle moyenne
(P.O.M.) pour un décentrage donné, l’autre se résume à calculer la forme de la distribution de
l’estimateur pour déterminer la probabilité de détecter un état hors contrôle. Cette dernière méthode
n’est d’ailleurs applicable que pour les cartes de contrôle de type X .

La Période Opérationnelle Moyenne est un indicateur reconnu par l’ensemble des professionnels de
la qualité ; une description est d’ailleurs proposée dans la norme AFNOR paru en 95 [AF1 95]. Les
études de P.O.M. peuvent, dans des cas simples, être réalisées par calcul. C’est le cas de la carte de
Shewhart dans des conditions de normalité du procédé. Lorsque l’hypothèse de normalité de la
population n’est pas valide, ou que l’estimateur utilisé n’est pas la moyenne, on procède par
simulations informatiques. Lors de ces études, on suppose également que les caractéristiques de la
population ne sont pas affectées par le décentrage (ce n’est pas le cas d’un défaut de forme par
exemple).

Dans un premier temps nous avons réalisé une étude de P.O.M. de façon à évaluer les améliorations
potentielles d’une carte L par rapport à la carte de Shewhart. Etant donné le caractère non
paramétrique de notre approche, les performances de la carte dépendent de la population étudiée.
Nous avons donc jugé utile de traiter un cas où le L-estimateur possède une variance très inférieure
à celle de la moyenne, pour vérifier si l’amélioration en variance se répercutait sur la P.O.M. Nous
avons également choisi de traiter un cas où la variance du L-estimateur est proche de celle de la
moyenne, pour s’assurer que les performances de la carte L ne sont pas inférieures à celles d’une
carte X .

La seconde partie de notre étude concerne le suivi d’un procédé dont l’évolution se traduit par une
modification de la distribution de la population.

Sensibilité à un décentrage

Cas d’une non normalité très marquée

La détection des dérives aussi bien rapides que lentes sur un procédé de production est lié au choix
des limites de contrôle et à la distribution de l’estimateur utilisé.
Le premier cas que nous avons choisi de présenter est celui d’une distribution possédant des queues
légères (Figure 59). Il s’agit d’un mélange de lois normales de moyennes différentes. Nous avons
vu au paragraphe que la forme de la population avait une répercussion importante sur la
distribution des estimateurs, surtout si les échantillons sont de petite taille. Il en résulte que les
risques a sont inférieurs à 0.27% lorsque les limites sont placées à ±3 s p /  n . Cela se traduit par
une POM supérieure à 370.
Pour le L-estimateur, le problème est un peu délicat car nous ne connaissons pas a priori sa
distribution.
0.08
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0.00
Population Loi Normale

Figure 59

Nous avons donc calculé les P.O.M. de la carte X  et de la carte L dans les mêmes conditions. Il
ressort de cette étude trois points essentiels :
· La P.O.M. de la carte L avec des limites placée à ±3 s /  n est d’un ordre de grandeur
équivalent à celle de la carte X , pour des décentrages k compris entre - 3/  n et + 3/  n . Pour
des décentrages inférieurs aux limites de contrôle, c’est le poids des queues qui détermine la
P.O.M. C’est pourquoi les résultats peuvent être très variables selon la taille des échantillons
(Figure 60).

· Pour des décentrages supérieurs aux limites de contrôle, la P.O.M. de la carte L tend plus
rapidement vers 1 que la carte X . Ceci s’explique par le caractère impulsionnel de la loi du L-
estimateur. Une faible augmentation du décentrage occasionne une forte augmentation de la
probabilité de détecter le décentrage.

1 600 7
Carte L Carte L
1 400
Carte Xb 6 Carte Xb
1 200
5
1 000
P.O.M.

P.O.M.

800 4
600
3
400
200 2

0 k 1 k
-1.0 -0.5 0.0 0.5 1.0 1.0 1.2 1.4 1.6 1.8 2.0

Figure 60

· La P.OM. de la carte L pour des limites placées à ±3 s L−estimateur est toujours inférieure à la
 . Les risques a sont ici de l’ordre de 0.6%, ce qui est loin d’être alarmant
P.O.M. de la carte X
(Figure 61). Le choix de telles limites a l’avantage de fournir une carte très sensible aux
décentrages.
1 000 5
Carte Xb Carte Xb
800 Carte L 4 Carte L
P.O.M.

600 3

P.O.M.
400 2

200 1

0 k 0 k
-1.0 -0.5 0.0 0.5 1.0 1.0 1.2 1.4 1.6 1.8 2.0

Figure 61

k Carte L Carte X Carte L


3 s/  n 3 s L−estimateur
0 1440 938 180
0.1 880 580 160
0.2 420 240 90
0.5 50 30 20
1 6.2 4.3 3.0
1.5 1.4 1.8 1.2
Figure 62

La Figure 62 permet de faire une rapide synthèse des caractéristiques des Périodes Opérationnelles
Moyennes des différentes cartes. Pour illustrer ces résultats nous avons simulé sur une carte de
contrôle la dérive d’un procédé (Figure 63). La dérive simulée est linéaire. En effet le décentrage de
la population est proportionnel au numéro de l’échantillon, ce qui signifie que le procédé est
stationnaire pendant la constitution de l’échantillon.

· On peut constater que la détection de la dérive est faite un peu plus tôt avec la moyenne qu’avec
le L-estimateur lorsque les limites sont placées à ±3 s p /  n (LC1). Ceci s’explique par la
variance importante de la moyenne par rapport au L-estimateur. Nous pouvons considérer que
nous n’avons pas eu de chance car la moyenne surestime tout le temps la position du procédé
entre l’échantillon N°35 et l’échantillon N°46. Dans le cas contraire, nous aurions pu détecter
cette dérive avec le L-estimateur bien avant, puisqu’il suit avec précision la tendance du
procédé.
· La détection est en revanche plus rapide (échantillon N°27) avec les limites placées à
±3 s L−estimateur (LC2) au risque de générer un nombre important de fausses alarmes.
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Moyenne L-estimateur LC1 Tendance Cible LC2

Figure 63

Si nous avions appliqué la règle de pilotage qui consiste à compter le nombre de points consécutifs
d’un même côté de la cible, nous aurions détecté la dérive du procédé dès l’échantillon N°15 avec
le L-estimateur alors que cela n’aurait été fait (avec beaucoup de perspicacité) qu’au 24ème
échantillon avec la moyenne.

Cas d’une faible non normalité

Dans le cas d’une faible non normalité, l’amélioration apportée par le L-estimateur en terme de
variance est assez peu significative. L’exemple proposé met en œuvre un L-estimateur de position
dont l’efficacité relative par rapport à la moyenne est de 0,85.

0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
Population Loi Normale

Figure 64

Dans ce cas, on constate que la carte L et la carte X  ont un comportement sensiblement


équivalent. La P.O.M de la carte L est très proche de celle de la carte X  pour les mêmes limites
de contrôle (Carte L1). Ce résultat nous conforte dans l’idée que la carte L, reste, dans le cas
général, au moins aussi sensible que la carte de X  .
Pour des limites placées à ±3 s L−estimateur les risques sont plus faibles que précédemment et
tendent vers 0.27% si le L-estimateur optimal est la moyenne.
800 6
700 Carte L1 Carte L1
Carte Xb 5 Carte Xb
600 Carte L2 Carte L2
4
500
P.O.M.

400 3
300
2
200
100 1
0 k 0
-1.0 -0.5 0.0 0.5 1.0 1.0 1.2 1.4 1.6 1.8 2.0

Remarque
Dans le cas de populations fortement dissymétriques, la P.O.M. obtenue pour les différentes cartes,
sera elle aussi dissymétrique. Yourstone montre dans ses travaux que le choix des limites peut
permettre de minimiser cette dissymétrie, mais que ce n’est pas suffisant.

Sensibilité à une déformation de la population

La seconde partie de notre étude concerne la détection d’une déformation de la population. Ce


phénomène peut être mis en évidence sur une presse à injecter, si le conduit d’injection d’une des
empreintes tend à s’obstruer. On aura le même comportement si on a un défaut de serrage sur une
des broches d’un tour.

Ce problème est d’un intérêt fondamental pour l’utilisation des cartes L. En effet, nous savons
qu’un L-estimateur des moindres carrés est construit à partir de la matrice de covariance des
statistiques d’ordre, qui apporte une information fortement liée à l’échantillonnage et à la
distribution de la population. Or, si cette distribution évolue, le L-estimateur ne sera plus en mesure
de fournir une estimation à variance minimale, ni même sans biais. La question qui se pose alors,
est de savoir si la détection d’une déformation est possible avant que les performances du L-
estimateur ne se dégradent trop. Cette question a trait donc à la robustesse du L-estimateur des
moindres carrés.

Cadre de notre étude

Nous avons vu au paragraphe (§) les deux conditions pour qu’un L-estimateur soit robuste selon
Huber. La première condition, qui est relative aux poids des coefficients extrêmes n’est
qu’exceptionnellement satisfaite avec le L-estimateur des moindres carrés. Le second critère
demande que les lois convergent rapidement vers 0 et 1 pour que l’estimateur soit robuste. Cette
condition peut être satisfaite si la distribution de la population est tronquée ou a des queues légères.
Ceci ne concerne donc qu’un nombre limité de cas.
Le cadre non paramétrique étant peu propice aux démonstrations, nous avons étudié le cas ou le L-
estimateur de position est de toute évidence très peu robuste. Ils s’agit en l’occurrence du cas ou les
coefficients extrêmes sont fortement pondérés.

Loi N°1 Loi N°2 Loi N°3

-8 -6 -4 -2 0 2 4 6 8 10 12 -8 -6 -4 -2 0 2 4 6 8 10 12 -8 -6 -4 -2 0 2 4 6 8 10 12

Figure 65

Cette étude réalisée par simulation informatique a conduit à la comparaison des distributions des L-
estimateurs de position et de dispersion, respectivement avec celles de la moyenne et de l’écart
type.
Les comparaisons ont été réalisées sur trois distributions qui diffèrent légèrement les unes des
autres (Figure 65). Dans des conditions normales, la distribution de la population suit la loi N°1. Au
fur et à mesure que le procédé se dégrade, la distribution des observations suit la loi N°2 puis la loi
N°3. Dans cet exemple, les estimations réalisées à l’aide de la moyenne et du L-estimateur
s’appuient sur des échantillons d’effectif n=5.
Estimateurs d’un paramètre de localisation Estimateurs d’un paramètre de dispersion
Loi N°1 N(5,1) N(5.5,1) N(5.0,1) N(0,1) N(-3.2,1) N(3.5,1)

L-estimateur L-estimateur
Moyenne S

-4.1 -2.8 -1.5 -0.3 0.9 2.2 3.4 4.7 5.9 7.2 8.4 0.4 1.0 1.6 2.2 2.8 3.4 4.0 4.6 5.2 5.8 6.4 7.0 7.7

Loi N°2 N(7,1) N(5.5,1) N(5.0,1) N(0,1) N(-3.2,1) N(3.5,1)

L-estimateur L-estimateur
Moyenne S

-4.0 -2.8 -1.5 -0.3 0.9 2.1 3.4 4.6 5.8 7.0 8.2 0.4 1.1 1.7 2.4 3.1 3.7 4.4 5.0 5.7 6.4 7.0 7.7

Loi N°3 N(10,1) N(5.5,1) N(5.0,1) N(0,1) N(-3.2,1) N(3.5,1)

L-estimateur L-estimateur
Moyenne S

-4.0 -2.7 -1.2 0.2 1.6 3.1 4.5 5.9 7.4 8.8 0.4 1.2 2.0 2.9 3.7 4.5 5.3 6.1 6.9 7.7

Figure 66

On considère que la « Loi N°1 » représente la distribution de la population lorsque le procédé est
stationnaire. Les coefficients du L-estimateur de Lloyd ont donc été calculés à partir de ce modèle.
Dans ce cas, le L-estimateur de position m  et de dispersion s sont sans biais et à variance
minimale. Nous allons donc évaluer quelles sont les pertes de performance du L-estimateur lorsque
la loi originale subit une faible déformation (Loi N°2) puis un forte déformation (Loi N°3).
Les différents indicateurs de performance étudiés sont :
· L’efficacité relative de la moyenne par rapport au L-estimateur de position
ER  X
 ,m   =Var [ m  ] /Var [ X
]
· L’efficacité relative de l’écart type empirique par rapport au L-estimateur de dispersion
ER  S , s  =Var [ s ] /Var [ S ]
· Le biais réduit du L-estimateur de position B m = m−m p/ s p
· Le biais réduit du L-estimateur de position B s =  s −s p  / s p

ER  X 
 ,m ER  S , s  B m B s
Loi N°1 0.5 0.9 0 0
Loi N°2 0.5 0.9 0.02 0
Loi N°3 0.7 1 0.1 0
Figure 67

Résultats

Nous retiendrons de cette étude les points suivants :

· Le tracé des distributions Figure 66 confirme la faible robustesse du L-estimateur des moindres
carrés pour un paramètre de localisation. En effet, sa distribution est affectée de manière
significative par l’évolution de la population contrairement à la moyenne qui s’avère plus
robuste.
· Malgré la forte dégradation des performances du L-estimateur de position, (qui se traduit par une
augmentation importante de l’efficacité relative de la moyenne par rapport au L-estimateur) son
biais reste modéré. Les corrections éventuelles que l’on apportera au procédé ne seront donc pas
dommageables à sa stabilité.
· Le L-estimateur de dispersion semble plus robuste aux évolutions de la population car son biais
reste négligeable. Le décalage entre s et S que l’on peut constater sur les trois courbes est
essentiellement imputable au biais de S en tant qu’estimateur de sp. Rappelons d’ailleurs que
dans le cas d’une loi non normale, S / c 4 est aussi un estimateur biaisé de sp.
· L’évolution de la moyenne de la population, liée à sa déformation est ici très faible (k= 0.2 entre
les Lois N°1 & 3). En conséquence, la détection de ce décentrage par un dépassement des limites
de contrôle est peu probable. On peut faire la même remarque pour la dispersion de la
population. Néanmoins, les performances des L-estimateurs étant encore acceptables, on peut
détecter l’apparition d’une tendance sur les deux cartes L (Figure 68).
D’autres simulations, effectuées sur une population leptokurtique ont mis en évidence les mêmes
phénomènes.

· Malgré la faible pondération des coefficients extrêmes du L-estimateur de position, celui-ci


s’avère peu robuste par rapport à la moyenne.
· Néanmoins, le biais du L-estimateur de position reste très faible.
· Le L-estimateur de dispersion est pour sa part beaucoup plus robuste et son biais est négligeable.

Carte de position
6.0

5.0
4.0

3.0
2.0

1.0
0.0

-1.0
-2.0
Shew hart Carte L Xbb LSC LIC

Carte de dispersion
8.0
7.0
6.0
5.0
4.0
3.0
2.0 Loi N°1 Loi N°3
1.0
Carte L Carte S Ecart-Type Population LSC

Figure 68

Conclusion

L’étude réalisée dans ce paragraphe nous a permis de vérifier que la faible robustesse du L-
estimateur de position ne constituait pas une entrave à l’utilisation de la carte L puisque les
modifications de la distribution de la population sont détectées au même titre que les autres causes
spéciales. Notons d’ailleurs que le faible biais du L-estimateur de position a tendance à favoriser
cette détection. De plus, les modifications subies par la population sont ici particulièrement
importante et peu vraisemblables sur un outils de production.
Ces résultats et ceux obtenus par Pappanastos [Pap 96]68 confirment en effet, que la robustesse d’un
estimateur et la détection d’anomalies de production par une carte de contrôle sont antinomiques.
Nous avons vu au chapitre 2 que L’estimateur de Hodges-Lehmann qui se caractérise par une
grande robustesse fournit généralement des résultats médiocres, lorsqu’il est employé pour une
carte de contrôle. Le L-estimateur des moindres carrés, qui en revanche est peu robuste détecte
rapidement les évolutions de la population.

Nous rappelons donc la règle de pilotage suivante :


Lorsque une tendance est détectée à la fois sur la carte de position et de dispersion (comme sur la
Figure 68), cela signifie que la distribution de la population a été modifiée. Différentes actions sont
alors à mettre en œuvre :
· Arrêter la production.
· Rechercher l’origine des causes spéciales.
· Recalculer les coefficients du L-estimateur.

La non stationnarité des procédés est un problème bien connu en automatique. Elle conditionne en
effet la validité des modèles mathématiques mis en œuvre. Pour remédier à cette non stationnarité,
on a souvent recours aux méthodes dites « adaptatives », dont l’objectif est de prendre en compte
les évolutions du procédé pour que les modèles mathématiques utilisés restent acceptables.
Il serait intéressant de pouvoir maintenir les coefficient du L-estimateur dans le voisinage des
valeurs qui assurent une estimation à variance minimale et sans biais.
Une stratégie très classique, par exemple, consiste à recalculer périodiquement les coefficients à
partir d’une fenêtre de données limitée dans le temps.

68
PAPPANASTOS E.A. & ADAMS B.M. Alternative Designs of Hodges-Lehmann Control Chart Journal of
Quality Technology Vol 28 N°2 - 1996
Le cas particulier des défauts de forme

Nous allons nous intéresser dans ce paragraphe aux défauts de forme, qui représentent une part
importante des non normalités rencontrées dans le milieu industriel.
Le cas des défauts de forme est a priori facile à traiter puisque la distribution de la population est
parfaitement caractérisée lorsqu’on connaît le rapport m/ s où m et s sont respectivement la
moyenne et l’écart type de la loi de défaut de forme. On peut donc s’affranchir du calcul de la
matrice de variance covariance ainsi que du vecteur des moments d’ordre 1 pour déterminer les
coefficients du L-estimateur. On peut en effet imaginer que l’on possède une base de données des
coefficients du L-estimateur, indexée par le coefficient m/ s et la taille d’échantillon.

n=3
z / sz
k=  C1 C2 C3
0.0 0.403632 0.223596 0.372771
0.1 0.406518 0.208337 0.385146
0.2 0.413629 0.197614 0.388757
0.3 0.407658 0.211248 0.381094
0.4 0.408133 0.200376 0.391490
0.5 0.418098 0.184483 0.397419
... ... ... ...
Figure 69

Rappelons que l’utilisation du L-estimateur des moindres carrés, même si cette méthode est non
paramétrique, suppose que la loi des observations peut être décrite par un modèle non paramétrique
localisation échelle.
Dans le cas de la loi de défaut de forme, ce modèle n’est pas valable car les deux paramètres mp et
sp sont liés. Toute modification du paramètre de localisation de la population entraîne une
modification du paramètre d’échelle, du fait d’une modification de la loi des observations.
Nous avons montré au paragraphe que la carte L était particulièrement sensible aux modifications
de la distribution de la population. Cela se traduit en particulier par une baisse de l’efficacité du L-
estimateur et un léger biais.
L’objectif d’une carte de contrôle étant de détecter toute modification significative de la population,
il n’est pas inintéressant d’utiliser une carte L dans le cas d’un défaut de forme, sous réserve que les
performances du L-estimateur soient nettement supérieures à celles de la moyenne.

Choix des paramètres à estimer

Nous avons justifié au paragraphe le choix du paramètre de localisation, en prenant pour critère, la
minimisation des coûts de la non qualité. Dans le cas de tolérances unilatérales, Taguchi définit la
fonction perte par L=KX² (Figure 70). Le paramètre de localisation n’étant pas superposable à la
cible, son choix n’intervient pas dans la minimisation de la perte moyenne.
n
L = K ∑ X i 2=K  X 2s2 
n i=1

Eq 0

.X²
L=K

0
Figure 70

On prendra donc de manière très naturelle la moyenne de la loi de défaut de forme comme
paramètre de localisation.

Variance du L-estimateur dans le cas des défauts de forme

Avant de mettre en place une carte L, il est nécessaire de calculer la variance du L-estimateur pour
apprécier si son efficacité relative par rapport à la moyenne justifie son utilisation.
Pour les défauts de forme, nous nous intéresserons particulièrement au cas où le rapport m/ s est
proche de 0 puisqu’il caractérise une forte non normalité. En revanche, si le rapport m/ s tend vers
3, la loi de défaut de forme est une loi normale.

Efficacité relative L-estimateur/ Moyenne


1.01
1
0.99
0.98
0.97 n=3
Eff

0.96 n=4
0.95 n=5
0.94
n=6
0.93
0.92
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3
k

Figure 71
Nous avons calculé avec Matlab les coefficients du L-estimateur des moindres carrés, par
intégration numérique (Eq 0 & Eq 0 p101). Ces résultats nous ont permis de déterminer l’efficacité
relative de la moyenne par rapport au L-estimateur de position (Figure 71).
On constate que la variance du L-estimateur est inférieure à celle de la moyenne pour de faibles
décentrages de la population, et qu’elle atteint son minimum pour un décentrage de l’ordre d’un
écart type. L’efficacité relative tend ensuite vers 1 pour k>2, puisque la distribution de la
population se rapproche de la loi normale.
D’un point de vu quantitatif, il faut admettre que l’amélioration apportée par le L-estimateur en
terme de variance par rapport à la moyenne est substantielle. En effet, celle-ci ne dépasse pas 5%
pour un échantillon de taille n=5, ce qui n’entraîne aucune amélioration sur la sensibilité d’une
carte de contrôle de type Shewhart

Conclusion
Les résultats de notre étude tendent à conclure que la carte L n’est pas applicable au cas des défauts
de forme.
En effet, l’utilisation du L-estimateur des moindres carrés est particulièrement délicate dans le cas
des défauts de forme, car toute évolution de la moyenne entraîne une modification de distribution
des observations. Le L-estimateur n’est donc optimal que très localement.
D’autre part, la variance du L-estimateur de position est sensiblement équivalente à celle de la
moyenne. Il est donc plus intéressant d’utiliser une carte X , qui pour des performances
équivalentes a l’avantage d’être très simple.
Extensions de la carte L

La carte L que nous avons proposée dans la section précédente n’est pas la seule application
possible du L-estimateur des moindres carrés. Son application peut, en effet, couvrir un large
ensemble d’outils, au même titre que les estimateurs classiques de position et de dispersion.
L’un des outils majeurs dans l’évolution moderne de la M.S.P. est la carte CUSUM pour sa grande
sensibilité aux faibles dérives.

La carte CUSUM L

La carte CUSUM, ne se substitue généralement pas à la carte de Shewhart. On considère plutôt


qu’elle complète ses applications. Alors que la carte de Shewhart est plutôt destinée aux procédés
discrets, comme le montrent ses premières applications dans le milieu automobile, la carte CUSUM
est particulièrement bien adaptée aux procédés continus. Les procédés continus ont, comme leur
nom l’indique, la particularité d’évoluer de manière continue, de sorte qu’il est possible de détecter
des tendances croissantes ou décroisantes sur un critère étudié.

Le cartes CUSUM peuvent être utilisées à partir de valeurs individuelles ou d’échantillons. Nous
nous intéresserons aux cartes construites à partir d’un échantillon, pour lesquelles, nous
substituerons L-estimateur de position à moyenne.

Principe de la carte CUSUM-L

Le principe de la carte CUSUM est de faire le cumul des écarts d’une estimation par rapport à la
valeur cible que l’on s’est fixée. Si le procédé subit une dérive, cela se répercute par une
augmentation de la somme des écarts.

Pour détecter les dérives à la fois croissantes et décroissantes, on utilisera deux sommes SH et SL,
respectivement haute et basse.

[   CibleK  S H
S H =Max 0, m−
i ] i−1

S L =Max [ 0,  Cible−K  − mS


 ] Li−1
i

La valeur K, aussi appelée filtre, est utilisée pour limiter l’influence des faibles écarts, qui
conduisent parfois à la détection d’une dérive alors que celle-ci est peu significative. K=k.s avec k
généralement fixé à 0,5 pour détecter un décentrage d’un écart type.

Les limites sont notées H telle que H=h.sestimateur. Les limites habituelles sont fixées à partir de
l’écart-type de la moyenne. Nous fixerons ici les limites en fonction de l’écart type du L-
estimateur : H=h.sL-estimateur
La variance du L-estimateur étant plus faible que celle de la moyenne, les sommes cumulées ainsi
obtenues, seront moins « polluées » par la dispersion de l’estimateur. La carte CUSUM-L a alors
l’avantage évident de faire ressortir des tendances de manière beaucoup plus claire.

Exemple d’application

Nous présentons ici l’étude d’un procédé dont la non normalité conduit à un L-estimateur dont
l’efficacité relative est de l’ordre de 0,85 (Figure 72). Cette amélioration en variance ne conduit
pas, en pratique, à une carte L plus performante que la carte de Shewhart. En effet, nous avons vu
au paragraphe , que la P.O.M. de la carte L était peu différente de celle d’une carte de Shewhart
lorsque les limites sont placées à ±3 s/  n .

0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
Population Loi Normale

Figure 72

Nous avons donc cherché à mettre en évidence les performances de la carte CUSUM-L par rapport
à une carte CUSUM classique.

La Figure 73 présente le suivi du procédé à l’aide d’une carte de Shewhart. On constate ici que les
estimations effectuées à l’aide de la moyenne (n=5) et du L-estimateur de position sont
comparables. De plus, le suivi du procédé sur 25 échantillons ne permet pas la détection d’un état
hors contrôle si l’on s’en tient aux règles de pilotage énoncées au §. Le procédé subit ici une dérive
linéaire. Au 25ème échantillon le procédé est décentré de 0,5s.

4
3
2
1
0
-1
Xb
-2 L-estim
Tendance
-3
-4
1 3 5 7 9 11 13 15 17 19 21 23 25

Figure 73
Si on applique une carte CUSUM à la même série de données, on constate sans surprise que la
dérive du procédé est détectée (Figure 74). Le propre de la carte CUSUM étant en effet de déceler
les dérives lentes.

Carte CUSUM standard


10
8
6
4
2
0
-2
-4 SH SL
-6
1 3 5 7 9 11 13 15 17 19 21 23 25

Figure 74

Malgré la faible amélioration en variance, du L-estimateur par rapport à la moyenne, la carte


CUSUM-L s’avère plus sensible aux dérives que la carte CUSUM standard (Figure 75).

Carte CUSUM-L
10
8
6
4
2
0
-2
-4 SH SL

-6
1 3 5 7 9 11 13 15 17 19 21 23 25

Figure 75

L’utilisation du L-estimateur des moindres carrés est donc particulièrement intéressante avec une
carte CUSUM même pour des non normalités peu prononcées.

P.O.M. de la carte CUSUM-L

Une étude de Période Opérationnelle Moyenne réalisée à partir du même exemple de population a
permis de vérifier la sensibilité de la carte CUSUM-L.
Les calculs ont été effectués par simulation pour des échantillons de taille n=5. Le nombre de
détection a été fixé à 5000 pour établir la P.O.M, soit 2,1.106 itérations pour une P.O.M. de 420.
Les limites sont placées avec un coefficient h=5 et la valeur du filtre est k=0,5. Le décentrage l est
un multiple de l’écart-type de la population.
Le tracé de P.O.M. de la carte CUSUM-L est relativement simple à interpréter puisqu’il est
toujours inférieur à celui de la carte CUSUM standard (Figure 76). Cela signifie que la détection
d’une dérive par la carte CUSUM-L intervient toujours avant celle de la carte CUSUM standard
pour des risques a sensiblement équivalents (Figure 77). Nous avons pu montrer par ailleurs
(Chapitre 4) que les amélioration apportée par la carte CUSUM-L par rapport à la carte CUSUM
standard sont d’autant plus importantes que la non normalité est marquée.
500 4.0

400 3.5

300 3.0

200 2.5

100 2.0

0 1.5
-1.0 -0.5 0.0 0.5 1.0 1.0 1.5 2.0

L-estimateur Moyenne L-estimateur Moyenne

Figure 76

l P.O.M. CUSUM-L P.O.M. CUSUM


0 420 480
0.1 140 162
0.2 39 48
0.3 18 21
0.5 7.8 8.6
1 3.2 3.6
1.5 2.1 2.3
2 1.8 1.9
Figure 77

Conclusion

La carte L que nous avons proposée dans ce chapitre bénéficie de la faible variance du L-estimateur
des moindres carrés. Cela permet notamment de déceler des dérives avec beaucoup d’acuité et
d’effectuer des réglages de meilleure qualité sur le procédé. Cependant ces avantages s’estompent
très rapidement si l’efficacité relative du L-estimateur par rapport à la moyenne n’est pas
suffisante. On notera pour mémoire que la carte L ne nous semble pas d’un grand intérêt quand
l’efficacité relative est supérieure à 0,8. En effet, la faible amélioration par rapport à la carte de
Shewhart, ne justifie pas un surcoût de calculs.
La carte CUSUM-L, en revanche est plus sensible que la carte CUSUM standard, même dans le cas
où le L-estimateur est peu efficace.
Son intérêt est donc d’étendre le domaine d’application des cartes de contrôle construites à partir
d’un L-estimateur. De plus, cette carte particulièrement sensible aux dérives peut permettre de
détecter d’éventuelles évolutions de la distribution de la population.

La carte CUSUM-L n’est bien entendu pas la seule extension possible de la carte L. On peut
effectivement envisager d’applique le L-estimateur des moindres carrés à des cartes de type
EWMA.
Conclusions et perspectives

Une approche généraliste

L’originalité de notre étude réside essentiellement dans une approche non paramétrique des
problèmes d’estimation de position et de dispersion d’une population à partir d’un échantillon de
faible taille. L’approche non paramétrique permet en effet de s’affranchir de l’hypothèse de
normalité souvent peu justifiée. Le modèle « localisation échelle », utilisé dans notre étude, permet
en effet de décrire un large éventail de distributions qui se caractérisent par un paramètre de
localisation et un paramètre d’échelle.
L’estimateur que nous proposons, pour la construction d’une nouvelle carte de contrôle a la
particularité de pouvoir estimer d’autres paramètres de localisation que la moyenne ou la médiane.
Ces paramètres, le plus souvent utilisés par défaut, ne sont pas forcément les meilleurs.
Nous avons montré, que l’on pouvait déterminer ce paramètre de localisation en minimisant le
critère du coût de non qualité au sens de Taguchi.
Nous avons montré que le paramètre de localisation optimal est la moyenne de la population
lorsque la fonction perte est symétrique. Dans le cas contraire, le choix du paramètre de localisation
dépend de la densité de loi de la population, ce qui rend le paramètre difficile à déterminer
expérimentalement.

Avantages de la carte L

La carte L que nous avons présenté dans ce chapitre est construite à partir du L-estimateur des
moindres carrés introduit par Lloyd en 1952. Cet estimateur a la particularité de fournir des
estimations sans biais d’un paramètre de localisation et d’un paramètre d’échelle de la population.
C’est aussi un estimateur optimal en terme de variance parmi les estimateurs construits à partir
d’une combinaison linéaire des observations.
Les répercussions de cette faible variance sur la carte L sont notamment de fournir un tracé moins
bruité que la carte de Shewhart, de telle sorte que les règles de pilotage basées sur la mise en
évidence de tendances sont plus faciles à appliquer.
De plus la P.O.M de la carte L est toujours très inférieure à celle de la carte Shewhart lorsque les
limites sont placées à ±3 s L−estimateur . La sensibilité de la carte L aux décentrages est donc plus
grande que celle de la carte de Shewhart. Cet avantage peut aussi s’avérer un inconvénient lorsque
les risques a sont trop grands. Les risques a sont en effet souvent de l’ordre 2%, ce qui peut
apparaître inacceptable pour certains utilisateurs. On peut donc choisir de minimiser ces risques en
prenant des limites plus larges à ±3 s /  n .
Nous avons également proposé une extension de la carte L, appelée CUSUM-L, qui consiste à
appliquer une procédure CUSUM à des estimations provenant du L-estimateur des moindres carrés.
La carte CUCUM-L a l’intérêt d’être plus sensible aux faibles dérives que la carte CUSUM
proposée par Page [Pag 54]69.

69
PAGE E. S. Continuous Inspection Schemes - Biometrics - Vol 41 - 1954
Cette propriété est d’autant plus intéressante qu’elle est toujours valable lorsque les performances
du L-estimateur sont médiocres par rapport à la moyenne.

Mise en œuvre

Afin de faciliter la mise en œuvre de la carte L nous avons proposé deux procédures de démarrage.
Le démarrage par lissage des coefficients du L-estimateur permet un passage progressif de la
moyenne vers les coefficients optimaux, au fur et à mesure de l’apprentissage du procédé. Cette
procédure est plus particulièrement destinée aux séries longues car elle exige un minimum de 30
échantillons pour que les coefficients du L-estimateurs soient correctement estimés.
La seconde procédure s’appuyant sur une méthode bootstrap est plus particulièrement destinée aux
séries courtes ou aux procédés à évolution rapide. Son principe repose sur la constitution d’une
population empirique, à partir de laquelle on construit les coefficients du L-estimateur par
rééchantillonnage. Le nombre d’observations nécessaires au calcul des coefficients peut ainsi être
réduit à une trentaine, ce qui est particulièrement intéressant lorsque le procédé est peu stable.

Les limites de la carte L

L’utilisation de méthodes non paramétriques ne signifie pas que ces méthodes sont universelles. En
effet, les modèles postulés, même très larges ne peuvent satisfaire toutes les situations. Ainsi le
modèle localisation échelle, utilisé pour le L-estimateur des moindres carrés n’est pas valable pour
les lois de type défaut de forme puisque tout décentrage du procédé entraîne une modification de la
distribution de la population. Les paramètres de localisation et d’échelle n’ont donc plus la même
signification lorsque la distribution de la population évolue.

Perspectives

Ce problème est aussi rencontré pour des critères différents des défauts de forme. On suppose par
exemple que les caractéristiques de la distribution des observations évoluent pour une raison
quelconque. Une bonne utilisation de la M.S.P. veut que ce phénomène soit détecté car nous avons
eu l’occurrence d’une cause spéciale. Nous avons vu au paragraphe que ce type d’évolution était
parfaitement détectable à l’aide d’une carte L. Cependant, dans de telles condition les performances
en variance du L-estimateur chutent de manière importante. Pour augmenter nos chances de
détecter les modifications de la distribution de la population, il peut être intéressant de mettre en
place une procédure adaptative, de sorte que les coefficients du L-estimateur garantissent des
performances optimales.
Chapitre 4
Chapitre 4

Application Industrielle de la carte L

Pré-requis à l’application d’une carte L

Depuis sa création, la M.S.P. s’est enrichie d’un nombre important d’outils élargissant le domaine
des applications de la carte X /R. Ces outils souvent très spécialisés, comme les cartes de contrôle
multidimensionnelles ou les cartes petites séries, nécessitent une parfaite adéquation avec le
problème traité pour que leur application soit couronnée de succès.
Chacun des outils de la M.S.P. a des spécificités à la fois statistiques et méthodologiques, qui le
rendent plus ou moins apte à piloter une famille de procédés. En effet, on utilisera plus volontiers
une carte aux valeurs individuelles sur un procédé continu de l’industrie chimique, que sur un
procédé discret de l’industrie mécanique.
Ainsi, nous allons préciser le cadre d’application de la carte L ainsi que les conditions opératoires
qui garantissent des performances intéressantes.

Les procédés étudiés


L’étude des procédés non normaux nous a permis d’extraire deux grandes familles de non
normalités :
· Les non normalités qui proviennent de la structure du procédé. C’est-à-dire les procédés qui
possèdent plusieurs causes de dispersion dominantes.
· Les non normalités liées au type de critère étudié. Les critères unilimites tels que les défauts de
forme ou les critères de position qui suivent une loi de Rayleigh par exemple.
Nous avons montré au chapitre 3 que le L-estimateur des moindres carrés ne pouvait être utilisé
efficacement dans le cas de critères unilimites car, dans ce cas, le modèle localisation échelle n’est
pas valide. Toute modification de la dispersion du procédé ou de son centrage entraîne en effet une
modification de la distribution de la population. Par suite, le L-estimateur des moindres carrés
fournit des estimations biaisées des paramètres de localisation et d’échelle.

Le modèle localisation échelle est en revanche bien adapté à la représentation de distributions


stratifiées. L’utilisation de la carte L pour le suivi de procédés de type multigénérateurs est donc
particulièrement conseillée. Cependant, pour que la mise en œuvre de la carte L soit réellement
profitable, il est recommandé de restreindre son domaine d’application à des populations dont la
non normalité est relativement marquée. Dans le cas de faibles non normalités, la moyenne offre
des estimations dont la variance est très proche des bornes de Fréchet.

La méthode d’échantillonnage
La procédure d’échantillonnage possède un aspect théorique important pour les méthodes
d’estimation statistiques par sondage. Son choix conditionne en effet la précision et la validité des
résultats. De plus, elle revêt un aspect pratique et économique primordial pour les utilisateurs de la
M.S.P. puisque les contraintes des cadences de production ou de lots, ne permettent pas toujours de
mettre en place les méthodes d’échantillonnage les plus efficaces.

Nous avons présenté au chapitre 2 un certain nombre de méthodes d’échantillonnage dont les
performances et les applications sont parfois très différentes. Parmi celles-ci, nous avons retenu
quatre méthodes incontournables dans les applications industrielles :
· La plus connue d’entre elles est bien entendu l’échantillonnage aléatoire que l’on pratique
notamment en contrôle réception. Cette méthode est la plus simple car elle ne tient pas compte
d’une éventuelle stratification de la population. On l’utilisera de préférence pour des procédés
non stratifiés, cependant sa simplicité peut motiver son utilisation dans d’autres situations.
· L’échantillonnage séquentiel, s’applique exclusivement aux procédés stratifiés. Il a l’avantage
de réduire la variance des estimations par rapport à l’échantillonnage aléatoire du fait d’une
réduction de la variance inter échantillons. Cette procédure est particulièrement adaptée aux
procédés tels que les multibroches où les observations proviennent successivement de strates
différentes.
· Un cas particulier de l’échantillonnage séquentiel est celui où la taille des échantillons est égale
au nombre de strates. Dans ce cas l’échantillon est dit représentatif puisque l’on a une
observation par strate. Cette méthode est la plus efficace des trois mais aussi la plus
contraignante car elle nécessite une distinction physique des différentes strates.
· Le prélèvement d’un échantillon représentatif est particulièrement intéressant car il réduit
fortement la variance inter échantillons. Dans le même état d’esprit, on peut prélever
systématiquement des observations sur des strates définies à l’avance. L’avantage de cette
démarche est de pouvoir fournir des estimations à faible variance tout en prélevant des
échantillons économiquement viables. Cependant cette approche occulte l’information provenant
des autres strates de la population, et par conséquent ne pourra détecter un éventuel accident sur
les strates non surveillées.
Le choix de ces méthodes est généralement dicté par le type de procédé à piloter. Dans chacun de
ces cas, on peut utiliser la moyenne ou le L-estimateur pour estimer le paramètre de position de la
population. Les coefficients du L-estimateur ainsi que sa variance seront bien entendu différents
selon la méthode d’échantillonnage retenue.
Cependant l’utilisation du L-estimateur de position, reste intéressante pour chacune des méthodes
présentées puisque ses performances en terme de variance sont meilleures ou égales à celles de la
moyenne.

En outre, rappelons qu’il est possible d’optimiser les prélèvements au sein d’une strate. Cet
échantillon appelé échantillon de Neyman tient compte de la dispersion de chacune des strates de la
population. Un échantillon représentatif peut être un échantillon de Neyman si la dispersion de
chacune des strates est d’un même ordre de grandeur. Dans le cas particulier où les échantillons
prélevés sont des échantillons de Neyman on peut remarquer que le L-estimateur de position est la
moyenne. La moyenne est donc l’estimateur à variance minimale parmi les estimateurs linéaires.
Dans ce cas, il est évident que le calcul du L-estimateur a peu d’intérêt.

Exemple

Pour illustrer notre propos, nous avons calculé la variance du L-estimateur de position et de la
moyenne pour l’échantillonnage séquentiel et l’échantillonnage aléatoire. Ces calculs ont été
réalisés pour une population constituée de six strates (Voir chapitre 3).

N(5, 1), N(5, 1), N(5.5, 1), N(0, 1), N(-3.2, 1), N(-3.5, 1)

Dans ce cas, l’échantillon de Neyman est l’échantillon représentatif puisque les strates ont la même
dispersion.

Echantillonnage Aléatoire
Echantillon n=3 n=4 n=5 n=6 n=7 n=8 n=9 n = 10
L-estimateur m 4.29 2.46 1.52 1.01 0.72 0.55 0.44 0.36
Moyenne 5.32 3.99 3.19 2.66 2.28 2.00 1.77 1.60
Efficacité relative 0.81 0.62 0.48 0.38 0.32 0.28 0.25 0.22
Echantillonnage Séquentiel
Echantillon n=3 n=4 n=5 n=6 n=7 n=8 n=9 n = 10
L-estimateur m  0.49 0.45 0.33 0.17 0.20 0.20 0.14 0.16
Moyenne 1.02 1.31 0.80 0.17 0.45 0.39 0.30 0.34
Efficacité relative 0.48 0.34 0.41 1 0.44 0.51 0.47 0.47
Figure 78
1
Aléatoire
0.8 Séquentiel

Variance
0.6

0.4

0.2

0 n
3 4 5 6 7 8 9 10

Figure 79

A la lumière de cet exemple, nous constatons, que pour l’échantillonnage séquentiel, l’efficacité
relative du L-estimateur par rapport à la moyenne ne dépend pas de la taille d’échantillon,
contrairement à l’échantillonnage aléatoire. D’autre part, on vérifie bien que la moyenne et le L-
estimateur ont la même variance quand on prélève l’échantillon de Neyman.

Dans l’exemple proposé, on peut ramener le nombre de strates à cinq puisque deux d’entre elles on
la même moyenne :
N(5, 2), N(5.5, 1), N(0, 1), N(-3.2, 1), N(-3.5, 1)

L’échantillon de Neyman est alors le même que précédemment puisqu’on prélèvera deux
observations sur la première strate et une seule pour chacune des autres strates.

Les besoins informatiques

Nécessité d’un outil informatisé

Le succès de la mise en place de la M.S.P. tient essentiellement à la motivation du personnel


d’encadrement et à l’implication des opérateurs dans le processus d’amélioration de la qualité.
Cependant, le surplus de travail qu’occasionne ces méthode est souvent une cause de démotivation.
Ainsi l’outil informatique est devenu une nécessité pour bon nombre d’utilisateurs de la M.S.P.
Nous ne considérons en aucun cas que l’informatisation est la clé de la réussite pour la mise en
œuvre de la M.S.P. Cependant elle peut y contribuer très largement pour les différentes raisons que
nous énonçons ci-dessous :

ü Du point de vue de l’opérateur


ü Les fréquences de contrôle sont très élevées.
ü Le nombre de critères suivis est important.
ü Les calculs sont complexes (carte CUSUM, carte Petite Série, etc. )
ü Pour la démarche qualité
ü Le volume de données est important. L’informatique permet une analyse synthétique des
données de production et facilite leur archivage.
La lourdeur des calculs nécessaire à la construction du L-estimateur des moindres carrés justifie à
elle seule l’utilisation de l’informatique. En effet le calcul des coefficients du L-estimateur des
moindres carrés requiert la construction de la matrice de covariance des statistiques d’ordre
réduites, ainsi que son inversion.
De plus, les algorithmes de rééchantillonnage de type bootstrap n’ont aucun intérêt s'ils ne sont pas
informatisés.
Notre objectif étant de valider la carte L dans une approche industrielle, nous avons développé une
maquette informatique permettant le pilotage du procédé par cartes L.

Présentation de la maquette informatique

Nous allons présenter brièvement les fonctionnalités développées dans ce logiciel pour exploiter au
maximum les possibilités des cartes L et CUSUM L.
La maquette réalisée se compose de quatre modules qui s’articulent autour d’une base de données.
Les fonctionnalités des différents modules sont :
· La spécification de la gamme de contrôle du critère étudié : Cible, écart-type de la population,
mode de calcul des limites de contrôle, méthode de détermination des coefficients du L-
estimateur.
· Le calcul des coefficients du L-estimateur par méthode bootstrap ou par simulation de Monte
Carlo.
· L’analyse de capabilité machine et de capabilité procédé.
· Le pilotage par carte de contrôle et la saisie de nouvelles données.

Définition du procédé

La première étape de définition du procédé est de


saisir les données relatives au critère surveillé.
· La cible du procédé
· La dispersion instantanée du procédé
· Les tolérances de critère.

On définit également le mode de calcul des limites.


Autrement dit, on précise si les limites sont fixes
ou recalculées périodiquement.
Définition du mode de calcul du L-estimateur

La deuxième étape importante consiste à


déterminer la méthode de calcul des coefficients
du L-estimateur.

Si la distribution de la population est


parfaitement connue, il est possible de fixer ces
coefficients et de les saisir manuellement.

De manière plus générale, la distribution des


observations n’étant pas connue a priori, on a le
choix entre :
· Le calcul des coefficients par méthode
bootstrap à partir d’une distribution
empirique.
· Le calcul des coefficients à partir des
échantillons prélevés pour le pilotage par
carte de contrôle. Nous avons vu au chapitre 3
qu’il était intéressant d’appliquer une méthode de lissage pour pondérer progressivement les
estimations du L-estimateur au fur et à mesure que les coefficients convergent vers les
coefficients optimaux.
· Le calcul des coefficients par simulation de Monte Carlo, qui suppose la connaissance des
caractéristiques de la loi de distribution des observations. Nous n’avons programmé que le cas de
mélanges de lois normales.
Exemples d’application

Les applications présentées dans ce chapitre concernent l’industrie du décolletage et de la


plasturgie. Ce choix qui peut apparaître restrictif a été influencé par l’activité économique
régionale. De plus ces secteurs d’activité rencontrent fréquemment des cas typiques de non
normalité auxquels nous nous intéressons.
Les activités du décolletage et de la plasturgie sont, en effet, très largement implantées dans la
région Rhône-Alpes. En outre ces industries ont consenti des efforts considérables pour développer
une politique de qualité totale, sous l’impulsion de leurs clients, qui sont bien souvent des
constructeurs automobiles. Leur connaissance des méthodes de la M.S.P. ainsi que l’existence
d’une structure de contrôle qualité ont été un atout important pour la réussite de notre étude.

La plasturgie
L’industrie de la plasturgie possède un nombre important de techniques de mise en forme du
plastique : le thermoformage, le moulage par transfert, injection, ou projection. Parmi ces
techniques, nous nous sommes particulièrement intéressés aux presses à injecter qui comptent
parmi les procédés les plus classiques de la plasturgie. Ces procédés permettent de fabriquer des
formes pleines par injection de plastique dans un moule. Pour des raisons de rentabilité évidentes,
on utilise le plus possible des moules comportant plusieurs empreintes : les multi-empreintes.

Injection
de
Plastique

Moule

Figure 80
Les deux paramètres prépondérants du process d’une presse à injecter sont la température du
plastique et la pression d’injection. Néanmoins une parfaite maîtrise de ces paramètres ne suffit pas
à obtenir des pièces identiques. En effet, une parfaite homogénéité de la production suppose que les
empreintes soient strictement identiques et que la matière première soit répartie de manière
équivalente entre elles. Ces deux raisons expliquent à elles seules que ces procédés sont
particulièrement non normaux.

Etude d’une presse à injecter 8 empreintes

Notre première étude a été réalisée dans l’entreprise ID, spécialisée dans la fabrication de pièces
plastiques de petites tailles pour les composants électroniques ou la connectique. La fabrication de
pièces de précision nécessite un soin particulier pour l’élaboration des moules.

Présentation du procédé de fabrication

Le procédé que nous avons étudié comporte 8 empreintes et fabrique des connecteurs électriques.
Nous avons suivi l’une des cotes critique de cette pièce, qui est une surépaisseur permettant d’offrir
une résistance mécanique lors de l’enfichage ou le retrait du connecteur.

Schéma du connecteur

5.38 ±0.05mm

Analyse de variance

Nous avons tout d’abord réalisé une analyse de variance pour chacune des empreintes du moule,
afin de vérifier de manière rigoureuse la non normalité du procédé. Pour cela nous avons prélevé 10
mesures par empreinte.
L’objectif de l’analyse de variance est de déterminer si la variabilité liée aux différents facteurs
(empreintes) est significative par rapport à la dispersion imputable aux facteurs non contrôlés,
c’est-à-dire les causes communes.
Facteurs 1 2 3 4 5 6 7 8 9 10 
X 10
∑  X i− X 
i=1
Empreinte 1 5.388 5.387 5.384 5.385 5.387 5.387 5.389 5.389 5.386 5.387 5.3869 2.29E-5
Empreinte 2 5.385 5.388 5.385 5.385 5.384 5.383 5.386 5.388 5.385 5.384 5.3853 2.41E-5
Empreinte 3 5.38 5.382 5.381 5.382 5.382 5.38 5.38 5.378 5.381 5.38 5.3806 1.44E-5
Empreinte 4 5.387 5.386 5.387 5.385 5.385 5.388 5.387 5.388 5.386 5.389 5.3868 1.56E-5
Empreinte 5 5.383 5.386 5.385 5.384 5.382 5.384 5.385 5.382 5.383 5.384 5.3838 1.56E-5
Empreinte 6 5.383 5.378 5.379 5.381 5.375 5.381 5.38 5.377 5.378 5.379 5.3791 4.69E-5
Empreinte 7 5.388 5.386 5.389 5.384 5.387 5.387 5.385 5.389 5.39 5.385 5.387 3.60E-5
Empreinte 8 5.386 5.384 5.386 5.384 5.385 5.386 5.387 5.385 5.385 5.387 5.3855 1.05E-5

X S
5.3844 1.86E-4

Σ des carrés ddl Variance Fexpérience Fthéorique


Facteurs 6.37E-04 7 9.10E-05 35.21 2.14
Résidus 1.86E-04 72 2.58E-06
Total 8.23E-04 79
Figure 81

Le résultat de cette étude nous montre que le rapport entre la variance inter échantillon et la
variance résiduelle V A /V R =F exp rience , est très supérieur à Fthéorique que l’on trouve dans la table de
la loi de Snedecor en fonction des paramètres nA= 7 nR= 72 et a=5%
On conclut donc que l’influence des facteurs est significative. C’est-à-dire que la stratification de la
population est importante.

Distribution de la population

Si on calcule la variance et la moyenne de chacune des empreintes, en supposant que chacune des
empreintes génère une loi normale, on peut avoir une idée de la distribution de la population
(Figure 82).

Empreinte 1 2 3 4 5 6 7 8
Moyenne 5.3869 5.3853 5.3806 5.3868 5.3838 5.3791 5.387 5.3855
Ecart-type 0.00159 0.00164 0.00127 0.00132 0.00132 0.00228 0.00200 0.00108
Figure 82

On vérifie tout d’abord par un test de Hartley si les écarts entre la variance des empreintes sont
significatifs (Eq 0) :
V max
r= =4 . 458 . 95 avec a=5%
V min

Eq 0
La ratio entre la variance maximum et la variance minimum étant inférieur à la valeur fournie dans
un tableau en fonction de la taille des échantillons (ici n=10), le test conclut que l’écart les
variances n’est pas significatif. On peut donc considérer que toutes les empreintes ont la même
variance pour obtenir la distribution Figure 83.
Distribution de la population

5.373 5.377 5.381 5.385 5.389 5.393

Figure 83

Calcul des coefficients du L-estimateur

Notre période d’étude étant limitée dans le temps, nous avons choisi de calculer les coefficients du
L-estimateur par la méthode bootstrap à partir de 30 observations. Nous pouvons constater sur la
courbe ci-dessous, que les coefficients obtenus sont très proches de ceux calculés par une méthode
de Monte Carlo à partir de la distribution Figure 83. Cela signifie dans ce cas que l’hypothèse de
normalité de la distribution des empreintes est tout à fait valable.
Ces deux méthodes diffèrent en effet par leur manière de générer des données. Alors que la
méthode bootstrap est une méthode de rééchantillonnage à partir de données prélevées sur le
procédé, la simulation de Monte Carlo que nous avons menée suppose la connaissance du nombre
de générateurs et de leurs lois respectives.

Fonction de poids du L-estimateur de position


0.5

0.4

0.3
J(u )

0.2

0.1

0
u
-0.1
0 0.25 0.5 0.5 1
Bootstrap Simulation

Figure 84

Calculons maintenant l’efficacité relative du L-estimateur de position par rapport à la moyenne


s∗¿
pour un échantillon d’effectif n=5. L’écart-type est calculé à partir de la population empirique
¿
de la procédure bootstrap car c’est à partir de cette population que l’on détermine les coefficients du
L-estimateur ainsi que les paramètres de localisation m et d’échelle s à estimer.
· Variance du L-estimateur de position pour un échantillon d’effectif n=5
α t⋅⋅α
Var  m
 =s ∗¿
2
= 1,15.10-6
det  A ⋅ ⋅A 
t −1

· Variance de la moyenne
s 2∗¿
Var  X
 = =1, 72⋅10−6
n
¿

D’où une efficacité relative (Eq 0) intéressante.

Var  m

ER  X  =
 ,m » 0 . 67
Var  X

Eq 0

Suivi du procédé par carte L

Pour piloter le procédé, nous avons effectué des prélèvements de 5 pièces de manière aléatoire tous
les quarts d’heure.
Les tracés de la carte de Shewhart et de la carte L sont représentés Figure 85. On constate que le
procédé dérive lentement. Toutefois cette dérive ne peut donner lieu à une action corrective pour les
raisons suivantes :
· Aucun point ne dépasse les limites de contrôle,
· on ne peut compter que 6 points au-dessus de la cible,
· on a alternativement des séquences de points croissantes ou décroissantes.

L’amélioration apportée ici par la carte L est assez sensible puisque son tracé est un peu moins
mouvementé que celui de la carte de Shewhart. Le point N° 10 est très proche de la limite
supérieure, ce qui peut amener l’opérateur à intervenir sur le procédé.

Carte de Shewhart
5.385

5.383

5.381

5.379 LC(Xb)
mu
5.377 Xb
LC(mu)
5.375
1 2 3 4 5 6 7 8 9 10 11


m 5.3785 5.3794 5.3804 5.3791 5.3793 5.3820 5.3826 5.3807 5.3809 5.3830 5.3811

X 5.3784 5.3799 5.3809 5.3785 5.3799 5.3827 5.3829 5.3809 5.3801 5.3825 5.3813

Figure 85
Etant donné que le procédé dérive de manière lente, nous avons considéré que le suivi par une carte
CUSUM était mieux adapté à ce type de configuration.

Pilotage par carte CUSUM-L

Les Figure 86 et Figure 87 représentent respectivement les tracés de la carte CUSUM standard et la
carte CUSUM-L pour la même séquence de données que précédemment (Figure 85).

Les cartes CUSUM ont été calculées avec les paramètres suivants :

CUSUM CUSUM-L
Ecart type de 1,31.10-3 1,07.10-3
l’estimateur
Filtre k= 0.5 k=0.5
Limites de contrôle h= 5 h= 5

Carte CUSUM
0.008
0.006
0.004
0.002
0 LSC
-0.002 SH
-0.004 SL
-0.006 LIC
-0.008
1 2 3 4 5 6 7 8 9 10 11

SH 0 0 0.00024 0 0 0.00204 0.00429 0.00453 0.00398 0.00582 0.00647


SL -0.00084 -0.00029 0 -0.00084 -0.00029 0 0 0 0 0 0

Figure 86

Carte CUSUM-L
0.008
0.006
0.004
0.002
LSC
0
SH
-0.002
SL
-0.004
LIC
-0.006
1 2 3 4 5 6 7 8 9 10 11

SH 0 0 0 0 0 0.00151 0.00362 0.00382 0.00424 0.00674 0.00735


SL -0.00087 -0.00087 0 -0.00035 -0.00049 0 0 0 0 0 0
Figure 87
On constate ici que la carte CUSUM-L est plus sensible que la carte CUSUM standard puisque la
dérive du procédé est mise en évidence au 10ème point alors que la carte CUSUM standard ne fait
que s’approcher de la limite au 11ème point. Ceci n’a rien de surprenant car nous avions montré au
chapitre 3 que la P.O.M. de la carte CUSUM-L convergeait plus rapidement vers 1 que celle de la
carte CUSUM standard lorsque le décentrage augmente.

Etude d’une presse à injecter 4 empreintes

Les données collectées pour cet exemple proviennent d’un sous-traitant d’un fabricant de fixations
de skis. La presse à injecter étudiée comporte quatre empreintes et les pièces fabriquées sont des
pistons pour le talon d’une fixation de ski.

30.30
+0.0/-0.30

Etude préliminaire.

Afin de déterminer la cote à étudier, nous nous sommes basés sur une étude de capabilité
antérieure. Il ressort de cette étude que la longueur du piston suit une distribution stratifiée. L’étude
de capabilité a été réalisée indépendamment sur chacune des empreintes en prélevant 30 mesures.

Moyenne Ecart type


Empreinte N°1 30.224 0.0101
Empreinte N°2 30.169 0.0090
Empreinte N°3 30.134 0.0081
Empreinte N°4 30.167 0.0069
Figure 88

Les résultats sont assez significatifs et il n’est pas besoin d’effectuer une analyse de variance pour
conclure que l’influence des empreintes est significative. En effet le tracé (Figure 89) laisse paraître
une forte stratification de la population.
Distribution des observations

30.105 30.155 30.205 30.255

Figure 89

Coefficients du L-estimateur

La distribution de la population étant platikurtique, la fonction de pondération du L-estimateur de


position a une forme en U qui se rapproche du milieu de l’étendue.
En effet, les coefficients calculés par la méthode bootstrap à partir de 30 observations sont assez
proches de 0.5 aux extrêmes. Le même calcul réalisé par simulation nous donne en revanche une
fonction de pondération qui oscille un peu plus autour de la moyenne.
Cette différence s’explique bien entendu par la légère différence entre la distribution obtenue par
l’étude de capabilité et la distribution de la population empirique, utilisée pour la procédure
bootstrap.

Fonction de poids du L-estimateur de position


0.5
0.4
0.3
0.2
J(u )

0.1
0
-0.1
-0.2 u
0 0.25 0.5 0.75 1
Bootstrap Simulation

La forte non normalité de la population nous permet d’obtenir un L-estimateur de position


relativement performant, comme le montre le calcul de l’efficacité relative du L-estimateur par
rapport la moyenne :

Var  m
  = 1,31.10-4   = 2,44.10-4 d’où l’efficacité relative : ER  X
Var  X   =0 . 541
 ,m
Ces valeurs sont obtenues en prenant l’écart-type de la population empirique sp comme
approximation de l’écart type de la population.

Pilotage par Carte L

Pour construire la carte L nous avons pris comme cible le milieu de l’intervalle de tolérance.
Les échantillons sont prélevés aléatoirement par groupe de 5.

Les limites de contrôle la carte de Shewhart sont respectivement calculées par :

Carte X Carte L
Formule s p∗¿
Cible±3 Cible±3 s L−estimateur
n
¿
LSC 30.197 30.184
LIC 30.103 30.116

Carte L et Carte Xb
30.20

30.18

30.16

LC(mu)
30.14
Mu
30.12 Moyenne
LC(Xb)
30.10
1 2 3 4 5 6 7 8 9 10 11 12 13


m 30.161 30.154 30.161 30.132 30.154 30.156 30.172 30.169 30.173 30.176 30.171 30.164 30.191

X 30.153 30.156 30.149 30.138 30.151 30.156 30.159 30.189 30.179 30.174 30.157 30.163 30.197

Figure 90

La Figure 90 présente l’évolution du procédé selon la carte L et la carte de Shewhart.


Bien que la détection d’un point hors contrôle soit faite simultanément sur les deux cartes de
contrôle, la carte L fournit, un tracé beaucoup moins perturbé ce qui permet d’extraire la tendance
du procédé plus aisément.
Supposons par exemple que l’on applique la règle de pilotage qui consiste à compter le nombre de
points consécutifs d’un côté de la cible. La valeur du réglage à appliquer au procédé apparaît de
manière évidente sur la carte L.
On calcule la moyenne des estimations du point N°5 au point N°11.
11 11
∑ m i 30.1679 ∑ X i 30.1671
i=5 i=5
= =
7 7

La règle de pilotage veut que le réglage effectué soit de la valeur de l’écart entre la tendance
moyenne et la cible. On peut avoir une idée de la précision du réglage effectué en calculant l’écart
type des estimations de la position du procédé, à partir des point N°5 à N°11.
R glage
En calculant le rapport R= (une sorte de rapport Signal/Bruit) on peut donc caractériser
s Estimation
l’efficacité du réglage effectué. Plus cette valeur est grande, plus on peut considérer que le réglage
est fiable. Une valeur de R inférieure à 2 est en revanche le signe d’un réglage peu fiable.

Réglage préconisé Précision R


11


Cible -
∑ m i -0.01798
11

m i=5
=
1
7 i=5
∑  m i − m 2 5.99
7
7
=0.0030
11


Cible -
∑ X i -0.01714
11
2

X i=5
=
1
7
∑  X i − X  3.43
7 i=5
7
=0.0050
Figure 91

La comparaison réalisée Figure 91 montre, comme on pouvait s’y attendre, que les réglages
effectués à l’aide de la carte de Shewhart sont moins précis que ceux réalisés à partir de la carte L.
La faible variance du L-estimateur de position permet en effet d’obtenir une valeur de R beaucoup
plus élevée que dans le cas de la moyenne.
Carte CUSUM-L

Pour compléter notre étude, nous avons calculé les cartes CUSUM pour la série de données étudiée
précédemment, afin de vérifier si le décentrage du procédé est détecté.

Carte CUSUM
0.15

0.1

0.05
LSC
0 SH
SL
-0.05 LIC
-0.1
1 2 3 4 5 6 7 8 9 10 11 12 13

SH 0 0 0 0 0 0 0.0021 0.0343 0.0564 0.0726 0.0727 0.0789 0.1190


SL 0 0 0 -0.004 0 0 0 0 0 0 0 0 0
Figure 92

Dans ce cas, la carte CUSUM ne détecte pas plus rapidement le décentrage que dans le cas de la
carte de Shewhart. Même si, il est vrai, les points sont très proches de la limite supérieure à partir
du 10ème point, celles-ci ne sont franchies qu’au 12ème échantillon.
Avec la carte CUSUM-L, le procédé est hors contrôle dès le 10ème point, ce qui est un peu mieux
que la carte de Shewhart lorsque l’on utilise la règle de pilotage des tendances.
Carte CUSUM-L
0.15

0.1

0.05
LSC
0 SH
SL
-0.05 LIC
-0.1
1 2 3 4 5 6 7 8 9 10 11 12 13

Figure 93

Les deux études réalisées dans la plasturgie ont montré que la carte L pouvait avoir un grand intérêt
pour le pilotage de procédés multi-empreintes, et notamment sur des cotes critiques lorsque la
capabilité machine n’est pas très grande.
L’industrie du décolletage
L’industrie du décolletage implantée massivement dans la vallée de l’Arve travaille essentiellement
pour le secteur automobile. Les procédés utilisés pour la fabrication de pièces cylindriques sont
pour la plupart des tours. Le plus utilisé d’entre eux est sans doute le tour multibroches, dont
l’intérêt est de pouvoir réaliser plusieurs opérations (6 ou 8) en un cycle. Nous nous sommes donc
intéressés à l’une de ces productions

Broches

Outil Plateau
Pièce à usiner

Figure 94

Etude d’un tour multibroches 6 broches

Le critère que nous avons choisi d’étudier est une longueur 5.25mm sur une pièce de décolletage.
Le contrôle est réalisé à l’aide d’un manchon.

5.25 ±0.1

Capteur Inductif

Butée

Figure 95

Dans le cadre de cet exemple, les données ont été recueillies à l’aide d’un terminal d’atelier PAT
600â.
Etude préliminaire

Conformément aux procédures établies, nous avons réalisé un prélèvement de 30 pièces sur une
période de production très courte pour calculer la capabilité machine. Les résultats obtenus révèlent
une très bonne capabilité machine (Figure 96).

Moyenne 5.267
Ecart-type 0.00974
Tolérance 5.35
Supérieure
Tolérance Inférieure 5.15
Cm 3.42
Cmk 2.83
Figure 96

La construction d’un histogramme et le calcul du test du c2 laissent supposer que la distribution des
observations suit une loi normale. Cependant il faut garder à l’esprit que le test du c2 conclut très
souvent à la normalité d’une distribution lorsque le nombre d’observations est faible. c2observé =
1.589 < c2Théorique = 5.991
En outre le test de Kolmogorov confirme ce résultat (Figure 97).

Histogramme Test de Kolmogorov


10 1.4
9 1.2
8 1
7 0.8
6
0.6
5
0.4
4
0.2
3
2 0
1 -0.2
0 -0.4
5.232 5.248 5.265 5.281 5.297
Mesures Courbe Théorique F(x)-Dn Fréquences F(x)+Dn

Figure 97

Il faut néanmoins admettre, aux vues des résultats que la distribution des observations ne peut être
que faiblement non normale
Calcul des coefficients du L-estimateur

Les opérateurs semblent ne pas se soucier de l’ordre des pièces lorsqu’elles sont éjectées du tour.
Plutôt que de prélever six pièces consécutives à la sortie de la machine, ils prélèvent les pièces dans
le bac de réception. La première méthode a pourtant plusieurs avantages :
· Les observations constituent un échantillon représentatif.
· Les observations étant consécutives, le procédé est supposé stationnaire et on minimise les effets
d’éventuelles dérives.
· Les observations provenant des derniers cycles d’usinage, on améliore la réactivité en cas de
réglage.

L’échantillonnage étant aléatoire nous décidons de calculer les coefficients du L-estimateur par la
méthode bootstrap, en s’appuyant sur les 30 observations de l’échantillon de capabilité machine. La
taille des échantillons définie dans la gamme de contrôle est de n=6.

La fonction de poids obtenue, a une forme en U peu prononcée, qui peut être attribuée à la faible
représentation des observations dans les queues de la distribution empirique, ce qui donne un
caractère platikurtique à cette dernière.

Fonction de poids du L-estimateur de position


0.5

0.4

0.3
J(u )

0.2

0.1

0 u
0.17 0.33 0.5 0.67 0.83 1
Bootstrap Moyenne

Le calcul des variances de la moyenne empirique et du L-estimateur de position nous permet alors
d’établir l’efficacité relative des deux estimateurs, qui est ici très proche de 1, comme on pouvait
s’y attendre.

Var  m   = 1,565.10-5 d’où l’efficacité relative : ER  X


  = 1,519.10-5 Var  X   =0.97
 ,m
Pilotage par carte L

Dans ce cas il est évident que les estimations effectuées à l’aide de la moyenne et du L-estimateur
de position sont indiscernables les unes des autres. Comme on peut le constater sur la carte de
contrôle (Figure 98) les limites de contrôle, les tracés de la carte de Shewhart et la carte L se
superposent totalement.

Carte L et Carte Xb
5.28

5.27

5.26

LC(mu)
5.25
Mu
5.24 Moyenne
LC(Xb)
5.23

Figure 98

Les données reportées sur la carte de contrôle révèlent un procédé hors contrôle. Celui-ci est
cependant parfaitement piloté, mais avec des limites de contrôle élargies, qui permettent de garantir
que la production reste dans les tolérances tout en autorisant une certaine dérive de la moyenne.
Cette procédure est très souvent appliquée lorsque la capabilité machine est supérieure à 2, car elle
permet de réduire le nombre d’interventions sur un procédé difficilement pilotable.
Conclusion
Ce chapitre nous a permis d’étudier en détail le comportement de la carte L au travers de trois
applications industrielles.
Après avoir défini les conditions opératoires pour une bonne application de la carte L nous avons
traité deux exemples en plasturgie sur des procédés de type multi-empreintes et un exemple dans
l’industrie du décolletage sur un tour multibroches.

Les études menées sur des presses à injecter ont mis en évidence la forte non normalité des critères
couramment surveillés. Dans ces conditions, la carte L s’avère particulièrement intéressante car elle
permet de détecter beaucoup plus rapidement les dérives du procédé. Par ailleurs, les réglages
effectués sur le procédé lors de la détection d’un état hors contrôle du procédé (point hors des
limites ou détection d’une tendance) sont beaucoup plus précis lorsque l’on utilise une carte L.

La troisième étude menée sur un tour multibroches a révélé, contre toute attente, que la loi de
distribution des observations pouvait être assimilée à une loi normale. Nous avons montré dans ce
cas que l’utilisation de la carte L était sans risque puisque les coefficients du L-estimateur étaient
très proches de ceux de la moyenne et que par conséquent l’efficacité de la carte L et de la carte de
Shewhart X  /S étaient équivalentes. Nous conseillons donc par prudence d’utiliser de la carte L
sur des procédés qui sont potentiellement non normaux, même si celle-ci n’a pas été vérifiée. En
effet, dans le « pire des cas » (celui d’une normalité), la carte L sera aussi performante que la carte
de Shewhart.
Chapitre 5

Conclusion et perspectives

Parmi les sujets qui préoccupent les industriels et les chercheurs dans le domaine de la M.S.P,
l’étude des procédés non normaux est particulièrement à l’honneur. Nos travaux, qui s’inscrivent
dans ce cadre, ont eu pour ambition de fournir une approche générale pour le pilotage des procédés
non normaux.
En guise de conclusion, nous effectuerons, une synthèse des résultats obtenus puis nous ferons le
point sur les orientations à donner aux travaux futurs pour enrichir ces premiers résultats.

Les causes de non normalité

Notre premier objectif a été de recenser les facteurs qui peuvent engendrer la non normalité d’une
production. L’étude de procédés non normaux est parfois complexe et ne révèle pas toujours les
causes de cette non normalité. Cependant on peut distinguer deux types de non normalité :
· La non normalité provient souvent de l’influence prépondérante de plusieurs facteurs de
dispersion inhérents au procédé. Il s’agit par exemple des empreintes sur une presse à injecter.
· Dans d’autres cas, la grandeur physique surveillée explique à elle seule la non normalité de la
distribution des mesures. C’est le cas des planéités ou des circularités en mécanique.
L’état de l’art

La non validité de l’hypothèse de normalité des observations a des répercussions à la fois sur la
validité et les performances des différents outils statistiques utilisés. Ainsi de nombreuses
approches ont été proposées pour le calcul des indicateurs de capabilité et la construction de cartes
de contrôle.
La bibliographie concernant le calcul des indicateurs de capabilité est sans aucun doute la plus
riche. Le problème de la validité de ces indicateurs concerne en effet un grand nombre de sous-
traitants de l’automobile qui connaissent soit des procédés non normaux soit des procédés mal
maîtrisés.

La plupart des méthodes proposées s’appuient sur une définition de la dispersion qui est étroitement
liée au pourcentage de pièces hors tolérances. La dispersion est en effet définie comme étant
l’intervalle centré couvrant 99,73% de la population.
Nous considérons pour notre part, que cette construction des indicateurs ne fournit pas une
information conforme au niveau de qualité réel de la production.
En effet une production décrite par une loi platikurtique (provenant d’un procédé non maîtrisé) aura
les mêmes Cp et Cpk qu’une production décrite par une loi normale (provenant d’un procédé
parfaitement maîtrisé) de même dispersion (99,73%). Cette dernière ayant pourtant un niveau de
qualité bien supérieur.
Les indicateurs de capabilité « classiques », qui se basent sur une définition de la dispersion de 6s,
donnent en revanche une interprétation du niveau de qualité assez proche de celle que propose
Taguchi en pénalisant tout écart d’une mesure par rapport à la cible.
Placer les pièces à l’intérieur de l’intervalle de tolérance est certes une condition nécessaire à
l’obtention de la qualité, mais pas une condition suffisante. Il faut aussi centrer la production sur la
cible. C’est pourquoi nous préférons la définition classique des indicateurs Cp et Cpk qui peuvent
être utilement complétés par le Cpm.

Les travaux concernant les cartes de contrôle sont peu nombreux. Ils se focalisent essentiellement
sur la précision des tests par intervalle de confiance dans le but de garantir un risque a de 0,27%.
Cette approche que nous qualifions de « puriste » ne nous apparaît pas d’un intérêt fondamental. En
pratique, la dispersion et les queues des distributions ne peuvent être connues parfaitement. On se
satisfait généralement de tests permettant de prendre des décisions avec des risques
« raisonnables ».
La performance des estimateurs ponctuels est par contre peu abordée alors qu’elle conditionne à la
fois la sensibilité de la carte et la précision des réglages. La moyenne et la médiane utilisées assez
systématiquement peuvent en effet s’avérer des estimateurs médiocres pour certains types de
distributions.
Définition du cadre d’étude

Les deux objectifs que nous nous sommes fixés pour définir le cadre de travail étaient donc :
· Rechercher l’optimalité de l’estimateur ponctuel
· Proposer une approche non paramétrique pour ne pas limiter notre domaine d’application à une
famille particulière de lois.

Nos travaux se sont donc appuyés sur les statistiques d’ordre qui constituent un outil privilégié de
la statistique non paramétrique. Le L-estimateur des moindres carrés proposé par Lloyd s’est avéré
particulièrement adapté à notre problème. Il a en effet les propriétés suivantes :
· Il se base sur un modèle non paramétrique de localisation échelle,
· Il fournit une estimation sans biais des paramètres de localisation et d’échelle,
· Il fournit une estimation à variance minimale parmi les estimateurs construits à partir d’une
combinaison linéaires des observations,
· Les paramètres à estimer peuvent être définis par l’utilisateur.

Pour satisfaire ces objectifs, nous avons proposé une nouvelle carte de contrôle (la carte L)
s’appuyant sur des L-statistiques, particulièrement adaptées aux cas des procédés non normaux.

Le choix des paramètres à estimer

Le choix du paramètre de localisation peut être sujet à discussion lorsque la population n’est pas
symétrique puisque la tendance centrale de la loi n’a plus de signification. Nous avons donc
proposé de définir ce paramètre selon le critère de la perte au sens de Taguchi.
Nous avons montré que le paramètre moyenne permettait de minimiser la perte au sens de Taguchi
dans le cas d’une fonction perte symétrique. Dans le cas contraire, le calcul nécessite la
connaissance de la loi de distribution des observations. Ce cas de figure ne rentre donc pas dans le
cadre non paramétrique que nous nous sommes fixés.

Construction d’une carte L

Le calcul des coefficients du L-estimateur de Lloyd nécessite la connaissance de la matrice de


covariance des statistiques d’ordre. Nous avons montré expérimentalement qu’une quarantaine
d’échantillons étaient nécessaires pour que les coefficients de cette matrice soient dans le voisinage
de leurs valeurs asymptotiques. Cependant la durée d’une telle période de référence peut être
rédhibitoire pour certaines productions.
Nous avons donc proposé deux procédures de démarrage de la carte L permettant de réduire la
période de référence pour piloter au plus tôt :
· La première méthode concerne plus particulièrement les procédés à évolution lente. Elle consiste
à faire évoluer les coefficients du L-estimateur de la moyenne vers les coefficients optimaux au
fur et à mesure de l’acquisition d’informations sur le procédé.
· La seconde méthode s’avère particulièrement intéressante lorsque le volume de données est
faible. On procède à l’acquisition d’au moins 20 observations sur une période stable pour
constituer une population empirique. A partir de ces données on calcule par une méthode
bootstrap les statistiques nécessaires à la construction du L-estimateur des moindres carrés.

Performances de la carte L

L’étude de la carte L a mis en évidence un certain nombre de caractéristiques intéressantes :


· Le tracé des estimations est peu bruité par rapport à celui de la moyenne, ce qui permet de
détecter plus facilement d’éventuelles tendances du procédé.
· La POM de la carte L est toujours inférieure à celle de la carte de Shewhart lorsque les limites
de contrôle sont placées à ±3sL-estimateur de la cible.
· Malgré la faible robustesse du L-estimateur de Lloyd aux valeurs extrêmes, la dégradation de ses
performances dans le cas d’une modification de la distribution des observations n’entraîne pas
un comportement défavorable. Le biais du L-estimateur de position et de dispersion s’avère en
effet négligeable et les modifications de la population sont détectées au même titre que les autres
causes spéciales.

En outre, nous avons proposé une extension de la carte L en appliquant une procédure CUSUM aux
estimations du L-estimateur des moindres carrés. Cette carte s’avère plus sensible que la carte
CUSUM standard et possède encore de bonnes performances quand l’efficacité relative de la
moyenne par rapport au L-estimateur est de l’ordre de 0.8.
Néanmoins cette approche n’est pas la seule possible. On peut aussi envisager de construire
d’autres cartes comme les cartes EWMA.

Les limites de la carte L

Bien que le modèle non paramétrique de localisation échelle décrive un grand nombre de lois, nous
avons montré que celui-ci n’était pas adapté aux lois de défaut de forme. En effet, les paramètres de
localisation et d’échelle n’ont plus la même signification lorsque la distribution de la population
évolue.

Application industrielle

L’étude de presses à injecter multi-empreintes a mis en évidence la forte non normalité des critères
étudiés. Nous avons montré dans ces cas que la carte L était particulièrement intéressante
puisqu’elle détecte plus rapidement les dérives du procédé et permet des réglages plus précis.
A l’opposé, le suivi d’un tour multibroche a révélé contre toute attente que la loi de distribution des
observations pouvait être assimilée à une loi normale. Dans ce cas, les coefficients du L-estimateur
étant très proches de 1/n les performances de la carte L sont équivalentes à celles de la carte de
Shewhart.
L’utilisation de la carte L est donc sans risque si la non normalité d’un procédé n’a pas été vérifiée.

Perspectives

Avant d’énumérer les aspects de la recherche qu’il nous semble important de développer pour
compléter ces premiers résultats, nous rappellerons les principales motivations de nos travaux.

Les conventions CIFRE ont en effet pour vocation de favoriser le transfert technologique et les
échanges d’idées, souvent trop ponctuels, entre le milieu universitaire et le milieu industriel. Ainsi
un travail important reste à réaliser pour la diffusion auprès des industriels des méthodes présentées
dans ce mémoire. Ce travail de diffusion doit également s’accompagner d’un développement
d’outils informatiques permettant l’application des ces nouveaux concepts.

Le travail du chercheur a la particularité de n’être jamais terminé, ce qui rend ce métier si


passionnant. Certains aspects importants de notre travail restent en effet à développer.

Le premier sujet de recherche découle des limites constatées lors de l’application des cartes L dans
le cas des défauts de forme. Il serait en effet intéressant de proposer une méthode pour piloter les
procédés dont la loi évolue en fonction du paramètre de localisation. C’est le cas de nombreux
critères unilatéraux.

Un second sujet concerne la vérification de l’optimalité du L-estimateur des moindres carrés sur des
procédés non stationnaires. On peut par exemple envisager une approche adaptative du calcul des
coefficients du L-estimateur. On peut aussi envisager une vérification régulière de la validité des
coefficients par rapport à la loi de distribution des dernières observations. Les méthodes bootstrap
ainsi que la construction d’intervalle de confiance sur les statistiques bootstrapées peuvent selon
nous apporter une réponse intéressante à ce type de problème.

Enfin, une étude portant sur l’application des cartes L dans le cas des petites séries permettrait de
connaître les limites de la méthode dans un contexte où le volume d’informations est
particulièrement faible.

Ce travail représente la deuxième contribution du Laboratoire de Logiciels pour la Productique


(LLP/CESALP) dans l’action de recherche pour la Maîtrise Statistique des Procédés, après les
travaux de Mr Maurice PILLET sur les petites séries. Il est le fruit d’une étroite collaboration entre
les sociétés ODS Europe, FOCAL industrie et le laboratoire LLP/CESALP.
Annexe 1

Les notations mathématiques

Statistiques d’ordre
X1 , X 2 , , Xn Variables aléatoires indépendantes.

X (1) , X ( 2) , , X (n ) Variables aléatoires ordonnées.

x1 , x2 , , xn Observations indépendantes.

x(1) , x( 2) , , x(n) Observations ordonnées.

x(1:n) , x( 2:n) , , x(n:n) Observations ordonnées d’un échantillon de taille n.

X n Vecteur de n observations de la variable X

P( X ) Fonction de répartition de la variable X

Pn( X ) Fonction de répartition empirique

p( X ) Densité de probabilité de la v.a. X

Fr x Fonction de répartition de la statistique d’ordre X(r)

f r x Densité de probabilité de la statistique d’ordre X(r)

F r :n x  Fonction de répartition de la statistique d’ordre Xr:n

f r :n x  Densité de probabilité de la statistique d’ordre Xr:n


m r:n  E ( X r :n ) Espérance d’une statistique d’ordre

m (rk:n)  E X rk:n Moment d’ordre k d’une statistique d’ordre

m rs:n  E X r: n X s :n

Statistique classique

mX Espérance de la variable X.

s2X  VAR ( X ) Variance de la variable X

s XY  COV ( X , Y ) Covariance des variables X et Y

ER  m 
 ,X  .
 par rapport à X
Efficacité relative de m

ERA  m 
 ,X  .
 par rapport à X
Efficacité relative asymptotique de m

xp p-quantile d’une loi de probabilité.


Annexe 2

Développements mathématiques

Les courbes de Johnson


Afin de déterminer les courbes de Johnson, on applique les relations correspondant au type de
courbe choisi. Ces fonctions dépendent des paramètres m, n et p établis à partir des p-quantiles de la
distribution de la population.

Courbes non bornées (mn/p2 > 1)

Equation
z=g h⋅sinh−1  
x−e
λ

Détermination des paramètres

{ [  ]}
−1
−1 1 m n
· h=2 z cosh 
2 p p

{ [   ] }
1/ 2 −1
−1 n m m n
· g =h⋅sinh − 2 ⋅ −1
p p p p
 [  ]
1/ 2 −1

 
1/ 2
m n m n m n
· λ=2 p⋅ ⋅ −1  −2  2
p p p p p p

 [  ]
−1
x z x−z n m m n
· e= p − 2  2
2 p p p p

Courbes bornées (mn/p2 < 1)

Equation

z=g h⋅ln  x−e


λe− x 
Détermination des paramètres

{  [ }
−1

 ]
−1/ 2
−1 1 p p
· h=z cosh 1 1
2 m n

{ [   ] [  ] }
1/ 2 −1
−1 p p p p pp
· g =h⋅sinh − 1 1 −4 ⋅2 −1
n m m n mn

{[   ] }  
2 1/ 2 −1
p p pp
· λ= p 1 1 −2 −4 −1
m n mn

 [  ]
−1
x z x−z λ p p pp
· e= − p − 2 −1
2 2 n m mn
Courbes log-normales (mn/p2 = 1)

Equation
z=g h⋅ln  x−e 

Détermination des paramètres

2z
· h=
ln  m/ p 

· g =h⋅ln
 m/ p−1
p  m/ p 
1/ 2 
· e=
x z x−z p m/ p1
2

2 m/ p−1  
Construction du L-estimateur des moindres carrés
de Lloyd

Introduction

Nous allons dans cette annexe justifier la construction de l'estimateur des moindres carrés.
Rappelons tout d’abord quelques résultats concernant la méthode des moindres carrés généralisés.

Les moindres carrés généralisés


Considérons le modèle linéaire multiple suivant Y  Xb  u
où :


y1
Y = M est appelée variable d’intérêt.
yn


u1
u= M est un vecteur aléatoire modélisant les variations de Y .
un


b1
b= M est le vecteur des paramètres que l’on cherche à estimer par les moindres carrés.
bn

[ ]
x 11 L x1 n
X= M O M est une matrice contenant des variables dites « exogènes » non aléatoires.
x m1 L x mn
On suppose les conditions suivantes satisfaites: E(u) 0 et V(u)  s2 In

Estimer les paramètres b par les moindres carrés consiste à minimiser l’influence de la variable
n

aléatoire u. On cherche la statistique b  ( b1 bn ) qui minimise S (b )  S ( b1 bn )   ui2 .


i 1

 
n m 2

Ce qui revient à calculer : Min ∑ Y i − ∑ b j X ji


i=1 j=1
S(b) s’écrit sous forme vectorielle :
S (b )  ( Y  bX ) t ( Y  bX )
 Y t Y  2bt X t Y  bt X t Xb
On dérive S(b) par rapport à chacun des paramètres du vecteur b. On obtient alors le système des
équations normales :
2 X t Y  2 X t X b  0
D’où l’estimateur des moindres carrés ordinaires :
  X t X −1⋅X t Y
b=

Application à un échantillon ordonné

Reprenons maintenant le problème posé par Lloyd. On écrit l'expression de l'espérance des
statistiques d'ordre X(r) sous forme vectorielle
E [ X  r  ] =m p . es p α
où a est le vecteur des αr et e est un vecteur avec des composantes unitaires.

 
x 1  1 α1
On note X = M e= M α= M
xn 1 αn

On peut réécrire l’équation précédente sous la forme E X  A  q

[ ]
1 α1
où q=
m
s
et A= M
1
M
αn

La matrice de covariance de X est donnée par : COV  X  =s 2⋅


W est une matrice (nxn) des éléments  rs

On a alors le modèle linéaire suivant :

{
X = A⋅qu
E  u =0
V  u =V  X =s 2⋅

où u représente la composante aléatoire de X.


Ce modèle est dit général car V ( u)  s 2 W
W étant une matrice définie positive, il existe une matrice M(n,n) régulière telle que :
M t M  W 1

On peut alors multiplier par M la relation :


X  A.q  u  MX  MA  q  Mu

En opérant le changement de variable : Z=MX T=MA et v=Mu

on a :
{ E  v =0
V  v = MV  u  M t =s 2 I n

Z=Tb+v est donc un modèle linéaire multiple ordinaire et on connaît l’estimateur des moindres
carrés ordinaires de q.
−1
q = T t T  ⋅T t Z
−1
¿  At M t MA  At M t MX
−1
¿  At −1 A  At −1 X

Une estimation du vecteur q au sens des moindres carrés généralisés est donnée par :

−1
q = At⋅−1⋅A  ⋅At⋅−1⋅X

La variance des estimateurs est donnée par :

α t⋅⋅α
Var [ m
 ] =s 2⋅
p det  At −1 A 

e t⋅⋅e
Var [ s ] =s 2p⋅
det  At −1 A 
Construction du L-estimateur de Bovik

Introduction
Ainsi, la sortie Yk d'un L-filtre est donnée par une combinaison linéaire des statistiques d'ordre x(j)
avec des coefficients réels notés Cj (où j=1..n).
n
Yk   C j  x( j) (1)
j 1

Si on généralise cette notion en définissant une fonction , on obtient un NL-filtre ; la fonction 


ayant éventuellement un caractère non linéaire.

F:ÂÂ
Telle que :Y k =F  x 1 ⋅¿⋅¿ x  2  

Optimisation des coefficients


Dans notre étude, nous ne nous intéressons qu'aux L-estimateurs ou L-filtres dont l'intérêt
est de pouvoir déterminer de manière relativement simple un jeu de coefficients optimaux au sens
de l'erreur quadratique moyenne d'estimation, en tenant compte de la forme de la distribution du
bruit. L'application de ces L-estimateurs reste néanmoins réduite aux distributions symétriques.
Si le procédé est stationnaire, nous pouvons modéliser les mesures par Xk=sk+Bk, où sk est une
constante (position du procédé liée aux causes spéciales ) et Bk est un bruit blanc centré ayant une
densité de probabilité symétrique (dispersion due aux causes communes).
Pour un ensemble de mesures consécutives, les statistiques d'ordre vérifient:

x(j)=sk+B(j)

où B(j) est la jème statistique d'ordre du bruit.


On en déduit que l'estimation peut s'écrire :

Yk  sk   C j   C j  B ( j )

La symétrie de la distribution du bruit nous amène à traiter un cas assez particulier car d'une part
l'espérance des réalisation de la variable aléatoire associée au bruit est nulle, E B  0 ., et d'autre
part les coefficients de pondération du L-estimateur sont symétriques du fait de la structure des L-
filtres.

C1 j  Cn j  j 
on a alors E Yk  sk  
j
C j   C j  E B ( j )  sk   C j
j j

Une condition suffisante pour obtenir un biais nul est E Yk  sk , ce qui implique que la somme
des coefficients C doit être égale à 1. Si on utilise un vocabulaire propre au traitement du signal, on
dit que le L-filtre a un gain statique unitaire.

On peut évaluer les performances de l'estimateur sans biais en calculant sa variance.

[ 2
] [
Var [ Y k ] =E  Y k −E Y k   =E  Y k −s k 
2
]
¿E
[∑ C ⋅B  j ∑ C ⋅B  p ]
j
j
p
p

¿ ∑ ∑ C j⋅E [ B  j ⋅B  p  ]⋅C p


j p
Cette dernière peut s'écrire sous forme vectorielle:
Var Yk t C  R  C (2)

où C = C 1 LC n  est le vecteur des coefficients pondérateurs du L-estimateur et R est la matrice


t

de corrélation de bruit ordonné telle que R jp  E B( j )  B( p)

L'expression de la variance d'un L-estimateur met en évidence que son efficacité est
conditionnée par le bon choix des coefficients C. Pour calculer les coefficients optimaux nous
allons nous appuyer sur deux critères que l'on essayera d'optimiser.
D'une part nous souhaitons avoir la somme des coefficients C la plus proche possible de 1 :
 Cj  1
j

Et d'autre part nous voulons minimiser la variance de l'estimateur Var Yk t C  R  C .

Introduisons tout d'abord le vecteur unité e tel que t e=  1 L1 

Pour optimiser les deux critères que l'on s'est fixé, nous allons minimiser la fonctionnelle suivante :

j  C , λ  =t CRC  λ 1−t C⋅e 


Afin de déterminer pour quelles valeurs des coefficients la fonctionnelle trouve son minimum, nous
allons calculer les dérivées partielles de  par rapport aux coefficients c1...cn.
{
n n n
¶j
= ∑ R ⋅c  ∑ R ⋅c −λ=2 ⋅∑ R1 k⋅c k − λ
¶ c 1 j=1 j1 j p=1 1p p k =1

n n n
¶j
= ∑ R ⋅c  ∑ R ⋅c −λ=2 ⋅∑ R nk⋅c k −λ
¶ c n j=1 jn j p=1 np p k =1

[]
¶j
¶ c1
Le vecteur des dérivées partielles peut donc s'écrit M =2 . RC −λe
¶j
¶ cn

La fonctionnelle  admet un minimum absolu lorsque les dérivées partielles s'annulent. Pour
connaître les coefficients C nous cherchons donc à résoudre le système d'équation :

t {
2 ⋅RC −λe=0
e⋅C =1

2 R 1  e
Les solutions sont : l et C 
t
e  R 1  e t
e  R 1  e

Les coefficients optimaux des L-estimateurs sont donc calculés à l'aide de la relation :

R 1  e
C t
e  R 1  e
Etude de capabilité dans le cas d’une loi de défaut
de forme

Loi normale sous-jacente de moyenne nulle


Dans le cas d’une loi de défaut de forme fd, nous savons que le rapport entre la moyenne et l’écart
type de fd ne peut pas être inférieur à une valeur qui correspond au cas où la moyenne de la loi
normale sous-jacente est centrée sur zéro.

Nous allons donc calculer ce rapport pour une loi normale sous-jacente de moyenne nulle.

Soit l’expression de la loi de défaut de forme :

e
− x2
2
f d  x =2 ⋅ x³0} {}
2 p
¿

La moyenne de la loi de défaut de forme est alors


¥
2
m=∫ x⋅f d  x ⋅dx= =0 . 7979
0 p

Nous calculons également l’écart type de la loi de défaut de forme :


¥
E  x  =∫ x 2⋅f d  x ⋅dx=1
2

 2

s= E  X 2  −E  X  = 1− =0 . 60281
2
p

D’où la valeur limite du rapport m/s.

m
s
=
2
p−2 
=1 . 323608

La Norme AFNOR NF E 60-181 propose de définir la dispersion telle que D=5s.


Nous pouvons vérifier dans ce cas que la dispersion couvre 99.74% de la population.
5s

∫ f d  x ⋅dx=0 . 997422
0
Calcul de la dispersion de la loi de défaut de forme en fonction
de sa moyenne et son écart-type
Le calcul de la dispersion de la loi de défaut de forme n’étant pas aisé, les normes fournissent
généralement cette information sous forme de tableau en fonction d’un paramètre facilement
estimable.
La Norme AFNOR E 60-181 fournit ces donnée en fonction du rapport m/s.

m/s Dispersion à 99.73% m/s Dispersion à 99.73% m/s Dispersion à 99.73%


1.3236 5.0 1.9 4.8 2.5 5.3
1.4 4.8 2.0 4.9 2.6 5.4
1.5 4.7 2.1 5.0 2.7 5.5
1.6 4.7 2.2 5.1 2.8 5.6
1.7 4.7 2.3 5.1 2.9 5.7
1.8 4.8 2.4 5.2 3.0 5.8
Annexe 3

Démonstrations

Optimalité des estimateurs

Calcul des bornes de Frechet dans le cas d’une loi normale.


Démonstration

On suppose une variable aléatoire X qui suit une loi normale N(m,s).

 x−m  2
− 2
e 2s
f  x =
s 2 p

Nous cherchons à calculer la bornes de Frechet pour une statistique Tn qui est une estimateur du
paramètre m.

On calcule l’information de Fisher

[ ]
2

I  m  =E ⋅Log  f  x , m  
¶m
2
¥  x−m 

1 1
I  m = 3 ∫
s  2 p -¥
e 2 s2
dx =
s
2

On peut alors calculer la borne de Frechet pour une statistique Tn utilisant un échantillon de taille n.
1 1 s2
BF= = =
I n  m n . I  m n

2
  = s =B F
La moyenne empirique est donc une estimateur efficace de m puisque V  X
n

Programme Maple
restart :
with(linalg) :
f :=(x)->exp(-(((x-mu)/sigma)^2)/2)/(sigma*sqrt(2*Pi)) ;
information de Fisher
g :=unapply(simplify(diff(log(f(x,mu)),mu$2)),(x,mu)) ;
i :=int(-g(x,mu)*f(x),x=-infinity..infinity) ;
Borne de Frechet
frechet :=evalf(1/(n*i)) ;

Calcul des bornes de Frechet dans le cas d’un mélange de lois


Nous avons comparé les performances du L-estimateur des moindres carrés aux bornes de Frechet
pour deux méthodes d’échantillonnage (l’échantillonnage aléatoire et l’échantillonnage séquentiel).

Le procédé

Le procédé que nous avons simulé se constitue d’une population stratifiée composée de 6 lois
normales (voir chapitre 3 §3.4.3).

N(0,1) N(5.5,1) N(5,1) N(5,1) N(-3.2,1) N(-3.5,1)


Efficacité du L-estimateur

Borne de Frechet V(m) - Ech Aléatoire V(m) - Ech Séquentiel


3 0.01277 4.2853 0.4863
4 0.00957 2.4537 0.4507
5 0.00766 1.5157 0.334
6 0.006386 1.011 0.1666
7 0.005474 0.7238 0.2047
8 0.004790 0.5499 0.1951
9 0.004258 0.44 0.1431
10 0.003832 0.3648 0.1582

On constate, à travers ces résultats, que malgré son optimalité par rapport aux estimateurs linéaires
(construits a partir d’une combinaison linéaire des observations), le L-estimateur des moindres
 ) >> BF).
carrés n’est pas un estimateur efficace (Var( m

L-estimateur des moindres carrés

Calcul des coefficients dans le cas d’une loi normale


Le calcul des coefficients du L-estimateur de Lloyd est particulièrement lourd car il nécessite
d’établir les moments d’ordre et la matrice de covariance des statistiques. La plupart du temps on a
recours au calcul numérique pour réaliser de tels calculs.
Nous avons néanmoins réalisé un programme permettant de calculer les coefficient du L-estimateur
de Lloyd dans le cas de distributions simple. La complexité des calculs vient souvent a bout de la
puissance de calcul de Maple, même sur une station type RS 6000.

Calcul de la matrice de covariance et des moments des Statistiques d’ordre

Programme réalisé par Mohammed Tabiza (doctorant au LAMII)


restart;
with(linalg):
n:=3;med:=2;
sigma:=1;
fp := u->1/sqrt(2*Pi)/sigma*exp(-u^2/(2*sigma^2));
fn := unapply(fp(u),u);
Fp := x-> 1/2 + int(fp(u),u=0..x):
Fn := x-> int(fn(u),u=-infinity..x):
Gp := (x,r)-> x* Fp(x)^(r-1)*(1-Fp(x))^(n-r) * fp(x):
Gn := (x,r)->x*Fn(x)^(r-1)*(1-Fn(x))^(n-r) * fn(x):
K :=(r) ->factorial(n) /(factorial(r-1)* factorial(n-r)):
KK :=(r,s) ->factorial(n) / (factorial(s-r-1)*factorial(n-s)*factorial(r-1)):
Hp := (v,w,r,s)->v*w*Fp(v)^(r-1)*(Fp(w)-Fp(v))^(s-r-1) *(1-Fp(w))^(n-s) * fp(v) *fp(w):
Hn := (v,w,r,s)->v*w*Fn(v)^(r-1)*(Fn(w)-Fn(v))^(s-r-1) *(1-Fn(w))^(n-s) * fn(v)* fn(w):
Hnp := (v,w,r,s)->v*w*Fn(v)^(r-1)*(Fp(w)-Fn(v))^(s-r-1) *(1-Fp(w))^(n-s) * fn(v) *fp(w):
Hnn := (x,r)-> x* Gn(x,r):
Hpp := (x,r)-> x * Gp(x,r):
esper:=(r)->K(r) *( int(Gn(x,r),x=-infinity..0) + int(Gp(x,r),x=0..infinity)):
mu:=array(1..n):
mu[med]:=0.0:
for t to n/2 do
mu[t]:=evalf(esper(t));
mu[n-t+1]:=-mu[t]
od:
#covariance pour j<k
cov := (r,s)->KK(r,s)*(int( int(Hn(v,w,r,s),v=-infinity..w),w=-infinity..0)
+int( int(Hnp(v,w,r,s),v=-infinity..0),w=0..infinity)+ int(int(Hp(v,w,r,s),v=0..w),
w=0..infinity));
mat:=array(1..n,1..n):
for ii from 1 to med-1 do
for jj from ii+1 to n-ii+1 do
mat[ii,jj] := evalf(cov(ii,jj));
mat[n-jj+1,n-ii+1] := mat[ii,jj];
mat[n-ii+1,n-jj+1] := mat[ii,jj];
mat[jj,ii] := mat[ii,jj];
od;
od:
print(mat);
var:=(r)->K(r) *(int(x*Gn(x,r),x=-infinity..0)+int(x*Gp(x,r),x=0..infinity)):
mat[med,med] := evalf(var(med));
for i from 1 to med-1 do
mat[i,i] :=evalf( var(i));
mat[n-i+1,n-i+1] := mat[i,i]:
mat[i,n-i+1] := mat[i,i]:
mat[n-i+1,i] := mat[i,i]:
od:
print(mat);
print(mu);

Dans le cas d’une loi normale, on trouve les coefficients suivants :

Vecteur des moments des statistiques d’ordre


α= [ −0 . 84628 0 0 . 84628 ]

Matrice de variance covariance des statistiques d’ordre

[ ]
0 . 5595 0 . 2757 0 . 1649
= 0 . 2757 0 . 4486 0 . 2757
0 . 1649 0 . 2757 0 . 5595

Calcul des coefficients du L-estimateur de Lloyd

restart:
with(linalg):
Taille de l'échantillon
Nbechant:=3;
Moyenne et Ecart type de la population
moypop:=0;Ecpop:=1;
Vecteur des moyennes des statistiques d'ordre (de x(1) à x(n))
alpha:=matrix([[-0.8462843753],[0],[0.8462843753]]);
Matrice de covariance de bruit ordonné : COV (Yr,Ys)
vect:=matrix([[0.5595, 0.2757, 0.1649, 0.4487,0.2757, 0.5595]]):
omega:=matrix(Nbechant,Nbechant):
z:=0:
for i from 1 to Nbechant do
for j from i to Nbechant do z:=z+1:omega[i,j]:= vect[1,z]:omega[j,i]:=vect[1,z]:od:
od;
print (omega);
e:=convert(array(identity,1..Nbechant),matrix):
Matrice de covariance inverse
omega2:=inverse(omega);A:=concat(e,alpha);Atrans:=transpose (A):

Coefficients du L-estimateur de LLOYD


1ere ligne Coefs de l'estimateur de position (mu)
2ème ligne Coefs de l'estimateur de dispersion (sigma)
Coefs:=evalm(inverse(Atrans &* omega2 &* A) &* Atrans &* omega2 );

Etude des variances


delta:=det (Atrans &* omega2 &* A):
Variance du L-estimateur pour le paramètre de localisation
vmu:=evalm((transpose(alpha) &* omega2 &* alpha )*(Ecpop^2/delta));
vmoy:=(Ecpop^2)/Nbechant;
Variance du L-estimateur pour le paramètre d’échelle
vsigma:=evalm((transpose (e) &* omega2 &* e)*(Ecpop^2/delta));

Dans le cas de la loi normal, les coefficients sont ceux de la moyenne puisque l’on trouve :

Coefs= [ 0 . 333332
−0 . 590818
0 . 333332
0
0 . 333332
0 . 590818 ]
La variance du L-estimateur de position est la même que celle de la moyenne :

s2
Vmu=0 . 33333=
3

La variance du L-estimateur de dispersion est :

Vsigma=0 . 27548
Références Bibliographiques

Ouvrages

AF0 95 AFNOR Norme NF X 06-031-0


Application de la Statistique - Cartes de contrôle - Principes Généraux - 1995

AF1 95 AFNOR Norme NF X 06-031-1


Application de la Statistique - Cartes de contrôle de Shewhart aux mesures -1995
ISSN 0335-3931

AF4 95 AFNOR Norme NF X 06-031-4


Application de la Statistique - Cartes de contrôle des Sommes Cumulées - 1995

AFN 94 AFNOR Norme NF E 60-181


Moyens de production - Conditions de réception - Méthode d’évaluation de
l’aptitude à réaliser des pièces - 1994

Ard 95 ARDILLY
Les techniques de sondage - Technip - 1995

Bou 78 BOUROCHE J.M. & SAPORTA G.


L’analyse des données - P.U.F.- Que sais-je ? - 1980

Cap 88 CAPERAA Ph & VAN CUTSEM B


Méthodes et modèles en statistiques non paramétriques Exposé fondamental
Presse de l'université Laval - DUNOD - 1988

Dav 81 DAVID H. A.
Order Statistics - New York - Willey - 1981

Gen 74 GENET J., PUPION G., REPUSSARD M.


Probabilités, Statistiques et sondages - Vuibert - 1974
Gra 83 GRAIS B.
Méthodes Statistiques - Tome 2 - Modules Economiques DUNOD 1983

Hot 47 HOTELLING H.
« Multivariable Quality Control » - Techniques of statistical analysis
Mc Graw-Hill - New York - 1947

Joh 93 JOHNSON N. L. & KOTZ S


Process Capability Indices - 1993

Kau 94 KAUFMANN P
Information Estimation Tests - Economie-Module DUNOD - 1994

Lec 87 LECOUTRE J.P. & TASSI P.


Statistique non Paramétrique et Robustesse - Economica - 1987

Mon 91 MONGOMERY D. C.
Introduction to Statistical Quality Control
John Wiley & Sons 2nd edition 1991

Pil 97d PILLET M.


Les plans d’expérience par la méthode TAGUCHI
Les Editions d’organisation - 1997

Pil 97e PILLET M.


Appliquer la Maîtrise Statistique des Procédés (MSP/SPC)
Les Editions d’organisation - 1997

Rya 89 RYAN P.
Statistical Méthods for quality improvement
John Wiley & Sons 2nd edition - 1989

Sap 78 SAPORTA G.
Théorie et Méthodes de la Statistique - Technip - 1978

She 32 SHEWHART W. A.
Economic Control of Quality of Manufactured Products
Van Nostrand Co. Inc Princeton - 1932

Sil 52 SILVERMAN B.W.


Density Estimation for Statistics and Data Analysis
Chapman an Hall -1952

Sou 86 SOUVAY P.
La statistique outil de la qualité Edition AFNOR - 1986

Tas 89 TASSI Ph
Méthodes Statistiques - Economica 2nde Edition - 1989

Tag 89 TAGUCHI G. ELSAYED A. HSIANG T. C.


Quality engineering in production systems - Mc Graw-Hill - 1989
Whe 91 WHEELER D. J.
Short Run S.P.C. - SPC Press - 1991

Whe 92 WHEELER D. J.
Understanding Statistical Process Control - SPC press - 1992

Wil 62 WILKS S.S.


Mathematical statistics - Wiley 1962

Articles

All 91 ALLOWAY J. A. RAGHAVACHI M.


Control charts based on the Hodges-Lehmann Estimator
Journal of Quality Technology - N°23 - pp336-347 - 1991

Bai 95 BAI D.S. and CHOI I.S.


Xb and R control charts for skewed populations
Journal of Quality Technology Vol 27 N°2 Avril 95

Bol BOLON Ph.


Filtrage d'ordre, vraisemblance et optimalité des traitements d'image
Traitement du signal Vol 9 N°3 - 1993

Bho 91 BHOTE K. R.
World Class Quality - Amacom -1991 -225p

Bov 83 BOVIK A. C.
A generalization of Median Filtering using Linear Combinations of Order
Statistics - IEEE Transaction on acoustics, speech, and signal processing Vol
ASSP 31 - No 6 - 1983

Bov 85 BOVIK A. C. & RESTREPO A.


Adaptive L-filters - Proceeding of the 23 th annual conference on communication
control and computers - Monticello - 1985

Boy 91 BOYLES R. A.
The Taguchi Capability Index
Journal of Quality Technology - Vol 30 N°1 - pp17-26 - 1991

Bur 42 BURR, I. W.
Cumulative frequency functions - Annals of Mathematical Statistics,
N°13, pp215-232 - 1942

Bur 67 BURR, I. W.
The effect of Non-Normality on constants for X  and R charts
Industrial Quality Control, Vol. 23, N°11, pp563-568 Mai 1967
Cas 96 CASTAGLIOLA Ph
Evaluation of non normal Process capability indices using Burr's distributions
Quality engineering 8(4):587-593 - 1996

Cle 89 CLEMENTS J.A.


Process capability calculations for non normal distributions
Quality Progress - N°22 pp95-100 - 1989

Dow 54 DOWNTON F.
Least Squares estimates
Annals of Mathematical Statistics Vol 25 pp303-316 1954

Duc 96 DUCLOS E. PILLET M. COURTOIS A.


Optimisation de la Maîtrise Statistique des Procédés par une méthode de filtrage
d’ordre - Revue de Statistique Appliquée XLIV (2) pp61-79 - 1996

Duc 97a DUCLOS E. PILLET M. COURTOIS A.


An Optimal Control Chart for non-Normal Processes
IFAC « Manufacturing Systems : Modeling, Management and Control » -Fevrier
97 - Viennes -Autriche

Duc 97b DUCLOS E. PILLET M. COURTOIS A.


Une méthode d’estimation optimale appliquée à la M.S.P.
Congrès Qualité et Sûreté de Fonctionnement - Mars 97 - Angers - France

Efr 79 EFRON B.
Bootstrap Methods :Another look at the Jackknife
Annals of Statistics - N°7 - pp1-26 - 1979

Efr 83 EFRON B. CONG G.


A Leisurely look at the bootstrap, the Jackknife, and Cross-Validation
The American Statistician - N°37 - pp36-48 - 1983

Efr 86 EFRON B. TIBSCHIRANI R.


Bootstrap Methods for Standard Errors, Confidence Intervals, and Other
Measures of Statistical Accuracy - Statistical Science - N°1 - pp57-77 - 1986

Fan 96 FANG. J. & CASE K.E.


Using a correlation test for normality
Journal of Quality Technology Vol 28 N°3 -1996

Far 97 FARNUM R.N.


Using Johnson curves to describe non-normal process data
Quality engineering 9(2) - pp329-336 - 1997

Fra 91 FRANKLIN L.A.& WASSERMAN G.S.


Bootstrap Confidence Interval estimates of Cpk : An introduction
Communications in Statistics - Simulation and Computation
N°20 - pp231-242 - 1991
Fra 92 FRANKLIN L.A.& WASSERMAN G.S.
Bootstrap Lower confidence limits for capability Indices
Journal of Quality Technology Vol 24 N° 4 - 1992

Gru 89 GRUSKA G. F. MIRKHANI K. & LAMBERSON L.R.


Non normal Data Analysis
Applied Computer Solutions Inc - 1989

Gui 96 GUIDEZ L.
Indicateurs de capabilité et populations non gaussiennes
Congrès Qualité SIA - 1996

Gui 97 GUIDEZ L.
MSP : Impact de la non normalité sur les indicateurs de capabilité
2ème congrès Pluridisciplinaire Qualité et Sûreté de Fonctionnement - 1997

Gun 89 GUNTER
The use and abuse of Cpk
Quality Progress 22(3), pp108-109 & 22(5), pp 79-80 - 1989

Gup 92 GUPTA A.K.


Estimation of the mean and standard deviation of a normal population from
cesored sample
BIOMETRIKA - Vol 39 - pp 260-273 - 1992

Hac 92 HACKL P. LEDOLTER J.


A control chart based on ranks
Journal of quality technology Vol 23 N°2 - 1992

Ham 68 HAMPEL F. R.
Contributions to the theory of robust estimation
PhD Thesis, Université de Californie - 1968

Ham 74 HAMPEL F. R.
The Influence curve and its in robust estimation J. Amer. Statist. Assoc. - N°69
pp 383-393 - 1974

Har 95 HART M.K. HART R.F


Tests for stratification within control chart subgroups
Quality Engineering 7(3) pp 481-491 - 1995

Hil 69 HILLER F. S.
Xb and R-chart Control Limits based on a small number of subgroups -
Journal of Quality Technology - pp17-26 - 1969

Hsi 85 HSIANG T. C. TAGUCHI G.


A tutorial on Quality Control abd assurance - The Taguchi Methods
ASA - Annual Meeting Las Vegas - 1985
Hub 64 HUBER P.
Robuste estimation of a location parameter
Ann. Math. Statist. N°35 - pp 73-101 - 1964

Jau 97 JAUPI L. SAPORTA G.


Cartes de contrôle pour la variabilité des procédés multidimensionnels
Congrès Qualité et Sûreté de fonctionnement - Mars 97 - Angers

Joh 93 JOHNSON N. L. KOTZ S.


Process Capability Indices - Chapman & Hall - 1993

Koo 91 KOONS G. F.
SPC : Use in low volume manufacturing environment - Statistical Process
Control in Manufacturing - Quality and reliability - ASQC Quality Press - 1991

Kus 92 KUSHLER R.H. & HURLEY P.


Confidence bounds for capability indices
Journal of Quality Technology Vol 24 N° 4 - 1992

Llo 52 LLOYD E. H.
Least-Squares Estimation of Location and Scale parameters Using Order
Statistics - Biometrika - Vol 39 - pp 88-95 - 1952

Mor 95 MORTEL R.R. & RUNGE G.C.


Startistical Process Control of Multiple Stream Process
Journal of Quality Technology Vol 27 N° 1 - 1995

Owe 69 OWEN DB.


Summary of recent works on variables acceptance sampling with emphasis on
non normality - Technometrics Vol 11 N°4 pp631-637 - 1969

Pap 96 PAPPANASTOS E.A. & ADAMS B.M.


Alternative Designs of Hodges-Lehmann Control Chart
Journal of Quality Technology Vol 28 N°2 - 1996

Pit 48 PITMAN E. J.
Notes on non parametric statistical inference
Manuscrit non publié

Pea 92 REARN W.L. & KOTZ S.& JOHNSON N.L.


Distribution and inferential properties of process capability indices
Journal of Quality Technology Vol 24 N° 4 - 1992

Pea 95 REARN W.L. & KOTZ S.


Application of clements method for calculating second and third generation
capability indices for non normal pearsonian population
Quality Engineering 7(1) pp 139-145 - 1995

Pag 54 PAGE E. S.
Continuous Inspection Schemes - Biometrics - Vol 41 - 1954
Pil 92 PILLET M.
Application du SPC aux Petites Séries
Revue contrôle industriel et qualité - N°174 - pp58-61 - 1992

Pil 93 PILLET M.
Contribution à la Maîtrise Statistique des Procédés - Cas particulier des petites
séries - Thèse en Sciences de L’ingénieur - Univ. Savoie -1993

Pil 96a PILLET M.


A specific SPC chart for Small-Batch control
Quality Engineering - 8(4) - pp 581-586 - 1996

Pil 96b PILLET M. DUCLOS E. COURTOIS A.


Généralisation de l’indicateur de capabilité Cpm - Cas des tolérances unilatérales
Contrôle Industriel et Qualité - N°196 - Février 96

Pil 97a PILLET M. DUCLOS E.


SPC - Optimisation de la taille des échantillons dans le cas des systèmes
multigénérateurs. - Revue Pratique de Contrôle Industriel - N° 203 - Fevrier 97

Pil 97b PILLET M. ROCHON S. DUCLOS E.


Generalization of capability index Cpm. Case of unilateral tolerances
Quality engineering, N°10 Vol 1 - pp 171-176 - 1997/98

Pil 97c PILLET M. ROCHON S. DUCLOS E.


De nombreux indicateurs de capabilité basés sur le bon fonctionnement des
produits - Congrès Qualité et Sûreté de fonctionnement - Mars 97 - Angers

Pyz 92 PYZDEK T.
Process Capability Analysis Using Personal Computers
Quality. Engineering 4(3), pp419-440 - 1992

Ren RENAULT
Moyens de Production Agrement Capabilite des moyens "Multipostes ..."
Normalisation Equipement E41.32.220.R

Rod 92 RODRIGUEZ R.N.


Recent developments in process capability analysis
Journal of Quality Technology Vol 24 N° 4 - 1992

Sch 96 SCHNEIDER H. KASPERSKI W.J. & al


Control charts for skewed and censored data
Quality engineering 8(2):263-274 - 1996

Shi 76 SHILLING E.G. & NELSON P.R.


The effect of non normality on the control limits of Xb charts
Journal of Quality technology - Vol 8 N°4 pp183-188 - 1976

Sho 72 SHORACK G.R.


Functions of order statistics - Ann. Math. Statist - N° 43 pp 412-427 - 1972
Sli 80 SLIFKER J. F. SHAPIRO S. S.
The Johnson System : Selection and parameter estimation
Technometrics - Vol 22 N°2 - pp239-246 - 1980

Som 97 SOMERVILLE S.E.


Process capability indices and non-normal distributions
Quality engineering 9(2) 305-316 - 1997

Tag 85 TAGARE H. D. & FIGUEIREDO R. J. P.


Order Filters - Proceedigs of the IEEE - Vol 73 - No 1 - 1985

Van 64 VAN ZWET W. R.


Convex Transformations of Random Variables. Mathematisch Centrum

Wil 96 WILLEMAIN Th. R. & RUNGER G. C.


Designing Control Charts usung an empirical Reference Distribution
Journal of Quality Technology Vol 28 N°1 - 1996

Woo 95 WOODALL W.H. & THOMAS E.V.


Statistical Process Control with several componenrs of common cause variability
IIE Transactions 27 pp757-764 - 1995

You 92 YOURSTONE Steven A. & ZIMMER W.J.


Non normality and the design of control; charts for averages
Decision Science Vol 23 N°5 pp 1099-1113 - 1992

Vous aimerez peut-être aussi