Vous êtes sur la page 1sur 7

Chapitre 3 : Les cartes de contrôle : bases et principes

I. Introduction

1. Définition
En théorie, pour un procédé de production fixé, la valeur d’une caractéristique définissant
la qualité du produit, devrait être identique pour chaque individu fabriqué. Cependant, dans la
pratique on observe une variation de cette valeur d’un individu à l’autre. Les causes de cette
variation sont deux ordres. Elles proviennent :
– soit d’une combinaison complexe d’évènements non contrôlables dus au hasard : c’est ce
que l’on appelle les causes communes.
– soit d’évènements identifiables, irréguliers, instables : c’est ce que l’on appelle les causes
spéciales.

La carte de contrôle est un outil graphique qui permet d’analyser si un processus est sous
contrôle statistique. C’est un graphique sur lequel on fait correspondre un point à chacune des
valeurs d'une statistique calculée à partir d'échantillons successifs prélevés dans une
fabrication.
Chacun de ces points a pour abscisse le numéro de l'échantillon (ou son heure, jour ou période
de prélèvement) et pour ordonnée la valeur de la statistique calculée sur cet échantillon.
La carte contient aussi une ligne centrale qui représente la valeur moyenne de la statistique
représentée quand le processus est sous-contrôle et une ou deux autres limites appelées limite
de contrôle supérieure (LCS ou UCL) et limite de contrôle inférieure (LCI ou LCL).

Une carte de contrôle c’est donc un outil qui permet de :


– (optimiste) s’assurer que les variations observées ne sont dues qu’à des causes communes.
S’assurer que la caractéristique définissant la qualité de la production reste stable au cours du
temps.
– (pessimiste) détecter l’apparition d’une ou plusieurs causes spéciales, détecter un
changement significatif dans la caractéristique définissant la qualité de la production.

Carte X-barre

99
LCS = 95,58
96 CTR = 90,84
LCI = 86,10
93
X-barre

90

87

84
1.0 7,0 13,0
4,0 10,0 16,0 Fig. 3.1

En pratique, les deux grands types de dérive (variations) d’un procédé sont des dérives en
position et des dérives en dispersion.

2. Principes
Le principe d'une carte de contrôle est simple : quand le processus est sous-contrôle, presque
tous les points doivent se trouver entre les limites de contrôle. Un point observé hors des
limites de contrôle indique que le processus est hors-contrôle. Il faut alors tenter d'en trouver
la raison et d'éliminer la cause responsable de ce comportement. Les limites de contrôle sont
choisies en fonction de la distribution de probabilité de la statistique considérée.
Des limites de surveillance sont souvent ajoutées aux limites de contrôle. Si la statistique est à
l'extérieur des limites de surveillance mais à l'intérieur des limites de contrôle, une
surveillance accrue du processus de fabrication est en général nécessaire.

3. Buts et bénéfices
Les principaux buts et bénéfices des cartes de contrôles sont les suivants :
- La carte de contrôle augmente la productivité et diminue les coûts car elle prévient la
production de produit défectueux en aidant à garder le processus sous-contrôle statistique. La
productivité augmente car la proportion de « bon produit » fabriqué augmente et les coûts
diminuent car il y a moins de déchets, révisions ...
- La carte de contrôle empêche le sous ou le sur contrôle. Il est normal que les sorties d'un
procédé varient et il n'est pas indispensable de réajuster celui-ci chaque fois qu'une unité
produite ne correspond pas exactement à la valeur cible. La carte de contrôle indique quand il
faut réagir et quand il faut laisser le processus dans l'état où il est.
- La carte de contrôle donne des indications sur les causes des problèmes. Un opérateur ou
ingénieur familier avec le procédé et la technique des cartes de contrôle pourra en général
diagnostiquer la cause d'un problème en examinant le profil des points sur la carte de contrôle
(cycle, dérive ...)
- La carte de contrôle permet de mesurer la capabilité (ou aptitude) du processus car elle
donne une estimation de la tendance centrale de la caractéristique étudiée, de sa variabilité et
des limites dans lesquelles elle varie.

II. Types de carte de contrôle

Il existe deux grandes classes de cartes de contrôle : les cartes de contrôle pour variables (ou
mesures) et les cartes de contrôle pour attributs.
Une variable est par exemple une température, pression, viscosité, .... Ce type de
caractéristique est mesurable ou repérable par un appareil de mesure.
De nombreuses caractéristiques ne peuvent être mesurées sur une échelle continue. Dans ces
cas, le produit est, en général, classé en conforme ou non-conforme en fonction d'un certain
nombre de qualités attendues ou est caractérisé par le nombre de défauts apparaissant sur une
unité produite. On parle alors de contrôle par attribut.

Contrôle sur Contrôle et surveillance de la tendance Carte de la


un échantillon centrale (position) moyenne
Contrôle pour Carte de la médiane
mesures Contrôle et surveillance de la Carte de l’étendue
dispersion Carte de l’écart-
type
Cartes aux valeurs individuelles
Carte du nombre ou de la proportion de défectueux par échantillon
Contrôle pour Carte du nombre ou de la proportion de défauts par unité de contrôle
attributs

On distingue les cartes de contrôle pour mesures aux valeurs individuelles et les cartes de
contrôle pour mesures sur un échantillon. Les cartes de contrôle pour attributs concernent le
nombre ou la proportion de défauts ou de défectueux par échantillon.
III- Construction d’une carte de contrôle

Pour construire une carte de contrôle il faut :


1. Fixer une taille de l’échantillon et une fréquence de prélèvement. Par exemple, prélever
pots de yaourt toutes les minutes.
2. Collecter échantillons de mesures prélevées au cours d’une production stabilisée
(c’est-à-dire de capabilité machine et procédé suffisamment élevées) et sous surveillance
(sans cause spéciale) : c’est ce que l’on appelle une production sous-contrôle. Ces valeurs, qui
sont sensées refléter les propriétés statistiques “naturelles” de la caractéristique qualité ,
sont en général présentées sous la forme d’un tableau.

Echantillons Mesures

3. Tester la normalité des données recueillies


4. Choisir la statistique (sur ) que l’on désire surveiller. On choisira classiquement la
moyenne ou la médiane empirique pour contrôler la position centrale de la caractéristique ,
et l’écart-type empirique ou l’étendue pour contrôler sa dispersion.
5. Calculer les limites de contrôle LCL (Lower Control Limit) et UCL (Upper Control Limit)
de la carte de contrôle qui sont définies comme étant les valeurs vérifiant

P(LCL  T  UCL) = 1 - 

lorsque le procédé est sous contrôle, où  est une probabilité faible. En pratique, pour les
cartes de contrôle, il est habituel de fixer  = 0,0027, ce qui correspond à des limites à ±3
écarts-type.

1. Limites de contrôle
Le choix des limites de contrôle est l'une des décisions cruciales à prendre quand on établit
une carte de contrôle. Ces limites dépendent de la caractéristique ou statistique représentée sur
la carte mais sont choisies suivant un principe commun.
Soit une statistique ω de moyenne µ ω et de d'écart-type σω représentée sur la carte de contrôle.
A un instant donné i, ωi peut être, tout simplement, la valeur d'une observation X i de la
caractéristique X, ou la moyenne, étendue ou écart-type d'un échantillon (X i1, Xi2,  , Xin)
prélevé à l'instant i :. Si ωi = Xi alors µω = µ et σω = σ.
La ligne centrale et les limites de contrôles sont en général définies comme suit :
• Limite de contrôle supérieure : UCL = µω + k σω
• Ligne centrale : CL = µω
• Limite de contrôle inférieure : LCL = µω – k σω
où k est la « distance » des limites de contrôle à la ligne centrale.

Remarquons que pour la facilité, les limites sont positionnées symétriquement autour de la
ligne centrale malgré que pour certaines statistiques ω (comme l'étendue) la distribution de ω
ne soit pas nécessairement symétrique autour de sa moyenne.
2. Choix du paramètre k
La valeur de k influence directement les erreurs de type I (i.e. décider qu’une cause spéciale
est apparue alors qu’en fait la caractéristique définissant la qualité de la production est restée
stable) et II (i.e. décider qu’aucune cause spéciale n’est apparue alors qu’en fait un
changement significatif dans la caractéristique définissant la qualité est survenu) associées à
la carte de contrôle : par exemple, si k est grand, le risque de fausse alarme ou erreur de type I
est faible mais l'erreur de type II forte.

En général, on choisit k = 3. La probabilité d'observer une fausse alarme vaut alors


P(ω < LCL ou ω > UCL) =2 P(Z > 3) = 2 ×0,00135 = 0,0027.

Une carte sur une statistique ω de distribution normale avec des limites à +/- 3ω a donc
environ 3 chances sur 1000 de provoquer une (fausse) alarme si le processus est sous-contrôle
statistique.
Le choix de k = 3 est le choix le plus courant mais peut, dans certains cas, être guidé par des
raisons économiques : par exemple si les pertes occasionnées par un processus hors-contrôle
sont très élevées par rapport à celles occasionnées par la recherche de causes suite à une
alarme, k peut être réduit à 2.5 ou même à 2.

3. Limites de surveillance
On ajoute souvent, sur une carte de contrôle, des limites de surveillance à des distances de +/-
2ω de la valeur centrale (voir Figure 3.1). Ces limites sont notées UWL et LWL pour lower
warning limit et upper warning limit. Sous les hypothèses données ci-dessus, un point a
environ 5 chances sur 100 de dépasser ces limites si le processus est sous-contrôle statistique.

4. Estimation des limites de contrôle quand µ et σ sont inconnus


En pratique, les valeurs de µ ω et σω ne sont pas connues exactement. On procède dans ce cas
en deux étapes :
1. Prélèvement d'un échantillon pour estimer les paramètres de la caractéristique étudiée µ et
σ ou de ω, µω et σω . Cette estimation ne sera considérée comme valable que si le processus est
suffisamment bien contrôlé pendant cette période.
2. Utilisation des valeurs estimées des paramètres pour établir les limites de contrôle de la
carte. Il est clair que pendant une période plus ou moins longue, celles-ci devront être
vérifiées fréquemment et, si nécessaire, remises à jour.

5. Interprétation d’une carte de contrôle : Règles utilisées pour la détection d'alarmes

Une carte de contrôle indique que le processus est hors contrôle quand un ou plusieurs points
tombent hors des limites de contrôle. Cet événement n'est pas le seul qui permette de mettre
en évidence une dérive du processus. Il est d'usage de tenter de mettre en évidence des
séquences ou runs qui ont peu de chance d'être observés si le processus est sous-contrôle. Par
exemple, si l'on observe 6 points consécutifs croissants sur une carte, on en déduira qu'un
événement non attendu s'est produit car ce type de comportement a une très faible probabalité
de se produire si les données suivent le processus donné par les hypothèses ci-dessus.

Différentes règles sont données dans la littérature pour repérer des séquences. Nous donnons
ici les « western electric rules » qui sont celles proposées dans la plupart des logiciels de
SPC. Le principe consiste à dessiner sur la carte des lignes de contrôle à +/- 1, 2 et 3σ et
vérifier si l'un ou l'autre des 8 profils suivants apparaît.
Règle 1 : 1 point en dehors des limites de contrôle à +/- 3σ ;
Règle 2 : 9 points consécutifs d'un seul côté de la ligne centrale ;
Règle 3 : 6 points consécutifs en ordre croissants ou décroissants ;
Règle 4 : 14 points consécutifs qui augmentent et diminuent alternativement ;
Règle 5 : 2 points sur 3 points consécutifs hors des limites à +/- 2σ ;
Règle 6 : 4 points sur 5 points consécutifs hors des limites à +/- 1σ et du même côté de la
ligne centrale ;
Règle 7 : 15 points consécutifs dans les limites à +/- 1σ ;
Règle 8 : 8 points consécutifs en dehors des limites à +/- 1σ.

Les règles 2 à 7 ne doivent pas être prises, comme la règle 1, comme des tests d'hypothèses
dont on analyse exactement la puissance. Elles sont plutôt utilisées comme des outils visuels
ou descriptifs pour détecter des phénomènes non attendus dans un procédé.

Les types de phénomènes que l'on peut détecter sont par exemple :

• Des cycles causés par un phénomène répétitif dans les entrées du processus (fluctuation de
voltage, changement d'opérateur, rythme hebdomadaire...)
• Le mélange de plusieurs produits de distributions différentes. Ceci sera en général
caractérisé par des points proches des limites de contrôle supérieure et inférieure.
• Un contrôle excessif (règle 4)
• Une dérive lente de la caractéristique qui est en général due à une dégradation lente d'une
partie du procédé ou des matières premières utilisées (règle 3)
• Modification brusque de la valeur moyenne de la caractéristique due à une événement
ponctuel : nouvelle méthode, matière première, opérateur ...
• Mauvais choix des limites de contrôle quand les points sont trop proches de la ligne centrale
(règle 7)

L'utilisation simultanée de ces règles permet d'augmenter la sensibilité de la carte pour


détecter des petites dérives du processus mais une certaine prudence doit être malgré tout
adoptée car le danger de fausses alarmes risque d'augmenter. En effet supposons que m règles
soient utilisées simultanément et que le risque de 1ère espèce associé à chacune soit α i. Le
risque global de provoquer une fausse alarme peut être approximé comme suit :

qui vaut par exemple 0,04 si m = 8 et α i =0,005 . Cette formule n'est évidemment pas tout à
fait valable car elle suppose que les m règles utilisées sont indépendantes ce qui n'est pas le
cas.

IV- Caractéristiques d’une carte de contrôle

Dans la construction d'un plan de contrôle, il faut spécifier la taille des échantillons prélevés
et la fréquence d'échantillonnage. Pour une carte de contrôle pour valeurs individuelles, la
taille des échantillons est égale à 1. Le choix de ces deux paramètres permet d'influencer
l'erreur de type II du test (i.e. décider qu’aucune cause spéciale n’est apparue alors qu’en
fait un changement significatif dans la caractéristique définissant la qualité est survenu) ou
l’erreur de type I du test (i.e. décider qu’une cause spéciale est apparue alors qu’en fait la
caractéristique définissant la qualité de la production est resté stable). Minimiser ces erreurs
revient à maximiser la probabilité de détecter rapidement une dérive du processus. Il est clair
que cet objectif peut être atteint en prélevant souvent de grands échantillons. Ceci n'est
évidemment pas toujours réalisable étant donné les coûts plus ou moins élevés occasionnés
par le prélèvement et l'analyse d'échantillons. Des outils peuvent être utilisés pour être guidé
dans ce domaine.

1. La courbe d’efficacité
Soit  la probabilité associée à l’erreur de type I dès le calcul des limites de contrôle :

 = P(T  LCL) + P(T  UCL).

La courbe d'efficacité est une courbe qui donne, en fonction d'un « déréglage » plus ou moins
grand du processus, la probabilité d'observer un point dans les limites de contrôle c'est-à-dire
d'accepter que la fabrication est sous-contrôle statistique malgré qu'elle soit éventuellement
hors-contrôle.
Cette courbe permet de visualiser les risques de 1ère et 2ème espèce de la carte et de
comparer différents choix de taille d'échantillon ou de valeur des limites de contrôle.

La fonction OC() définie par

OC() = P(LCL < T < UCL |)

est appelée courbe d’efficacité (Operating Curve). Elle dépend d’une variable   0 (variable
de dérive), reflétant l’amplitude du changement.

La définition de la variable dépend du type de carte de contrôle. Soit 0 la valeur de 


correspondant à une absence de dérive. On a donc par définition OC(0) = 1 - . Par
hypothèse, on supposera aussi que plus la valeur de la variable  est grande, plus l’amplitude
du changement est importante. On va donc avoir OC(+ ) = 0.

Fig. 3.2 Cgurbes d’efficacité (OC curve)

2. La période opérationnelle moyenne ou Temps moyen de détection


L'ARL() (average run length) est le temps moyen nécessaire pour obtenir un point hors des
limites de contrôle quand une dérive de la moyenne de la caractéristique de l'ordre de cσ est
présente. En d'autres mots, l'ARL() représente le nombre moyen de points à dessiner sur une
carte de contrôle avant de détecter une dérive de cσ.
L'ARL est le moyen utilisé en général pour comparer différentes cartes de contrôle et en
mesurer la sensibilité.

La fonction ARL() est définie par :

Ce résultat (surprenant ?) indique que pour un procédé stable, une (fausse) cause spéciale sera
tout de même détectée en moyenne une fois tous les 370 échantidlons. Plus la dérive est
importante, plus faible est le nombre d’échantillons prélevés avant détection d’une cause
spéciale. On doit donc avoir ARL(+ ) = 1. La période opérationnelle moyenne est une
fonction très importante car elle permet d’une part de comparer les cartes de contrôle entre
elles et, d’autre part, d’avoir une idée du temps moyen pendant lequel le procédé a fabriqué
des individus non conformes.

Vous aimerez peut-être aussi