Académique Documents
Professionnel Documents
Culture Documents
Introduction
fabrication ou une méthode d'analyse. Elle représente une méthode préventive qui vise à
maintenir la qualité des procédés et elle est utilisée dans la promotion et le maintient de la
santé d'une entreprise commerciale ou industrielle.
Cartes de Contrôle
Définition
Elles sont des méthodes statistiques de contrôles qui font appel à la théorie
d'échantillonnage et qui permettent d'enregistrer chronologiquement des données
caractéristiques d'un procédé sous forme de graphique. Ce dernier est constitué d’une suite
d’images de la production.
Objectif
On vise en traçant une carte de contrôle à déterminer si les données du graphique sont
STABLES ou NON STABLES en fonction du temps.
On peut diviser l’échantillonnage en deux catégories selon l’objectif visé par le tracé de la
carte de contrôle:
- Pour suivre des changements dans le procédé en fonction du temps, l’opérateur contrôle
les n dernières pièces produites à un intervalle de temps régulier.
- Pour prendre une décision sur l’acceptation ou le rejet de la production, l’inspecteur
prélève aléatoirement n pièces au sein de la production depuis son dernier prélèvement.
But : On cherche à distinguer les variations dues à des événements spécifiques (Mauvais
fonctionnement des machines, Erreur d’un opérateur, Non conformité de la matière,
Modification exceptionnelle de l’environnement, …) de celles découlant du caractère
aléatoire habituel du processus.
Lorsque seules les causes communes agissent sur le procédé, on dit que le «procédé est sous
contrôle statistique» et la carte de contrôle va détecter graphiquement le cas où le procédé
n'est plus sous contrôle.
Exemple d’une carte de contrôle
Limite supérieure de contrôle
Donnée sur le
processus contrôlé
N. B. La MSP introduit une nouvelle dimension c’est le suivi du procédé en temps réel.
* Pour pouvoir mettre en place le suivi par Carte de Contrôle Qualité, il faut au préalable:
Etape 3 TEMPS
Amélioration de la capabilité
Pas de pièces hors tolérance.
Le procédé est sous contrôle.
Le procédé est capable.
On "maîtrise" le procédé.
Sous contrôle
Procédé
(variation imputable aux
prévisible
causes aléatoires réduites)
Etape 2 Tolérance : Ti
Inférieure
Suppressions des principales
causes assignables. Ts : Tolérance
Le procédé est prévisible. Supérieure
La répartition suit une courbe de
gauss.
Présence de pièces hors tolérance.
Le procédé n'est pas capable. Sous contrôle (causes
assignables éliminées)
Etape 1
Le procédé n'est pas sous contrôle.
Procédé
Présence de causes assignables. non
La répartition ne suit pas une prévisible
courbe de gauss.
Présence de pièces hors tolérance.
Hors contrôle
Le procédé n'est pas capable.
(causes assignables présentes)
* Afin d’être exploitable, la carte de contrôle doit contenir: la situation du procédé, la
dispersion du procédé, la chronologie des prélèvements, les causes spéciales, les actions
correctives, la fréquence d’échantillonnage et la taille des échantillons.
(Bon ; Mauvais)
(Nombre, Proportions) Loi Binomiale ou de Poisson
- Moyenne – Étendue
- Médiane – Étendue
Les limites de contrôles sont calculées pour les effectifs cumulés produits.
o Dans le cas sigma connu
3
Limite supérieure de contrôle : LSC Cible Cible A
n
3
Limite inférieure de contrôle : LIC Cible - Cible A
n
Avec : est l’écart-type de la population totale;
n est l’effectif produit et pris en compte sur la carte depuis le réglage précédent et
A est une constante qui dépend de la taille des échantillons n,
N. B. : Ces limites sont calculées de telle sorte que si le processus est stabilisé, on aura :
P(LIC Xbar LSC) = 0,997
Conclusion : Le risque de fausse alarme est de 0,27% pour le dépassement des limites de
contrôle et de 4,6% pour celui des limites de surveillance,
n B4 B5 B6 D3 D4 D1 D2
2 3,267 0 2,606 0 3,267 0 3,686
3 2,568 0 2,276 0 2,574 0 4,358
4 2,266 0 2,088 0 2,282 0 4,698
5 2,089 0 1,964 0 2,114 0 4,918
6 1,970 0,029 1,874 0 2,004 0 5,078
7 1,882 0,113 1,804 0,076 1,924 0,205 5,203
8 1,815 0,178 1,752 0,136 1,864 0,387 5,307
9 1,761 0,232 1,707 0,184 1,816 0,546 5,394
10 1,716 0,277 1,669 0,223 1,777 0,687 5,469
11 1,679 0,314 1,637 0,256 1,744 0,812 5,534
12 1,646 0,346 1,609 0,283 1,717 0,924 5,592
13 1,618 0,374 1,585 0,307 1,693 1,026 5,646
14 1,594 0,399 1,563 0,328 1,672 1,121 5,693
15 1,572 0,420 1,544 0,347 1,653 1,207 5,937
20 1,490 0,503 1,471 0,415 1,585 1,548 5,922
Étape 3 : Tracer la carte de contrôle
LC X 0,022; R 2,44
LSC X A2 R 0,022 2,44 * 0,577 1,43
LIC X A2 R 0,022 2,44 * 0,577 1,39
LICR 0 et LSCR 2,114 * 2,44 5,17
Causes de Variabilité
Déviation = écart entre les observations et la moyenne des observations.
• Causes spéciales (assignables, attribuables)
Elles sont moins nombreuses, identifiables et sur lesquelles on peut agir. Leurs effets ont un
caractère systématique et généralement assez marqué (changements d’équipe,
d’outillage, de matière, déréglages machines, interventions…). Elles sont extérieures au
processus, éliminables et pour lesquelles la correction sera un gain pour le processus.
Procédé dans un état instable
Comportement imprévisible
mps
Te
Modification de la dispersion
Elles regroupent tous les autres phénomènes tel que l’usure des organes de la machine, les
conditions climatiques externes, variations d’intensité électrique. Elles sont de nombreuses
petites sources de variation toujours présentes, dont on pourra réduire le nombre ou
l’importance globale, mais dont le procédé ne peut être entièrement débarrassé. Ces causes
« normales » sont à l’origine de variations intrinsèques du processus liées à la variabilité
interne du processus.
Processus dans un état stable
Comportement prévisible
m ps
Te
Grandeur mesurable
Étapes suivit par l’opérateur
Prélever un échantillon : Fréquence de prélèvement et taille
de l’échantillon indiquée sur la carte de contrôle
Oui
Zone C
34,13% des points Zone B
Zone A
Zone A
Zone B
Zone C
Indicateurs de présence de causes anormales (processus hors contrôle)
Le procédé est sous contrôle statistique si:
- Les 2/3 des points sont situés dans le tiers central (Zone A),
- Le 1/3 des points sont situés dans les 2/3 extérieurs (Zones B et C),
- Nouveau personnel ?
Fréquence de prélèvement:
Généralement plus on augmente la taille n des échantillons, plus la fréquence
d’échantillonnage est élevée et plus il est facile de détecter un déréglage, Il faut faire un
bilan économique des erreurs de décisions,
Exemples : A- Supposons que N = 10000 pièces par semaine, le nombre de réglages par
semaine est 14 et le nombre moyen d’échantillon prélevé entre deux réglages est de 4,
Quelle est la fréquence d’échantillonnage sachant que la taille des échantillons est n = 5?
On a : p2 x n x R =1120 < N donc il s’agit d’une production à forte cadence,
1 NR 1 10000 14
F 24éch / jour 1éch / heure
t n 7 5
B- Supposons que N = 190 pièces par mois, le nombre de réglages par mois est 6 et le
nombre moyen d’échantillon prélevé entre deux réglages est de 4, Quelle est la fréquence
d’échantillonnage sachant que la taille des échantillons est n = 3?
F = 4 x 6/20 = 1,2
LC cible
s
LSC cible 3 cible A3 S On pose: A3
3
C4 n C4 n
s
LIC cible 3 cibel A3 S
C4 n
La carte de l’écart type a pour limite:
LC s
LSC B4 S
LIC B3S
Carte X-mR (X-REM) :
Carte de contrôle pour valeurs individuelles (X); on utilise l’étendus mobile (mR ou REM)
comme mesure de dispersion
LSC x X E2 mR LSC mR D4 mR
LIC x X E2 mR LC mR mR
LC x X LIC mR D3 mR
Diagnostique
La carte S ou R est d’abord examinée pour identifier les points à l’extérieur des limites de
contrôles ou les points qui présentent un comportement particulier.
On corrigera la situation s’il y a lieu et on élimine les ponts hors contrôle sur la carte S/R
pour évaluer de nouvelles limites pour le cartes Xbar et S/R.
On pourra la suite, effectuer une analyse de la carte Xbar/ médiane selon les tests spécifiés
auparavant.
Lorsqu’on pilote un procédé avec une méthode statistique, il existe deux risques
décisionnels que l’on essaye de minimiser:
Le risque de conclure à un déréglage du procédé alors qu’il n’y en a pas, est appelé risque
du 1er ordre ou risque ou risque fournisseur ou fausse alarme,
Le risque de ne pas détecter un déréglage du procédé alors qu’il existe, est appelé risque du
2ème ordre ou risque ourisque client,
On peut mesurer l'efficacité d'une carte de contrôle en utilisant la probabilité de ne pas
détecter un déréglage lors du prélèvement d'un échantillon de taille n,
L'efficacité de la carte est d'autant plus grande que cette probabilité est faible,
L’efficacité d’une carte de contrôle est traduite soit par la courbe d'efficacité du test
associé, soit par la POM, Période Opérationnelle Moyenne (ARL Average Run Length)
POM = nombre moyen de prélèvement pour détecter un déréglage
Elle tient compte du temps moyen que prend une carte de contrôle pour détecter que le
procédé est hors des limites d’intervention.
H1 1
Le déréglage est défini par le paramètre qui correspond à une augmentation de l’écart –
type et il est donné par: :
Pour = 0, POM0 = 1/ le procédé est arrêté à tort, en moyenne tous les 1/
prélèvements successifs entre deux fausses alarmes: le nombre moyen de contrôle qu’il faut
avoir avant d’obtenir une fausse alarme),
Pour = 0,0027 le procédé est arrêté à tort, en moyenne tous les 370 échantillons
prélevés entre deux fausses alarmes et il faut placer en moyenne 370 points successifs sur la
carte de la moyenne avant qu'apparaisse un point hors des limites, créant de ce fait une
fausse alarme,
Pour , POM1 = 1/(1 - ) nombre moyen de prélèvements successifs pour
s'apercevoir du déréglage (avant d’obtenir une alarme pour décider qu’il y a déréglage),
Le risque de ne pas détecter le déréglage = (μ1 - μ0)/σ0, vaut:
moyenne Xbar du caractère dans les échantillons selon la loi normale N( 0 + 0, 0/n),
La probabilité de ne pas détecter le déréglage est donnée par :