Vous êtes sur la page 1sur 173

Sommaire

Sommaire

Introduction

Chapitre 1
Méthodes et outils dans l'approche Qualité Totale

Chapitre 2
Les principes de base de la MSP et leurs limites

Chapitre 3
Le cas des petites séries

Chapitre 4
La carte de contrôle "petites séries"

Conclusions générales

LLP - Edition : 26/03/2004 Sommaire 1


Sommaire

Introduction
Le cadre de notre étude ................................................................................................ I.1
Plan du mémoire .......................................................................................................... I.2

Chapitre 1
Méthodes et outils dans l'approche Qualité Totale ............... 1.1

1. Qualité et démarche Qualité..................................................................................... 1.1


1.1 les différentes approches de la qualité.......................................................... 1.2
1.2 Démarche Qualité ......................................................................................... 1.5
1.2.1. Stratégie Qualité.............................................................................. 1.5
1.2.2. Système Qualité .............................................................................. 1.5
1.2.3. Méthodes Qualité ............................................................................ 1.6
1.2.4. Outils qualité ................................................................................... 1.6
1.2.5. Les normes ISO 9000 et la démarche Qualité................................. 1.6

2. L'évolution des méthodes de la qualité .................................................................... 1.8


2.1. Première évolution, recherche de la qualité dès la conception.................... 1.8
2.1.1. Le contrôle de réception.................................................................. 1.8
2.1.2. L'auto-contrôle ................................................................................ 1.10
2.1.3. La qualité dès la conception............................................................ 1.11
2.1.4. La qualité dès le marketing ............................................................. 1.11
2.2. Deuxième évolution, plus de modélisation.................................................. 1.12

3. Classification des méthodes et des outils................................................................. 1.13


3.1. Le QFD - Quality Function Deployment .................................................... 1.14
3.1.1 Présentation de la méthode............................................................... 1.14
3.1.2 Principe de base de la démarche QFD ............................................. 1.15
3.2. Les plans d'expériences ............................................................................... 1.17
3.3. L'AMDEC Analyse des Modes de défaillances de leurs effets et
de leurs Criticité.................................................................................................. 1.18
3.4. L’outil statistique......................................................................................... 1.20
3.4.1. Son importance dans la démarche Qualité ...................................... 1.20
3.4.2. La MSP ou SPC .............................................................................. 1.21
3.5. La cohérence des différents outils ............................................................... 1.21

4. Conclusion du chapitre............................................................................................. 1.22

LLP - Edition : 26/03/2004 Sommaire 2


Sommaire

Chapitre 2

Les principes de base de la MSP et leurs limites .................. 2.1

1. Le pilotage par cartes de contrôle ............................................................................ 2.2


1.1. Introduction ................................................................................................. 2.2
1.2. La carte de Shewhart [She 31]..................................................................... 2.3
1.3. Les autres cartes basées sur la moyenne...................................................... 2.7
1.4. L'amélioration de l'efficacité par les cartes CUSUM .................................. 2.8
1.4.1 Cartes CUSUM de LUCAS ............................................................. 2.9
Cartes CUSUM ................................................................................ 2.9
Cartes FIR CUSUM......................................................................... 2.11
Combinaison Shewhart/CUSUM..................................................... 2.12
1.4.2 Les cartes CUSUM avec masque en V ............................................ 2.13

2. le concept de capabilité ............................................................................................ 2.15


2.1. Cas des critères symétriques........................................................................ 2.15
2.1.1. Rappels élémentaires....................................................................... 2.15
2.1.2. Les indicateurs de capabilité court terme et long terme.................. 2.15
Les indicateurs Cp et Cpk................................................................ 2.16
Les indicateurs Pp et Ppk................................................................. 2.17
Les indicateurs Cm et Cmk.............................................................. 2.17
Synthèse des différents indicateurs.................................................. 2.18
2.1.3. La difficulté d'estimer la capabilité machine .................................. 2.19
Cas des productions rapides............................................................. 2.19
Cas des productions lentes............................................................... 2.19
2.1.4. Les différentes approches pour le calcul de la dispersion............... 2.20
2.1.5. Calcul des capabilité à partir des cartes de contrôle ....................... 2.21
Estimation de l’écart-type instantané .............................................. 2.21
Estimation de l’écart-type global..................................................... 2.22
2.1.6 Les problèmes du calcul des capabilités à partir des cartes ............. 2.22
Le calcul à partir des valeurs individuelles ..................................... 2.22
Calcul lorsqu'on ne connaît pas les valeurs
individuelles..................................................................................... 2.23
2.2. Le concept de capabilité - cas des critères de forme et de position............. 2.25
2.2.1. le problème des critères de forme ................................................... 2.25
2.2.2. Détermination de la fonction de répartition .................................... 2.27
2.2.3. Détermination de la loi normale sous-jacente................................. 2.28
2.2.4. Détermination de la dispersion........................................................ 2.29
2.4. Calcul de la capabilité machine ................................................................... 2.30

3. Critique des indicateurs de capabilité ...................................................................... 2.31


3.1. Les limites de l'indicateur Cpk .................................................................... 2.31

LLP - Edition : 26/03/2004 Sommaire 3


Sommaire

3.2. Notion de fonction perte .............................................................................. 2.32


3.3. Comparaison de deux situations Cpk =1,33 dans un assemblage ............... 2.34

4. Notre proposition d’amélioration............................................................................. 2.37


4.1. Définition du Rendement de Réglage Rr..................................................... 2.37
4.1.1 Présentation du rendement Rr .......................................................... 2.37
4.1.2. Condition de capabilité sur le rendement Rr................................... 2.37
Situation de référence ...................................................................... 2.38
Situation quelconque ....................................................................... 2.38
4.1.3 Cas des tolérances uni limites .......................................................... 2.41
4.2 Intérêt de notre coefficient Rr dans le cas d'une cotation statistique............ 2.41
4.2.1 Rappel sur la cotation statistique .................................................... 2.41
4.2.2. Les inconvénients d'un non-respect du coefficient Rr .................... 2.43
4.2.3. Application à l'exemple du respect de Rr........................................ 2.45
4.2.4. Conclusion de cette étude................................................................ 2.45
4.3. L'indicateur de maîtrise des procédés Rm ................................................... 2.46
4.3.1. Définition de l'indicateur Rm .......................................................... 2.46
4.3.2. Interprétation de l'indicateur Rm..................................................... 2.47
4.4. Interprétation des chutes de capabilité à partir des indicateurs Rr
et Rm................................................................................................................... 2.47
4.4.1. La chute des capabilités .................................................................. 2.47
4.4.2. Le tableau des capabilités et son interprétation .............................. 2.48

5. Conclusion de ce chapitre ........................................................................................ 2.50


Les limites de l'utilisation de la MSP ................................................................. 2.50

LLP - Edition : 26/03/2004 Sommaire 4


Sommaire

Chapitre 3

Le cas des petites séries ........................................................ 3.1

1. Introduction.............................................................................................................. 3.1

2. Typologie des petites séries ..................................................................................... 3.4


2.1. Le besoin d'une classification ...................................................................... 3.4
2.2. Les critères de classification........................................................................ 3.4
2.3. Le tableau d'évaluation ................................................................................ 3.5

3. Les limites de l’application des cartes dans le cas des petites séries ....................... 3.6
3.1. Les problèmes posés par les petites séries................................................... 3.6
3.1.1. Nécessité d'un échantillon ............................................................... 3.6
3.1.2. Une carte par caractéristique........................................................... 3.6
3.1.3. La connaissance de la population.................................................... 3.7
3.2. Les réponses à ces obstacles........................................................................ 3.7

4. La méthode traditionnelle de pilotage...................................................................... 3.8


4.1. Exemples dans le cas d'une série de 10 pièces ............................................ 3.8
4.2. Critique de la méthode................................................................................. 3.10
4.3. Condition de réussite de la MSP dans le cas des petites séries ................... 3.10

5. Utiliser le principe de l'échantillonnage................................................................... 3.12

6. Retrouver un effet de série ....................................................................................... 3.15

7. Modifier les cartes de contrôle................................................................................. 3.17


7.1. Cas 1 : les étendues sont constantes pour l'ensemble des lots..................... 3.18
7.2. Cas 2 : les étendues ne sont pas constantes d'un lot à l'autre....................... 3.18
7.3. Critique de la méthode................................................................................. 3.20

8. Etudier le procédé .................................................................................................... 3.22


8.1. Collecte des données ................................................................................... 3.22
8.2. Recherche des causes spéciales de variation ............................................... 3.23
8.3. Etude des causes communes de dispersion.................................................. 3.26
8.4. Etude de la capabilité du procédé ................................................................ 3.26
8.5. Critique de la méthode................................................................................. 3.27

9. Surveiller les caractéristiques du procédé................................................................ 3.28


9.1. La recherche d'un modèle ............................................................................ 3.28
9.2. Identification d'une partie de A par les plans d'expériences........................ 3.29
9.3. Identification par régression multiple.......................................................... 3.30
9.3. Caractéristiques de la matrice [M]............................................................... 3.31

LLP - Edition : 26/03/2004 Sommaire 5


Sommaire

9.3.1. Matrice idéale.................................................................................. 3.31


9.3.2. Surveiller le procédé ....................................................................... 3.31
9.3.3. Surveiller la pièce........................................................................... 3.32

10. Evaluation des méthodes en fonction de la typologie des petites séries................ 3.33
10.1 Adaptation des méthodes aux différents cas............................................... 3.33
10.1.1. C1 - Aide au réglage dès les premières pièces.............................. 3.34
10.1.2. C2 - l'aide au réglage sur échantillon ............................................ 3.34
10.1.3. C3 - Le suivi et l'amélioration des capabilités .............................. 3.35
10.1.4. C4 - Le coût de mise en oeuvre..................................................... 3.35
10.1.5. C5 - La facilité de mise en oeuvre - Adaptation globale
Méthode/Type de production .................................................................... 3.36
10.2 Conclusion sur cette classification ............................................................. 3.36

11. Conclusion sur ce chapitre ..................................................................................... 3.37

LLP - Edition : 26/03/2004 Sommaire 6


Sommaire

Chapitre 4

La carte de contrôle "petites séries" ...................................... 4.1

1. Le besoin d'une nouvelle méthode ........................................................................... 4.1

2. Principe de base de la carte de contrôle "petites séries" .......................................... 4.2


2.1. Présentation de la carte ................................................................................ 4.2
2.2. Le remplissage de la carte des petites séries ............................................... 4.3

3. Le calcul des limites de contrôle.............................................................................. 4.4


3.1 Identification de l'écart-type de la population .............................................. 4.4
3.2. Calcul de la carte des moyennes.................................................................. 4.7
3.3. Calcul de la carte des étendues .................................................................... 4.8

4. Détermination du réglage optimal............................................................................ 4.10


4.1. Cas où le réglage doit être réalisé sur la première pièce ............................. 4.10
4.2. Cas du réglage sur la nième pièce ............................................................... 4.14
4.3 Règle pratique de réglage ............................................................................. 4.14
4.3.1. détermination de la règle................................................................. 4.14
4.3.2. Détermination d'une grille de réglage ............................................. 4.15

5. Efficacité de la carte de contrôle "petites séries"..................................................... 4.16

6. Capabilité à partir des cartes "petites séries" ........................................................... 4.20


6.1. Capabilité court terme ................................................................................. 4.20
6.2. Capabilité long terme................................................................................... 4.21

7. Autres utilisations de la carte de contrôle "petites séries" ....................................... 4.22

8. Carte de contrôle "petites séries" avec procédure CUSUM..................................... 4.23


8.1. L'intérêt d'introduire une procédure CUSUM ............................................. 4.23
8.2. Le principe de la méthode ........................................................................... 4.23
8.3. Efficacité de la procédure CUSUM............................................................. 4.25

9. La carte "petites séries" - Application sur différents cas de figure.......................... 4.28


9.1 Détermination de la carte.............................................................................. 4.28
9.2. Test n° 1 - simulateur centré sur 1,3 soit 1 s ............................................... 4.29
9.3. Test n° 2 - simulateur centré sur 2 soit 1,5 s ............................................... 4.30
9.4. Test n° 3 - simulateur centré sur 2,6 soit 2 s ............................................... 4.31
9.5. Test n° 4 - simulateur centré sur 4 soit 3 s .................................................. 4.32
9.6. Remarque sur la carte des étendues............................................................. 4.33

LLP - Edition : 26/03/2004 Sommaire 7


Sommaire

10. Application à un cas industriel............................................................................... 4.34


10.1. Les conditions de départ ............................................................................ 4.34
10.2. Mise en oeuvre des cartes.......................................................................... 4.35
10.3. Exemple de pilotage .................................................................................. 4.35
10.4. Les résultats ............................................................................................... 4.36

11. Conclusion sur ce chapitre ..................................................................................... 4.37

Conclusion générale .................................................................................. C.1

LLP - Edition : 26/03/2004 Sommaire 8


Remerciements

Le travail présenté dans ce mémoire a été réalisé au Laboratoire de Logiciels pour la


Productique d'Annecy (LLP) dirigé par Alain HAURAT. Je tiens à lui adresser mes
sincères remerciements pour les précieux conseils qu'il m'a donné au cours de ce travail.
Je remercie également Alain COURTOIS Professeur à l'Université de Savoie pour sa
collaboration et la qualité des relations qu'il a créées au cours des six années de travail
en commun.

Je remercie vivement Monsieur Alain BARREAU, Professeur à l'Université de Nantes,


d'avoir accepté de rapporter sur ce travail et de participer au jury. Sa notoriété dans le
domaine de la Qualité m'honore de sa présence.

Je suis très reconnaissant à M. Michel VERON Professeur à l'Université de Nancy


d'avoir accepté d'être rapporteur de ce travail. Ses compétences largement reconnues
dans le domaine de la productique m'apportent une caution scientifique.

Je remercie également à M. Claude FOULARD, Professeur à l'ENSIEG, de me faire


l'honneur de participer au Jury.

C'est avec plaisir que je profite de cette occasion pour remercier Alain JUTARD
Professeur à l'INSA de Lyon de m'avoir initié à la recherche dans son laboratoire au
cours du DEA. Sa participation au jury m'apporte une grande satisfaction.

Je remercie chaleureusement M. Alain PALSKY Responsable MSP de Rhone Poulenc


d'avoir accepté d'être membre de ce Jury. Ses compétences dans le domaine de la MSP
forcent mon admiration. Je le remercie pour les précieux renseignements qu'il m'a
apportés au cours de ce travail tant par ses publications que par nos contacts
téléphoniques. Je lui suis très reconnaissant pour la disponibilité qu'il m'a accordée.

Je remercie également les entreprises qui m'ont permis de mettre en oeuvre et de tester
les méthodes présentées dans ce mémoire. Que les entreprises et le personnel de la
CPOAC et de TRANSROL soient assurées de ma gratitude.

Que les membres du LLP, l'équipe du département Organisation et Gestion de la


Production et les nombreux stagiaires soient remerciés de leurs précieuses contributions
à ce travail. Enfin, je tiens à remercier Mme RAFFORT Responsable de la Bibliothèque
de l'IUT d'Annecy, pour le remarquable travail qu'elle a effectué lors de mes recherches
bibliographiques.
Introduction

Introduction

Le cadre de notre étude


Dans le domaine de la productique, un des objectifs de la recherche est de trouver
des méthodes formelles d'analyse et de modélisation des procédés industriels afin de
faciliter leurs pilotages. C'est dans cet axe que s'inscrivent les outils de la maîtrise
statistique des procédés. Les travaux réalisés jusqu'à ce jour ont surtout concerné les
productions importantes de grandes et moyennes séries pour les procédés discontinus et
continus. Peu de travaux ont concernés le cas des petites séries. Notre premier travail a
été de faire l'analyse des méthodes existantes, et de délimiter leur cadre d'application.
Cette étude permet de faire ressortir les efforts de recherche nécessaires pour couvrir
l'ensemble des typologies de production des petites séries.

Nous insistons dans le cadre de ce travail, sur la vision que nous portons sur
l'interprétation des indicateurs de capabilité, par rapport à l'interprétation
traditionnellement réalisée. Après avoir établi les limites de l'interprétation
traditionnelle, notamment dans le cas des cotations statistiques, nous proposerons deux
indicateurs de rendement Rr (Rendement de réglage), et Rm (Rendement de maîtrise).
Ces rendements permettent de faciliter l'interprétation des indicateurs de capabilité, et
ainsi, de prendre les mesures qui s'imposent pour améliorer la qualité.

Cependant, l'objectif principal des travaux présentés dans cette thèse est d'élargir
le champ d'application des méthodes de la maîtrise statistique des procédés aux cas des
toutes petites séries (moins de 10 produits) et aux cas où le nombre de mesure est limité
(cas des démarrages de séries par exemple).

Pour permettre cet élargissement, nous présentons une nouvelle carte de contrôle,
la carte de contrôle "petites séries". Parfaitement adaptée à ce type de production, cette
carte permet de formaliser les décisions de réglage, les méthodes de pilotage et le suivi
des capabilités dans le cas des toutes petites séries.

LLP - Edition : 26/03/2004 Page I.1


Introduction

Plan du mémoire

Le chapitre 1 permet de situer les outils de la Maîtrise Statistique des Procédés


dans un cadre plus global de la qualité totale. Nous étudierons dans ce chapitre les
différentes approches de la qualité, et la démarche qui nous semble logique pour
aborder la qualité dans une entreprise. Après avoir fait un tour d'horizon sur les
principaux outils et méthodes de la qualité, nous situerons les outils de la maîtrise
statistique des procédés et les limites dans leurs applications.

Le chapitre 2 fait le point sur les principes de base de la MSP (Maîtrise


Statistique des Procédés) et principalement sur les notions de capabilité et de cartes de
contrôle qui nous seront utiles dans la suite de ce travail. Nous profiterons de ce
chapitre pour présenter une technique de calcul de la capabilité long terme directement
à partir des valeurs des moyennes et des étendues. Nous étudierons les risques associés
à l'interprétation rapide des indicateurs de capabilité, et nous proposerons une méthode
d'interprétation qui limite ces risques.

Le chapitre 3 fait le point sur les limites de la démarche traditionnelle de pilotage


des procédés dans le cas des petites séries. Il décrit les différentes méthodes pour
appliquer la MSP avec l'étude des avantages et des inconvénients. La typologie des
productions en petites séries permet d'établir une classification des méthodes en
fonction de leur domaine d'application, et de mettre en évidence les zones d'ombre qui
demeurent actuellement.

Le chapitre 4 est consacré au développement d'une nouvelle carte de contrôle, la


carte de contrôle "petites séries". Nous présenterons le principe de base de cette carte.
La présentation des calculs des limites de contrôle permet de préciser la méthode que
nous préconisons pour identifier la dispersion intrinsèque des procédés dans ce cas.
Nous présenterons la connexion entre la carte de contrôle "petites séries" et la
détermination du réglage optimal des procédés industriels pour une convergence très
rapide vers la valeur nominale. L'étude de l'efficacité de cette carte de contrôle, nous
conduira à introduire un calcul des sommes cumulées pour améliorer son efficacité.
Enfin, après une présentation de différentes simulations de cette carte, nous
présenterons un cas d'application industrielle de la méthode.

La conclusion générale fournit un bilan des travaux et précise les objectifs futurs.

LLP - Edition : 26/03/2004 Page I.2


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

Chapitre 1

Méthodes et outils dans


l'approche Qualité Totale

1. Qualité et démarche Qualité

Au cours de ces dernières années, les entreprises industrielles ont été confrontées
à une concurrence de plus en plus féroce. L'internationalisation de la compétition, la
diminution de la demande due à la crise et la course au développement, ont poussé les
entreprises à rechercher des atouts leur permettant de gagner la partie. La recherche de
la qualité est alors devenue un point clé de la compétitivité des entreprises. Cette
recherche ne date pas d'aujourd'hui. En effet, la qualité a toujours été un objectif
important depuis que l'homme fabrique des objets. Cependant, le nouveau contexte de
concurrence mondiale ranime cette quête de la qualité en demandant plus de formalisme
dans son approche.

Cette recherche a été un des axes fondamentaux de la progression des entreprises


ces dix dernières années. Les progrès réalisés couvrent l'ensemble des domaines, depuis
l'organisation de l'entreprise jusqu'au pilotage des procédés, en passant par de nouvelles
relations entre les clients et les fournisseurs. Chaque secteur de l'entreprise est concerné
et il est devenu impossible pour une entreprise d'assurer la qualité de ses produits ou de

LLP - Edition : 11/06/93 Page 1.1


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

ses services sans une organisation efficace basée sur un système qualité structuré.
Cependant, la condition de réussite passe surtout par la dynamique créée sous
l'impulsion du chef d'entreprise, et par l'utilisation adaptée de méthodes et d'outils ayant
fait leurs preuves.

1.1 les différentes approches de la qualité


Le terme "Qualité" regroupe de nombreux aspects et de nombreuses approches
selon le point de vue où l'on se place. Pour mieux cerner ces différentes approches, il est
intéressant d'analyser les différentes définitions qui ont été données pour définir la
qualité.

Les normes ISO [Iso 92] définissent la qualité de la manière suivante :

"Aptitude d'une entité (service ou produit) à satisfaire les besoins exprimés


ou potentiels des utilisateurs".

La qualité ainsi définie est, selon C. Braesch [Bra 89], "principalement liée à la
satisfaction des besoins d'un utilisateur, elle se constate au moment de l'usage du
produit ou du service."

Comparons la définition ISO à celle de la norme Japonaise [Nja 81]

"Un ensemble de moyen pour produire de manière économique des produits


et des services qui satisfassent les exigences des clients".

L'analyse de ces définitions nous conduit à noter trois différences entre les deux
définitions. Ces trois différences nous semblent traduire un écart d'état d'esprit que nous
avons pu noter lors de notre visite d'étude au Japon entre l'approche occidentale et
l'approche orientale.

1. On parle de moyen de production et non de produits.


2. On trouve le mot économique qui n'apparaît pas dans la définition ISO.
3. On parle d'exigences et non de besoins.

Ces trois éléments nous semblent essentiels dans une démarche de qualité totale.
Le premier point nous montre que dans la démarche industrielle japonaise, ce n'est pas
le produit qui compte, mais l'ensemble des moyens mis en oeuvre pour aboutir à un
produit de qualité. Les moyens sont très divers et couvrent l'ensemble de la vie du

[Iso 92] - AFNOR - ISO - DIS 8402-1992


[Bra 89] - Approche de la modélisation du système de production d'une entreprise manufacturière - C.
Braesch - Thèse 1989 - Université de Franche Comte
[Nja 81] - Norme Japonaise 78101 - 1981

LLP - Edition : 11/06/93 Page 1.2


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

produit depuis les moyens marketing en passant par les moyens d'étude pour aller aux
moyens de production et aux moyens de mesure. Pour un produit bien conçu, adapté à
l'attente des clients, lorsque le moyen de production est capable, le produit est de
qualité. La démarche prônée implicitement par la définition japonaise consiste donc à se
focaliser sur les moyens plutôt que sur les produits.

Ce n'est pas un hasard si la plupart des méthodes et des outils de la qualité ont été
développés par les industriels Japonais. Ces outils et ces méthodes recouvrent en effet
toute la vie du produit pour réellement fournir les moyens de produire de la qualité.
Quelques approches similaires ont cependant été apportées récemment en Europe. Ainsi
C. Braesch [Bra 89] distingue la notion de qualité précisée dans la définition ISO de la
notion de "Démarche Qualité" qui représente l'ensemble des moyens mis en oeuvre
pour aboutir à la réalisation d'un produit de qualité. Nous situerons notre travail dans
cette démarche qualité.

Le second élément de différenciation entre l'approche japonaise et l'approche


occidentale est l'aspect économique. On associe Qualité et Economie. Faire de la
qualité, oui, mais pas à n'importe quel coût et pas n'importe comment. Il nous semble
que le développement important de l'auto-contrôle et des techniques statistiques au
Japon n'est pas totalement étranger à cette différence dans l'approche de la qualité. Il est
en effet impératif de limiter les contrôles tout en améliorant l'efficacité de ceux-ci pour
diminuer le coût des produits. Cette recherche d'économie apparaît également dans le
développement d'outils pour la qualité particulièrement adaptés à la prévention plus qu'à
la correction. Le contrôle de réception a été principalement développé en occident alors
que le contrôle de prévention (les "poka-yoke/Anti-Erreur") a surtout été utilisé au
Japon.

Enfin, faut-il différencier le "besoin" de "l'exigence"? Nous avons souvent


entendu des industriels remettre en question un intervalle de tolérance donné par un
client en invoquant la fonction de la pièce. Nous nous mettons à la place de notre client
pour définir son besoin. Cette approche n'est pas la même que de considérer l'exigence
de son client comme sacrée et de tout mettre en oeuvre pour la respecter. La notion de
Clients/fournisseurs interne et de partenariat entre les entreprises ne peut exister que
dans le respect des exigences du client et donc le respect de celui-ci.

Ainsi, la définition ISO de la qualité nous semble traduire une approche


relativement incomplète de la qualité qu'il est nécessaire de transcender si nous voulons
rester compétitifs.

D'autres définitions plus complètes de la qualité ont été données. On retiendra


particulièrement la définition inscrite dans le dictionnaire de l'APICS [Api 92]
(American Production and Inventory Control Society)

[Api 92] - APICS Dictionary - 7 th Edition - 1992

LLP - Edition : 11/06/93 Page 1.3


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

"Conformité au besoin ou Aptitude à l'emploi. La qualité peut être définie à


travers cinq approches principales :

(1) Une qualité transcendée est un idéal, une condition de l'excellence


(2) L'approche "produit" de la qualité est fondée sur les attributs du produit
(3) L'approche "utilisateur" de la qualité est l'aptitude à l'emploi
(4) L'approche "production" de la qualité est la conformité au besoin
(5) L'approche "valeur" de la qualité est le degré d'excellence pour un prix
acceptable

Aussi, la qualité à deux composantes majeures :

(1) qualité de conformité - Cette qualité est définie par l'absence de défauts
(2) qualité de conception - Cette qualité est mesurée par le degré de satisfaction du
client par les caractéristiques et les aspects du produit."

Cette définition a le mérite de recouvrir la plupart des approches de la notion de la


Qualité en fonction des différents points de vue. La Qualité totale étant la démarche qui
permet de satisfaire l'ensemble des différents points de vue.

Un point commun parmi toutes ces approches reste l'importance donnée à la


qualité comme critère qualifiant pour un produit. Terry Hill [Hil 89], dans son approche
d'une stratégie de production pour les industriels, pense que "dans la plupart des cas la
qualité est un critère qualifiant en terme de stratégie de production, son impact sur les
parts de marché est plus fondamental que probablement aucun autre facteur". Terry Hill
distingue d'ailleurs les critères qualifiants des critères gagnants. Un critère qualifiant est
un critère que doit avoir nécessairement un produit pour être présent sur le marché. Un
critère gagnant est un critère qui permet à un produit de devancer ses concurrents. On
peut remarquer au cours de ces dernières années un glissement de la qualité qui était un
critère gagnant pour la plupart des produits et qui devient de plus en plus un critère
qualifiant. Il n'est plus pensable aujourd'hui de mettre sur le marché un produit qui ne
serait pas de qualité.

[Hil 89] - Manufacturing Strategy - Text and Cases - Terry Hill - IRWIN - 1989

LLP - Edition : 11/06/93 Page 1.4


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

1.2 Démarche Qualité


Le champ de la qualité est aujourd'hui si large qu'il est difficile d'en saisir la
portée. Aussi, pour clarifier les éléments d'une démarche qualité dans l'entreprise, nous
retiendrons la synthèse proposée par M. P.M. Galloy [Gal 92] qui propose une
hiérarchie entre les différentes approches (figure 1.1).

Stratégie

Systè
me
Méth
odes

Outils

Figure 1.1 - Hiérarchie dans la démarche Qualité

1.2.1. Stratégie qualité

La stratégie qualité exprime la volonté de la direction de l'entreprise de progresser


vers l'excellence industrielle. Cette stratégie ne doit pas s'exprimer par une simple
déclaration d'intention mais aussi par une volonté clairement exprimée lors des choix
décisifs en matière de personnel, de matériel, ou de formation. Il n'existe pas de bataille
gagnée sans stratégie définie et clairement comprise par l'ensemble des troupes.

1.2.2. Système qualité

Le système qualité permet l'organisation, et la cohésion des différentes actions


"qualité" dans l'entreprise. Le système qualité représente la charpente qui permet de
supporter les actions qualité. Sans un système qualité rigoureux et solidement implanté,
les méthodes et les outils qualité ne sont que feux de paille. Ils dépendent directement
des hommes qui les ont mis en place, et disparaissent aussitôt que ces outils ne sont plus
la priorité de ceux-ci. Le système qualité est relativement complexe à mettre en oeuvre.
Les concepts sont essentiellement théoriques et il faut pouvoir, aux travers de
procédures, rendre plus concret une organisation et un savoir-faire.

[Gal 92] - Conférence PROGECTION - P.M. Galloy - Annecy - 1992

LLP - Edition : 11/06/93 Page 1.5


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

1.2.3. Méthodes qualité

Les méthodes qualité établissent un cadre formel autour des actions qualité. Nous
trouverons par exemple les méthodes statistiques d'analyse de données ou les méthodes
de gestion des moyens de mesure. Les compétences en matière de qualité sont
principalement au niveau des méthodes qualité. Trop souvent les compétences sont
apportées au niveau des outils alors que la mise en oeuvre d'une démarche de qualité
totale nécessite une parfaite maîtrise des méthodes qualité.

1.2.4. Outils qualité

Soutiennent et facilitent la mise en oeuvre des méthodes. Nous trouvons par


exemple les cartes de contrôle qui permettent de mettre en oeuvre de façon simple les
méthodes statistiques d'analyse de données. Nous trouvons également les outils
informatiques de Gestion des Moyens de Mesures (GMM) qui permettent de mettre en
oeuvre les méthodes de GMM. La mise en place des outils de la qualité est bien entendu
indispensable pour assurer la qualité totale dans une entreprise. Mais, nous avons noté
dans notre pyramide que ces outils interviennent en derniers alors que très souvent,
certains industriels commettent l'erreur de mettre en place les outils avant de définir une
stratégie.

1.2.5. Les normes ISO 9000 et la démarche Qualité

L'ensemble de la normalisation ISO 9000 [Iso 87] s'inscrit parfaitement dans cette
démarche, et vise à créer le système qualité dans l'entreprise. Les normes ISO 9000
couvrent principalement les aspects stratégie et système, mais sont très peu développées
sur les aspects méthodes et outils. En effet, si nous considérons la norme ISO 9001 qui
est la plus complète dans les rapports contractuels entre un client et un fournisseur, nous
trouvons seulement 3 chapitres sur les 20 chapitres de la norme qui sont spécifiques aux
méthodes et outils. Ces chapitres sont les chapitres 10 (Contrôle et Essais), 11 (Maîtrise
des équipements de contrôle, de Mesure et d'essai) et chapitre 20 (Techniques
statistiques).

La norme ISO 9000 n'est pas très étendue sur les méthodes et les outils. Mais ce
n'est pas son objectif. Il s'agit de créer un système qualité permettant d'assurer que tout
est mis en oeuvre pour créer et fabriquer des produits ou des services de qualité. Ce
n'est pas pour autant qu'il faut négliger de mettre en place les méthodes et les outils qui
permettront de fournir la qualité. Si cela n'est pas réalisé, il est alors possible d'être
certifié ISO 9000 sans pour autant fournir des produits de qualité.

[Iso 87] - Normes ISO 9000/DIS 9000-2/9000-3/9001/9002/9003/9004/9004-2

LLP - Edition : 11/06/93 Page 1.6


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

La démarche de certification des industries de l'automobile comme la SOGEDAC


[Sog 92] est, par contre, plus centrée sur les méthodes et les outils de la qualité qui
permettent d'obtenir des produits et des services conformes aux exigences des clients.
Aussi, les grands donneurs d'ordres tels que les constructeurs automobiles semblent
désormais s'orienter dans leurs audits vers la mise en place des méthodes et des outils.
Ils font de plus en plus confiance à la certification ISO 9000 pour les strates "Stratégie"
et "Système" de la pyramide.

Trop d'entreprises commencent leur démarche qualité par les strates inférieures de
la pyramide en achetant par exemple un logiciel d'assistance à la qualité. Il est facile de
réaliser cette erreur. En effet, les bénéfices de l'achat d'un logiciel semblent être
immédiats dès la mise en oeuvre de celui-ci alors que la constitution d'un système
qualité semble être une démarche fastidieuse dont les bénéfices ne sont que lointains.

Le présent travail porte essentiellement sur les strates méthodes et outils de la


qualité. Cependant, nous garderons en permanence à l'esprit que ces strates ne peuvent
donner leur pleine puissance que dans le cadre d'une démarche qualité totale impulsée
par la direction et s'appuyant sur un système qualité.

[Sog 92] - Questionnaire Audit SOGEDAC - 1992

LLP - Edition : 11/06/93 Page 1.7


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

2. L'évolution des méthodes de la qualité

Si nous analysons l'évolution des méthodes qualité depuis la dernière guerre, nous
constatons deux évolutions :

• la première est le stade de la vie du produit concerné,


• la deuxième est une évolution vers un accroissement du besoin de modélisation.

Ces évolutions traduisent un passage du stade artisanal au stade industriel. En


effet, ce qui différencie le plus une production industrielle d'une production artisanale,
c'est le formalisme dans sa production. Ces évolutions se sont donc accompagnées du
développement de méthodes et d'outils rigoureux qui ont permis ce formalisme.

2.1. Première évolution, recherche de la qualité dès la


conception

2.1.1. Le contrôle de réception

Le contrôle de la qualité s’est d’abord intéressé aux produits finis puisque c'est sur
le produit fini que le client va juger la qualité. On a mis en place des contrôles sur ceux-
ci pour éviter à un éventuel produit défectueux d’arriver chez le client. Les méthodes
utilisées vont du contrôle à 100% à un contrôle statistique par échantillonnage mais
n'assurent pas toujours 100% de pièces bonnes. En effet, même un contrôle à 100% ne
peut pas assurer 100% de produits conformes.
Pour s'en convaincre, il suffit de demander à plusieurs interlocuteurs le nombre de
lettre f qu'ils comptent dans la phrase suivante :

"Finished Files are the result of years of scientific study combined with the
experience of many years."

Rares sont les personnes qui trouvent le bon résultat qui est 6. Et pourtant, le
contrôle est un contrôle à 100%.

Dans le cas des contrôles par échantillonnage pour des critères attributifs, la
courbe d'efficacité du plan de contrôle s'incline rapidement et vient prouver l'inefficacité
de ce type de contrôle. Même en respectant la normalisation [Afn 83] en matière de

[Afn 83] - Norme AFNOR NFX X 06-021 / X 06-022

LLP - Edition : 11/06/93 Page 1.8


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

contrôle de réception - ce qui demande souvent des prélèvements importants -


l'efficacité d'un tel contrôle est de piètre qualité. Pour s'en convaincre, il suffit de
calculer la courbe d'efficacité d'un plan de contrôle par échantillonnage simple qui
consiste à prélever 50 pièces et à refuser le lot dès l'apparition d'un produit défectueux.

La courbe d'efficacité représente la probabilité pour un lot ayant une proportion p


de non conformes d'être accepté. C'est donc la probabilité de tirer dans un lot de taille n,
contenant une proportion p de non conformes, au plus A (critère d'acceptation) produits
non conformes. C'est la loi binomiale qui s'applique. La courbe d'efficacité a comme
équation :
k =A
P = ∑ Ck pk (1 − p ) n − k
k =0
n

Nous pouvons donc construire la courbe d'efficacité du plan précédent. Nous


accepterons un lot contenant une proportion p de non conformes à condition de trouver
0 pièce défectueuse parmi le prélèvement de 50 pièces. L'équation de la courbe
d'efficacité est donc

P = (1-p)50

Ce qui nous donne la courbe :

Probabilité d'acceptation
1

0,8

0,6

0,4

0,2 % de défaut

0
0 1 2 3 4 5

Figure 1.2 - Courbe d'efficacité du plan de contrôle

L'exemple précédent illustre la faible efficacité du contrôle par échantillonnage


simple dans le cas des critères qualitatifs. En effet, malgré un critère d'acceptation
sévère (A= 0) et un prélèvement important (50 produits) la probabilité d'accepter un lot
comportant 2% de produits défectueux reste encore de 36 %.

LLP - Edition : 11/06/93 Page 1.9


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

Le contrôle de réception ne peut donc pas assurer la qualité des productions, il


peut tout au plus éviter les catastrophes. De plus, d'un point de vue économique, le
contrôle de réception n'est pas très rentable. Il n'apporte aucune valeur ajoutée au
produit, c'est donc du gaspillage dans un environnement de Juste-A-Temps.

Il est nécessaire de mettre en oeuvre des techniques de pilotage des procédés qui
permettent de supprimer ces contrôles à posteriori. Il faut décaler cette recherche de la
qualité vers l'auto-contrôle qui représente un contrôle à moindre coût.

2.1.2. L'auto-contrôle

Nous venons de montrer qu’il était préférable de faire directement des produits de
qualité. Le contrôle des produits s’est donc porté davantage sur les postes de travail où
ils sont fabriqués. L'opérateur en production doit avoir les moyens de produire et
d'assurer la qualité de sa production Il est en auto-contrôle. Cette approche, qui peut
paraître simple, est en fait beaucoup plus complexe à réaliser qu'elle ne parait. En effet,
avoir les moyens de produire des produits de qualité suppose un certain nombre de pré-
requis qu'il est utile de préciser.

Moyens en compétences techniques. Il faut évidemment vérifier que l'opérateur


a bien les compétences nécessaires pour être capable d'analyser les situations, prendre
les décisions qui s'imposent et réagir sur le procédé. Si ce n'est pas le cas, il faudra
mettre en place un plan de formation pour lui donner les moyens.

Moyens en capabilité. Il faut vérifier si le moyen de production a des


performances compatibles avec la qualité requise. Cette notion est une des notions les
plus importantes de l'auto-contrôle. Il faut formaliser de façon précise la capabilité des
moyens de production.

Moyens en moyen de mesure. Il faut fournir à l'opérateur des moyens de


mesures adaptés. Pour vérifier la cohérence entre les moyens de contrôle et la qualité
demandée, il faut évaluer la capabilité des moyens de mesure de façon formelle. De
plus, le rattachement de chaque instrument de mesure à un étalon doit être géré de façon
efficace par une Gestion des Moyens de Mesures (GMM).

Moyens en méthode de pilotage. Outre les compétences techniques de


l'opérateur dont nous avons parlé, il est également nécessaire de former chaque
opérateur aux techniques statistiques de pilotage des procédés industriels telles que
l'utilisation des cartes de contrôle.

Moyens en délégation de décision. Un préalable indispensable à l'auto-contrôle


est bien entendu la délégation de la décision. L'auto-contrôle ne peut s'épanouir que
dans le cadre d'un management participatif. L'opérateur doit disposer de la
responsabilité de décision nécessaire pour assumer la responsabilité de l'auto-contrôle.

LLP - Edition : 11/06/93 Page 1.10


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

Dans de nombreuses entreprises, l'auto-contrôle a porté principalement sur la


responsabilisation des opérateurs vis-à-vis de la qualité de sa production. Mais cela n'est
pas suffisant, et l'accent doit être mis également sur tous les autres moyens nécessaires.
La responsabilisation des opérateurs ne peut être effective que si le management a mis
en place l'environnement nécessaire. Cela demande généralement du temps, une forte
volonté, et des moyens financiers d'où la responsabilité du management.

2.1.3. La qualité dès la conception

Poursuivant l’effort vers la qualité totale, il est apparu que le meilleur moment
pour établir la qualité était la conception du produit, voire la définition des
spécifications. La notion de qualité allait donc évoluer en faisant apparaître des notions
nouvelles telles que la notion de robustesse développée par TAGUCHI [Tag 87] . Il
n’est pas suffisant de développer un produit parfait dans des conditions de laboratoire. Il
faut qu’il fonctionne également dans une atmosphère bruitée, perturbée qui sera son lot
quotidien. La qualité à la conception s’établit principalement lorsqu’on définit les
paramètres du produit (cotes, jeux, tension, valeur d’une résistance) et les tolérances
qu’on admet sur ces valeurs. Trop souvent cette phase fondamentale du travail est sous-
estimée dans les conceptions traditionnelles. Et pourtant, c’est précisément cette phase
qui détermine le niveau de qualité du produit.

Pour aborder cette phase dans les meilleures conditions, il faut au concepteur un
outil lui permettant de mesurer l’importance de chacun des paramètres. Ces paramètres
sont généralement nombreux et difficilement modélisables par les lois classiques de la
physique ou de la mécanique. Le concepteur a donc besoin d’une méthode
expérimentale, peu coûteuse en expériences, qui lui permettra rapidement de mesurer
l’influence de chacun des paramètres, et ainsi de les fixer aux valeurs les plus
favorables. Les plans d’expériences vont fournir une méthode sans équivalent pour
aider le concepteur dans cette phase fondamentale.

2.1.4. La qualité dès le marketing

Plus on recherche la qualité, et plus cette recherche doit être proche du client. Ces
dernières années, nous avons vu apparaître de nouveaux outils qui permettent
d'introduire les exigences du client dès la définition des spécifications. Les japonais ont
pris l'habitude de transformer l'écriture du mot Marketing pour l'écrire "Market-in" [His
86] qui ne devient plus l'étude du marché, mais l'art de faire rentrer le marché dans

[Tag 87] - Genichi Taguchi - System of experimental Design - Vol I & II - Kraus - 1987
[His 86] - Hishikawa - Conférence Hishikawa - PARIS - 1986

LLP - Edition : 11/06/93 Page 1.11


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

l'entreprise. Le QFD [Vig 92] , (Quality Function Deployement) dont nous reparlerons
au paragraphe 3.1. est l'outil idéal pour répondre à ce type de préoccupation.

2.2. Deuxième évolution, plus de modélisation


Trop souvent le technicien se satisfait de notions floues de type tout-ou-rien ou
d’appréciations verbales non-chiffrées. C’est vrai en production où le concept de
capabilité se résume souvent à une impression. C’est également vrai en conception où la
connaissance des phénomènes est liée à l’expérience non-écrite des «spécialistes».

De plus en plus, l’industriel soucieux de qualité ne peut se satisfaire de ces


approximations. Il recherche des réponses chiffrées indépendantes et objectives. Il lui
faut donc MESURER pour MODELISER.

Pour cela, deux approches sont couramment réalisées. La première consiste à


mettre en place des indicateurs de performance qui permettent d’évaluer de manière
formelle une situation. C’est cette approche qui est suivie pour l’évaluation des
capabilités avec l’utilisation d’indicateurs tels que le Cpk bien connu en Maîtrise
Statistique des Procédés [For 82] . Une autre approche consiste à modéliser le
comportement des procédés ou des produits afin de mieux prévoir leurs performances.
Cette modélisation part de l'observation des faits, et par une représentation statistique
basée sur un traitement des données. Les outils tels que les régressions multiples ou les
plans d'expériences permettent de rechercher une représentation plus ou moins fine du
comportement du système étudié.

L'approche globale d'un système qualité tel que le conçoit M. Taguchi [Tag 89]
résume en fait ces évolutions. En différenciant les approches de la qualité sur le
processus de production (On line) et en dehors du processus de production (Off line),
Taguchi formalise cette recherche de plus de mesures par une modélisation des
systèmes de production par la méthode des plans d'expériences. Son approche de la
conception qui consiste à établir de façon formelle les paramètres des produits, et leurs
tolérances (Parameter design & Tolerance design) afin de concevoir des produits
robustes, va bien dans le sens de la recherche de la qualité au plus tôt.

[Vig 92] - Michel G. Vigier - La pratique du Q.F.D. - Ed d'organisation - 1992


[For 82] - Ford - Statistical Process Control - Instruction Guide - Ford Motor Company - 1982
[Tag 89] - Taguchi G. - Elsayed A. - Hsiang T. - Quality engineering in production systems - Mc graw
hill - 1989

LLP - Edition : 11/06/93 Page 1.12


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

3. Classification des méthodes et des


outils
En fonction des deux évolutions que nous avons présentés, la recherche de la
qualité au plus tôt et la recherche de plus de modèlisation dans le traitement et l'analyse
des situations, nous pouvons établir une classification des principaux outils de la
qualité. Nous avons placé sur l'axe des abscisses le stade auquel on applique l'outil. En
ordonné, nous avons placé l'importance des données quantifiées pour la mise en place
de l'outil.

Importance
de la modélisation
Q.F.D.
Beaucoup
Plans d'expériences & régressions multiples
Industrie performante
SPC

AMDEC Produits - Procédés

peu
Stade de
l'application
Artisanat

Production Conception Marketing

Figure 1.3 - Classification des principaux outils

Toute industrie performante se doit aujourd'hui d'utiliser ces outils pour rester
compétitive. Ils représentent la base indispensable pour la formalisation des procédés.
En effet la partie hachurée par un trait simple sur la figure 1.3 représente le domaine de
l'artisanat. Pour un travail artisanal, la qualité est obtenue au stade de la fabrication. Les
études sont peu développées et peu formalisées. Les mesures et la modélisation sont
également réduites au strict minimum. Cela n'empêche pas les artisans de faire un
travail de haute qualité, mais les méthodes de travail qu'ils utilisent et leur niveau élevé
de compétences en production sont difficilement transposables dans le domaine
industriel.

Si ce style de production conserve toujours un certain charme, il ne peut coexister


avec les impératifs de productivité et de qualité nécessaire à l'industrie moderne.
L'évolution des sociétés d'un type de production artisanal ou semi-artisanal vers un type

LLP - Edition : 11/06/93 Page 1.13


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

de production industriel ne se fait qu'à partir de la mise en place de méthodes et d'outils


permettant la formalisation.
3.1. Le QFD - Quality Function Deployment [Sto 91][Zai
90]

3.1.1 Présentation de la méthode

Parmi les outils que nous présenterons, le QFD est le plus récent. Son application
est encore embryonnaire dans les entreprises françaises. Nous pensons que son
application ne pourra se démultiplier que si nous réalisons l'effort de simplification et
d'élagage dans la conduite de la méthode identique à celui qui a été fait en AMDEC ces
dernières années. Contrairement aux autres méthodes de la Maîtrise des Procédés qui
ont souvent été inventées aux Etats Unis, et développées au Japon, cette méthode a été
inventée chez Mitsubishi au Japon dans les années 60. QFD signifie Quality Function
Deployment ce que l'on traduit généralement par Déploiement de la Fonction Qualité.

Son objectif se trouve dans sa définition :


"Le QFD est une méthode permettant de traduire de façon appropriée les attentes
du consommateur en spécifications internes à l'entreprise, et ceci tout au long du
développement d'un produit, c'est-à-dire :
- dans les phases de recherche et de développement
- dans les phases d'études, de méthodes et de réalisation
- dans les phases commerciales et de distribution"

Dans le contexte actuel de vive compétitivité, il devient essentiel de ne pas


disperser nos efforts et de s'intéresser à l'essentiel, les besoins des clients. Ce qui est le
plus important n'est pas ce qui nous (les concepteurs, les fabricants) apparait important,
mais ce qui apparait important au client. Les concepteurs, et plus encore les fabricants,
sont souvent éloignés physiquement des clients. Il est indispensable d'utiliser une
méthode qui permette de leur transmettre la "voie du client" dans leur langage avec le
moins de déformation possible. De plus, il est important dès lors que nous nous
focalisons sur l'essentiel pour le client, de comparer les performances de notre
entreprise avec les concurrents.

La méthode QFD nous permettra de réaliser ces deux étapes primordiales pour
devenir plus compétitif. Le QFD est une méthode préventive qui permettra d'éviter de
coûteuses actions correctives. Les principaux avantages que les utilisateurs de la
méthode évoquent le plus fréquemment sont :
• moins de modifications après la mise sur le marché du produit,
• diminution des coûts de garantie,

[Sto 91] - Gregg D. Stocker - Quality function deployment : Listening to the voice of the Customer -
APICS conference proceeding 1991 - 258:262 - 1991
[Zai 90] - A. Zaidi - QFD Une introduction - Lavoisier - 1990

LLP - Edition : 11/06/93 Page 1.14


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

• augmentation de la satisfaction du client,


• amélioration de la communication entre services,
• diminution du délai de développement.
3.1.2 Principe de base de la démarche QFD

L'objectif du QFD est de faire entrer dans l'entreprise, d'une façon formelle les
attentes des clients. Pour atteindre cet objectif, le QFD va traduire en différentes étapes
ces attentes jusqu'aux spécifications de production. Ainsi, nous pouvons schématiser la
démarche QFD par le schéma 1.4.

Attentes du client
Exemple : Le client désire un café chaud et bien serré

Comment

Spécifications du produit
Taux de caféine
La température comprise entre 70°C et 80°C

Comment

Caractéristiques des pièces


Café Arabica
Comment

Opérations de fabrication
Machine à café à pression
Comment

Spécifications de production
Pression de 10 bars
Serrage de 1/4 de tours

Figure 1.4. - La démarche Q.F.D.

Les attentes du client sont souvent imprécises et exprimées d'une manière


qualitative (café chaud, bien serré). Il est donc nécessaire de traduire ces attentes en
spécifications précises, si possible exprimées d'une manière quantitative (température
comprise entre 70 et 80°C). C'est la première phase du déploiement de la fonction
qualité qui se réalise lors de la réalisation du cahier des charges fonctionnel.
Pour obtenir ces spécifications, il est nécessaire de donner aux pièces un certain
nombre de caractéristiques, c'est le rôle du bureau d'étude. Dans cette étape, les attentes
des clients seront traduites en caractéristiques.

LLP - Edition : 11/06/93 Page 1.15


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

Une fois les caractéristiques des pièces définies, le bureau des méthodes doit
s'assurer que les opérations de fabrication permettent de réaliser ces caractéristiques.
Cette étape permet de traduire les attentes des clients en opérations de fabrication.
Enfin, il faudra traduire les opérations de fabrication en spécifications de
production. Ainsi, il est possible de remonter la chaîne, et de savoir pour chaque
spécification de production, l'attente du client qui est à l'origine de cette spécification.

Corrélation fortement positive


Corrélation positive
Corrélation négative
Corrélation fortement négative

Comment
Quoi
1
5
3
3
2
4
1
3
27 9 13 3 63 36 10 9 5 12

Combien

Figure 1.5. - La maison de la qualité

La déclinaison des QUOI en COMMENT se réalise grâce à un tableau (figure


1.5.) habituellement appelé "Maison de la Qualité" en raison de sa forme qui permet
principalement:

• de montrer les corrélations entre les QUOI et les COMMENT


• d'évaluer les QUOI et les COMMENT par rapport à la concurrence
• de gérer les corrélations entre les COMMENT
• de fixer des objectifs de coûts en fonction de l'importance du COMMENT

Chaque passage d'un QUOI à un COMMENT, c'est-à-dire chaque étape de la


démarche du QFD donne lieu à la réalisation d'une matrice "Maison de la Qualité"

Cette méthode, sans doute à cause de sa lourdeur, n'est pas très employée dans nos
entreprises dans sa totalité. Cependant, l'intérêt de la présentation de la matrice
QUOI/COMMENT a suscité déjà de nombreuses applications locales sur un seul
déploiement et apporte de nombreux résultats [Leg 92]

[Leg 92] - Philippe Legrand - QFD à GARRETT S. A. - Qualité et compétitivité 1991-1992 - 85:97 -
FIEV - 1992

LLP - Edition : 11/06/93 Page 1.16


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

3.2. Les plans d'expériences [Tag 87] [Vig 87][Box


78][Pila92]

Quel que soit le secteur d’activité et quel que soit l'industriel, ce dernier est
toujours amené à procéder à des essais. Or ces essais sont malheureusement trop
souvent conduits sans méthodologie. On procède par tâtonnements successifs, sans
planifier de façon rigoureuse les essais, pour obtenir une pléthore de résultats qu'on ne
sait pas toujours très bien exploiter.

La méthode des plans d’expériences permet de planifier de façon rigoureuse les


essais en vue d’un objectif parfaitement défini. Elle permettra, en outre, une diminution
considérable du nombre d’essais par rapport aux techniques traditionnelles. Mais plus
encore, elle permettra une interprétation rapide et sans équivoque des résultats en
fournissant un modèle expérimental du système étudié.

La méthode des plans d'expériences permet :


. de déterminer de façon optimum la liste des essais à réaliser
. d'interpréter de façon très rapide les résultats des expériences
. de fournir un modèle prédictif permettant de trouver les configurations
optimales
. d'étudier des phénomènes comportant des interactions (ou couplage d'effets)

Cette méthodologie, sans équivalent, permet d’atteindre une meilleure


connaissance du système observé par un minimum d’essais et un maximum de
précision.

Le principe consiste à planifier les essais en utilisant des tables [Asi 87] ayant la
propriété d'orthogonalité pour configurer les combinaisons des facteurs à tester. La
propriété d'orthogonalité permet de faire varier dans une série d'essais plusieurs facteurs
en même temps sans que l'effet d'un facteur n'influe sur les autres facteurs. On pourra
donc, grâce à cette propriété, diminuer le nombre d'essais et améliorer la précision sur
les résultats.

[Vig 87] - Michel G. Vigier - Pratique des plans d'expériences - Les éditions d'organisation - 190 p -
1988
[Box 78] - George E. P. Box - William G. Hunter - J. Stuart Hunter - Statistics for experimenters - Wiley
interscience - 650p -1978
[Pila92] - Maurice Pillet - Introduction aux plans d'expériences par la méthode TAGUCHI - Ed
organisation - 224 p - 1992
[Asi 87] - American Supplier Institute, Inc - Orthogonal arrays and linear graphs - ASI 1987

LLP - Edition : 11/06/93 Page 1.17


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

Les résultats d'une campagne d'essais réalisée par la méthode des plans
d'expériences sont généralement traduits sous forme graphique (Figure 1.6) afin de
faciliter le dépouillement. La figure 1.6 permet d'identifier facilement que le facteur C
est le plus influant sur la réponse étudiée.

Réponse
Mini Maxi

Effet du facteur A Effet du facteur B Effet du facteur C Effet du facteur D Effet du facteur E
Figure 1.6 - Résultats graphiques d'un plan d'expériences

3.3. L'AMDEC Analyse des Modes de Défaillance de


leurs Effets et de leur Criticité [Afi 90]
L'AMDEC est une méthode d'Analyse des Modes de Défaillance, de leurs Effets
et de leur Criticité. Cette méthode est quelquefois présentée sous le vocable anglais
FMECA: Failure Mode, Effect and Criticality Analysis.

L'AMDEC est une méthode qui permet d'obtenir la qualité par une action
préventive plutôt que curative. L'origine de cette méthode remonte aux années 1950 aux
Etats-Unis. Cependant, la véritable mise en application en France à un niveau important
n'a débuté que dans les années 80. Ce sont principalement les constructeurs automobiles
qui ont permis le développement de cette technique en France [Sog 91] en raison de
leur puissance d'achat auprès des sous-traitants et par leurs exigences en matière de
qualité.

Comme il est nécessaire de valider chaque étape de la vie d'un produit, il y a donc
plusieurs AMDEC. Nous citerons les plus fréquemment rencontrées.

AMDEC Produit Projet qui permet de verrouiller la conception des produits


lorsqu'ils sont encore au stade de la conception.

[Afi 90] - AFIM/AFNOR - Actes de conférences - Journées AMDEC Lyon 1990 - 1990
[Sog 91] - SOGEDAC - Procedure AMDEC - 1991

LLP - Edition : 11/06/93 Page 1.18


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

AMDEC Produit Process qui permet de valider la gamme de contrôle d'un


produit afin qu'ils satisfassent les caractéristiques BE.

AMDEC Moyen ou Machine qui se focalise sur un moyen de production afin de


diminuer le nombre de rebuts, le taux de panne et augmenter la capabilité.

L'AMDEC Produit-process par exemple consiste à rechercher dans une gamme de


fabrication l'ensemble des situations qui peuvent produire des produits défectueux.
Après avoir identifié les causes, on établira une classification à partir d'une notation
(indice de criticité) pour chaque cas de défaillance imaginé.

Après avoir mené une analyse fonctionnelle détaillée, le groupe de travail fait un
brainstorming afin d'établir pour chaque fonction l'ensemble des "modes de
défaillance" (non-respect des critères) qui peuvent survenir.

Chaque mode de défaillance est ensuite décliné en :

- Effet : quelle est la conséquence pour le client? une simple gêne, un coût, une
panne...

- Causes : l'existence d'un mode peut être produit par plusieurs causes, et chaque
cause par plusieurs sous-causes... Il faut identifier l'arbre de défaillance jusqu'à la cause
sur laquelle l'entreprise doit agir.

- Détection : c'est l'aptitude de l'entreprise à ne pas livrer une cause de défaillance


lorsque celle-ci existe. C'est-à-dire à ne pas livrer un mode potentiel à travers les
contrôles, les mesures, les calculs, mais aussi par les procédures et la formation des
hommes.

L'ensemble de cette étape est rassemblé dans une feuille d'analyse qui réalise la
synthèse du travail du groupe. Afin de hiérarchiser les défaillances, il faut évaluer
chaque couple Cause/Mode en terme de criticité suivant trois critères :

- La fréquence d'apparition : c'est-à-dire la probabilité que la cause existe


multipliée par la probabilité que cette cause crée une défaillance.

- La gravité : c'est-à-dire l'évaluation de l'effet non-qualité ressenti par le client

- La détection : c'est-à-dire la probabilité de ne pas livrer une défaillance


potentielle quand la cause existe.

Pour coter les défaillances, on utilise une grille de défaillance (figure 1.7.) qui
diffère d'une société à l'autre.

LLP - Edition : 11/06/93 Page 1.19


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

Le produit de ces trois critères F x G x D donne le Niveau de Priorité de Risque


(NPR ou IPR) qui permet de hiérarchiser les causes.

L'ensemble des défaillances dont l'indice NPR sera important seront traités par
une action corrective. L'objectif étant de ramener l'ensemble des indices NPR au-
dessous d'un niveau donné dans le cahier des charges.

Cotation F (Fréquence) G (Gravité) D (Détection)


3 Jamais Sans 100%
conséquence
5 Possible Mécontentement Non optimal

15 Souvent Très mécontent Inexistante


Panne critique incertaine

Figure 1.7. Grille de défaillance

3.4. L’outil statistique


3.4.1. Son importance dans la démarche Qualité

M. Schimmerling [Shi 92] situe les statistiques comme étant un outil qui permet
de "quantifier, de prévoir, d'expliquer les phénomènes obscurs, sources de non-qualité
dans les produits ou les processus à maîtriser." L'outil statistique est donc l'outil idéal
pour réussir une démarche qualité.

L'industrie japonaise utilise de façon intensive les outils statistiques depuis plus
d'une trentaine d'année. C'est sous l'impulsion du Dr. W. Edwards Deming, consultant
américain au Japon qu'ils ont connu puis appliqué les méthodes statistiques en
production. En Europe, malgré ça et là quelques applications remarquables, on a peu
utilisé les outils statistiques dans nos ateliers de fabrication jusqu'au début des années
80. Ce n'est qu'à partir de 1984 que l'industrie Française a pris conscience des bénéfices
importants qu'elle pourrait réaliser en matière de qualité en utilisant les outils
statistiques. Grâce à la pression importante des donneurs d'ordres de l'automobile,
l'ensemble du tissu industriel s'est penché sur les outils statistiques de base. Nous
commençons aujourd'hui à constater l'amélioration importante dans la qualité des
produits qui est la conséquence de l'utilisation générale de ces outils.

[Shi 92] - M. Schimmerling - La maîtrise des informations complexes - Premières assises de la qualité -
Paris 1992

LLP - Edition : 11/06/93 Page 1.20


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

3.4.2. La MSP ou SPC

SPC signifie "Statistical Process Control" qui se traduit mot-à-mot "Maîtrise


Statistique des Procédés" (MSP). L'introduction des méthodes de maîtrise statistique des
procédés a été réalisée aux Etats-Unis dès le début du siècle. Cependant il a fallu
attendre les années soixante-dix pour que ces méthodes soient utilisées de façon
intensive dans les entreprises occidentales.

Plusieurs définitions ont été données à propos de la MSP. Ces différentes


situations reflètent bien les différences entre les auteurs sur le champ d'application de la
MSP.

La Western electric donne la définition suivante "Avec l'aide de nombres ou de


données, nous étudions les caractéristiques de notre procédé afin qu'il se comporte tel
que nous le voulons". On note que cette définition est très large. L'accent est mis sur le
procédé, pas sur la méthode utilisée.

On a pris l'habitude de regrouper sous le vocable MSP, l'ensemble des outils


graphiques et statistiques d'analyse et de pilotage d'une production. On retrouve les 7
outils de base [Mon 90] avec :

• la feuille de relevé,
• l'histogramme,
• le diagramme en arrête de poisson,
• le diagramme de concentration de défaut,
• le diagramme de corrélation,
• le diagramme de pareto,
• la carte de contrôle.

Mais aussi, et cela sera un pilier de la MSP, la formalisation des méthodes d'étude
des capabilités. Pour notre étude, nous travaillerons principalement sur les outils de
pilotage des procédés industriels que représentent les cartes de contrôle, ainsi que les
études de capabilité.

3.5. La cohérence des différents outils

[Mon 90] Douglas C. Montgomery - Introduction to Statistical Process Control - second edition - 674 p -
ASQC Quality Press - 1991

LLP - Edition : 11/06/93 Page 1.21


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

La figure 1.5 fait apparaître la cohérence dans le développement d'un produit et


des processus de production associés. Sur cette figure, nous avons relevé les principales
étapes de la vie d'un produit, et nous avons déterminé l'utilisation de chacun des outils
en fonction de son intérêt pour la phase concernée. Chaque fois que l'outil est utile, nous
avons grisé le cadre. Nous avons également établi une hiérarchie dans l'intérêt de l'outil
en graduant l'importance de 1 à 3. L'ensemble des outils ont une plage d'application bien
déterminée, et couvre ainsi l'ensemble du processus de création et de fabrication d'un
produit. On note que l'utilisation majeure de la MSP qui suscite le travail que nous
avons réalisé a lieu en production. Il vient en complément des autres outils, et ne
trouvera donc sa pleine puissance que si les autres plages de la vie du produit ont été
couvertes correctement.

Phases PLAN QFD AMDEC AMDEC MSP


de développement
D'EXPERIENCE PRODUIT PROCEDE
S
Définition du produit
1 3
Définition des caractéristiques
3 3
Validation du produit
3 3
Définition du processus
3 1
Validation du processus
3 3 2
Définition des spécifications
3 3 2
Suivi et pilotage en
production 3
1 Utilisation Mineure 3 Utilisation Majeure

Nous n'avons, bien sûr, pas été exhaustif dans la présentation des principaux outils.
Bien d'autres méthodes apportent un complément important à la démarche que nous
avons présentée, mais notre expérience nous conduit à penser que pour le moins, les
outils AMDEC, Plans d'expériences et MSP sont les dénominateurs communs d'un outil
de production maîtrisé.

4. Conclusion du chapitre
Ce chapitre a eu pour objectif de montrer la place des outils et des méthodes de la
qualité dans une démarche qualité totale. Nous avons insisté sur la façon la plus efficace
d'aborder cette démarche par la stratégie qualité au niveau le plus élevé de l'entreprise et
non par les outils et les méthodes. La mise en oeuvre des outils est indispensable pour
réussir une démarche qualité, mais elle ne peut être efficace que dans le cadre d'un
système qualité cohérent.

LLP - Edition : 11/06/93 Page 1.22


Chapitre 1 - Les outils statistiques dans l'approche qualité totale

Nous avons également présenté les principaux outils et méthodes de la maîtrise


des procédés afin de faire apparaître la cohérence de l'ensemble. C'est par l'application
simultanée de l'ensemble de ces outils et méthodes que les industriels performants
arrivent à placer rapidement sur le marché des produits compétitifs.

Aussi, bien que le travail présenté dans cette thèse se focalise sur la méthode
MSP, nous garderons à l'esprit que cette méthode n'est qu'un maillon de la longue
chaîne de la qualité.

LLP - Edition : 11/06/93 Page 1.23


Chapitre 2 - Les principes de base du SPC et leurs limites

Chapitre 2

Les principes de base


de la MSP et leurs limites

L'application de la MSP repose sur deux concepts de base qui sont :

• le suivi et le pilotage par "cartes de contrôle",


• la mesure des capabilités.

Ces deux piliers de la MSP n'ont pas été introduits en même temps. Le pilotage
par cartes de contrôle a été introduit dès les années 30 grâce aux travaux de Shewhart
[She 31]. Par contre, les mesures de capabilité n'ont été formalisées et admises que dans
les années 70 principalement dans l'industrie automobile américaine.

Le constructeur automobile FORD a sans doute été, et reste encore, un des leaders
dans la promotion de la MSP au niveau mondial. L'ouvrage interne [For 82] a été un
des premiers ouvrages de synthèse connus du grand public sur la MSP. C'est pourquoi,
la technique de calcul FORD fait référence en matière de MSP, et la plupart des
entreprises travaillent sur cette base.

[She 31] - Shewhart - Economic Control of Quality of Manufactured Product - 1931 - Van Nostrand Co.
Inc Princeton.
[For 82] - Ford - Statistical Process Control -Instruction Guide - Ford Motor Company - 1982

LLP - Edition : 11/10/93 Page 2.1


Chapitre 2 - Les principes de base du SPC et leurs limites

Aussi, bien que ces notions commencent à être relativement anciennes, il reste de
nombreux progrès à réaliser pour exploiter pleinement la piste ouverte par Shewhart au
début du siècle.

LLP - Edition : 11/10/93 Page 2.2


Chapitre 2 - Les principes de base du SPC et leurs limites

1. Le pilotage par cartes de contrôle

1.1. Introduction
Le pilotage d'un procédé consiste à répondre aux deux questions suivantes :

1. faut-il intervenir sur le procédé?


2. si oui, quelle est l'importance de la correction à apporter?

La première question trouvera une réponse si nous savons différencier les


variations qui méritent une correction, de l'ensemble des variations aléatoires qui ne
peuvent être corrigées. E.L. Grant [Gra 52] écrivait: "La mesure de la qualité d'un
produit manufacturé est toujours entachée d'une certaine variabilité imputable au
hasard. Toute organisation de production et de contrôle incorpore un certain système,
stable, de sources d'indétermination. Un certain degré de variabilité à l'intérieur de ce
cadre est inévitable. On ne peut se proposer que de rechercher les causes de variation
qui sortent de ce cadre pour ensuite les corriger...".

Nous devons donc dissocier deux types de causes : les causes communes et les
causes spéciales (figure 2.1).

Causes Causes
Dispersion communes Spéciales

Figure 2.1 - Causes communes et causes spéciales

Les causes communes représentent la variabilité imputable au hasard. Si les


causes communes sont indépendantes les unes des autres et d'un ordre de grandeur
équivalent, le théorème central limite nous permet de prévoir que la fonction de
répartition des pièces suivra une loi normale.

Les causes spéciales représentent les causes de variabilité importantes qu'il faut
corriger.

[Gra 52] - E.L. Grant - Statistical Quality Control - Mc. G. Hill - 1952 - p3

LLP - Edition : 11/10/93 Page 2.3


Chapitre 2 - Les principes de base du SPC et leurs limites

Lorsque les seules causes agissant sur le procédé sont les causes communes, le
procédé est dit "sous-contrôle". Le principe des cartes de contrôle est de détecter par un
outil graphique simple les cas où le procédé n'est plus sous-contrôle et où il faut réagir.

1.2. La carte de Shewhart [She 31]


Le principe de la carte de contrôle de Shewhart qui reste largement utilisée
repose sur une représentation graphique du test de comparaison de moyenne par rapport
à une valeur théorique dans le cas d’une répartition normale.

Rappel du test de comparaison d'une moyenne à une valeur théorique

Etant donné un échantillon de taille n1, dont les valeurs observées ont pour
moyenne m1. Peut-il être considéré comme représentatif de la population totale de
moyenne M et d’écart type σ?

Figure 2.2 - Distance entre M et m1

Dans le cas de la carte de contrôle de Shewhart, nous considérons que l'écart-type


de la population totale est connu.

Nous voulons vérifier que l’échantillon appartient à la population théorique.


Comme σ est connu, les lois de l'échantillonnage nous disent que m1 doit être compris
σ
dans une répartition normale de moyenne M et d'écart type .
n

Il faut vérifier que l'écart entre m1 et M est suffisamment faible pour vérifier cette
hypothèse. Si cet écart est supérieur à l’écart maximal admis pour un seuil de
confiance donné, nous repousserons l’hypothèse d’appartenance. S’il est inférieur,
nous l’accepterons.

LLP - Edition : 11/10/93 Page 2.4


Chapitre 2 - Les principes de base du SPC et leurs limites

Calcul de l’écart u0 - variable réduite discriminante

m1 − M
u0 =
n

Détermination de u limite (ul)

ul est déterminé pour un seuil de confiance donné à partir de la table de la loi


normale pour le risque α.

Conclusion sur l'appartenance

Si u0 > u1, nous refusons l'hypothèse d'appartenance


Si u0 < u1, nous ne pouvons pas refuser l'hypothèse d'appartenance

Condition d’application

Le test précédent de comparaison des moyennes n'est valable que dans le cas où
l'hypothèse σ connu et constant peut être validée. Pour vérifier cette hypothèse, il faut
faire un test de comparaison de la variance de l'échantillon par rapport à la variance de
la population totale.

Rappel du test de comparaison d'un écart-type à une valeur théorique

Soit si : σn-1 de l’échantillon i


σ : Ecart-type de la population totale

On montre que les variables indépendantes



V = ( n − 1) 2 sont distribuées suivant une loi du χ2
σ

Figure 2.3 - Loi du χ²

Nous voulons savoir s'il est vraisemblable avec un risque α de ne pas se tromper
si l’échantillon d’écart-type (si) appartient ou non à la population totale d’écart-type σ.

LLP - Edition : 11/10/93 Page 2.5


Chapitre 2 - Les principes de base du SPC et leurs limites

En fonction du risque α, on détermine les limites χ2(α / 2) et χ2(1−α / 2) d’appartenance à


la population d’écart-type σ
L’hypothèse d’appartenance sera donc acceptée si :

s2i
χ2(α 2) < ( n − 1) < χ(21−α 2)
σ2

Il faut donc que si soit compris dans l'intervalle :

χ(2α 2) χ(21−α 2)
. σ < si < .σ
( n − 1) ( n − 1)

B3 . σ < si < B4 . σ

La carte de contrôle des moyennes et des écart-types notée ( X / s) réalise les deux
tests de comparaison de variances et de comparaison de moyennes par le simple fait de
placer les points sur le graphique.

Point hors contrôle

Limite supérieure
de contrôle

Cible

Limite inférieure
de contrôle

Limite supérieure
de contrôle

Moyenne des
écart-types
Limite inférieure
de contrôle
Journal de bord Réglage

Figure 2.4 - Carte de contrôle de Shewhart

Les limites de contrôle sur les écart-types représentent les limites du test de
comparaison des variances. Les limites de contrôle sur la carte des moyennes
représentent les limites d'acceptation sur le test de comparaison des moyennes.

Lorsque le point sur la carte des écart-types est à l'intérieur des limites de
contrôle, on peut accepter l'hypothèse de stabilité de l'écart-type de la population totale,
donc la stabilité des capabilités. Dans ce cas, le test de comparaison des moyennes peut
être exécuté. Lorsque le point sur la carte des moyennes est à l'intérieur des limites de
contrôle, on ne peut pas conclure à un déréglage. Par contre, lorsque le point sort des

LLP - Edition : 11/10/93 Page 2.6


Chapitre 2 - Les principes de base du SPC et leurs limites

limites (point 6 de l'exemple), on a une forte probabilité d'un décentrage, il faut donc
réagir par un réglage.

La carte de contrôle ( X / R )

Le principe de la carte de contrôle ( X / s) est souvent difficile à mettre en oeuvre


dans les ateliers de production du fait de la difficulté de calcul de l'écart-type. On lui
préfère souvent la carte ( X / R ) où le test de comparaison des variances n'est pas réalisé
à partir de l'écart-type estimé de l'échantillon mais à partir de l'étendue.

L'étendue R (Range) est définie comme étant l'écart entre la valeur maxi et mini.

R = Sup(xi) - Inf(xi) = xn - x1 si les valeurs sont rangées dans l'ordre


croissant.

Pour la valeur xi, on définit la variable réduite ui. On peut donc définir l'étendue
réduite :

( x n − m) ( x1 − m) R
W = u n − u1 = − =
σ σ σ

La fonction W a été tabulée et a pour caractéristique :

Moyenne ( R / σ ) = d 2

Ecart − type ( R / σ ) = d 3

On peut en déduire σ à partir de l'étendue moyenne R et de Wmoyen qui est plus


généralement notée d2. On a la relation :

R
σ=
d
2

d2 étant donné dans le tableau ci-après en fonction de la taille de l'échantillon:

n 2 3 4 5 6 7 8 9 10
d2 1.128 1.693 2.059 2.326 2.534 2.704 2.847 2.970 3.078
d3 0,853 0,888 0,880 0,864 0,848 0,833 0,820 0,808 0,797

Figure 2.5 - Tableau des coefficients d2 et d3

Les limites de contrôle à ±3σ sont donc :

LLP - Edition : 11/10/93 Page 2.7


Chapitre 2 - Les principes de base du SPC et leurs limites

R ± 3σ R = R ± 3. d 3 . σ$

σ$ peut-être estimé à partir de R , les limites deviennent donc :

R ± 3( d 3 d 2 ) R

que l'on préfère généralement écrire sous la forme

D3. R < R < D4 R

avec D3 = 1 - 3.(d3/d2) et D4 = 1 + 3(d3/d2)

1.3. Les autres cartes basées sur la moyenne


De nombreuses cartes ont été proposées pour s’adapter aux différentes situations.
C'est le cas par exemple des cartes de contrôle des médianes, des cartes de contrôle aux
limites modifiées, etc.. Nous ne détaillerons pas dans ce travail la panoplie existante,
nous citerons juste le travail de Leslie J. Porter et Porland Caulcutt [Por 92] qui propose
une autre alternative pour le calcul des limites de contrôle lorsque la variabilité de la
moyenne des échantillons est forte par rapport à la variabilité à l’intérieur de
l’échantillon. L'approche proposée récemment nous semble élargir le champ
d'application traditionnel des cartes de contrôle. Les auteurs affirment que la
considération de la seule variabilité inter-échantillon conduit à «sur contrôler» le
procédé si la variabilité entre échantillon est distribuée de façon aléatoire. La procédure
de calcul dans le cas d’une carte X/R est la suivante :

1 - mettre en évidence la distribution de référence des moyennes des échantillons


à partir de l’historique des données desquelles on aura éliminé les valeurs dues aux
causes spéciales.

R
2 - calculer l’écart-type intra-échantillon par la loi de l’étendue réduite σ$ 0 =
d2

3 - calculer la variance inter-échantillon en calculant l’écart-type de la répartition


des moyennes σ$ e .

[Por 92] - Leslie J. Porter et Porland Caulcutt - Control Chart design - A review of standard practice -
Quality and reliability engineering Internationnal 8:113-122, 1992

LLP - Edition : 11/10/93 Page 2.8


Chapitre 2 - Les principes de base du SPC et leurs limites

4 - faire la vérification de l’homogénéité des variances n.σe² et σ0² par le test de


Snedecor en comparant le rapport nσ$ 2e / σ$ 20 avec la valeur critique prise dans la loi de F
pour k-1 degré de liberté au numérateur et k(n-1) degré de liberté au dénominateur.

5 - si le test confirme l’homogénéité des variances et que la distribution est


compatible avec la distribution de référence, on peut calculer de façon classique les
cartes à partir de σ$ 0 / n ou σ$ e .

Sinon, il faut tester si les variations entre échantillons suivent des fluctuations
aléatoires. Pour cela, on calcule
k −1
1
2( k − 1) ∑
σ$ 2d = ( x j − x j+1 )²
j =1

Le test consiste à comparer le rapport σ$ 2d / σ$ 2e aux valeurs critiques 1 ± 2 ( k + 2) .


Si le rapport est à l’intérieur de ces limites, et si l’on ne peut détecter de séries sur la
carte des moyennes et des étendues, nous pouvons conclure que la variance inter-
échantillon est de façon prédominante aléatoire.

6 - si le test indique que la variance inter-échantillons est principalement


systématique, il y a présence de causes spéciales qu’il faut identifier et éliminer pour
recommencer les étapes 2-5.

7 - si le test indique une variance inter-échantillons σ$ e ² principalement aléatoire,


et prédominante par rapport à la variance intra-échantillons, il est alors possible de
calculer les limites de contrôle à partir de la variance inter-échantillons par les relations
:

Limites de contrôle = X ± 3σ$ e

Cette méthode est principalement recommandée dans les situations où la


dispersion instantanée est faible mais où les variations de consignes sont importantes et
aléatoires. Dans ce cas, on suppose que le procédé est sous contrôle tant que les
variations de consignes restent aléatoires et conformes à l'historique.

1.4. L'amélioration de l'efficacité par les cartes


CUSUM
L'efficacité dans la détection d'un décentrage des cartes de contrôle basées sur la
moyenne d'un sous-groupe peut être largement améliorée en utilisant une autre carte de
contrôle : les cartes CUSUM (Cumulative Sum) ou EWMA (Exponentially Weighted
Moving Averages)

LLP - Edition : 11/10/93 Page 2.9


Chapitre 2 - Les principes de base du SPC et leurs limites

Les cartes de contrôle CUSUM [Pal 91] sont très peu utilisées dans nos
entreprises bien qu'elles soient - pour les faibles dérives - beaucoup plus performantes
que les cartes de contrôle X/R. Cela vient du fait que leur mise en oeuvre est un peu
plus complexe, et d'une interprétation moins directe que les cartes X/R. Nous
détaillerons la présentation des cartes CUSUM que nous utiliserons dans la suite de ce
travail. Nous laissons le lecteur se référer à la bibliographie et notamment au travail de
Pysdek [Pyz 92] et Ryan [Rya 89] pour plus de détails sur les cartes EWMA.

1.4.1 Cartes CUSUM de LUCAS

Carte CUSUM

En fait, il existe plusieurs sortes de cartes CUSUM [Rya 89], [Tor 65] , [Dob 68].
Nous exposerons ci-dessous la méthode proposée par Lucas [Luc 73], [Luca82],
[Lucb82]. Le principe est le suivant :

Soit un sous-groupe de moyenne x , la variable réduite associée à cette moyenne


est:
u = x−x
σ
x
Que l'on peut écrire
x = x + uσ x

Notons que dans la carte de contrôle traditionnelle, on considère un procédé hors


contrôle lorsque u > 3.

[Pal 91] - Alain Palsky - La maîtrise des procédés continus - Actes de conférences CETIM SPC - Paris -
1991
[Pyz 92] - Tomas Pyzdek's - Pyzdek's guide to SPC - Vol I & II ASQC Quality Press - 1992
[Rya 89] - Thomas P. Ryan - Statistical methods for quality improvement - John Wiley & sons - 1989
[Tor 65] - J. Torrens-Ibern - Les méthodes statistiques de controle dans les processus industriels continus
- Revue de statistique appliquée - 1965 - Vol XIII N° 1 p 65:93
[Dob 68] - C. S. Van Dobben De Bruyn - Cumulative Sum Test - Theory and practice - GRIFFIN's
Statistical Monograph & Courses - Alan Stuart - 1968
[Luc 73] - J. M. Lucas - The design and use of V-mask control schemes. Journal of quality Technologie
8 (1) - 1973 - 1:12 - January
[Luca82] - J. M. Lucas - Combined Shewhart-CUSUM quality control shemes - Journal of Quality
Technologie 14(2) -1982 - 51:59 - April
[Lucb82] - J. M. Lucas - R. B. Croisier - Fast initial response for CUSUM quality control schemes : Give
your CUSUM a head start. Technoometrics 24(3) - 1982 - 199:215 - August

LLP - Edition : 11/10/93 Page 2.10


Chapitre 2 - Les principes de base du SPC et leurs limites

Pour une suite d'échantillons, nous formons la suite des sommes cumulées
suivantes

S H i = Max 0, ( u i − k ) + S H i−1
S L i = Max 0, ( − u i − k ) + SL i−1

La première somme sert à détecter un décalage du côté positif de la moyenne, la


seconde du côté négatif.
La valeur k est souvent choisie comme étant la moitié du décalage de la moyenne
que l'on souhaite détecter. k est généralement fixé à 0,5 pour détecter un décentrage de
un écart-type.
Notons que les deux sommes sont toujours positives et ne peuvent jamais être
négatives car on prend le maximum entre 0 et la valeur calculée. Les deux sommes sont
initialisées à 0 en début de procédure, et chaque fois qu'un procédé hors contrôle est
détecté.
Un signal "hors-contrôle" est détecté chaque fois qu'une des deux sommes excède
une valeur limite, noté h par l'auteur de la méthode. h est choisi entre 4 et 5 en fonction
de l'efficacité souhaitée de la carte de contrôle.

La figure 2.6 montre une série de moyennes de sous-groupe. On suppose l'écart-


type des moyennes σ x = 0, 5

N° 1 2 3 4 5 6 7 8 9 10
X 0.41 1.11 -0.04 -1.04 -0.04 -0.68 -0.85 0.81 0.62 -0.38
u 0,82 2.22 -0.08 -2.08 -0.08 -1.36 -1.70 1.62 1.24 -0.76
SH 0.32 2.04 1.46 0 0 0 0 1.12 1.86 0.60
SL 0 0 0 1.58 1.16 2.02 3.22 1.10 00 0.26

N° 11 12 13 14 15 16 17 18 19 20
X 0.54 0.18 0.33 0.32 0.44 0.22 0.88 0.16 0.95 1.09
u 1.08 0.36 0.66 0.64 0.88 0.44 1.76 0.32 1.90 2.18
SH 1.18 1.04 1.20 1.34 1.72 1.66 2.92 2.74 4.14* 5.82**
SL 0 0 0 0 0 0 0 0 0 0

Figure 2.6 - Carte CUSUM

Nous avons noté une étoile (*) lorsque la somme dépasse la limite h= 4 et deux
étoiles (**) lorsque la somme dépasse la limite h = 5.

Comme SH a été dépassée, nous avons la certitude d'un décentrage côté positif.
Ce décentrage n'était pas détecté par la carte de Shewhart car en aucun cas la valeur u
dépasse la limite 3. La carte de Shewhart pour les données précédentes est représentée
en figure 2.7. On note une série de points d'un côté de la moyenne mais pas de

LLP - Edition : 11/10/93 Page 2.11


Chapitre 2 - Les principes de base du SPC et leurs limites

déréglage important. Ce déréglage faible, mais constant, est rapidement détecté par la
carte CUSUM.

LSC 1,5

LIC -1,5

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Figure 2.7 - Carte de contrôle de Shewhart

Cet exemple illustre la rapidité de détection d'une tendance avec la carte CUSUM.
On note que, dans le cas d'un déréglage important, ( X = 1, 6, u = 3,2) mais rapide, par
exemple dès le premier point, SH serait égale à 2,7. Le déréglage ne serait pas détecté
par la carte CUSUM alors qu'il serait détecté par la carte Shewhart. La carte CUSUM
est donc particulièrement adaptée pour détecter des tendances dans le cas des procédés à
petite dérive lente. Elle n'est donc pas adaptée à des déréglages important et brutaux.
Pour annuler cet inconvénient, il faut utiliser la méthode FIR CUSUM (Fast Initial
Response)

Carte FIR CUSUM

Lucas [Lucb82] propose d'améliorer la réponse des cartes CUSUM en initialisant


les sommes par une valeur h/2 plutôt que d'initialiser à 0. Dans le cas d'un déréglage
rapide, on aurait alors avec h=5 :

Initialisation SH = 2,5
n=1 X = 1, 6 SH = 5,2 Déréglage détecté

Même dans le cas d'une tendance, la détection est plus rapide. Pour illustrer
l'intérêt de la carte FIR CUSUM nous pouvons faire une simulation sur les 10 derniers
échantillons de l'exemple précédent en initialisant les deux sommes à 2,5

N° init 11 12 13 14 15 16 17 18 19
X 0.54 0.18 0.33 0.32 0.44 0.22 0.88 0.16 0.95
u 1.08 0.36 0.66 0.64 0.88 0.44 1.76 0.32 1.90
SH 2,5 3.58 3.72 3.89 4.02 4.4 4.34 5.6*

LLP - Edition : 11/10/93 Page 2.12


Chapitre 2 - Les principes de base du SPC et leurs limites

SL 2,5 0.92 0.06 0 0 0 0 0

Figure 2.8 - Carte FIR CUSUM

Nous notons, dans ce cas, que la détection apparaît à partir de la septième valeur
alors que la carte CUSUM traditionnelle ne détectait le déréglage qu'à partir de la
dixième valeur.

Combinaison Shewhart/CUSUM

Il reste un cas où la carte CUSUM ne détecterait pas un décentrage alors que la


carte Shewhart le détecterait. C'est le cas d'un brusque déréglage de la moyenne du côté
négatif alors que la tendance était plutôt du côté positif. Pour illustrer ce phénomène,
reprenons le cas de la figure 2.8 et imaginons que la 15ème valeur est égale à -1,8.

N° init 11 12 13 14 15
X 0.54 0.18 0.33 0.32 -1.8
u 1.08 0.36 0.66 0.64 -3.6
SH 2,5 3.58 3.72 3.89 4.02 0.1
SL 2,5 0.92 0.06 0 0 3.1

Figure 2.9 - Les limites de la carte FIR CUSUM

Dans ce cas, u étant supérieur à 3, la carte de contrôle de Shewhart aurait détecté


le décentrage, mais pas la carte FIR CUSUM. En fait la carte Shewhart est très
performante pour détecter les variations importantes sur la moyenne, alors que les cartes
CUSUM sont plus rapides pour détecter les tendances. Lucas [Luca82] propose
d'associer les deux cartes en une seule carte qui serait la combinaison des cartes
Shewhart et des cartes CUSUM. Dans ce cas, la détection d'un décentrage peut provenir
non seulement d'une des deux sommes SH ou SL mais lorsque u dépasse 3. Ainsi, on
associe l'efficacité des cartes CUSUM pour les tendances à l'efficacité des cartes de
Shewhart pour les variations rapides.

LLP - Edition : 11/10/93 Page 2.13


Chapitre 2 - Les principes de base du SPC et leurs limites

h=5

S
H

h=5

S
L

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Figure 2.10 - Représentation graphique d'une carte CUSUM


Dans tous les cas précédents, il est possible de représenter les sommes sur une
carte de contrôle CUSUM à limites horizontales. La figure 2.10 donne la représentation
de la carte CUSUM de notre exemple. Nous avons choisi de représenter deux cartes
différentes pour SH et SL, mais certains auteurs tels que Dobben de Bruyn [Dob 68]
préfèrent rassembler les deux sommes sur la même carte.

1.4.2 Les cartes CUSUM avec masque en V

La construction des cartes CUSUM avec masque en V a suscité de nombreux


travaux [Joh 77], [Bis 86], [Wad 86]. Le principe de la carte de contrôle CUSUM avec
masque en V est assez simple, il consiste à représenter sur un graphique les sommes
cumulées des écarts par rapport à la valeur cible. Pour savoir si le procédé est sous
contrôle ou hors contrôle, on plaque un masque en V (Figure 2.11) sur le graphique.
La figure 2.11 reprend l'exemple que nous avons traité avec la carte de Lucas mais
traité avec le masque en V. La ligne brisée représente la somme cumulée des moyennes
de chaque échantillon. Chaque fois que l'on dessine un point, on plaque le masque sur le
point que l'on vient de tracer. Si l'ensemble des points rentre dans le masque (exemple
masque placé sur le point 10), le procédé est sous contrôle, sinon (exemple masque
placé sur le point 20) le procédé est hors contrôle.

[Joh 77] - N. L. Johnson - F. C. Leone - Statistics and experimental Design in engineering and the
physical Sciences, Volumes I, 2nd ed - Wiley - 1977
[Bis 86] - A. F. Bissell - The performance of control chart and Cusum under linear trend - Applied
statistics 33(2) - 318:335 - 1986
[Wad 86] 86 - Wadsworth - Stephens - Godfrey - Modern methods for quality control and improvement
- Wiley - 1986

LLP - Edition : 11/10/93 Page 2.14


Chapitre 2 - Les principes de base du SPC et leurs limites

4
3
2
Hors masque
1
0
-0
-2
-3
-4

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Figure 2.11 - Principe des cartes CUSUM avec masque en V
Le calcul du masque en V se réalise en fonction du décentrage que l'on veut
détecter.

L'utilisation de ce type de cartes nous paraissant délicate dans un atelier de


production, nous avons choisi de ne pas retenir cette procédure pour notre travail dans
le cas des petites séries. Par contre, la procédure de Lucas, et plus particulièrement la
procédure FIR CUSUM, sera étudiée en détail pour son application dans le cas des
toutes petites séries au chapitre 4

LLP - Edition : 11/10/93 Page 2.15


Chapitre 2 - Les principes de base du SPC et leurs limites

2. le concept de capabilité

2.1. Cas des critères symétriques

2.1.1. Rappels élémentaires

La capabilité d'un moyen de production est la mesure établissant le rapport entre


sa performance réelle et la performance demandée. La performance réelle est révélée
par la dispersion obtenue sur la production. La performance demandée est précisée par
l'intervalle de tolérance. On exprime la capabilité par le rapport entre ces deux
éléments, ce qui nous donne :

Intervalle de tolérance
Capabilité =
Dispersion

La tolérance est définie par le cahier des charges. En règle générale, on choisit
comme largeur de la dispersion, dans le cas d'une distribution normale, six écart-types.
Ce choix est parfois contesté et certains auteurs préfèrent prendre huit écart-types pour
le calcul de la capabilité machine. Nous détaillerons ce point au paragraphe 2.1.2. [Pys
92].

2.1.2. Les indicateurs de capabilité court terme et long terme


[For 82] [Ford 91]

Lorsque nous observons le film d’une production, c’est-à-dire l’observation de


toutes les pièces produites par le moyen de production sur une semaine par exemple,
nous obtenons un graphique du type de la figure 2.12.

Il est nécessaire de dissocier deux types de dispersion:

• une dispersion instantanée, c’est-à-dire observée sur le procédé pendant un très


court instant que nous noterons Di (Court terme). En règle générale, cette dispersion
est imputée principalement au moyen de production.

[Pys 92] - Thomas Pyzdec - Pysdek's Guide to SPC - ASQC- Quality Press - 1992
[Ford 91] - Ford - Procédure Qualité SPC Q1 - Ford Motor Company - Avril 1991

LLP - Edition : 11/10/93 Page 2.16


Chapitre 2 - Les principes de base du SPC et leurs limites

• une dispersion globale, c’est-à-dire observée sur le procédé pendant un temps


suffisant pour que les 5 M du procédé (Machine, Main d’oeuvre, Milieu, Matière,
Méthodes) aient eu une influence. Nous la noterons Dg (Long terme). Cette
dispersion a donc comme origine le moyen de production plus les variations
imputables au milieu, à la matière...

Cote
TS

M
IT

TI
Variation de consigne

t Temps

Figure 2.12- Graphique d’évolution

Il est évident que les dispersions Dg et Di sont telles que Dg est supérieure à Di.
L’indicateur de capabilité défini précédemment dépendra donc du type de dispersion
retenue Di ou Dg. On distingue deux types d'indicateurs de capabilité: les indicateurs
court terme qui utiliseront la dispersion instantanée, et les indicateurs long terme qui
utiliseront la dispersion globale.

Remarque sur les dispersions

Pour une estimation de la dispersion globale, il est important de ne pas inclure des
variation importantes dûes à des réglages important de consigne. En fait, Il faut trouver
la bonne période d'observation autant pour la dispersion globale qu'instantanée.
L'échaelle de temps peut être très différents selon que l'on s'intéresse à une machine
mécanique ou à un processus chimique par exemple.

Les indicateurs Cp et Cpk

Ces indicateurs Cp et Cpk définissent la qualité des pièces livrées aux clients. Ils
sont calculés à partir de la dispersion globale.

Rappelons les formules définissant Cp et Cpk

IT TS - M M - TI
Cp = Cpk = mini ( , )
D ½ .D ½ .D
g g g

LLP - Edition : 11/10/93 Page 2.17


Chapitre 2 - Les principes de base du SPC et leurs limites

Avec les notations suivantes:

TS : Limite supérieure de la tolérance


TI : Limite inférieure de la tolérance
M : Moyenne observée sur le procédé
Dg : Dispersion globale du procédé

Un procédé est déclaré capable si la dispersion globale est plus faible que
l'intervalle de tolérance. Il faut que l'indicateur Cp soit supérieur à 1. Les constructeurs
retiennent en général comme limite inférieur 1,33 pour le rapport.
L'indicateur Cp ne tient pas compte du décentrage éventuel de la population. Il est
donc possible lorsque la population est décentrée d'avoir un excellent Cp et des pièces
hors tolérances. Le Cpk corrige cet aspect puisqu'il tient compte du décentrage. C'est
principalement le Cpk qui traduit la qualité des pièces produites.

En fait, on a toujours Cp > Cpk, et la condition de capabilité d'un procédé est :

Condition de capabilité Cpk > 1,33

Les indicateurs Pp et Ppk

Ford a introduit ces nouveaux indicateurs en Avril 91 en France. Pp signifie


Preliminary Process. Ces indicateurs ont pour objectif de déterminer lors d'un
démarrage de série les capabilités Cp et Cpk probables.

La capabilité préliminaire est en fait une première estimation de la capabilité du


procédé sur une présérie. Le prélèvement nécessaire pour établir une capabilité
préliminaire est constitué de plusieurs échantillons de petite taille, prélevés avec une
fréquence élevée (tous les 1/4 heure par exemple), au cours de la production d'une
présérie sur un temps suffisamment long pour estimer la dispersion globale (4 heures
par exemple).

Les formules de calcul pour les indicateurs Pp et Ppk sont strictement identiques
aux formules de calcul Cp et Cpk. La condition de capabilité est nécessairement plus
restrictive que pour le Cpk et on a :

Condition de capabilité Ppk >1,67

Les indicateurs Cm et Cmk

LLP - Edition : 11/10/93 Page 2.18


Chapitre 2 - Les principes de base du SPC et leurs limites

Cm signifie Capabilité Machine. Ces indicateurs traduisent la capabilité optimale


réalisable sur une machine. C'est la capabilité que nous aurions si nous étions capables
de supprimer les variations de consigne. Ces indicateurs sont calculés avec les mêmes
formules que les indicateurs Cp et Cpk, mais nous utilisons, dans ce cas, la dispersion
instantanée plutôt que la dispersion globale. La condition de capabilité est généralement
fixée dans les procédures à 1,67, mais notre expérience nous a montré qu'il était
préférable de demander une capabilité machine de 2 pour être capables, dans des
conditions de série, de fournir un Cpk >1,33.

Synthèse des différents indicateurs

Chaque indicateur a un intérêt particulier, et la connaissance des performances


d'un système de production implique l'évaluation de l'ensemble de ces indicateurs. La
figure 2.13 résume l'objectif de chacun des indicateurs. Les indicateurs les plus
importants sont les indicateurs Cp et Cpk car ils reflètent la qualité des pièces livrées
chez le client.

Indicateurs Intérêt Symbole

Capabilité long terme Traduit la qualité des pièces livrées au Cp et Cpk


Capabilité Procédé client

Capabilité préliminaire Traduit la capacité à obtenir un Cpk Pp et Ppk


satisfaisant à partir d'une présérie

Capabilité court terme Traduit la capabilité intrinsèque du


Capabilité Machine moyen de production dans les Cm et Cmk
conditions de la gamme

Figure 2.13 - Les différents indicateurs

Les calculs des indicateurs utilisent toujours les mêmes formules, la seule
différence réside dans le choix de la dispersion et dans la façon de mesurer cette
dispersion. L'apparente simplicité de ces indicateurs conduit de nombreux utilisateurs à
faire des erreurs grossières s'ils ne prennent pas quelques précautions de calcul. En
effet, la différence entre la dispersion instantanée et la dispersion globale nécessite de
bien faire la différence entre le type de prélèvement à effectuer pour estimer la
dispersion souhaitée. Il faut également être précis dans l'estimateur utilisé pour l'écart-
type en fonction du prélèvement réalisé (échantillonnage important ou nombreux
échantillons de petite taille).

LLP - Edition : 11/10/93 Page 2.19


Chapitre 2 - Les principes de base du SPC et leurs limites

De nombreux logiciels de MSP sont à ce propos fort critiquables et confondent


couramment la dispersion instantanée et la dispersion globale. Nous avons alerté depuis
plusieurs années les développeurs de logiciels et les entreprises utilisatrices sur les
erreurs commises lors de publications ou de congrès [Pila91] [Pilb91].
2.1.3. La difficulté d'estimer la capabilité machine

L'estimation de la dispersion instantanée devra être effectuée à partir d'un


échantillon lui-même fabriqué pendant un temps très court pour être significatif de la
dispersion instantanée. S'il est facile sur une machine à cadence élevée (exemple : 1
pièce par seconde) de produire ce type d'échantillon (il suffit d'une minute), ce n'est pas
le cas sur des machines à cadence plus faible. Prenons comme exemple une machine
dont la cadence de production est d'une pièce toutes les 5 minutes. Un échantillon
représentatif comportant 30 pièces consécutives représenterait près de trois heures de
production. Il est difficile de dire que la dispersion observée pendant ces trois heures est
une dispersion "instantanée".

Nous dissocierons donc deux cas pour le calcul de la dispersion instantanée :

• le cas des productions rapides,


• le cas des productions lentes.

Cas des productions rapides

Ce cas est très simple. Il suffit de prélever un échantillon représentatif de la


dispersion instantanée, c'est-à-dire au moins 30 pièces et mieux 50 pièces consécutives
et sans réglage. On vérifie ensuite la normalité de la population, pour vérifier l'absence
de causes spéciales.

En cas de non-normalité, on cherchera les causes de cette distribution singulière.


En cas de normalité, on calculera la dispersion Di à partir de l’écart-type
instantané de l'échantillon : Di = 6 x σi.

On utilisera pour σi l'estimateur de l'écart-type, soit : σn-1 = s =


∑ (x i − x) 2
n −1

Cas des productions lentes

Dans le cas d’une production lente (par exemple plus de 1 mn de production par
pièce), il n’est souvent pas possible de prélever 50 pièces consécutives sans observer

[Pila91] - Maurice Pillet - Les pièges des mesures de capabilité - Journée des CPIM de France - Actes de
conférences - Paris 1991
[Pilb91] - Maurice Pillet - Les mesures de capabilité - Contrôle industriel & Qualité - 1991

LLP - Edition : 11/10/93 Page 2.20


Chapitre 2 - Les principes de base du SPC et leurs limites

des variations de consigne sur le procédé. La procédure retenue dans le cas des
productions rapides ne peut pas s'appliquer. Il faut donc trouver une procédure qui
élimine les fluctuations de la consigne.

Dans ce cas, les échantillons devront être plus petits pour limiter l’influence du
temps - 5 pièces par exemple - ce qui correspond à 10 mn de production dans le cas d'un
cycle de 2 mn. En fait, le critère de choix de la taille de l'échantillon est la nécessité de
ne pas avoir de causes spéciales présentes à l'intérieur de l'échantillon.

Bien sûr, on ne peut pas estimer la dispersion instantanée sur 5 pièces. Il faudra
prendre plusieurs échantillons pour avoir un nombre de mesures significatif - une
centaine au moins - ce qui correspond à 20 échantillons au moins. La dispersion
instantanée sera alors estimée à partir de la variance intra-série que l'on pourra calculer
après vérification de l'homogénéité des variances des échantillons en effectuant le "test
de Cochran" ou le "test de Hartley" par exemple.

La dispersion instantanée est alors calculée à partir de σestimé qui est l'écart-type
de la dispersion intra-série.

Notons que lorsque le cycle de production est particulièrement long, 15 mn par


exemple, le calcul de la capabilité machine n'a plus vraiment de signification. On peut
cependant réaliser des pièces spéciales avec un temps de cycle plus court, mais ce
procédé reste souvent coûteux par rapport aux informations qu'il apporte.

2.1.4. Les différentes approches pour le calcul de la dispersion

Un certain consensus sur les capabilités existe plus ou moins dans le monde sur
les indices Cp, Cpk. Il reste cependant de nombreuses divergences dans les publications
sur le calcul des dispersions.

Outre les divergences, déjà signalées, sur le calcul de la dispersion instantanée qui
peut être égale à 6σ ou à 8σ selon les auteurs, il existe également des divergences sur le
calcul de l'écart-type.

En effet, en règle générale, l'écart-type de la population totale est inconnu et il est


nécessaire de l'estimer à partir d'un échantillon. La plupart des procédures retiennent
comme estimateur σn-1 noté s. En fait, ce choix conduit à estimer les capabilités avec
un risque α (risque fournisseur) de 50%. Ainsi lorsqu'on affiche une capabilité de 1,5,
on a 50% de chance que la capabilité réelle soit en fait inférieure à 1,5.

LLP - Edition : 11/10/93 Page 2.21


Chapitre 2 - Les principes de base du SPC et leurs limites

La norme CNOMO [Cno 88], principalement établie par les constructeurs


automobiles français, et la norme PEUGEOT [Peu 88] offrent une approche différente
de l'estimation de l'écart-type de la population totale. Cette approche a été reprise plus
récemment dans des publications internationales [Por 91]. Plutôt que de prendre le
risque à 50% en estimant σ par s, on prend alors l'estimateur maximum de l'écart-type
avec un risque de 5%.

s2
On sait que le rapport ( n − 1) suit une loi du χ².
σ2

( n − 1)
On peut alors estimer σ par la relation σ = s.
χ2
(α)
( n − 1)
Le rapport ne dépend que du nombre de pièces dans l'échantillon et peut
χ2
(α)
donc facilement se mettre sous forme d'un tableau qui définit un coefficient C(n).

On estime donc σ par la relation σ = C(n).s

L'avantage de cette estimation par rapport à la précédente est dans la confiance


que l'on peut accorder aux indices de capabilité calculés par cette méthode. En effet,
plus le nombre de données dans l'échantillon est faible plus la confiance que l'on doit
accorder au calcul de capabilité doit être faible. Cette confiance réduite s'exprime par un
coefficient C(n) largement supérieur à 1.

L'inconvénient de cette méthode réside dans la relative complexité des calculs


pour un public travaillant sur les sites de production où ces formules doivent être
appliquées pour la réussite de la MSP.

2.1.5. Calcul des capabilités à partir des cartes de contrôle

Les cartes de contrôle, outre les avantages considérables qu’elles apportent dans
la maîtrise des procédés comme nous le verrons plus loin, permettent, à partir des
données qu’elles comportent, de calculer les trois indicateurs fondamentaux de
capabilité: Cp, Cpk, et Cm. Elles consistent à prélever de façon régulière des

[Cno 88] - CNOMO - Normes CNOMO E41.92.110.N - 1988


[Peu 88] - Peugeot - Normes Q54 4000 - Automobiles Peugeot - Citoën - Avril 88
[Por 91] - Leslie J. Porter - John S. Oakland - Process capability indices - An overview of theorie and
practice - Quality and reliability Engineering International - 7 pages - 437- 448 - 1991

LLP - Edition : 11/10/93 Page 2.22


Chapitre 2 - Les principes de base du SPC et leurs limites

échantillons de pièces consécutives sans déréglage à l'intérieur des échantillons pour


juger de la stabilité du procédé. Les échantillons sont de taille constante.

Estimation de l’écart-type instantané

La dispersion instantanée traduit la dispersion intrinsèque du procédé, c'est-à-dire


en l'absence de déréglage. C'est donc la dispersion intra-échantillon.
Dans le cas de petits échantillons (k échantillons de n pièces), l’écart-type
instantané peut être estimé à partir de la moyenne des estimateurs s (σn-1) de chacun
des échantillons en appliquant la formule:
s
σi =
c4
_
s moyenne des s sur chaque échantillon.
Le coefficient c4 étant calculé à partir de la distribution du χ²
s2
En effet, le rapport ( n − 1) 2 ≈ χ2
σ
σ
nous avons donc E ( s) = E ( χ n −1 )
n −1
Ce qui est égal à
2 Γ ( n / 2)
E ( s) =
IN
n −1 Γ n −1 / 2
σ

E ( s) = c4 . σ

Cet écart-type instantané peut également être calculé à partir des cartes de
contrôle moyenne/étendue en utilisant le coefficient d2, de la loi de l’étendue réduiteque
nous avons définie au paragraphe 2.1 de ce même chapitre. Ce coefficient permet de
passer de la moyenne des étendues observées, à l’écart-type instantané si par la formule:

R
σi =
d2

Les coefficients c4 et d2 sont fonction de la taille des échantillons (n)

Estimation de l’écart-type global

L’ensemble des valeurs relevées dans la carte est représentatif de la production


qui a été réalisée pendant un temps relativement long (la durée de remplissage de la
carte). En effet, le principe même de remplissage de la carte est de prélever, de façon
régulière, un petit échantillon de pièces. Nous pouvons donc calculer l’écart-type global
à partir de ces valeurs. L'écart-type global est égal à l'écart-type de l'échantillon formé
par l'ensemble des mesures individuelles de la carte de contrôle. On prendra soin de
vérifier la normalité de la population traitée.

LLP - Edition : 11/10/93 Page 2.23


Chapitre 2 - Les principes de base du SPC et leurs limites

LLP - Edition : 11/10/93 Page 2.24


Chapitre 2 - Les principes de base du SPC et leurs limites

2.1.6 Les problèmes du calcul des capabilités à partir des cartes

Le calcul à partir des valeurs individuelles

Il existe de nombreuses confusions dans le calcul des capabilités à partir des


cartes de contrôle. Ainsi, Ford qui est un des leaders dans la promotion de la MSP en
Europe préconise[For 84] de calculer l'écart-type global à partir de la formule
σG = R d 2 que nous employons pour estimer l'écart-type instantané.

Cependant, il faut remarquer que FORD a bien précisé que cette formule ne peut
être employée que lorsque la carte est parfaitement sous contrôle. Ce qui est rarement le
cas. Dans ce cas bien sûr, l'écart-type instantané étant égal à l'écart-type global, la
formule proposée par Ford est correcte. Le problème est que la plupart des utilisateurs
de la MSP utilisent cette formule même lorsque la carte n'est pas sous contrôle. Ils
obtiennent ainsi d'excellents Cpk tout en fabriquant des pièces hors tolérances.

La méthode que nous avons exposée est plus générale et permet d'estimer avec
une bonne précision Cp même lorsque la carte n'est pas parfaitement sous contrôle.
Cependant, cette méthode a un gros inconvénient, car pour pouvoir calculer la
dispersion globale et donc les indicateurs Cp, Cpk, il faut disposer de l'ensemble des
valeurs individuelles. Dans le cas des applications informatiques centralisées, la
conservation de l'ensemble des valeurs individuelles de chaque carte de contrôle sur
plusieurs années pose de gros problèmes de place mémoire.

Pour éviter cet inconvénient, nous avons proposé [Pila93] une autre méthode de
calcul de la dispersion globale, parfaitement identique au calcul sur les valeurs
individuelles, mais qui ne nécessite pas ces dernières. Ce calcul n'est jamais proposé à
notre connaissance dans les publications sur la MSP, il est pourtant relativement simple
et nous l'avons déjà diffusé auprès de plusieurs développeurs de logiciels MSP. Il
permet en effet de gagner un temps important dans les calculs. Nous détaillons ci-
dessous le calcul de la dispersion globale lorsque nous ne connaissons pas les valeurs
individuelles.

Calcul lorsque nous ne connaissons pas les valeurs individuelles

La variance observée sur la production livrée au client (VG) est la somme de la


variance à l'intérieur des échantillons (VR), que nous pouvons estimer à partir de la
carte des étendues ou des écart-types, et de la variance entre les échantillons (VX) due
aux fluctuations de réglage qu'il est possible d'estimer à partir de la carte des moyennes.

La variance globale est égale à :

[Pila93] - Maurice PILLET - Les mesures de capabilité - Technologie et Formation - Janvier 1993

LLP - Edition : 11/10/93 Page 2.25


Chapitre 2 - Les principes de base du SPC et leurs limites

νG . VG = νR . VR + νX . VX

Avec : νG : Nombre de degré de liberté de la variance globale


νR : Nombre de degré de liberté de la variance résiduelle
νX : Nombre de degré de liberté de la variance entre échantillon

Estimation de VR

Dans le cas de la carte présentée en exemple, VR peut être facilement calculée à


partir de la carte des écart-types :

KP
VR = s c4
2

ou de la carte des étendues :


KP
VR = R d 2
2

Le nombre de degré de liberté νR est de (n-1) par échantillon, il est égal à k(n-1)
pour l'ensemble de la carte de contrôle, si k est le nombre d'échantillons de la carte.

Estimation de VX

Pour estimer VX , la variance entre échantillons pour une valeur de l'échantillon,


il suffit de calculer le carré de l'écart-type de la population des moyennes de la carte de
contrôle. Cette variance étant la même pour l'ensemble des valeurs de l'échantillon, nous
trouvons pour l'ensemble de la carte :

VX = n. sX

Le nombre de degré de liberté νR est égal au nombre d'échantillons moins un,


soit νR = k-1

Estimation de VG

Nous tirons en appliquant l'additivité des variances:

L4 Q
k ( n − 1). s c
2
+ n ( k − 1).( s ) 2
x
VG =
( kn − 1)

D'où nous calculons l'écart-type global

LLP - Edition : 11/10/93 Page 2.26


Chapitre 2 - Les principes de base du SPC et leurs limites

L4 Q
2
k ( n − 1). s c+ n ( k − 1).( s ) 2
x
σ =
G ( kn − 1)

Nous pourrions également calculer l'écart-type global à partir de l'étendue


moyenne. Cette estimation est plus imprécise que la précédente mais donne néanmoins
de bons résultats.

k ( n − 1). R d LQ
2
2
+ n ( k − 1).( s ) 2
x
σ =
G ( kn − 1)

Il est alors facile de calculer les indicateurs Cp et Cpk à partir de σG

Notation
• k : nombre d'échantillon
• n : nombre de valeurs par échantillon
• R : moyenne des étendues
• s : moyenne des écart-types
• s X : écart-type de la population des moyennes
• d2, d4 : coefficients qui dépendent de n

2.2. Le concept de capabilité - cas des critères de forme


et de position

2.2.1. le problème des critères de forme

Les critères de forme, comme la circularité, la planéité, ou les critères de position,


comme la perpendicularité, sont par définition bornés en zéro. Ce ne sont pas des
critères symétriques. Or les techniques de calcul des capabilités que nous avons
détaillées au paragraphe 2.1. supposent que le critère soit symétrique et suive une loi de
répartition normale. Les calculs traditionnels ne sont donc pas applicables à ce type de
critère.

Aussi, bien que les critères de forme et de position représentent une part
importante des conditions à remplir dans le cas de produits mécaniques, ils restent assez
peu étudiés dans la bibliographie mondiale. Dans la plupart des procédures MSP des
entreprises, le calcul des capabilités dans le cas des tolérances de forme est calqué sur le
cas des tolérances centrées. Cependant, on ne calcule pas l'indicateur Cp, inutile ici

LLP - Edition : 11/10/93 Page 2.27


Chapitre 2 - Les principes de base du SPC et leurs limites

puisqu'il indique le centrage du procédé par rapport à l'intervalle de tolérance. En fait,


nous faisons dans ce cas, l'approximation que la fonction de répartition des pièces suit
une loi de GAUSS dans la partie supérieure de la courbe. Cette hypothèse n'est pas
toujours vérifiée.

La figure 2.14 illustre le cas des tolérances de forme. La loi de défaut de forme est
exprimée par la valeur absolue d'une loi normale. En effet, le principe même de
l'évaluation des défauts de forme comme la circularité consiste à prendre la valeur
absolue de l'écart entre deux valeurs x et y - le maxi et le mini. Ils sont par définition
toujours positifs. La loi de défaut de forme est donc bornée en 0.

Intervalle de Tolérance

Loi des défauts de forme


TS-M
s S
Loi normale
sous-jacente
m M

D = Dispersion

Figure 2.14 - Le cas des tolérances de forme

Avec

m Moyenne de la loi normale sous-jacente


s Ecart-type de la loi normale sous-jacente
M Moyenne de la loi des défauts de forme (Moyenne des mesures)
S Ecart-type de la loi des défauts de forme
D Dispersion de la loi des défauts de forme

L'identification des capabilités dans le cas de la loi de défaut de forme revient


donc à l'identification de la loi normale sous-jacente. Deux procédures ont fixé les
règles de la détermination des capabilités dans le cas des défauts de forme. Il s'agit des
normes CNOMO et son équivalent Peugeot [Cno 88], [Peu 88] d'une part, et de la
procédure Bendix [Ben 91] d'autre part. Nous n'avons pas trouvé de publications
normatives étrangères sur le sujet.

[Ben 91] - Bendix - Procédure Qualité/Fiabilité EE1 - 23:26 - 1991

LLP - Edition : 11/10/93 Page 2.28


Chapitre 2 - Les principes de base du SPC et leurs limites

2.2.2. Détermination de la fonction de répartition

Le problème que nous devons résoudre pour calculer la dispersion, dans le cas des
défauts de forme, est de trouver m et s de la loi normale sous-jacente. Ces valeurs
doivent être déterminées en fonction de M et de S (moyenne et écart-type de la loi de
défaut de forme)

Considérons deux variables x et y supposées suivre une loi normale de même


écart-type. La valeur absolue de (x-y) suit une loi de défaut de forme et de position
générée par la loi normale sous-jacente de la valeur algébrique de cet écart.

Posons z = x - y, lorsque les deux variables x et y sont indépendantes, z suit une


loi normale

• de moyenne m = ma - mb
(moyenne de la loi normale sous-jacente)
• d'écart-type s = σ 2 + σ 2 = σ. 2 lorsque σ = σ = σ
a b a b
(écart-type de la loi normale sous-jacente)

Lorsque les variables x et y ne sont pas indépendantes, il faut introduire dans


l'addition des variances le correcteur dû à la corrélation qui existe entre les deux
variables (avec r le coefficient de corrélation). La variable z suit alors une loi normale.

• de moyenne m = ma - mb
• d'écart-type s = σ 2 (1 − r )

Dans ces deux cas, il s'agit d'une loi normale de la forme :

z−m 2
1 −1( )
f ( z) = e 2 s
s 2. π

En fait, comme la loi de défaut de forme est par définition toujours positive, il faut
rajouter au cas z > 0, le cas z < 0 (voir figure 2.15). Ce qui revient à ajouter à f(z) centré
sur m, f(z) centré sur -m.

On a donc finalement pour z > 0 :

1
/
0 −1(
z−m 2
) −1(
z+m 2
) 2
3
Φ( z ) =
s 2. π 0
e
0
2 s +e 2 s
3
3
1 4

LLP - Edition : 11/10/93 Page 2.29


Chapitre 2 - Les principes de base du SPC et leurs limites

En faisant le changement de variable a = 1/s, on obtient la fonction de répartition :

a
/
0 − a ( z − m )2
2
− a ( z + m )2 2
3
Φ( z ) = +e 2
2. π 0
e
1 3
4

-m m
D = Dispersion

Figure 2.15 - Fonction de répartition de la loi de défaut de forme

2.2.3. Détermination de la loi normale sous-jacente

Nous cherchons à calculer la moyenne et l'écart-type de la fonction précédente.

Pour cela, on calcule par intégration les moments d'ordre 1

+∞
moyenne = a
−∞
f ( z ) dz

+∞
a fI
JzN
O
2
et d'ordre 2 µ = dz
2
−∞

de la variable réduite z/s pour aboutir aux relations suivantes :

LLP - Edition : 11/10/93 Page 2.30


Chapitre 2 - Les principes de base du SPC et leurs limites

µ
2 = 1 + a2
s

z a + 2 f ( a ) − a (1 − F ( a ))
=
µ (1 + a 2 )
2
µ2 peut être calculé à partir des valeurs mesurées sur le lot contrôlé

∑ z2 2
µ = = ( z + σ2 )
2 N

z est facilement calculée (moyenne des z)


f(a) densité de probabilité en a
F(a) fonction de répartition pour a

On peut donc déterminer "a" à partir de la seconde relation grâce à une table pré-
calculée par intégration numérique. Il suffit ensuite, par la première relation, de calculer
sz, écart-type de la loi normale sous-jacente.

2.2.4. Détermination de la dispersion

On considère, en général, que la dispersion D est telle que la probabilité d'avoir


une pièce d'une cote supérieure à D soit de 0,3%. Ceci est équivalent au cas des cotes
centrées en prenant une dispersion de 6.σ.

D = Dispersion D = Dispersion D = Dispersion

Figure 2.16 - Différentes situations

En fonction de la forme de la courbe, le calcul de la dispersion ne sera pas


identique. On distingue trois situations:

LLP - Edition : 11/10/93 Page 2.31


Chapitre 2 - Les principes de base du SPC et leurs limites

z
1. < 0 , 7978
µ
2

C'est le cas où la moyenne de la loi normale sous jacente est égale à 0. Dans ce
cas, on a pour a=0 :

z a + 2 f ( a ) − a (1 − F( a )) 2 f ( 0) 1
= = = 2. = 0, 7978
µ (1 + a 2 ) 1 2π
2

Cette valeur est contraire aux hypothèses de la loi de défaut de forme. Il faut donc
vérifier si la distribution n'est pas biaisée par des erreurs de mesure, de calcul ou de
relevé.
En cas de confirmation des résultats, on prend D = 2 , 96. µ qui donne une
2
probabilité de 0,3% de pièces hors dispersion pour la loi de défaut de forme générée
(0,308% très exactement).

z
2. 0 , 7978 ≤ ≤ 0 , 825
µ
2

Dans ce cas de figure, la partie négative de la loi normale sous-jacente ne peut pas
être négligée, le calcul de la dispersion générant 0,3% de pièces hors tolérance nécessite
un calcul d'intégration, on utilise, en pratique, des tables pré-calculées pour évaluer la
dispersion. La valeur limite 0,825 est fixé pour a = 1,9.

z
3. 0 , 825 < ≤1
µ
2

Dans ce cas, il faut considérer uniquement la loi normale sous-jacente. La


dispersion est égale à

D = m + u. s
avec u choisi pour 99,7% de la population en unilatéral
Soit D = m + 2,75.s

2.4. Calcul de la capabilité machine


La capabilité machine est calculée dans ce cas par la relation classique :

LLP - Edition : 11/10/93 Page 2.32


Chapitre 2 - Les principes de base du SPC et leurs limites

Intervalle de tolérance
Cm =
Dispersion

3. Critique des indicateurs de capabilité

3.1. Les limites de l'indicateur Cpk


Il est aujourd’hui généralement admis que le Cpk est un critère suffisant
d’acceptation des lots. Nous pensons au contraire que dans certains cas (figure 2.17), un
Cpk de bon niveau (Cpk=2) peut donner moins de satisfaction qu’un Cpk considéré
comme limite (Cpk=1,33). Dans les relations clients/fournisseurs établies sur le Cpk, les
deux productions de la figure 2.17 donnent satisfaction. Et pourtant une des productions
est centrée avec le maximum de la densité de probabilité sur la valeur cible, alors que la
seconde est décentrée et la densité de probabilité pour la valeur cible est pratiquement
nulle.
Nous allons montrer que ces deux productions ne se comportent pas de la même
façon en matière de qualité et qu'il faut donc les différencier. Cette différence prend
encore plus d'importance si les pièces considérées par cette capabilité rentrent dans
l'assemblage de pièces dont la cotation du jeu a été réalisée à partir d'une cotation
statistique. Nous démontrerons au paragraphe 4.2 que le seul respect de l'indicateur de
capabilité Cpk>1,33 peut conduire à des montages impossibles dans le cas d'une
cotation statistique.

Int de Tol Int de Tol

Dispersion Dispersion
Cp=1,33, Cpk =1,33 Cp=4, Cpk =2

Figure 2.17 - Le Cpk n’est pas suffisant pour évaluer la qualité d’un lot

Pour démontrer la différence importante entre les deux populations de la figure


2.17, nous nous appuierons sur la fonction perte de Genichi TAGUCHI.

LLP - Edition : 11/10/93 Page 2.33


Chapitre 2 - Les principes de base du SPC et leurs limites

Le docteur Genichi TAGUCHI a établi une relation entre la répartition d’une


population et la perte pour la société. [Tag 89], [Tag 87] Elle nous permet de
différencier les deux productions.

3.2. Notion de fonction perte


Dans la plupart des entreprises, nous considérons qu'une pièce est bonne à
l’intérieur des tolérances, mauvaise à l’extérieur, sans différence de nuance. En suivant
ce raisonnement, un système de tri automatique éliminant systématiquement les pièces
hors tolérances permettrait d’obtenir une production considérée comme parfaite.

Pourtant si nous considèrons la figure 2.18, quelle est la différence entre les pièces
1 et 2 en terme de coût de non-qualité? Surtout si l’intervalle de tolérance a été fixé de
façon arbitraire. Quelle est également la différence entre les pièces 2 et 3?

Il est évident que la pièce n°3 permettra un fonctionnement parfait et


n’engendrera pas de coût de non-qualité. Il n’en est pas de même pour la pièce n°2.
Nous considérons cependant que la pièce 2 est classée avec la pièce 3 alors qu'à
l'évidence elle est beaucoup plus proche de la pièce 1.

Intervalle de tolérance

1 2 3

Figure 2.18 - Ecart par rapport à la nominale et coût

En fait, la perte due à l’écart d’une caractéristique par rapport à une valeur
nominale n’est pas pas nulle à l’intérieur de la tolérance et infinie à l'extérieure.
TAGUCHI définit la fonction perte (figure 2.19) comme étant une fonction du second
degré si la caractéristique doit suivre une nominale.

[Tag 89] - Taguchi G. - Elsayed A. Elsayed - Thomas Hsiang - Quality engineering in production
systems - Mc Graw-Hill - 1989
[Tag 87] - Genichi Taguchi - System of Experimental design - Vol 1&2 - 1987

LLP - Edition : 11/10/93 Page 2.34


Chapitre 2 - Les principes de base du SPC et leurs limites

Perte pour
L
la "société"

Perte pour
l'écart
Y - Y0
Y

Y Y0
Valeur nominale

Figure 2.19 - Fonction perte de TAGUCHI

La fonction perte s'exprime par L = K (Y - Y0)² avec :

K : une constante qui dépend du problème posé


Y0 : valeur nominale recherchée
Y : valeur prise par la caractéristique

Cette fonction est en fait le développement de Taylor en éliminant les termes


d’ordre supérieur à 2 et en considérant les hypothèses suivantes:

1. la perte est nulle pour Y = Y0 soit L(Y0) = 0


2. la perte est minimale pour Y = Y0 soit L’(Y0) = 0

On a donc L(Y) = L(Y0 + Y - Y0)

L ' ( Y 0) L' ' ( Y 0)


ou L ( Y ) = L ( Y 0 ) + ( Y − Y 0) + ( Y − Y 0 ) ² + ....
1! 2!

Avec les hypothèses précédentes et en négligeant les termes d'ordre supérieur à 2,


on trouve

L ' ' ( Y 0)
L( Y ) = ( Y − Y 0) ² = K ( Y − Y 0) ²
2!

Cette fonction perte est très intéressante pour plusieurs raisons :

1. connaissant la valeur d'une caractéristique, il est enfin possible, grâce à cette


fonction perte, de chiffrer le coût de non-qualité engendrée.
2. la fonction perte ne possédant qu'une inconnue (K), son calcul est possible dès que
nous connaissons un point sur la courbe.

Bien sûr, certains diront que la fonction perte est une estimation grossière de la
réalité, mais Valéry disait déjà "Tout ce qui est simple est faux, tout ce qui est
compliqué est inutilisable". La fonction perte nous semble être une bonne approche.

LLP - Edition : 11/10/93 Page 2.35


Chapitre 2 - Les principes de base du SPC et leurs limites

Perte dans le cas d’un échantillon

Connaissant la perte pour une pièce, il est intéressant de connaître la perte


moyenne par pièce dans le cas d’un échantillon réparti suivant une loi de GAUSS, et
d’écart-type estimé s.

Dans le cas d'un échantillon, la moyenne des écarts au carré (Mean Square
1
Déviation) MSD = ∑ ( Y − Y 0 ) ² )) est égale à s ² + ( Y − Y 0 )
n

En effet :
MSD =
( Y1 − Y 0 ) ² + ... + ( Yn − Y 0 ) ² 1
n
„ Œ 2
= ∑ Yi − Y + ( Y − Y 0 )2
n
Nous trouvons comme expression de la fonction perte dans le cas d'un échantillon
:

/
L = K s2 + (Y − Y ) 2
0 2
3
1 0 4
Avec

L : perte moyenne par pièce


s : écart-type de l’échantillon
Y : Moyenne de l’échantillon
Y0: Valeur nominale cible

3.3. Comparaison de deux situations Cpk =1,33


dans un assemblage

Pour illustrer les limites de la simple utilisation de l'indicateur Cpk comme


référence de capabilité, nous avons comparé deux situations dont la caractéristique doit
être centrée sur 0.

Situation 1

Cp = 1,33
Cpk = 1,33
Production centrée

Situation 2

Cp = 10
Cpk = 1,33
Déréglage côté maxi

LLP - Edition : 11/10/93 Page 2.36


Chapitre 2 - Les principes de base du SPC et leurs limites

Ces deux situations sont aujourd'hui jugées acceptables car Cpk > 1,33.

Hypothèses de départ

H1 : Nous allons considérer une perte de une unité lorsque la caractéristique se


trouve en limite de tolérance.
H2 : Nous considérons la perte symétrique de part et d'autre de la nominale.

En utilisant la fonction perte, nous pouvons alors écrire 1 = K (Y - Y0)² = K(TS)²


où TS est la tolérance supérieure, ce qui nous permet de déterminer le coefficient K

1 2 2
La fonction perte s’écrit L=( ) X
TS

Pour un échantillon d’écart-type σ et de moyenne X , la fonction perte peut


s'écrire

1 2 2 2
L=( ) (σ + X )
TS

Situation 1 : X = 0, σ = IT/8 = TS/4

L=( /
1 2 TS 2
0
) ( ) +0 2
3
TS 14 4
L1 = 1/16 = 0,0625

Situation 2 : X = (24 x TS )/30, σ = TS/30

L=( /
1 2 TS 2
0
) ( ) +(
24 xTS 2 2
3
TS 1
30 30
)
4
L2 = 0,63

La perte moyenne par pièce dans la situation 2 est donc 10 fois plus importante
que dans le cas de la situation 1.

Cet écart peut être expliqué facilement dans le cas d’un assemblage d’un axe avec
un alésage. (Figure 2.20)

LLP - Edition : 11/10/93 Page 2.37


Chapitre 2 - Les principes de base du SPC et leurs limites

Hypothèse 1

L’alésage est réalisé avec une répartition normale centrée sur la valeur nominale.
Les indicateurs de capabilité sont Cp = 1,33 et Cpk = 1,33.

Hypothèse 2

L’arbre est réalisé par deux machines. La machine 1 produit des pièces suivant la
situation 1, la machine 2 suivant la situation 2.

Cp= 1,33 - Cpk = 1,33 Cp= 10 - Cpk = 1,33


Cp=1,33, Cpk =1,33 Situation 1 Situation 2

Figure 2.20 - Assemblage Arbre/Alésage

Nous allons rechercher la probabilité d’assemblage d’un arbre avec un alésage,


issu de cette répartition, et qui soient assemblés dans les conditions limites suivantes :

• la cote de l'arbre est située dans le tiers supérieur de l’intervalle de tolérance,


• la cote de l'alésage est située dans le tiers inférieur de l’intervalle de tolérance.

Situation 1
Arbre Alésage
Prob tiers supérieur Prob tiers inférieur

u = 1,33 (Variable réduite) u = -1,33 (Variable réduite)


p1 = 0,0918 p2 = 0,0918

Probabilité d’assemblage Tiers Sup/Tiers Inf p = p1.p2 = 8.4E-3

Situation 2
Arbre Alésage

LLP - Edition : 11/10/93 Page 2.38


Chapitre 2 - Les principes de base du SPC et leurs limites

Prob tiers supérieur Prob tiers inférieur

u = -14 u = -1,33
p1 = 1 p2 = 0,0918

Probabilité d’assemblage Tiers Sup/Tiers Inf p = p1.p2 = 0,0918

La probabilité d’assemblage Tiers Sup/Tiers Inf est 10 fois plus importante dans
le cas 2 que dans le cas 1. Nous prétendons que la situation 2 est plus défavorable pour
un fonctionnement optimal des produits que la situation 1. En effet, l'arbre sera à une
cote maxi alors que l'alésage sera à une cote mini. Pourtant, Cpk est égal à 1,33 dans les
deux cas. L’utilisation unique du Cpk ne conduit pas à une bonne conclusion.

LLP - Edition : 11/10/93 Page 2.39


Chapitre 2 - Les principes de base du SPC et leurs limites

4. Notre proposition d’amélioration

Pour éviter les situations que nous venons de décrire, nous allons proposer dans ce
paragraphe une nouvelle façon d'interpréter les indicateurs de capabilité. Nous
introduirons deux nouveaux indicateurs de rendement, Rr le Rendement de Réglage et
Rm le rendement de maîtrise. Nous montrerons également que le respect de certaines
conditions sur ces indicateurs de capabilité peut améliorer grandement la qualité des
assemblages, notamment dans le cas où le bureau d'étude a utilisé une cotation
statistique.

4.1. Définition du Rendement de Réglage Rr


4.1.1 Présentation du rendement Rr

L'objectif de ce calcul de rendement est d'établir un lien entre l'indicateur Cp et


l'indicateur Cpk. Pour exprimer le rapport entre Cpk et Cp, nous avons défini un
rendement de réglage Rr [Pila91] [Pilb91] qui exprime la perte de capabilité suite au
déréglage.

Cpk
Rendement de réglage Rr % = x100
Cp

En effet, lorsqu'un procédé est parfaitement centré (situation 1 du paragraphe 3.3),


nous avons la relation Cpk = Cp et donc Rr% = 100%.

Lorsque le procédé est largement décentré, Cpk est alors très inférieur à Cp
(Situation 2 du paragraphe 3.3). Ainsi nous avons, pour Cp = 10 et Cpk = 1,33, un
rendement de réglage Rr% = 13%

L'objectif de ce paragraphe est de démontrer qu'une bonne maîtrise de la qualité


implique le respect de certaines conditions qu'il est aisé d'exprimer avec notre
coefficient Rr.

4.1.2. Condition de capabilité sur le rendement Rr

[Pila91] - Maurice Pillet - Les pièces des mesures de capabilité - Journée des CPIM de France Actes de
conférences - Paris - 1991
[Pilb91] - Maurice Pillet - Les mesures des capabilité - Revue Contrôle industriel & Qualité - 1991

LLP - Edition : 11/10/93 Page 2.40


Chapitre 2 - Les principes de base du SPC et leurs limites

Nous allons utiliser cette fonction perte pour établir une condition de capabilité
sur le coefficient Rr
Situation de référence

La situation pour laquelle Cp = Cpk = 1,33 peut être considérée comme une
situation basique dont la perte devrait être la perte maximale admise. Nous chercherons
systématiquement à obtenir une production dont la perte sera inférieure à ce cas que
nous appellerons "situation de référence". Nous rappelons en figure 2.21 cette
situation.

Int de Tolérance = 8 x σ

Dispersion = 6 x σ
Cp=1,33, Cpk =1,33

Figure 2.21 - Situation de référence Cp=Cpk=1,33

Nous avons vu que dans la situation de référence (situation 1 du paragraphe 3.3),


nous obtenions une perte :

L = 1/16 = 0,0625

Situation quelconque

La situation de référence exprime la capabilité minimale que l'on peut attendre


d'un procédé. La perte dans cette situation est égale à 1/16.

Il faut donc que toutes les situations de capabilité induisent une perte inférieure à
la perte dans le cas de l'exigence minimale (situation de référence).

Nous allons rechercher, en fonction du Cp, le Cpk minimum admissible pour


obtenir une perte égale à la situation de référence.

Pour une situation donnée, écrivons l'inéquation sur la fonction perte en utilisant
l'expression obtenue au paragraphe 3.3 :

1 2 2 2 1
L=( ) (σ + X ) <
TS 16

2 TS
X < ( )2 − σ 2
4

LLP - Edition : 11/10/93 Page 2.41


Chapitre 2 - Les principes de base du SPC et leurs limites

Si nous considérons une population centrée, l'intervalle de tolérance est IT = 2xTS

2 IT 2
D'où X <( ) − σ2
8

IT
que nous exprimons en fonction de Cp en utilisant la relation Cp =

2
X < σ2 ( /
3xCp 2
0 ) −1 2
3
14 4
D’où nous tirons

3xCp 2
X<σ ( ) −1
4

X < σ. F ( Cp )

La fonction F(Cp) représente alors la variable réduite de la loi normale associée


au déréglage maximal admis.

Nous pouvons alors exprimer Cpk en fonction de Cp et du coefficient K dans le


cas de l'égalité de la perte avec la situation de référence :

TS − X TS − σ . F ( Cp )
Cpk = =
3. σ 3. σ

IT 2.TS
Cp = = d ' ou TS = 3.Cp. σ
6. σ 6. σ

3.Cp - F(Cp)
Cpk >
3

Cette relation donne le Cpk minimum admissible en fonction de Cp pour respecter


la condition sur la fonction perte.

Pour simplifier cette relation, nous allons utiliser le rendement de réglage Rr que
nous avons défini au paragraphe 4.1.1.

Cpk
Rendement de réglage Rr =
Cp

LLP - Edition : 11/10/93 Page 2.42


Chapitre 2 - Les principes de base du SPC et leurs limites

Dans le cas de l'égalité entre la perte de référence (que nous avions défini comme
le cas d'une population centrée Cp=1,33 et Cpk = 1,33) nous exprimons Rr par
l'expression :

3xCp 2
( ) −1
F( Cp) 4
Rr > 1 − = 1−
3. Cp 3Cp

1
D'où Rr > 1 − ( 1 4 ) 2 −
( 3. Cp) 2

Rr est donc une fonction de Cp qui a pour limite lorsque Cp tend vers l'infini :

lim ( Rr ) = 1 − 14 = 0 , 75
Cp → ∞

Dans le tableau ci-dessous, nous avons calculé l’ensemble des F(Cp), Cpk et Rr
en fonction de Cp :

Cp 1,33 1,67 2 3 4 5 6 7 8 9 10
F(Cp) 0,00 0,75 1,12 2,02 2,83 3,61 4,39 5,15 5,92 6,68 7,43
Cpk mini 1,33 1,42 1,63 2,33 3,06 3,8 4,54 5;28 6,03 6,77 7,52
Rrmini% 100 85 81 78 76 76 76 75 75 75 75

Figure 2.22 - détermination de Rrmini

On note que très rapidement, comme le montre la fonction, le rendement


minimum converge vers un rendement de 75% ce qui permet de retenir la règle simple
suivante :

Pour ne pas générer une perte supérieure à la perte de référence,

lorsque Cp est inférieur à 3, le rendement de réglage Rr doit être supérieur au


rendement de réglage mini donné dans le tableau figure 2.22.

Lorsque Cp est supérieur à 3, le rendement de réglage (Rr) doit être supérieur à


75%

L'utilisation de ce coefficient Rr induit bien sûr une condition supplémentaire à


respecter pour les productions. Il ne suffit plus de disposer d'une machine capable
quelque soit le centrage, mais il faut respecter un centrage minimum en fonction de la
capabilité. Le contrat classique qui demande Cpk supérieur à 1,33 quel que soit le Cp
nous semble donc insuffisant. Il faut définir le Cpk minimum en fonction du Cp. Dans

LLP - Edition : 11/10/93 Page 2.43


Chapitre 2 - Les principes de base du SPC et leurs limites

le cas contraire, on s'expose à des risques importants en matière de qualité comme nous
le montrerons ci-dessous.

4.1.3 Cas des tolérances uni limites

Dans le cas des tolérances uni limites, la notion de centrage n'existe pas, par
définition même, puisque nous cherchons à nous éloigner le plus possible de la limite. Il
ne sera pas possible de définir le coefficient de réglage dans le cas des caractéristiques
uni limites.

4.2 Intérêt de notre coefficient Rr dans le cas d'une


cotation statistique
Nous avons montré, dans le paragraphe précédent, que l'indicateur Cpk n'est pas
toujours le bon indicateur pour satisfaire la qualité des produits. Nous montrons, dans
celui-ci, un cas d'application de notre coefficient Rr dans le cas d'une cotation
statistique [Pilb93].

4.2.1 Rappel sur la cotation statistique [Sou 82]

La cotation statistique permet par l'application du théorème d'additivité des


variances d'augmenter de façon assez considérable les intervalles de tolérance en
production. Rappelons brièvement le principe de cette cotation statistique.

[Pilb93] - Maurice Pillet - Cotation statistique et SPC - Journées de la cotation - Annecy - Avril 1993 - 11
pages
[Sou 82] - Pierre Souvay - Cotation d'étude et de fabrication, Calcul d'erreur - Techniques industrielles
n° 133 - 1982 - 41 Pages

LLP - Edition : 11/10/93 Page 2.44


Chapitre 2 - Les principes de base du SPC et leurs limites

A
B C D

J = 1±0,2

Figure 2.23 - Ensemble servant d'exemple


Considérons l'ensemble de la figure 2.23 composée de quatre éléments A, B, C et
D. Le jeu fonctionnel est de 1±0,2. Le calcul classique de la répartition du jeu
fonctionnel sur les autres pièces de l'ensemble donnerait :

ITJ = ∑ IT soit en supposant la répartition des jeux identique sur les quatre
Cotes
éléments de l'ensemble :

0,4 = 4 x ITpièce d'où ITpièce = 0,1

Le principe de la cotation statistique repose sur le théorème d'additivité des


variances qui est le suivant :

"La variance de la somme de variables aléatoires indépendantes est égale à la


somme des variances des composantes"

Le jeu J est la résultante des cotes des composants de l'ensemble. De plus, nous
pouvons retenir, sans trop de difficultés, l'hypothèse d'indépendance de chacune de ces
cotes si les pièces sont fabriquées de façon indépendantes. Nous pouvons donc
appliquer le théorème d'additivité des variances pour calculer la dispersion obtenue sur
le jeu.

Jeumoyen = AMoyen - BMoyen - CMoyen - DMoyen


VJeu = Σ VPièces

D'où nous tirons

σ = σ2 + σ 2 + σ2 + σ2
Jeu A B C D

LLP - Edition : 11/10/93 Page 2.45


Chapitre 2 - Les principes de base du SPC et leurs limites

Si nous considérons pour simplifier que les dispersions de fabrication sur les
quatre pièces sont identiques, nous pouvons alors écrire :

σ = 4 xσ 2 = 2 xσ
Jeu Pièce Pièce

D'où nous tirons

σ = 1 .σ
Pièce 2 Jeu

Ce résultat bien connu, permet de doubler l'intervalle de tolérance sur chacune des
pièces de l'ensemble par rapport à un calcul classique des jeux.

En effet, si nous souhaitons une dispersion sur le jeu telle que ITJeu = 8xσJeu, il
faudra que la production assure que la dispersion de production sur chacune des pièces
est telle que ITPièce =8xσPièce. Mais il faudra également que la production ne soit pas
trop décentrée.

La cotation statistique induit ainsi des modifications importantes en ce qui


concerne la répartition des pièces en production. Il est donc nécessaire avant d'appliquer
celle-ci de vérifier si tout est bien verrouillé pour permettre d'élargir sans risque les
intervalles de tolérance.

Cependant, lorsque nous écrivons la relation :

Jeumoyen = AMoyen - BMoyen - CMoyen - DMoyen

Nous faisons l'hypothèse que les pièces constituant l'ensemble seront centrées sur
la nominale. En ne prenant que le Cpk comme indicateur de capabilité, rien n'assure que
cette hypothèse sera vérifiée.

4.2.2. Les inconvénients d'un non-respect du coefficient Rr

Considérons l'exemple de la figure 2.23.

Hypothèses

• Les intervalles de tolérance pour chaque pièce sont égaux entre eux.
• L'intervalle de tolérance sur une pièce est égal à la moitié de l'intervalle de
tolérance sur le jeu.

LLP - Edition : 11/10/93 Page 2.46


Chapitre 2 - Les principes de base du SPC et leurs limites

• La pièce A est fabriquée avec Cp=1,5 et Cpk = 1,5. Soit une production correcte
et centrée.
• Les pièces B, C et D sont fabriquées avec Cp = 3 et Cpk = 1,33. Le décentrage est
toujours côté maxi. On a donc la répartition illustrée sur la figure 2.24.

18.σ
Tolérance 5.σ Tolérance
Inférieure Supérieure

6.σ
σ

Figure 2.24 - Répartition de la production sur les pièces B, C et D


La production est satisfaite, les critères de capabilité sont respectés. Mais
comment se situera le jeu fonctionnel?

Calculons le Jeu Moyen :

J = A − (( B + 5. σ ) + ( C + 5. σ ) + ( D + 5. σ ))
Moyen
J = A − B − C − D − 15σ
Moyen

Calculons la variance sur le Jeu

V = V + V + V + V = 4. V
Jeu A B C D
σ = 2. σ
Jeu

L'intervalle de tolérance sur le jeu étant le double de l'intervalle de tolérance sur


une pièce, nous trouvons alors la situation suivante :

36.σ
Tolérance
15.σ Tolérance
Inférieure
Supérieure

6.σJeu=12.σ

LLP - Edition : 11/10/93 Page 2.47


Chapitre 2 - Les principes de base du SPC et leurs limites

Figure 2.25 - Répartition finale du jeu

Ce qui correspond à p(u=1,5) = 6,68% de jeu hors intervalle de tolérance.

L'exemple que nous venons de prendre n'est pas caricatural. La pièce A était
considérée comme centrée, et les écarts utilisés entre Cp et Cpk relativement modestes.
La démonstration pourrait être plus révélatrice si nous avions pris le même Cpk avec Cp
encore plus grand.

4.2.3. Application à l'exemple du respect de Rr

Dans l'exemple que nous avons utilisé, nous avions pris comme hypothèse Cp = 3
et Cpk=1,33. Si la production avait respecté le rendement de réglage mini (Rrmini
figure 2.22), le Cpk serait de 2,33. Ce qui correspond à un décentrage de 2xσ.

Dans ce cas, le décentrage sur le jeu n'aurait été que de 6xσ. Ce qui correspond à
la figure 2.26.

36.σ
Tolérance
6.σ Tolérance
Inférieure
Supérieure

6.σJeu=12.σ

Figure 2.26 - Décentrage maximum sur le jeu dans le cas du respect du Rr

Nous notons ici, que le jeu fonctionnel serait respecté même dans le cas extrême.
Les indicateurs de capabilité sur le jeu fonctionnel seraient : Cp = 3, Cpk = 2. Ce qui est
très satisfaisant par rapport aux résultats de la première simulation. Ces résultats nous
permettent d'appuyer l'intérêt de développer l'utilisation de l'indicateur Rr dans les
ateliers de fabrication.

L'utilisation du coefficient Rr permet implicitement de vérifier que les deux


hypothèses de base de la cotation statistique (variance et centrage) sont bien respectées.

4.2.4. Conclusion de cette étude

LLP - Edition : 11/10/93 Page 2.48


Chapitre 2 - Les principes de base du SPC et leurs limites

L'usage de la cotation statistique dans les bureaux d'études est extrêmement risqué
si la seule condition de capabilité est le respect du Cpk. Pour assurer un montage
sans risque, il faut introduire une nouvelle condition de capabilité Rr > Rrmini

LLP - Edition : 11/10/93 Page 2.49


Chapitre 2 - Les principes de base du SPC et leurs limites

4.3. L'indicateur de maîtrise des procédés Rm

4.3.1. Définition de l'indicateur Rm

L'observation d'un processus de production au cours du temps nous permet de


définir deux types de dispersion (Figure 2.17) :

• la dispersion instantanée,
• la dispersion globale.

La différence entre la dispersion instantanée et la dispersion globale provient des


variations de consignes qui auront lieu au cours de la production. Plus le procédé est
maîtrisé, plus ces variations de consignes seront faibles. En effet, un écart important
entre la dispersion instantanée et la dispersion globale indique que la machine n'est pas
maîtrisée, et que nous ne sommes pas capables de maintenir la consigne sur la valeur
cible (Figure 2.27).

Cote Cote Dispersion


Dispersion
instantanée instantanée
Dispersion
Dispersion globale
globale
Variation de consigne
Variation de consigne

Temps Temps
Procédé non maîtrisé Procédé maîtrisé

Figure 2.27 - Procédé maîtrisé et non maîtrisé

Nous avons vu au paragraphe 1 que la capabilité machine (Cm) établissait le


rapport entre la tolérance et la dispersion instantanée alors que la capabilité procédé
(Cp) établissait le rapport entre la tolérance et la dispersion globale. La chute de
capabilité entre la capabilité machine et la capabilité procédé est donc imputable à la
maîtrise du procédé.

Pour refléter cette chute de capabilité, nous proposons de définir un rendement de


maîtrise du procédé, que nous appelons Rm, est qui a pour définition :

Cp
Rm% = 100.
Cm

LLP - Edition : 11/10/93 Page 2.50


Chapitre 2 - Les principes de base du SPC et leurs limites

4.3.2. Interprétation de l'indicateur Rm

Le rendement Rm est calculé en établissant le rapport entre Cp et Cm. Ce


rendement est très instructif sur la maîtrise que nous avons du procédé. En effet, en
MSP, maîtriser un procédé revient à éliminer le plus possible les causes spéciales qui
agissent sur les variations de consignes. Si les grandes variations de consignes sont
évitées, alors, la perte de capabilité entre le court terme et le long terme sera minime, et
le rendement de maîtrise du procédé sera bon. En revanche, si le procédé n'est pas
maîtrisé, la position moyenne prise par le procédé variera largement au cours de la
production, et le rendement de maîtrise du procédé sera médiocre.

L’expérience montre qu’un procédé sous contrôle possède un rendement de


maîtrise du procédé supérieur à 75%.

Exemple : Cm = 2,5 et Cp = 2
2
Nous avons un rendement de maîtrise Rm% = .100 = 80%
2, 5

Un rendement inférieur à 70% est révélateur de l’existence de grandes variations


sur la moyenne du procédé qui ne sont pas corrigées par l’opérateur.

Exemple : Cm = 2,5 et Cp = 1
1
Nous avons un rendement de maîtrise Rm% = .100 = 40%
2, 5

4.4. Interprétation des chutes de capabilité à partir des


indicateurs Rr et Rm
Lorsque nous calculons des indicateurs de capabilité, il ne suffit pas d’afficher des
chiffres, il faut les interpréter. Pour cela, il est utile de comparer les trois indicateurs de
base: Cm, Cp, Cpk. La chute de capabilité qui existe entre eux est riche
d'enseignement. Nous pensons, à ce propos, que la plupart des industriels qui utilisent la
MSP, ne se penchent pas assez sur ces indications.

4.4.1. La chute des capabilités

L'analyse des chutes de capabilité pour un procédé est souvent très intéressante.
En effet, nous partons d'une machine avec un potentiel de capabilité Cm pour arriver à

LLP - Edition : 11/10/93 Page 2.51


Chapitre 2 - Les principes de base du SPC et leurs limites

un produit livré au client avec une capabilité Cpk. L'important est bien entendu d'avoir
un Cpk supérieur à 1,33. Si ce n'est pas le cas, il est fondamental pour résoudre le
problème de déterminer l'origine de ce manque de capabilité.

Machine
Cm
Procédé
Rm%
Cp

Rr% Procédé
Cpk > 1,33

Perte de capabilité

Figure 2.27 - La chute des capabilités

La chute de capabilité entre Cm et Cp traduit la maîtrise du procédé. Nous avons


traduit cette chute de capabilité par le rendement Rm%.

Nous avions vu précédemment que la chute de capabilité entre Cp et Cpk était due
au déréglage. Nous avons traduit cette chute de capabilité par le rendement Rr%.

L'objectif de la maîtrise des procédés est donc de disposer au départ d'une


capabilité machine suffisante (Cm > 2,4) et de tout mettre en oeuvre pour conserver les
rendements Rm et Rr supérieur à 75%. Dans le cas où les deux rendements sont à 75%,
l'exigence minimale pour la capabilité machine est alors de 1,33/0,75²=2,4

4.4.2. Le tableau des capabilités et son interprétation

La synthèse des capabilités peut être résumée dans un tableau des capabilités très
utile pour orienter les actions de progrès. Supposons que nous travaillons sur un produit
pour lequel nous surveillons cinq caractéristiques. Pour préparer une réunion sur ce
produit, l'animateur établit le tableau des capabilités que nous trouvons en figure 2.28.
Ce tableau existe malheureusement trop rarement dans les sociétés où les indicateurs de
capabilités restent à notre avis sous-exploités.

Ce tableau permet une appréhension immédiate des problèmes de capabilité lors


de la réunion pour peu que l'ensemble des personnes concernées aient été formées à la
notion de capabilité. Nous avons grisé dans le tableau tous les cas de figure où les
indicateurs de rendement sont inférieurs à 75% et tous les cas de figure où le Cpk est
inférieur à 1,33. Chaque caractéristique ayant une case grisée doit être discutée pour
permettre une amélioration.

LLP - Edition : 11/10/93 Page 2.52


Chapitre 2 - Les principes de base du SPC et leurs limites

Caractéristiques Cm Cp Cpk Rm Rr
1 - Ø 10±0,05 2,5 2,2 1,9 0,88 0,86
2 - Ø 12±0,05 2,5 1,1 1,0 0,44 0,91
3 - Ø 8±0,02 1,1 0,9 0,8 0,81 0,88
4 - L 20±0,06 3,2 2,5 1,1 0,78 0,44
5 - L 10±0,04 2,5 2,2 1,6 0,88 0,72

Figure 2.28 - Tableau des capabilités

L'interprétation du tableau figure 2.28 est la suivante :

Caractéristique 1 : aucun problème, le Cpk est supérieur à 1,33 et les rendements


de réglage et de maîtrise sont excellents.

Caractéristique 2 : le rendement de maîtrise du procédé est très mauvais, mais la


machine est capable. Il faut maîtriser les variations de consigne au cours du
temps. Une surveillance du procédé par cartes de contrôle s'impose.

Caractéristique 3 : le Cpk est médiocre et pourtant les rendements ne sont pas


mauvais. Cela signifie que l'on part d'une capabilité court terme insuffisante. Une
action méthode ou maintenance s'impose. Nous ne pouvons probablement pas
résoudre le problème dans l'atelier. Il faut, soit modifier la gamme de fabrication,
soit réparer la machine dans le cas d'une détérioration de la capabilité machine par
rapport à la capabilité machine historique.

Caractéristique 4 : le mauvais rendement de règlage s'explique par un Cpk


inférieur à 1,33. Il est souvent aisé de remédier à ce type de problème en
maitrisant mieux le centrage de la caractéristique. Une surveillance par cartes de
contrôle s'impose.

Caractéristique 5 : une amélioration est encore possible. Le rendement de


réglage est inférieur à 75%. Bien que le Cpk soit supérieur à 1,33, ce cas de figure
génère une perte supérieure au cas Cp = 1,33 et Cpk = 1,33 comme nous l'avons
détaillée au paragraphe 4.

Le tableau des capabilités est donc très simple à interpréter. Nous avons participé
à la mise en place de procédures incluant l'utilisation systématique du tableau des
capabilités dans de nombreuses entreprises. Notre expérience nous permet de penser
que l'utilisation systématique du tableau des capabilités est très riche. L'interprétation
des chutes de capabilité avec les rendements Rm et Rr est facilement assimilée par la
maîtrise de la production et par les opérateurs, ce qui permet un débat riche en
conclusions pratiques.

LLP - Edition : 11/10/93 Page 2.53


Chapitre 2 - Les principes de base du SPC et leurs limites

5. Conclusion de ce chapitre
Ce chapitre avait pour objectif de présenter les bases de la MSP et notamment le
pilotage des procédés par cartes de contrôle et le calcul des capabilités.

Nous avons explicité les deux cartes de contrôle traditionnelles qui nous serviront
dans la suite de notre travail c'est-à-dire les cartes de contrôle de Shewhart et les cartes
CUSUM. Ces cartes qui sont utilisées à une large échelle dans les entreprises ont
prouvé leur efficacité pour l'amélioration de la qualité des produits. Les deux cartes
CUSUM et Shewhart ont chacune leur domaine d'application bien particulier. CUSUM
est adaptée aux faibles dérives alors que Shewhart est adaptée aux dérives rapides. Nous
utiliserons largement ces propriétés lorsque nous chercherons une méthode pour adapter
les cartes de contrôle au cas des petites séries.

Le second paragraphe nous a permis de développer les indicateurs de capabilité


traditionnellement utilisés dans les entreprises. Cette présentation nous a permis de
soulever au troisième paragraphe les limites de l'exploitation actuelle de ces indicateurs.
Nous avons ainsi pu mettre en évidence que certaines productions considérées comme
très acceptables pouvaient en fait coûter beaucoup plus chères à l'entreprise que d'autres
productions jugées plus sévérement par l'indicateur Cpk.

Nous avons ainsi développé, au quatrième paragraphe, notre proposition


d'amélioration dans l'interprétation des indicateurs de capabilité en introduisant deux
nouveaux indicateurs de rendement Rr et Rm. Nous avons également montré la
pertinence de l'interprétation que nous proposons notamment dans le cas des cotations
statistiques qui nous semble aujourd'hui très dangereuses. Nous avons également
proposé un tableau d'indicateur de capabilité, incluant les rendements Rm et Rr, qui
facilite l'analyse de la chute des capabilités.

Les limites de l'utilisation de la MSP

Le développement de la MSP dans les ateliers de production reste une priorité


pour l'amélioration du niveau de qualité de nos productions. Cependant, ce
développement se heurte à deux limites:

• l'adaptation des outils existants en fonction de la typologie de l'entreprise


notamment dans le cas des productions en petites séries,
• l'adéquation entre les compétences statistiques des opérateurs et le développement
de nouveaux outils.

LLP - Edition : 11/10/93 Page 2.54


Chapitre 2 - Les principes de base du SPC et leurs limites

Si l'utilisation des outils statistiques est aujourd'hui largement répandue dans les
entreprises où les productions sont importantes, il n'en est pas de même dans les
entreprises dont la production est plus restreinte. En effet, les outils statistiques adaptés
à la production sont des outils qui ont été développés principalement pour les fabricants
automobiles dont les productions sont importantes.

Or, aujourd'hui, de nombreuses entreprises qui ont des productions relativement


faibles en terme de série, cherchent à appliquer les outils qui ont réussis dans le cas des
grandes séries. Cela ne peut se faire sans adaptation, et les travaux de recherche dans ce
domaine sont relativement peu nombreux.

Il est donc nécessaire de développer de nouveaux outils, mais en gardant bien à


l'esprit l'objectif final qui reste l'utilisation de ces développements sur les postes de
travail. Les opérateurs n'ont pas nécessairement les compétences statistiques
nécessaires, et il faut, par le biais d'outils graphiques, informatiques ou autres, leur
permettre d'utiliser l'outil statistique en masquant la théorie sous-jacente.

Le travail que nous présenterons au chapitre 4 se situera dans cet optique. Nous
chercherons à adapter les outils que nous avons développés dans ce chapitre aux cas des
productions en petites séries. Ce développement sera réalisé en essayant de garder la
simplicité de mise en oeuvre et d'analyse qui a fait la réussite de la MSP dans le cas
traditionnel.

LLP - Edition : 11/10/93 Page 2.55


Chapitre 3 - Le cas des petites séries

Chapitre 3

Le cas des petites séries

1. Introduction
Les apports de la MSP dans le cas des productions en grandes séries ne sont plus à
démontrer. Cette méthode connaît aujourd’hui un développement important grâce au
formalisme qu’elle amène dans la conduite des procédés. Les entreprises qui ont su
appliquer cette méthodologie avec rigueur témoignent aujourd’hui de la grande
efficacité de la démarche. Cependant, l’application de cette méthode connaît quelques
difficultés pour étendre son champ d'application au-delà des grandes et des moyennes
séries. Ces difficultés ont plusieurs origines dont les principales sont les suivantes :

• les cartes de contrôle traditionnelles sont inadaptées au cas des petites séries,
• la méconnaissance de la dispersion du procédé du fait même des petites séries
parfois non renouvelables,
• la difficulté d'introduire un formalisme dans les entreprises dont le travail se fait
de façon artisanale.

Pourtant, une grande partie de la production industrielle repose sur une


organisation de type "petites séries". De plus, la mise en place des concepts de Juste-à-
Temps, va dans le sens de la diminution de la taille des lots. De même la diversification
des produits, amène les industriels à réduire la taille de leur cycle de production.
Nombreuses sont les entreprises qui ont vu la taille moyenne de leurs lots de fabrication
entre deux changements de séries se réduire par un facteur 5 au cours de ces 10
dernières années. Cette évolution, semble irréversible. Avec l'évolution des

LLP - Edition : 26/03/2004 Page 3.1


Chapitre 3 - Le cas des petites séries

technologies, nos entreprises continueront d'évoluer vers une production par lots
toujours plus petits. Certains spécialistes affirment même, aujourd'hui, que la plupart
des entreprises de demain seront capables de produire avec des lots réduits à l'unité.

Ce changement de typologie de production pose un nouveau problème aux


industriels. Peut-on étendre le bénéfice de la démarche MSP dans le cas des petites
séries qui représentent une part importante de l’activité industrielle? En effet, on peut se
poser la question sur l'avenir de l'utilisation de la MSP dans nos entreprises de demain si
celui-ci n'est pas adapté aux productions par petits lots [Fos 91]. L'enjeu est
considérable. Nous sommes en face d'une réalité qui évolue vers des séries de plus en
plus petites, et d'un autre côté, nous disposons, en matière d'outil de pilotage et de
maîtrise des procédés, que de méthodes adaptées aux grandes séries. Si des travaux
importants ne sont pas réalisés en matière de méthodes et d'outils adaptés aux séries
courtes, le danger est grand de voir le niveau de qualité de nos productions industrielles
diminuer en corrélation avec la taille des lots.

Par contre, si nous sommes capables d'adapter nos connaissances aux cas des
petites séries le maintien ou même l'amélioration du niveau de qualité nous permettra de
continuer notre démarche de progrès en matière de flexibilité. Mais outre le gain
immédiat sur la qualité des produits, la mise en place d'outils amenant plus de
formalisme dans le suivi des procédés peut apporter d'autres bénéfices non moins
importants.

• L'amélioration de la productivité par un meilleur pilotage des procédés. En


effet, dans le cas des petites séries, un temps considérable est perdu en tâtonnements
pour trouver le bon réglage. L'utilisation d'un outil d'aide au pilotage permettrait de
trouver plus rapidement le bon réglage, d'éviter les réglages inutiles, et donc d'améliorer
la productivité.

• La diminution des rebuts souvent importants dans le cas des petites séries. Du
fait même des tâtonnements, les méthodes de production artisanales engendrent de
nombreux rebuts. Outre le fait que ces rebuts font baisser la productivité, ils engendrent
des coûts non négligeables. C'est notamment le cas des entreprises travaillant pour
l'aéronautique pour lesquelles le coût d'une pièce peut aller jusqu'à plusieurs milliers de
francs.

• L'amélioration de la traçabilité des productions qui nécessite d'écrire,


d'enregistrer des données. Le simple fait d'écrire sur une carte de contrôle, par exemple,
permet d'améliorer le suivi des lots. L'intérêt de créer une traçabilité par l'outil de
pilotage est de ne plus enregistrer simplement pour conserver des informations, mais
enregistrer pour le pilotage - donc un gain direct pour l'opérateur - la traçabilité n'étant
qu'un "sous-produit" important de la technique de pilotage.

[Fos 91] - G. K. Foster - Implementing SPC in low volume manufacturing - Statistical Process Control
in Manufacturing - Dekker - 7:23 - 1991

LLP - Edition : 26/03/2004 Page 3.2


Chapitre 3 - Le cas des petites séries

• Un meilleur suivi de l'outil de production. Le suivi des capabilités est


aujourd'hui un préalable indispensable pour une entreprise qui souhaite maîtriser son
outil de production. Deux solutions lui sont offertes. La première consiste à planifier de
façon régulière un essai pour mesurer la capabilité de ses outils de production. Cette
méthode coûte chère, elle est difficile à mettre en oeuvre, et de plus, rien n'assure que la
semaine qui suit le test, la machine déclarée capable le soit encore. La seconde
méthode, que nous préférons, consiste à utiliser les données des cartes de contrôle pour
calculer les capabilités. Encore une fois, on utilise les données enregistrées lors du
pilotage de la machine pour suivre les capabilités de celle-ci. Le suivi en continu des
capabilités des moyens de production permet ainsi une meilleure maintenance
préventive. Ce bénéfice entraîne sur le long terme des gains importants en capabilité.

Il est clair que la mise en place de la MSP sur les moyens de production dans le
cas des petites séries permettra une avancée importante non seulement en qualité, mais
en maintenance, en traçabilité, en productivité, et en coût. Il est donc indispensable
d'adapter les méthodes qui ont fait leurs preuves dans le cas des grandes séries pour le
cas des petites séries.

Afin de mettre en évidence les limites de la démarche par tâtonnement, nous


présenterons dans ce chapitre la démarche traditionnelle adoptée dans les cas de
réalisation de petites séries de 10 pièces. Cette étude nous permettra d'analyser , et de
trouver les outils qui seraient nécessaires pour aider l'opérateur dans sa démarche de
pilotage.

Nous étudierons ensuite l'ensemble des méthodes actuellement publiées qui


permettent d'étendre la MSP aux cas des petites séries afin d'analyser l'adéquation entre
les méthodes proposées et le besoin des industriels au travers d'une typologie des
productions en petites séries.

LLP - Edition : 26/03/2004 Page 3.3


Chapitre 3 - Le cas des petites séries

2. Typologie des petites séries

2.1. Le besoin d'une classification


L'appellation "petites séries", rassemble en fait, sous un même nom, plusieurs
concepts. Aussi, avant de développer les méthodes existantes pour appliquer la MSP au
cas des petites séries, nous tenterons de faire une classification des différents types de
petites séries. Comme nous le détaillerons dans les paragraphes suivants, de nombreuses
méthodes existent pour appliquer la MSP au cas des petites séries. Cependant, chaque
méthode a un domaine d'application restreint. Il est donc nécessaire d'étudier les
différentes classes de petites séries, afin de vérifier si chaque classe dispose d'une
méthode adaptée à sa spécificité.

Le tableau de classification que nous nous proposons d'établir nous permettra de


mettre en évidence les domaines où de gros progrès restent à faire pour permettre
d'introduire les techniques statistiques dans nos entreprises.

2.2. Les critères de classification


Pour établir les différent types de petites séries, nous avons retenu quatre critères
de classification :

• A - classification en fonction de la taille du lot


• B - classification en fonction de la répétitivité
• C - classification en fonction du coût des pièces
• D - classification en fonction du nombre de critères sur le produit

A - Classification en fonction de la taille du lot

La classification la plus simple et celle qui vient le plus rapidement à l'esprit


concerne la taille du lot. Nous dissocierons 3 niveaux de taille de lot :

• 1 - le lot est réduit à l'unité


• 2 - le lot est de taille inférieure à 20 unités
• 3 - le lot est supérieur à 20 unités

Il est a noté que dans de nombreuses entreprises la notion de petites séries


apparaît dès que le nombre de pièces à réaliser est inférieur à 10 000. Cependant ce
type de petites séries sera traitée avec la classe 3 de notre classification.

LLP - Edition : 26/03/2004 Page 3.4


Chapitre 3 - Le cas des petites séries

B - Classification en fonction de la répétitivité

Les mêmes techniques ne pourront pas s'appliquer selon qu'un lot donné a une
production répétitive ou non. Nous dissocierons deux niveaux de répétitivité:

• 1 - répétitivité faible ou nulle


• 2 - répétitivité importante

C - Classification en fonction du coût des pièces

Dans le cas des petites séries, le coût des pièces est un critère important.
Lorsqu'on fabrique un corps de pompe pour l'industrie nucléaire, il n'est pas question
d'utiliser des pièces de réglage. Le réglage doit être le plus précis possible dès la
première pièce. Nous dissocierons donc deux niveaux de coût :

• 1 - coût élevé
• 2 - coût faible

D - Classification en fonction du nombre de critères sur le produit

Là encore, il nous faudra établir une dichotomie entre les produits sur lesquels le
nombre de critères par produit est important et les cas où le nombre de critères est
relativement faible voire réduit à l'unité. Dans le cas où le nombre de critères est
important, il est alors possible de réaliser un échantillonnage sur différents critères d'un
produit, alors que cela est impossible dans l'autre cas. Nous dissocierons deux niveaux:

• 1 - nombre de critères faible ou réduit à l'unité


• 2 - nombre de critères important

2.3. Le tableau d'évaluation


Le tableau d'évaluation nous permet de faire une synthèse de la classification que
nous venons de réaliser. La combinaison de tous les critères nous amène à considérer 24
cas de petites séries.

Unité Moins de 20 Plus de 20


Non répétitif Répétitif Non répétitif Répétitif Non répétitif Répétitif
Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût
élevé faible élevé faible élevé faible élevé faible élevé faible élevé faible

D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2

Méthode X ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

LLP - Edition : 26/03/2004 Page 3.5


Chapitre 3 - Le cas des petites séries

Une méthode ne sera jamais parfaitement adaptée à tous les cas de figure. Il sera
donc intéressant de vérifier si tous les 24 cas de figure ont une méthode.

3. Les limites de l’application des cartes


dans le cas des petites séries
L'application des cartes de contrôle telles que nous les avons vues au chapitre 2 a
surtout concerné les cas des grandes et moyennes séries. L'application de ces méthodes
au cas des petites séries est rendu difficile à cause d'un certain nombre de problèmes
techniques que nous allons étudier dans ce paragraphe.

3.1. Les problèmes posés par les petites séries


Si nous analysons l'application des cartes de Shewhart dans les entreprises, nous
pouvons constater quelques caractéristiques qui seront délicates à gérer dans le cas des
petites séries. Ces caractéristiques sont les suivantes :

• la décision n’est prise qu’à l’issue de la mesure de l’échantillon,


• elles nécessitent de créer une carte par caractéristique à surveiller,
• la distribution de la population doit être connue pour déterminer les limites de
contrôle.

3.1.1. Nécessité d'un échantillon


Le principe de la carte de contrôle traditionnel est de prendre un échantillon, et, en
fonction de la moyenne et de l'étendue de cet échantillon, on peut conclure que le
procédé est sous-contrôle ou hors contrôle. Il faut donc avant de prendre une décision
avoir réaliser cet échantillon de produits. Bien sûr, dans le cas des grandes séries, cela
ne pose aucun problème.

Dans le cas des toutes petites séries, ce problème est bien entendu le problème
majeur. En effet, dans le cas d'une série de huit pièces par exemple, il est hors de
question d'attendre de réaliser les cinq premières pièces avant de prendre une décision
de réglage. Dans ce cas, les cartes de contrôle traditionnelles sont donc inadaptées, il
faut être capable de prendre une décision dès la première valeur - voire même avant
celle-ci.

3.1.2. Une carte par caractéristique

LLP - Edition : 26/03/2004 Page 3.6


Chapitre 3 - Le cas des petites séries

Les cartes de contrôle sont calculées en fonction de la caractéristique à surveiller.


Par principe, il y a donc autant de cartes que de caractéristiques à surveiller. Dans le cas
des séries importantes, comme dans le cas du décolletage où les machines sont
quelquefois montées "à l'année", cela ne pose aucun problème.

Dans le cas des petites séries répétitives, il est encore possible de réaliser une
carte par caractéristique à surveiller. Cela n'est pas sans poser un certain nombre de
problèmes de gestion des multiples cartes de contrôle. Par contre, dans le cas des petites
séries non renouvelables, l'application traditionnelle des cartes de contrôle est
impossible. Il faut trouver des solutions pour les adapter.

3.1.3. La connaissance de la population


Le calcul des cartes de contrôle nécessite la connaissance de la distribution de la
population. Encore une fois, si cela ne pose pas de problème dans le cas des grandes
séries pour lesquelles il est facile d'identifier la dispersion, ce n'est pas le cas des petites
séries. En effet, il est difficile de disposer d'échantillons suffisamment importants pour
connaître la forme de la répartition et sa variance. Il faudra donc adapter les méthodes
classiques d'identification pour pouvoir adapter les cartes traditionnelles au cas des
petites séries.

3.2. Les réponses à ces obstacles


Considérant l'intérêt que pouvait avoir l'application des méthodes MSP au cas des
petites séries, quelques auteurs, que nous détaillerons dans ce chapitre, ont cherché à
adapter les cartes de contrôle traditionnelles aux cas des petites séries. Le travail déjà
réalisé est, bien que peu volumineux en terme de publications, fort intéressant. De
nombreux types de production en petites séries peuvent désormais être traités par les
techniques statistiques des cartes de contrôle. Cependant, malgré ce travail, il reste un
certain nombre de type de production, notamment le cas des toutes petites séries, qui ne
peut être que difficilement traité avec les travaux existants. Notre travail présenté au
chapitre 4 aura pour objectif de tenter de résoudre ce problème.

LLP - Edition : 26/03/2004 Page 3.7


Chapitre 3 - Le cas des petites séries

4. La méthode traditionnelle de pilotage

4.1. Exemples dans le cas d'une série de 10 pièces

Dans le cas des petites séries, la plupart des opérateurs pilotent leur procédé en
réalisant un contrôle à 100% sur les pièces qu’ils réalisent. Ce contrôle pourrait être
excellent s’il intégrait le raisonnement statistique, mais ce n’est malheureusement pas le
cas. Les figures 1 et 2 montrent deux exemples de raisonnement classique lors de la
réalisation d’une petite série de 10 pièces. Les exemples concernent un usinage de
pièces mécaniques. La cote à réaliser est de 10±0,05 mm. Les valeurs indiquées sont les
écarts par rapport à la nominale en centièmes de millimètre. Supposons qu'une étude sur
les précédentes productions a montré que l'écart-type de la dispersion sur cette machine
est de 1,15 centièmes de millimètre.

Dans l'exemple n°1, l'opérateur a réalisé les 7 premières pièces sans réglage, puis
a effectué un réglage de 0,06 mm.

Dans l'exemple n°2, l'opérateur a réalisé un réglage dès la seconde valeur. Il a été
obligé de corriger de nouveau son procédé lors de la 4ème valeur.

+6
+4
+2
0
-2
-4
-6

1 2 3 4 5 6 7 8 9 10

Numéro 1 2 3 4 5 6 7 8 9 10
Cote +2 +1 +4 +3 +2 +2 +6 -2 -3 -4
Action R(-6)

Figure 3.1 - Méthode traditionnelle - Premier exemple

LLP - Edition : 26/03/2004 Page 3.8


Chapitre 3 - Le cas des petites séries

A la lumière de l'exemple n°1, nous tirons deux constatations.

On note d’abord que l’opérateur n’a pas réglé sa machine avant la septième cote
qui est hors tolérance. Il faut dire à sa décharge que la pièce numéro six était à +2 donc
près de la cote nominale. N'était-il pas plus judicieux de régler avant de rebuter une
pièce? Est-il possible de trouver une démarche logique et formelle qui permettrait de
régler la machine avant de faire une pièce hors tolérance?

La deuxième remarque que nous inspire cet exemple est le réglage de (-6) qui a
été réalisé par l’opérateur après avoir fait une mauvaise pièce. Il semble que celui-ci a
basé son raisonnement uniquement sur la dernière pièce en oubliant les pièces qu’il
avait réalisées avant. Il faut dire à sa décharge que la pièce 7 étant hors tolérance, il a
cherché à se ramener au plus vite sur la nominale. Et pourtant, les pièces suivantes se
retrouvent décalées sur le côté inférieur de la tolérance. La question qui est posée est
alors de trouver une démarche logique et formelle qui permettrait de régler la machine
avec la meilleure précision possible pour se ramener à la nominale.

1 2 3 4 5 6 7 8 9 10
Numéro 1 2 3 4 5 6 7 8 9 10
Cote 1 3 -2 -4 2 1 0 -1 2 3
Action R(- R(+4)
3)

Figure 3.2 - Méthode traditionnelle - Second exemple

Dans ce second exemple, l’opérateur a réalisé un premier réglage qui ne semblait


pas utile. Il a déréglé une machine bien réglée. Il serait donc utile de trouver une
méthode qui évite ce type d'erreur.

LLP - Edition : 26/03/2004 Page 3.9


Chapitre 3 - Le cas des petites séries

4.2. Critique de la méthode

Les exemples précédents ne sont pas caricaturaux. Tous ceux qui ont suivi des
procédés réalisés en petites séries connaissent bien ce phénomène. En fait, le
raisonnement traditionnel de pilotage conduit généralement aux constats suivants :

• l’opérateur ne règle pas sa machine au moment opportun,


• l’opérateur dérègle parfois une machine bien réglée,
• les réglages réalisés ne sont pas toujours les réglages souhaitables,
• la répartition des pièces produites dans ces conditions utilise tout l’intervalle de
tolérance au lieu d’être centrée sur la valeur nominale.

Ces actions engendrent des pertes de productivité dues aux réglages inutiles, et
aux rebuts réalisés. De plus, en se référant à la fonction perte de TAGUCHI [tag 89] que
nous avons explicité au chapitre 2 paragraphe 3.2., nous pouvons affirmer que les coûts
de non-qualité sont très importants. En effet, les pièces n'étant pas sur la nominale,
mais remplissant la totalité de l'intervalle de tolérance, la perte sera maximale.

L'origine du mal vient du fait que l’on n'utilise pas un raisonnement statistique.
Dans le cas que nous évoquons, l’opérateur fait du contrôle à 100%, mais raisonne sur
une seule mesure pour piloter sa machine. Pour améliorer les règles de pilotage dans le
cas des petites séries, il faut absolument abandonner le raisonnement unitaire au profit
d’un raisonnement statistique basé sur les cartes de contrôle qui a fait ses preuves dans
les productions plus importantes.

4.3. Condition de réussite de la MSP dans le cas des


petites séries
La mise en oeuvre de la MSP n'est réussie que si l'opérateur en devient un élément
moteur. Pour cela il est indispensable qu'il soit convaincu de son utilité. Cela passe
évidemment par une formation adaptée, mais aussi par le souci de l'encadrement de lui
simplifier le travail. En fait, l'opérateur à besoin d'une aide pour répondre à deux
questions clés :

• mon système est-il hors contrôle?


• si oui, quelle est l'action nécessaire pour le ramener sous-contrôle?

[tag 89] - Genichi Taguchi - Elsayed A. Elsayed - Thomas Hsiang Quality engineering in production
systems - Mc Graw-Hill -- 1989

LLP - Edition : 26/03/2004 Page 3.10


Chapitre 3 - Le cas des petites séries

Lorsqu'on est capable de répondre à ces deux questions, On donne à l'opérateur un


outil qui lui permet de mieux piloter sa machine. Il est ainsi plus fier de son travail, et il
peut accepter l'outil comme un allégement de sa tâche.

Mais ce n'est pas suffisant. Il faut également que le travail supplémentaire généré
par l'outil ne soit pas plus important que le gain obtenu sur le pilotage de la machine.
Nous insistons sur le fait suivant : ce n'est pas les gains ressentis par le management qui
est important, mais les gains ressentis par l'opérateur. La réussite de la MSP ne sera
possible que si l'outil est particulièrement simple et adapté à des opérateurs qui n'ont pas
toujours un bagage mathématique important.

Notre expérience nous a montré que les entreprises qui ont réussi dans la mise en
place de la MSP ont focalisé leur attention sur les opérateurs. Certains invariants
ressortent systématiquement :

• la formation de ceux-ci a été particulièrement bien étudiée,


• la formation a été immédiatement suivie d'un entraînement sur le poste de
travail,
• on a veillé à ne pas alourdir de façon considérable la charge de travail des
opérateurs,
• on a mis en place des outils pour simplifier leur tâche comme des feuilles de
calculs, des abaques, ou des systèmes informatiques,
• on a écouté les opérateurs sur les modifications à apporter,
• on a informé les opérateurs des bénéfices de la démarche.

Lorsque la mise en place de l'outil sur les machines est une réussite, le reste suit
forcément. L'analyse des conditions de réussite de la mise en place de la MSP n'a pas
été le point central de notre étude. Cependant, au moment de la conclusion de notre
étude, nous constatons que ce travail n'a jamais été réalisé - du moins nous n'avons pas
trouvé de publication à ce sujet - et cela mériterait un travail approfondi. En
considérant l'ensemble des entreprises que nous avons étudié, nous considérons que
souvent les obstacles majeurs ne sont pas des obstacles mathématiques mais des
obstacles dans la méthodologie de mise en oeuvre.

La réussite de la mise en place de la MSP dans le cas des petites séries nécessite
donc :

• l'utilisation d'outils simples et pratiques adaptés aux opérateurs,


• une mise en place et un suivi particulièrement étudiés.

Dans ces conditions, on pourra faire évoluer les méthodes traditionnelles vers des
méthodes plus formelles et ainsi améliorer la qualité de nos productions.

LLP - Edition : 26/03/2004 Page 3.11


Chapitre 3 - Le cas des petites séries

5. Utiliser le principe de l'échantillonnage


L'application de la MSP aux petites séries ne consiste pas forcément à mettre en
place une carte de contrôle. En fait, une des bases de la Maîtrise Statistique des
Procédés consiste à travailler sur des échantillons plutôt que sur des valeurs
individuelles. Ce principe même peut être appliqué dans de nombreux cas de figure et
ainsi offrir plusieurs avantages.
Le pilotage d'une machine suit en général le schéma de la figure 3.3

Paramètres Paramètres
figés de pilotage

MATIERES PRODUIT
PROCESSUS DE
PRODUCTION

Bruits
Extérieurs

Figure 3.3 - Pilotage d'une machine

Parmi l'ensemble des paramètres qui agissent sur le système, certains sont
maîtrisables par l'opérateur, d'autres ne le sont pas . TAGUCHI caractérise les
paramètres non maîtrisables par des bruits [Tag 87] qui sont de trois types :

• les bruits intérieurs


Il s’agit des variations dues à l’utilisation du système telles que l’usure, le
déréglage... Ils représentent les variations sur les paramètres de pilotage.

• les bruits extérieurs


Il s’agit des perturbations indépendantes du système telles que la température, les
vibrations... Ils représentent les paramètres de perturbation.

• les bruits entre produits


Ces bruits correspondent aux différences qui existent entre deux produits d’une
même production dues aux dispersions d’usinage par exemple. Ils représentent les
variations sur les paramètres d'entrée.

[Tag 87] - Genichi Taguchi - System of experimental Design -Tome I et II - ASI - 1987

LLP - Edition : 26/03/2004 Page 3.12


Chapitre 3 - Le cas des petites séries

La traduction de ces bruits en terme de fonctionnement se fera sous la forme de


dispersion plus ou moins grande dans le fonctionnement du système. TAGUCHI définit
d'ailleurs la "robustesse" d'un système par sa sensibilité aux bruits. Ces bruits forment
les causes communes et doivent donner comme répartition en l'absence de causes
spéciales une courbe de GAUSS.

L'opérateur souhaite maîtriser un procédé malgré la présence de bruits. Lorsqu'il


mesure une valeur, il mesure la somme de deux effets : la valeur de la consigne du
procédé qui doit lui permettre de procéder à la correction nécessaire plus la valeur de la
dispersion due aux bruits. Lorsque ces bruits sont importants, l'opérateur peut faire deux
types d'erreur :

• ne cas corriger un procédé déréglé,


• dérégler une machine bien centrée.

Pour éviter ces erreurs, il est nécessaire d'éliminer la dispersion due aux bruits.
Comme on ne peut pas le faire physiquement, il faut le faire par le calcul en travaillant
sur les moyennes plutôt que sur des valeurs individuelles.
En observant la moyenne de plusieurs valeurs, on sait que l'écart-type de la
dispersion des moyennes est réduit par un rapport 1 . Très vite, l'amélioration de
n
l'efficacité du contrôle se fait sentir.

Dans de nombreux cas, il est possible d'appliquer un raisonnement statistique,


même dans le cas de production unitaire. A titre d'exemple, imaginons un centre
d'usinage qui fabrique de manière unitaire (aucune pièce identique) des pièces du type
de celle représentée en figure 3.4.

Figure 3.4 - Exemple de pièce sur centre d'usinage

LLP - Edition : 26/03/2004 Page 3.13


Chapitre 3 - Le cas des petites séries

Dans ce cas, le centre d'usinage dispose d'un magasin d'outil, et les outils qui
servent à réaliser cette pièce seront également utilisés pour usiner d'autres pièces. Ainsi,
il faut être capable d'ajuster les réglages du centre d'usinage en intégrant pour les
prochaines pièces des corrections d'outils.
Supposons que les alésages soient réalisés en contournage par le même outil. La
plupart des opérateurs contrôlent un des alésages, et en fonction du résultat , ils
modifient leurs corrections d'outil. Si au lieu de contrôler un alésage, on mesure les trois
alésages et que la décision de correction soit prise sur la moyenne des trois écarts plutôt
que sur un écart, on améliore de 3 la précision de la correction. De même, la
correction sur la longueur d'outil qui réalise les bossages sera plus efficace si elle
intègre plusieurs mesures que si elle est réalisée sur une seule mesure.

Le principe de l'échantillonnage est simple, facile à comprendre par les


opérateurs, et extrêmement riche en bénéfice. Il est dommage qu'il ne soit pas plus
utilisé.

Dans le cas de centre d'usinage par exemple, on peut également surveiller la


capabilité de la machine en mettant en place une carte de contrôle sur quelques
opérations typiques comme :

• carte A - déplacement suivant l'axe X,


• carte B - déplacement suivant l'axe Z,
• carte C - opération de contournage.

Une fois par jour, on effectue un prélèvement de plusieurs déplacements en X sur


une pièce et on relève les écarts entre les cotes programmées et les cotes relevées sur la
carte A. On fait de même sur la carte B.
Si les pièces réalisées sur ce centre ont de nombreux contournages, il est
également souhaitable de relever la moyenne des écarts observés par rapport à ce qui est
programmé.

Dans ce cas, bien sûr, les cartes de contrôle renseigneront l'opérateur sur les
corrections à apporter, mais en plus, par la carte des étendues, on aura, de façon
continue, une surveillance de la capabilité machine. Ce qui sera bien utile pour mettre
en place une maintenance prédictive.

LLP - Edition : 26/03/2004 Page 3.14


Chapitre 3 - Le cas des petites séries

6. Retrouver un effet de série


La première façon d'appliquer la MSP dans le cas des petites séries est de trouver
des techniques qui permettent par une manipulation des données à contrôler de
retrouver un effet de série. Cette méthode peut s’appliquer lorsqu’un procédé réalise un
travail répétitif bien que les séries soient petites. Illustrons notre propos par un exemple
[figure 3.5].

L2
L1

Figure 3.5 - Mise à longueur de tubes

Une entreprise, qui fabrique des vérins à la commande, désire mettre sous
contrôle la production des tubes. Un tour à commande numérique réalise les mises à
longueur de ces tubes. Chaque tube usiné a une longueur différente qui correspond à la
longueur commandée par le client. La longueur est introduite dans la commande
numérique à chaque pièce comme étant un paramètre. Dans ce type de cas, l’utilisation
des cartes de contrôle traditionnelles semble impossible puisque la caractéristique n’est
pas constante. Il n'y a même pas de petite série puisque c'est en fait une production
unitaire.

Et pourtant, si au lieu de suivre la longueur du tube, nous cherchions à suivre


l’écart qui existe entre la cote nominale (demandée par le client) et la cote réalisée, nous
retrouverions un effet de série. En effet, tout au long de la journée, l’opérateur cherche à
réaliser un écart nul par rapport à une cote nominale. Nous pouvons alors suivre sous
carte de contrôle traditionnelle l'écart entre la cote nominale et la cote fabriquée.

Dans ce cas de figure, les deux cartes de contrôle sont utiles à l’opérateur :

• la carte des moyennes permettra de suivre les dérives en réglage dues aux usures
d’outils par exemple. En cas de variation sur la carte de contrôle des moyennes, il
faudra introduire une correction pour que les prochaines pièces soient à nouveau
proche de la nominale.

• la carte des étendues permettra de suivre la capabilité de la machine.

LLP - Edition : 26/03/2004 Page 3.15


Chapitre 3 - Le cas des petites séries

Les cas de figure pour lesquels cette méthode peut être appliquée sont assez
courants. En effet, les procédés industriels sont, en général, assez spécialisés, et
réalisent souvent le même type de travail. Aussi, moyennant un peu d'imagination, il
est souvent possible de trouver une grandeur, caractéristique de l'état du procédé, qui
peut être suivie indépendamment de la production réalisée.

Cette méthode a été particulièrement étudiée par M. Kevin Foster [Fos 88].
L'application proposée concerne une machine d'assemblage de composants. Sur cette
machine, des productions de qualités différentes sont demandées comme des
applications militaires ou communes. Quelle que soit l'application, la machine subira
des fluctuations dues aux causes communes, mais ces fluctuations ne dépendront que de
la machine et pas du produit militaire ou civil qu'elle assemble. Foster propose, dans ce
cas, de mettre sous contrôle l'écart de positionnement sur l'axe des X par rapport à la
valeur planifiée.

N° Déplacement Planifié Delta


réel
1 6,0946 6,0940 0,0006
2 4,7178 4,7180 -0,0002
3 7,2455 7,2450 0,0005

Cela revient à faire un changement de variable qui permettra de tenir une carte de
contrôle de type Shewhart avec des échantillons de trois écarts par carte assemblée par
exemple. Ainsi on pourra bénéficier des avantages du suivi et du pilotage par cartes de
contrôle et surveiller ainsi les dérives de la machine et sa capabilité.

[Fos 88] - Kevin Foster - Implementing SPC in low volume manufacturing - ASQC Quality Congress -
Dallas - 1988

LLP - Edition : 26/03/2004 Page 3.16


Chapitre 3 - Le cas des petites séries

7. Modifier les cartes de contrôle

L'application de la MSP dans le cas des petites séries est apparue très récemment
dans les publications. La seule méthode réellement appliquée à grande échelle de nos
jours est la méthode que nous détaillerons dans ce chapitre. Tous les développeurs de
logiciel qui prétendent offrir un module petites séries (ils sont tous d'origine américaine)
ont, en fait, programmé cette méthode. Cette méthode est apparue très tôt avec les
travaux de F.S. Hiller [Hil 69] et les travaux de F. Prochman et I. R. Savage [Pro 60]. Ils
ont été repris plus récemment par David R. Bothe [Bot 92] et Thomas Pysdek [Pys 93].
Cette méthode propose une évolution de la recherche d'un phénomène de série à travers
une nouvelle façon d'aborder les cartes de contrôle de Shewhart.

Son étude repose sur la remarque suivante. Lorsqu'un procédé réalise de petites
séries renouvelables, il est nécessaire de changer de carte à chaque nouvelle série car,
par définition, la carte de Shewhart dépend de la caractéristique à surveiller. En effet,
les limites de contrôle sont calculées par les formules [C.f. Chapitre 2]

LSC = X + A .R
X 2
LIC = X − A .R
X 2
pour la carte des moyennes,

LSC = D . R
R 4
LIC = D . R
R 3
pour la carte des étendues.

La méthode propose de rendre les limites de contrôle des moyennes et des


étendues indépendantes de la caractéristique surveillée par un changement de variable.
Ainsi, chaque machine ne sera surveillée que par une seule carte qui sera la même quel
que soit le produit fabriqué.

[Hil 69] - F. S. Hiller - X and R-chart Control Limits based on a small number of subgroups - Journal of
quality technologie - 17:26 - January 1969
[Pro 60] - F. Proschan and I. R. Savage - Starting a Control Chart - Industrial Quality Control - 12:13 -
September 1960
[Bot 92] - D. R. Bothe - Integrating SPC with just in time - Conférence mondiale de l'APICS - Montréal
- 1992
[Pys 93] - Thomas Pysdek - Process control for short and small runs - Quality progress - 51:60 - April
1993

LLP - Edition : 26/03/2004 Page 3.17


Chapitre 3 - Le cas des petites séries

Pour faire le changement de variable, on distingue deux cas :

• le cas où la dispersion instantanée de la machine est constante pour l'ensemble des


lots,
• le cas où la dispersion dépend du lot fabriqué.

7.1. Cas 1 : les étendues sont constantes pour


l'ensemble des lots
C'est le cas des procédés qui réalisent toujours le même type de travail, mais pour
des valeurs de nominale différentes. C'est le cas de figure proposé par Foster afin de
retrouver un effet de série.

Si l'étendue moyenne ( R ) ne varie pas d'un lot à l'autre, il suffit de ne plus


raisonner sur la valeur réelle de la caractéristique à surveiller, mais sur l'écart par
rapport à la valeur cible.

On a alors X = XRéelle − XCible

Ce changement de variable rend les limites de contrôle indépendantes de la valeur


cible. Les nouvelles limites sont donc calculées par les formules :

LSC = +A . R
X 2
LIC = − A . R
X 2
Nouvelle valeur cible = 0

7.2. Cas 2 : les étendues ne sont pas constantes d'un lot


à l'autre
Ce cas de figure est plus complexe et n'a pas été étudié par Foster. Bothe propose
alors une nouvelle carte de contrôle pour laquelle les limites de contrôle sont
indépendantes de la valeur cible et de l'étendue moyenne. Pour cela, il faut modifier les
limites de contrôle de la carte des moyennes et celle des étendues pour les rendre
indépendantes de l'étendue moyenne.

LLP - Edition : 26/03/2004 Page 3.18


Chapitre 3 - Le cas des petites séries

Carte des étendues

Pour la carte des étendues, nous avons par définition

LIC < R < LSC


R R
D .R < R < D .R
3 4

R
On peut donc écrire D < <D
3 R 4
En effectuant le changement de variable R R , les nouvelles limites de contrôle
(D4 et D3) deviennent donc indépendantes de l'étendue moyenne.

Bien sûr le point à noter sur la carte n'est plus R mais le rapport entre R et la
valeur moyenne de l'étendue pour le lot étudié.

R
R Notée =
R Cible

Carte des moyennes

Les cartes traditionnelles ont des limites non seulement liées à R mais aussi à
X Cible . Pour pouvoir représenter les points sur la même carte, il faut éliminer ces deux
dépendances.

On a vu que pour éliminer la dépendance par rapport à la valeur cible, il suffit de


suivre l'écart par rapport à la nominale plutôt que la valeur cible elle-même. Les
nouvelles limites sont alors :

LSC = +A . R
X 2
LIC = − A . R
X 2
Nouvelle valeur cible = 0

Nous avons donc − A . R < X − X Cible < + A . R


2 2

X − X Cible
que nous pouvons écrire −A < <A
2 R 2

Ce changement de variable élimine la dépendance des limites de contrôle des


moyennes (-A2 et A2 ) de l'étendue moyenne.

La valeur à noter sur la carte se calcule donc de la façon suivante :

LLP - Edition : 26/03/2004 Page 3.19


Chapitre 3 - Le cas des petites séries

X − X Cible
X Notée =
R Cible

Ce type de carte est donc très intéressant puisque les limites ne dépendent que de
la taille des échantillons. Ainsi, tant que la taille des échantillons est constante,
l'opérateur n'a besoin que d'une seule carte de contrôle pour visualiser n'importe quel
type de pièces. La carte de contrôle sur une machine aura alors la configuration donnée
en figure 3.6.

A2
0
-A2

D4
1
D3

Pièce A Pièce B Pièce C Pièce D ......


Figure 3.6 - carte de contrôle de Bothe

7.3. Critique de la méthode

Inconvénient de la méthode

L'inconvénient majeur de ce type de carte reste le supplément de calcul dû aux


changements de variable. Cet inconvénient disparaît lorsque la carte est réalisée avec
une assistance informatique. C'est d'ailleurs pour cette raison que cette méthode très
ancienne n'a réapparu dans la littérature que tout récemment.

Malgré la modification apportée aux calculs des limites de contrôle, le principe


même de la méthode repose sur un prélèvement régulier d'échantillons de taille
constante. Il n'y a pas d'assistance pour la fabrication des toutes premières pièces car on
obtient le résultat En/Hors contrôle après le prélèvement d'un échantillon. Cette
méthode n'est donc pas adaptée aux tout petits lots de 10 pièces par exemple.

Un autre inconvénient de la méthode de Bothe réside dans le fait que l'écart qui
apparaît sur la carte de contrôle des moyennes ne représente pas directement l'écart

LLP - Edition : 26/03/2004 Page 3.20


Chapitre 3 - Le cas des petites séries

entre la moyenne du lot et la valeur cible. Certes, il existe une relation de


proportionnalité entre les deux, mais cette proportion change avec le lot puisque
l'étendue moyenne change. Cette déconnexion entre l'écart physique et l'écart tracé
semble poser quelques difficultés aux opérateurs.

Avantage de la méthode

Dans le cas d'une application informatique, le fait de manipuler un grand nombre


de cartes n'est pas réellement difficile. On pourrait penser qu'à partir du moment où on
met une assistance informatique autant utiliser les cartes de contrôle de Shewhart. Le
problème se pose pourtant lorsque les lots sont petits et peu répétitifs. Dans ce cas le
nombre de cartes à créer peut être assez important ce qui demande un travail de
préparation également important. La méthode de modification des limites simplifie alors
le travail de préparation des cartes de contrôle.

D'autre part, si nous sommes dans la configuration de lots non ou peu répétitifs,
les cartes de contrôle seraient nombreuses et ne comporteraient que quelques points au
terme d'une année d'exploitation. Cela permettrait d'interpréter les cartes de moyennes
mais difficilement les cartes des étendues. En effet, les cartes des étendues s'interprètent
plus sur l'ensemble d'une carte que sur une série. La détection des problèmes de
capabilité serait donc délicate.

Les développements de la carte de Bothe ont été faits pour la carte X/R, mais le
développement équivalent est immédiat pour la carte X/σ.

LLP - Edition : 26/03/2004 Page 3.21


Chapitre 3 - Le cas des petites séries

8. Etudier le procédé
Ce dernier axe pour l'adaptation de la MSP au cas des petites séries a été
développé principalement dans l'industrie aéronautique américaine. En effet, ces
entreprises sont confrontées à un type de production particulier pour lequel il y a de très
nombreuses pièces à réaliser, avec sur chacune de très nombreuses caractéristiques à
étudier. De plus, ces caractéristiques sont en général très sévères.

Une étude particulièrement intéressante a été menée sur un centre d'usinage trois
axes à commande numérique par Mrs Georges F. Koons et Jeffery J. Luner [Koo 91].
Cette machine réalise 150 pièces différentes en lots de 15 à 25 unités en moyenne. Les
productions ne reviennent que plusieurs mois plus tard. De plus, la tendance est à la
diminution de la taille des lots. Dans ce cas, l'application classique de la MSP est
évidemment impossible. L'approche retenue a été de ne pas étudier les caractéristiques
propres à une pièce particulière, mais plutôt les processus qui produisent ces
dimensions. On établira une carte par procédé de fabrication et non par lot. Ainsi des
pièces différentes subissant la même opération pourront être gérées par la même carte
de contrôle.

Les étapes proposées par Koons et Luner sont les suivantes :

• collecte des données,


• recherche des causes spéciales de dispersion,
• étude des causes communes de dispersion,
• étude de la capabilité du procédé.

8.1. Collecte des données


La machine considérée réalise plusieurs opérations distinctes comme le perçage,
le fraisage, le rainurage... Chacune de ces opérations fait l'objet d'une analyse distincte.
Ainsi on détermine au sein d'un procédé plusieurs sous-procédés. Cette méthode rejoint
la méthode préconisée par M. Kevin Foster [Fos 88] que nous avons déjà étudiée.

A l'intérieur d'un procédé, les données sont regroupées en sous-groupes


homogènes à partir du lot (même stock d'origine, même outillage). Cela permet de
réduire le nombre de facteurs qui interviennent sur les dispersions dimensionnelles et
maximise les chances de découvrir les causes spéciales en comparant les résultats des
différents sous-groupes. Chaque lot fait l'objet d'une description précise afin de
permettre l'analyse future.

[Koo 91] - G. F. Koons - J. J. Luner - SPC : Use in low volume manufacturing envirnment - Statistical
Process Control in manufacturing - Quality and reliability - ASQC Quality Press - 1991

LLP - Edition : 26/03/2004 Page 3.22


Chapitre 3 - Le cas des petites séries

Exemple de description

Numéro de machine 72
Matière Aluminium
Origine extrusion
Positionnement par rapport à une face usinée
Procédé fraisage
Taille du sous-groupe 25

Pour chaque lot, on procède à un contrôle à 100% ou à un échantillonnage ( selon


le temps et les moyens disponibles). Les sous-groupes ne sont donc pas nécessairement
de taille identique. Cela a pour conséquence de compliquer les cartes de contrôle.

Pour chaque sous-groupe, on calcule la moyenne et la variance du lot. On réalise


comme pour les méthodes précédentes une transformation de variables sur la moyenne
en raisonnant sur l'écart par rapport à la valeur cible. Ainsi, les différents sous-groupes
pourront être directement comparés. La variance est utilisée de préférence à l'étendue
car son efficacité pour détecter les causes spéciales est bien supérieure dans le cas des
échantillons de taille importante.

De plus, et cela est très important dans ce cas, le fait de travailler sur les variances
des échantillons, permet d'obtenir une estimation non biaisée de la variance de la
population.

8.2. Recherche des causes spéciales de variation


La moyenne et la variance de chaque sous-groupe sont reportées sur une carte de
contrôle. La figure 3.7 donne un exemple de carte des variances obtenues.

0.4

0.3

0.2

0.1

0.0

LLP - Edition : 26/03/2004 Page 3.23


Chapitre 3 - Le cas des petites séries

Figure 3.7 - carte d'analyse de G.F. Koons - J.J. Luner


La ligne centrale représente la moyenne pondérée des variances des sous-groupes.
Les limites ne sont pas constantes car la taille des sous-groupes change en fonction du
lot. Les limites se resserrent lorsque la taille des échantillons augmente.

Le calcul de la carte de contrôle est effectué à partir de la distribution du χ² :


2
S
LIC = χ20,999
( n j − 1)
2
S
LSC = χ 2
0,001
( n j − 1)

La valeur centrale représente la variance estimée de la population totale.

Pour chaque point hors contrôle du côté maxi de la carte des variances, on
recherche une cause spéciale pouvant expliquer cette variance élevée - par exemple un
réglage à l'intérieur du sous-groupe - puis on élimine le sous-groupe concerné. On peut
lorsqu'on a gardé l'ensemble des données, éliminer les pièces concernées afin de recréer
un sous-groupe homogène.

On recalcule alors la nouvelle carte de contrôle des variances et on réitère


l'opération jusqu'à ce que toutes les causes spéciales identifiables sur la carte des
variances soient éliminées de l'analyse. On arrive à la carte figure 3.8 dans le cas de
l'étude de Koons et Luner. On note que la variance moyenne est plus faible du fait de
l'élimination des causes spéciales sur les cartes des variances.

2
S = 0,027
0.2

0.1

0.0

Figure 3.8 - Carte finale des variances

LLP - Edition : 26/03/2004 Page 3.24


Chapitre 3 - Le cas des petites séries

On peut alors calculer la carte des moyennes à partir de la loi de répartition des
moyennes :
2
S
LICX = X − 3
nj

2
S
LSCX = X + 3
nj

L'analyse des cartes des moyennes montre également des points hors contrôle
(figure 3.9). Ces points hors contrôle doivent comme pour le cas de la carte des
variances être expliqué pour faire apparaître des causes spéciales.

0,04
X = -0,002

0,02

0,0

-0,02

-0,04

Figure 3.9 - Carte des moyennes

Comme pour la carte des variances, les limites ne sont pas constantes du fait de la
taille non constante des lots.

On recherche alors, à partir de la carte des moyennes, les causes spéciales de


variation du procédé. Pour chaque point hors contrôle, une analyse détaillée a été
effectuée à partir des valeurs individuelles du sous-groupe afin d'identifier ces causes.

Cette étude a permis de mettre en évidence des causes spéciales, il faut alors
chercher à supprimer celles-ci par des actions correctives lorsque cela est possible.
L'étude a permis d'apporter trois améliorations au procédé. La première consiste à
améliorer la procédure de démarrage de série. La seconde permet de mieux gérer les
usures d'outils, et enfin la dernière qui n'est pas technique mais plus philosophique
consiste à éduquer le personnel à viser la nominale et non l'intérieur de la tolérance.

LLP - Edition : 26/03/2004 Page 3.25


Chapitre 3 - Le cas des petites séries

8.3. Etude des causes communes de dispersion


L'étude des cartes de contrôle a permis d'identifier les causes spéciales qui
provoquent des écarts. L'étape suivante de l'analyse réalisée par Koons et Luner a
consisté à rechercher si les causes communes de dispersion intra-échantillon
(apparaissant dans la carte des variances) ne pouvaient pas être expliquées par des
paramètres qui avaient été notés lors de la collecte des données. Ces données pouvaient
être :

• le n° de machine
• la matière usinée
• le type de dimension mesurée.

L'étude a été réalisée en utilisant une régression multiple linéaire qui consiste à
identifier un modèle de type

log( σ ) = b 0 + b1X1 + b 2 X 2 + b 3X 3 + b 4 X 4 + b5X5 + e

Le modèle est considéré comme additif, et les interactions entre facteurs sont
supposées faibles par rapport aux facteurs principaux.. La réponse est le logarithme de
l'écart-type. Cette transformation classique permet de satisfaire l'hypothèse de normalité
de la procédure statistique.
Les variables sont des variables qualitatives, elles sont donc prises égales à 0 ou à
1. On peut pour cela utiliser la technique des facteurs composés - méthode très classique
du domaine public des plans d'expériences présentée dans [Pila92] . On modélise le
problème de la façon suivante :

(X1, X2) = (0,0) si machine 1


= (1,0) si machine 2
= (0,1) si machine 3
X3 = 0 si la dimension est par rapport à une face d'appui
= 1 si la dimension est entre deux surfaces usinées
(X4, X5) = (0,0) si moulage/Aluminium
= (1/0) si extrusion/aluminium
= (1/0) si moulage/titanium
e représente les résidus

8.4. Etude de la capabilité du procédé

[Pila92] - Maurice PILLET - Introduction aux plans d'expériences par la méthode TAGUCHI - Ed
Organisation - 167:169 - 1992

LLP - Edition : 26/03/2004 Page 3.26


Chapitre 3 - Le cas des petites séries

L'étude étant réalisée, il est aisé de calculer les capabilités procédé en établissant
le rapport IT/6σ. Dans le cas où l'analyse de la variance a montré qu'il n'existe pas de
facteurs significatifs, on peut supposer que la dispersion reste constante pour l'ensemble
des caractéristiques une fois éliminées les causes spéciales. On peut déterminer les
intervalles de tolérance réalisables sur la machine en fonction d'une capabilité objective.

Dans le cas contraire, le modèle linéaire calculé permet de prévoir les dispersions
prévisibles en fonction de la configuration retenue.

8.5. Critique de la méthode


Inconvénients de la méthode

L'inconvénient principal de cette méthode réside principalement dans la lourdeur de sa


mise en application. De plus, les manipulations statistiques bien que peu complexes ne
sont pas à la portée de tous les industriels. Il nous semble difficile pour une PME, dont
l'encadrement est souvent réduit, de mettre en place une telle analyse.

L'automatisation par informatique d'une telle méthode est difficile et dangereuse. En


effet, le fait de travailler sur des sous-groupes de tailles différentes, d'origines
différentes, et de manipuler des techniques comme la régression multiple, demande de
la rigueur statistique. Le risque est important de conclure sur des résultats erronés si l'on
ne maîtrise pas parfaitement ces outils.

Comme dans les précédentes techniques, il faut pour pouvoir l'appliquer disposer de lots
de pièces, et la méthode ne fournit pas d'aide pour la réalisation des premières pièces.

Avantages de la méthode

La méthode permet dans le cas de petits lots, de faire une analyse statistique rigoureuse
pour dissocier les causes communes des causes spéciales. Cette dissociation est la base
de la MSP. Elle est particulièrement bien adaptée aux centres d'usinage, mais peut
facilement être adaptée dans d'autres domaines comme pour une machine à souder à la
vague pour laquelle les séries seraient courtes.

La méthode proposée se focalise sur l'étude des dispersions et donc sur l'amélioration de
la capabilité du procédé. Elle permet une amélioration constante de l'outil de travail
grâce à la recherche et au traitement systématique des causes de dispersions.

LLP - Edition : 26/03/2004 Page 3.27


Chapitre 3 - Le cas des petites séries

9. Surveiller les caractéristiques du


procédé

9.1. La recherche d'un modèle


On peut pousser plus loin l'analyse du procédé, en ne cherchant plus à contrôler
les caractéristiques de la pièce, mais les caractéristiques du procédé. C'est le cas par
exemple des presses d'injection plastique, des machines à souder à la vague.

Les critères à surveiller sont parfois relativement simples à trouver, par exemple
la température du moule sur une presse à injecter. Mais dans la plupart des cas, il est
très difficile de connaître les interactions entre les paramètres de sortie, de pilotage et
d'entrée. Nous avons cherché à formaliser une modélisation des procédés industriels qui
permettrait de mieux cerner les paramètres importants du procédé [Pil 90].

On recherchera dans ce cas à modéliser le procédé pour identifier les corrélations


et l'importance des relations entre les paramètres de pilotage, les paramètres d'entrée et
les paramètres de sortie recherchés. Le but de l'étude est de trouver une représentation
matricielle d'un procédé du type :

/
02 / 2 / 2
/P1 2/ 2
Y = C + 0M
3 0 3 3
0 3
P + E3
0
0
03 0 3 0 3
0 303
14140
3 0 3 1 3
0
1 413
4P 2 304
Avec :
Y : Caractéristiques à obtenir sur le produit
C : Vecteur constant
P : Vecteur donnant la configuration des paramètres influants qui se décomposent
en : P1 : Paramètres pilotables
P2 : paramètres bruits non maîtrisables
E : vecteur résiduel
M : Matrice à identifier

L'identification demande l'utilisation d'outils statistiques tels que les plans


d'expériences orthogonaux lorsque cela est possible, les plans D-optimaux qui sont
proches des plans orthogonaux mais permettent d'identifier un modèle lorsque
l'orthogonalité n'est pas parfaite, ou encore les régressions multiples lorsque les données
existent déjà.

[Pil 90] -- Maurice Pillet - Séminaire interne Laboratoire de Logiciel pour la Productique - Janvier 1990
- 20 pages

LLP - Edition : 26/03/2004 Page 3.28


Chapitre 3 - Le cas des petites séries

En fait, il est souvent difficile lorsque ce n'est pas impossible d'identifier


totalement la matrice M. Son identification totale se fera par blocs en utilisant les
techniques d'identification que nous avons citées.

9.2. Identification d'une partie de [M] par les plans


d'expériences
La méthode des plans d'expériences est une méthode qui permet d'identifier un
modèle qui peut se mettre sous une forme matricielle [Vig 88]. Supposons que nous
recherchions par la méthode des plans d'expériences le résultat sur une caractéristique
d'un produit de trois facteurs A, B et C en supposant deux interactions entre ces facteurs
: AB et AC le modèle s'écrirait :

% = C+ E E
Y A1 A2 A + E B1 E B2 E B3 B + E C1 E C2 C

t
+ A
/
0
I A1B1 I A1B2 I A1B3 2
3 /
I
B+ A 0
t A1C1 I A1C2 2
3
C
1IA 2 B1 I A 2 B1 I A 2 B1 4 1I A 2 C1 I A 2C1 4
Avec :

Y% : la réponse recherchée
C : une constante
EA1 : effet de A sur la réponse lorsque A est au niveau 1
IA1B1 : effet de l'interaction A au niveau 1 et B au niveau 1 sur la réponse
In A1 /
0
12/2 0 /2
[A] : indicateur de niveau de A =
t[A] : vecteur transposé de [A]
In A 2
=
1 413
030lorsque A = 1 et
4 1 0
13
lorsque A = 1
4
Le modèle précédent peut également s'écrire de la façon suivante :

/
0
In 2
In 3
A1

% = C+ E E
Y EB1 EB2 EB3 EC1 EC2 IA1B1 IA1B2 IA1B3 IA2B1 IA2B2 IA2B3 IA1C1 IA1C2 IA2C1 IA2C2
0
0 In 3
A2 3
A1 A2
0
0
B1
3
.... 3
0
1In 3
A2C2 4
En tenant compte des conditions de centrage InA1 + InA2 = 0

On a InA1 = -InA2, et on aura InA1= 1 lorsque A = 1 et InA1= -1 lorsque A = 2

on peut donc réduire le modèle précédent à :

[Vig 88] - Michel G. Vigier - Pratique des plans d'expériences - Les éditions d'organisation - 1988

LLP - Edition : 26/03/2004 Page 3.29


Chapitre 3 - Le cas des petites séries

/
0
In 2
In 3
A1

% = C+ E
Y E B1 E B2 E C1 I A1B1 I A1B2 I A1C1
0
0 3
.... 3
B1

A1
0
0 3
.... 3
0
1In 3
A1C1 4
Ce qui correspond à une ligne ou à une portion de la matrice [M]. On peut donc,
par plans d'expériences successifs identifier des parties de la matrice [M]. De plus,
lorsqu'un plan d'expériences permet d'obtenir plusieurs réponses, on identifie en un seul
plan d'expériences plusieurs lignes de la matrice [M].

9.3. Identification de [M] par régression multiple


Il n'est pas toujours possible de réaliser un plan d'expériences pour identifier un
modèle, car on ne peut pas toujours maîtriser l'ensemble des facteurs. De plus, il existe
souvent dans les entreprises de nombreux enregistrements en production qui permettent
d'identifier un modèle sans essai complémentaire. C'est le cas notamment lorsqu'on
cherche à mesurer l'influence de la composition de la matière première sur une
caractéristique du produit. Dans ce cas, on n'est pas maître de la configuration des
facteurs. La réalisation d'un plan d'expériences est donc impossible. L'étude en
régression multiple nous permet néanmoins de pouvoir identifier une ou plusieurs lignes
de la matrice [M]. Bien sûr la précision étant optimale avec les plans d'expériences
orthogonaux, nous aurons forcément une précision plus faible sur les résultats.

En régression multiple, on recherche à identifier un polynôme de la forme


suivante :

% = C + a.X + b.Y + c.Z + d.V + e.XY + f.XZ + g.XV


Y

Ce polynôme peut se mettre sous forme matricielle :

/
0
X 2
Y 3
% = C+ a b c d e f
Y
0
g0
3
... 3
0
0XZ 3
3
0
1XV3 4
Ce qui correspond à une ligne ou à une portion de ligne de la matrice [M].

LLP - Edition : 26/03/2004 Page 3.30


Chapitre 3 - Le cas des petites séries

9.3. Caractéristiques de la matrice [M]


9.3.1. Matrice idéale
Le but de l'identification précédente était d'identifier un modèle matriciel du
procédé sous la forme :
/
02
3/
02
3/
0
P1 2
/
3
0 2
3/
02
3
03030
Y = C +
0
M P + E
3
0 303
14140
3031 P2 3
0
4 3
1 413
04
L'analyse de la forme de la matrice obtenue est riche d'enseignement. La matrice
idéale a la forme suivante :

M11 P1
Facteur
de
0 pilotage
Pn
Mii 0
0 B1 Facteurs
de
Bruits
Mnn
Bk
Coeft de Coeft de
pilotage bruit

Dans cette matrice, chaque caractéristique pièce est pilotée de façon indépendante
par un seul facteur de pilotage, et les bruits n'ont aucun effet sur les caractéristiques. Ce
n'est bien sûr jamais le cas. La réalité est toujours plus complexe. la matrice comporte
beaucoup moins de zéro, le nombre de facteurs de pilotage est différent du nombre de
caractéristiques...

Parmi l'ensemble des types de matrices que nous pourrions analyser, nous avons
choisi de sortir deux types particuliers pour leur intérêt en MSP :

• le cas où il faut mettre sous contrôle la caractéristique sur le procédé,


• le cas où il faut mettre sous contrôle la caractéristique sur le produit.

9.3.2. Surveiller le procédé


Considérons la matrice suivante - dérivée de la matrice idéale - pour laquelle on a
pu identifier une colonne de coefficients de pilotage tous différents de 0. Cela signifie
que le facteur de pilotage Pi a une influence sur l'ensemble des caractéristiques de la
pièce. Une fluctuation de ce paramètre de pilotage entraîne donc des variations
importantes sur l'ensemble des caractéristiques.

LLP - Edition : 26/03/2004 Page 3.31


Chapitre 3 - Le cas des petites séries

M11 M1i P1
M2i Facteur
de
0 Pi pilotage
Pn
Mii
0 B1 Facteurs
de
Bi Bruits
Mni Mnm
Bk
Coeft de Coeft de
pilotage bruit

Dans ce cas de figure, il est impératif de mettre sous contrôle le paramètre Pi. La
surveillance par cartes de contrôle ne devra pas se faire sur les caractéristiques des
produits mais sur la caractéristique Pi du procédé. Ce type d'application est très adapté
aux petites séries dans la mesure où il est toujours difficile de mettre sous contrôle les
caractéristiques sur la pièce.

9.3.3. Surveiller la pièce


Si nous considérons la matrice ci-dessous, il est clair qu'il est plus intéressant de
surveiller la caractéristique Yi sur la pièce. En effet, Yi est sensible à l'ensemble des
paramètres de pilotage. En surveillant une caractéristique sur la pièce, on surveille la
stabilité de l'ensemble des facteurs de pilotage.

M11 P1
Facteur
de
0 Pi pilotage
Pn
Mi1 Mii Mim
0 B1 Facteurs
de
Bi Bruits
Mnm
Bk
Coeft de Coeft de
pilotage bruit

La même étude pourrait être faite sur les facteurs bruits pour mieux comprendre
leur influence.

Bien que riche en informations, cette méthode d'identification est assez difficile à
mettre en oeuvre dans sa totalité. Il est, en effet, assez difficile d'identifier totalement la
matrice [M], et les matrices obtenues ont souvent de nombreux termes inconnus qui
limitent l'exploitation de celles-ci. On réserve ce type d'identification aux produits à
forte valeur ajoutée pour lesquels le coût des essais nécessaires peut-être amorti.

LLP - Edition : 26/03/2004 Page 3.32


Chapitre 3 - Le cas des petites séries

10. Evaluation des méthodes en fonction


de la typologie des petites séries

Afin d'évaluer les différentes méthodes que nous venons de découvrir, nous nous
appuierons sur la typologie des petites séries que nous avons établie au paragraphe 2.
Nous allons vérifier l'adaptation de chaque méthode aux différentes classes de petites
séries afin de vérifier si l'ensemble de la classification est couverte.

10.1 Adaptation des méthodes aux différents cas


Pour établir cette comparaison, nous utiliserons comme critère d'évaluation, le
bénéfice que l'on peut attendre de la mise en place de la MSP. Nos critères seront les
suivants :

•C1 - l'aide au réglage dès les premières pièces


•C2 - l'aide au réglage sur échantillon
•C3 - le suivi et l'amélioration des capabilités
•C4 - le coût de mise en oeuvre
•C5 - la facilité de mise en oeuvre - Adaptation globale Méthode/Type de
production.

Pour chacun des critères, nous pouvons établir un tableau qui nous permet
d'évaluer les différentes méthodes. Nous symboliserons les méthodes par:

• U - utiliser le principe de l'échantillonnage (§5)


• V - retrouver un effet de série (§6)
• W - modifier les cartes de contrôle (§7)
• X - étudier le procédé (§8)
• Y - modéliser et surveiller les caractéristiques d'entrées et de pilotage (§9)

Cette classification sera établie pour chacun des critères en utilisant le tableau du
paragraphe 2. Nous avons noté un cercle (}) lorsque la méthode était adaptée à la
typologie, et un carré (…) lorsque la méthode était adaptée, mais avec des difficultés de
mise en oeuvre.

LLP - Edition : 26/03/2004 Page 3.33


Chapitre 3 - Le cas des petites séries

10.1.1. C1 - Aide au réglage dès les premières pièces


Unité Moins de 20 Plus de 20
Non répétitif Répétitif Non répétitif Répétitif Non répétitif Répétitif
Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût
élevé faible élevé faible élevé faible élevé faible élevé faible élevé faible

D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2

U- … } … } … } … }
Echant.
V- Eff
série
W-Modif
ca
X-
procédé
Y- … … … … … … … … } } … … } } … … } } … … } } … …
Modèle

On note tout de suite sur ce tableau l'absence de méthode particulièrement adaptée


au réglage dès les premières pièces. Bien sûr en cas de modèle établi (Méthode Y), il
sera facile de déterminer les réglages opportuns pour obtenir une pièce bonne dès le
premier coup. Mais cet avantage est malheureusement compensé par la difficulté de sa
mise en oeuvre

10.1.2. C2 - L'aide au réglage sur échantillon


Unité Moins de 20 Plus de 20
Non répétitif Répétitif Non répétitif Répétitif Non répétitif Répétitif
Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût
élevé faible élevé faible élevé faible élevé faible élevé faible élevé faible

D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2

U- } } } } } } } }
Echant.
V- Eff } } } } } } } } } } } } } } } } } } } } } } } }
série
W-Modif … … … … … … … … } } } }
ca
X- … } … … … } … … … } … … } } … …
procédé
Y- … … … … … … … … … … … … … … … … … … … … … … … …
Modèle

L'aide au réglage sur échantillon est, lui, facilité par de nombreuses méthodes. La
modification des cartes de contrôle nous semble difficilement adaptable pour les petites

LLP - Edition : 26/03/2004 Page 3.34


Chapitre 3 - Le cas des petites séries

séries de moins de 20 pièces. Le pilotage par étude du procédé est à réserver aux pièces
complexes donc contenant de nombreux critères. Par contre, quelle que soit la typologie
de production, l'obtention d'un modèle facilite la compréhension du procédé et donc son
réglage. La méthode de la recherche d'un effet de série a, sur ce critère, un avantage
important. On note également l'intérêt sur ce point de rechercher un échantillonnage
dans le cas des pièces unitaires. Les applications que nous avons menées sur ce point
nous ont montré l'intérêt de la technique.

10.1.3. C3 - Le suivi et l'amélioration des capabilités


Unité Moins de 20 Plus de 20
Non répétitif Répétitif Non répétitif Répétitif Non répétitif Répétitif
Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût
élevé faible élevé faible élevé faible élevé faible élevé élevé faible
faible
D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2

U- } } } } } } } }
Echant.
V- Eff } } } } } } } } } } } } } } } } } } } } } } } }
série
W-Modif … … … … … … … … } } } }
ca
X- … } … … … } … … … } … … } } … …
procédé
Y- … … … … … … … … … … … … … … … … … … … … … … … …
Modèle

Ce tableau est le même que le précédent. En effet, lorsqu'on peut travailler à partir
d'échantillons, la surveillance de la dispersion intra-échantillons et inter-échantillons
permet de façon simple de suivre les capabilités aussi bien machine que procédé. Or le
suivi est le premier pas de l'amélioration.

10.1.4. C4 - Le coût de mise en oeuvre


Unité Moins de 20 Plus de 20
Non répétitif Répétitif Non répétitif Répétitif Non répétitif Répétitif
Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût
élevé faible élevé faible élevé faible élevé faible élevé faible élevé faible

D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2

U- } } } } } } } }
Echant.

LLP - Edition : 26/03/2004 Page 3.35


Chapitre 3 - Le cas des petites séries

V- Eff } } } } } } } } } } } } } } } } } } } } } } } }
série
W-Modif … … … … … … … … … … … …
ca
X- … … … … … … … … … … … … … … … …
procédé
Y- … … … … … … … …
Modèle

Pour ce critère, les techniques qui peuvent être utilisées de façon manuelle sont
avantagées. La technique de modification des cartes demande la mise en place d'un
système informatique. Elle est donc d'un coût plus élevé. Les deux dernières techniques
demandent des études spécifiques, elles sont donc plus coûteuses.

LLP - Edition : 26/03/2004 Page 3.36


Chapitre 3 - Le cas des petites séries

10.1.5. C5 - La facilité de mise en oeuvre - Adaptation globale


Méthode/Type de production
Cette classification est la plus importante, nous résumerons dans ce tableau les
applications types de chacune des méthodes.

Unité Moins de 20 Plus de 20


Non répétitif Répétitif Non répétitif Répétitif Non répétitif Répétitif
Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût Coût
élevé faible élevé faible élevé faible élevé faible élevé faible élevé faible

D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2

U - Echant. … } … } … } … }
V- Eff … … … … … … … … … … … … … … … … … … … … … … … …
série
W-Modif … … … … … … … … } } } }
ca
X- … } … … … } … … … } … … } } … …
procédé
Y- … … … … … … … … … … … … … … … … … … … … … … … …
Modèle

La méthode de l'échantillonnage est particulièrement conseillée lorsqu'on travaille


sur des pièces unitaires. Bien sûr, elle sera facilitée si le nombre de critères est
important et permet de créer cet échantillonnage.

Nous avons choisi de noter (…) l'effet de série, car si cette méthode marche
particulièrement bien lorsqu'elle est réalisable, elle est néanmoins dépendante de
trouver cet effet de série. Cela n'est pas toujours évident.

La méthode de modification des cartes nous semble particulièrement bien adaptée


aux séries répétitives de plus de 20 pièces. Lorsqu'on travaille sur des toutes petites
séries, il est difficile de mettre en oeuvre la technique.

La méthode du modèle convient à tous les types de production - à condition que


l'on soit capable de pouvoir l'établir.

10.2 Conclusion sur cette classification


On note sur ce tableau la difficulté de mettre en oeuvre la MSP dans le cas des
petites séries malgré les méthodes énoncées dans ce chapitre. L'étude de cette
classification nous a conduit à faire deux remarques.

LLP - Edition : 26/03/2004 Page 3.37


Chapitre 3 - Le cas des petites séries

Remarque 1
L'évaluation selon le critère C1 ( aide au réglage sur les premières pièces) est
assez peu encourageant. Très peu de méthodes permettent de satisfaire élégamment ce
critère. Il serait donc utile de trouver une méthode simple qui comblerait cette lacune.

Remarque 2

L'évaluation selon le critère globale C4 nous montre la pauvreté des méthodes


pour résoudre les cas des toutes petites séries de moins de 20 pièces. Il nous a donc
semblé utile de développer une nouvelle méthode répondant à ce déficit.

La méthode de la carte de contrôle "petites séries" permet de mettre à disposition


des opérateurs un outil simple d'emploi, particulièrement adapté aux cas des toutes
petites séries et facilitant les réglages dès les premières pièces. On peut constater que
cette méthode couvre deux domaines particulièrement déficitaires actuellement.

11. Conclusion sur ce chapitre


L'objectif de ce chapitre était de présenter les spécificités des petites séries et de
développer les méthodes existantes pour appliquer la MSP. Nous avons montré dans un
premier temps par une typologie des petites séries la diversité des cas de figure se
trouvant derrière l'appellation "petites séries".

Après avoir réalisé une analyse critique de la méthode traditionnelle de pilotage


dans le cas des toutes petites séries, nous avons présenté les différentes méthodes
disponibles pour appliquer les méthodes statistiques dans ce cas. Cette étude nous a
permis de noter l'importance du travail déjà réalisé dans ce domaine. Il est, en effet,
souvent possible d'appliquer les méthodes statistiques habituellement réservées aux
grandes séries en effectuant quelques adaptations. Ces adaptations peuvent être le fait
de retrouver un effet de série, de modifier le principe des cartes de contrôle, ou encore
de ne plus s'intéresser aux caractéristiques des pièces, mais plutôt aux caractéristiques
des procédés. Nous avons également fait apparaître que le cas des toutes petites séries
était peu adapté aux méthodes décrites. Dans ce domaine, très peu de travaux ont été
réalisés à ce jour. C'est dans ce type de production que le travail reste le plus artisanal.
L'étude que nous présentons au chapitre quatre a pour objectif de combler cette lacune.

LLP - Edition : 26/03/2004 Page 3.38


Chapitre 4 - La carte de contrôle "petites séries"

Chapitre 4

La carte de contrôle "petites


séries"

1. Le besoin d'une nouvelle méthode


Nous avons vu au chapitre 3 que les méthodes et outils actuels pour appliquer la
MSP dans le cas des toutes petites séries n'étaient pas tout à fait adaptés. Il y a nécessité
de créer un nouvel outil pour les opérateurs dans deux cas :
• l'aide au pilotage des toutes premières pièces,
• l'application de la MSP dans le cas des toutes petites séries de moins de 20
pièces.

Nous proposons dans ce chapitre une nouvelle approche pour appliquer la MSP
dans le cas des toutes petites séries basée sur un nouveau concept de cartes de contrôle :
les cartes de contrôle "petites séries". Ces cartes de contrôle ont pour objectif de devenir
un outil de pilotage pour les opérateurs en répondant aux deux questions essentielles
que se pose un opérateur en production :

1. le procédé est-il déréglé?


2. si oui, de combien?

Nous présenterons dans ce chapitre une première carte de contrôle "petites séries"
dérivée des cartes de Shewhart particulièrement adaptée au remplissage manuel. Puis

LLP Edition : 26/03/04 Page 4.1


Chapitre 4 - La carte de contrôle "petites séries"

nous présenterons une amélioration de cette carte de contrôle par une procédure
CUSUM plus efficace dans certains cas de figure.

2. Principe de base de la carte de contrôle


"petites séries"
2.1. Présentation de la carte
La carte de contrôle "petites séries" que nous avons développée [Pilc91], [Pilb92],
[Pilc92] [Pilc93] s’appuie sur la technique des cartes de contrôle traditionnelles en
permettant à l’opérateur de disposer d’une aide de pilotage de son procédé. Le
graphisme de celle-ci a été adapté pour ressembler le plus possible aux cartes de
Shewhart afin de faciliter le passage des cartes de contrôle traditionnelles vers les cartes
de contrôle "petites séries". On retrouve les deux cartes de contrôle des moyennes et
des étendues (Figure 4.1). Les premières applications que nous avons réalisées montrent
que les opérateurs connaissant le principe des cartes de contrôle traditionnelles
comprennent très rapidement le principe de la carte de contrôle" petites séries".

Carte de contrôle petites séries X&R Machine


Pièce Spécification Instrument de contrôle
+2 0
+1 -1
+4 -1
+3
+1
+2 +1,5 +2,33 0 -0.5 -0.66 +0.25 +0.4
1 3 1 1 4 4

[Pilc91] - Maurice PILLET - Pratique du SPC dans le cas des petites séries - La maitrise Statistique des
processus ou SPC - Recueil de conférence CETIM 20/11/91 - 87:100 - 1991
[Pilb92] - Maurice Pillet - Application du SPC aux petites séries - Revue contrôle industriel et qualité -
n°174 - Avril 92 - 58:61 - 1992
[Pilc92] - Maurice Pillet - Le SPC dans un contexte de petites séries - Actes de conférences 2ème journée
des CPIM de France - Les outils du changement - 23/009/1992 - 97:103 -1992
[Pilc93] - Maurice Pillet - Le SPC et les petites séries - Technologie et Formation n° 46 - Février 93 -
29:32 - 1993

LLP Edition : 26/03/04 Page 4.2


Chapitre 4 - La carte de contrôle "petites séries"

Figure 4.1 - Exemple de carte de contrôle"petites séries"

La carte de contrôle "petites séries" permet d’adopter un raisonnement statistique


même dans le cas d’une série de 10 pièces. Dès la seconde pièce, la carte de contrôle
amène l'opérateur à ne pas raisonner uniquement sur la seconde pièce, mais à raisonner
sur les deux premières pièces. Bien que sensiblement identique aux cartes de Shewhart,
le principe de remplissage et de calcul des limites sont particuliers à ce nouveau type de
carte.

2.2. Le remplissage de la carte des petites séries


Pour comprendre le fonctionnement de cette carte, nous allons nous appuyer sur le
premier exemple de réglage que nous avons évoqué au chapitre 3, paragraphe 4 - figure
3.1. Nous rappelons la suite des valeurs dans le tableau ci-dessous.

Numéro 1 2 3 4 5 6 7 8 9 10
Cote +2 +1 +4 +3 +2 +2 +6 -2 -3 -4
Action R(-6)

Pour remplir cette carte, il suffit de remplir les cases X1..X5 avec les valeurs
mesurées, puis, de calculer à chaque nouvelle mesure la moyenne de l’ensemble des
pièces mesurées et l’étendue. Les valeurs moyenne et étendue sont reportées sur les
cartes correspondantes.

Ainsi lorsque l'opérateur a mesuré la première pièce réalisée (+2), il inscrit cette
valeur en X1 et la reporte sur la carte des moyennes. Il n'y a pas, bien sûr d'étendue sur
la première valeur.

Lorsqu'il a contrôlé la seconde pièce (+1), il calcule la moyenne (+1,5) et


l'étendue (1) qu'il reporte sur les cartes de contrôle des moyennes et des étendues.
L'interprétation de ces cartes est à peu près identique à l'interprétation de la carte de
Shewhart. D'une façon simplifiée, lorsque le point est à l'intérieur des limites, le
procédé est sous-contrôle. Lorsque le point est à l'extérieur des limites, le procédé est
hors contrôle, il y a présence d'une cause spéciale. Il faut alors intervenir pour la
supprimer. Dans le cas de l'exemple présenté, le second point est dans les limites de
contrôle, la probabilité d'un bon centrage est importante, il est déconseillé d'intervenir.

Pour décider du réglage, l’opérateur aura besoin de limites de contrôle qui seront
calculées en fonction de la dispersion du procédé comme nous le montrerons au
paragraphe suivant.

Dans notre exemple, dès la troisième pièce (+4), la carte de contrôle "petites
séries" donne l’assurance d’un déréglage en sortant des limites de contrôle des
moyennes. Mais le rôle de la carte ne s’arrête pas là. Elle permet à l’opérateur de

LLP Edition : 26/03/04 Page 4.3


Chapitre 4 - La carte de contrôle "petites séries"

connaître l’importance de la correction à effectuer en fonction des trois premières pièces


prélevées. Le réglage sera ici égal à 2,3, la moyenne des trois premières pièces. Nous
verrons plus tard que ce réglage peut être affiné.
Ayant réglé, l’opérateur passe à la carte suivante. En effet, comme il y a eu
réglage, il faut considérer un nouvel échantillon sinon nous inclurions dans les causes
communes les variations de réglage.

On constate qu'il réalise les 5 pièces suivantes en remplissant la carte de contrôle


sans que celle-ci détecte le besoin d'un nouveau réglage. Il a réalisé 8 pièces
parfaitement conformes, correctement centrées par rapport à la nominale. Il y a une
forte probabilité que le réglage est bon comme le montre la deuxième série de mesures
qu’il vient de réaliser. Dans le cas où la capabilité machine est supérieure à 2 [§5
chapitre 4], il n’est pas nécessaire de mesurer les deux dernières pièces de la série de
dix pièces, elles ont une très forte probabilité d'être bonnes.

On note l'amélioration apportée par la carte de contrôle "petites séries" sur la


méthode traditionnelle. L'opérateur a pu avoir très tôt le signal d'un décentrage, et éviter
ainsi d'obtenir la pièce n°7 hors tolérance.

A titre d'exemple, le lecteur pourra simuler le cas numéro deux que nous avions
présenté, et vérifier que l'utilisation de notre carte de contrôle "petites séries" aurait
évité le réglage inutile. Or, chaque fois qu'un réglage inutile est supprimé, chaque fois
qu'une pièce rebut est évitée, c'est de la productivité en plus pour l'entreprise et donc de
la compétitivité.

3. Le calcul des limites de contrôle


Nous avons choisi de présenter le calcul de la carte de contrôle moyenne/étendue
( X / R ) car c'est la plus adaptée à un remplissage manuel. Bien sûr, il est néanmoins
possible d'utiliser une carte Moyenne/ écart-type (X / σ ). Les formules se déduisent
facilement à partir des calculs présentés.

3.1 Identification de l'écart-type de la population

Pour appliquer cette méthode, il faut connaître la distribution suivie par le


procédé, et donc l’écart-type (σ). Cette distribution est facilement identifiable dans le
cas des séries répétitives. Il suffit de mesurer les résultats obtenus lors des précédentes
séries. Dans le cas de séries non répétitives, on peut néanmoins connaître la distribution
à partir de l’historique des productions réalisées dans des conditions similaires.

LLP Edition : 26/03/04 Page 4.4


Chapitre 4 - La carte de contrôle "petites séries"

Dans le cas où on ne connaît rien sur le procédé, il faut mettre en place une feuille
de relevé sur laquelle on prendra soin de noter l'ensemble des actions et des incidents
dans un journal de bord. Cette feuille de relevé permettra de regrouper l'ensemble des
procédés de même type que celui qui nous intéresse. Une fois cette feuille de relevé
remplie, on regroupera l'ensemble des relevés en sous-groupes homogènes, c'est-à-dire
ne comportant pas de cause spéciale identifiée dans le journal de bord. (Figure 4.2). Les
valeurs notées sur la feuille de relevé sont les écarts par rapport à la cible.

N° Valeur Journal Sous N° Valeur Journal Sous N° Valeur Journal Sous


de bord groupe de bord groupe de bord groupe

1 +3 1 11 1 3 21 1 4
2 +2 1 12 -4 3 22 -2 4
3 +5 Réglage 1 13 1 3 23 1 4
4 -2 2 14 -1 3 24 0 4
5 0 2 15 -2 fin lot 3 25 -2 4
6 -1 2 16 +6 réglage / 26 0 fin lot 4
7 0 Fin lot 2 17 0 4 27 2 5
8 -4 3 18 -2 4 28 1 5
9 0 3 19 -1 4 29 0 5
10 0 3 20 1 4 30 -1 5

Figure 4.2 - Feuille de relevé

La feuille de relevé ci-dessus nous permet de déterminer cinq sous groupes à-


priori homogènes et réalisés à peu près dans les mêmes conditions. On peut alors
calculer la variance de chacun des sous-groupes constitués.

Sous groupe 1 2 3 4 5
NB de valeurs 3 4 8 10 4
Variance s2 2.33 0,917 4,125 1,6 1,66

Il faut maintenant vérifier l'homogénéité des variances. Les tests simples de


Cochran et de Hartley ne sont pas possibles car les nombres de degré de liberté ne sont
pas identiques dans chaque échantillon. Il faudrait faire le test de BARTLETT qui est
relativement lourd. Une autre solution consiste à utiliser le test de comparaison de
variance à une valeur théorique qui n'est autre que la variance intra-série. Cette
comparaison peut se faire au moyen d'une carte de contrôle de la variance.

ν1V1+ ν2V2+... + νnVn


Variance intra série =
ν1 + ν2 +... + νn

2 x 2 , 33 + 3x 0, 917 + 7 x 4 , 125 + 9 x1, 6 + 3x1, 66


Dans notre cas Vi = = 2,319
24

Le calcul de la carte de contrôle est effectué à partir de la distribution du χ² :

LLP Edition : 26/03/04 Page 4.5


Chapitre 4 - La carte de contrôle "petites séries"

2
S
LIC = χ 2
0,999
( n j − 1)
2
S
LSC = χ 2
( n j − 1)
0,001

La valeur centrale représente la variance intra-série que nous avons calculée 2,319

Groupe 1 2 3 4 5
Nb ddl 2 3 7 9 3
Variance 2.33 0,917 4,125 1,6 1,66
χ20,999 0,002 0,024 0,595 1,152 0,024
LIC 0,002 0,018 0,197 0,296 0,018
χ20,001 13,82 16,27 24,32 27,88 16,27
LSC 16.02 12.57 8,05 7.18 12.57

Ce qui donne sous forme graphique la figure 4.3.

25

20

15

10

0
1 2 3 4 5 6 7

Figure 4.3 carte de contrôle de la variance

L'ensemble des variances étant compris dans les limites de contrôle, on peut
accepter l'hypothèse d'homogénéité des variances, et considérer que σ = Vint ra série est
l'écart-type de la population étudiée. Nous aurions donc σ = 1,52, écart-type supposé de
la population totale. Cette estimation est une première estimation grossière, car elle
porte sur peu de valeurs. Il sera nécessaire d'affiner cette estimation à partir des
premiers résultats observés sur la carte de contrôle "petites séries".

Estimation de l'écart-type à partir de l'étendue

On peut également estimer l'écart-type à partir de la moyenne des étendues


calculées sur deux pièces consécutives sans causes spéciales entre ces valeurs. On
calcule donc l'étendue entre la première et la seconde, entre la seconde et la troisième,
etc.

Dans notre exemple, nous trouverions comme moyenne des étendues : R = 1, 875

LLP Edition : 26/03/04 Page 4.6


Chapitre 4 - La carte de contrôle "petites séries"

En utilisant la loi de l'étendue réduite que nous avons présentée au chapitre 2


paragraphe 1.2, nous trouverions comme estimation de l'écart-type

R 1, 875
σ$ = = = 1, 66
d 2 1,128
3.2. Calcul de la carte des moyennes

RAPPEL STATISTIQUE PRELIMINAIRE

Nous rappelons au lecteur un résultat fondamental de statistique qui est la base de


la technique des cartes de contrôle.

Si on considère une population d’écart-type σ et de moyenne M, les moyennes des


échantillons prélevés de façon aléatoire de taille n suivent une répartition de GAUSS, de
moyenne M et d’écart-type σ n

α/2 α/2
u.σ u.σ

Figure 4.4 - Risque α

En nous appuyant sur les lois de l'échantillonnage, et en supposant que la machine


soit parfaitement centrée, la première pièce réalisée se situera dans l’intervalle

[ N - u.σ , N + u.σ ]
Avec
• N : Nominale
• u : Variable réduite en fonction du risque α
• σ : Ecart-type historique de la distribution

Lorsque le résultat est compris dans cet intervalle, il est délicat de régler. On
risque de dérégler un procédé bien centré. Par contre, si la pièce se situe à l'extérieur de

LLP Edition : 26/03/04 Page 4.7


Chapitre 4 - La carte de contrôle "petites séries"

cet intervalle, nous avons la certitude (au risque α/2) que la machine n'est pas centrée
sur la valeur cible. Il faut donc opérer à un ajustement.

Il en est de même pour la deuxième pièce. Mais, si au lieu de ne raisonner que sur
la deuxième pièce, on raisonne sur la moyenne des deux premières pièces, on peut ainsi
affiner notre jugement. En effet, cette moyenne calculée sur deux pièces sera comprise
dans l’intervalle
σ σ
N − u. , N + u.
2 2
De même, si l’opérateur réalise la cinquième pièce sans réglage intermédiaire, la
moyenne des cinq pièces sera comprise en cas de réglage parfait de la machine dans
l’intervalle
σ σ
N − u. , N + u.
5 5
Si la moyenne ne se situe pas dans cet intervalle, nous avons la certitude (au
risque α/2) que le procédé est déréglé, il faut donc le régler. Le principe de la carte de
contrôle des moyennes en petites séries est de travailler sur des échantillons de taille
variable. Cet échantillon sera réduit à l'unité lorsqu'on ne dispose que de la première
pièce. Puis l'échantillon augmentant, on peut affiner la détection des causes spéciales.

Usuellement, u est pris égal à 3. Les limites de contrôle des moyennes seront
calculées à partir de l'écart-type estimé de la population totale et de la taille de
l'échantillon par les formules :

σ
LSCX = Cible + 3
n
σ
LICX = Cible − 3
n

3.3. Calcul de la carte des étendues

En appliquant la loi de l’étendue réduite (chapitre 2, §1.2), nous pouvons


calculer, en fonction de l’écart-type historique, l’étendue moyenne observée sur n
pièces . On trouve :
R = d .σ
2

La loi de l'étendue a pour écart-type σR, lequel se déduit de l'écart-type de la


population totale par la relation :

σ = d .σ
R 3

On peut donc fixer les limites de variation de l'étendue à ±3.σR. On aura comme
limite de contrôle pour les étendues :

LLP Edition : 26/03/04 Page 4.8


Chapitre 4 - La carte de contrôle "petites séries"

LSCR = R + 3. d 3 . σ
LICR = R − 3. d 3 . σ

On peut pour simplifier ces expressions les exprimer en fonction de σ, on trouve

LSCR = ( d 2 + 3. d 3 ) σ = D6 . σ
LICR = ( d 2 − 3. d 3 ) σ = D5 . σ

Nous avons introduit les coefficients D5 et D6 pour simplifier les calculs.

Pour simplifier, les calculs des limites de contrôle s'effectuent à partir des
relations suivantes :
Pour les moyennes
LSCX = Cible + A 4 . σ
LICX = Cible − A 4 . σ
Pour les étendues
LSCR = D6 . σ
LICR = D5 . σ

Les coefficients utilisés dans les calculs sont résumés dans le tableau ci dessous.

n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
d2 1,128 1,693 2,059 2,326 2,534 2,704 2,847 2,970 3,078 3,173 3,258 3,336 3,407 3,472

d3 0,853 0,888 0,880 0,864 0,848 0,833 0,820 0,808 0,797 0,787 0,778 0,770 0,762 0,755

D5 - - - - - 0.20 0.39 0.55 0.69 0.81 0.92 1.03 1.12 1.20


D6 3.69 4.36 4.69 4.91 5.08 5.20 5.31 5.39 5.47 5.53 5.59 5.65 5.69 5.74
A4 3 2.12 1.73 1.5 1.34 1.22 1.13 1.06 1 0.95 0.90 0.87 0.83 0.80 0.77

La figure 4.5 donne un exemple de calcul

LLP Edition : 26/03/04 Page 4.9


Chapitre 4 - La carte de contrôle "petites séries"

Exemple de calcul

σ = 1.15
Ecart-type déterminé à partir de l'historique :
Cible visée =0

Calcul de la carte des moyennes

Pour n = 1 LSCx = Cible +σA3


= 0. + 3x1,15 = 3,45

Pour n = 2 LSCx = Cible +σA3


= 0. + 2,12x1,15 = 2,43

Calcul de la carte des étendues

Pour n = 2
σ =x 3,69 x 1,15 = 4,24
Limite supérieure LSCr = D6

Pour n = 3
σ =x 4,36 x 1,15 = 5,01
Limite supérieure LSCr = D6

Figure 4.5 - Calcul des limites sur la carte "petites séries"

4. Détermination du réglage optimal

Le rôle de la carte de contrôle "petites séries" ne s'arrête pas à la détection des


recentrages nécessaires. En effet, elle peut également indiquer l'importance des réglages
à réaliser. Pour cela, il faut déterminer quel est le réglage pour lequel la probabilité de
recentrer le procédé est plus forte que la probabilité de le décentrer. Pour développer
cette partie, nous nous appuierons sur les travaux de Mrs LILL, CHU et CHUNG [Lill
91]

4.1. Cas où le réglage doit être réalisé sur la première


pièce
Dans le cas où la première pièce détecte un déréglage, l'opérateur doit recentrer
son procédé. La valeur mesurée, est en fait la combinaison d'un décentrage et d'une
dispersion autour du décentrage. Le réglage optimal est bien entendu d'annuler le
décentrage, mais il est impossible pour l'opérateur de savoir qu'elle est la part du
décentrage et celle de la dispersion dans la mesure qu'il a réalisée. La figure 4.6 montre

[Lill 91] - LILL H. - CHU Yen - CHUNG Ken - Statistical Set-up Adjustement for low volume
manufacturing - Statistical Process Control in Manufacturing - 23:38 - Dekker - 1991

LLP Edition : 26/03/04 Page 4.10


Chapitre 4 - La carte de contrôle "petites séries"

deux cas de figure donnant le même résultat sur la mesure de la première pièce, mais
qui nécessite des réglages différents.

Intervalle de tolérance
Dispersion σr
de réglage

Dispersion σp
de production

Ecart
mesuré

Figure 4.6 - Combinaison du décentrage et de la dispersion

En supposant une loi normale pour chacune des répartitions, on peut calculer la
composition des deux fonctions de répartition et ainsi trouver le réglage optimal.

La combinaison d'un écart de centrage et d'un écart dû à la dispersion a été étudiée


par LILL [Lil 91].
Si on considère σp, l'écart-type de la distribution de la population autour d'un
réglage, et σr, l'écart-type de la répartition des erreurs de réglage, les deux fonctions de
répartition s'écrivent :

2
1 XP − N ☺
− ☺

1 2 σ
Y = e P
P σ 2π
P
2
1 XR − N ☺
− ☺

1 2 σ
Y = e P
R σ 2π
R

Avec N : la valeur centrale


XR : l'erreur de réglage
XP : l'erreur due à la dispersion

En supposant que la valeur centrale pour les deux distributions est égale à 0, on a
alors N = 0.

L'erreur totale E, c'est-à-dire l'écart mesuré par l'opérateur, est égale à la somme
des deux erreurs, on a

E=X +X
R P

LLP Edition : 26/03/04 Page 4.11


Chapitre 4 - La carte de contrôle "petites séries"

Nous recherchons en fait, l'erreur de décentrage XR, nous pouvons donc écrire

XR = E - XP

σR
Posons c = , la combinaison des deux distributions de probabilité donne F(XR)
σP
qui est :

1 2
−Z .σ
1 2 R
Y .Y = e
R P 2. π . σ . σ
R P

Avec Z = c²(E - XR)² + XR²

Le maximum de la fonction de répartition ci-dessus est lorsque la fonction Z est


minimum. En effet, le moindre risque d'erreur sera au maximum de la densité de
probabilité de la loi obtenue. En différenciant Z par rapport à XR, nous trouvons :

∂Z
= −2 c2 E − X + X
∂X R R
R

La fonction de répartition est maximum pour :

∂Z c2
=0 soit XR = E
∂XR 1 + c2

Le meilleur ajustement sera obtenu - dans les hypothèses que nous avons retenues
pour nos calculs - par un réglage de l'écart entre la dimension mesurée et la valeur cible
(E) multiplié par le coefficient c²/(1+c²)

c2
Réglage optimal A = E
1 + c2

Estimation préalable du coefficient c - proposition de Hill

On constate que le meilleur ajustement est très facile à calculer si on a identifié le


σ
rapport c = R . Il faut être capable d'identifier σR et σP.
σP

σP est assez facile à identifier, c'est l'écart-type de la population totale dont nous
avons déjà eu besoin pour le calcul des limites de contrôle.

LLP Edition : 26/03/04 Page 4.12


Chapitre 4 - La carte de contrôle "petites séries"

σR est lui beaucoup plus difficile à connaître. Dans un premier temps, il faut se
contenter de l'estimer. M. HILL propose d'estimer σR à partir de l'intervalle de
tolérance et d'un coefficient de difficulté de réglage.

IT
σR =
U
Avec IT : intervalle de tolérance
U : coefficient de difficulté de réglage.

Le coefficient traduit la difficulté d'obtenir un réglage précis avant de pouvoir


mesurer une pièce. Ce coefficient dépend donc de la machine et de son équipement
comme par exemple un banc de pré réglage.

Trois niveaux de difficulté sont retenus par Hill :

Difficulté Très difficile Normale Très facile


U 5 8 12

avec bien sûr la possibilité de prendre des niveaux intermédiaires.

Estimation préalable du coefficient c - notre proposition

Dans le cas où le réglage se fait après une première approche en ébauche, nous
proposons une autre méthode plus simple pour estimer σR. Nous avons remarqué que
plus une machine avait de la dispersion, plus le réglage était imprécis. Cela vient de la
méthode employée pour faire le premier réglage. En règle générale, l'opérateur
approche la cote par une ébauche côté retouche, puis corrige en fonction de cette
ébauche. Comme l'ébauche est réalisée avec de la dispersion, il y a de grande chance
que le réglage soit d'autant plus précis que la dispersion de la machine est faible. Dans
ce cas de figure, nous pouvons estimer σR par la relation suivante :

σR = σP
Ce qui donne
c=1

Calcul du coefficient c - notre proposition

Après avoir estimé le coefficient c pour pouvoir établir la grille de réglage que
nous définirons plus loin, il est possible, après quelque temps de fonctionnement de la
carte de contrôle "petites séries", d'avoir une meilleure estimation de σR. En effet, le
pilotage par cartes de contrôle permet de corriger le procédé. En étudiant l'historique

LLP Edition : 26/03/04 Page 4.13


Chapitre 4 - La carte de contrôle "petites séries"

des corrections apportées avant d'obtenir un centrage correct, il est possible de calculer
avec une meilleure approximation un estimateur de σR.

Considérons le tableau ci-dessous dans lequel nous avons consigné l'ensemble des
réglages nécessaires pour obtenir un centrage correct :

Lot 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Réglage -3 -1 -3 -2 +2 0 +2 -3 0 -3 +4 -2 -3 0 +3 +2 0 0 0 +2
Init
Régl Comp 0 0 -2 0 +2 0 0 0 0 0 -2 0 0 0 +2 0 0 0 0 0
Total -3 -1 -3 -2 +4 0 +2 -3 0 -3 +4 -2 -3 0 +5 +2 0 0 0 +2

Sur la ligne réglage initial, nous avons consigné les réglages qui ont été effectués.
Dans les cas où des corrections complémentaires à ce premier réglage auraient été
apportées, elles ont été consignées sur la seconde ligne. La dispersion sur l'erreur
initiale de réglage peut donc être estimée comme étant égale à la dispersion sur les
modifications de réglage nécessaires. σR peut donc être estimé en calculant l'estimateur
s de la ligne Total. Nous trouverions alors : σR =2,54

LLP Edition : 26/03/04 Page 4.14


Chapitre 4 - La carte de contrôle "petites séries"

4.2. Cas du réglage sur la nième pièce

Nous venons de voir ce qui se passe lorsque le réglage a lieu sur la première
pièce. Il faut également calculer le réglage optimal lorsque ce réglage a lieu sur la nième
pièce.

Réglage après deux pièces

Dans le cas où le réglage doit se faire sur la moyenne des deux premières pièces,
nous sommes toujours en présence de deux dispersions : la dispersion de réglage et la
dispersion de la production. Cependant, le fait de considérer la moyenne des deux
premières pièces, plutôt que de considérer uniquement la seconde pièce, nous permet de
diminuer l'incertitude liée à la dispersion de production. L'écart type de la répartition de
la moyenne d'un échantillon de 2 pièces est égal à σ P 2

σ2R
Le rapport c² devient donc c'2 = 2. 2 = 2. c
2
σP

2. c2
L'ajustement optimal est : A = E
1 + 2. c2

Réglage sur la nième pièce

En appliquant le même raisonnement, on trouve que:

n. c2
L'optimal est : A = E
1 + n. c2

4.3 Règle pratique de réglage


4.3.1. détermination de la règle
Pour simplifier l'utilisation de la formule précédente, nous allons établir une
relation simple de réglage :

Ajustement optimal = K x Ecart

n. c2
avec K =
1+ n. c2

LLP Edition : 26/03/04 Page 4.15


Chapitre 4 - La carte de contrôle "petites séries"

Dans le cas où nous retenons la stratégie d'estimation σR = σP, il est possible


d'établir une règle simple de réglage.

En effet c = 1, le rapport K est donc égal à n/(1+n).

Le tableau ci-dessous donne le coefficient K.

Réglage sur la moyenne de 1 2 3 4 5


Coefficient K 1/2 2/3 3/4 4/5 5/6

La règle (souvent appliquée de façon empirique en production) consiste à régler


de la moitié de l'écart sur la première pièce, des 2/3 de la moyenne des écarts sur la
seconde etc...

On peut simplifier en considérant qu'à partir de la cinquième pièce, le réglage doit


être égal à la valeur de la moyenne des écarts."

Dans le cas où le coefficient c est différent de 1, un rapide calcul permet d'établir


le coefficient K.

4.3.2. Détermination d'une grille de réglage

Pour être applicable sur le poste de travail, il est nécessaire de toujours simplifier
le travail des opérateurs.

Il faut établir une grille qui leur permettra de déterminer en fonction :

• de l'écart constaté entre la moyenne et la cible,


• du nombre de pièces dans l'échantillon au moment où la carte a détecté un
décentrage,
l'importance de la correction à apporter.

Ce tableau peut-être par exemple

Décentrage 1 2 3 4 5 6 7 8 9 10
n=1 0,50 1,00 1,50 2,00 2,50 3,00 3,50 4,00 4,50 5,00
n=2 0,67 1,33 2,00 2,67 3,33 4,00 4,67 5,33 6,00 6,67
n=3 0,75 1,50 2,25 3,00 3,75 4,50 5,25 6,00 6,75 7,50
n=4 0,80 1,60 2,40 3,20 4,00 4,80 5,60 6,40 7,20 8,00
n=5 0,83 1,67 2,50 3,33 4,17 5,00 5,83 5,83 7,50 8,33

Il est placé sur le poste de travail, et permet à l'opérateur de savoir rapidement la


correction à apporter.

LLP Edition : 26/03/04 Page 4.16


Chapitre 4 - La carte de contrôle "petites séries"

5. Efficacité de la carte de contrôle


"petites séries"
L'efficacité d'une carte de contrôle est en fait l'efficacité à détecter un déréglage.
En effet, lorsqu'on pilote un procédé avec des méthodes statistiques, on a toujours deux
risques décisionnels :
- le risque de première espèce α de conclure à un déréglage alors qu'il n'y en a
pas,
- le risque de seconde espèce β de ne pas déceler un déréglage alors que celui-ci
existe.
La figure 4.7 montre le risque α dans le cas d'un réglage parfait, et le risque β
dans le cas d'un décentrage.

Limite inférieure Limite supérieure


Limite supérieure Nominale
de contrôle Nominale de contrôle
de contrôle
k.σ
σ σ/ n σ σ/ n

uβ. σ/ n

β
α/2 α/2
u(α/2) . σ/ n u(α/2) . σ/ n A u(α/2) . σ/ n B C

Procédé centré Procédé décentré

Figure 4.7 - Les risques α et β

Soit

A : la valeur cible recherchée (Nominale)


σ
B : la limite de contrôle des moyennes éloignées de la valeur cible de u α 2 x
n
C : la position du centrage de la machine. Le décentrage supposé est exprimé dans
la variable réduite. Il est égal à k.σ

La répartition des moyennes d'un échantillon de n pièces suit une loi normale
d'écart-type σ n . Dans le cas d'un procédé décentré, la probabilité de ne pas détecter
le déréglage k.σ (risque β) est égale à la surface hachurée.

Pour calculer la probabilité de détecter un déréglage k.σ, il faut calculer uβ en


fonction du déréglage k, du nombre de valeurs dans l'échantillon et de uα/2 choisit pour
le calcul des limites.

σ σ
On peut écrire AC = AB+BC soit k. σ = u α 2 . + uβ .
n n

LLP Edition : 26/03/04 Page 4.17


Chapitre 4 - La carte de contrôle "petites séries"

D'où
uβ = k. n − u α 2

En prenant uα/2 = 3 il vient :

uβ = k. n − 3

qui représente l'équation de la courbe d'efficacité. Le tableau suivant donne les


valeurs de -uβ sur la première ligne et β sur la seconde en fonction de k et de n

k 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5


n=1 2,500 2.000 1,500 1.000 0,500 0.000 -0,500 -1.000 -1,500 -2.000
0.6 2.3 6.7 15.9 30.8 50 69.1 84.1 93.3 97.7
n=2 2.293 1.586 0.879 0.172 -0.535 -1.242 -1.949 -2.656 -3.363 -4.070
1.4 5.7 18.9 43.6 70.2 89.3 97.4 99.6 0 0
n=3 2.134 1.268 0.402 -0.464 -1.330 -2.196 -3.062 -3.928 -4.794 -5.660
1.7 10.2 34.5 67.7 90.7 98.6 0.1 0 0 0
n=4 2.000 1.000 0.000 -1.000 -2.000 -3.000 -4.000 -5.000 -6.000 -7.000
2.3 15.9 50.0 84.1 97.72 0.1 0 0 0 0
n=5 1.882 0.764 -0.354 -1.472 -2.590 -3.708 -4.826 -5.944 -7.062 -8.180
3.0 22.4 63.7 92.9 99.5 0 0 0 0 0
n=6 1.775 0.551 -0.674 -1.899 -3.124 -4.348 -5.573 -6.798 -8.023 -9.247
3.8 29.1 74.8 97.06 0 0 0 0 0 0
n=7 1.677 0.354 -0.969 -2.292 -3.614 -4.937 -6.260 -7.583 -8.906 -10.229
4.8 36.3 83.4 98.9 0 0 0 0 0 0

Ce tableau se représente sous forme d'une courbe :

Probabilité de ne pas détecter le déréglage


1.0

0.9

0.8

0.7

0.6

0.5 n=4 n=3 n=2 n=1

0.4 n=5
n=7
0.3

0.2
Déréglage
0.1
k
0.0
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

LLP Edition : 26/03/04 Page 4.18


Chapitre 4 - La carte de contrôle "petites séries"

Figure 4.8 - Courbe d'efficacité des cartes de contrôle "petites séries"

On note sur ce graphique tout l'intérêt de travailler avec la carte de contrôle


"petites séries" plutôt que de travailler de façon traditionnelle en raisonnant sur la
dernière pièce. Le raisonnement traditionnel a pour efficacité la courbe n=1. Dès que le
raisonnement a lieu sur deux pièces plutôt que sur une pièce, la courbe d'efficacité
s'incline de façon importante.

En limitant la carte de contrôle "petites séries" à 5 pièces, on a un décentrage


maximum qui est égal à environ 2 σ. Le nombre de pièces à prélever dans un
échantillon minimum pour être sûr du bon centrage du procédé dépend donc de la
capabilité machine.

Nous devons établir une relation liant le risque β (de ne pas conclure à un
déréglage alors que celui-ci existe), le pourcentage de pièces hors tolérances admises, la
capabilité machine et le nombre minimum de pièces dans l'échantillon.

Limite
de contrôle Limite de
k.σ tolérance

σ
σ
n u p xσ
u(α/2 )x σ
n

β
A B C D
Nominale

Figure 4.8 - Détermination du nombre minimum de mesure dans l'échantillon

Dans le cas d'un procédé bilatéral, nous pouvons écrire :

AD = AB + BC + CD
Ce qui se traduit par :
IT σ σ
= uα 2 x +u + u .σ
2 n β n p
Avec

• IT : Intervalle de Tolérance,
• u
• uβ : variable réduite associée au risque de seconde espèce de ne pas détecter un
déréglage,
• up : variable réduite associée au pourcentage de pièces hors tolérance acceptées,

LLP Edition : 26/03/04 Page 4.19


Chapitre 4 - La carte de contrôle "petites séries"

• n : nombre mini de mesure dans l'échantillon,


• σ : écart type de la population totale.

Nous pouvons également écrire :

Cm = IT/6σ

L'équation précédente devient :

u
3 β
3.Cm = + +u
n n p

D'où, il vient la relation recherchée :

Nombre minimum de mesure dans l'échantillon :

2
3+ u
β
n=
3Cm − u
p

Application

Supposons que l'on ne souhaite pas ne pas détecter un déréglage dans plus de 1%
des cas ( β =0,01) correspondant à un pourcentage de défaut de 0,1% (p = 0,001)

Dans ce cas, la table de Gauss nous donne uβ =2,33 et up = 3,1

On peut donc établir en fonction de Cm le nombre minimum de pièces nécessaires


dans l'échantillon pour satisfaire ce critère :

Cm 1.33 1.5 1.67 1.8 2 2.2 2.5 2.8 3


n mini 36 15 8 6 4 3 2 1 1

On note rapidement sur ce tableau que lorsque la machine n'est pas capable
(Cm<1,67), le nombre minimum de pièces est prohibitif. Par contre, lorsque la machine
est capable on peut rapidement être sûr de son réglage après 4 ou 5 mesures
consécutives sans que la carte de contrôle "petites séries" ne détecte un décentrage.

LLP Edition : 26/03/04 Page 4.20


Chapitre 4 - La carte de contrôle "petites séries"

6. Capabilité à partir des cartes "petites


séries"
Comme dans le cas des grandes séries, il est possible de calculer un indice de
capabilité court terme et long terme à partir des données contenues dans les cartes
"petites séries". Nous noterons au passage que ces cartes permettent une traçabilité très
efficace des productions réalisées.

6.1. Capabilité court terme


Estimation de l'écart-type instantané à partir des étendues

Comme dans le cas des cartes de contrôle traditionnelles, l’indice de capabilité


court terme (Cm) pourra être "approché" à partir de l’écart-type estimé σins tan tan é .

σ ins tan tan é représente l'écart-type de la dispersion intra-échantillon. Pour avoir une
estimation non biaisé de σ ins tan tan é , le plus simple consiste à l'estimer à partir de la
moyenne des étendues de chaque lot homogène en appliquant la relation

R
σIns tan tan é =
d2

Il est donc nécessaire pour calculer σins tan tan é de disposer d'un nombre
suffisamment important d'échantillons et donc de cartes de contrôle. On aura pris soin
d'éliminer les lots sur lesquel une cause spéciale a été détectée par la carte de contrôle
des étendues. Dans ce cas, il n'y aurait pas homogénéité des variances. Un petit
problème se pose dans la mesure où les échantillons ne sont pas tous de taille constante.
Il faut donc regrouper l'ensemble des échantillons en fonction de leur taille, et calculer
pour chaque taille d'échantillon un estimateur σn.

σ ins tan tan é pourra alors être calculé comme étant la moyenne pondérée de chacun
des σestimé en fonction du nombre de sous-groupes dans la taille d'échantillon n

Application

Taille du sous-groupe 2 3 4 5
nombre d'échantillon 4 10 10 9
Estimateur σestimé 1,7 1,5 1,3 1,6

4 x1, 7 + 10 x1, 5 + 10 x1, 3 + 9 x1, 6


σins tan tan é = = 1, 49
33

LLP Edition : 26/03/04 Page 4.21


Chapitre 4 - La carte de contrôle "petites séries"

Estimation de l'écart-type instantané à partir des variances intra-échantillon

Il est également possible d'estimer σins tan tan é à partir de la variance intra-
échantillon. Il faut pour cela calculer la variance Vi = si² de chaque lot homogène. On
aura éliminé de ce calcul les lots sur lesquels une cause spéciale avait été détectée sur la
carte des étendues . Le fait de ne conserver que les échantillons sous contrôle sur la
carte des étendues nous donne l'assurance de l'homogénéité des variances. On peut donc
calculer la variance intra série par :

ν1V1+ ν2V2+... + νnVn


Variance intra série =
ν1 + ν2 +... + νn

avec ν1 : nombre de degré de liberté de l'échantillon 1 = n1-1


V1: Variance s1² de l'échantillon 1

On en tire σins tan tan é = Vint rasérie

Recalcul des limites de contrôle

Dans le cas où σins tan tan é est significatif de l'écart-type de la population qui avait
été estimé, il est alors nécessaire de recalculer les limites de contrôle.

Détermination de la capabilité machine

La capabilité machine se calcule facilement à partir de σins tan tan é . On a :

IT
Cm =
6xσins tan tan é

6.2. Capabilité long terme


La capabilité long terme a pour objectif de connaître la capabilité de ce qui est
réellement livré au client. Comme dans le cas des cartes de contrôle traditionnelles
[Chapitre 2 §2.1.5], le calcul des capabilités doit se faire à partir des valeurs
individuelles
Il est facile dans ce cas d’estimer la dispersion de la production réalisée sur
plusieurs séries. En effet, il suffit, dans les conditions de normalité, de calculer l’écart-
type de l’ensemble des valeurs individuelles inscrites sur les cartes, pour estimer la
dispersion.

Soit σ l’écart-type des valeurs individuelles Cp = IT/6σ

La vraie capabilité étant calculée par :

LLP Edition : 26/03/04 Page 4.22


Chapitre 4 - La carte de contrôle "petites séries"

X − Limite la plus proche


Cpk =
3.σ

LLP Edition : 26/03/04 Page 4.23


Chapitre 4 - La carte de contrôle "petites séries"

7. Autres utilisations de la carte de


contrôle "petites séries"
Outre l'utilisation de cette carte de contrôle pour le pilotage de production en
petites séries, on peut également l'utiliser pour le démarrage de production de séries
plus importantes, pour lesquelles il convient d'optimiser le réglage des premières pièces.
En effet, les dix premières pièces d'une grande série se comportent comme une petite
série de dix pièces. On peut, également, utiliser cette carte pour le démarrage, et la
transformer en une carte traditionnelle X/R après les 5 premières pièces de réglage.

Comme le montre la figure 4.9, la carte comporte une première partie en carte de
contrôle "petites séries" qui se transforme ensuite en une carte de contrôle
traditionnelle.

Figure 4.9 - Carte de contrôle avec démarrage de série

Cette application de la carte de contrôle petites séries permet à l'opérateur


d'utiliser la MSP dès les premières pièces, et ainsi d'utiliser pleinement l'avantage des
méthodes statistique de pilotage.

LLP Edition : 26/03/04 Page 4.24


Chapitre 4 - La carte de contrôle "petites séries"

8. Carte de contrôle "petites séries" avec


procédure CUSUM

8.1. L'intérêt d'introduire une procédure CUSUM

On a remarqué, dans le paragraphe 5 de ce chapitre, que si la carte de contrôle


traditionnelle telle que nous l'avons présentée était suffisante dans le cas des machines
dont le Cm était supérieur à 2, il n'en est pas de même pour les machines dont la
capabilité est limite. Il serait intéressant d'améliorer l'efficacité de la carte.

De plus, dans le cas des toutes petites séries, il faut détecter le plus vite possible
un décentrage afin de limiter le nombre de pièces défectueuses. Nous avons vu au
chapitre 2 que la procédure CUSUM introduit par LUCAS [Luc 73] [Luca82] [Lucb82]
[Pal 91] permet d'améliorer dans certains cas, l'efficacité des cartes de contrôle. Il nous
a donc semblé utile d'adjoindre à notre carte de contrôle "petites séries" une procédure
CUSUM qui permettra d'améliorer la rapidité de détection des décentrages de la
moyenne.

Nous avons cependant conservé comme procédure graphique la procédure que


nous avons décrite précédemment, car celle-ci possède l'avantage d'être très
significative pour les opérateurs. La procédure graphique de la carte CUSUM n'est pas
directement exploitable puisqu'elle représente des écarts cumulés qui ne sont pas
forcément proportionnels aux décentrages de la machine. La procédure CUSUM que
nous introduisons dans la carte de contrôle "petites séries" est donc une procédure
purement calculatoire qui vise à améliorer la rapidité de détection d'un décentrage.

8.2. Le principe de la méthode


Le principe de la méthode CUSUM que nous allons développer est le même que
le principe de la carte de contrôle "petites séries".

[Luc 73] - J. M. Lucas - The design and use of V-mask control schemes. Journal of quality Technologie
8 (1) - 1973 - 1:12 - January
[Luca82] - J. M. Lucas - Combined Shewhart-CUSUM quality control shemes - Journal of Quality
Technologie 14(2) -1982 - 51:59 - April
[Lucb82] - J. M. Lucas - R. B. Croisier - Fast initial response for CUSUM quality control schemes : Give
your CUSUM a head start. Technoometrics 24(3) - 1982 - 199:215 - August
[Pal 91] - M. Palsky - La maîtrise des procédés continus - La maitrise Statistique des processus ou SPC
- Recueil de conférence CETIM 20/11/91 - 101:112 - 1991

LLP Edition : 26/03/04 Page 4.25


Chapitre 4 - La carte de contrôle "petites séries"

Pour chaque mesure X réalisée, on peut calculer la variable réduite associée à


cette mesure qui est:
u = X−C
σ
avec • u : Variable réduite,
• X : mesure individuelle réalisée,
• σ : Ecart-type de la distribution.

Notons tout de suite que l'application de la méthode nécessite de connaître l'écart-


type de la population. Nous avons détaillé les méthodes permettant d'estimer l'écart-type
de la population au paragraphe 3.1.

Pour une suite de valeurs individuelles, nous formons la suite des sommes
cumulées suivantes
S H = Max 0, ( u i − k ) + S H
i i −1

S L i = Max 0, ( − u i − k ) + SL i−1

La première somme sert à détecter un décalage du côté positif de la moyenne, la


seconde du côté négatif. D'un point de vue pratique, il est aussi possible de ne pas
raisonner en variables réduites, mais en valeurs réelles. Cela simplifie les calculs à
réaliser sur le poste de travail. Cependant, nous garderons dans notre travail le calcul en
variables réduites qui est plus explicite pour le lecteur.

La valeur k est souvent choisie comme étant la moitié du décalage de la moyenne


que l'on souhaite détecter. k est généralement fixé à 0,5 pour détecter un décentrage de
un écart-type. Les deux sommes sont initialisées à 0 en début de procédure, et chaque
fois qu'un procédé hors contrôle est détecté. Un signal "hors-contrôle" est décelé chaque
fois qu'une des deux sommes excède une valeur limite, notée h par l'auteur de la
méthode. h est choisi entre 4 et 5 en fonction de l'efficacité souhaitée de la carte de
contrôle.

Nous avons détaillé le cas de la procédure FIR CUSUM, au chapitre 2 paragraphe


1.4., qui consiste à initialiser les sommes à la moitié de la valeur h. La procédure FIR
CUSUM est plus rapide que la procédure CUSUM pour détecter un décentrage.

Nous allons appliquer les procédures CUSUM et FIR CUSUM aux deux
exemples que nous avons détaillés au chapitre 3 paragraphe 4. La figure 4.10 nous
montre le cas de l'exemple 1 qui a été traité avec la carte de contrôle "petites séries" au
paragraphe 2. Celle-ci avait détecté un déréglage à partir de la troisième valeur. Nous
donnons dans la figure 4.10 le résultat des deux procédures : la procédure CUSUM et la
procédure FIR CUSUM.

Condition de production
Ecart-type de la population =1,15
Valeur cible 0
Coefficient k = 0,5
Coefficient h = 5

LLP Edition : 26/03/04 Page 4.26


Chapitre 4 - La carte de contrôle "petites séries"

Sinit = 0 pour CUSUM - 2,5 pour FIR CUSUM


CUSUM FIR CUSUM
N° Mesure u SH/0 SL/0 SH/2,5 SL/2,5
1 2 1,74 1,24 0,00 4,24 0,00
2 1 0,87 1,61 0,00 4,61 0,00
3 4 3,48 4,59* 0,00 7,59* 0,00
4 0 0,00 0,00 0,00 2,5, 2,50
5 -1 -0,87 0,00 0,37 1,13 2,87
6 -1 -0,87 0,00 0.74 0,00 3,24
7 3 2,61 2,11 0,00 2,11 0,13
8 -1 -0,87 0,74 0,37 0,74 0,50

Figure 4.10 - Procédure CUSUM et FIR CUSUM

On note dans ce tableau que dans ce cas de figure la procédure FIR CUSUM
aurait confirmé le décentrage à l'issue de la troisième mesure (h>5). Elle n'a pas permis
une détection plus rapide que la carte de contrôle "petites séries" traditionnelle. La
procédure CUSUM aurait détecté le déréglage en prenant h = 4 dans les mêmes
conditions.

Lorsqu'un réglage a été effectué, on ré-initialise les sommes à 0 pour la procédure


CUSUM et à 2,5 pour la procédure FIR CUSUM. Les 5 dernières mesures qui n'avaient
pas donné lieu à un recentrage avec la carte de contrôle "petites séries" obtiennent une
confirmation avec la procédure CUSUM puisque aucune somme ne dépasse 5.

8.3. Efficacité de la procédure CUSUM

Si l'efficacité dans le cas des cartes de contrôle de Shewhart est facile à calculer,
il n'en est pas de même pour le calcul de l'efficacité dans le cas des cartes de contrôle
CUSUM. Il est donc nécessaire de recourir à une simulation informatique ou a des
techniques d'intégration numérique.

On définit l'efficacité d'une carte de contrôle CUSUM par un chiffre ARL


(Average Run Length) ou POM en Français (Période Opérationnelle Moyenne) qui
traduit la moyenne du nombre de calcul avant d'avoir un point hors limite d'acceptation.
Lucas [Lucb82] a publié un tableau donnant les POM pour différents décalages de la
moyenne à partir des conditions h = 5 et k = 0,5.

LLP Edition : 26/03/04 Page 4.27


Chapitre 4 - La carte de contrôle "petites séries"

Décalage de la 0 0,25 0,50 0,75 1,00 1,50 2,00 2,50 3,00 4,00 5,00
moyenne (λ.σ)
POM pour 465 139 38,0 17,0 10,4 5,75 4,01 3,11 2,57 2,01 1,69
CUSUM
POM pour 430 122 28,7 11,2 6,35 3,37 2,36 1,86 1,54 1,16 1,02
FIR CUSUM

On note sur ce tableau l'efficacité de la carte de la procédure FIR CUSUM par


rapport à la procédure CUSUM. On note que la valeur POM pour un décalage nulle de
la moyenne n'est pas nulle. Elle est associée au risque β de seconde espèce. C'est la
"fausse alarme", la carte détecte un décentrage inexistant. On constate sur ce tableau
que le risque β est sensiblement le même dans le cas FIR CUSUM que dans le cas
CUSUM. Nous retiendrons pour nos applications la procédure FIR CUSUM.

On peut comparer les POM des cartes CUSUM aux POM des cartes "petites
séries" sans procédure CUSUM. Pour calculer les POM, nous partons de la loi
binomiale. Soit p, la probabilité de détecter une situation hors contrôle. La probabilité
d'obtenir le premier signal hors contrôle sur la nième valeur sera donnée par

f ( n) = p1 (1 − p) ( n −1)
avec n = 1, 2, 3, 4, ...

Nous pouvons écrire


∞ ∞
E ( n ) = ∑ np (1 − p ) n −1
= p ∑ n (1 − p ) n −1
n =1 n =1


Le terme ∑ (1 − p ) n −1 est une série géométrique infinie et on a
n =1

1
∑ (1 − p)
n =1
n −1
=
p

Si on dérive les expressions de chaque côté de l'égalité et que l'on multiplie par p,
il vient :
∞ ∞
1
p ∑ ( n − 1)(1 − p ) = = p ∑ n (1 − p ) n −1
n−2

n =1 p n =1

La valeur moyenne espérée pour n (POM) est 1/P, où p est la probabilité associée
à un sous-groupe. Dans le cas d'une carte Shewhart, nous connaissons la probabilité
associée à un sous groupe, nous sommes donc capables de calculer POM pour les
différents cas de figure sur la taille des échantillons.

Nous avons établi en figure 4.11 un tableau comparatif pour un décalage de la


population de différents écart-types de la population totale.

LLP Edition : 26/03/04 Page 4.28


Chapitre 4 - La carte de contrôle "petites séries"

taille sous-groupe 1 2 3 4 5
Décalage = 1 σ 43,5 17,5 9,8 6,3 4,5
Décalage = 1,5 σ 14,9 5,3 2,9 2,0 1,6
Décalage = 2 σ 6,3 2,3 1,5 1,2 1,1
Décalage = 2,5 σ 3,2 1,4 1,1 1,0 1,0

Figure 4.11 - POM de la procédure des moyennes

En comparant ce tableau avec le tableau des POM pour la procédure CUSUM, on


constate facilement que la procédure CUSUM est plus efficace pour détecter les petites
dérives ( 1 et 1,5 σ). Par contre, lorsque la dérive devient plus importante, la carte de
contrôle "petites séries" sans procédure CUSUM devient plus efficace.

Cette étude nous a montré la complémentarité des deux approches. Les deux
procédures de calcul offrent chacune leurs avantages dans des cas de figure très
différents. Les faibles dérives seront souvent rapidement détectées par la procédure
CUSUM car la probabilité de détecter de faibles écarts avec le calcul de la moyenne est
faible. Par contre les écarts importants seront détectés très rapidement par la carte aux
moyennes.

Pour illustrer l'efficacité de la procédure de la moyenne, nous avons grisé les cas
où POM était inférieur à 2. On constate, en effet, que pour un décalage de 2,5 écart-
types, la détection du décentrage à de grandes chances d'apparaître dès la seconde
mesure. Pour un décalage de 2 écart-types, il faudra attendre la quatrième mesure de
l'échantillon pour avoir une forte probabilité de détecter ce décentrage.

Cependant, comme nous sommes dans le cas des petites séries, il est toujours
possible de prendre un risque α (risque de dérégler une machine réglée) plus important.
En effet, le fait de prendre h = 5 nous donne une POM de 430 pour la procédure FIR
CUSUM. Ce qui correspond à un réglage inutile sur 430 contrôles lorsque le procédé
est parfaitement centré. Dans le cas des petites séries, où le nombre de contrôle est
faible, il est possible d'augmenter ce risque en diminuant h afin d'être plus rapide dans
la détection des décentrages.

LLP Edition : 26/03/04 Page 4.29


Chapitre 4 - La carte de contrôle "petites séries"

9. La carte "petites séries"


Application sur différents cas de figure
Pour tester les différentes réactions de la carte de contrôle "petites séries", nous
avons utilisé un simulateur générant une loi normale d'écart-type 1,3 unité. Nous avons
testé la carte pour différents cas de figure. Nous ne retiendrons que les cas les plus
caractéristiques qui montrent l'intérêt du double calcul Moyenne/CUSUM.

Intervalle de tolérance 0±8

Cm = 16/(6x1,3) =2,05

9.1 Détermination de la carte


Détermination du nombre de valeur dans l'échantillon maxi

Cm = 2, en retenant les conditions d'efficacité que nous avions fixées au


paragraphe 4, le nombre minimum de mesure était de 4, nous prendrons 5 mesures pour
être sûr du centrage.

Calcul de la carte des moyennes

Pour les moyennes


LSC X = Cible + A 4 . σ
LIC X = Cible − A 4 . σ
Pour les étendues
LSCR = D6 . σ
LICR = D5 . σ
Les limites seront donc

n 1 2 3 4 5 6 7 8
LICX 3.9 2.76 2.25 1.95 1.74 1,59 1,47 1,38
LSCX -3.9 -2.76 -2.25 -1.95 -1.74 -1,59 -1,47 -1,38
Rmoyen 1.47 2.20 2.68 3.02 3,29 3,51 3,70
LSCR 4.80 5.67 6.10 6.38 6,60 6,76 6,90

Conditions de la procédure CUSUM pour POM0 = 430

k = 0,5 σ soit 0,65


h=5

LLP Edition : 26/03/04 Page 4.30


Chapitre 4 - La carte de contrôle "petites séries"

Choix de la procédure FIR CUSUM


9.2. Test n° 1 - simulateur centré sur 1,3 soit 1 σ
Pour le premier test que nous avons effectué, nous avons réglé le simulateur sur
1,3. L'écart-type de la population étant de 1,3, ce décentrage correspond à un décalage
de 1xσ

Dans ce cas, les études d'efficacité nous montrent que le nombre moyen de
prélèvement pour la carte CUSUM est de 6,35 pour un POM0 de 430. Cela signifie que
nous ne sommes pas sûr de trouver ce déréglage sur 5 pièces. Pour la procédure de la
moyenne, la probabilité de détecter un si petit décentrage est très faible même à partir
de l'échantillon maxi de 5 pièces (POM = 4,5). La figure 4.12 illustre cette application

n 1 2 3 4 5 6 7 8
Valeur mesurée 0 1 -1 2 2 4 2 -1
Moyennes 0 0,5 0 0,5 0,8 1,33 1,42 1,125
Etendues 1 2 3 3 5 5 5
u 0 0,77 -0,77 1,54 1,54 3,07 1,54 -0,77
SH 2,5 1,85 0,43 0 0,89 1,78 4,2 5,09* 3,82
SL 2,5 1,85 0,65 0,77 0 0 0 0 0,12

4
3
2
1
0
-1
-2
-3
-4

6
5
4
3
2
1
0
Figure 4.12 - Test n°1

La carte de contrôle des moyennes ne détecte pas le déréglage dans les 5


premières valeurs. Nous avons poursuivi l'expérience sur 3 mesures supplémentaires,
mais bien que proche des limites la procédure des moyennes ne signale pas le
décentrage. La procédure CUSUM ne détecte pas non plus le décentrage dans les 5
premières mesures. Par contre, en poursuivant la simulation, on a un signal de
décentrage lors de la septième valeur. Si nous avions choisit comme limite h=4 (pour un
POM0 plus faible) nous aurions le signal de décentrage dès la sixième valeur.

LLP Edition : 26/03/04 Page 4.31


Chapitre 4 - La carte de contrôle "petites séries"

Si nous faisons l'hypothèse que le la loi de distribution des réglages est égale à la
loi de distribution de la population totale, le réglage à réaliser serait égal à la valeur de
la moyenne lors de la septième mesure, soit un réglage de 1,42. Ce qui est excellent
compte tenu du décentrage connu de 1,3.
9.3. Test n° 2 - simulateur centré sur 2 soit 1,5 σ
Dans ce cas, les études d'efficacité nous montrent que le nombre moyen de
prélèvement pour la carte CUSUM est de 3, 37. Pour la procédure de la moyenne, on
note qu'il faut attendre la cinquième valeur pour avoir, avec une forte probabilité,
l'indication de décentrage (POM = 1,6). La figure 4.13 illustre cette application

n 1 2 3 4 5
Valeur mesurée 3 2 1 3 0
Moyennes 3 2,5 2 2,25 1,8
Etendues 1 2 2 3
u 2,31 1,54 0,77 2,31 0
SH 2,5 4,16 5,05* 5,17 6,83 6,18
SL 2,5 0 0 0 0 0

4
3
2
1
0
-1
-2
-3
-4

6
5
4
3
2
1
0

Figure 4.13 - Test n°2

La carte de contrôle des moyennes ne détecte pas le déréglage avant la 4ème


valeur alors que la procédure CUSUM détecte le déréglage dès la seconde pièce.

Si nous faisons l'hypothèse que le la loi de distribution des réglages est égale à la
loi de distribution de la population totale, le réglage à réaliser serait égal au 2/3 de la
valeur de la moyenne lors de la deuxième mesure, soit :

2 x2, 5
Réglage à réaliser après détection par la carte CUSUM = = 1, 66
3

LLP Edition : 26/03/04 Page 4.32


Chapitre 4 - La carte de contrôle "petites séries"

Le déréglage initial étant - dans cette simulation - connu et égal à 2, on note la


rapidité de la détection, et l'efficacité du réglage généré.

Dans le cas du fonctionnement de la carte sans procédure CUSUM, la détection


du décentrage aurait eu lieu à la quatrième mesure. La correction apportée aurait été de
(4/5)x2,25 soit de 1,8. Dans les deux cas, le recentrage est satisfaisant.

9.4. Test n° 3 - simulateur centré sur 2,6 soit 2 σ


Dans ce cas, l'efficacité de la procédure CUSUM et du test sur les moyennes est
sensiblement identique. La détection peut intervenir soit par le calcul CUSUM, soit par
le test des moyennes.

n 1 2 3 4 5
Valeur mesurée 3 3 2 5 1
Moyennes 3 3 2,66 3,25 2,8
Etendues 0 1 2 4
u 2,31 2,31 1,54 3,84 0,77
SH 2,5 4,16 5,82* 6,71 9,9 10,02
SL 2,5 0 0 0 0 0

4
3
2
1
0
-1
-2
-3
-4

6
5
4
3
2
1
0

Figure 4.14 - Test n°3

La détection a lieu dans les deux cas sur la seconde pièce. Le réglage optimal doit
être égal au 2/3 de la moyenne soit de 2 pour un décentrage connu de 2,6. Ce qui est très
correct.

LLP Edition : 26/03/04 Page 4.33


Chapitre 4 - La carte de contrôle "petites séries"

9.5. Test n° 4 - simulateur centré sur 4 soit 3 σ


Le dernier test que nous traiterons sera le cas d'un décentrage important. Les
calculs d'efficacité nous montrent qu'un tel décentrage doit être détecté très rapidement
autant par la carte CUSUM que par le calcul des moyennes.

n 1 2 3 4 5
Valeur mesurée 4 2 5
Moyennes 4 3 3,66
Etendues 2 3
u 3,07 1,54 3,84
SH 2,5 4,92 5,81* 9
SL 2,5 0 0 0

4
3
2
1
0
-1
-2
-3
-4

6
5
4
3
2
1
0

Figure 4.15 - Test n°4

La détection est effectivement réalisée dès la première pièce par la carte des
moyennes. Le réglage étant décidé sur la première valeur il sera de la moitié de l'écart
constaté soit de 2, ce qui est insuffisant. Nous retrouvons alors le cas du test n°2.

Notons cependant que dans l'hypothèse que nous avons retenue, la dispersion de
réglage était égale à la dispersion de production. Un décentrage de 4 est peu probable.
Si ce cas se reproduit souvent, il faudra changer le rapport entre la dispersion de réglage
et la dispersion de production et donc changer le coefficient de réglage de 1/2.

Si nous avions travaillé avec l'hypothèse réglage très difficile, nous aurions choisi
IT
comme coefficient U = 5 [Cf § 3.1] soit σ R = = 3, 2
5

Le coefficient c aurait été égal à 2,46 et donc le réglage optimal égal à :

LLP Edition : 26/03/04 Page 4.34


Chapitre 4 - La carte de contrôle "petites séries"

c2
Réglage = Ecart. = 3, 43
1 + c2

Soit une correction tout à fait correcte.

9.6. Remarque sur la carte des étendues

Dans le cas de la carte de contrôle "petites séries", la carte des étendues joue un
rôle important. Comme pour de la carte de contrôle traditionnelle, elle permet de
surveiller la capabilité de la machine.

Dans les tests que nous avons réalisés, l'ensemble des points sur la carte de
contrôle des étendues était dans les limites de contrôle. Nous n'avons donc pas détecté
de dérive de la capabilité machine lors de ces essais.

Lorsqu'un point sort de la carte de contrôle des étendues, cela signifie que la
dispersion instantanée augmente. Or, l'ensemble des calculs des limites de la carte de
contrôle "petites séries" sont basés sur cette dispersion instantanée. Il est donc impératif
de stopper la machine pour résoudre le problème de capabilité. Les limites de la carte ne
sont alors plus valables.

En fait la carte de contrôle sur étendue a un rôle de "chien de garde". Elle


surveille que la capabilité machine ne dérive pas et que les hypothèses de calcul de la
carte sont toujours valables.

LLP Edition : 26/03/04 Page 4.35


Chapitre 4 - La carte de contrôle "petites séries"

10. Application à un cas industriel


Les différentes publications et conférences que nous avons déjà réalisées sur la
carte de contrôle "petites séries" ont suscité un vif intérêt de la part des industriels.
Quelques précurseurs ont déjà mis en application cette méthode. Ce paragraphe nous
permettra de décrire un cas d'application dans la société Transrol à Chambéry (73) pour
lequel l'ensemble de la procédure que nous avons décrite dans ce chapitre a été
respectée.

10.1. Les conditions de départ


L'entreprise Transrol (groupe SKF) fabrique principalement des vis à billes à la
commande. Les séries sont nécessairement petites, et l'intérêt de la carte de contrôle
petites séries est apparu rapidement à l'encadrement de l'entreprise.

L'application concerne l'usinage d'une douille (Figure 4.16) sur tour à commande
numérique (Gildemeister CT 60). La caractéristique surveillée est la longueur de la
douille. Cette caractéristique très importante conditionne la recirculation des billes dans
la vis à billes. Elle a pour intervalle de tolérance ±0,02. La valeur nominale est choisie
pour avoir une longueur adaptée après trempe. La déformation à la trempe a été mesurée
par des essais.

Longueur

Dimension 25x20 25x25 32x20 40x20 40x40 50x50


Longueur après trempe 34.4238 43.29 34.406 54.8084 70.275 87.042
Longueur avant trempe 34.35 43.20 34.34 54.70 70.15 86.89

Figure 4.16 - Cas d'application de la carte "petites séries"

Il existe 6 types de douilles différents. La production est réalisée en petites séries


de 20 à 100 unités. La carte de contrôle choisie a été la carte de contrôle "petites séries"

LLP Edition : 26/03/04 Page 4.36


Chapitre 4 - La carte de contrôle "petites séries"

qui se transforme en carte de Shewhart. En effet, elle assure un réglage initial le plus
rapide possible par la procédure petites séries et permet de suivre la série de pièces par
la carte shewhart.

La capabilité était très mauvaise avec un Cp de 0,55 et un Cpk de 0,5. Ce qui


correspond à près de 11% de pièces hors tolérances.

Le démarrage de l'application a eu lieu en mars 1993.

10.2. Mise en oeuvre des cartes


La mise en place de la carte de contrôle "petites séries" a été précédée par une
formation de l'ensemble des personnes concernées par la MSP. Cette formation a touché
les opérateurs, l'encadrement de la production, le personnel du service méthode
concerné, et le personnel du service contrôle. L'objectif de cette formation était de
maîtriser les techniques traditionnelles de la MSP, dans le cas classique, et dans le cas
particulier des petites séries. La durée de la formation a été de 16 heures en 4 demi-
journées.

Avant la mise en place des cartes de contrôle "petites séries", M. Careglio du


service contrôle, a mis en place une feuille de relevé (paragraphe 3.1.) afin d'identifier
l'écart-type instantané. Les calculs de la carte de contrôle ont été réalisés conformément
aux règles présentées au paragraphe 3.

10.3. Exemple de pilotage

Les cartes (figure 4.17) donne un exemple de pilotage par la carte de contrôle
petites séries/Shewhart. Les cartes étant tenues de façon manuelle, la procédure
CUSUM n'a pas été retenue. Les calculs des moyennes sont simplifiés par l'utilisation
sur le poste de contrôle d'une table de division qui donne la moyenne en fonction de la
somme des écarts et de la taille de l'échantillon. Le travail supplémentaire de l'opérateur
par rapport à la démarche traditionnelle se résume dans les opérations suivantes :

• inscrire la valeur de la mesure sur la carte,


• faire la somme S des écarts sur les n premières pièces considérées,
• lire sur la table la moyenne en fonction de S et de n,
• reporter sur la carte les moyennes et étendues,
• faire le graphique de la carte.

LLP Edition : 26/03/04 Page 4.37


Chapitre 4 - La carte de contrôle "petites séries"

Figure 4.17 - Exemple de cartes

10.4. Les résultats


L'utilisation de la carte de contrôle a permis une amélioration importante des
capabilités. Les indicateurs Cp et Cpk qui étaient respectivement égaux à 0,55 et 0,5
(11% hors tolérance) sont montés à 1,37 et 1,18 en moyenne ce qui correspond à
0,016% de pièces hors tolérance.

Ce gain de capabilité a pu être réalisé grâce à la facilité de réglage procurée par la


carte de contrôle "petites séries" lors du premier réglage qui s'enchaine naturellement
avec la carte de Shewhart pour maintenir le procédé sous contrôle. Les réglages sont
réalisés aujourd'hui selon une procédure et non selon l'humeur de l'opérateur.

Cette cote étant très importante, chaque pièce hors tolérance donne lieu à une
retouche ou à un rebut. On peut conclure que la mise en place de la carte de contrôle
"petites séries" a permis un gain de productivité de près de 10%. Ce qui est
considérable.

Ces résultats encourageants ont permis de démultiplier ce type de cartes dans


l'atelier de la société Transrol. Au jour de cette rédaction, quatre cartes de type petites

LLP Edition : 26/03/04 Page 4.38


Chapitre 4 - La carte de contrôle "petites séries"

séries sont en application dans la société, et d'autres caractéristiques sont en phase


d'analyse préalable avec la feuille de relevé.

11. Conclusion sur ce chapitre


Ce chapitre nous a permis d'étudier en détail la carte de contrôle "petites séries".
Nous avons d'abord exposé le principe de fonctionnement de cette carte de contrôle, et
son intérêt pour les petites séries et les démarrages de séries. Nous avons étudié en
détail la méthode de mise en oeuvre de cette carte, notamment l'identification de l'écart-
type instantanée, qui est assez délicate dans le cas des petites séries.

L'étude de l'efficacité de la carte nous a permis d'observer la difficulté de la


procédure de la moyenne à détecter les petites dérives. Nous avons ainsi montré l'intérêt
de rajouter une procédure FIR CUSUM aux cartes de contrôle petites séries.

L'étude en simulation sur différents cas de figure a permis d'illustrer le


fonctionnement simultanné de la procédure de la moyenne et de la procédure CUSUM
sur la carte de contrôle "petites séries"

Aujourd'hui plus qu'hier, nos entreprises ont besoin d'améliorer leur productivité.
Il faut trouver des méthodes qui permettent à moindre frais de diminuer les rebuts et
d'améliorer les cadences. Nous pensons que cette carte de contrôle permet d'accroître la
rapidité de centrage et d'éviter des réglages inutiles. L'étude industrielle que nous avons
présentée nous montre que le centrage optimum généré par l'utilisation de la carte de
contrôle permet une amélioration importante de la capabilité et donc une diminution des
rebuts.

LLP Edition : 26/03/04 Page 4.39


Bibliographie

Bibliographie

[Afi 90] AFIM/AFNOR


Actes de conférences - Journées AMDEC Lyon 1990 - 1990

[Afn 83] Norme AFNOR NFX X 06-021 / X 06-022

[Afn 92] AFNOR


Recueil de normes Françaises - Statistiques tome 1 & 2
Afnor éditions - 1992

[Api 92] APICS Dictionary


7 th Edition - 1992

[Asi 87] Orthogonal arrays and linear graphs


American Supplier Institute, Inc - ASI 1987

[Ben 91] Procédure Qualité/Fiabilité EE1 - 23:26


Bendix - 1991

[Bis 86] A. F. Bissell


The performance of control chart and Cusum under linear trend
Applied statistics 33(2) - 318:335 - 1986

[Bot 92] D. R. Bothe


Integrating SPC with just in time
Conférence mondiale de l'APICS - Montréal - 1992

LLP - Edition : 26/03/2004 Page B.1


Bibliographie

[Box 78] George E. P. Box - William G. Hunter - J. Stuart Hunter


Statistics for experimenters
Wiley interscience -1978
[Bra 89] C. Braesch
Approche de la modélisation du système de production d'une entreprise
manufacturière
Thèse 1989 - Université de Franche Comte

[Cno 88] CNOMO - Normes CNOMO E41.92.110.N - 1988

[Dob 68] C. S. Van Dobben De Bruyn


Cumulative Sum Test - Theory and practice
GRIFFIN's Statistical Monograph & Courses - Alan Stuart - 1968

[Dra 81] Norman Drapper - Harry Smith


Applied regression analysis, Second edition
Wiley interscience - 709 pages - 1981

[Far 92] Nicholas R. Farnum


Control Charts for Short Runs : Non constant Process and Measurement
Error
Journal of Quality technology - Vol 24 - No 3 - 138:144 - July 1992

[For 82] Ford


Statistical Process Control -Instruction Guide
Ford Motor Company 1982

[For 91] Ford


Procédure Qualité SPC Q1
Ford Motor Company - Avril 1991

[Fos 88] Kevin Foster


Implementing SPC in low volume manufacturing
ASQC Quality Congress - Dallas - 1988

[Fos 91] Foster G. K.


Implementing SPC in low volume manufacturing
Statistical Process Control in Manufacturing - Dekker - 7:23 - 1991

[Gal 92] P.M. Galloy


Conférence PROGECTION
Annecy - 1992

[Gra 52] E.L. Grant


Statistical Quality Control
Mc. G. Hill - 1952 - p3

LLP - Edition : 26/03/2004 Page B.2


Bibliographie

[Hil 69] F. S. Hiller


X and R-chart Control Limits based on a small number of subgroups
Journal of quality technologie - 17:26 - January 1969

[Hil 89] Terry Hill


Manufacturing Strategy - Text and Cases
IRWIN - 1989

[His 86] Hishikawa


Conférence CSP Hishikawa - PARIS - 1986

[Iso 87] Normes ISO 9000/DIS 9000-2/9000-3/9001/9002/9003/9004/9004-2

[Iso 92] AFNOR - ISO - DIS 8402-1992

[Joh 77] N. L. Johnson - F. C. Leone


Statistics and experimental Design in engineering and the physical
Sciences
Volumes I, 2nd ed - Wiley - 1977

[Koo 91] G. F. Koons - J. J. Luner


SPC : Use in low volume manufacturing envirnment
Statistical Process Control in manufacturing - Quality and reliability -
ASQC Quality Press - 1991

[Leg 91] Philippe Legrand


QFD à GARRETT S. A. - Qualité et compétitivité 1991-1992 - 85:97 -
FIEV - 1991

[Lill 91] LILL H. - CHU Yen - CHUNG Ken


Statistical Set-up Adjustement for low volume manufacturing
Statistical Process Control in Manufacturing - 23:38 - Dekker - 1991

[Luc 73] J. M. Lucas - The design and use of V-mask control schemes.
Journal of quality Technologie 8 (1) - 1973 - 1:12 - January

[Luca82] J. M. Lucas - Combined Shewhart-CUSUM quality control shemes


Journal of Quality Technologie 14(2) -1982 - 51:59 - April

[Lucb82] J. M. Lucas - R. B. Croisier


Fast initial response for CUSUM quality control schemes : Give your
CUSUM a head start.
Technoometrics 24(3) - 1982 - 199:215 - August

LLP - Edition : 26/03/2004 Page B.3


Bibliographie

[Mon 90] Douglas C. Montgomery


Introduction to Statistical Quality Control - Second edition
ASQC Quality Press - 675 pages - 1990

[Nja 81] - Norme Japonaise 78101 - 1981

[Pal 91] Alain Palsky


La maîtrise des procédés continus
La maitrise Statistique des processus ou SPC - Recueil de conférence
CETIM 20/11/91 - 101:112 - 1991

[Peu 88] Peugeot


Normes Q54 4000 - Automobiles Peugeot - Citoën - Avril 88

[Pil 89] Maurice Pillet - Alain Courtois


Le SPC - Surveillance des Procédés en Continu
Contrôle industriel et qualité - n° 157 - 56:64 - Juin 89

[Pila90] Maurice Pillet


"Approche par modélisation de la maitrise statistique des procédés"
Séminaire interne Laboratoire de Logiciel pour la Productique
Janvier 1990 - 20 pages

[Pilb90] Maurice Pillet


Le SPC
Revue Science et technologie n° 31 - 31:38 - 1990

[Pilc90] Maurice Pillet


Fonctionnalités d'un logiciel SPC et critères de choix
Actes de conférence Journées GIIPRA - 25/09/1990 - 4 pages - 1990

[Pild90] Maurice Pillet


Le SPC, Trait d'union entre l'atelier et le service Qualité
Revue Mesures 17 décembre 1990 - 42:45

[Pila91] Maurice Pillet


Les pièces des mesures de capabilité
Journée des CPIM de France Actes de conférences - Paris - 1991

[Pilb91] Maurice Pillet


Les mesures de capabilité
Revue Contrôle industriel & Qualité n°171- 58:64 - Nov 1991

LLP - Edition : 26/03/2004 Page B.4


Bibliographie

[Pilc91] Maurice PILLET


Pratique du SPC dans le cas des petites séries
La maitrise Statistique des processus ou SPC - Recueil de conférence
CETIM 20/11/91 - 87:100 - 1991

[Pila92] Maurice Pillet


Introduction aux plans d'expériences par la méthode TAGUCHI
Ouvrage 224p - Ed organisation - 1992

[Pilb92] Maurice Pillet


Application du SPC aux petites séries
Revue contrôle industriel et qualité - n°174 - Avril 92 - 58:61 - 1992

[Pilc92] Maurice Pillet


Le SPC dans un contexte de petites séries
Actes de conférences 2ème journée des CPIM de France
Les outils du changement - 23/009/1992 - 97:103 -1992

[Pila93] Maurice PILLET


Les mesures de capabilité
Technologie et Formation n°45 - 23:29 - Janvier 1993

[Pilb93] Maurice Pillet


Cotation statistique et SPC
Journées de la cotation - Université de Savoie - Annecy - Avril 1993 - 11
p

[Pilc93] Maurice Pillet


Le SPC et les petites séries
Technologie et Formation n° 46 - Mars 93 - 29:32 - 1993

[Pild93] Maurice Pillet


Plans d'expériences - Présentation générale de la méthode
Technologie et formation n°47 - Mai 1993

[Por 91] Leslie J. Porter - John S. Oakland


Process capability indices - An overview of theorie and practice
Quality and reliability Engineering International - 7 p - 437- 448 - 1991

[Por 92] Leslie J. Porter et Porland Caulcutt


Control Chart design - A review of standard practice
Quality and reliability engineering Internationnal 8:113-122, 1992

[Pro 60] F. Proschan and I. R. Savage


Starting a Control Chart
Industrial Quality Control - 12:13 - September 1960

LLP - Edition : 26/03/2004 Page B.5


Bibliographie

[Pyz 92] Tomas Pyzdek


Pyzdek's guide to SPC
Vol I & II ASQC Quality Press - 1992

[Pys 93] Thomas Pysdek


Process control for short and small runs
Quality progress - 51:60 - April 1993

[Rya 89] Thomas P. Ryan


Statistical methods for quality improvement
John Wiley & sons - 1989

[She 31] Shewhart


Economic Control of Quality of Manufactured Product
Van Nostrand Co. Inc Princeton. - 1931

[Shi 92] M. Schimmerling


La maîtrise des informations complexes
Premières assises de la qualité - Paris 1992

[Sog 91] SOGEDAC


Procedure AMDEC - 1991

[Sog 92] SOGEDAC


Questionnaire Audit SOGEDAC - 1992

[Sou 82] Pierre Souvay


Cotation d'étude et de fabrication, Calcul d'erreur
Techniques industrielles n° 133 - 1982 - 41 Pages

[Sou 91] Pierre Souvay


La statistique, outil de la qualité - 3ème tirage
Afnor Gestion - 283 pages - 1991

[Sto 91] Gregg D. Stocker


Quality function deployment : Listening to the voice of the Customer
APICS conference proceeding 1991 - 258:262 - 1991

[Tag 87] Genichi Taguchi


System of experimental Design
Vol I & II - Kraus - 1987

[Tag 89] Genichi Taguchi - Elsayed A. Elsayed - Thomas Hsiang


Quality engineering in production systems
Mc Graw-Hill -- 1989

LLP - Edition : 26/03/2004 Page B.6


Bibliographie

[Tor 65] J. Torrens-Ibern


Les méthodes statistiques de controle dans les processus industriels
continus
Revue de statistique appliquée - 1965 - Vol XIII N° 1 p 65:93

[Vig 88] Michel G. Vigier


Pratique des plans d'expériences
Ouvrage 188 p - Les éditions d'organisation - 1988

[Vig 92] Michel G. Vigier


La pratique du Q.F.D.
Ouvrage - Ed d'organisation - 1992

[Wad 86] Wadsworth - Stephens - Godfrey


Modern methods for quality control and improvement
Wiley - 1986

[Zai 90] A. Zaidi


QFD Une introduction
Ouvrage - Lavoisier - 1990

LLP - Edition : 26/03/2004 Page B.7

Vous aimerez peut-être aussi