Académique Documents
Professionnel Documents
Culture Documents
Qualité Totale
Qualité Totale
Sommaire
Introduction
Chapitre 1
Méthodes et outils dans l'approche Qualité Totale
Chapitre 2
Les principes de base de la MSP et leurs limites
Chapitre 3
Le cas des petites séries
Chapitre 4
La carte de contrôle "petites séries"
Conclusions générales
Introduction
Le cadre de notre étude ................................................................................................ I.1
Plan du mémoire .......................................................................................................... I.2
Chapitre 1
Méthodes et outils dans l'approche Qualité Totale ............... 1.1
Chapitre 2
Chapitre 3
1. Introduction.............................................................................................................. 3.1
3. Les limites de l’application des cartes dans le cas des petites séries ....................... 3.6
3.1. Les problèmes posés par les petites séries................................................... 3.6
3.1.1. Nécessité d'un échantillon ............................................................... 3.6
3.1.2. Une carte par caractéristique........................................................... 3.6
3.1.3. La connaissance de la population.................................................... 3.7
3.2. Les réponses à ces obstacles........................................................................ 3.7
10. Evaluation des méthodes en fonction de la typologie des petites séries................ 3.33
10.1 Adaptation des méthodes aux différents cas............................................... 3.33
10.1.1. C1 - Aide au réglage dès les premières pièces.............................. 3.34
10.1.2. C2 - l'aide au réglage sur échantillon ............................................ 3.34
10.1.3. C3 - Le suivi et l'amélioration des capabilités .............................. 3.35
10.1.4. C4 - Le coût de mise en oeuvre..................................................... 3.35
10.1.5. C5 - La facilité de mise en oeuvre - Adaptation globale
Méthode/Type de production .................................................................... 3.36
10.2 Conclusion sur cette classification ............................................................. 3.36
Chapitre 4
C'est avec plaisir que je profite de cette occasion pour remercier Alain JUTARD
Professeur à l'INSA de Lyon de m'avoir initié à la recherche dans son laboratoire au
cours du DEA. Sa participation au jury m'apporte une grande satisfaction.
Je remercie également les entreprises qui m'ont permis de mettre en oeuvre et de tester
les méthodes présentées dans ce mémoire. Que les entreprises et le personnel de la
CPOAC et de TRANSROL soient assurées de ma gratitude.
Introduction
Nous insistons dans le cadre de ce travail, sur la vision que nous portons sur
l'interprétation des indicateurs de capabilité, par rapport à l'interprétation
traditionnellement réalisée. Après avoir établi les limites de l'interprétation
traditionnelle, notamment dans le cas des cotations statistiques, nous proposerons deux
indicateurs de rendement Rr (Rendement de réglage), et Rm (Rendement de maîtrise).
Ces rendements permettent de faciliter l'interprétation des indicateurs de capabilité, et
ainsi, de prendre les mesures qui s'imposent pour améliorer la qualité.
Cependant, l'objectif principal des travaux présentés dans cette thèse est d'élargir
le champ d'application des méthodes de la maîtrise statistique des procédés aux cas des
toutes petites séries (moins de 10 produits) et aux cas où le nombre de mesure est limité
(cas des démarrages de séries par exemple).
Pour permettre cet élargissement, nous présentons une nouvelle carte de contrôle,
la carte de contrôle "petites séries". Parfaitement adaptée à ce type de production, cette
carte permet de formaliser les décisions de réglage, les méthodes de pilotage et le suivi
des capabilités dans le cas des toutes petites séries.
Plan du mémoire
La conclusion générale fournit un bilan des travaux et précise les objectifs futurs.
Chapitre 1
Au cours de ces dernières années, les entreprises industrielles ont été confrontées
à une concurrence de plus en plus féroce. L'internationalisation de la compétition, la
diminution de la demande due à la crise et la course au développement, ont poussé les
entreprises à rechercher des atouts leur permettant de gagner la partie. La recherche de
la qualité est alors devenue un point clé de la compétitivité des entreprises. Cette
recherche ne date pas d'aujourd'hui. En effet, la qualité a toujours été un objectif
important depuis que l'homme fabrique des objets. Cependant, le nouveau contexte de
concurrence mondiale ranime cette quête de la qualité en demandant plus de formalisme
dans son approche.
ses services sans une organisation efficace basée sur un système qualité structuré.
Cependant, la condition de réussite passe surtout par la dynamique créée sous
l'impulsion du chef d'entreprise, et par l'utilisation adaptée de méthodes et d'outils ayant
fait leurs preuves.
La qualité ainsi définie est, selon C. Braesch [Bra 89], "principalement liée à la
satisfaction des besoins d'un utilisateur, elle se constate au moment de l'usage du
produit ou du service."
L'analyse de ces définitions nous conduit à noter trois différences entre les deux
définitions. Ces trois différences nous semblent traduire un écart d'état d'esprit que nous
avons pu noter lors de notre visite d'étude au Japon entre l'approche occidentale et
l'approche orientale.
Ces trois éléments nous semblent essentiels dans une démarche de qualité totale.
Le premier point nous montre que dans la démarche industrielle japonaise, ce n'est pas
le produit qui compte, mais l'ensemble des moyens mis en oeuvre pour aboutir à un
produit de qualité. Les moyens sont très divers et couvrent l'ensemble de la vie du
produit depuis les moyens marketing en passant par les moyens d'étude pour aller aux
moyens de production et aux moyens de mesure. Pour un produit bien conçu, adapté à
l'attente des clients, lorsque le moyen de production est capable, le produit est de
qualité. La démarche prônée implicitement par la définition japonaise consiste donc à se
focaliser sur les moyens plutôt que sur les produits.
Ce n'est pas un hasard si la plupart des méthodes et des outils de la qualité ont été
développés par les industriels Japonais. Ces outils et ces méthodes recouvrent en effet
toute la vie du produit pour réellement fournir les moyens de produire de la qualité.
Quelques approches similaires ont cependant été apportées récemment en Europe. Ainsi
C. Braesch [Bra 89] distingue la notion de qualité précisée dans la définition ISO de la
notion de "Démarche Qualité" qui représente l'ensemble des moyens mis en oeuvre
pour aboutir à la réalisation d'un produit de qualité. Nous situerons notre travail dans
cette démarche qualité.
(1) qualité de conformité - Cette qualité est définie par l'absence de défauts
(2) qualité de conception - Cette qualité est mesurée par le degré de satisfaction du
client par les caractéristiques et les aspects du produit."
[Hil 89] - Manufacturing Strategy - Text and Cases - Terry Hill - IRWIN - 1989
Stratégie
Systè
me
Méth
odes
Outils
Les méthodes qualité établissent un cadre formel autour des actions qualité. Nous
trouverons par exemple les méthodes statistiques d'analyse de données ou les méthodes
de gestion des moyens de mesure. Les compétences en matière de qualité sont
principalement au niveau des méthodes qualité. Trop souvent les compétences sont
apportées au niveau des outils alors que la mise en oeuvre d'une démarche de qualité
totale nécessite une parfaite maîtrise des méthodes qualité.
L'ensemble de la normalisation ISO 9000 [Iso 87] s'inscrit parfaitement dans cette
démarche, et vise à créer le système qualité dans l'entreprise. Les normes ISO 9000
couvrent principalement les aspects stratégie et système, mais sont très peu développées
sur les aspects méthodes et outils. En effet, si nous considérons la norme ISO 9001 qui
est la plus complète dans les rapports contractuels entre un client et un fournisseur, nous
trouvons seulement 3 chapitres sur les 20 chapitres de la norme qui sont spécifiques aux
méthodes et outils. Ces chapitres sont les chapitres 10 (Contrôle et Essais), 11 (Maîtrise
des équipements de contrôle, de Mesure et d'essai) et chapitre 20 (Techniques
statistiques).
La norme ISO 9000 n'est pas très étendue sur les méthodes et les outils. Mais ce
n'est pas son objectif. Il s'agit de créer un système qualité permettant d'assurer que tout
est mis en oeuvre pour créer et fabriquer des produits ou des services de qualité. Ce
n'est pas pour autant qu'il faut négliger de mettre en place les méthodes et les outils qui
permettront de fournir la qualité. Si cela n'est pas réalisé, il est alors possible d'être
certifié ISO 9000 sans pour autant fournir des produits de qualité.
Trop d'entreprises commencent leur démarche qualité par les strates inférieures de
la pyramide en achetant par exemple un logiciel d'assistance à la qualité. Il est facile de
réaliser cette erreur. En effet, les bénéfices de l'achat d'un logiciel semblent être
immédiats dès la mise en oeuvre de celui-ci alors que la constitution d'un système
qualité semble être une démarche fastidieuse dont les bénéfices ne sont que lointains.
Si nous analysons l'évolution des méthodes qualité depuis la dernière guerre, nous
constatons deux évolutions :
Le contrôle de la qualité s’est d’abord intéressé aux produits finis puisque c'est sur
le produit fini que le client va juger la qualité. On a mis en place des contrôles sur ceux-
ci pour éviter à un éventuel produit défectueux d’arriver chez le client. Les méthodes
utilisées vont du contrôle à 100% à un contrôle statistique par échantillonnage mais
n'assurent pas toujours 100% de pièces bonnes. En effet, même un contrôle à 100% ne
peut pas assurer 100% de produits conformes.
Pour s'en convaincre, il suffit de demander à plusieurs interlocuteurs le nombre de
lettre f qu'ils comptent dans la phrase suivante :
"Finished Files are the result of years of scientific study combined with the
experience of many years."
Rares sont les personnes qui trouvent le bon résultat qui est 6. Et pourtant, le
contrôle est un contrôle à 100%.
Dans le cas des contrôles par échantillonnage pour des critères attributifs, la
courbe d'efficacité du plan de contrôle s'incline rapidement et vient prouver l'inefficacité
de ce type de contrôle. Même en respectant la normalisation [Afn 83] en matière de
P = (1-p)50
Probabilité d'acceptation
1
0,8
0,6
0,4
0,2 % de défaut
0
0 1 2 3 4 5
Il est nécessaire de mettre en oeuvre des techniques de pilotage des procédés qui
permettent de supprimer ces contrôles à posteriori. Il faut décaler cette recherche de la
qualité vers l'auto-contrôle qui représente un contrôle à moindre coût.
2.1.2. L'auto-contrôle
Nous venons de montrer qu’il était préférable de faire directement des produits de
qualité. Le contrôle des produits s’est donc porté davantage sur les postes de travail où
ils sont fabriqués. L'opérateur en production doit avoir les moyens de produire et
d'assurer la qualité de sa production Il est en auto-contrôle. Cette approche, qui peut
paraître simple, est en fait beaucoup plus complexe à réaliser qu'elle ne parait. En effet,
avoir les moyens de produire des produits de qualité suppose un certain nombre de pré-
requis qu'il est utile de préciser.
Poursuivant l’effort vers la qualité totale, il est apparu que le meilleur moment
pour établir la qualité était la conception du produit, voire la définition des
spécifications. La notion de qualité allait donc évoluer en faisant apparaître des notions
nouvelles telles que la notion de robustesse développée par TAGUCHI [Tag 87] . Il
n’est pas suffisant de développer un produit parfait dans des conditions de laboratoire. Il
faut qu’il fonctionne également dans une atmosphère bruitée, perturbée qui sera son lot
quotidien. La qualité à la conception s’établit principalement lorsqu’on définit les
paramètres du produit (cotes, jeux, tension, valeur d’une résistance) et les tolérances
qu’on admet sur ces valeurs. Trop souvent cette phase fondamentale du travail est sous-
estimée dans les conceptions traditionnelles. Et pourtant, c’est précisément cette phase
qui détermine le niveau de qualité du produit.
Pour aborder cette phase dans les meilleures conditions, il faut au concepteur un
outil lui permettant de mesurer l’importance de chacun des paramètres. Ces paramètres
sont généralement nombreux et difficilement modélisables par les lois classiques de la
physique ou de la mécanique. Le concepteur a donc besoin d’une méthode
expérimentale, peu coûteuse en expériences, qui lui permettra rapidement de mesurer
l’influence de chacun des paramètres, et ainsi de les fixer aux valeurs les plus
favorables. Les plans d’expériences vont fournir une méthode sans équivalent pour
aider le concepteur dans cette phase fondamentale.
Plus on recherche la qualité, et plus cette recherche doit être proche du client. Ces
dernières années, nous avons vu apparaître de nouveaux outils qui permettent
d'introduire les exigences du client dès la définition des spécifications. Les japonais ont
pris l'habitude de transformer l'écriture du mot Marketing pour l'écrire "Market-in" [His
86] qui ne devient plus l'étude du marché, mais l'art de faire rentrer le marché dans
[Tag 87] - Genichi Taguchi - System of experimental Design - Vol I & II - Kraus - 1987
[His 86] - Hishikawa - Conférence Hishikawa - PARIS - 1986
l'entreprise. Le QFD [Vig 92] , (Quality Function Deployement) dont nous reparlerons
au paragraphe 3.1. est l'outil idéal pour répondre à ce type de préoccupation.
L'approche globale d'un système qualité tel que le conçoit M. Taguchi [Tag 89]
résume en fait ces évolutions. En différenciant les approches de la qualité sur le
processus de production (On line) et en dehors du processus de production (Off line),
Taguchi formalise cette recherche de plus de mesures par une modélisation des
systèmes de production par la méthode des plans d'expériences. Son approche de la
conception qui consiste à établir de façon formelle les paramètres des produits, et leurs
tolérances (Parameter design & Tolerance design) afin de concevoir des produits
robustes, va bien dans le sens de la recherche de la qualité au plus tôt.
Importance
de la modélisation
Q.F.D.
Beaucoup
Plans d'expériences & régressions multiples
Industrie performante
SPC
peu
Stade de
l'application
Artisanat
Toute industrie performante se doit aujourd'hui d'utiliser ces outils pour rester
compétitive. Ils représentent la base indispensable pour la formalisation des procédés.
En effet la partie hachurée par un trait simple sur la figure 1.3 représente le domaine de
l'artisanat. Pour un travail artisanal, la qualité est obtenue au stade de la fabrication. Les
études sont peu développées et peu formalisées. Les mesures et la modélisation sont
également réduites au strict minimum. Cela n'empêche pas les artisans de faire un
travail de haute qualité, mais les méthodes de travail qu'ils utilisent et leur niveau élevé
de compétences en production sont difficilement transposables dans le domaine
industriel.
Parmi les outils que nous présenterons, le QFD est le plus récent. Son application
est encore embryonnaire dans les entreprises françaises. Nous pensons que son
application ne pourra se démultiplier que si nous réalisons l'effort de simplification et
d'élagage dans la conduite de la méthode identique à celui qui a été fait en AMDEC ces
dernières années. Contrairement aux autres méthodes de la Maîtrise des Procédés qui
ont souvent été inventées aux Etats Unis, et développées au Japon, cette méthode a été
inventée chez Mitsubishi au Japon dans les années 60. QFD signifie Quality Function
Deployment ce que l'on traduit généralement par Déploiement de la Fonction Qualité.
La méthode QFD nous permettra de réaliser ces deux étapes primordiales pour
devenir plus compétitif. Le QFD est une méthode préventive qui permettra d'éviter de
coûteuses actions correctives. Les principaux avantages que les utilisateurs de la
méthode évoquent le plus fréquemment sont :
• moins de modifications après la mise sur le marché du produit,
• diminution des coûts de garantie,
[Sto 91] - Gregg D. Stocker - Quality function deployment : Listening to the voice of the Customer -
APICS conference proceeding 1991 - 258:262 - 1991
[Zai 90] - A. Zaidi - QFD Une introduction - Lavoisier - 1990
L'objectif du QFD est de faire entrer dans l'entreprise, d'une façon formelle les
attentes des clients. Pour atteindre cet objectif, le QFD va traduire en différentes étapes
ces attentes jusqu'aux spécifications de production. Ainsi, nous pouvons schématiser la
démarche QFD par le schéma 1.4.
Attentes du client
Exemple : Le client désire un café chaud et bien serré
Comment
Spécifications du produit
Taux de caféine
La température comprise entre 70°C et 80°C
Comment
Opérations de fabrication
Machine à café à pression
Comment
Spécifications de production
Pression de 10 bars
Serrage de 1/4 de tours
Une fois les caractéristiques des pièces définies, le bureau des méthodes doit
s'assurer que les opérations de fabrication permettent de réaliser ces caractéristiques.
Cette étape permet de traduire les attentes des clients en opérations de fabrication.
Enfin, il faudra traduire les opérations de fabrication en spécifications de
production. Ainsi, il est possible de remonter la chaîne, et de savoir pour chaque
spécification de production, l'attente du client qui est à l'origine de cette spécification.
Comment
Quoi
1
5
3
3
2
4
1
3
27 9 13 3 63 36 10 9 5 12
Combien
Cette méthode, sans doute à cause de sa lourdeur, n'est pas très employée dans nos
entreprises dans sa totalité. Cependant, l'intérêt de la présentation de la matrice
QUOI/COMMENT a suscité déjà de nombreuses applications locales sur un seul
déploiement et apporte de nombreux résultats [Leg 92]
[Leg 92] - Philippe Legrand - QFD à GARRETT S. A. - Qualité et compétitivité 1991-1992 - 85:97 -
FIEV - 1992
Quel que soit le secteur d’activité et quel que soit l'industriel, ce dernier est
toujours amené à procéder à des essais. Or ces essais sont malheureusement trop
souvent conduits sans méthodologie. On procède par tâtonnements successifs, sans
planifier de façon rigoureuse les essais, pour obtenir une pléthore de résultats qu'on ne
sait pas toujours très bien exploiter.
Le principe consiste à planifier les essais en utilisant des tables [Asi 87] ayant la
propriété d'orthogonalité pour configurer les combinaisons des facteurs à tester. La
propriété d'orthogonalité permet de faire varier dans une série d'essais plusieurs facteurs
en même temps sans que l'effet d'un facteur n'influe sur les autres facteurs. On pourra
donc, grâce à cette propriété, diminuer le nombre d'essais et améliorer la précision sur
les résultats.
[Vig 87] - Michel G. Vigier - Pratique des plans d'expériences - Les éditions d'organisation - 190 p -
1988
[Box 78] - George E. P. Box - William G. Hunter - J. Stuart Hunter - Statistics for experimenters - Wiley
interscience - 650p -1978
[Pila92] - Maurice Pillet - Introduction aux plans d'expériences par la méthode TAGUCHI - Ed
organisation - 224 p - 1992
[Asi 87] - American Supplier Institute, Inc - Orthogonal arrays and linear graphs - ASI 1987
Les résultats d'une campagne d'essais réalisée par la méthode des plans
d'expériences sont généralement traduits sous forme graphique (Figure 1.6) afin de
faciliter le dépouillement. La figure 1.6 permet d'identifier facilement que le facteur C
est le plus influant sur la réponse étudiée.
Réponse
Mini Maxi
Effet du facteur A Effet du facteur B Effet du facteur C Effet du facteur D Effet du facteur E
Figure 1.6 - Résultats graphiques d'un plan d'expériences
L'AMDEC est une méthode qui permet d'obtenir la qualité par une action
préventive plutôt que curative. L'origine de cette méthode remonte aux années 1950 aux
Etats-Unis. Cependant, la véritable mise en application en France à un niveau important
n'a débuté que dans les années 80. Ce sont principalement les constructeurs automobiles
qui ont permis le développement de cette technique en France [Sog 91] en raison de
leur puissance d'achat auprès des sous-traitants et par leurs exigences en matière de
qualité.
Comme il est nécessaire de valider chaque étape de la vie d'un produit, il y a donc
plusieurs AMDEC. Nous citerons les plus fréquemment rencontrées.
[Afi 90] - AFIM/AFNOR - Actes de conférences - Journées AMDEC Lyon 1990 - 1990
[Sog 91] - SOGEDAC - Procedure AMDEC - 1991
Après avoir mené une analyse fonctionnelle détaillée, le groupe de travail fait un
brainstorming afin d'établir pour chaque fonction l'ensemble des "modes de
défaillance" (non-respect des critères) qui peuvent survenir.
- Effet : quelle est la conséquence pour le client? une simple gêne, un coût, une
panne...
- Causes : l'existence d'un mode peut être produit par plusieurs causes, et chaque
cause par plusieurs sous-causes... Il faut identifier l'arbre de défaillance jusqu'à la cause
sur laquelle l'entreprise doit agir.
L'ensemble de cette étape est rassemblé dans une feuille d'analyse qui réalise la
synthèse du travail du groupe. Afin de hiérarchiser les défaillances, il faut évaluer
chaque couple Cause/Mode en terme de criticité suivant trois critères :
Pour coter les défaillances, on utilise une grille de défaillance (figure 1.7.) qui
diffère d'une société à l'autre.
L'ensemble des défaillances dont l'indice NPR sera important seront traités par
une action corrective. L'objectif étant de ramener l'ensemble des indices NPR au-
dessous d'un niveau donné dans le cahier des charges.
M. Schimmerling [Shi 92] situe les statistiques comme étant un outil qui permet
de "quantifier, de prévoir, d'expliquer les phénomènes obscurs, sources de non-qualité
dans les produits ou les processus à maîtriser." L'outil statistique est donc l'outil idéal
pour réussir une démarche qualité.
L'industrie japonaise utilise de façon intensive les outils statistiques depuis plus
d'une trentaine d'année. C'est sous l'impulsion du Dr. W. Edwards Deming, consultant
américain au Japon qu'ils ont connu puis appliqué les méthodes statistiques en
production. En Europe, malgré ça et là quelques applications remarquables, on a peu
utilisé les outils statistiques dans nos ateliers de fabrication jusqu'au début des années
80. Ce n'est qu'à partir de 1984 que l'industrie Française a pris conscience des bénéfices
importants qu'elle pourrait réaliser en matière de qualité en utilisant les outils
statistiques. Grâce à la pression importante des donneurs d'ordres de l'automobile,
l'ensemble du tissu industriel s'est penché sur les outils statistiques de base. Nous
commençons aujourd'hui à constater l'amélioration importante dans la qualité des
produits qui est la conséquence de l'utilisation générale de ces outils.
[Shi 92] - M. Schimmerling - La maîtrise des informations complexes - Premières assises de la qualité -
Paris 1992
• la feuille de relevé,
• l'histogramme,
• le diagramme en arrête de poisson,
• le diagramme de concentration de défaut,
• le diagramme de corrélation,
• le diagramme de pareto,
• la carte de contrôle.
Mais aussi, et cela sera un pilier de la MSP, la formalisation des méthodes d'étude
des capabilités. Pour notre étude, nous travaillerons principalement sur les outils de
pilotage des procédés industriels que représentent les cartes de contrôle, ainsi que les
études de capabilité.
[Mon 90] Douglas C. Montgomery - Introduction to Statistical Process Control - second edition - 674 p -
ASQC Quality Press - 1991
Nous n'avons, bien sûr, pas été exhaustif dans la présentation des principaux outils.
Bien d'autres méthodes apportent un complément important à la démarche que nous
avons présentée, mais notre expérience nous conduit à penser que pour le moins, les
outils AMDEC, Plans d'expériences et MSP sont les dénominateurs communs d'un outil
de production maîtrisé.
4. Conclusion du chapitre
Ce chapitre a eu pour objectif de montrer la place des outils et des méthodes de la
qualité dans une démarche qualité totale. Nous avons insisté sur la façon la plus efficace
d'aborder cette démarche par la stratégie qualité au niveau le plus élevé de l'entreprise et
non par les outils et les méthodes. La mise en oeuvre des outils est indispensable pour
réussir une démarche qualité, mais elle ne peut être efficace que dans le cadre d'un
système qualité cohérent.
Aussi, bien que le travail présenté dans cette thèse se focalise sur la méthode
MSP, nous garderons à l'esprit que cette méthode n'est qu'un maillon de la longue
chaîne de la qualité.
Chapitre 2
Ces deux piliers de la MSP n'ont pas été introduits en même temps. Le pilotage
par cartes de contrôle a été introduit dès les années 30 grâce aux travaux de Shewhart
[She 31]. Par contre, les mesures de capabilité n'ont été formalisées et admises que dans
les années 70 principalement dans l'industrie automobile américaine.
Le constructeur automobile FORD a sans doute été, et reste encore, un des leaders
dans la promotion de la MSP au niveau mondial. L'ouvrage interne [For 82] a été un
des premiers ouvrages de synthèse connus du grand public sur la MSP. C'est pourquoi,
la technique de calcul FORD fait référence en matière de MSP, et la plupart des
entreprises travaillent sur cette base.
[She 31] - Shewhart - Economic Control of Quality of Manufactured Product - 1931 - Van Nostrand Co.
Inc Princeton.
[For 82] - Ford - Statistical Process Control -Instruction Guide - Ford Motor Company - 1982
Aussi, bien que ces notions commencent à être relativement anciennes, il reste de
nombreux progrès à réaliser pour exploiter pleinement la piste ouverte par Shewhart au
début du siècle.
1.1. Introduction
Le pilotage d'un procédé consiste à répondre aux deux questions suivantes :
Nous devons donc dissocier deux types de causes : les causes communes et les
causes spéciales (figure 2.1).
Causes Causes
Dispersion communes Spéciales
Les causes spéciales représentent les causes de variabilité importantes qu'il faut
corriger.
[Gra 52] - E.L. Grant - Statistical Quality Control - Mc. G. Hill - 1952 - p3
Lorsque les seules causes agissant sur le procédé sont les causes communes, le
procédé est dit "sous-contrôle". Le principe des cartes de contrôle est de détecter par un
outil graphique simple les cas où le procédé n'est plus sous-contrôle et où il faut réagir.
Etant donné un échantillon de taille n1, dont les valeurs observées ont pour
moyenne m1. Peut-il être considéré comme représentatif de la population totale de
moyenne M et d’écart type σ?
Il faut vérifier que l'écart entre m1 et M est suffisamment faible pour vérifier cette
hypothèse. Si cet écart est supérieur à l’écart maximal admis pour un seuil de
confiance donné, nous repousserons l’hypothèse d’appartenance. S’il est inférieur,
nous l’accepterons.
m1 − M
u0 =
n
Condition d’application
Le test précédent de comparaison des moyennes n'est valable que dans le cas où
l'hypothèse σ connu et constant peut être validée. Pour vérifier cette hypothèse, il faut
faire un test de comparaison de la variance de l'échantillon par rapport à la variance de
la population totale.
Nous voulons savoir s'il est vraisemblable avec un risque α de ne pas se tromper
si l’échantillon d’écart-type (si) appartient ou non à la population totale d’écart-type σ.
s2i
χ2(α 2) < ( n − 1) < χ(21−α 2)
σ2
χ(2α 2) χ(21−α 2)
. σ < si < .σ
( n − 1) ( n − 1)
B3 . σ < si < B4 . σ
La carte de contrôle des moyennes et des écart-types notée ( X / s) réalise les deux
tests de comparaison de variances et de comparaison de moyennes par le simple fait de
placer les points sur le graphique.
Limite supérieure
de contrôle
Cible
Limite inférieure
de contrôle
Limite supérieure
de contrôle
Moyenne des
écart-types
Limite inférieure
de contrôle
Journal de bord Réglage
Les limites de contrôle sur les écart-types représentent les limites du test de
comparaison des variances. Les limites de contrôle sur la carte des moyennes
représentent les limites d'acceptation sur le test de comparaison des moyennes.
Lorsque le point sur la carte des écart-types est à l'intérieur des limites de
contrôle, on peut accepter l'hypothèse de stabilité de l'écart-type de la population totale,
donc la stabilité des capabilités. Dans ce cas, le test de comparaison des moyennes peut
être exécuté. Lorsque le point sur la carte des moyennes est à l'intérieur des limites de
contrôle, on ne peut pas conclure à un déréglage. Par contre, lorsque le point sort des
limites (point 6 de l'exemple), on a une forte probabilité d'un décentrage, il faut donc
réagir par un réglage.
La carte de contrôle ( X / R )
L'étendue R (Range) est définie comme étant l'écart entre la valeur maxi et mini.
Pour la valeur xi, on définit la variable réduite ui. On peut donc définir l'étendue
réduite :
( x n − m) ( x1 − m) R
W = u n − u1 = − =
σ σ σ
Moyenne ( R / σ ) = d 2
Ecart − type ( R / σ ) = d 3
R
σ=
d
2
n 2 3 4 5 6 7 8 9 10
d2 1.128 1.693 2.059 2.326 2.534 2.704 2.847 2.970 3.078
d3 0,853 0,888 0,880 0,864 0,848 0,833 0,820 0,808 0,797
R ± 3σ R = R ± 3. d 3 . σ$
R ± 3( d 3 d 2 ) R
R
2 - calculer l’écart-type intra-échantillon par la loi de l’étendue réduite σ$ 0 =
d2
[Por 92] - Leslie J. Porter et Porland Caulcutt - Control Chart design - A review of standard practice -
Quality and reliability engineering Internationnal 8:113-122, 1992
Sinon, il faut tester si les variations entre échantillons suivent des fluctuations
aléatoires. Pour cela, on calcule
k −1
1
2( k − 1) ∑
σ$ 2d = ( x j − x j+1 )²
j =1
Les cartes de contrôle CUSUM [Pal 91] sont très peu utilisées dans nos
entreprises bien qu'elles soient - pour les faibles dérives - beaucoup plus performantes
que les cartes de contrôle X/R. Cela vient du fait que leur mise en oeuvre est un peu
plus complexe, et d'une interprétation moins directe que les cartes X/R. Nous
détaillerons la présentation des cartes CUSUM que nous utiliserons dans la suite de ce
travail. Nous laissons le lecteur se référer à la bibliographie et notamment au travail de
Pysdek [Pyz 92] et Ryan [Rya 89] pour plus de détails sur les cartes EWMA.
Carte CUSUM
En fait, il existe plusieurs sortes de cartes CUSUM [Rya 89], [Tor 65] , [Dob 68].
Nous exposerons ci-dessous la méthode proposée par Lucas [Luc 73], [Luca82],
[Lucb82]. Le principe est le suivant :
[Pal 91] - Alain Palsky - La maîtrise des procédés continus - Actes de conférences CETIM SPC - Paris -
1991
[Pyz 92] - Tomas Pyzdek's - Pyzdek's guide to SPC - Vol I & II ASQC Quality Press - 1992
[Rya 89] - Thomas P. Ryan - Statistical methods for quality improvement - John Wiley & sons - 1989
[Tor 65] - J. Torrens-Ibern - Les méthodes statistiques de controle dans les processus industriels continus
- Revue de statistique appliquée - 1965 - Vol XIII N° 1 p 65:93
[Dob 68] - C. S. Van Dobben De Bruyn - Cumulative Sum Test - Theory and practice - GRIFFIN's
Statistical Monograph & Courses - Alan Stuart - 1968
[Luc 73] - J. M. Lucas - The design and use of V-mask control schemes. Journal of quality Technologie
8 (1) - 1973 - 1:12 - January
[Luca82] - J. M. Lucas - Combined Shewhart-CUSUM quality control shemes - Journal of Quality
Technologie 14(2) -1982 - 51:59 - April
[Lucb82] - J. M. Lucas - R. B. Croisier - Fast initial response for CUSUM quality control schemes : Give
your CUSUM a head start. Technoometrics 24(3) - 1982 - 199:215 - August
Pour une suite d'échantillons, nous formons la suite des sommes cumulées
suivantes
S H i = Max 0, ( u i − k ) + S H i−1
S L i = Max 0, ( − u i − k ) + SL i−1
N° 1 2 3 4 5 6 7 8 9 10
X 0.41 1.11 -0.04 -1.04 -0.04 -0.68 -0.85 0.81 0.62 -0.38
u 0,82 2.22 -0.08 -2.08 -0.08 -1.36 -1.70 1.62 1.24 -0.76
SH 0.32 2.04 1.46 0 0 0 0 1.12 1.86 0.60
SL 0 0 0 1.58 1.16 2.02 3.22 1.10 00 0.26
N° 11 12 13 14 15 16 17 18 19 20
X 0.54 0.18 0.33 0.32 0.44 0.22 0.88 0.16 0.95 1.09
u 1.08 0.36 0.66 0.64 0.88 0.44 1.76 0.32 1.90 2.18
SH 1.18 1.04 1.20 1.34 1.72 1.66 2.92 2.74 4.14* 5.82**
SL 0 0 0 0 0 0 0 0 0 0
Nous avons noté une étoile (*) lorsque la somme dépasse la limite h= 4 et deux
étoiles (**) lorsque la somme dépasse la limite h = 5.
Comme SH a été dépassée, nous avons la certitude d'un décentrage côté positif.
Ce décentrage n'était pas détecté par la carte de Shewhart car en aucun cas la valeur u
dépasse la limite 3. La carte de Shewhart pour les données précédentes est représentée
en figure 2.7. On note une série de points d'un côté de la moyenne mais pas de
déréglage important. Ce déréglage faible, mais constant, est rapidement détecté par la
carte CUSUM.
LSC 1,5
LIC -1,5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Cet exemple illustre la rapidité de détection d'une tendance avec la carte CUSUM.
On note que, dans le cas d'un déréglage important, ( X = 1, 6, u = 3,2) mais rapide, par
exemple dès le premier point, SH serait égale à 2,7. Le déréglage ne serait pas détecté
par la carte CUSUM alors qu'il serait détecté par la carte Shewhart. La carte CUSUM
est donc particulièrement adaptée pour détecter des tendances dans le cas des procédés à
petite dérive lente. Elle n'est donc pas adaptée à des déréglages important et brutaux.
Pour annuler cet inconvénient, il faut utiliser la méthode FIR CUSUM (Fast Initial
Response)
Initialisation SH = 2,5
n=1 X = 1, 6 SH = 5,2 Déréglage détecté
Même dans le cas d'une tendance, la détection est plus rapide. Pour illustrer
l'intérêt de la carte FIR CUSUM nous pouvons faire une simulation sur les 10 derniers
échantillons de l'exemple précédent en initialisant les deux sommes à 2,5
N° init 11 12 13 14 15 16 17 18 19
X 0.54 0.18 0.33 0.32 0.44 0.22 0.88 0.16 0.95
u 1.08 0.36 0.66 0.64 0.88 0.44 1.76 0.32 1.90
SH 2,5 3.58 3.72 3.89 4.02 4.4 4.34 5.6*
Nous notons, dans ce cas, que la détection apparaît à partir de la septième valeur
alors que la carte CUSUM traditionnelle ne détectait le déréglage qu'à partir de la
dixième valeur.
Combinaison Shewhart/CUSUM
N° init 11 12 13 14 15
X 0.54 0.18 0.33 0.32 -1.8
u 1.08 0.36 0.66 0.64 -3.6
SH 2,5 3.58 3.72 3.89 4.02 0.1
SL 2,5 0.92 0.06 0 0 3.1
h=5
S
H
h=5
S
L
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
[Joh 77] - N. L. Johnson - F. C. Leone - Statistics and experimental Design in engineering and the
physical Sciences, Volumes I, 2nd ed - Wiley - 1977
[Bis 86] - A. F. Bissell - The performance of control chart and Cusum under linear trend - Applied
statistics 33(2) - 318:335 - 1986
[Wad 86] 86 - Wadsworth - Stephens - Godfrey - Modern methods for quality control and improvement
- Wiley - 1986
4
3
2
Hors masque
1
0
-0
-2
-3
-4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Figure 2.11 - Principe des cartes CUSUM avec masque en V
Le calcul du masque en V se réalise en fonction du décentrage que l'on veut
détecter.
2. le concept de capabilité
Intervalle de tolérance
Capabilité =
Dispersion
La tolérance est définie par le cahier des charges. En règle générale, on choisit
comme largeur de la dispersion, dans le cas d'une distribution normale, six écart-types.
Ce choix est parfois contesté et certains auteurs préfèrent prendre huit écart-types pour
le calcul de la capabilité machine. Nous détaillerons ce point au paragraphe 2.1.2. [Pys
92].
[Pys 92] - Thomas Pyzdec - Pysdek's Guide to SPC - ASQC- Quality Press - 1992
[Ford 91] - Ford - Procédure Qualité SPC Q1 - Ford Motor Company - Avril 1991
Cote
TS
M
IT
TI
Variation de consigne
t Temps
Il est évident que les dispersions Dg et Di sont telles que Dg est supérieure à Di.
L’indicateur de capabilité défini précédemment dépendra donc du type de dispersion
retenue Di ou Dg. On distingue deux types d'indicateurs de capabilité: les indicateurs
court terme qui utiliseront la dispersion instantanée, et les indicateurs long terme qui
utiliseront la dispersion globale.
Pour une estimation de la dispersion globale, il est important de ne pas inclure des
variation importantes dûes à des réglages important de consigne. En fait, Il faut trouver
la bonne période d'observation autant pour la dispersion globale qu'instantanée.
L'échaelle de temps peut être très différents selon que l'on s'intéresse à une machine
mécanique ou à un processus chimique par exemple.
Ces indicateurs Cp et Cpk définissent la qualité des pièces livrées aux clients. Ils
sont calculés à partir de la dispersion globale.
IT TS - M M - TI
Cp = Cpk = mini ( , )
D ½ .D ½ .D
g g g
Un procédé est déclaré capable si la dispersion globale est plus faible que
l'intervalle de tolérance. Il faut que l'indicateur Cp soit supérieur à 1. Les constructeurs
retiennent en général comme limite inférieur 1,33 pour le rapport.
L'indicateur Cp ne tient pas compte du décentrage éventuel de la population. Il est
donc possible lorsque la population est décentrée d'avoir un excellent Cp et des pièces
hors tolérances. Le Cpk corrige cet aspect puisqu'il tient compte du décentrage. C'est
principalement le Cpk qui traduit la qualité des pièces produites.
Les formules de calcul pour les indicateurs Pp et Ppk sont strictement identiques
aux formules de calcul Cp et Cpk. La condition de capabilité est nécessairement plus
restrictive que pour le Cpk et on a :
Les calculs des indicateurs utilisent toujours les mêmes formules, la seule
différence réside dans le choix de la dispersion et dans la façon de mesurer cette
dispersion. L'apparente simplicité de ces indicateurs conduit de nombreux utilisateurs à
faire des erreurs grossières s'ils ne prennent pas quelques précautions de calcul. En
effet, la différence entre la dispersion instantanée et la dispersion globale nécessite de
bien faire la différence entre le type de prélèvement à effectuer pour estimer la
dispersion souhaitée. Il faut également être précis dans l'estimateur utilisé pour l'écart-
type en fonction du prélèvement réalisé (échantillonnage important ou nombreux
échantillons de petite taille).
Dans le cas d’une production lente (par exemple plus de 1 mn de production par
pièce), il n’est souvent pas possible de prélever 50 pièces consécutives sans observer
[Pila91] - Maurice Pillet - Les pièges des mesures de capabilité - Journée des CPIM de France - Actes de
conférences - Paris 1991
[Pilb91] - Maurice Pillet - Les mesures de capabilité - Contrôle industriel & Qualité - 1991
des variations de consigne sur le procédé. La procédure retenue dans le cas des
productions rapides ne peut pas s'appliquer. Il faut donc trouver une procédure qui
élimine les fluctuations de la consigne.
Dans ce cas, les échantillons devront être plus petits pour limiter l’influence du
temps - 5 pièces par exemple - ce qui correspond à 10 mn de production dans le cas d'un
cycle de 2 mn. En fait, le critère de choix de la taille de l'échantillon est la nécessité de
ne pas avoir de causes spéciales présentes à l'intérieur de l'échantillon.
Bien sûr, on ne peut pas estimer la dispersion instantanée sur 5 pièces. Il faudra
prendre plusieurs échantillons pour avoir un nombre de mesures significatif - une
centaine au moins - ce qui correspond à 20 échantillons au moins. La dispersion
instantanée sera alors estimée à partir de la variance intra-série que l'on pourra calculer
après vérification de l'homogénéité des variances des échantillons en effectuant le "test
de Cochran" ou le "test de Hartley" par exemple.
La dispersion instantanée est alors calculée à partir de σestimé qui est l'écart-type
de la dispersion intra-série.
Un certain consensus sur les capabilités existe plus ou moins dans le monde sur
les indices Cp, Cpk. Il reste cependant de nombreuses divergences dans les publications
sur le calcul des dispersions.
Outre les divergences, déjà signalées, sur le calcul de la dispersion instantanée qui
peut être égale à 6σ ou à 8σ selon les auteurs, il existe également des divergences sur le
calcul de l'écart-type.
s2
On sait que le rapport ( n − 1) suit une loi du χ².
σ2
( n − 1)
On peut alors estimer σ par la relation σ = s.
χ2
(α)
( n − 1)
Le rapport ne dépend que du nombre de pièces dans l'échantillon et peut
χ2
(α)
donc facilement se mettre sous forme d'un tableau qui définit un coefficient C(n).
Les cartes de contrôle, outre les avantages considérables qu’elles apportent dans
la maîtrise des procédés comme nous le verrons plus loin, permettent, à partir des
données qu’elles comportent, de calculer les trois indicateurs fondamentaux de
capabilité: Cp, Cpk, et Cm. Elles consistent à prélever de façon régulière des
E ( s) = c4 . σ
Cet écart-type instantané peut également être calculé à partir des cartes de
contrôle moyenne/étendue en utilisant le coefficient d2, de la loi de l’étendue réduiteque
nous avons définie au paragraphe 2.1 de ce même chapitre. Ce coefficient permet de
passer de la moyenne des étendues observées, à l’écart-type instantané si par la formule:
R
σi =
d2
Cependant, il faut remarquer que FORD a bien précisé que cette formule ne peut
être employée que lorsque la carte est parfaitement sous contrôle. Ce qui est rarement le
cas. Dans ce cas bien sûr, l'écart-type instantané étant égal à l'écart-type global, la
formule proposée par Ford est correcte. Le problème est que la plupart des utilisateurs
de la MSP utilisent cette formule même lorsque la carte n'est pas sous contrôle. Ils
obtiennent ainsi d'excellents Cpk tout en fabriquant des pièces hors tolérances.
La méthode que nous avons exposée est plus générale et permet d'estimer avec
une bonne précision Cp même lorsque la carte n'est pas parfaitement sous contrôle.
Cependant, cette méthode a un gros inconvénient, car pour pouvoir calculer la
dispersion globale et donc les indicateurs Cp, Cpk, il faut disposer de l'ensemble des
valeurs individuelles. Dans le cas des applications informatiques centralisées, la
conservation de l'ensemble des valeurs individuelles de chaque carte de contrôle sur
plusieurs années pose de gros problèmes de place mémoire.
Pour éviter cet inconvénient, nous avons proposé [Pila93] une autre méthode de
calcul de la dispersion globale, parfaitement identique au calcul sur les valeurs
individuelles, mais qui ne nécessite pas ces dernières. Ce calcul n'est jamais proposé à
notre connaissance dans les publications sur la MSP, il est pourtant relativement simple
et nous l'avons déjà diffusé auprès de plusieurs développeurs de logiciels MSP. Il
permet en effet de gagner un temps important dans les calculs. Nous détaillons ci-
dessous le calcul de la dispersion globale lorsque nous ne connaissons pas les valeurs
individuelles.
[Pila93] - Maurice PILLET - Les mesures de capabilité - Technologie et Formation - Janvier 1993
νG . VG = νR . VR + νX . VX
Estimation de VR
KP
VR = s c4
2
Le nombre de degré de liberté νR est de (n-1) par échantillon, il est égal à k(n-1)
pour l'ensemble de la carte de contrôle, si k est le nombre d'échantillons de la carte.
Estimation de VX
VX = n. sX
Estimation de VG
L4 Q
k ( n − 1). s c
2
+ n ( k − 1).( s ) 2
x
VG =
( kn − 1)
L4 Q
2
k ( n − 1). s c+ n ( k − 1).( s ) 2
x
σ =
G ( kn − 1)
k ( n − 1). R d LQ
2
2
+ n ( k − 1).( s ) 2
x
σ =
G ( kn − 1)
Notation
• k : nombre d'échantillon
• n : nombre de valeurs par échantillon
• R : moyenne des étendues
• s : moyenne des écart-types
• s X : écart-type de la population des moyennes
• d2, d4 : coefficients qui dépendent de n
Aussi, bien que les critères de forme et de position représentent une part
importante des conditions à remplir dans le cas de produits mécaniques, ils restent assez
peu étudiés dans la bibliographie mondiale. Dans la plupart des procédures MSP des
entreprises, le calcul des capabilités dans le cas des tolérances de forme est calqué sur le
cas des tolérances centrées. Cependant, on ne calcule pas l'indicateur Cp, inutile ici
La figure 2.14 illustre le cas des tolérances de forme. La loi de défaut de forme est
exprimée par la valeur absolue d'une loi normale. En effet, le principe même de
l'évaluation des défauts de forme comme la circularité consiste à prendre la valeur
absolue de l'écart entre deux valeurs x et y - le maxi et le mini. Ils sont par définition
toujours positifs. La loi de défaut de forme est donc bornée en 0.
Intervalle de Tolérance
D = Dispersion
Avec
Le problème que nous devons résoudre pour calculer la dispersion, dans le cas des
défauts de forme, est de trouver m et s de la loi normale sous-jacente. Ces valeurs
doivent être déterminées en fonction de M et de S (moyenne et écart-type de la loi de
défaut de forme)
• de moyenne m = ma - mb
(moyenne de la loi normale sous-jacente)
• d'écart-type s = σ 2 + σ 2 = σ. 2 lorsque σ = σ = σ
a b a b
(écart-type de la loi normale sous-jacente)
• de moyenne m = ma - mb
• d'écart-type s = σ 2 (1 − r )
z−m 2
1 −1( )
f ( z) = e 2 s
s 2. π
En fait, comme la loi de défaut de forme est par définition toujours positive, il faut
rajouter au cas z > 0, le cas z < 0 (voir figure 2.15). Ce qui revient à ajouter à f(z) centré
sur m, f(z) centré sur -m.
1
/
0 −1(
z−m 2
) −1(
z+m 2
) 2
3
Φ( z ) =
s 2. π 0
e
0
2 s +e 2 s
3
3
1 4
a
/
0 − a ( z − m )2
2
− a ( z + m )2 2
3
Φ( z ) = +e 2
2. π 0
e
1 3
4
-m m
D = Dispersion
+∞
moyenne = a
−∞
f ( z ) dz
+∞
a fI
JzN
O
2
et d'ordre 2 µ = dz
2
−∞
µ
2 = 1 + a2
s
z a + 2 f ( a ) − a (1 − F ( a ))
=
µ (1 + a 2 )
2
µ2 peut être calculé à partir des valeurs mesurées sur le lot contrôlé
∑ z2 2
µ = = ( z + σ2 )
2 N
On peut donc déterminer "a" à partir de la seconde relation grâce à une table pré-
calculée par intégration numérique. Il suffit ensuite, par la première relation, de calculer
sz, écart-type de la loi normale sous-jacente.
z
1. < 0 , 7978
µ
2
C'est le cas où la moyenne de la loi normale sous jacente est égale à 0. Dans ce
cas, on a pour a=0 :
z a + 2 f ( a ) − a (1 − F( a )) 2 f ( 0) 1
= = = 2. = 0, 7978
µ (1 + a 2 ) 1 2π
2
Cette valeur est contraire aux hypothèses de la loi de défaut de forme. Il faut donc
vérifier si la distribution n'est pas biaisée par des erreurs de mesure, de calcul ou de
relevé.
En cas de confirmation des résultats, on prend D = 2 , 96. µ qui donne une
2
probabilité de 0,3% de pièces hors dispersion pour la loi de défaut de forme générée
(0,308% très exactement).
z
2. 0 , 7978 ≤ ≤ 0 , 825
µ
2
Dans ce cas de figure, la partie négative de la loi normale sous-jacente ne peut pas
être négligée, le calcul de la dispersion générant 0,3% de pièces hors tolérance nécessite
un calcul d'intégration, on utilise, en pratique, des tables pré-calculées pour évaluer la
dispersion. La valeur limite 0,825 est fixé pour a = 1,9.
z
3. 0 , 825 < ≤1
µ
2
D = m + u. s
avec u choisi pour 99,7% de la population en unilatéral
Soit D = m + 2,75.s
Intervalle de tolérance
Cm =
Dispersion
Dispersion Dispersion
Cp=1,33, Cpk =1,33 Cp=4, Cpk =2
Figure 2.17 - Le Cpk n’est pas suffisant pour évaluer la qualité d’un lot
Pourtant si nous considèrons la figure 2.18, quelle est la différence entre les pièces
1 et 2 en terme de coût de non-qualité? Surtout si l’intervalle de tolérance a été fixé de
façon arbitraire. Quelle est également la différence entre les pièces 2 et 3?
Intervalle de tolérance
1 2 3
En fait, la perte due à l’écart d’une caractéristique par rapport à une valeur
nominale n’est pas pas nulle à l’intérieur de la tolérance et infinie à l'extérieure.
TAGUCHI définit la fonction perte (figure 2.19) comme étant une fonction du second
degré si la caractéristique doit suivre une nominale.
[Tag 89] - Taguchi G. - Elsayed A. Elsayed - Thomas Hsiang - Quality engineering in production
systems - Mc Graw-Hill - 1989
[Tag 87] - Genichi Taguchi - System of Experimental design - Vol 1&2 - 1987
Perte pour
L
la "société"
Perte pour
l'écart
Y - Y0
Y
Y Y0
Valeur nominale
L ' ' ( Y 0)
L( Y ) = ( Y − Y 0) ² = K ( Y − Y 0) ²
2!
Bien sûr, certains diront que la fonction perte est une estimation grossière de la
réalité, mais Valéry disait déjà "Tout ce qui est simple est faux, tout ce qui est
compliqué est inutilisable". La fonction perte nous semble être une bonne approche.
Dans le cas d'un échantillon, la moyenne des écarts au carré (Mean Square
1
Déviation) MSD = ∑ ( Y − Y 0 ) ² )) est égale à s ² + ( Y − Y 0 )
n
En effet :
MSD =
( Y1 − Y 0 ) ² + ... + ( Yn − Y 0 ) ² 1
n
2
= ∑ Yi − Y + ( Y − Y 0 )2
n
Nous trouvons comme expression de la fonction perte dans le cas d'un échantillon
:
/
L = K s2 + (Y − Y ) 2
0 2
3
1 0 4
Avec
Situation 1
Cp = 1,33
Cpk = 1,33
Production centrée
Situation 2
Cp = 10
Cpk = 1,33
Déréglage côté maxi
Ces deux situations sont aujourd'hui jugées acceptables car Cpk > 1,33.
Hypothèses de départ
1 2 2
La fonction perte s’écrit L=( ) X
TS
1 2 2 2
L=( ) (σ + X )
TS
L=( /
1 2 TS 2
0
) ( ) +0 2
3
TS 14 4
L1 = 1/16 = 0,0625
L=( /
1 2 TS 2
0
) ( ) +(
24 xTS 2 2
3
TS 1
30 30
)
4
L2 = 0,63
La perte moyenne par pièce dans la situation 2 est donc 10 fois plus importante
que dans le cas de la situation 1.
Cet écart peut être expliqué facilement dans le cas d’un assemblage d’un axe avec
un alésage. (Figure 2.20)
Hypothèse 1
L’alésage est réalisé avec une répartition normale centrée sur la valeur nominale.
Les indicateurs de capabilité sont Cp = 1,33 et Cpk = 1,33.
Hypothèse 2
L’arbre est réalisé par deux machines. La machine 1 produit des pièces suivant la
situation 1, la machine 2 suivant la situation 2.
Situation 1
Arbre Alésage
Prob tiers supérieur Prob tiers inférieur
Situation 2
Arbre Alésage
u = -14 u = -1,33
p1 = 1 p2 = 0,0918
La probabilité d’assemblage Tiers Sup/Tiers Inf est 10 fois plus importante dans
le cas 2 que dans le cas 1. Nous prétendons que la situation 2 est plus défavorable pour
un fonctionnement optimal des produits que la situation 1. En effet, l'arbre sera à une
cote maxi alors que l'alésage sera à une cote mini. Pourtant, Cpk est égal à 1,33 dans les
deux cas. L’utilisation unique du Cpk ne conduit pas à une bonne conclusion.
Pour éviter les situations que nous venons de décrire, nous allons proposer dans ce
paragraphe une nouvelle façon d'interpréter les indicateurs de capabilité. Nous
introduirons deux nouveaux indicateurs de rendement, Rr le Rendement de Réglage et
Rm le rendement de maîtrise. Nous montrerons également que le respect de certaines
conditions sur ces indicateurs de capabilité peut améliorer grandement la qualité des
assemblages, notamment dans le cas où le bureau d'étude a utilisé une cotation
statistique.
Cpk
Rendement de réglage Rr % = x100
Cp
Lorsque le procédé est largement décentré, Cpk est alors très inférieur à Cp
(Situation 2 du paragraphe 3.3). Ainsi nous avons, pour Cp = 10 et Cpk = 1,33, un
rendement de réglage Rr% = 13%
[Pila91] - Maurice Pillet - Les pièces des mesures de capabilité - Journée des CPIM de France Actes de
conférences - Paris - 1991
[Pilb91] - Maurice Pillet - Les mesures des capabilité - Revue Contrôle industriel & Qualité - 1991
Nous allons utiliser cette fonction perte pour établir une condition de capabilité
sur le coefficient Rr
Situation de référence
La situation pour laquelle Cp = Cpk = 1,33 peut être considérée comme une
situation basique dont la perte devrait être la perte maximale admise. Nous chercherons
systématiquement à obtenir une production dont la perte sera inférieure à ce cas que
nous appellerons "situation de référence". Nous rappelons en figure 2.21 cette
situation.
Int de Tolérance = 8 x σ
Dispersion = 6 x σ
Cp=1,33, Cpk =1,33
L = 1/16 = 0,0625
Situation quelconque
Il faut donc que toutes les situations de capabilité induisent une perte inférieure à
la perte dans le cas de l'exigence minimale (situation de référence).
Pour une situation donnée, écrivons l'inéquation sur la fonction perte en utilisant
l'expression obtenue au paragraphe 3.3 :
1 2 2 2 1
L=( ) (σ + X ) <
TS 16
2 TS
X < ( )2 − σ 2
4
2 IT 2
D'où X <( ) − σ2
8
IT
que nous exprimons en fonction de Cp en utilisant la relation Cp =
6σ
2
X < σ2 ( /
3xCp 2
0 ) −1 2
3
14 4
D’où nous tirons
3xCp 2
X<σ ( ) −1
4
X < σ. F ( Cp )
TS − X TS − σ . F ( Cp )
Cpk = =
3. σ 3. σ
IT 2.TS
Cp = = d ' ou TS = 3.Cp. σ
6. σ 6. σ
3.Cp - F(Cp)
Cpk >
3
Pour simplifier cette relation, nous allons utiliser le rendement de réglage Rr que
nous avons défini au paragraphe 4.1.1.
Cpk
Rendement de réglage Rr =
Cp
Dans le cas de l'égalité entre la perte de référence (que nous avions défini comme
le cas d'une population centrée Cp=1,33 et Cpk = 1,33) nous exprimons Rr par
l'expression :
3xCp 2
( ) −1
F( Cp) 4
Rr > 1 − = 1−
3. Cp 3Cp
1
D'où Rr > 1 − ( 1 4 ) 2 −
( 3. Cp) 2
Rr est donc une fonction de Cp qui a pour limite lorsque Cp tend vers l'infini :
lim ( Rr ) = 1 − 14 = 0 , 75
Cp → ∞
Dans le tableau ci-dessous, nous avons calculé l’ensemble des F(Cp), Cpk et Rr
en fonction de Cp :
Cp 1,33 1,67 2 3 4 5 6 7 8 9 10
F(Cp) 0,00 0,75 1,12 2,02 2,83 3,61 4,39 5,15 5,92 6,68 7,43
Cpk mini 1,33 1,42 1,63 2,33 3,06 3,8 4,54 5;28 6,03 6,77 7,52
Rrmini% 100 85 81 78 76 76 76 75 75 75 75
le cas contraire, on s'expose à des risques importants en matière de qualité comme nous
le montrerons ci-dessous.
Dans le cas des tolérances uni limites, la notion de centrage n'existe pas, par
définition même, puisque nous cherchons à nous éloigner le plus possible de la limite. Il
ne sera pas possible de définir le coefficient de réglage dans le cas des caractéristiques
uni limites.
[Pilb93] - Maurice Pillet - Cotation statistique et SPC - Journées de la cotation - Annecy - Avril 1993 - 11
pages
[Sou 82] - Pierre Souvay - Cotation d'étude et de fabrication, Calcul d'erreur - Techniques industrielles
n° 133 - 1982 - 41 Pages
A
B C D
J = 1±0,2
ITJ = ∑ IT soit en supposant la répartition des jeux identique sur les quatre
Cotes
éléments de l'ensemble :
Le jeu J est la résultante des cotes des composants de l'ensemble. De plus, nous
pouvons retenir, sans trop de difficultés, l'hypothèse d'indépendance de chacune de ces
cotes si les pièces sont fabriquées de façon indépendantes. Nous pouvons donc
appliquer le théorème d'additivité des variances pour calculer la dispersion obtenue sur
le jeu.
σ = σ2 + σ 2 + σ2 + σ2
Jeu A B C D
Si nous considérons pour simplifier que les dispersions de fabrication sur les
quatre pièces sont identiques, nous pouvons alors écrire :
σ = 4 xσ 2 = 2 xσ
Jeu Pièce Pièce
σ = 1 .σ
Pièce 2 Jeu
Ce résultat bien connu, permet de doubler l'intervalle de tolérance sur chacune des
pièces de l'ensemble par rapport à un calcul classique des jeux.
En effet, si nous souhaitons une dispersion sur le jeu telle que ITJeu = 8xσJeu, il
faudra que la production assure que la dispersion de production sur chacune des pièces
est telle que ITPièce =8xσPièce. Mais il faudra également que la production ne soit pas
trop décentrée.
Nous faisons l'hypothèse que les pièces constituant l'ensemble seront centrées sur
la nominale. En ne prenant que le Cpk comme indicateur de capabilité, rien n'assure que
cette hypothèse sera vérifiée.
Hypothèses
• Les intervalles de tolérance pour chaque pièce sont égaux entre eux.
• L'intervalle de tolérance sur une pièce est égal à la moitié de l'intervalle de
tolérance sur le jeu.
• La pièce A est fabriquée avec Cp=1,5 et Cpk = 1,5. Soit une production correcte
et centrée.
• Les pièces B, C et D sont fabriquées avec Cp = 3 et Cpk = 1,33. Le décentrage est
toujours côté maxi. On a donc la répartition illustrée sur la figure 2.24.
18.σ
Tolérance 5.σ Tolérance
Inférieure Supérieure
6.σ
σ
J = A − (( B + 5. σ ) + ( C + 5. σ ) + ( D + 5. σ ))
Moyen
J = A − B − C − D − 15σ
Moyen
V = V + V + V + V = 4. V
Jeu A B C D
σ = 2. σ
Jeu
36.σ
Tolérance
15.σ Tolérance
Inférieure
Supérieure
6.σJeu=12.σ
L'exemple que nous venons de prendre n'est pas caricatural. La pièce A était
considérée comme centrée, et les écarts utilisés entre Cp et Cpk relativement modestes.
La démonstration pourrait être plus révélatrice si nous avions pris le même Cpk avec Cp
encore plus grand.
Dans l'exemple que nous avons utilisé, nous avions pris comme hypothèse Cp = 3
et Cpk=1,33. Si la production avait respecté le rendement de réglage mini (Rrmini
figure 2.22), le Cpk serait de 2,33. Ce qui correspond à un décentrage de 2xσ.
Dans ce cas, le décentrage sur le jeu n'aurait été que de 6xσ. Ce qui correspond à
la figure 2.26.
36.σ
Tolérance
6.σ Tolérance
Inférieure
Supérieure
6.σJeu=12.σ
Nous notons ici, que le jeu fonctionnel serait respecté même dans le cas extrême.
Les indicateurs de capabilité sur le jeu fonctionnel seraient : Cp = 3, Cpk = 2. Ce qui est
très satisfaisant par rapport aux résultats de la première simulation. Ces résultats nous
permettent d'appuyer l'intérêt de développer l'utilisation de l'indicateur Rr dans les
ateliers de fabrication.
L'usage de la cotation statistique dans les bureaux d'études est extrêmement risqué
si la seule condition de capabilité est le respect du Cpk. Pour assurer un montage
sans risque, il faut introduire une nouvelle condition de capabilité Rr > Rrmini
• la dispersion instantanée,
• la dispersion globale.
Temps Temps
Procédé non maîtrisé Procédé maîtrisé
Cp
Rm% = 100.
Cm
Exemple : Cm = 2,5 et Cp = 2
2
Nous avons un rendement de maîtrise Rm% = .100 = 80%
2, 5
Exemple : Cm = 2,5 et Cp = 1
1
Nous avons un rendement de maîtrise Rm% = .100 = 40%
2, 5
L'analyse des chutes de capabilité pour un procédé est souvent très intéressante.
En effet, nous partons d'une machine avec un potentiel de capabilité Cm pour arriver à
un produit livré au client avec une capabilité Cpk. L'important est bien entendu d'avoir
un Cpk supérieur à 1,33. Si ce n'est pas le cas, il est fondamental pour résoudre le
problème de déterminer l'origine de ce manque de capabilité.
Machine
Cm
Procédé
Rm%
Cp
Rr% Procédé
Cpk > 1,33
Perte de capabilité
Nous avions vu précédemment que la chute de capabilité entre Cp et Cpk était due
au déréglage. Nous avons traduit cette chute de capabilité par le rendement Rr%.
La synthèse des capabilités peut être résumée dans un tableau des capabilités très
utile pour orienter les actions de progrès. Supposons que nous travaillons sur un produit
pour lequel nous surveillons cinq caractéristiques. Pour préparer une réunion sur ce
produit, l'animateur établit le tableau des capabilités que nous trouvons en figure 2.28.
Ce tableau existe malheureusement trop rarement dans les sociétés où les indicateurs de
capabilités restent à notre avis sous-exploités.
Caractéristiques Cm Cp Cpk Rm Rr
1 - Ø 10±0,05 2,5 2,2 1,9 0,88 0,86
2 - Ø 12±0,05 2,5 1,1 1,0 0,44 0,91
3 - Ø 8±0,02 1,1 0,9 0,8 0,81 0,88
4 - L 20±0,06 3,2 2,5 1,1 0,78 0,44
5 - L 10±0,04 2,5 2,2 1,6 0,88 0,72
Le tableau des capabilités est donc très simple à interpréter. Nous avons participé
à la mise en place de procédures incluant l'utilisation systématique du tableau des
capabilités dans de nombreuses entreprises. Notre expérience nous permet de penser
que l'utilisation systématique du tableau des capabilités est très riche. L'interprétation
des chutes de capabilité avec les rendements Rm et Rr est facilement assimilée par la
maîtrise de la production et par les opérateurs, ce qui permet un débat riche en
conclusions pratiques.
5. Conclusion de ce chapitre
Ce chapitre avait pour objectif de présenter les bases de la MSP et notamment le
pilotage des procédés par cartes de contrôle et le calcul des capabilités.
Nous avons explicité les deux cartes de contrôle traditionnelles qui nous serviront
dans la suite de notre travail c'est-à-dire les cartes de contrôle de Shewhart et les cartes
CUSUM. Ces cartes qui sont utilisées à une large échelle dans les entreprises ont
prouvé leur efficacité pour l'amélioration de la qualité des produits. Les deux cartes
CUSUM et Shewhart ont chacune leur domaine d'application bien particulier. CUSUM
est adaptée aux faibles dérives alors que Shewhart est adaptée aux dérives rapides. Nous
utiliserons largement ces propriétés lorsque nous chercherons une méthode pour adapter
les cartes de contrôle au cas des petites séries.
Si l'utilisation des outils statistiques est aujourd'hui largement répandue dans les
entreprises où les productions sont importantes, il n'en est pas de même dans les
entreprises dont la production est plus restreinte. En effet, les outils statistiques adaptés
à la production sont des outils qui ont été développés principalement pour les fabricants
automobiles dont les productions sont importantes.
Le travail que nous présenterons au chapitre 4 se situera dans cet optique. Nous
chercherons à adapter les outils que nous avons développés dans ce chapitre aux cas des
productions en petites séries. Ce développement sera réalisé en essayant de garder la
simplicité de mise en oeuvre et d'analyse qui a fait la réussite de la MSP dans le cas
traditionnel.
Chapitre 3
1. Introduction
Les apports de la MSP dans le cas des productions en grandes séries ne sont plus à
démontrer. Cette méthode connaît aujourd’hui un développement important grâce au
formalisme qu’elle amène dans la conduite des procédés. Les entreprises qui ont su
appliquer cette méthodologie avec rigueur témoignent aujourd’hui de la grande
efficacité de la démarche. Cependant, l’application de cette méthode connaît quelques
difficultés pour étendre son champ d'application au-delà des grandes et des moyennes
séries. Ces difficultés ont plusieurs origines dont les principales sont les suivantes :
• les cartes de contrôle traditionnelles sont inadaptées au cas des petites séries,
• la méconnaissance de la dispersion du procédé du fait même des petites séries
parfois non renouvelables,
• la difficulté d'introduire un formalisme dans les entreprises dont le travail se fait
de façon artisanale.
technologies, nos entreprises continueront d'évoluer vers une production par lots
toujours plus petits. Certains spécialistes affirment même, aujourd'hui, que la plupart
des entreprises de demain seront capables de produire avec des lots réduits à l'unité.
Par contre, si nous sommes capables d'adapter nos connaissances aux cas des
petites séries le maintien ou même l'amélioration du niveau de qualité nous permettra de
continuer notre démarche de progrès en matière de flexibilité. Mais outre le gain
immédiat sur la qualité des produits, la mise en place d'outils amenant plus de
formalisme dans le suivi des procédés peut apporter d'autres bénéfices non moins
importants.
• La diminution des rebuts souvent importants dans le cas des petites séries. Du
fait même des tâtonnements, les méthodes de production artisanales engendrent de
nombreux rebuts. Outre le fait que ces rebuts font baisser la productivité, ils engendrent
des coûts non négligeables. C'est notamment le cas des entreprises travaillant pour
l'aéronautique pour lesquelles le coût d'une pièce peut aller jusqu'à plusieurs milliers de
francs.
[Fos 91] - G. K. Foster - Implementing SPC in low volume manufacturing - Statistical Process Control
in Manufacturing - Dekker - 7:23 - 1991
Il est clair que la mise en place de la MSP sur les moyens de production dans le
cas des petites séries permettra une avancée importante non seulement en qualité, mais
en maintenance, en traçabilité, en productivité, et en coût. Il est donc indispensable
d'adapter les méthodes qui ont fait leurs preuves dans le cas des grandes séries pour le
cas des petites séries.
Les mêmes techniques ne pourront pas s'appliquer selon qu'un lot donné a une
production répétitive ou non. Nous dissocierons deux niveaux de répétitivité:
Dans le cas des petites séries, le coût des pièces est un critère important.
Lorsqu'on fabrique un corps de pompe pour l'industrie nucléaire, il n'est pas question
d'utiliser des pièces de réglage. Le réglage doit être le plus précis possible dès la
première pièce. Nous dissocierons donc deux niveaux de coût :
• 1 - coût élevé
• 2 - coût faible
Là encore, il nous faudra établir une dichotomie entre les produits sur lesquels le
nombre de critères par produit est important et les cas où le nombre de critères est
relativement faible voire réduit à l'unité. Dans le cas où le nombre de critères est
important, il est alors possible de réaliser un échantillonnage sur différents critères d'un
produit, alors que cela est impossible dans l'autre cas. Nous dissocierons deux niveaux:
D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2
Méthode X ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
Une méthode ne sera jamais parfaitement adaptée à tous les cas de figure. Il sera
donc intéressant de vérifier si tous les 24 cas de figure ont une méthode.
Dans le cas des toutes petites séries, ce problème est bien entendu le problème
majeur. En effet, dans le cas d'une série de huit pièces par exemple, il est hors de
question d'attendre de réaliser les cinq premières pièces avant de prendre une décision
de réglage. Dans ce cas, les cartes de contrôle traditionnelles sont donc inadaptées, il
faut être capable de prendre une décision dès la première valeur - voire même avant
celle-ci.
Dans le cas des petites séries répétitives, il est encore possible de réaliser une
carte par caractéristique à surveiller. Cela n'est pas sans poser un certain nombre de
problèmes de gestion des multiples cartes de contrôle. Par contre, dans le cas des petites
séries non renouvelables, l'application traditionnelle des cartes de contrôle est
impossible. Il faut trouver des solutions pour les adapter.
Dans le cas des petites séries, la plupart des opérateurs pilotent leur procédé en
réalisant un contrôle à 100% sur les pièces qu’ils réalisent. Ce contrôle pourrait être
excellent s’il intégrait le raisonnement statistique, mais ce n’est malheureusement pas le
cas. Les figures 1 et 2 montrent deux exemples de raisonnement classique lors de la
réalisation d’une petite série de 10 pièces. Les exemples concernent un usinage de
pièces mécaniques. La cote à réaliser est de 10±0,05 mm. Les valeurs indiquées sont les
écarts par rapport à la nominale en centièmes de millimètre. Supposons qu'une étude sur
les précédentes productions a montré que l'écart-type de la dispersion sur cette machine
est de 1,15 centièmes de millimètre.
Dans l'exemple n°1, l'opérateur a réalisé les 7 premières pièces sans réglage, puis
a effectué un réglage de 0,06 mm.
Dans l'exemple n°2, l'opérateur a réalisé un réglage dès la seconde valeur. Il a été
obligé de corriger de nouveau son procédé lors de la 4ème valeur.
+6
+4
+2
0
-2
-4
-6
1 2 3 4 5 6 7 8 9 10
Numéro 1 2 3 4 5 6 7 8 9 10
Cote +2 +1 +4 +3 +2 +2 +6 -2 -3 -4
Action R(-6)
On note d’abord que l’opérateur n’a pas réglé sa machine avant la septième cote
qui est hors tolérance. Il faut dire à sa décharge que la pièce numéro six était à +2 donc
près de la cote nominale. N'était-il pas plus judicieux de régler avant de rebuter une
pièce? Est-il possible de trouver une démarche logique et formelle qui permettrait de
régler la machine avant de faire une pièce hors tolérance?
La deuxième remarque que nous inspire cet exemple est le réglage de (-6) qui a
été réalisé par l’opérateur après avoir fait une mauvaise pièce. Il semble que celui-ci a
basé son raisonnement uniquement sur la dernière pièce en oubliant les pièces qu’il
avait réalisées avant. Il faut dire à sa décharge que la pièce 7 étant hors tolérance, il a
cherché à se ramener au plus vite sur la nominale. Et pourtant, les pièces suivantes se
retrouvent décalées sur le côté inférieur de la tolérance. La question qui est posée est
alors de trouver une démarche logique et formelle qui permettrait de régler la machine
avec la meilleure précision possible pour se ramener à la nominale.
1 2 3 4 5 6 7 8 9 10
Numéro 1 2 3 4 5 6 7 8 9 10
Cote 1 3 -2 -4 2 1 0 -1 2 3
Action R(- R(+4)
3)
Les exemples précédents ne sont pas caricaturaux. Tous ceux qui ont suivi des
procédés réalisés en petites séries connaissent bien ce phénomène. En fait, le
raisonnement traditionnel de pilotage conduit généralement aux constats suivants :
Ces actions engendrent des pertes de productivité dues aux réglages inutiles, et
aux rebuts réalisés. De plus, en se référant à la fonction perte de TAGUCHI [tag 89] que
nous avons explicité au chapitre 2 paragraphe 3.2., nous pouvons affirmer que les coûts
de non-qualité sont très importants. En effet, les pièces n'étant pas sur la nominale,
mais remplissant la totalité de l'intervalle de tolérance, la perte sera maximale.
L'origine du mal vient du fait que l’on n'utilise pas un raisonnement statistique.
Dans le cas que nous évoquons, l’opérateur fait du contrôle à 100%, mais raisonne sur
une seule mesure pour piloter sa machine. Pour améliorer les règles de pilotage dans le
cas des petites séries, il faut absolument abandonner le raisonnement unitaire au profit
d’un raisonnement statistique basé sur les cartes de contrôle qui a fait ses preuves dans
les productions plus importantes.
[tag 89] - Genichi Taguchi - Elsayed A. Elsayed - Thomas Hsiang Quality engineering in production
systems - Mc Graw-Hill -- 1989
Mais ce n'est pas suffisant. Il faut également que le travail supplémentaire généré
par l'outil ne soit pas plus important que le gain obtenu sur le pilotage de la machine.
Nous insistons sur le fait suivant : ce n'est pas les gains ressentis par le management qui
est important, mais les gains ressentis par l'opérateur. La réussite de la MSP ne sera
possible que si l'outil est particulièrement simple et adapté à des opérateurs qui n'ont pas
toujours un bagage mathématique important.
Notre expérience nous a montré que les entreprises qui ont réussi dans la mise en
place de la MSP ont focalisé leur attention sur les opérateurs. Certains invariants
ressortent systématiquement :
Lorsque la mise en place de l'outil sur les machines est une réussite, le reste suit
forcément. L'analyse des conditions de réussite de la mise en place de la MSP n'a pas
été le point central de notre étude. Cependant, au moment de la conclusion de notre
étude, nous constatons que ce travail n'a jamais été réalisé - du moins nous n'avons pas
trouvé de publication à ce sujet - et cela mériterait un travail approfondi. En
considérant l'ensemble des entreprises que nous avons étudié, nous considérons que
souvent les obstacles majeurs ne sont pas des obstacles mathématiques mais des
obstacles dans la méthodologie de mise en oeuvre.
La réussite de la mise en place de la MSP dans le cas des petites séries nécessite
donc :
Dans ces conditions, on pourra faire évoluer les méthodes traditionnelles vers des
méthodes plus formelles et ainsi améliorer la qualité de nos productions.
Paramètres Paramètres
figés de pilotage
MATIERES PRODUIT
PROCESSUS DE
PRODUCTION
Bruits
Extérieurs
Parmi l'ensemble des paramètres qui agissent sur le système, certains sont
maîtrisables par l'opérateur, d'autres ne le sont pas . TAGUCHI caractérise les
paramètres non maîtrisables par des bruits [Tag 87] qui sont de trois types :
[Tag 87] - Genichi Taguchi - System of experimental Design -Tome I et II - ASI - 1987
Pour éviter ces erreurs, il est nécessaire d'éliminer la dispersion due aux bruits.
Comme on ne peut pas le faire physiquement, il faut le faire par le calcul en travaillant
sur les moyennes plutôt que sur des valeurs individuelles.
En observant la moyenne de plusieurs valeurs, on sait que l'écart-type de la
dispersion des moyennes est réduit par un rapport 1 . Très vite, l'amélioration de
n
l'efficacité du contrôle se fait sentir.
Dans ce cas, le centre d'usinage dispose d'un magasin d'outil, et les outils qui
servent à réaliser cette pièce seront également utilisés pour usiner d'autres pièces. Ainsi,
il faut être capable d'ajuster les réglages du centre d'usinage en intégrant pour les
prochaines pièces des corrections d'outils.
Supposons que les alésages soient réalisés en contournage par le même outil. La
plupart des opérateurs contrôlent un des alésages, et en fonction du résultat , ils
modifient leurs corrections d'outil. Si au lieu de contrôler un alésage, on mesure les trois
alésages et que la décision de correction soit prise sur la moyenne des trois écarts plutôt
que sur un écart, on améliore de 3 la précision de la correction. De même, la
correction sur la longueur d'outil qui réalise les bossages sera plus efficace si elle
intègre plusieurs mesures que si elle est réalisée sur une seule mesure.
Dans ce cas, bien sûr, les cartes de contrôle renseigneront l'opérateur sur les
corrections à apporter, mais en plus, par la carte des étendues, on aura, de façon
continue, une surveillance de la capabilité machine. Ce qui sera bien utile pour mettre
en place une maintenance prédictive.
L2
L1
Une entreprise, qui fabrique des vérins à la commande, désire mettre sous
contrôle la production des tubes. Un tour à commande numérique réalise les mises à
longueur de ces tubes. Chaque tube usiné a une longueur différente qui correspond à la
longueur commandée par le client. La longueur est introduite dans la commande
numérique à chaque pièce comme étant un paramètre. Dans ce type de cas, l’utilisation
des cartes de contrôle traditionnelles semble impossible puisque la caractéristique n’est
pas constante. Il n'y a même pas de petite série puisque c'est en fait une production
unitaire.
Dans ce cas de figure, les deux cartes de contrôle sont utiles à l’opérateur :
• la carte des moyennes permettra de suivre les dérives en réglage dues aux usures
d’outils par exemple. En cas de variation sur la carte de contrôle des moyennes, il
faudra introduire une correction pour que les prochaines pièces soient à nouveau
proche de la nominale.
Les cas de figure pour lesquels cette méthode peut être appliquée sont assez
courants. En effet, les procédés industriels sont, en général, assez spécialisés, et
réalisent souvent le même type de travail. Aussi, moyennant un peu d'imagination, il
est souvent possible de trouver une grandeur, caractéristique de l'état du procédé, qui
peut être suivie indépendamment de la production réalisée.
Cette méthode a été particulièrement étudiée par M. Kevin Foster [Fos 88].
L'application proposée concerne une machine d'assemblage de composants. Sur cette
machine, des productions de qualités différentes sont demandées comme des
applications militaires ou communes. Quelle que soit l'application, la machine subira
des fluctuations dues aux causes communes, mais ces fluctuations ne dépendront que de
la machine et pas du produit militaire ou civil qu'elle assemble. Foster propose, dans ce
cas, de mettre sous contrôle l'écart de positionnement sur l'axe des X par rapport à la
valeur planifiée.
Cela revient à faire un changement de variable qui permettra de tenir une carte de
contrôle de type Shewhart avec des échantillons de trois écarts par carte assemblée par
exemple. Ainsi on pourra bénéficier des avantages du suivi et du pilotage par cartes de
contrôle et surveiller ainsi les dérives de la machine et sa capabilité.
[Fos 88] - Kevin Foster - Implementing SPC in low volume manufacturing - ASQC Quality Congress -
Dallas - 1988
L'application de la MSP dans le cas des petites séries est apparue très récemment
dans les publications. La seule méthode réellement appliquée à grande échelle de nos
jours est la méthode que nous détaillerons dans ce chapitre. Tous les développeurs de
logiciel qui prétendent offrir un module petites séries (ils sont tous d'origine américaine)
ont, en fait, programmé cette méthode. Cette méthode est apparue très tôt avec les
travaux de F.S. Hiller [Hil 69] et les travaux de F. Prochman et I. R. Savage [Pro 60]. Ils
ont été repris plus récemment par David R. Bothe [Bot 92] et Thomas Pysdek [Pys 93].
Cette méthode propose une évolution de la recherche d'un phénomène de série à travers
une nouvelle façon d'aborder les cartes de contrôle de Shewhart.
Son étude repose sur la remarque suivante. Lorsqu'un procédé réalise de petites
séries renouvelables, il est nécessaire de changer de carte à chaque nouvelle série car,
par définition, la carte de Shewhart dépend de la caractéristique à surveiller. En effet,
les limites de contrôle sont calculées par les formules [C.f. Chapitre 2]
LSC = X + A .R
X 2
LIC = X − A .R
X 2
pour la carte des moyennes,
LSC = D . R
R 4
LIC = D . R
R 3
pour la carte des étendues.
[Hil 69] - F. S. Hiller - X and R-chart Control Limits based on a small number of subgroups - Journal of
quality technologie - 17:26 - January 1969
[Pro 60] - F. Proschan and I. R. Savage - Starting a Control Chart - Industrial Quality Control - 12:13 -
September 1960
[Bot 92] - D. R. Bothe - Integrating SPC with just in time - Conférence mondiale de l'APICS - Montréal
- 1992
[Pys 93] - Thomas Pysdek - Process control for short and small runs - Quality progress - 51:60 - April
1993
LSC = +A . R
X 2
LIC = − A . R
X 2
Nouvelle valeur cible = 0
R
On peut donc écrire D < <D
3 R 4
En effectuant le changement de variable R R , les nouvelles limites de contrôle
(D4 et D3) deviennent donc indépendantes de l'étendue moyenne.
Bien sûr le point à noter sur la carte n'est plus R mais le rapport entre R et la
valeur moyenne de l'étendue pour le lot étudié.
R
R Notée =
R Cible
Les cartes traditionnelles ont des limites non seulement liées à R mais aussi à
X Cible . Pour pouvoir représenter les points sur la même carte, il faut éliminer ces deux
dépendances.
LSC = +A . R
X 2
LIC = − A . R
X 2
Nouvelle valeur cible = 0
X − X Cible
que nous pouvons écrire −A < <A
2 R 2
X − X Cible
X Notée =
R Cible
Ce type de carte est donc très intéressant puisque les limites ne dépendent que de
la taille des échantillons. Ainsi, tant que la taille des échantillons est constante,
l'opérateur n'a besoin que d'une seule carte de contrôle pour visualiser n'importe quel
type de pièces. La carte de contrôle sur une machine aura alors la configuration donnée
en figure 3.6.
A2
0
-A2
D4
1
D3
Inconvénient de la méthode
Un autre inconvénient de la méthode de Bothe réside dans le fait que l'écart qui
apparaît sur la carte de contrôle des moyennes ne représente pas directement l'écart
Avantage de la méthode
D'autre part, si nous sommes dans la configuration de lots non ou peu répétitifs,
les cartes de contrôle seraient nombreuses et ne comporteraient que quelques points au
terme d'une année d'exploitation. Cela permettrait d'interpréter les cartes de moyennes
mais difficilement les cartes des étendues. En effet, les cartes des étendues s'interprètent
plus sur l'ensemble d'une carte que sur une série. La détection des problèmes de
capabilité serait donc délicate.
Les développements de la carte de Bothe ont été faits pour la carte X/R, mais le
développement équivalent est immédiat pour la carte X/σ.
8. Etudier le procédé
Ce dernier axe pour l'adaptation de la MSP au cas des petites séries a été
développé principalement dans l'industrie aéronautique américaine. En effet, ces
entreprises sont confrontées à un type de production particulier pour lequel il y a de très
nombreuses pièces à réaliser, avec sur chacune de très nombreuses caractéristiques à
étudier. De plus, ces caractéristiques sont en général très sévères.
Une étude particulièrement intéressante a été menée sur un centre d'usinage trois
axes à commande numérique par Mrs Georges F. Koons et Jeffery J. Luner [Koo 91].
Cette machine réalise 150 pièces différentes en lots de 15 à 25 unités en moyenne. Les
productions ne reviennent que plusieurs mois plus tard. De plus, la tendance est à la
diminution de la taille des lots. Dans ce cas, l'application classique de la MSP est
évidemment impossible. L'approche retenue a été de ne pas étudier les caractéristiques
propres à une pièce particulière, mais plutôt les processus qui produisent ces
dimensions. On établira une carte par procédé de fabrication et non par lot. Ainsi des
pièces différentes subissant la même opération pourront être gérées par la même carte
de contrôle.
[Koo 91] - G. F. Koons - J. J. Luner - SPC : Use in low volume manufacturing envirnment - Statistical
Process Control in manufacturing - Quality and reliability - ASQC Quality Press - 1991
Exemple de description
Numéro de machine 72
Matière Aluminium
Origine extrusion
Positionnement par rapport à une face usinée
Procédé fraisage
Taille du sous-groupe 25
De plus, et cela est très important dans ce cas, le fait de travailler sur les variances
des échantillons, permet d'obtenir une estimation non biaisée de la variance de la
population.
0.4
0.3
0.2
0.1
0.0
Pour chaque point hors contrôle du côté maxi de la carte des variances, on
recherche une cause spéciale pouvant expliquer cette variance élevée - par exemple un
réglage à l'intérieur du sous-groupe - puis on élimine le sous-groupe concerné. On peut
lorsqu'on a gardé l'ensemble des données, éliminer les pièces concernées afin de recréer
un sous-groupe homogène.
2
S = 0,027
0.2
0.1
0.0
On peut alors calculer la carte des moyennes à partir de la loi de répartition des
moyennes :
2
S
LICX = X − 3
nj
2
S
LSCX = X + 3
nj
L'analyse des cartes des moyennes montre également des points hors contrôle
(figure 3.9). Ces points hors contrôle doivent comme pour le cas de la carte des
variances être expliqué pour faire apparaître des causes spéciales.
0,04
X = -0,002
0,02
0,0
-0,02
-0,04
Comme pour la carte des variances, les limites ne sont pas constantes du fait de la
taille non constante des lots.
Cette étude a permis de mettre en évidence des causes spéciales, il faut alors
chercher à supprimer celles-ci par des actions correctives lorsque cela est possible.
L'étude a permis d'apporter trois améliorations au procédé. La première consiste à
améliorer la procédure de démarrage de série. La seconde permet de mieux gérer les
usures d'outils, et enfin la dernière qui n'est pas technique mais plus philosophique
consiste à éduquer le personnel à viser la nominale et non l'intérieur de la tolérance.
• le n° de machine
• la matière usinée
• le type de dimension mesurée.
L'étude a été réalisée en utilisant une régression multiple linéaire qui consiste à
identifier un modèle de type
Le modèle est considéré comme additif, et les interactions entre facteurs sont
supposées faibles par rapport aux facteurs principaux.. La réponse est le logarithme de
l'écart-type. Cette transformation classique permet de satisfaire l'hypothèse de normalité
de la procédure statistique.
Les variables sont des variables qualitatives, elles sont donc prises égales à 0 ou à
1. On peut pour cela utiliser la technique des facteurs composés - méthode très classique
du domaine public des plans d'expériences présentée dans [Pila92] . On modélise le
problème de la façon suivante :
[Pila92] - Maurice PILLET - Introduction aux plans d'expériences par la méthode TAGUCHI - Ed
Organisation - 167:169 - 1992
L'étude étant réalisée, il est aisé de calculer les capabilités procédé en établissant
le rapport IT/6σ. Dans le cas où l'analyse de la variance a montré qu'il n'existe pas de
facteurs significatifs, on peut supposer que la dispersion reste constante pour l'ensemble
des caractéristiques une fois éliminées les causes spéciales. On peut déterminer les
intervalles de tolérance réalisables sur la machine en fonction d'une capabilité objective.
Dans le cas contraire, le modèle linéaire calculé permet de prévoir les dispersions
prévisibles en fonction de la configuration retenue.
Comme dans les précédentes techniques, il faut pour pouvoir l'appliquer disposer de lots
de pièces, et la méthode ne fournit pas d'aide pour la réalisation des premières pièces.
Avantages de la méthode
La méthode permet dans le cas de petits lots, de faire une analyse statistique rigoureuse
pour dissocier les causes communes des causes spéciales. Cette dissociation est la base
de la MSP. Elle est particulièrement bien adaptée aux centres d'usinage, mais peut
facilement être adaptée dans d'autres domaines comme pour une machine à souder à la
vague pour laquelle les séries seraient courtes.
La méthode proposée se focalise sur l'étude des dispersions et donc sur l'amélioration de
la capabilité du procédé. Elle permet une amélioration constante de l'outil de travail
grâce à la recherche et au traitement systématique des causes de dispersions.
Les critères à surveiller sont parfois relativement simples à trouver, par exemple
la température du moule sur une presse à injecter. Mais dans la plupart des cas, il est
très difficile de connaître les interactions entre les paramètres de sortie, de pilotage et
d'entrée. Nous avons cherché à formaliser une modélisation des procédés industriels qui
permettrait de mieux cerner les paramètres importants du procédé [Pil 90].
/
02 / 2 / 2
/P1 2/ 2
Y = C + 0M
3 0 3 3
0 3
P + E3
0
0
03 0 3 0 3
0 303
14140
3 0 3 1 3
0
1 413
4P 2 304
Avec :
Y : Caractéristiques à obtenir sur le produit
C : Vecteur constant
P : Vecteur donnant la configuration des paramètres influants qui se décomposent
en : P1 : Paramètres pilotables
P2 : paramètres bruits non maîtrisables
E : vecteur résiduel
M : Matrice à identifier
[Pil 90] -- Maurice Pillet - Séminaire interne Laboratoire de Logiciel pour la Productique - Janvier 1990
- 20 pages
% = C+ E E
Y A1 A2 A + E B1 E B2 E B3 B + E C1 E C2 C
t
+ A
/
0
I A1B1 I A1B2 I A1B3 2
3 /
I
B+ A 0
t A1C1 I A1C2 2
3
C
1IA 2 B1 I A 2 B1 I A 2 B1 4 1I A 2 C1 I A 2C1 4
Avec :
Y% : la réponse recherchée
C : une constante
EA1 : effet de A sur la réponse lorsque A est au niveau 1
IA1B1 : effet de l'interaction A au niveau 1 et B au niveau 1 sur la réponse
In A1 /
0
12/2 0 /2
[A] : indicateur de niveau de A =
t[A] : vecteur transposé de [A]
In A 2
=
1 413
030lorsque A = 1 et
4 1 0
13
lorsque A = 1
4
Le modèle précédent peut également s'écrire de la façon suivante :
/
0
In 2
In 3
A1
% = C+ E E
Y EB1 EB2 EB3 EC1 EC2 IA1B1 IA1B2 IA1B3 IA2B1 IA2B2 IA2B3 IA1C1 IA1C2 IA2C1 IA2C2
0
0 In 3
A2 3
A1 A2
0
0
B1
3
.... 3
0
1In 3
A2C2 4
En tenant compte des conditions de centrage InA1 + InA2 = 0
[Vig 88] - Michel G. Vigier - Pratique des plans d'expériences - Les éditions d'organisation - 1988
/
0
In 2
In 3
A1
% = C+ E
Y E B1 E B2 E C1 I A1B1 I A1B2 I A1C1
0
0 3
.... 3
B1
A1
0
0 3
.... 3
0
1In 3
A1C1 4
Ce qui correspond à une ligne ou à une portion de la matrice [M]. On peut donc,
par plans d'expériences successifs identifier des parties de la matrice [M]. De plus,
lorsqu'un plan d'expériences permet d'obtenir plusieurs réponses, on identifie en un seul
plan d'expériences plusieurs lignes de la matrice [M].
/
0
X 2
Y 3
% = C+ a b c d e f
Y
0
g0
3
... 3
0
0XZ 3
3
0
1XV3 4
Ce qui correspond à une ligne ou à une portion de ligne de la matrice [M].
M11 P1
Facteur
de
0 pilotage
Pn
Mii 0
0 B1 Facteurs
de
Bruits
Mnn
Bk
Coeft de Coeft de
pilotage bruit
Dans cette matrice, chaque caractéristique pièce est pilotée de façon indépendante
par un seul facteur de pilotage, et les bruits n'ont aucun effet sur les caractéristiques. Ce
n'est bien sûr jamais le cas. La réalité est toujours plus complexe. la matrice comporte
beaucoup moins de zéro, le nombre de facteurs de pilotage est différent du nombre de
caractéristiques...
Parmi l'ensemble des types de matrices que nous pourrions analyser, nous avons
choisi de sortir deux types particuliers pour leur intérêt en MSP :
M11 M1i P1
M2i Facteur
de
0 Pi pilotage
Pn
Mii
0 B1 Facteurs
de
Bi Bruits
Mni Mnm
Bk
Coeft de Coeft de
pilotage bruit
Dans ce cas de figure, il est impératif de mettre sous contrôle le paramètre Pi. La
surveillance par cartes de contrôle ne devra pas se faire sur les caractéristiques des
produits mais sur la caractéristique Pi du procédé. Ce type d'application est très adapté
aux petites séries dans la mesure où il est toujours difficile de mettre sous contrôle les
caractéristiques sur la pièce.
M11 P1
Facteur
de
0 Pi pilotage
Pn
Mi1 Mii Mim
0 B1 Facteurs
de
Bi Bruits
Mnm
Bk
Coeft de Coeft de
pilotage bruit
La même étude pourrait être faite sur les facteurs bruits pour mieux comprendre
leur influence.
Bien que riche en informations, cette méthode d'identification est assez difficile à
mettre en oeuvre dans sa totalité. Il est, en effet, assez difficile d'identifier totalement la
matrice [M], et les matrices obtenues ont souvent de nombreux termes inconnus qui
limitent l'exploitation de celles-ci. On réserve ce type d'identification aux produits à
forte valeur ajoutée pour lesquels le coût des essais nécessaires peut-être amorti.
Afin d'évaluer les différentes méthodes que nous venons de découvrir, nous nous
appuierons sur la typologie des petites séries que nous avons établie au paragraphe 2.
Nous allons vérifier l'adaptation de chaque méthode aux différentes classes de petites
séries afin de vérifier si l'ensemble de la classification est couverte.
Pour chacun des critères, nous pouvons établir un tableau qui nous permet
d'évaluer les différentes méthodes. Nous symboliserons les méthodes par:
Cette classification sera établie pour chacun des critères en utilisant le tableau du
paragraphe 2. Nous avons noté un cercle (}) lorsque la méthode était adaptée à la
typologie, et un carré (
) lorsque la méthode était adaptée, mais avec des difficultés de
mise en oeuvre.
D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2
U-
}
}
}
}
Echant.
V- Eff
série
W-Modif
ca
X-
procédé
Y-
} }
} }
} }
} }
Modèle
D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2
U- } } } } } } } }
Echant.
V- Eff } } } } } } } } } } } } } } } } } } } } } } } }
série
W-Modif
} } } }
ca
X-
}
}
}
} }
procédé
Y-
Modèle
L'aide au réglage sur échantillon est, lui, facilité par de nombreuses méthodes. La
modification des cartes de contrôle nous semble difficilement adaptable pour les petites
séries de moins de 20 pièces. Le pilotage par étude du procédé est à réserver aux pièces
complexes donc contenant de nombreux critères. Par contre, quelle que soit la typologie
de production, l'obtention d'un modèle facilite la compréhension du procédé et donc son
réglage. La méthode de la recherche d'un effet de série a, sur ce critère, un avantage
important. On note également l'intérêt sur ce point de rechercher un échantillonnage
dans le cas des pièces unitaires. Les applications que nous avons menées sur ce point
nous ont montré l'intérêt de la technique.
U- } } } } } } } }
Echant.
V- Eff } } } } } } } } } } } } } } } } } } } } } } } }
série
W-Modif
} } } }
ca
X-
}
}
}
} }
procédé
Y-
Modèle
Ce tableau est le même que le précédent. En effet, lorsqu'on peut travailler à partir
d'échantillons, la surveillance de la dispersion intra-échantillons et inter-échantillons
permet de façon simple de suivre les capabilités aussi bien machine que procédé. Or le
suivi est le premier pas de l'amélioration.
D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2
U- } } } } } } } }
Echant.
V- Eff } } } } } } } } } } } } } } } } } } } } } } } }
série
W-Modif
ca
X-
procédé
Y-
Modèle
Pour ce critère, les techniques qui peuvent être utilisées de façon manuelle sont
avantagées. La technique de modification des cartes demande la mise en place d'un
système informatique. Elle est donc d'un coût plus élevé. Les deux dernières techniques
demandent des études spécifiques, elles sont donc plus coûteuses.
D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2 D1 D2
U - Echant.
}
}
}
}
V- Eff
série
W-Modif
} } } }
ca
X-
}
}
}
} }
procédé
Y-
Modèle
Nous avons choisi de noter (
) l'effet de série, car si cette méthode marche
particulièrement bien lorsqu'elle est réalisable, elle est néanmoins dépendante de
trouver cet effet de série. Cela n'est pas toujours évident.
Remarque 1
L'évaluation selon le critère C1 ( aide au réglage sur les premières pièces) est
assez peu encourageant. Très peu de méthodes permettent de satisfaire élégamment ce
critère. Il serait donc utile de trouver une méthode simple qui comblerait cette lacune.
Remarque 2
Chapitre 4
Nous proposons dans ce chapitre une nouvelle approche pour appliquer la MSP
dans le cas des toutes petites séries basée sur un nouveau concept de cartes de contrôle :
les cartes de contrôle "petites séries". Ces cartes de contrôle ont pour objectif de devenir
un outil de pilotage pour les opérateurs en répondant aux deux questions essentielles
que se pose un opérateur en production :
Nous présenterons dans ce chapitre une première carte de contrôle "petites séries"
dérivée des cartes de Shewhart particulièrement adaptée au remplissage manuel. Puis
nous présenterons une amélioration de cette carte de contrôle par une procédure
CUSUM plus efficace dans certains cas de figure.
[Pilc91] - Maurice PILLET - Pratique du SPC dans le cas des petites séries - La maitrise Statistique des
processus ou SPC - Recueil de conférence CETIM 20/11/91 - 87:100 - 1991
[Pilb92] - Maurice Pillet - Application du SPC aux petites séries - Revue contrôle industriel et qualité -
n°174 - Avril 92 - 58:61 - 1992
[Pilc92] - Maurice Pillet - Le SPC dans un contexte de petites séries - Actes de conférences 2ème journée
des CPIM de France - Les outils du changement - 23/009/1992 - 97:103 -1992
[Pilc93] - Maurice Pillet - Le SPC et les petites séries - Technologie et Formation n° 46 - Février 93 -
29:32 - 1993
Numéro 1 2 3 4 5 6 7 8 9 10
Cote +2 +1 +4 +3 +2 +2 +6 -2 -3 -4
Action R(-6)
Pour remplir cette carte, il suffit de remplir les cases X1..X5 avec les valeurs
mesurées, puis, de calculer à chaque nouvelle mesure la moyenne de l’ensemble des
pièces mesurées et l’étendue. Les valeurs moyenne et étendue sont reportées sur les
cartes correspondantes.
Ainsi lorsque l'opérateur a mesuré la première pièce réalisée (+2), il inscrit cette
valeur en X1 et la reporte sur la carte des moyennes. Il n'y a pas, bien sûr d'étendue sur
la première valeur.
Pour décider du réglage, l’opérateur aura besoin de limites de contrôle qui seront
calculées en fonction de la dispersion du procédé comme nous le montrerons au
paragraphe suivant.
Dans notre exemple, dès la troisième pièce (+4), la carte de contrôle "petites
séries" donne l’assurance d’un déréglage en sortant des limites de contrôle des
moyennes. Mais le rôle de la carte ne s’arrête pas là. Elle permet à l’opérateur de
A titre d'exemple, le lecteur pourra simuler le cas numéro deux que nous avions
présenté, et vérifier que l'utilisation de notre carte de contrôle "petites séries" aurait
évité le réglage inutile. Or, chaque fois qu'un réglage inutile est supprimé, chaque fois
qu'une pièce rebut est évitée, c'est de la productivité en plus pour l'entreprise et donc de
la compétitivité.
Dans le cas où on ne connaît rien sur le procédé, il faut mettre en place une feuille
de relevé sur laquelle on prendra soin de noter l'ensemble des actions et des incidents
dans un journal de bord. Cette feuille de relevé permettra de regrouper l'ensemble des
procédés de même type que celui qui nous intéresse. Une fois cette feuille de relevé
remplie, on regroupera l'ensemble des relevés en sous-groupes homogènes, c'est-à-dire
ne comportant pas de cause spéciale identifiée dans le journal de bord. (Figure 4.2). Les
valeurs notées sur la feuille de relevé sont les écarts par rapport à la cible.
1 +3 1 11 1 3 21 1 4
2 +2 1 12 -4 3 22 -2 4
3 +5 Réglage 1 13 1 3 23 1 4
4 -2 2 14 -1 3 24 0 4
5 0 2 15 -2 fin lot 3 25 -2 4
6 -1 2 16 +6 réglage / 26 0 fin lot 4
7 0 Fin lot 2 17 0 4 27 2 5
8 -4 3 18 -2 4 28 1 5
9 0 3 19 -1 4 29 0 5
10 0 3 20 1 4 30 -1 5
Sous groupe 1 2 3 4 5
NB de valeurs 3 4 8 10 4
Variance s2 2.33 0,917 4,125 1,6 1,66
2
S
LIC = χ 2
0,999
( n j − 1)
2
S
LSC = χ 2
( n j − 1)
0,001
La valeur centrale représente la variance intra-série que nous avons calculée 2,319
Groupe 1 2 3 4 5
Nb ddl 2 3 7 9 3
Variance 2.33 0,917 4,125 1,6 1,66
χ20,999 0,002 0,024 0,595 1,152 0,024
LIC 0,002 0,018 0,197 0,296 0,018
χ20,001 13,82 16,27 24,32 27,88 16,27
LSC 16.02 12.57 8,05 7.18 12.57
25
20
15
10
0
1 2 3 4 5 6 7
L'ensemble des variances étant compris dans les limites de contrôle, on peut
accepter l'hypothèse d'homogénéité des variances, et considérer que σ = Vint ra série est
l'écart-type de la population étudiée. Nous aurions donc σ = 1,52, écart-type supposé de
la population totale. Cette estimation est une première estimation grossière, car elle
porte sur peu de valeurs. Il sera nécessaire d'affiner cette estimation à partir des
premiers résultats observés sur la carte de contrôle "petites séries".
Dans notre exemple, nous trouverions comme moyenne des étendues : R = 1, 875
R 1, 875
σ$ = = = 1, 66
d 2 1,128
3.2. Calcul de la carte des moyennes
α/2 α/2
u.σ u.σ
[ N - u.σ , N + u.σ ]
Avec
• N : Nominale
• u : Variable réduite en fonction du risque α
• σ : Ecart-type historique de la distribution
Lorsque le résultat est compris dans cet intervalle, il est délicat de régler. On
risque de dérégler un procédé bien centré. Par contre, si la pièce se situe à l'extérieur de
cet intervalle, nous avons la certitude (au risque α/2) que la machine n'est pas centrée
sur la valeur cible. Il faut donc opérer à un ajustement.
Il en est de même pour la deuxième pièce. Mais, si au lieu de ne raisonner que sur
la deuxième pièce, on raisonne sur la moyenne des deux premières pièces, on peut ainsi
affiner notre jugement. En effet, cette moyenne calculée sur deux pièces sera comprise
dans l’intervalle
σ σ
N − u. , N + u.
2 2
De même, si l’opérateur réalise la cinquième pièce sans réglage intermédiaire, la
moyenne des cinq pièces sera comprise en cas de réglage parfait de la machine dans
l’intervalle
σ σ
N − u. , N + u.
5 5
Si la moyenne ne se situe pas dans cet intervalle, nous avons la certitude (au
risque α/2) que le procédé est déréglé, il faut donc le régler. Le principe de la carte de
contrôle des moyennes en petites séries est de travailler sur des échantillons de taille
variable. Cet échantillon sera réduit à l'unité lorsqu'on ne dispose que de la première
pièce. Puis l'échantillon augmentant, on peut affiner la détection des causes spéciales.
Usuellement, u est pris égal à 3. Les limites de contrôle des moyennes seront
calculées à partir de l'écart-type estimé de la population totale et de la taille de
l'échantillon par les formules :
σ
LSCX = Cible + 3
n
σ
LICX = Cible − 3
n
σ = d .σ
R 3
On peut donc fixer les limites de variation de l'étendue à ±3.σR. On aura comme
limite de contrôle pour les étendues :
LSCR = R + 3. d 3 . σ
LICR = R − 3. d 3 . σ
LSCR = ( d 2 + 3. d 3 ) σ = D6 . σ
LICR = ( d 2 − 3. d 3 ) σ = D5 . σ
Pour simplifier, les calculs des limites de contrôle s'effectuent à partir des
relations suivantes :
Pour les moyennes
LSCX = Cible + A 4 . σ
LICX = Cible − A 4 . σ
Pour les étendues
LSCR = D6 . σ
LICR = D5 . σ
Les coefficients utilisés dans les calculs sont résumés dans le tableau ci dessous.
n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
d2 1,128 1,693 2,059 2,326 2,534 2,704 2,847 2,970 3,078 3,173 3,258 3,336 3,407 3,472
d3 0,853 0,888 0,880 0,864 0,848 0,833 0,820 0,808 0,797 0,787 0,778 0,770 0,762 0,755
Exemple de calcul
σ = 1.15
Ecart-type déterminé à partir de l'historique :
Cible visée =0
Pour n = 2
σ =x 3,69 x 1,15 = 4,24
Limite supérieure LSCr = D6
Pour n = 3
σ =x 4,36 x 1,15 = 5,01
Limite supérieure LSCr = D6
[Lill 91] - LILL H. - CHU Yen - CHUNG Ken - Statistical Set-up Adjustement for low volume
manufacturing - Statistical Process Control in Manufacturing - 23:38 - Dekker - 1991
deux cas de figure donnant le même résultat sur la mesure de la première pièce, mais
qui nécessite des réglages différents.
Intervalle de tolérance
Dispersion σr
de réglage
Dispersion σp
de production
Ecart
mesuré
En supposant une loi normale pour chacune des répartitions, on peut calculer la
composition des deux fonctions de répartition et ainsi trouver le réglage optimal.
2
1 XP − N ☺
− ☺
☺
1 2 σ
Y = e P
P σ 2π
P
2
1 XR − N ☺
− ☺
☺
1 2 σ
Y = e P
R σ 2π
R
En supposant que la valeur centrale pour les deux distributions est égale à 0, on a
alors N = 0.
L'erreur totale E, c'est-à-dire l'écart mesuré par l'opérateur, est égale à la somme
des deux erreurs, on a
E=X +X
R P
Nous recherchons en fait, l'erreur de décentrage XR, nous pouvons donc écrire
XR = E - XP
σR
Posons c = , la combinaison des deux distributions de probabilité donne F(XR)
σP
qui est :
1 2
−Z .σ
1 2 R
Y .Y = e
R P 2. π . σ . σ
R P
∂Z
= −2 c2 E − X + X
∂X R R
R
∂Z c2
=0 soit XR = E
∂XR 1 + c2
Le meilleur ajustement sera obtenu - dans les hypothèses que nous avons retenues
pour nos calculs - par un réglage de l'écart entre la dimension mesurée et la valeur cible
(E) multiplié par le coefficient c²/(1+c²)
c2
Réglage optimal A = E
1 + c2
σP est assez facile à identifier, c'est l'écart-type de la population totale dont nous
avons déjà eu besoin pour le calcul des limites de contrôle.
σR est lui beaucoup plus difficile à connaître. Dans un premier temps, il faut se
contenter de l'estimer. M. HILL propose d'estimer σR à partir de l'intervalle de
tolérance et d'un coefficient de difficulté de réglage.
IT
σR =
U
Avec IT : intervalle de tolérance
U : coefficient de difficulté de réglage.
Dans le cas où le réglage se fait après une première approche en ébauche, nous
proposons une autre méthode plus simple pour estimer σR. Nous avons remarqué que
plus une machine avait de la dispersion, plus le réglage était imprécis. Cela vient de la
méthode employée pour faire le premier réglage. En règle générale, l'opérateur
approche la cote par une ébauche côté retouche, puis corrige en fonction de cette
ébauche. Comme l'ébauche est réalisée avec de la dispersion, il y a de grande chance
que le réglage soit d'autant plus précis que la dispersion de la machine est faible. Dans
ce cas de figure, nous pouvons estimer σR par la relation suivante :
σR = σP
Ce qui donne
c=1
Après avoir estimé le coefficient c pour pouvoir établir la grille de réglage que
nous définirons plus loin, il est possible, après quelque temps de fonctionnement de la
carte de contrôle "petites séries", d'avoir une meilleure estimation de σR. En effet, le
pilotage par cartes de contrôle permet de corriger le procédé. En étudiant l'historique
des corrections apportées avant d'obtenir un centrage correct, il est possible de calculer
avec une meilleure approximation un estimateur de σR.
Considérons le tableau ci-dessous dans lequel nous avons consigné l'ensemble des
réglages nécessaires pour obtenir un centrage correct :
Lot 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Réglage -3 -1 -3 -2 +2 0 +2 -3 0 -3 +4 -2 -3 0 +3 +2 0 0 0 +2
Init
Régl Comp 0 0 -2 0 +2 0 0 0 0 0 -2 0 0 0 +2 0 0 0 0 0
Total -3 -1 -3 -2 +4 0 +2 -3 0 -3 +4 -2 -3 0 +5 +2 0 0 0 +2
Sur la ligne réglage initial, nous avons consigné les réglages qui ont été effectués.
Dans les cas où des corrections complémentaires à ce premier réglage auraient été
apportées, elles ont été consignées sur la seconde ligne. La dispersion sur l'erreur
initiale de réglage peut donc être estimée comme étant égale à la dispersion sur les
modifications de réglage nécessaires. σR peut donc être estimé en calculant l'estimateur
s de la ligne Total. Nous trouverions alors : σR =2,54
Nous venons de voir ce qui se passe lorsque le réglage a lieu sur la première
pièce. Il faut également calculer le réglage optimal lorsque ce réglage a lieu sur la nième
pièce.
Dans le cas où le réglage doit se faire sur la moyenne des deux premières pièces,
nous sommes toujours en présence de deux dispersions : la dispersion de réglage et la
dispersion de la production. Cependant, le fait de considérer la moyenne des deux
premières pièces, plutôt que de considérer uniquement la seconde pièce, nous permet de
diminuer l'incertitude liée à la dispersion de production. L'écart type de la répartition de
la moyenne d'un échantillon de 2 pièces est égal à σ P 2
σ2R
Le rapport c² devient donc c'2 = 2. 2 = 2. c
2
σP
2. c2
L'ajustement optimal est : A = E
1 + 2. c2
n. c2
L'optimal est : A = E
1 + n. c2
n. c2
avec K =
1+ n. c2
Pour être applicable sur le poste de travail, il est nécessaire de toujours simplifier
le travail des opérateurs.
Décentrage 1 2 3 4 5 6 7 8 9 10
n=1 0,50 1,00 1,50 2,00 2,50 3,00 3,50 4,00 4,50 5,00
n=2 0,67 1,33 2,00 2,67 3,33 4,00 4,67 5,33 6,00 6,67
n=3 0,75 1,50 2,25 3,00 3,75 4,50 5,25 6,00 6,75 7,50
n=4 0,80 1,60 2,40 3,20 4,00 4,80 5,60 6,40 7,20 8,00
n=5 0,83 1,67 2,50 3,33 4,17 5,00 5,83 5,83 7,50 8,33
uβ. σ/ n
β
α/2 α/2
u(α/2) . σ/ n u(α/2) . σ/ n A u(α/2) . σ/ n B C
Soit
La répartition des moyennes d'un échantillon de n pièces suit une loi normale
d'écart-type σ n . Dans le cas d'un procédé décentré, la probabilité de ne pas détecter
le déréglage k.σ (risque β) est égale à la surface hachurée.
σ σ
On peut écrire AC = AB+BC soit k. σ = u α 2 . + uβ .
n n
D'où
uβ = k. n − u α 2
uβ = k. n − 3
0.9
0.8
0.7
0.6
0.4 n=5
n=7
0.3
0.2
Déréglage
0.1
k
0.0
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Nous devons établir une relation liant le risque β (de ne pas conclure à un
déréglage alors que celui-ci existe), le pourcentage de pièces hors tolérances admises, la
capabilité machine et le nombre minimum de pièces dans l'échantillon.
Limite
de contrôle Limite de
k.σ tolérance
σ
σ
n u p xσ
u(α/2 )x σ
n
β
A B C D
Nominale
AD = AB + BC + CD
Ce qui se traduit par :
IT σ σ
= uα 2 x +u + u .σ
2 n β n p
Avec
• IT : Intervalle de Tolérance,
• u
• uβ : variable réduite associée au risque de seconde espèce de ne pas détecter un
déréglage,
• up : variable réduite associée au pourcentage de pièces hors tolérance acceptées,
Cm = IT/6σ
u
3 β
3.Cm = + +u
n n p
2
3+ u
β
n=
3Cm − u
p
Application
Supposons que l'on ne souhaite pas ne pas détecter un déréglage dans plus de 1%
des cas ( β =0,01) correspondant à un pourcentage de défaut de 0,1% (p = 0,001)
On note rapidement sur ce tableau que lorsque la machine n'est pas capable
(Cm<1,67), le nombre minimum de pièces est prohibitif. Par contre, lorsque la machine
est capable on peut rapidement être sûr de son réglage après 4 ou 5 mesures
consécutives sans que la carte de contrôle "petites séries" ne détecte un décentrage.
σ ins tan tan é représente l'écart-type de la dispersion intra-échantillon. Pour avoir une
estimation non biaisé de σ ins tan tan é , le plus simple consiste à l'estimer à partir de la
moyenne des étendues de chaque lot homogène en appliquant la relation
R
σIns tan tan é =
d2
Il est donc nécessaire pour calculer σins tan tan é de disposer d'un nombre
suffisamment important d'échantillons et donc de cartes de contrôle. On aura pris soin
d'éliminer les lots sur lesquel une cause spéciale a été détectée par la carte de contrôle
des étendues. Dans ce cas, il n'y aurait pas homogénéité des variances. Un petit
problème se pose dans la mesure où les échantillons ne sont pas tous de taille constante.
Il faut donc regrouper l'ensemble des échantillons en fonction de leur taille, et calculer
pour chaque taille d'échantillon un estimateur σn.
σ ins tan tan é pourra alors être calculé comme étant la moyenne pondérée de chacun
des σestimé en fonction du nombre de sous-groupes dans la taille d'échantillon n
Application
Taille du sous-groupe 2 3 4 5
nombre d'échantillon 4 10 10 9
Estimateur σestimé 1,7 1,5 1,3 1,6
Il est également possible d'estimer σins tan tan é à partir de la variance intra-
échantillon. Il faut pour cela calculer la variance Vi = si² de chaque lot homogène. On
aura éliminé de ce calcul les lots sur lesquels une cause spéciale avait été détectée sur la
carte des étendues . Le fait de ne conserver que les échantillons sous contrôle sur la
carte des étendues nous donne l'assurance de l'homogénéité des variances. On peut donc
calculer la variance intra série par :
Dans le cas où σins tan tan é est significatif de l'écart-type de la population qui avait
été estimé, il est alors nécessaire de recalculer les limites de contrôle.
IT
Cm =
6xσins tan tan é
Comme le montre la figure 4.9, la carte comporte une première partie en carte de
contrôle "petites séries" qui se transforme ensuite en une carte de contrôle
traditionnelle.
De plus, dans le cas des toutes petites séries, il faut détecter le plus vite possible
un décentrage afin de limiter le nombre de pièces défectueuses. Nous avons vu au
chapitre 2 que la procédure CUSUM introduit par LUCAS [Luc 73] [Luca82] [Lucb82]
[Pal 91] permet d'améliorer dans certains cas, l'efficacité des cartes de contrôle. Il nous
a donc semblé utile d'adjoindre à notre carte de contrôle "petites séries" une procédure
CUSUM qui permettra d'améliorer la rapidité de détection des décentrages de la
moyenne.
[Luc 73] - J. M. Lucas - The design and use of V-mask control schemes. Journal of quality Technologie
8 (1) - 1973 - 1:12 - January
[Luca82] - J. M. Lucas - Combined Shewhart-CUSUM quality control shemes - Journal of Quality
Technologie 14(2) -1982 - 51:59 - April
[Lucb82] - J. M. Lucas - R. B. Croisier - Fast initial response for CUSUM quality control schemes : Give
your CUSUM a head start. Technoometrics 24(3) - 1982 - 199:215 - August
[Pal 91] - M. Palsky - La maîtrise des procédés continus - La maitrise Statistique des processus ou SPC
- Recueil de conférence CETIM 20/11/91 - 101:112 - 1991
Pour une suite de valeurs individuelles, nous formons la suite des sommes
cumulées suivantes
S H = Max 0, ( u i − k ) + S H
i i −1
S L i = Max 0, ( − u i − k ) + SL i−1
Nous allons appliquer les procédures CUSUM et FIR CUSUM aux deux
exemples que nous avons détaillés au chapitre 3 paragraphe 4. La figure 4.10 nous
montre le cas de l'exemple 1 qui a été traité avec la carte de contrôle "petites séries" au
paragraphe 2. Celle-ci avait détecté un déréglage à partir de la troisième valeur. Nous
donnons dans la figure 4.10 le résultat des deux procédures : la procédure CUSUM et la
procédure FIR CUSUM.
Condition de production
Ecart-type de la population =1,15
Valeur cible 0
Coefficient k = 0,5
Coefficient h = 5
On note dans ce tableau que dans ce cas de figure la procédure FIR CUSUM
aurait confirmé le décentrage à l'issue de la troisième mesure (h>5). Elle n'a pas permis
une détection plus rapide que la carte de contrôle "petites séries" traditionnelle. La
procédure CUSUM aurait détecté le déréglage en prenant h = 4 dans les mêmes
conditions.
Si l'efficacité dans le cas des cartes de contrôle de Shewhart est facile à calculer,
il n'en est pas de même pour le calcul de l'efficacité dans le cas des cartes de contrôle
CUSUM. Il est donc nécessaire de recourir à une simulation informatique ou a des
techniques d'intégration numérique.
Décalage de la 0 0,25 0,50 0,75 1,00 1,50 2,00 2,50 3,00 4,00 5,00
moyenne (λ.σ)
POM pour 465 139 38,0 17,0 10,4 5,75 4,01 3,11 2,57 2,01 1,69
CUSUM
POM pour 430 122 28,7 11,2 6,35 3,37 2,36 1,86 1,54 1,16 1,02
FIR CUSUM
On peut comparer les POM des cartes CUSUM aux POM des cartes "petites
séries" sans procédure CUSUM. Pour calculer les POM, nous partons de la loi
binomiale. Soit p, la probabilité de détecter une situation hors contrôle. La probabilité
d'obtenir le premier signal hors contrôle sur la nième valeur sera donnée par
f ( n) = p1 (1 − p) ( n −1)
avec n = 1, 2, 3, 4, ...
∞
Le terme ∑ (1 − p ) n −1 est une série géométrique infinie et on a
n =1
∞
1
∑ (1 − p)
n =1
n −1
=
p
Si on dérive les expressions de chaque côté de l'égalité et que l'on multiplie par p,
il vient :
∞ ∞
1
p ∑ ( n − 1)(1 − p ) = = p ∑ n (1 − p ) n −1
n−2
n =1 p n =1
La valeur moyenne espérée pour n (POM) est 1/P, où p est la probabilité associée
à un sous-groupe. Dans le cas d'une carte Shewhart, nous connaissons la probabilité
associée à un sous groupe, nous sommes donc capables de calculer POM pour les
différents cas de figure sur la taille des échantillons.
taille sous-groupe 1 2 3 4 5
Décalage = 1 σ 43,5 17,5 9,8 6,3 4,5
Décalage = 1,5 σ 14,9 5,3 2,9 2,0 1,6
Décalage = 2 σ 6,3 2,3 1,5 1,2 1,1
Décalage = 2,5 σ 3,2 1,4 1,1 1,0 1,0
Cette étude nous a montré la complémentarité des deux approches. Les deux
procédures de calcul offrent chacune leurs avantages dans des cas de figure très
différents. Les faibles dérives seront souvent rapidement détectées par la procédure
CUSUM car la probabilité de détecter de faibles écarts avec le calcul de la moyenne est
faible. Par contre les écarts importants seront détectés très rapidement par la carte aux
moyennes.
Pour illustrer l'efficacité de la procédure de la moyenne, nous avons grisé les cas
où POM était inférieur à 2. On constate, en effet, que pour un décalage de 2,5 écart-
types, la détection du décentrage à de grandes chances d'apparaître dès la seconde
mesure. Pour un décalage de 2 écart-types, il faudra attendre la quatrième mesure de
l'échantillon pour avoir une forte probabilité de détecter ce décentrage.
Cependant, comme nous sommes dans le cas des petites séries, il est toujours
possible de prendre un risque α (risque de dérégler une machine réglée) plus important.
En effet, le fait de prendre h = 5 nous donne une POM de 430 pour la procédure FIR
CUSUM. Ce qui correspond à un réglage inutile sur 430 contrôles lorsque le procédé
est parfaitement centré. Dans le cas des petites séries, où le nombre de contrôle est
faible, il est possible d'augmenter ce risque en diminuant h afin d'être plus rapide dans
la détection des décentrages.
Cm = 16/(6x1,3) =2,05
n 1 2 3 4 5 6 7 8
LICX 3.9 2.76 2.25 1.95 1.74 1,59 1,47 1,38
LSCX -3.9 -2.76 -2.25 -1.95 -1.74 -1,59 -1,47 -1,38
Rmoyen 1.47 2.20 2.68 3.02 3,29 3,51 3,70
LSCR 4.80 5.67 6.10 6.38 6,60 6,76 6,90
Dans ce cas, les études d'efficacité nous montrent que le nombre moyen de
prélèvement pour la carte CUSUM est de 6,35 pour un POM0 de 430. Cela signifie que
nous ne sommes pas sûr de trouver ce déréglage sur 5 pièces. Pour la procédure de la
moyenne, la probabilité de détecter un si petit décentrage est très faible même à partir
de l'échantillon maxi de 5 pièces (POM = 4,5). La figure 4.12 illustre cette application
n 1 2 3 4 5 6 7 8
Valeur mesurée 0 1 -1 2 2 4 2 -1
Moyennes 0 0,5 0 0,5 0,8 1,33 1,42 1,125
Etendues 1 2 3 3 5 5 5
u 0 0,77 -0,77 1,54 1,54 3,07 1,54 -0,77
SH 2,5 1,85 0,43 0 0,89 1,78 4,2 5,09* 3,82
SL 2,5 1,85 0,65 0,77 0 0 0 0 0,12
4
3
2
1
0
-1
-2
-3
-4
6
5
4
3
2
1
0
Figure 4.12 - Test n°1
Si nous faisons l'hypothèse que le la loi de distribution des réglages est égale à la
loi de distribution de la population totale, le réglage à réaliser serait égal à la valeur de
la moyenne lors de la septième mesure, soit un réglage de 1,42. Ce qui est excellent
compte tenu du décentrage connu de 1,3.
9.3. Test n° 2 - simulateur centré sur 2 soit 1,5 σ
Dans ce cas, les études d'efficacité nous montrent que le nombre moyen de
prélèvement pour la carte CUSUM est de 3, 37. Pour la procédure de la moyenne, on
note qu'il faut attendre la cinquième valeur pour avoir, avec une forte probabilité,
l'indication de décentrage (POM = 1,6). La figure 4.13 illustre cette application
n 1 2 3 4 5
Valeur mesurée 3 2 1 3 0
Moyennes 3 2,5 2 2,25 1,8
Etendues 1 2 2 3
u 2,31 1,54 0,77 2,31 0
SH 2,5 4,16 5,05* 5,17 6,83 6,18
SL 2,5 0 0 0 0 0
4
3
2
1
0
-1
-2
-3
-4
6
5
4
3
2
1
0
Si nous faisons l'hypothèse que le la loi de distribution des réglages est égale à la
loi de distribution de la population totale, le réglage à réaliser serait égal au 2/3 de la
valeur de la moyenne lors de la deuxième mesure, soit :
2 x2, 5
Réglage à réaliser après détection par la carte CUSUM = = 1, 66
3
n 1 2 3 4 5
Valeur mesurée 3 3 2 5 1
Moyennes 3 3 2,66 3,25 2,8
Etendues 0 1 2 4
u 2,31 2,31 1,54 3,84 0,77
SH 2,5 4,16 5,82* 6,71 9,9 10,02
SL 2,5 0 0 0 0 0
4
3
2
1
0
-1
-2
-3
-4
6
5
4
3
2
1
0
La détection a lieu dans les deux cas sur la seconde pièce. Le réglage optimal doit
être égal au 2/3 de la moyenne soit de 2 pour un décentrage connu de 2,6. Ce qui est très
correct.
n 1 2 3 4 5
Valeur mesurée 4 2 5
Moyennes 4 3 3,66
Etendues 2 3
u 3,07 1,54 3,84
SH 2,5 4,92 5,81* 9
SL 2,5 0 0 0
4
3
2
1
0
-1
-2
-3
-4
6
5
4
3
2
1
0
La détection est effectivement réalisée dès la première pièce par la carte des
moyennes. Le réglage étant décidé sur la première valeur il sera de la moitié de l'écart
constaté soit de 2, ce qui est insuffisant. Nous retrouvons alors le cas du test n°2.
Notons cependant que dans l'hypothèse que nous avons retenue, la dispersion de
réglage était égale à la dispersion de production. Un décentrage de 4 est peu probable.
Si ce cas se reproduit souvent, il faudra changer le rapport entre la dispersion de réglage
et la dispersion de production et donc changer le coefficient de réglage de 1/2.
Si nous avions travaillé avec l'hypothèse réglage très difficile, nous aurions choisi
IT
comme coefficient U = 5 [Cf § 3.1] soit σ R = = 3, 2
5
c2
Réglage = Ecart. = 3, 43
1 + c2
Dans le cas de la carte de contrôle "petites séries", la carte des étendues joue un
rôle important. Comme pour de la carte de contrôle traditionnelle, elle permet de
surveiller la capabilité de la machine.
Dans les tests que nous avons réalisés, l'ensemble des points sur la carte de
contrôle des étendues était dans les limites de contrôle. Nous n'avons donc pas détecté
de dérive de la capabilité machine lors de ces essais.
Lorsqu'un point sort de la carte de contrôle des étendues, cela signifie que la
dispersion instantanée augmente. Or, l'ensemble des calculs des limites de la carte de
contrôle "petites séries" sont basés sur cette dispersion instantanée. Il est donc impératif
de stopper la machine pour résoudre le problème de capabilité. Les limites de la carte ne
sont alors plus valables.
L'application concerne l'usinage d'une douille (Figure 4.16) sur tour à commande
numérique (Gildemeister CT 60). La caractéristique surveillée est la longueur de la
douille. Cette caractéristique très importante conditionne la recirculation des billes dans
la vis à billes. Elle a pour intervalle de tolérance ±0,02. La valeur nominale est choisie
pour avoir une longueur adaptée après trempe. La déformation à la trempe a été mesurée
par des essais.
Longueur
qui se transforme en carte de Shewhart. En effet, elle assure un réglage initial le plus
rapide possible par la procédure petites séries et permet de suivre la série de pièces par
la carte shewhart.
Les cartes (figure 4.17) donne un exemple de pilotage par la carte de contrôle
petites séries/Shewhart. Les cartes étant tenues de façon manuelle, la procédure
CUSUM n'a pas été retenue. Les calculs des moyennes sont simplifiés par l'utilisation
sur le poste de contrôle d'une table de division qui donne la moyenne en fonction de la
somme des écarts et de la taille de l'échantillon. Le travail supplémentaire de l'opérateur
par rapport à la démarche traditionnelle se résume dans les opérations suivantes :
Cette cote étant très importante, chaque pièce hors tolérance donne lieu à une
retouche ou à un rebut. On peut conclure que la mise en place de la carte de contrôle
"petites séries" a permis un gain de productivité de près de 10%. Ce qui est
considérable.
Aujourd'hui plus qu'hier, nos entreprises ont besoin d'améliorer leur productivité.
Il faut trouver des méthodes qui permettent à moindre frais de diminuer les rebuts et
d'améliorer les cadences. Nous pensons que cette carte de contrôle permet d'accroître la
rapidité de centrage et d'éviter des réglages inutiles. L'étude industrielle que nous avons
présentée nous montre que le centrage optimum généré par l'utilisation de la carte de
contrôle permet une amélioration importante de la capabilité et donc une diminution des
rebuts.
Bibliographie
[Luc 73] J. M. Lucas - The design and use of V-mask control schemes.
Journal of quality Technologie 8 (1) - 1973 - 1:12 - January