Académique Documents
Professionnel Documents
Culture Documents
i
Contrôle qualité et outils statistiques
ii
Contrôle qualité et outils statistiques
glossaire..............................................................................................................................................................93
iii
Chapitre 1. Introduction − Présentation du contrôle
qualité
1.1. Objectifs et définitions
1.1.1 Objectifs
OBJECTIF N°1 :
Le respect des tolérances ou le juste nécessaire sont un but pour certains alors que la qualité
implique l'amélioration continue des résultats et des performances (y compris les coûts).
OBJECTIF N°2 :
1.1.2 Définitions
Définition n°1
Définition n°2
APTITUDE D'UN PRODUIT OU D'UN SERVICE A SATISFAIRE LES BESOINS DES UTILISATEURS.
(selon norme X 50−109 annulée)
C'est une définition de la normalisation française maintenant périmée. Elle a l'avantage d'être
plus simple à comprendre par le plus grand nombre.
Définition n°3
Elle s'inscrit dans la logique de la méthodologie de Genichi Taguchi. Elle propose de prendre
en compte les pertes subies par l'entreprise en cas de traitement d'une non−conformité mais
aussi les pertes engendrées pour l'utilisateur à la suite de l'acquisition et de l'usage d'un bien
ou d'un service non idéal.
Cette approche prend en compte l'intérêt de l'entreprise, l'intérêt des clients mais aussi l'intérêt
général.
1.1.2 Définitions 2
Contrôle qualité et outils statistiques
* Ces coûts (pertes) sont proportionnels au carré de l'écart par rapport à l'idéal (valeur visée du produit).
Si le produit est rebuté ou retouché c'est l'entreprise qui supporte ces coûts.
Si le produit est vendu, c'est le client qui supporte ces coûts puisque le produit n'est pas idéal.
En conclusion, on cherche à réduire les écarts de façon permanente afin de réduire les coûts
globaux de façon indifférencié (clients ou entreprise).
La position du fournisseur
− Le respect des tolérances constitue un objectif. Le zéro défaut est un but ultime.
− La réalisation du juste nécessaire constitue un idéal qu'il ne faut pas dépasser.
− Faire plus est considéré comme de la "sur qualité". Il faut donc l'éviter pour des considérations de coût.
La position du client
− 75% des clients restent fidèles à une marque s'ils obtiennent des produits à zéro défaut. En conséquence 25
% d'entre eux sont, dans ce cas, disposés à en changer.
CONSEQUENCES
Le producteur qui considère que le strict respect des tolérances constitue un objectif de qualité
mécontente ses clients. Ses coûts de non−qualité sont élevés.
Le producteur qui diminue sans cesse ses dispersions pour se centrer sur la cible contente ses
clients mais il est assuré de perdre une fraction de ceux−ci attirée par la concurrence.
Le producteur qui apporte des "Plus" à ses clients sous la forme d'innovations ou de service
supplémentaire est assuré de la fidélité de ses clients.
1.4. Exercices
1.4.1 Détermination de la fonction du coût
Pour déterminer la fonction, il suffit de connaître la valeur de k. Ce coefficient peut être estimé à partir des
pertes de qualité occasionnées par une valeur donnée du facteur.
Exemple :
On sait que le jeu idéal dans un assemblage est y = 0,02 mm. Les pertes occasionnées au client par un jeu de y
= 0,025 m ont été évaluées à P1 = 125 francs.
6
Doù k =
= = 5 × 10
En retour, on peut évaluer les pertes correspondant à une valeur donnée du produit.
On remarque que les pertes de qualité croissent rapidement avec l'augmentation de l'écart par rapport à la
valeur de la cible (le nominal dans ce cas).
La fixation des limites de validation des produits permet de déterminer les pertes subies par la société en
général. Si le produit atteint le client c'est lui qui supporte le préjudice (sauf si une garantie couvre tout ou une
partie des frais).
Le produit dont les caractéristiques ne sont pas optimales, est soit rebuté, soit retouché ou subit une
intervention, l'entreprise supporte les pertes de qualité.
L'idée de Genichi Taguchi est que les pertes de qualité subies par le client pour une caractéristique non
optimale ne doivent jamais être supérieures aux gains procurés par une production hors des valeurs optimales
(affectées par des dispersions).
Exemple d'application :
2
P = k (y y ) soit k = = 0,8
1 1 N
=
Figure 5 :
On sait par ailleurs que les coûts, pour l'entreprise du traitement d'une non−conformité, hors tolérance
supérieure (rebut, retouche, etc...) est Pt = 150 francs.
Si yt est la limite de tolérance équilibrant les pertes entre le client et le fournisseur alors
k=
yt yN = 13,7 représente l'écart de la limite de tolérance par rapport à la valeur cible (valeur nominale) qui
peut être toléré pour équilibrer les pertes qualité.
Nota : On peut choisir une limite de tolérance de fabrication inférieure par symétrie ou effectuer un nouveau
calcul correspondant à des valeurs de pertes de qualité différentes.
Résumé
Le but de toutes prestations (services produits &) implique l'amélioration continue des résultats et des
performances (y compris les coûts). Il est donc primordial de maîtriser et daméliorer la qualité par la mise
en Suvre d'outils et de méthodes spécifiques. La performance toujours améliorée pourra être constaté par la
gestion des écarts et de leurs coûts associés. La perception des écarts peut être très différentes suivant la
position que lon occupe.
• La position du fournisseur
◊ Le respect des tolérances constitue un objectif. Le zéro défaut est un but ultime.
◊ La réalisation du juste nécessaire constitue un idéal qu'il ne faut pas dépasser.
Résumé 7
Chapitre 2. Les différentes natures de contrôle
2.1. Introduction :
Nous avons vu précédemment quil était nécessaire de diminuer les variations des produits ou services pour
diminuer les coûts. Cela impose de mettre en place une politique de contrôle à deux niveaux :
Le contrôle des produits et services sera abordé de manière spécifique et devra répondre aux exigences des
spécifications prescrites avec une adéquation entre lincertitude de mesure (chapitre 3) et la spécification
(tolérancement) du produit.
• Qualification
• Réception
• Contrôle périodique
Tout appareillage doit avoir une construction telle que l'environnement de celui−ci ne doit pas se trouver
affecté par sa présence.
• Pollution.
• Rayonnement électromagnétique : celui−ci fait actuellement l'objet de beaucoup d'attention vu le
nombre de systèmes gérés par électronique qui peuvent s'en trouver affectés (surtout pour les
systèmes de sécurité).
• Poids qui peut déformer une géométrie primordiale d'un autre ensemble.
• Vibrations.
• Rayonnement thermique.
• Rayonnements autres (x, gamma. Souvent présents dans les contrôles non destructifs).
• Etc.
La conformité du matériel vis−à−vis des normes définies par le code du travail ne doit en aucun cas
être omise ainsi que toutes les sécurités nécessaires lors de la mise en Suvre d'une mesure et la
formation adéquate du personnel.
On remarque 3 liaisons principales d'un appareillage de mesure par rapport à son environnement :
Cas typique des capteurs. Exemple : capteur de pression qui délivre une tension
proportionnelle à la pression. Elle doit être compatible avec l'appareil
d'enregistrement ou de lecture.
b. Une sortie directement lisible
(Acquisition pour affichage)
L'appareil doit être capable de délivrer des valeurs aussi proches que nécessaire de la valeur vraie de la
grandeur mesurée.
Les écarts existants doivent être évalués pour vérifier la compatibilité avec la fonction désirée.
Elles caractérisent l'aptitude d'un appareil à délivrer des valeurs proches de la valeur vraie (composante
principale de lerreur systématique (confère chapitre 3)). On distingue plusieurs types d'erreurs de justesse :
C'est l'écart maximum entre l'indication de l'appareil de mesure et la valeur vraie, sur
l'étendue de mesure. Pour lobtenir il suffit de mesurer sur le domaine étudié des
cales étalons réparties sur ce domaine et détablir la courbe suivante (courbe
détalonnage) :
Courbe d'étalonnage :
Courbe d'étalonnage :
C'est l'étendue des erreurs sur une portion définie de l'étendue de mesure de l'appareil.
2.4.1 Introduction 10
Contrôle qualité et outils statistiques
Courbe d'étalonnage :
ejl est
définie
comme
étendue
d'erreur
maxi entre
2 pts de
mesure
(avec 10
pts de
mesure sur
l'étendue).
Lerreur de justesse locale peut être déterminée sur un domaine limité à une
dimension (une seule cale étalon mesurée). Lerreur de justesse locale sera alors
égale à la valeur de la cale la moyenne des 10 mesures de la cale étalon.
Cette donnée caractérise la faculté d'un appareil à donner des mesures identiques pour une même pièce
mesurée. Cette erreur est souvent associée à lerreur de répétabilité calculée comme suit :
Répétabilité : estimée à partir de 10 mesures faites sur une pièce dans les conditions de production
Faire 10 mesures :
Le calcul des différents paramètres de lerreur aléatoire est exposé dans le chapitre 3 portant sur les
incertitudes de mesure.
Cette donnée caractérise le fait que l'indication d'un appareil de mesure soit différente pour une mesure valeur
d'entrée donnée suivant que cette valeur a été amenée de façon croissante ou décroissante.
Cette erreur est très présente sur les machines−outils traditionnelles avec lesquelles il est nécessaire de
rattraper les jeux lors des différents mouvements.
La lecture d'une valeur sur un appareil de mesure est en général le dernier maillon de la chaîne de mesure.
Deux cas de figure peuvent se présenter :
On estime de façon générale l'erreur de lecture à une fraction de l'échelon .En général, la valeur
retenue se situe dans un intervalle de 0.1 e à 0.25 e.
Un autre aspect dont on doit tenir compte est la faculté de l'opérateur à lire l'indication.
• Cas d'une lecture sur un affichage numérique :
On a tendance à penser en général que la valeur lue sur ce type d'affichage est exacte. Ceci serait sans
compter avec l'erreur de quantification que fait l'appareil sur la valeur affichée, en effet :
de 18.375 à
Valeur mesurée de 18.345 à 18.355 De 18.355 à 18.365 de 18.365 à 18.375
18.385
Valeur affichée 18.34 18.35 18.36 18.37
Exemple :
Avec un multimètre numérique doté d'un affichage 2000 points, on mesure une tension de 18.367 Volt.
On se place pour cela sur le calibre 20 V.
On lira donc : 18.36 Volt
L'erreur de quantification sera donc de 18.36−18.367 = 0.007 V
Ceci est chiffré en général par l'écart−type de quantification. Quand une valeur V est affichée sur l'appareil, on
sait que la valeur vraie a une équiprobabilité de se situer dans le domaine [V−0,5 e ; V+0,5 e] (Si le système
est parfait.....)
Calcul : L'écart type de quantification est défini comme la moyenne quadratique des écarts.
On a donc :
Voir chapitre 3
Ce contrôle se situe chronologiquement lors de l'élaboration du prototype ou à la sortie des premiers appareils
d'une chaîne de production sur un échantillon.
• Qualités métrologiques :
♦ La norme définit les erreurs maximales admissibles dans le cas d'appareils neufs.
• Qualités de constructions ex :
Ce contrôle s'effectue par l'entreprise réceptrice d'un nouveau matériel. En effet, il est hors de question pour le
service achat de faire confiance aux contrôles de la société productrice qui serait alors juge et partie. Le
contrôle est cependant moins poussé, la plupart du temps par manque de moyens et de temps (Le contrôle de
compatibilité magnétique n'est pas à la portée de tout le monde.....), et d'autre part, certains contrôles déjà
effectués sont fiables (Par exemple, la conformité par rapport à la législation du travail).
Sont principalement concernés dans le cas général toutes les qualités de l'appareil à contrôler. Cependant
l'entreprise utilisatrice, dans certains cas, vérifie uniquement le défaut de répétabilité de l'appareil, seule erreur
qui risque de se dégrader lors de l'utilisation.
On s'intéresse de façon générale surtout aux qualités métrologiques des appareils, ceci est parfois une erreur
car d'autres erreurs peuvent influer sur une mesure ou être significatives d'un changement fondamental dans le
fonctionnement.
• Que contrôler ?
• Quand le faire ?
• Comment le faire ? (Chapitre 2.5.4− Méthodologie du contrôle périodique)
Que contrôler :
Dans le cas d'un contrôle habituel, une procédure fiable a été établie qui prend en compte l'incertitude de
mesure sur l'évaluation de la valeur mesurée, les paramètres métrologiques à suivre sont logiquement ceux
intervenant dans le calcul des incertitudes voir chapitre 3.
Quand le faire :
Sauf cas particulier, le contrôle d'un instrument de mesure doit être fait de façon périodique. Le principal
problème est en général de déterminer cette périodicité.
Cas extrêmes :
♦ Appareils ne subissant qu'un seul contrôle : C'est le cas des étalons de rugosité
viso−tactiles, leur usure étant inexistante.
♦ Appareils contrôlés à chaque utilisation : Cas des appareils dont dépendent des
systèmes de haute sécurité ou appareils dont la fréquence d'utilisation est très faible.
Cas général :
Il est donc nécessaire de posséder un solide historique de l'évolution des caractéristiques des
qualités métrologiques dans le temps, de déterminer les écarts admissibles sur celles−ci et
den déduire la périodicité de contrôle.
Le problème est bien sûr de déterminer la périodicité dans le cas d'un matériel neuf ou non
suivi. Il y a plusieurs façons dappréhender le problème :
Si trop courte :
Le matériel d'étalonnage devra être mobilisé plus souvent : C'est un matériel qui en général
coûte cher et pour lequel le personnel utilisateur doit être qualifié.
Le matériel à étalonner est mobilisé pendant tout le temps d'étalonnage, ce qui le rend
indisponible et peut parfois demander dans les cas extrêmes une redondance de ce matériel.
Dans certains cas extrêmes, des manipulations trop fréquentes d'étalon de haute qualité
peuvent nuire à la pérennité de celui ci (doù l'utilité dans certains cas d'étalons de travail et
de transfert).
Si trop longue :
Si les variations de la valeur d'un étalon ou d'un générateur entre deux étalonnages sont trop
grandes cela augmente l'incertitude du contrôle. Ainsi il sera d'autant plus difficile de
découvrir une variation accidentelle de la valeur de létalon.
Il va de soi que ceux−ci doivent être plus précis que l'instrument que l'on cherche à contrôler. Le rapport
(incertitude de l'appareil étalonné/ incertitude du système détalonnage) peut être compris entre 2 et 10. Pour
L'appareillage employé doit être raccordé pour une vérification sérieuse à la chaîne nationale d'étalonnage afin
d'assurer la traçabilité de l'appareillage contrôlé aux étalons nationaux. On doit de ce fait être en possession de
document le justifiant. Un certificat d'étalonnage doit comporter en ce sens le n° du certificat d'étalonnage de
l'étalon ayant servi au contrôle sauf s'il s'agit d'un certificat COFRAC (Comité Français dAccréditation) où
cette traçabilité est garantie.
Remarque :
Il est possible que dans certains cas une chaîne nationale d'étalonnage soit inexistante. Une référence est dans
ce cas créée par inter comparaison d'étalons d'entreprises.
Conditions à respecter :
Environnement :
Pour être étalonné, un appareil doit être dans un environnement correspondant à ses conditions de
fonctionnement. Les valeurs influentes les plus courantes sont en général :
La température :
Certains appareils sont sensibles aux variations d'hygrométrie, les lasers par exemple dans le cas de mesures
mécaniques, certains condensateurs dans le cas de mesures électriques.
Gravité :
C'est un facteur primordial dans bien des cas de mesures (cf. dans "Organisation de la métrologie en entreprise
" l'écrasement d'une cale étalon sous son propre poids rend difficile l'utilisation d'une cale de grande
dimension en position verticale), soit comme facteur perturbateur, soit comme donnée de mesure dans le cas
de mesures à l'aide de balances de pression par exemple.
Vibrations :
Elles peuvent rendre impossibles des mesures dans le domaine micro géométrique. On utilise dans certains cas
des baudruches gonflables qui constituent un filtre de fréquence variable suivant la pression de gonflage.
Pression atmosphérique :
La présence d'air autour d'objets crée une poussée d'Archimède dont la valeur dépend de la densité de l'air,
donc de la pression atmosphérique. Ce facteur peut être important dans le cas de mesures de masses de haute
précision.
Mise en oeuvre :
Préchauffage :
Les appareils de mesures ou étalons constitués de mécanismes ou systèmes électroniques voient souvent leurs
caractéristiques varier puis se stabiliser après un certain temps ou un certain nombre de cycles de
fonctionnement. Pour palier à ceci on met en général les appareils en fonctionnement pour un temps de
préchauffage avant leurs contrôles. (On peut par exemple laisser une balance chargée d'un poids
correspondant à la moitié de la charge maximale).
Nettoyage :
Les appareils, surtout dans le domaine mécanique doivent être dans état de propreté irréprochable. Si le
nettoyage est évident à faire dans le cas d'étalons habituels (nettoyage à lalcool), il peut être plus
problématique pour des étalons de rugosité où les détails dimensionnels de l'étalon sont de faibles amplitudes
(nettoyage à l'aide de procédés ultrasonores).
Processus de contrôle :
Il doit être tel qu'il met en évidence les différents défauts de mesurage qui peuvent intervenir lors de
l'évaluation d'une grandeur par l'appareil concerné.
Les défauts les plus souvent recherchés sont la justesse, l'hystérésis et la fidélité.
• Dans le cas général, on contrôle tous les défauts métrologiques pouvant intervenir lors d'un mesurage
sur l'étendue de mesure. Les normes sont dans ce cas un très bon support tant pour définir les
grandeurs à mesurer que pour définir les maxima admissibles.
• Il se peut, si l'appareil est utilisé dans des conditions particulières (balance utilisée en comparateur de
masses) que lon ne contrôle que certaines spécifications sur un domaine de mesure particulier, voire
en un point de fonctionnement particulier.
Les documents :
Les documents attestant la validité ou non de linstrument de mesure à remplir sa tâche, son appartenance à
une classe donnée : Cest le constat de vérification.
Les documents chiffrant les différentes erreurs de linstrument : cest le certificat détalonnage
Les actions :
• La remise en service
• Lajustage
• La réparation
• Le déclassement
• La réforme
Contrôle et diagnostic
◊ Erreur de poursuite
◊ Temps de montée
◊ Jeux dinversion
◊ Jeux des glissières
◊ Broutage
◊ vibrations induites (moteurs, coupe, vis à bille, autres machines)
c. Les dérives :
◊ Dérives thermiques
◊ Stabilité des sols
◊ Usures
◊ Répétabilité
◊ Flexion dune colonne en fonction de la position de loutil
• Comparateurs
• Règles
• cales étalons
• Equerres
• Niveau à bulle
2.6. Exercices
2.6. Exercices 18
Contrôle qualité et outils statistiques
Je vous propose dexploiter cette fiche de calcul pour déterminer vos premières erreurs de justesse, de
fidélité, de résolution et dinfluence de paramètre externe (la température)
Cet exercice vous permettra détablir vos courbes détalonnage et de les analyser.
c. Déduire les erreurs de justesse max pour les deux méthodes de mesures (montant et
descendant) Ej max
Correction avec
Dimension Correction
courbe
mesurée avec Ejt
détalonnage
0m
50 d
100 d
150 m
210 m
250 d
320 d
Résumé
Il existe plusieurs natures de contrôles des équipements de mesure :
• Qualification
Validation dun prototype ou dune présérie.
• Réception
Validation d'un nouveau matériel.
• Contrôle périodique
Validation périodique dun matériel.
Résumé 21
Chapitre 3. Les Incertitudes de mesure
3.1. Introduction aux incertitudes
Lorsqu'on rend compte du résultat d'un mesurage d'une grandeur physique, il faut obligatoirement donner une
indication quantitative sur la qualité du résultat pour que ceux qui l'utiliseront puissent estimer sa fiabilité. En
l'absence d'une telle indication, les résultats de mesure ne peuvent pas être comparés, soit entre eux, soit par
rapport à des valeurs de référence données dans une spécification ou une norme. Aussi est−il nécessaire qu'il
existe une procédure facilement applicable, aisément compréhensible et largement acceptée pour caractériser
la qualité du résultat d'un mesurage, c'est−à−dire pour évaluer et exprimer son incertitude.
Le concept d'incertitude comme attribut quantifiable est relativement nouveau dans l'histoire de la mesure
bien que l'erreur et l'analyse des erreurs soient des concepts depuis longtemps pratiqués dans la science de la
mesure, c'est−à−dire en métrologie. On reconnaît maintenant largement que, lorsqu'on a évalué la totalité des
composantes de l'erreur connues ou soupçonnées et que les corrections appropriées ont été appliquées, il
subsiste encore une incertitude sur la validité du résultat exprimé, c'est−à−dire un doute sur la manière dont le
résultat de mesure représente correctement la valeur de la grandeur mesurée.
De même que l'utilisation quasi universelle du Système international d'unités (SI) a apporté la cohérence pour
tous les mesurages scientifiques et technologiques, de même un consensus universel sur l'évaluation et
l'expression de l'incertitude de mesure permettrait la compréhension aisée et l'interprétation correcte d'un vaste
spectre de résultats de mesure en science, ingénierie, commerce, industrie et réglementation. A notre époque
de développement mondial du commerce, il est impératif que la méthode d'évaluation et d'expression des
incertitudes soit uniforme dans le monde entier pour pouvoir comparer facilement des mesurages effectués
dans des pays différents.
• La méthode idéale d'évaluation et d'expression de l'incertitude du résultat d'un mesurage devrait être :
♦ universelle : la méthode devrait pouvoir s'appliquer à tous les types de mesurages et à tous les
types de données d'entrée utilisés dans les mesurages.
• La grandeur effectivement utilisée pour exprimer l'incertitude devrait être :
♦ logique en elle−même : elle devrait pouvoir se déduire directement des composantes
constitutives tout en étant indépendante du groupement de ces composantes ou de leur
décomposition en sous−composantes;
♦ transférable :l'incertitude évaluée pour un résultat devrait pouvoir être utilisée directement
comme composante dans l'évaluation de l'incertitude d'un autre mesurage où l'on utilise le
premier résultat.
De plus, dans de nombreuses applications industrielles et commerciales de même que dans les domaines de la
santé et de la sécurité, il est souvent nécessaire de fournir, autour du résultat d'un mesurage, un intervalle dont
on puisse s'attendre à ce qu'il comprenne une fraction élevée de la distribution des valeurs qui pourraient
raisonnablement être attribuées au mesurande. Aussi, la méthode idéale d'évaluation et d'expression de mesure
devrait pouvoir fournir aisément un tel intervalle, en particulier avec une probabilité ou un niveau de
confiance qui corresponde dune manière réaliste à ce qui est exigé.
1) Définition :
Une grandeur A étant donnée, on appelle valeur approchée a de A toute valeur «proche» de A. Le nombre a
étant choisi comme valeur approchée ou estimation de A, il est dusage dentendre par erreur sur A (ou sur a)
le nombre a − A et par erreur absolue sur A (ou sur a) le nombre |a − A|
En général, la grandeur A nest pas connue et on ne peut pas connaître lerreur |a − A| mais seulement une
borne supérieure de cette erreur que lon notera ΔA ? (Par abus on dira borne de lerreur au lieu de
borne supérieure de lerreur absolue)
Exemple : si lon choisit a = 3,14 comme valeur approchée de Π, lencadrement 3,14 ≤ Π ≤ 3,15
alors
|a −Π|≤ 0,01 et par conséquent on prendra ΔA = 0,01
Remarquez que si on considère lencadrement 3,14 ≤ Π ≤ 3,142, on peut choisir ΔA = 0,002
Le choix de la borne de lerreur dépend donc des données du problème
Chercher une borne derreur sur un résultat, cest déterminer un encadrement de ce résultat
Exemple : Si on considère deux résistances R1 et R2 connues avec une erreur respective ΔR1 et
ΔR2 montées en parallèle, on appelle R la résistance équivalente.
On donne R1 = 500Ω± 5Ω et R2 = 1000Ω ± 5Ω
Par conséquent, 1490 ≤ R1 + R2 ≤ 1510 et 492 525≤ R1R2 ≤ 507 525
Et 492 525/1510 ≤ R1R2/R1 + R2 ≤ 507 525/1490
Par conséquent lerreur produite sur R sera au maximum de 15Ω si on choisit les cas les plus
défavorables 326 ou 341 comme valeur approchée
On peut limiter la borne derreur en choisissant la valeur moyenne 333,5 et présenter les résultats sous la
forme R = 333,5Ω ± 7,5Ω
Cependant lencadrement obtenu est «grossier» ; il peut être amélioré en étudiant les variations
Une étude de cette fonction montre que sur ce domaine on a : 330,55 ≤ ’(x,y) ≤ 336,11
Pour une formule plus compliquée ou pour une recherche littérale de la borne derreur les calculs peuvent
devenir lourds ; on va donc donner une estimation de cette borne derreur.
Problème :
•
Soient tels que pour toute valeur de i
Les valeurs possibles de y sont données par et donc lerreur
est une majoration de
:
+ + + .....
• En négligeant les termes dordre supérieur à deux, ce qui est possible en particulier lorsque
est négligeable devant on peut estimer :
par =| |
Or | |≤
En conclusion on choisit généralement (sous les hypothèses simplificatrices signalées plus haut) :
Δy=
En particulier si = ou =
Or R = R1R2/(R1 + R2)
On en déduit que R = Ω ± Ω ce qui donne un encadrement de 330 ≤ R ≤ 337.
En comparant avec lencadrement obtenu dans le paragraphe précédent, on peut noter la qualité de
lapproximation.
1) Définition :
Si une grandeur A est connue par une valeur approchée a, on appelle erreur relative sur A le nombre
En général, ni lerreur sur A, ni A ne sont connus, on détermine donc une borne derreur relative sur A que
lon note δA
Or ≤ ≤
Cette dernière quantité est proche de dès que ce nombre est très petit devant 1, ce qui est vérifié le plus
souvent.
Soit
Alors
Et par conséquent
On a donc et donc
Lobjectif dun mesurage consiste à donner «la» valeur du mesurande. En général, le résultat dun mesurage
est seulement une approximation ou estimation de la valeur du mesurande et nécessite dêtre accompagné de
lincertitude de cette estimation . Le but de ce chapitre est de définir ce que lon entend par incertitude et de
caractériser une méthode déterminant son évaluation
Mesurage :Ensemble dopérations ayant pour but de déterminer une valeur dune grandeur
Valeur vraie dun mesurande : mesure que lon obtiendrait par un mesurage parfait
Grandeur dinfluence : grandeur qui nest pas le mesurande mais qui a un effet sur le résultat du mesurage
Un mesurage présente, en général, des imperfections qui occasionnent une erreur pour le résultat de mesure.
Ce concept derreur est idéal et les erreurs ne peuvent pas être connues exactement ; il représente le résultat
dun mesurage moins une valeur vraie du mesurande.
Ainsi, on peut le modéliser par :
Si lon répète le mesurage, on obtient une série de valeurs qui sont les valeurs prises par une
variable aléatoire Y et une série de valeurs qui sont les erreurs définies sur chacune des
observations ; ces valeurs définissent une variable aléatoire E :
Lhypothèse fondamentale du traitement probabiliste de lerreur est que la variable E obéit à une loi de
probabilité bien définie.
Lobjet de ce chapitre sera de déterminer les paramètres de la loi de probabilité de E, appelée loi de
propagation de lerreur.
On envisage traditionnellement quune erreur possède deux composantes, à savoir une composante aléatoire
et une composante systématique.
Lerreur aléatoire Δ provient des variations temporelles et spatiales non prévisibles de grandeurs
dinfluence . Les effets de telles variations appelés effets aléatoires entrainent des variations pour les
observations répétées du mesurande (bien que le mesurage soit effectué dans des conditions aussi constantes
que possible.
Lerreur aléatoire sur un mesurage est le: « résultat dun mesurage moins la moyenne dun nombre infini de
mesurages du même mesurande, effectués dans des conditions de répétabilité. » (VIM 93)
Lerreur systématique ε se produit sur un résultat de mesure à partir dun effet reconnu dune
grandeur dinfluence ; cet effet, appelé effet systématique, peut être quantifié et sil est significatif par
rapport à la précision requise du mesurage, une correction est appliquée au résultat.
La correction est une opération difficile car elle nécessite une connaissance approfondie du processus de
mesure afin didentifier au mieux les causes derreurs puis estimer les corrections à apporter.
• Dans la pratique, différentes méthodes sont utilisées pour détecter et évaluer ces erreurs, comme par
exemple :
Lerreur systématique sur un mesurage est la: « moyenne qui résulterait dun nombre infini de mesurages du
même mesurande, effectués dans des conditions de répétabilité, moins une valeur vraie du mesurande. » (VIM
93)
Lerreur systématique peut être considérée comme une erreur constante qui affecte chacune des observations.
Lerreur systématique dun résultat de mesure ne peut être réduite en augmentant le nombre dobservations,
mais par lapplication dune correction.
Les corrections étant faites le mieux possible, il subsiste un doute sur la valeur des corrections
On admettra que les variations de lerreur systématique autour de la correction effectuée sont aléatoires, ce
qui permet de supposer que lerreur systématique ε suit une loi de probabilité bien définie.
c) Modélisation du mesurage
On suppose que le résultat dun mesurage a été corrigé pour tous les effets systématiques reconnus comme
significatifs et quon a fait tous les efforts pour leur identification. On dit alors que la méthode de mesure est
correcte.
On fera lhypothèse dans la suite que la méthode de mesure est correcte, ce qui se traduit mathématiquement
par :
Incertitude : paramètre, associé au résultat dun mesurage, qui caractérise la dispersion des valeurs qui
pourraient être raisonnablement attribuées au mesurande. « VIM 93 ».
3.4.1 Notion d'incertitude type
Nous avons vu que le mesurage peut être modélisé par une variable aléatoire Y despérance
La détermination de lincertitude sur le mesurage va être exprimée en fonction de lécart−type de Y
Par exemple si on applique une différence de potentiel V aux bornes dune résistance dont la valeur dépend
de la température, de résistance à la température et de coefficient linéaire de température α, la
puissance dissipée P (le mesurande) dissipée par la résistance est fonction de V, , α,
Δt selon :
Si on fait varier la totalité des grandeurs dont dépend le résultat dun mesurage, lincertitude−type sur
chacune des variables peut être évaluée par des moyens statistiques.
Cependant, comme cela est rarement possible en pratique, lincertitude−type sur certaines variables peut être
estimée par utilisation dun modèle mathématique décrivant la loi de propagation de lerreur sur cette
variable.
• Si une grandeur est estimée par des moyens statistiques ,on dit quon a une évaluation de type A de
lincertitude−type sur cette grandeur.
• Si une grandeur est estimée par un modèle mathématique ,on dit quon a une évaluation de type B de
lincertitude−type sur cette grandeur.
On suppose dans ce cas que la grandeur X est estimée à partir dune série statistique (on établit par exemple
une série de 15 mesures de la longueur dune pièce)
Pour une grandeur X estimée à partir de n observations répétées indépendantes obtenues dans les mêmes
conditions de mesure (ce qui implique que chaque opération de mesurage nécessite le
démontage et le remontage du dispositif de mesure !), la moyenne arithmétique des valeurs est
en général la meilleure estimation possible de E( X ) lespérance de X
• s représente une estimation de la dispersion des valeurs prises par X autour de leur moyenne
E(X).
Un résultat classique de statistique sur les lois déchantillonnage montre que la meilleure estimation sur
En conclusion :
Si une grandeur X est estimée à partir de n observations répétées indépendantes , alors
En conclusion :
Si une grandeur X est estimée à partir de p observations répétées indépendantes ,on prendra
Exemple :
On effectue 20 mesures du diamètre dun cylindre à laide dun pied à coulisse et on obtient s(X) = 0,018
mm
− Si lon effectue lévaluation de lincertitude sur ces 20 observations, lincertitude−type retenue sur la
Lorsque lestimation dune grandeur X ne peut être obtenue à partir dobservations répétées, la variance
estimée u²(x) ou lincertitude−type u(x) sont évaluées par un jugement fondé sur des lois de probabilité
supposées à priori.
Nous donnerons des exemples de lois retenues pour des variables habituellement rencontrées dans les calculs
dincertitude ainsi que les incertitudes−types correspondantes.
Ces lois sont dune grande importance car elles se trouvent être lois limites de la moyenne de nombreuses
lois, lors dobservations répétées de manière indépendante.
allure de la densité
• si une variable X suit une loi normale de moyenne m et décart−type σ alors on a
approximativement :
♦ prob( −σ ≤ X ≤ s ) ≈ 0.68
♦ prob( −2σ ≤ X ≤ 2s ) ≈ 0.95
♦ prob( −3σ ≤ X ≤ 3s ) ≈ 0.997
Cette dernière inégalité indique que quasiment la totalité des données sont situées entre −3σ et
3σ
Une variable X suit une loi uniforme sur un intervalle [ a,b ] si sa fonction de densité f est définie par :
allure de la densité
Lois triangulaires
Une variable X suit une loi triangulaire sur un intervalle[ a,b ] si sa fonction de densité f est définie par :
allure de la densité
Le travail du métrologue va être de choisir , en fonction des informations recueillies ou des connaissances des
processus, la loi de probabilité qui lui semble être le mieux représentative du phénomène étudié.
Ainsi, si on sait raisonnablement que les valeurs de la grandeur X sont comprises entre −d et d, le choix de la
loi de propagation de X entre −d et d va décider de lincertitude type retenue :
•
Si on suppose que la loi est normale on prendra u(x) =
•
Si on suppose que la loi est triangulaire, on prendra u(x) =
•
Si on suppose que la loi est rectangulaire on prendra u(x) =
On remarque sur les résultats précédents que lhypothèse dune loi triangulaire est un bon compromis entre
les lois normales et rectangulaires.
Les cas suivants résument les dispositions qui, sans information supplémentaire, sont prises dans la pratique
Si la résolution dun instrument numérique est d, la valeur X du signal mesuré peut se situer avec une égale
probabilité à nimporte quel endroit de lintervalle allant de X −d/2 à X +d/2
u(x) =
Exemple : si un instrument de pesage a un dispositif indicateur dont le dernier chiffre significatif correspond à
Hystérésis
Lindication dun instrument peut varier selon que les lectures se font par valeurs croissantes ou
décroissantes. Lopérateur prudent note le sens des lectures successives et fait les corrections nécessaires.
Cependant le sens de lhystérésis nest pas toujours décelable ( oscillations autour dun point déquilibre
par exemple) et on suppose alors que la loi de probabilité suivie par lhystérésis est une loi rectangulaire .
Si létendue des lectures possibles dues à cette cause est δx, alors u(x) =
Larrondissage ou la troncature des nombres qui se produit dans les réductions automatiques de données par
les ordinateurs peut aussi être source dincertitude (problème de soustractions de nombres proches par
exemple). Si une simulation de données proches sur les grandeurs dentrées permet de déceler une variation
sur la valeur de sortie, on suppose que cette valeur suit une loi rectangulaire.
Si le métrologue utilise un instrument vérifié, ce dernier est conforme à une classe qui est définie par une
limite ±α.
• Si on suppose que les valeurs affichées suivent une loi rectangulaire, on prendra donc alors :
u(x) =
Cependant, sil y a des raisons de penser que les valeurs situées près de 0 sont plus probables que celles
situées près de α ou −α on pourra penser que la loi de propagation de lerreur est normale ou par
prudence triangulaire ; on prendra alors :
Dans le cas dun instrument étalonné, le certificat détalonnage annonce une incertitude U. En fait cette
valeur U est égale à lincertitude−type u(x) multipliée par un facteur délargissement k (nous justifierons
cette pratique en fin de chapitre).
On prendra donc :
u(x) =
En principe, le facteur délargissement devrait être précisé avec lincertitude donnée par le constructeur.
Si aucune précision nest faite , on supposera que k = 2
Remarque : on suppose en général que la détermination de lincertitude−type obtenue sappuie sur une loi
de distribution de lerreur normale.
u(Dt) =
• écart de température entre le mesurande et les cales étalons noté δt
En général, on fait lhypothèse que δt suit une loi normale et on prend alors
u(δt) =
Dans la pratique il existe de nombreuses sources possibles dincertitudes dans un mesurage, telles que :
Ces sources ne sont pas nécessairement indépendantes, et certaines contribuent aux variations entre les
observations répétées du mesurande dans des conditions identiques.
Il est important de ne pas compter deux fois les mêmes composantes de lincertitude. Si une composante de
lincertitude provenant dun effet particulier est obtenue par une évaluation de type B, elle ne doit être
introduite comme composante indépendante dans le calcul de lincertitude finale du résultat de mesure que
dans la limite où leffet ne contribue pas à la variabilité des observations répétées.
Par exemple, la résolution dun instrument de mesure contribue à la variabilité des observations répétées, par
la précision des résultats obtenus.Par contre une erreur éventuelle de justesse de cet instrument ny contribue
pas.
•
On a alors et par conséquent
Par exemple :
Y représente le mesurage dune pièce dans des conditions denvironnement contrôlées. On suppose quon
effectue une série dobservations à laide dun instrument de mesure et que les composantes retenues de
lerreur amènent au calcul de :
, incertitude−type déterminée statistiquement sur la moyenne des observations
, incertitude−type déterminée sur la justesse de linstrument de mesure
Alors :
En général pour déterminer lincertitude de mesure associée à un résultat , il faut décrire le processus de
mesure et déterminer le modèle mathématique qui relie la valeur mesurée y du mesurande Y aux différentes
grandeurs qui interviennent dans le processus :
• où les sont des grandeurs mesurées, des corrections derreurs systématiques, des constantes
physiques, des grandeurs dinfluence estimées,....
Par exemple
On connait les lois de répartition des erreurs sur chacune des grandeurs et donc lincertitude−type
sur chacune de ces grandeurs. Lobjet de ce paragraphe est de déterminer lécart−type sur la variable Y
qui représentera lincertitude−type sur y, appelée incertitude−type composée de y et notée .
Remarque : en général les moyennes ne sont pas connues exactement mais estimées par En particulier
Les dérivées dordre 2 sont alors toutes nulles et un développement de Taylor de f au voisinage de μ se
réduira à
et par conséquent :
• on en déduit :
soit +
Dans le cas où les variables sont indépendantes et que f est linéaire , on a donc :
et donc
On écrit donc
Cas général
La variance composée peut être considérée comme une somme de termes dont chacun représente la
variance estimée de la contribution de chaque estimation dentrée .
Exemple :
On en déduit que
Remarque 1 :
le cas où les variables ne sont pas indépendantes est nettement plus délicat à traiter et dépasse le cadre de ce
cours. On pourra alors se reporter au guide ISO sur le calcul dincertitude qui proposera des formules à
appliquer.
Remarque 2 :
si Y est de la forme , un calcul simple des dérivées partielles montre quà partir de la
formule déterminant ,on peut écrire une relation déterminant lincertitude−type composée relative
On obtient alors :
Remarque 3 :
Dans la grande majorité des cas lapproximation de proposée dans ce paragraphe est satisfaisante.
Cependant, lorsque la non−linéarité de f au voisinage de devient significative, il est
nécessaire dinclure dans le développement de Taylor de f au voisinage de x des termes dordre plus élevé.
La formule suivante donne alors une meilleure estimation de :
Idéalement, on aimerait déterminer un nombre k tel que si Y est estimé par y avec une incertitude
U(y)=k , alors on peut affirmer que : y − U(y) ≤ Y ≤ y + U(y) avec une probabilité p proche de 1.
Pour obtenir ce facteur k, il est nécessaire davoir une connaissance précise de la loi de probabilité de la
variable représentée par le résultat de mesure.
Dans la pratique nous navons au mieux quune estimation de cette loi et de lécart−type associé.
Une première estimation est de considérer que la loi de estimée par suit une loi de Student
dont on peut estimer les degrés de liberté par la formule de Welch−Satterthwaite.
Une utilisation du théorème central limite montre que suit approximativement une loi normale centrée
réduite dès que lune des conditions suivantes est vérifiée :
• u(y) nest pas dominée par une composante de type A et une composante de type B fondée sur moins
de trois lois rectangulaires.
•
les composante de fondées sur des lois normales sont significativement beaucoup plus grandes
que toute autre composante.
Pour de nombreux mesurages pratiques dans une large étendue de domaines, les conditions suivantes
prédominent :
• Lestimation y du mesurande Y est obtenue à partir des estimations dun nombre significatif de
grandeurs dentrée qui peuvent être décrites par des lois de probabilités raisonnables telles que
des lois normales ou rectangulaires.
• Les incertitudes−types de ces estimations, qui peuvent−être obtenues par des évaluations de
Type A ou de Type B, contribuent de manière comparable à lincertitude−type composée du
résultat de mesure y.
• Lapproximation linéaire supposée par la loi de propagation de lincertitude est convenable
Dans ces conditions, on peut supposer que la loi de probabilité caractérisée par le résultat de mesure et son
incertitude−type composée est normale en raison du théorème central limite ; et peut être considéré
comme une estimation raisonnablement fiable de lécart−type de cette loi normale.
On peut alors :
Les résultats mesurés ou calculés peuvent comporter des chiffres qui nont pas de sens en regard à
lincertitude déterminée sur la mesure.
Il est donc nécessaire de procéder à un arrondissage du résultat obtenu comme indiqué ci−dessous:
• Si lincertitude élargie est U, alors on arrondit de façon que lerreur due à larrondissage soit
inférieure à 1/10 de lincertitude U retenue
• Le dernier chiffre retenu suit les règles darrondissage « au plus près » habituelles
Remarques : Pour conserver une cohérence, les incertitudes seront données avec au plus deux chiffres
significatifs. Tout arrondissage des incertitudes se fera, par prudence, par excès.
Pour limiter le cumul derreurs sur les arrondis, larrondissage est effectué sur le résultat final. Pour les
calculs intermédiaires on gardera donc des chiffres qui peuvent être non significatifs.
Exemples :
Lorsquon exprime le résultat dun mesurage et son incertitude, il est bon de donner un maximum
dinformations sur les conditions dobtention des résultats annoncés , par exemple:
Par exemple :
y = 52,00532 ± 0,00046 où lincertitude exprimée est une incertitude élargie dun facteur k =3. Cette
incertitude définit un intervalle estimé avoir un niveau de confiance proche de 99 %.
3.9. Exercice
3.9.1 Présentation du sujet :
Cet exercice est volontairement pratique et permettra lassimilation des données théoriques de ce chapitre.
La cote critique mentionnée sur le dessin de définition de la vis sans fin est la cote fonctionnelle du diamètre
primitif. Elle nécessite un contrôle à laide de piges.
Daprès le schéma on a :
Dp = Lm − W− A + H
Avec :
• Longueur mesurée : Lm
♦ 16,403 mm
• Diamètre des piges : W
Corrigé : A=4,595 mm H=3,200 mm
♦ 2,93 mm
Dp=12,078 mm
• Pas : P
♦ 5,529 mm (module*π)
• Angle de filet : α 41° 08 min.
♦ soit 0,721 rad
• Angle dhélice : β 18° 36 min.
♦ soit 0,325 rad
• Variation sur langle de filet : liée à la crémaillère (hypothèse même variation sur la pièce)
♦ Δα = 0,7° soit 0,01745 rad doù uα = 0,01745/3^0,5 = 0,01 rad
• Variation sur langle dhélice : liée à la crémaillère (hypothèse même variation sur la pièce)
♦ Δβ= 0,4° soit 0,0087 rad doù uβ = 0,0087/3^0,5 = 0,005 rad
• Variation sur le pas : liée à la crémaillère (hypothèse même variation sur la pièce)
♦ Δp = 0,018 mm doù up = 0,018/3^0,5 = 0,01 mm
Avec :
Dérivée
V mes Δ(Delta) U
Partielle *
Lm 16,403 0,01 0,00166667 2,7778E−06 1 1 2,7778E−06
W 2,93 0,002 0,00057735 3,3333E−07 −2,568371807 6,59653374 2,1988E−06
P 5,59 0,018 0,00519615 0,000027 0,572555307 0,32781958 8,8511E−06
A 0,71785392 0,01221729 0,00352683 1,2439E−05 2,650059282 7,0228142 8,7353E−05
B 0,32463124 0,00698131 0,00201533 4,0616E−06 −0,946814657 0,89645799 3,641E−06
Uc 0,01023827 K 2 U 0,02047654
Résumé
Lorsqu'on rend compte du résultat d'un mesurage d'une grandeur physique, il faut obligatoirement donner
une indication quantitative sur la qualité du résultat pour que ceux qui l'utiliseront puissent estimer sa
fiabilité. En l'absence d'une telle indication, les résultats de mesure ne peuvent pas être comparés, soit entre
eux, soit par rapport à des valeurs de référence données dans une spécification ou une norme. Aussi est−il
nécessaire qu'il existe une procédure facilement applicable, aisément compréhensible et largement acceptée
pour caractériser la qualité du résultat d'un mesurage, c'est−à−dire pour évaluer et exprimer son incertitude.
Si une grandeur est estimée par des moyens statistiques, on dit quon a une évaluation de type A de
lincertitude−type sur cette grandeur.
• En conclusion :
Si une grandeur X est estimée à partir de n observations répétées indépendantes , alors
Si une grandeur est estimée par un modèle mathématique, on dit quon a une évaluation de type B de
lincertitude−type sur cette grandeur
Ainsi, si on sait raisonnablement que les valeurs de la grandeur X sont comprises entre −d et d, le choix de la
loi de propagation de X entre −d et d va décider de lincertitude type retenue :
♦
Si on suppose que la loi est normale on prendra u(x) =
♦
Si on suppose que la loi est triangulaire, on prendra u(x) = &
Résumé 46
Contrôle qualité et outils statistiques
U = k u avec k facteur délargissement lincertitude de mesure sera alors +− U soit 2U
Résumé 47
Chapitre 4. Utilisation des outils statistiques pour le
contrôle
4.1. Introduction
Rappel :
Tout écart engendre des pertes pour la société, quelle que soit sa valeur :
• sur un produit, les pertes de qualité seront subies par le client (mauvais fonctionnement, réparations,
usure prématurée, etc.)
• sur un procédé, les pertes de qualité seront subies par l'entreprise (rebuts, retouches, arrêts de
production, etc.)
Méthodologie :
2ème étape : Après avoir choisi linstrument de mesure et déterminé son incertitude associée on met en place
le nouvel intervalle de tolérance pour définir la nouvelle zone de conformité (cela permet de ne jamais prendre
le risque lié aux incertitudes de la mesure daccepter une pièce mesurée bonne alors quelle est mauvaise).
3ème étape : Après avoir fabriqué un lot de pièces significatif on pourra calculer les différentes erreurs de la
production ainsi que le nombre de rebuts de la production.
Une série de résultats numériques peut faire l'objet du calcul de sa moyenne qui renseigne sur la position de la
série. On peut également calculer l'écart type qui est un indicateur de la dispersion de cette série.
On sait qu'en production, la meilleure qualité est obtenue lorsque la moyenne est proche de la valeur cible et
que la dispersion est faible autour de cette cible soit quand lerreur de justesse et lerreur de fidélité sont
minimisées.
Genichi Taguchi a élaboré un indice unique qui permet de rendre compte simultanément de ces deux erreurs :
4.1. Introduction 49
Contrôle qualité et outils statistiques
Lutilisation du log permet dobtenir un indice fort pour des erreurs faibles donc plus lindice est fort mieux
cest.
Le calcul « sommant les erreurs » est semblable à un calcul de variance dont les composantes sont les deux
erreurs. Cela permet de ne pas avoir derreurs se compensant (comme une somme simple derreurs positive
et négative).
4.2.2 Application
Une entreprise est livrée par deux sous traitants pour un produit (composant de leur ensemble). La cote
sensible est le poids 5 Kg avec des variations autorisées de +90 gr à −90 gr.
Les fournisseurs respectent les tolérances cependant nous désirons connaître la qualité de leur production.
Figure 5 :
La réduction du nombre de rebuts est une obligation et aujourdhui on exprime le taux de rebuts en PPM.
La notion de parties par millions (PPM), empruntée aux chimistes, permet de représenter les taux de
défectueux par les nombres entiers ayant plus de signification que les nombres décimaux.
Tableau comparatif dexpression dun même taux de défectueux en Nombre entier, en % et en PPM :
Nombres
0,001 0,01 0,1 1
décimaux
4.2.2 Application 51
Contrôle qualité et outils statistiques
On conçoit aisément que si le taux de défectueux est par exemple de 0,1%, l'exprimer en PPM (1000 PPM)
sera plus expressif et incitera à envisager des améliorations.
Tout produit ou service résulte d'un ensemble d'opérations élémentaires souvent très nombreuses. Si à chaque
opération correspond un taux de défectueux élevé, la probabilité d'obtenir un produit parfait est d'autant plus
faible que le nombre d'opérations est élevé.
Un produit nécessite n opérations pour être réalisé. Chaque opération a un taux de rebuts de 1%. Le taux de
rebuts des produits sera alors 1%^n.
10 1% 90 %
10 0,01%100 PPM 100 %
100 1% 37 %
100 100 PPM 99 %
A noter à titre d'exemple, qu'une fiche de paie nécessite plus de 30 opérations et que le montage d'une voiture
en nécessite plus de 4000.
Ces deux exemples montrent l'intérêt de la notion de PPM si l'on cherche le zéro défaut sur le produit final.
Les propriétés de la loi normale centrée réduite nous permettent de déterminer le taux de défectueux dans une
population.
Cette proportion dépend essentiellement de la position de la moyenne produite par rapport aux limites de
tolérances.
4.4. Exercices
4.4.1 Histogramme : Création et Interprétation
Sujet :
Lobjectif de ce TD est destimer le nombre de rebuts dune production. Un échantillon de 50 pièces a été
réalisé. La cote sensible à respecter est de 4,8 +−0,1
4.85 4.82 4.75 4.72 4.62 4.71 4.7 4.77 4.71 4.64
4.65 4.74 4.65 4.68 4.72 4.7 4.67 4.69 4.69 4.79
4.71 4.74 4.77 4.67 4.63 4.65 4.77 4.66 4.71 4.67
4.58 4.79 4.67 4.74 4.75 4.7 4.71 4.78 4.68 4.67
4.6 4.81 4.78 4.65 4.72 4.7 4.81 4.8 4.72 4.75
1 Vérifier la normalité de la production
(Créer lhistogramme de la production)
♦ taper dans la troisième = somme des deux premières pour obtenir le nombre de rebuts
♦ le multiplier par 100 pour lexprimer en % ou par 1000000 pour lexprimer en PPM)
6 Conclusion
Sujet :
Lobjectif de ce TD est destimer le nombre de rebuts dune production corrigés (par lincertitude). Un
échantillon de 50 pièces a été réalisé. Linstrument de mesure a une incertitude U de 0,007 (3*σ). La
cote sensible à respecter est de 5 +0−0,2
4,91 4,94 4,95 4,95 4,92 4,98 4,98 4,97 4,96 4,95
4,96 4,95 4,95 4,96 4,91 4,94 4,94 4,94 4,88 4,89
4,95 4,95 4,96 4,96 4,95 4,94 4,94 4,96 4,95 4,95
4,98 4,98 4,97 4,92 4,98 4,9 4,95 4,95 4,96 4,94
1 Vérifier la normalité de la production
6 Conclusion
Résumé
Nous pouvons visualiser la production sur un graphique ou apparaîtra :
Indice de performance :
On sait qu'en production, la meilleure qualité est obtenue lorsque la moyenne est proche de la valeur cible
et que la dispersion est faible autour de cette cible soit quand lerreur de justesse et lerreur de fidélité
sont minimisées.
Lindice de performance suivant (S/B) permet de calculer pour chaque production un niveau de qualité
atteint.
• les cartes de contrôle qui permettent le recueil des résultats en cours de production et fournissent des
directives concernant les décisions à prendre quant aux actions de réglage et d'intervention sur le
procédé,
• les outils d'évaluation de la capabilité machine ou procédé qui permettent d'estimer le niveau de
performance des moyens mis en Suvre en comparaison avec les spécifications prescrites,
• les histogrammes qui permettent de visualiser la nature de la distribution statistique des résultats.
L'objectif des études de capabilité et de performance est de déterminer des relations entre les tolérances
définies par les bureaux d'études et les résultats obtenus sur les moyens de production.
Elles sont rendues nécessaires par le fait que les tolérances sont exprimées en valeurs limites et que les
résultats obtenus sur les moyens de production sont estimés sous la forme de résultats statistiques.
Figure 3
Remarques
On remarque le manque de cohérence entre la nature des limites de tolérances et celle des résultats obtenus sur
un procédé de production.
En fait les limites de tolérances, telles qu'elles sont fixées habituellement conviennent tout à fait en production
unitaire. Elles sont inadaptées aux concepts de production de série et dans les cas de contrôle par
échantillonnage(contrôle destructif ou non).
Une définition statistique des tolérances permettrait une transposition directe entre les définitions bureaux
d'études et les seuils d'acceptation sur échantillon.
Actuellement, il est encore nécessaire d'assurer la liaison entre les deux systèmes par la définition d'indices de
capabilité ou de performance.
5.2.2 Indices de capabilité et indices de performances
Dans le manuel SPC (2), les sociétés Ford, GM et Chrysler distinguent deux familles d'indices permettant
d'établir les relations entre les limites de tolérances et les résultats obtenus réellement sur les procédés. Ce
sont les indices Pp, Ppk et les indices Cp et Cpk.
Les indices Cm et Cmk ont fait l'objet d'éditions antérieures et ne sont plus retenus maintenant.
L'indice Cpm a été ajouté récemment. Il est sans doute appelé à se généraliser mais sa signification est plus
délicate à interpréter.
Ces deux indices, calculés à partir de résultats portés sur une carte de contrôle, permettent de vérifier si les
performances du procédé sont suffisantes.
Les indices Pp et Ppk sont représentatifs de la qualité livrée.
Ces deux indices, calculés à partir des résultats portés sur une carte de contrôle permettent de vérifier la
capabilité intrinsèque du procédé sans tenir compte des causes assignables éventuelles.
Les indices Cp et Cpk ne sont représentatifs de la qualité livrée que si le procédé est stable en moyenne et en
dispersion (sous contrôle − absence de causes assignables).
5.2.1 Préliminaires 57
Contrôle qualité et outils statistiques
Ces indices ne sont plus retenus par la documentation éditée par les sociétés Ford, GM et Chrysler. Ils peuvent
toutefois être utilisés dans le cadre d'essais ponctuels. La démarche graphique utilisée peut rendre service dans
certains cas.
C'est un indice unique qui prend en compte les concepts de la fonction perte de qualité de Genichi Taguchi. Il
tient compte à la fois, du centrage de la dispersion et de l'écart de moyenne par rapport à la cible.
Intérêt Symbole
Traduit la capacité du procédé à produire sur le
Indices de performance. long terme. Pp et Ppk
Intègre les effets des causes assignables.
Traduit les possibilités du procédé en l'absence de
Indicateur de la qualité livrée. Cp et Cpk
causes assignables.
Capabilité intrinsèque du procédé.
Traduit la capabilité du moyen de production à Cm et
Capabilité à court termeCapabilité
partir d'un essai ponctuel. Cmk
machine.
Capabilité. Indice global intégrant la moyenne et l'écart type. Cpm
Nota : Ce tableau a été établi à l'aide de la version 95 du guide SPC de Ford.
• ceux qui permettent de déterminer si le moyen de production est capable de produire, sans tenir
compte des valeurs moyennes (Cm, Cp, Pp,&),
Figure 4 :
Les indices Cp, Pp ou Cm indiquent si le procédé est capable ou si les performances sont bonnes, pour cet
indicateur, malgré la présence de rebut éventuel causé par un déréglage de la moyenne.
Nota : C'est la nature du calcul de l'écart type et le mode d'échantillonnage qui déterminent la nature de
l'indice.
• ceux qui prennent également en compte les valeurs moyennes (Cpk, Ppk, Cmk,&).
Figure 5 :
Les indices de capabilité ou de performance Cpk, Ppk et Cmk mettront en évidence le déréglage de la
moyenne.
Les indices de capabilité ou de performance Cpk, Ppk et Cmk sont obtenus en retenant la plus petite des deux
valeurs suivantes :
ou
On constate que les derniers indices tiennent compte de la plus ou moins grande proximité des résultats avec
les limites de tolérances.
On distingue différentes méthodes de détermination des capabilités selon les objectifs poursuivis et le type
d'information souhaité.
C'est une capabilité opérationnelle qui est déterminée à partir des résultats portés sur les cartes de contrôle ou
éventuellement d'un échantillon prélevé dans un lot.
Ce sont les indices qui sont conseillés par Ford pour établir la capabilité préliminaire à partir d'au moins 25
échantillons et 100 individus.
L'écart type utilisé est l'écart type classique s obtenu par la formule :
C'est une capabilité opérationnelle qui est déterminée à partir des résultats portés sur les cartes de contrôle.
L'écart−type servant à la détermination des indices de capabilité Cp et Cpk est obtenu à partir des résultats
portés sur une carte de contrôle pendant une période suffisante.
est l'écart type estimé à partir de l'étendue ou de l'écart type moyen des échantillons.
ou
Les indices d2 et C4 sont donnés dans le manuel Ford et dans la norme ISO 8258 (1991).
Nota : la norme ISO 8258 (1991) nomme IAP (indice d'aptitude du procédé) la valeur de Cp.
Elle n'est plus recommandée par Ford mais elle peut présenter un certain intérêt pour réaliser une réception sur
une nouvelle machine ou pour réaliser une étude ponctuelle concernant les performances d'un moyen de
production.
Les prélèvements s'effectuent en continu sur un moyen de production stabilisé. Aucun réglage n'intervient
pendant la production de 50 pièces successives.
Encore peu utilisée, elle est décrite dans le manuel SPC de Ford, GM et Chrysler édition 1995.
Elle prend simultanément en compte les écarts par rapport à la valeur cible et la dispersion par rapport à la
moyenne des résultats. Elle exploite la notion de qualité de Taguchi.
Cet écart−type est égal à la racine de la Moyenne Quadratique des Ecarts (MSD Mean Square Deviation)
utilisée dans la fonction perte de qualité de Taguchi.
On constate que les écarts sont déterminés par rapport à la valeur cible et non par rapport à la moyenne.
Indices de capabilité égaux à 1. C'est juste nécessaire, insuffisant pour satisfaire la plupart des clients. Il faut
améliorer le procédé.
Indices de capabilité égaux à 1,33. C'est le minimum demandé par certains clients notamment dans
l'automobile.
Indices de capabilité égaux à 1,67. Certains clients exigent d'ores et déjà ce niveau de capabilité.
Indices de capabilité égaux à 2. De telles valeurs correspondent à des procédés bien fiabilisés.
La MSP a pour objectif prioritaire la stabilisation des procédés quant au respect des valeurs cibles et la
réduction progressive des dispersions afin d'obtenir la sûreté de la réalisation des produits.
Elle permet de mieux connaître le comportement de ces procédés et ainsi de favoriser et d'orienter les actions
d'amélioration.
• analyser les résultats sous forme de l'évaluation de la capabilité machine puis déterminer la carte
contrôle.
• exploiter une carte de contrôle ne comportant pas de limites de contrôle (limites de décision d'action).
Les résultats permettent ensuite de déterminer les limites de contrôle après élimination des causes
assignables. La vérification du respect des spécifications se fait par l'intermédiaire des indices de
capabilité.
C'est la démarche proposée par la norme ISO 8258 et pratiquée couramment dans l'industrie
automobile. C'est également cette démarche qui est préconisée par Walter A. Shewhart, le père du
SPC inventé dans les années 30 aux USA.
• déterminer les limites de la carte de contrôle à partir des spécifications et des performances du moyen
de production.
C'est la démarche proposée par la norme 06 031 (en cours de révision).
Elle est moins porteuse d'amélioration continue que la précédente démarche car elle n'induit pas la
réduction permanente des dispersions.
Domaine d'application
La carte de contrôle est utilisable dans tous les cas de production répétitive. Si la production est fractionnée,
elle peut être également utilisée pour surveiller des facteurs d'influence.
Il existe une version de carte de contrôle adaptée à un début de production ou lors de la réalisation de séries
limitées (carte petite série non étudiée ici mais vue en fin du polycopié).
Phase préparatoire
• a relevé d'échantillons successifs en cours de production et établissement d'un graphique des résultats,
• b analyse de ces résultats avec identification des causes assignables,
• c élimination des causes assignables (mise sous contrôle),
• d lorsque le procédé est sous contrôle, détermination des indices de capabilité
• e établissement de la carte de contrôle comportant des limites de contrôle.
Un bilan est effectué périodiquement avec calcul des indices de capabilité Cp et Cpk.
Poursuite de l'amélioration par la convergence vers la valeur cible et par la réduction progressive de la
dispersion.
Ce type de contrôle est à effectuer à chaque fois que l'on peut effectuer des mesures.
• Vérification de la dispersion :
♦ étendue : carte R (range) = W (étendue),
♦ écart−type : carte s ou σ.
Ce type de contrôle nécessite une définition précise des critères observés (bons ou défectueux). L'ambiguïté
peut être levée par l'usage de schémas, photographies, pièces types, etc&
La carte de contrôle se présente généralement sous la forme d'un document papier permettant de noter les
résultats des échantillonnages successifs effectués sur le poste de travail.
Plusieurs documents d'accompagnement sont indispensables pour assurer une bonne interprétation des
résultats :
Les variations des résultats d'un procédé résultent de deux types de causes :
• les causes assignables qui correspondent à des sources de défaut importantes, difficiles à prévoir.
Elles trouvent leur origine dans les variations plus ou moins importantes de facteurs tels que les
déréglages brusques ou progressifs (dérives), les changements de matière, les opérations de
maintenance, etc.&,
• les causes aléatoires qui résultent du procédé lui−même, de sa conception, de son état, des méthodes
employées. Chacune des sources a un effet limité et varie dans une plage restreinte.
Le procédé est dit sous contrôle lorsque les causes assignables ont été éliminées.
En phase d'exploitation, les cartes de contrôle sont assorties de limites de décision. Elles sont déterminées de
telle sorte que les probabilités de dépassement de l'indicateur concerné soient connues.
Les limites de contrôle LC correspondent à une probabilité de dépassement de quelques−uns pour 1000
lorsque le procédé est correct. Ce risque, inévitable en contrôle par échantillonnage, correspond au risque de
première espèce ou risque α (Fig.1).
Si un déréglage existe, il se peut que l'indicateur se situe entre les limites de contrôle. Les probabilités pour
qu'il en soit ainsi sont d'autant plus faibles que le déréglage est important. Ce risque correspond au risque de
deuxième espèce ou risque β.
Ces risques correspondent à chaque fois à un prélèvement individuel. Ils sont grandement atténués par les
répétitions. A titre d'exemple, les résultats portés sur la figure 2 montrent que le procédé accuse un déréglage
progressif de la moyenne nécessitant une surveillance particulière.
Figure1.
Figure 2.
Les cartes de contrôle peuvent comporter des limites de surveillance (LS) associées aux limites de contrôle.
La méthode MSP n'envisage pas cette possibilité.
Elles sont situées à l'intérieur des limites de contrôle et elles correspondent à des probabilités de dépassement
unilatéral de 0,025 (voir norme NF 06 301).
Leur dépassement par une valeur d'échantillon correspond à une alerte et l'on préconise alors de renouveler le
prélèvement. Si le deuxième échantillon confirme le premier (nouveau dépassement), on considère qu'il y a
déréglage.
Observations
:
On peut calculer les limites de contrôle à partir de ces prélèvements (les constantes sont issues du tableau de
la carte de contrôle vierge (document excel chap.5.4)) :
Nota : On remarque que toutes les valeurs d'échantillons sont comprises dans les limites de contrôle.
Pour information : les échantillons ont été prélevés dans une population de moyenne m = 3,1 mm et d'écart
type σ = 0,0405 mm. La distribution était normale et le procédé sous contrôle (pas de variation de la
moyenne et de la dispersion).
Observations :
• en amont de la zone A, le procédé était sous contrôle pour la moyenne. Cette zone A correspond à un
déréglage qui a subsisté pendant trois prélèvements avant intervention,
• la zone B correspond à une dérive lente qu'il faudra s'efforcer de réduire,
• la zone C correspond à une altération de la dispersion. l'analyse du procédé sous l'angle technique
peut permettre de l'expliquer (erreur de relevé, une pièce mal positionnée, etc.&),
• la zone D pourrait être considérée comme une amélioration bénéfique. Il n'en est sans doute rien et les
causes assignables peuvent être trouvées dans un appareil de contrôle défectueux (bloqué) ou encore
dans une tricherie de l'opérateur qui n'a réalisé qu'une mesure et l'a reproduite pour toutes les valeurs
de l'échantillon.
Nota : Ce procédé est hors contrôle. On ne peut donc y déterminer les limites de contrôle, ni évaluer la
capabilité du procédé.
Observations :
Cette carte a été testée avec un procédé produisant naturellement 8 % de défectueux (p = 0,08). La limite de
contrôle supérieure a été calculée sur cette base et pour les échantillons de 20 pièces (n = 20).
On a utilisé l'approximation d'une loi binomiale par une loi normale suivant le tableau figure 10.
Les résultats des prélèvements confirment la stabilité du procédé et aucune cause assignable n'est décelable.
le taux de défectueux constaté est de : 47 défectueux / 28 prélèvements / 20 = 0,0839 ce qui est très proche de
la réalité.
Evaluation de la dispersion :
est un estimateur de σ calculé à partir
d'échantillons de tailles réduites.
n = 10 pièces contrôlées2
np n défectueux à porter sur la carte
Approximation de la loi np=2
binomiale par une loi On porte le nombre de défectueux
Taille des normale sur la carte
Unités
échantillons
non−conformes
constante C
Nombre de Nombre
défauts dans moyen de C = 3+2+3+0+1 = 9 défauts à
défauts dans Approximation de la loi
le de Poisson par une loi porter sur la carte
sous−groupe les On porte le nombre de défectueux
sous−groupes normale
par sous−groupe sur la carte
n = 10
p 3 défectueux
La taille des p = 3/10 à porter sur la carte
échantillons Approximation de la On porte la proportion de
peut varier binomiale par une loi défectueux sur la carte
Proportion de de ± 25 %. normale
défectueux
= taille
moyenne de u
l'échantillon
Proportion Proportion
de moyenne de u =3/4 = 0,75 à porter sur la carte
défectueux défectueux Approximation de la loi On porte la proportion de
par unité par unité de Poisson par une loi défectueux par sous−groupe sur la
normale carte
Cas d'une carte np :
Sur un procédé sous contrôle statistique on a effectué une étude préalable qui a fourni les résultats suivants :
• Consignes à l'opérateur :
Exemple :
Zone d'identification
Incidents (réglages, interventions de la maintenance, changements d'outils, de
Date Heure Nom
matière, etc.&)
L'analyse à posteriori des cartes, par une personne compétente, permet d'analyser les procédés et le
remplissage des cartes (exactitude des résultats portés).
Un bilan régulier des capabilités doit être réalisé afin de mesurer l'amélioration progressive des résultats.
5.4. Exercice
L'objectif de cet exercice est de déterminer les capabilités dun procédé et de mettre sous contrôle statistique
une des cotes des pièces produites.
La cote mise sous contrôle est 16 +0−0.1
• La mesure dun premier échantillon de quarante huit pièces produites sans déréglage du procédé nous
donne:
• La mesure de huit prélèvements (5 toutes les 100) de cinq pièces produites sans déréglage du procédé
nous donne :
5.4. Exercice 72
Contrôle qualité et outils statistiques
♦ 2. Remplir la première carte et calculer les capabilités Cp et Cpk ainsi que les limites de
contrôle nécessaires pour létablissement de la deuxième carte de contrôle.
♦ 3. Mettre le procédé sous contrôle à laide de la deuxième carte de contrôle avec les
prélèvements suivant :
Résumé
La Maîtrise Statistique de Procédé (MSP) (Statistical Process Control (SPC)) est un moyen d'analyse
statistique permettant l'amélioration des procédés de production par une meilleure connaissance des résultats
et l'élimination systématique des causes d'anomalie. Son support dexploitation est lensemble des cartes de
contrôle.
Domaine d'application
La carte de contrôle est utilisable dans tous les cas de production répétitive. Si la production est fractionnée,
elle peut être également utilisée pour surveiller des facteurs d'influence.
Il existe une version de carte de contrôle adaptée à un début de production où lors de la réalisation de séries
limitées (carte petite série non étudiée ici mais vue en fin du polycopié).
Phase préparatoire
Phase d'exploitation
Résumé 73
Contrôle qualité et outils statistiques
• a− relevé périodique d'échantillons, calcul des données et report sur le graphique,
• b− analyse des résultats et décision d'action.
Un bilan est effectué périodiquement avec calcul des indices de capabilité Cp et Cpk.
Poursuite de l'amélioration par la convergence vers la valeur cible et par la réduction progressive de la
dispersion.
Résumé 74
Chapitre 6. Les plans d'expériences (Méthode
Taguchi)
6.1. Les plans d'expériences
L'origine des plans d'expériences remonte au début de ce siècle où un anglais Ronald A. Fisher les a mis au
point dans le cadre de recherches agronomiques.
Ils reposent essentiellement sur des expérimentations multifactorielles (on fait varier tous les paramètres
simultanément) et sur un traitement des résultats à l'aide de régressions multiples et d'analyse de la variance.
Ils sont restés du domaine de quelques spécialistes et leurs applications industrielles ont été réduites du fait de
la complexité des calculs qu'ils nécessitaient.
Toutefois, l'arrivée des moyens informatiques et de logiciels spécifiques permet d'exploiter les plans
d'expériences classiques avec plus de facilités.
Les résultats de l'expérimentation sont collectés sous la forme de tableaux à entrées multiples.
A B C & Y Z Réponses R
A1 B1 C1 & Y1 Z1 R1
A2 B2 C2 & Y2 Z2 R2
An Bn Cn & Yn Zn Rn
Ces résultats permettent de définir un modèle mathématique de régression multiple comportant un coefficient
pour chacun des facteurs pris en compte (de A à Z).
L'analyse de la variance permet de déterminer quels sont ceux des facteurs qui ont une influence significative
(test de Fisher). Seuls les facteurs dont l'influence est significative sont retenus dans le modèle de régressions
retenu.
L'influence de chacun des facteurs est donc testée et permet la prédiction des résultats prévisibles dans le
domaine testé.
Un choix limité du nombre de variantes de chacun des facteurs permet d'atteindre ce but.
Par exemple, un plan d'expérience complet, concernant trois facteurs à deux niveaux, comporte 2³ = 8
combinaisons.
Si ces niveaux sont symbolisés par 1 (niveau 1) et par 2 (niveau 2), ces combinaisons sont les suivantes :
On peut pourtant réduire les essais tout en obtenant les mêmes informations en utilisant une table orthogonale.
C'est le cas si l'on obtient les lignes 1, 4, 6 et 7 de la figure 2.
La table L4 (2³) de la figure 2 permet de ne réaliser que 4 essais au lieu des 8 essais du plan complet.
Essai A B C Réponses
1 1 1 1 R1
2 1 2 2 R2
3 2 1 2 R3
4 2 2 1 R4
6.3. Domaines d'emploi des plans d'expériences
Genichi Taguchi a exploité les théories des plans d'expériences en les rendant plus accessibles et en les
améliorant.
La méthode de Taguchi est donc une méthode d'expérimentation tournée vers un usage industriel.
Elle consiste à combiner les techniques industrielles et celles de la statistique pour obtenir une amélioration
sensible de la qualité et des coûts.
Elle s'applique aux produits et aux procédés de production afin de les optimiser et de les rendre insensibles en
fixant les tolérances à partir des coûts.
Lors de la conception des produits, elle permet de définir et de dimensionner les facteurs clés, y compris en
fixant les tolérances à partir des coûts.
Les plans d'expériences constituent la suite naturelle d'un diagramme causes − effet lorsque aucun historique
des causes n'est disponible (dans ce dernier cas, on peut analyser les résultats par un diagramme de Pareto).
6.4. Mise en Suvre des plans d'expériences
• a − Définir l'objectif et sa mesure
Il n'y a pas de plan d'expériences sans objectif et il est impératif que la réalisation de l'objectif puisse être
appréciée par une évaluation de la performance réalisée pour chacun des essais.
Dans la mesure du possible, on préférera une mesure des résultats plus sensibles aux variations qu'un contrôle
par attribut (ex. : bon ou défectueux).
• la cible est une valeur nominale (masse, teneur en principe actif, dimension, etc.....),
• la cible est une valeur maximale (rendement, cohésion, etc.....),
• la cible est une valeur minimale (impuretés, dispersion, etc&.).
On peut envisager de définir plusieurs réponses : par exemple, on peut être conduit à vérifier simultanément
une uniformité de masse et la qualité de la dragéification.
Dans ce cas, il est important de se fixer des priorités. En effet, l'analyse des résultats peut conduire à des
dilemmes. Il est préférable de les prévoir afin de hiérarchiser les choix.
Les essais peuvent être répétés pour une même configuration des facteurs internes.
Dans ce cas, on peut traiter les résultats moyens, ce qui permet d'atteindre la valeur cible.
On peut aussi traiter l'écart type des résultats qui permet de maîtriser les dispersions autour de la valeur
moyenne.
Cette phase préparatoire du projet est capitale car elle conditionne toute l'efficacité du plan.
Une erreur plus courante qu'on ne le croit consiste à mélanger les facteurs internes et les facteurs externes.
Les plans produits de Genichi Taguchi permettent pourtant de les traiter différemment.
Rappelons que :
• un facteur interne est un facteur que l'on propose de maîtriser. En conception, c'est un facteur dont le
concepteur est maître. En production, c'est un facteur sur lequel on peut agir par une action de
réglage.
Exemple :
la température du local, les impuretés dans un produit, les erreurs de mesure, etc...
Les facteurs internes seront donc pris en compte dans la table des facteurs internes.
Pour ce qui est des facteurs externes, deux solutions sont possibles pour rendre la solution robuste :
Une analyse du problème est nécessaire. L'avis des personnes compétentes est indispensable.
Par exemple, pour réglage d'un procédé de production, il faut réunir les techniciens du produit, les techniciens
de production et les techniciens du contrôle voire ceux de la maintenance.
Un choix est effectué parmi ces causes possibles en fonction de l'expérience de chacun et de la stratégie des
essais envisagée (une seule étape, plusieurs étapes, etc... ).
Les tables orthogonales prévues par Taguchi permettent de tester simplement les intéractions entre les
facteurs.
On peut choisir de tester toutes les intéractions entre les différents facteurs mais cela se fera au détriment du
nombre de facteurs testés.
On peut choisir de ne tester aucune intéraction si l'on a de bonnes raisons de penser qu'il n'en existe pas ou si
le plan est destiné à être suivi d'un autre plan qui pourra les prendre en compte.
Si l'on pense que certaines intéractions peuvent avoir une influence, il est préférable de réserver les colonnes
correspondantes quitte à prévoir un plan plus important.
Deux niveaux sont un minimum et conduisent aux plans les plus simples.
On peut choisir de tester 3 niveaux ou plus mais il faut savoir que le nombre d'essais à réaliser sera plus
important.
Aucune recette ne peut être fournie car tout dépend de la situation. Tout au plus pouvons nous donner
quelques conseils :
• les choix sont des choix techniques, les niveaux doivent être fixés par ceux qui connaissent le
problème posé,
• généralement, ceux qui connaissent le sujet, ont déjà effectué des essais non structurés et connaissent
la plage de réglage. On peut donc s'appuyer sur cette expérience,
• sur un procédé de production, on peut envisager d'exploiter les valeurs usuelles de réglage (Exemple :
valeurs des réglages généralement utilisés par chacune des équipes de travail)
• si on connaît la plage de variation sans pour autant posséder d'expérience, on peut diviser cette plage
en zones et choisir des niveaux situés dans ces zones (Par exemple au milieu de chacune d'elles),
Figure 4
• dans le cas où les valeurs standards seraient fournies dans une documentation ou dans une notice
technique, on peut encadrer cette valeur,
• les zones dangereuses pour les personnes ou pour le matériel doivent être testées au préalable et
exclues des essais,
• le choix de plus de deux niveaux permet de mieux explorer l'intervalle de variation et de détecter les
non−linéarités des réponses,
• on peut adopter une stratégie exploratoire avec le choix de plus de deux niveaux pour ensuite explorer
les abords du niveau le plus favorable en réalisant un second plan,
• l'amplitude entre les valeurs doit être suffisante pour produire des effets si le facteur a une influence.
Nous dirons pour conclure que les expérimentateurs se doivent de faire preuve d'imagination et de technicité.
Ces choix nécessitent une certaine dose de bon sens et de flair pour assurer la réussite.
Il ne faut jamais oublier également qu'un plan qui ne donne pas les résultats escomptés est tout de même plein
d'enseignements car il met l'accent sur l'insuffisance de connaissance du problème de la part des acteurs.
Un plan qui "échoue" est aussi porteur d'expérience acquise et doit permettre de renouveler l'essai dans de
meilleures conditions.
6.4.3 Choisir la table orthogonale
En principe, le choix de la table est dicté par le nombre de facteurs, le nombre de niveaux et le nombre
d'intéractions à tester.
Il peut dépendre également de la stratégie envisagée, c'est−à−dire le nombre de plans successifs que l'on
propose de réaliser.
Le degré de connaissance de la méthode de la part des expérimentateurs peut aussi orienter certains choix à
court terme.
Nous ne donnons donc pas de recettes miracles mais nous nous bornerons à quelques conseils :
• sauf à disposer de moyens techniques importants, de temps et d'argent, il est souvent préférable de
limiter le nombre de facteurs et de niveaux afin de réussir à obtenir des résultats. Ce conseil est
d'autant plus important que l'expérience de la méthode est réduite,
• pour un début, ou pour une application didactique, il vaut mieux choisir une table à L8 ou une table
L16. Dans ce cas, on choisira les facteurs en fonction de la table envisagée,
• une table L9 peut aussi présenter un certain intérêt mais offre peu de possibilités concernant l'étude
des intéractions,
• une table L4 peut être utilisée à la suite d'autres tables afin d'affiner certains résultats,
• pour un procédé en service, il est souvent plus judicieux de procéder par étapes successives ce qui
correspond à une démarche d'amélioration continue,
• lors de la conception d'un produit, il est intéressant de réaliser un plan ambitieux qui permet la
constitution d'une banque de données exploitable ensuite pour des cas semblables.
La lecture des tables des intéractions et des graphes linéaires permet le positionnement des facteurs dans les
colonnes.
C'est à ce stade que l'on rencontre certaines difficultés si l'on est exigeant sur le nombre de facteurs, le nombre
de niveaux et la nature des interactions car il est souvent difficile de trouver la table et le graphe linéaire
correspondant aux désirs initiaux. Les compromis sont souvent inévitables.
Si l'on ne teste aucune intéraction, on peut tirer les placements au sort.
Les colonnes des tables orthogonales sont parfois affectées d'une indication de groupe : le groupe 1
correspond au plus petit nombre de changement du niveau du facteur
Exemple :
la colonne N°1 d'une table L8 ou L16 ne comporte qu'un changement de niveau si l'on parcourt la table dans
l'ordre des colonnes.
Si le niveau d'un facteur est difficile à changer, on peut choisir de le placer dans une telle colonne. Toutefois,
si nécessaire, on peut s'affranchir de cette contrainte en réalisant les essais dans un ordre différent.
On peut choisir de réaliser les essais dans l'ordre de la table surtout si l'on a tenu compte de la difficulté du
changement des niveaux lors du placement des facteurs.
Certains préconisent un tirage au sort de l'ordre de réalisation si celui−ci est susceptible d'influencer les
résultats (Exemple : vieillissement d'un composant).
Conditions matérielles.
En effet, la réduction du nombre d'essais impose que chacun d'entre eux soit strictement effectué dans les
conditions prévues.
Pour ce faire, il est souvent judicieux d'établir autant de fiches qu'il y a d'essais à réaliser. Chaque fiche est
identifiée.
Elle comporte :
La répétition systématique des essais est souhaitable si les conditions de renouvellement en cas d'incident ne
sont pas possibles (délais, approvisionnement en matière première, etc... ).
On calcule les réponses moyennes pour chacun des 2 niveaux de chaque facteur.
Exemple :
Tableau 5 :
Essai A B C Réponses
1 1 1 1 R1
2 1 2 2 R2
3 2 1 2 R3
4 2 2 1 R4
Un tableau des réponses est réalisé. Il fournit les réponses moyennes et les écarts qui caractérisent l'effet du
facteur lorsqu'il passe du niveau 1 au niveau 2.
Facteurs A B C
Niveau 1
Niveau 2
Ecarts
Les réponses serviront au tracé des graphes de réponses.
Analyse graphique.
Les graphes des réponses permettent de visualiser les résultats. Leur examen est indispensable.
Ils permettent une vision globale des effets des facteurs et des intéractions.
Lorsque plusieurs réponses de nature différentes sont envisagées, ils permettent de lire rapidement les
convergences et les contradictions et constituent un excellent outil d'aide à la décision.
Bien que la lecture d'un graphique semble simple, il faut toutefois être vigilant car de mauvaises
interprétations sont possibles.
Exemple 1 :
Tous les effets ont même valeur. Ce cas a peu de chances de se produire et la lecture est influencée par
l'échelle du graphique.
Figure 5 :
Exemple 2 :
Des pentes différentes permettent de différencier les effets des facteurs testés. Une pente faible par rapport
aux autres doit conduire à une conclusion d'effet nul (pente due aux aléas de l'échantillonnage).
Figure 6 :
Prédiction Modélisation.
Dans la plupart des cas, il est possible de calculer une prédiction à partir d'un modèle mathématique.
Cette prédiction prend comme hypothèse que le niveau moyen des résultats est acquis et que les choix des
niveaux des facteurs dont l'influence est significative s'ajoutent à cette valeur moyenne.
Figure 7 :
si l'on choisit de retenir les effets des facteurs B et C, la réponse maximale prédite sera :
Prédiction
Essai de confirmation.
L'analyse de ces résultats doit conduire à réaliser un nouveau plan en exploitant l'expérience acquise lors des
essais précédents.
C'est la table la plus simple qui est proposée à l'expérimentateur. Elle permet de tester 3 facteurs à 2 niveaux
ou encore 2 facteurs à 2 niveaux et leur intéraction.
L4 (2³)
N° Col. 1 2 3
1 1 1 1
2 1 2 2
3 2 1 2
4 2 2 1
La désignation L4 (2³) signifie que la table comporte 4 lignes (4 essais), que le nombre de colonnes est de 3 et
que chaque facteur sera testé pour 2 niveaux.
Le plan complet correspondant comporte 2³ = 8 combinaisons pour les 3 facteurs.
La mention Gr.1 (groupe 1) repère la colonne comportant un seul changement de niveau si l'on effectue les
essais dans l'ordre de la table.
Sur le graphe linéaire le cercle simple est utilisé pour une colonne du groupe 1. Pour les colonnes du
groupe 2, on utilise un double cercle.
Pour les colonnes du groupe 3 (non présent ici) on utilise un double cercle et celui du centre est noirci.
6.5.2 La table L8
Cette table permet de tester 7 facteurs à 2 niveaux ou encore 3 facteurs à 2 niveaux et toutes leurs intéractions
(deux à deux et à trois).
Tableau 8 :
Table L8 (2^7)
N° Col. 1 2 3 4 5 6 7
1 1 1 1 1 1 1 1
2 1 1 1 2 2 2 2
3 1 2 2 1 1 2 2
4 1 2 2 2 2 1 1
5 2 1 2 1 2 1 2
6 2 1 2 2 1 2 1
7 2 2 1 1 2 2 1
8 2 2 1 2 1 1 2
6.5.1 La table L4 86
Contrôle qualité et outils statistiques
On constate que chaque colonne est le siège de plusieurs intéractions. Il est donc utile d'identifier les
colonnes concernées.
Si l'on veut éviter les confusions entre les effets et ceux des intéractions, il faudra seulement placer un facteur
dans les colonnes N°1, N°2 et N°3. Les autres colonnes seront réservées aux intéractions, la colonne N°7
étant le siège de l'intéraction des 3 facteurs
Tableau 9 :
N° 1 2 3 4 5 6 7
Facteurs A B AB C AC BC ABC
6.5.3 La table L9 à 3 niveaux
Table L9 (3^9)
N° Col 1 2 3 4
1 1 1 1 1
2 1 2 2 2
3 1 3 3 3
4 2 1 2 3
5 2 2 3 1
6 2 3 1 2
7 3 1 3 2
8 3 2 1 3
9 3 3 2 1
Les phénomènes industriels sont également soumis à certaines intéractions et lors de l'optimisation des
produits ou des procédés, il est souvent intéressant de les prendre en compte afin d'éviter les associations
6.5.2 La table L8 87
Contrôle qualité et outils statistiques
Pour mieux faire comprendre comment traiter les intéractions dans les plans d'expériences nous allons traiter
un exemple simple relatif à un plan à deux facteurs et à leur intéraction.
Objectif :
On cherche une réponse maximale pour la réponse R.
Niveau 1 Niveau 2
A Haut Bas
b 5 10
• Table orthogonale
N° A B C Réponses R
1 Haut 5 1 145
2 Haut 10 2 95
3 Bas 5 2 −10
4 Bas 10 1 60
Moyenne = 72.50
Facteur A B AB Interactions AB
A1
Niveau 1 120 67.5 102.5 A2
Ecarts 95 −10 60 B2 95 60
Nota : Ce cas est particulier car il constitue un plan complet dans la mesure où toutes les combinaisons de A et
B ont été testées. Ceci explique que la table des intéractions reprend directement les valeurs des réponses de la
figure 3.
Figure 9 :
Le graphique des réponses montre que l'effet du facteur A est important. Celui de B est faible. Par contre,
l'effet de l'intéraction entre A et B est important et justifie une analyse plus complémentaire.
On remarque que les deux segments ne sont pas parallèles entre eux ce qui confirme l'intéraction.
Le niveau 1 pour B associé au niveau 1 pour A fournit la réponse la plus élevée.
Les niveaux 1 pour les deux facteurs seront donc retenus.
6.7. Exercices
6.7.1 Exercice 1 plans d'expériences : Réglages Machine
Sujet :
Un chef datelier décide de déterminer loptimum de production dune machine. Après une discussion avec
ses opérateurs, trois paramètres sont sélectionnés :
− la pression pouvant varier entre 2 bars et 10 bars
− le débit pouvant varier entre 50 litres et 300 litres
− la température pouvant varier entre 45° et 65°
6.7. Exercices 89
Contrôle qualité et outils statistiques
1. Rechercher loptimum en considérant les deux premiers paramètres et une intéraction possible.
données pièce 1
Sujet :
Un directeur des ressources humaines décide de déterminer loptimum des caractéristiques dun poste à
pourvoir au sein de son entreprise. Après enquête, quatre paramètres sont sélectionnés :
− Le salaire bas moyen haut
− Lintérêt ennuyeux moyen intéressant
− Lhoraire 35H 39H 48H
− La responsabilité rien un peu beaucoup
1. Rechercher Les paramètres influants et déterminer leur niveau optimum
données
Résumé
Domaines d'emploi des plans d'expériences
Résumé 91
Contrôle qualité et outils statistiques
Résumé 92
glossaire
• Mesurage : Ensemble d'opérations ayant pour but de déterminer une valeur d'une grandeur
• Valeur vraie d'un mesurande : mesure que l'on obtiendrait par un mesurage parfait
• Grandeur d'influence : grandeur qui n'est pas le mesurande mais qui a un effet sur le résultat du
mesurage
• L'erreur aléatoire sur un mesurage est le : « résultat d'un mesurage moins la moyenne d'un nombre
infini de mesurages du même mesurande, effectués dans des conditions de répétabilité. » (VIM 93).
• L'erreur systématique sur un mesurage est la : « moyenne qui résulterait d'un nombre infini de
mesurages du même mesurande, effectués dans des conditions de répétabilité, moins une valeur vraie
du mesurande. » (VIM 93).
• Incertitude : paramètre, associé au résultat d'un mesurage, qui caractérise la dispersion des valeurs
qui pourraient être raisonnablement attribuées au mesurande. ( VIM 93).
La Maîtrise Statistique de Procédé (MSP) (Statistical Process Control (SPC)) est un moyen d'analyse
statistique permettant l'amélioration des procédés de production par une meilleure connaissance des résultats
et l'élimination systématique des causes d'anomalie.
glossaire 93