Académique Documents
Professionnel Documents
Culture Documents
Introduction à la métrologie
METROLOGIE : C’est le domaine des connaissances relatives au mesurage. Il
englobe tous les aspects aussi bien théoriques que pratiques quel que soit la nature de la
science et de la technologie développée.
MESURAGE : C’est l’ensemble des opérations permettant d’attribuer une valeur à la
grandeur mesurée.
GRANDEUR MESURABLE : C’est une caractéristique d’un phénomène, d’un corps
ou d’une substance, qui est susceptible d’être distinguée qualitativement par un nom (en
métrologie dimensionnelle : Distance, Angle...) et déterminé quantitativement par une
valeur (nombre exprimé dans l’unité choisie).
METHODE DE MESURE : C’est une succession logique d’opérations décrites d’une
manière succincte permettant la mise en œuvre de mesurage. On distingue entre deux
méthodes : méthode directe et méthode indirecte.
➢ Méthode directe :
• C’est le relevé d’une dimension à partir d’une référence.
• La précision et la grandeur de dimension influencent le choix de la référence.
Exemple : Appareil à trait : Mètre
Appareil à vernier : Pied à coulisse
Appareil à vis micrométrique : Micromètre
➢ Méthode indirecte :
• C’est le relevé à l’aide d’un capteur de l’écart entre une pièce à mesurer et un étalon (pièce de
référence).
• Pour ce type de mesurage on utilise le comparateur à cadran.
Lpièce = Létalon + α
avec (Lpièce : Longueur pièce, Létalon: Longueur étalon (h), α: Ecart mesuré).
MESURANDE : C’est la grandeur particulière soumise du mesurage (Exp. :
Température, Pression, Dimension…)
RESULTAT DE MESURAGE : C’est la valeur attribuée à la grandeur (à la
mesurande) obtenue par mesurage. Une expression complète doit contenir la valeur et
une information sur l’incertitude.
DIMENSION : C’est la distance la plus courte entre deux points réels ou fictifs. Exp. :
Un diamètre, un entraxe.
CONTROLE DIMENSIONNEL : C’est l’ensemble des opérations permettant de
déterminer si la valeur d’une grandeur se trouve bien entre les limites de tolérance qui
lui sont imposées.
On distingue deux méthodes de contrôle dimensionnel :
➢ Le contrôle par attribut :
Il est limité à une simple vérification de conformité (réponse par oui ou non, pas de mesurage).
On utilise des vérificateurs à tolérance pour s'assurer que les cotes des pièces exécutées sont
bien comprises entre les tolérances prévues sur le dessin.
B.I.P.M : Bureau International des Poids et Mesures, Son rôle est d’assurer la cohérence du
système d’unités au niveau de l’ensemble des pays adhérents.
BNM : Bureau National de Métrologie, Son rôle est d’assurer la cohérence du système d’unités
au niveau national.
LNM : Laboratoire National de Métrologie, Son rôle est :
o De conserver les étalons nationaux,
o De travailler à l’amélioration des étalons
Laboratoires Agréés : Leur rôle est : o D’assurer le raccordement des étalons industriels Dans
le domaine Dimensionnel, 2 laboratoires :
o L.N.E (Laboratoire National d’Essais)
o C.T.A (Centre Technique de l’Armement)
Laboratoires Habilités : Leur rôle est D’assurer le raccordement des étalons industriels.
COFRAC : Comité Français d’Accréditation : Au niveau des laboratoires (agréés ou habilités),
le COFRAC a pour mission de s’assurer que les conditions de la conformité d’une prestation
d’étalonnage ou de vérification sont respectées par le laboratoire.
trace écrite de la vérification effectuée doit être conservée dans le dossier individuel de
l’appareil de mesure.
Ajustage : Opération destinée à amener un appareil de mesure à un fonctionnement et à une
justesse convenable pour son utilisation.
Gestion des moyens de mesure : La gestion des moyens de mesure couvre l’ensemble des
actions à engager pour constituer et entretenir le parc d’instruments de mesure nécessaire à la
satisfaction des besoins de l’entreprise. Cette gestion nécessite de prendre en compte :
- l’analyse du besoin et le choix des moyens de mesure,
- la réception, la mise en service et le suivi des moyens,
- l’étalonnage ou la vérification des moyens et les décisions qui en découlent.
Remarque :
Il convient de distinguer grandeur et unité. Une grandeur représente quelque chose qui peut être
mesuré ou estimé ; une unité est un étalon de cette grandeur. Par exemple : une longueur est
une grandeur, le mètre peut-être une unité choisie pour sa mesure.
I. Incertitude de Mesurage :
C’est un paramètre, associé au résultat d’un mesurage, qui caractérise la dispersion des valeurs
qui pourraient raisonnablement être attribuées à la mesurande.
Le paramètre peut être, par exemple, un écart-type (ou un multiple de celui-ci) ou la demi
largeur d’un intervalle de niveau de confiance déterminé.
L’incertitude de mesure comprend, en général, plusieurs composantes. Certaines peuvent être
évaluées à partir de la distribution statistique des résultats de séries de mesurage et peuvent être
caractérisées par des écart-types expérimentaux. Les autres composantes, qui peuvent aussi être
caractérisées par des écart-types, sont évaluées en admettant des distributions de probabilité,
d’après l’expérience acquise ou d’après d’autres informations différents facteurs influent sur un
résultat de mesurage. Ce qui engendre des erreurs d’incertitudes. On cite à titre d’exemple les
cinq facteurs suivants : -Environnement, -Opérateur, -Pièce à mesurer, -Méthode de mesurage,
-Appareil de mesure.
Etendue de Mesure (Capacité) : ensemble des valeurs d’une grandeur à mesurer pour
lesquelles l’erreur d’un instrument de mesure est supposée maintenue entre des limites
spécifiées. Les limites supérieures et inférieures de l’étendue spécifiée sont parfois
appelées respectivement « portée maximale » et « portée minimale ».
Résolution : C’est la plus petite différence d’un dispositif afficheur qui peut être
aperçue d’une manière significative. Pour les appareils à affichage numérique, on
considère que le dernier chiffre affiché est connu à une unité prés.
Sensibilité : C’est le quotient de l’accroissement de la réponse par l’accroissement de
signal d’entrée.
Justesse (Exactitude) : Étroitesse d'accord entre le résultat d’une mesure et la valeur
attendue (CIBLE ou valeur réputée vraie). Une méthode est réputée juste quand la
moyenne X d'un grand nombre n de mesures 𝑋𝑖 est confondue avec la valeur 𝑋 du
mesurande, quelle que soit la dispersion.
1
J =X −X Avec : X=
n
Xi
Fidélité : C’est l’aptitude d’un instrument de mesure à donner des indications très
voisines lors de l’application répétée de la même mesurande dans les mêmes conditions
de mesure qui comprennent :
- Même observateur ;
- Même mode opératoire (Même instrument, même condition de mesure) ;
- Même lieu ;
- Répétition durant une constante période de temps.
C’est la composante aléatoire de l’erreur d’un instrument de mesure (paramètre de dispersion).
Elle est caractérisée par son écart type 𝜎 :
(X )
n 2
i =1
−X
=
i
n −1
Remarque :
- La définition de 𝜎 implique un grand nombre de mesures au cours desquelles il convient de
s'assurer que le mesurande n'a pas évolué et que l'ambiance est la même.
- La fidélité doit être étudiée en utilisant des étalons ou des échantillons authentiques
homogènes.
La fidélité peut être considérée à deux niveaux :
❖ Répétabilité : Ecart observé lors de mesurages successifs d’une même grandeur dans
des conditions identiques (même opérateur, même lieu, mesures effectuées
successivement dans une courte période de temps, même méthode).
❖ Reproductibilité : Ecart observé lors de mesurages successifs d’une même grandeur en
faisant varier les conditions (changement d’opérateur, de lieu, de temps, de méthode).
Principe de fonctionnement :
Un coulisseau portant un vernier (par exemple au 1/50) et un bec mobile se déplacent sur une
règle en fonction de la grandeur de la pièce à mesurer. La position de mesurage peut être
stabilisée par la vis de blocage.
Principe de lecture :
a) Lire un nombre entier de mm sur la règle juste à gauche du zéro du vernier : (11)
Pied à coulisse avec becs Pied à coulisse à cadran Pied à coulisse digitale
normaux
Applications courantes :
❖ Distance entre faces parallèles :
Jauges de profondeurs
Applications courantes :
Micromètres
Applications courantes :
Applications courantes :
Rapporteur d’angles
Principe de fonctionnement :
Une règle mobile se déplace autour d'un axe par rapport à une règle fixe solidaire de l’axe.
Comparateur à cadran
Principe de fonctionnement :
Pour un déplacement de 1 mm du palpeur lié à la crémaillère, l'aiguille liée au pignon
terminal de la chaîne cinématique fait 1 tour. Le cadran étant divisé en 100 graduations,
chaque graduation est égale à : 1 mm/100, soit 0,01 mm.
Principales utilisations :
• Mesurer l'écart e entre un étalon et une pièce à mesurer.
• Réaliser les différents réglages géométriques sur la machine.
2- Vérificateur à dimension fixe :
2.1- Pour Alésages :
Tampon lisse double
Bagues filetées
Une MMT est une machine à saisir et traiter de l’information. Un palpeur se déplace grâce à
trois glissières de directions orthogonales et vient au contact des surfaces réelles.
Lors de chaque accostage, le calculateur mémorise les coordonnées X, Y et Z du centre de la
sphère de palpage (dans le cas fréquent où le palpeur se termine par une petite sphère). Les
points palpés permettent de déterminer une image de la surface réelle.
A partir des coordonnées saisies, le logiciel de traitement des données va effectuer des
opérations mathématiques visant à rechercher les valeurs des dimensions ou des spécifications
que l’on cherche à connaître ou à contrôler. Ce traitement mathématique tend à se rapprocher
de plus en plus des exigences des normes sans toujours les respecter totalement.
CHAPITRE IV : ESTIMATION
DES INCERTITUDES
I. Introduction :
La question que tout le monde se pose face à un résultat de mesure ou d’essai est la suivante :
quelle confiance puis-je avoir dans ce résultat ?
L’incertitude a donc pour but de « chiffrer cette confiance » ; elle traduit la dispersion des
valeurs associées au mesurande. Elle doit être établie de manière raisonnable et s’exprime sous
forme d’un écart-type. Le but ultime de cette incertitude est de fixer un intervalle que l’on
aimerait le plus étroit possible et dont on espère que la valeur vraie du mesurande y soit incluse.
D'une façon générale la métrologie a pour but de définir la valeur de grandeurs physiques avec
un degré d'incertitude aussi faible que nécessaire.
Exemple : Mesure d’une pièce cotée 100 ± 0,1 avec un pied à coulisse.
Un calcul d’incertitude a donné ± 0,04 à 95% → Si la mesure est 100,08, il y a 95% de
chance que la pièce ait une dimension comprise entre 100,04 et 100,12. En fonction du risque
choisi, la pièce sera déclarée conforme avec risque ou sera rejetée.
Si l’on considère la mesure d’une grandeur réelle 𝑋, le résultat brut de cette mesure 𝑋𝑖,
la valeur fournie par l’appareillage utilisé, sera toujours entachée d’une erreur 𝑒𝑖. Pour se
convaincre de la validité de cette affirmation, il suffirait de demander à 𝑛 personnes de mesurer
de façon totalement indépendante une grandeur réelle X donnée, on constaterait alors que l’on
obtiendrait 𝑛 résultats de 𝑋𝑖 différents, ce qui signifie qu’aux moins 𝑛 – 1 personnes ont commis
une erreur en effectuant leur mesure. Les raisons de ces erreurs proviennent essentiellement de
l’imperfection des processus mis en œuvre pour réaliser les mesures.
Pour chaque mesure, on a 𝑋 = 𝑋𝑖 - 𝑒𝑖. La valeur de l’erreur étant par définition inconnue, ceci
entraîne que la valeur de la grandeur réelle 𝑋 est rigoureusement inaccessible. Par contre
l’analyse des causes de l’erreur de mesure et des résultats des différentes mesures réalisées
permet d’estimer une valeur d’étendue 2𝑈, l’incertitude de la mesure (on appelle
conventionnellement u : l’incertitude) telle que nous ayons : (𝑋𝑖 - u) ≤ 𝑋 ≤ (𝑋𝑖 + u) :
Il est donc fondamental de savoir d’où provient l’erreur pour pouvoir évaluer l’incertitude et
son étendue.
L’incertitude de mesure peut aussi être décrite par des barres d’erreurs sur un graphique.
III. Les différents types d’erreurs :
Il est important de connaître la structure des erreurs de mesure si l’on veut déterminer la valeur
de l’incertitude.
En général l’erreur est constituée de :
Erreur de mesure = Erreur grossière + Erreur aléatoire + Erreur systématique
1. L’erreur grossière :
C’est une erreur qui est due au non-respect des bonnes pratiques de laboratoire ou à une
mauvaise utilisation du matériel.
Il en résulte une valeur mesurée qui risque d’être très éloignée de la valeur de référence.
Un manipulateur compétent ne fera pas d’erreur grossière !
Alors, on peut écrire :
Erreur de mesure = Erreur grossière + Erreur aléatoire + Erreur systématique
2. L’erreur systématique :
C’est la moyenne qui résulterait d’un nombre infini de mesurages du même mesurande,
effectués dans des conditions de répétabilité, moins la valeur vraie du mesurande.
C’est une erreur qui demeure constante dans des mesurages répétées (si on effectue un nombre
de mesure, cette erreur est toujours restée la même).
Ces erreurs affectent l’exactitude (la justesse).
a. Erreurs systématiques connues :
Les erreurs systématiques connues d'une mesure sont des grandeurs pouvant être déterminées
tant du point de leur intensité que de leur signe.
Les erreurs systématiques connues peuvent être corrigées dans le résultat.
D'un point de vue statistique, la mesure corrigée (signe pris en compte) est plus proche de la
vraie valeur que la valeur non corrigée.
Lorsque la correction a été effectuée, les erreurs systématiques connues ne font plus partie de
l'indication d'incertitude de mesure.
Exemples d’erreurs systématiques connues
• Les erreurs de graduation d'échelle sont manifestement des erreurs systématiques.
• Une cale-étalon qui est plus longue de 0,7 um que la valeur nominale indiquée.
• Une mesure de longueur effectuée à la température de 25°C au lieu de la température
de référence de 20°C; cela produit une erreur systématique à la suite de la dilatation
thermique de l'objet.
• La crémaillère et la roue dentée d'un comparateur mécanique possèdent un rapport
erroné.
• Un palmer possède des touches de palpage présentant une usure.
• Une montre avance de 2 minutes. Dans ce cas, l'erreur est positive et la correction
négative.
• Le tachymètre d'une voiture présente une indication de 5 km/h trop élevée dans un
certain secteur.
b. Erreurs systématiques inconnues ou erreurs de tolérance :
• Les erreurs systématiques inconnues sont typiquement les tolérances des instruments de
mesures.
• Les erreurs systématiques inconnues sont donc transmises avec le signe ±.
• Les erreurs systématiques inconnues ne peuvent normalement pas être diminuées par
détermination de leur valeur moyenne.
3. L’erreur aléatoire :
Elle est définie comme le résultat d’un mesurage moins la moyenne d’un nombre infini de
mesurages du même mesurande (grandeur physique) effectués dans des conditions de
répétabilité (tout reste identique).
Ces erreurs sont relatives à la précision (Fidélité).
Comme on ne peut faire qu’un nombre limité (fini) de mesurages, il est seulement possible de
déterminer une estimation de l’erreur aléatoire. Cela veut dire que l’erreur aléatoire a elle-
même une incertitude associée à sa quantification.
Les calculs donnent comme valeur de l’écart type d’une distribution rectangulaire équiprobable
I
dans un intervalle de largeur 𝐼 ; = 2√3 ce qui, appliqué à notre problème d’incertitude,
I 2𝑈
donnerait : 𝑢 = = 2√3 = 2√3.
L’interprétation qui pourrait être faite de ce qui précède est la suivante :
- Dans un intervalle ] X – 𝑢, X + 𝑢[ il y aurait une probabilité 𝑝 = 0,577 (57,7 %) de trouver
le résultat de la mesure 𝑋𝑖 ;
- Dans un intervalle ] X – 2𝑢, X + 2𝑢[cette probabilité serait entendu à 𝑝 = 1 (100 %).
Récapitulatif :
Remarque :
➢ On conçoit bien qu’il n’est pas possible d’estimer l’écart-type d’une distribution à partir
d’une seule mesure.
Souvent, la distribution des valeurs obtenues Yi autour de la valeur moyenne suit la loi
statistique normale (Gaussienne).
Lorsqu’on prend la valeur moyenne de ces N mesures, les écarts à la valeur vraie se compensent;
alors on va avoir plus d’efficacité lorsque N est grand.
❖ Ecart-type de la moyenne (incertitude-type) :
Pour calculer l'incertitude-type Y , notée aussi u à partir de l'écart-type σ :
Y =
2
=
N
=
N N N
(Y − Y )
2
1 i
Avec : u = = i
N N N −1
u représente l’incertitude-type sur la détermination de la valeur vraie Y à partir de la moyenne
de N mesures.
Remarque :
➢ Pour déterminer l’incertitude, on utilise un paramètre appelé facteur d’élargissement k
en fonction d’un intervalle de confiance désiré.
➢ L’incertitude pour un niveau de confiance donné sera :
u = k Y
Les valeurs de k pour l’hypothèse d’une distribution normale sont données dans le tableau
suivant :
Récapitulatif :
L’incertitude (appelée dans ce cas « incertitude de répétabilité » ou incertitude de type A)
dépend :
➢ de l’écart-type de la série de mesures ;
➢ du nombre de mesures N indépendantes ;
➢ du facteur d’élargissement K (qui dépend du nombre de mesures réalisées et du niveau
de confiance choisi).
Remarque :
De manière générale, la répétition des mesures améliore la précision.
Quand on effectue une seule mesure, il faut estimer l'incertitude à partir de l’analyse des causes
d'erreurs et évaluer l’incertitude associée à chaque source d’erreur.
Certaines de ces erreurs aléatoires peuvent être estimées à partir de la notice du constructeur de
l'appareil de mesure. On peut par exemple prendre en compte :
- la tolérance du constructeur ;
- la précision de l’appareil.
Lorsque la mesure est obtenue par lecture sur une échelle ou un cadran, l’incertitude de la
mesure liée à la lecture est estimée à (pour un niveau de confiance de 95%) :
1
𝑌 = . 𝑔𝑟𝑎𝑑𝑢𝑎𝑡𝑖𝑜𝑛
√3
2. Détermination des incertitudes dues aux erreurs systématiques :
L’évaluation de l’erreur systématique est liée à la maîtrise de processus de mesure et à
l’expérience de l’opérateur, ces erreurs peuvent être notamment déterminer à partir :
- Documentation de constructeur de l’appareil de mesure ;
- Résultat d’étalonnage et de vérification ;
- Une qualification des instruments utilisés ;
- Une modélisation mathématique exprimant l’influence du paramètre identifié sur le résultat
de mesurage.
a. Erreur systématique due à la résolution de l’instrument de mesure :
Si on désigne q : la résolution de l’instrument de mesure,
Exemple : Pied à coulisse 2/100 : q = 0.02 mm, La résolution suit une loi uniforme centrée.
𝑞
𝑢𝑠𝑅é𝑠 =
2√3
(u ) + (u ) + (u )
Eta 2 Tem 2
2
uGlobal = rép s s + ...
Les pièces à risque seront déclarées non-conforment. On jette donc plus de pièces mais il
n’y a pas de risque d’envoyer un mauvais produit au client.
Cette méthode est avantageuse si elle est associée à une bonne maîtrise de la métrologie.
Tout investissement en métrologie (matériel, formation etc.) sera valorisé car moins de pièces
seront éliminées.
Application :
Si on mesure une pièce, cotée de 100±1 dans un dessin de définition, avec un pied à coulisse.
Un calcul d’incertitude a donné ±0,25 à 95%
1er cas : Si la mesure est 100,08, il y a 95% de chance que la pièce ait une dimension comprise
entre 99,83 et 100,33 ;
➢ La pièce sera déclarée conforme sans risque (acceptée).
2ème cas : Si la mesure est 100,92, il y a 95% de chance que la pièce ait une dimension comprise
entre 100,67 et 101,17 ;
➢ La pièce sera déclarée conforme avec risque (acceptée avec risque) selon l’ancienne
méthode ou non-conforme (refusée) selon la nouvelle méthode.
3ème cas : Si la mesure est 101,02, il y a 95% de chance que la pièce ait une dimension comprise
entre 100,77 et 101,27 ;
➢ La pièce sera déclarée non-conforme avec risque (refusée avec risque) selon
l’ancienne méthode ou non-conforme selon la nouvelle méthode.
4ème cas : Si la mesure est 101,3, il y a 95% de chance que la pièce ait une dimension comprise
entre 101,05 et 101,55 ;
➢ La pièce sera déclarée non-conforme selon l’ancienne et la nouvelle méthode.
I. Définitions et généralités :
Dimensions nominales : sont les cotes indiquées sur les dessins de définition.
Forme nominale : ce sont des surfaces géométriques simples (plans, cylindres, cônes,
etc.) qui limitent une pièce représentée par un dessin technique.
Surface réelle : l’élément réel résulte de l’usinage ou, plus généralement, du procédé
d’élaboration. L’élément réel n’est jamais connu avec exactitude, en raison de la limite
des moyens d’appréhension et, éventuellement, de la complexité géométrique des
surfaces dessinées. On en donne la meilleure image possible par la mesure, et l’on
admet, le plus souvent, que l’élément réel est l’élément mesuré.
Surface mesurée : c’est l’image de l’élément réel donnée par les moyens de mesure.
Cette reproduction se présente sous la forme d’un enregistrement, d’un fichier de points,
d’une image numérique ou optique, suivant le type de capteur utilisé. Dans tous les cas,
l’élément mesuré est défini par un nuage de points.
Tolérances : spécifier les limites de variation des écarts entre la géométrie nominale et une
représentation du réel.
➢ tolérances de battement
1 Inscrire après la cote nominale la valeur des écarts en plaçant toujours l'écart supérieur
au-dessus.
2 Les écarts sont inscrits dans la même unité que la cote nominale ; c'est-à-dire en
millimètres.
3 Ne pas mettre de signe lorsque l'écart est nul.
4 Lorsque la tolérance est répartie symétriquement par rapport à la cote nominale, ne
donner qu'un écart précédé du signe (plus ou moins).
Exemple :
Pour chaque dimension nominale, il est prévu toute une gamme de tolérances. La valeur de ces
tolérances est symbolisée par un numéro dit « qualité ». Il existe 18 qualités : 01 - 0 - 1 - 2 - ...
15 – 16 (Les valeurs les plus utilisées de 5 à 12) (Voir le tableau suivant).
➢ Position de la tolérance :
La position de ces tolérances par rapport à la dimension nominale (ou bien à la ligne d’écart
nul ou ligne « zéro ») est symbolisée par une ou deux lettres (de A à Z pour les alésages, de a
à z pour les arbres).
La figure ci-dessous schématise les différentes positions possibles pour une même tolérance.
Récapitulatif :
REMARQUES :
➢ Les tolérances JS ou js donnent des écarts égaux en valeur absolue (ES = EI = es = ei).
Exemple :
❖ Ajustement :
Un ajustement est constitué par l’assemblage de deux pièces de même dimension nominale. Il
est désigné par cette dimension nominale suivie des symboles correspondant à chaque pièce,
en commencent par l’alésage.
Exemple :
20 H7 / g6 ; 20 H7 / p6
Ajustements usuels :
1. Généralités :
Les tolérances dimensionnelles usuelles (ajustements …) ne suffisent pas pour définir avec
exactitude la forme géométrique d’un objet. Les tolérances géométriques permettent de corriger
ces insuffisances et précisent les variations permises.
Les tolérances géométriques limitent l’écart de l’élément réel (non idéal) par rapport à :
- Sa forme
- Son orientation
- Sa position théoriquement exacte sans tenir compte de la dimension de l’élément.
Principales normes GPS (Geometrical Product Specification) utilisées : NF ISO 1101, NF E
04-554 (ISO 5459), E 04-555 (ISO 2692), E 04-561 (ISO 8015).
La forme choisie comme référence (ligne, surface, point), doit être identifiée par une lettre
majuscule inscrite dans un cadre relié à un triangle, noirci OU non (voir figure ci-dessous :1 et
3).
b) Éléments restreints :
Si la référence ne concerne qu'une partie de la forme choisie (élément restreint), cette partie
doit être représentée par un trait mixte fort et les cotes utiles indiquées (voir figure ci-dessous :
4).
Pour un élément de référence, et pour un élément à tolérancer, il faut parfois indiquer ou ajouter
certaines cotes utiles (dimensions de référence) pour définir une forme, une position, un angle
ou une orientation. Ces cotes ne doivent pas être tolérancées et doivent être encadrées pour les
différencier de la cotation normale.
a) Cas général :
La forme à coter est repérée par une flèche reliée à un cadre rectangulaire appelé cadre de
tolérance. Dans ce cadre, et dans des cases différentes, sont inscrits dans l'ordre : le symbole du
Si un ordre de priorité doit être respecté au moment de la vérification, les lettres sont inscrites
dans des cases séparées.
Une même forme peut parfois être tolérancée sur une partie restreinte ou encore comporter
deux tolérances différentes. Les tolérances restrictives permettent la cotation de ces cas.
Si une même forme reçoit plusieurs tolérances de nature différentes en même temps,
l'inscription peut être effectuée comme l'indique la figure ci-dessous :
6. Tolérances de battement
A. Battement circulaire :
Plusieurs mesures sont nécessaires pour contrôler toute la surface spécifiée et la tolérance doit
être respectée pour chaque position de mesure. La variation est mesurée dans la direction
indiquée par la flèche. Au cours du mesurage, pendant une rotation complète autour de l'axe de
référence, il n'y a pas déplacement de l'instrument de mesure ni déplacement axial de la pièce.
Une erreur de battement simple peut résulter par exemple de défauts de circularité, planéité,
cylindricité, perpendicularité (pris séparément ou en combinaison).
B. Battement total :
Au cours du mesurage, l'instrument de mesure se déplace le long d'une ligne fixe spécifiée
pendant que la pièce effectue une série de rotations autour de l'axe de référence. Les erreurs de
battement total résultent, séparément ou en combinaison, de tous les défauts géométriques
précédents.
Un défaut prévu coûte 100 fois moins cher qu’un défaut constaté.
➢ Faire la qualité du premier coup
- Maîtriser les procédés utilisés
➢ Obtenir la qualité au départ de la fabrication
- Maîtriser le processus tout au long de la fabrication
II. Qu’est-ce que la MSP - Maîtrise statistique des procédés- (SPC en
anglais - Statistical Process Control-) ?
• La MSP est un élément d’assurance qualité
• Son objectif est de maîtriser un processus mesurable par suivi graphique temporel basé sur
des fondements statistiques
• Inventé par Walter Shewhart
• Distinction entre :
- Variabilité liée à des causes communes (aléatoire)
- Variabilité liée à des causes spécifiques (assignable)
• Une méthode de surveillance d’un processus afin d’identifier des causes spécifiques de
variation et signaler le besoin de prendre des actions correctives, quand c’est approprié.
• La MSP repose sur des cartes de contrôle
Maitrise : Stabiliser les variations,
III. Stabilité :
Stabilité d’un processus : l’aptitude d’un processus à maintenir dans le temps, un même niveau
de performance par rapport à des limites fixées par le processus même (limites naturelles).
Processus stable = processus sous contrôle → processus dépourvu des causes spéciales
(présence seulement des causes aléatoires).
IV. Variabilité :
- Tous les phénomènes que nous pouvons observer présentent un certain degré de variabilité.
- Deux produits ne sont jamais rigoureusement identiques car le processus comporte plusieurs
sources de variabilité.
➢ Chaque processus de fabrication possède toujours des sources de variabilité est soumis
à un ensemble de causes de dispersions.
2. Dispersion :
C’est l’intervalle de variation d’une caractéristique ou d’un procédé.
Pour donner une idée sur la dispersion, on va faire appel à l’écart type et l’étendue.
L’écart type est le paramètre de dispersion le plus sensible et le plus efficace, car il tient compte
de la variation de l’ensemble des valeurs par rapport à la moyenne. L’étendue ne tient compte
que des valeurs extrêmes, ce qui la rend moins sensible et par conséquent moins efficace.
L’étendue reste un bon estimateur de la dispersion, surtout lorsque la taille de l’échantillon est
faible (n < 7), ce qui explique son utilisation fréquente dans les cartes de contrôle par mesures.
Causes de Dispersions – les 5M
Ces sources peuvent généralement être décomposées en cinq catégories désignés par le « 5M ».
On désigne également l’ensemble des sources de dispersion en deux catégories bien distinctes :
Les causes communes (aléatoires, naturelles) et les cause spéciales (anormales, accidentelles).
Les causes communes : ce sont des causes liées à des phénomènes aléatoires qui
présent de nombreuses sources de variation attributaires au hasard et sont toujours
présentes à des degrés divers dans différents processus. Ces types de causes sont
nombreuses, permanentes et ayant des conséquences statistiquement prévisibles.
L’ensemble des causes communes forme la variabilité intrinsèque du processus. Le rôle de la
MSP est de ne laisser subsister que les causes communes (d’où la provenance l’expression
« sous contrôle » : causes principalement liées à la machine/installation/équipement et dans une
moindre mesure aux autres 4M).
Exemples :
Stabilité du courant et tension électrique, vibration, variabilité de la température, jeu dans la
chaine cinématique ...
Les causes spéciales : ce sont les causes de dispersion identifiables, souvent irrégulières
et instables, peu nombreuses et par conséquent difficiles à prévoir. L’apparition des
causes spéciales nécessite des interventions (contrairement aux causes communes) sur
le processus vu leurs impacts importants sur la variabilité de celui-ci. Les variations
globales et résultantes sur le procédé de fabrication sont liées aux 5M.
Exemples :
Changement d’outil, arrêt brusque d’un système de refroidissement, déréglage d’un outil, usure
d’un outil….
Note :
Lorsqu’on analyse les causes spéciales qui interviennent sur le processus, on s’aperçoit qu’on
peut classer les causes spéciales en deux catégories :
- Celles qui agissent sur la position de la valeur surveillée par rapport à la cible (déréglage d’un
outil par exemple).
- Celles qui agissent sur la dispersion et donc sur la capabilité (défaut de lubrification par
exemple).
Alors la relation entre la dispersion instantanée et globale est illustrée dans la figure ci-
dessous :
➢ La MSP consiste à ce que la variabilité du procédé doit être la plus faible possible.
➢ Pour cela il faut contrôler le procédé (–Définir – Mesurer – Comparer – Evaluer –
Corriger – Monitorer les résultats).
V. Capabilités Machines et Procédés :
1. Introduction :
La capabilité est la mesure traduisant le rapport entre la performance réelle d'une machine (ou
procédé) et la performance cible. Une capabilité s'exprime par un chiffre. Elle permet de
mesurer l’aptitude d'un procédé/machine à réaliser des pièces conforme aux spécifications
imposées par le cahier des charges. Le fait d'utiliser un chiffre pour caractériser la capabilité est
fondamental. Un chiffre ne se discute pas, il n'est pas sujet à interprétation.
L’étude de capabilité des processus est une technique essentielle dans l’analyse des données.
On peut l’utiliser pour tous les types de données obtenues à partir d’un processus de production.
Toutefois, l’étude de capabilité du processus est d’abord une technique de recherche, et à ce
titre elle est particulièrement importante dans tous les domaines de l’ingénierie.
2. Définitions :
A. Capabilité machine :
La capabilité de la machine se calcule à partir de relevés effectués dans un laps de temps court.
Ces relevés ne tiendront compte qua de la dispersion de la machine, excluant les autres facteurs
de production (matière, main-d’oeuvre,...).
B. Capabilité d’un processus
Ce terme se rapporte au comportement normal d’un processus qui est dans un état de contrôle
statistique ; c’est une série d’effets produits quand le processus n’est pas affecté par des causes
extérieures. Dans une fabrication, c’est son aptitude à produire des objets semblables. Il faut
que le contrôle statistique soit maintenu pendant une assez longue période de temps dans des
conditions données. La capabilité du processus peut s’exprimer en pourcentage de défectueux
ou avec une distribution.
C. Etude de capabilité de processus
Dans l’exemple ci-dessous, Cp>1.33 Mais le procédé (m) est décalé par rapport à la cible (T)
Cpk = ( 1 − k )Cp
Récapitulatif :
La machine sera capable si Cmk > 1.33
Le procédé sera capable si Cpk > 1.33
La capabilité machine apparaît comme une limite de la capabilité procédé, c’est-à-dire que Cpk
tend vers Cmk quand on maitrise les 4M autre que la machine (Main d’œuvre, Méthode, Milieu,
Matière).
• Elles ont des limites au-dessous et en dessus la ligne centrale à ± 3 écarts type (en général)
1. Cartes de contrôle courantes :
• Données Variables (mesurables de façon continue)
– X-bar et R-charts
– X-bar et s-charts
– Carte de données individuelles (X-charts)
• Données d’attribut (non mesurables, contrôle visuel)
– Pour les “défecteux”, les produits “non-conformes” (pchart, np-chart)
– Pour les “défauts”, les “non-conformités” (c-chart, u-chart)
• Préparer
– Choisir la mesure
– Déterminer comment collecter les données, l’échantillonage, la taille, la fréquence Création
de cartes de contrôle
– Créer une carte de contrôle initiale
• Collecter les données
– Enregistrer les données
– Effectuer les calculs appropriés (moyenne, écart type…)
– Enregistrer les données dans la carte
• Objectif des limites : Nous avertir d’un déréglage du processus, c’est-à-dire qu’une cause
assignable a modifié le centrage (moyenne) ou la dispersion instantanée (étendue ou écart-type).
• Principe des limites : Délimiter le domaine de variation de la moyenne et de l’étendue (écart-
type) lorsque le processus est stable. Une sortie de ce domaine nous signifie un déréglage.
N.B :
1. L’information de déréglage n’est pas fiable à 100%.
2. Les limites sont calculées pour un niveau de confiance de : 99.73 % : limites de contrôle
95.44 % : limtes de surveillance.
3. « Il y a 99.73 % de chances pour que la moyenne (l’écart-type instantané) de la Loi Normale
ait été modifiée si celle-ci sort des limites de contrôle ».
4. Cette probabilité est réduite à 95.44 % dans le cas des limites de surveillance.
Exemple 1 :
Exemple 2 :
Soit l’usinage du support d’axe de l’appareil à sculpter, réalisé sur un tour à commande
numérique.
Pendant l’usinage, l’opérateur mesure par échantillonnage (5 pièces toutes les 60 min.), la
dimension réalisée Ø 32f8, afin d’établir les limites provisoires de la carte de contrôle de la
moyenne et de l’étendue.
20 échantillons de support d’axe sont prélevés. L’origine de la mesure a été prise à 31,900.
Les valeurs lues sont exprimées en microns. Les valeurs reportées (x) dans le tableau sont
égales à : x = valeur lue – 31,900.
Lors de cette phase, le processus est piloté en observant les cartes de contrôle. Pour une
efficacité maximale des cartes de contrôle, il est indispensable que les décisions d'actions sur le
processus soient dictées par les cartes. Le pilotage par cartes de contrôle doit se substituer et
non s'additionner aux méthodes empiriques de pilotage.
Cette remarque préalable peut sembler anodine, elle est pourtant fondamentale. De très
nombreuses applications de cartes de contrôle ont échoué faute d'avoir mis en pratique cette
remarque.
La phase de pilotage consiste donc à observer les cartes, les interpréter afin de détecter
l'apparition de causes spéciales et de réagir avant de générer des produits hors spécification.
Les interprétations des cartes de contrôle sont relativement simples, il suffit de connaître
quelques situations de base. L'interprétation de la carte des étendues est différente de la carte
des moyennes. L'une surveille le réglage du processus, l'autre surveille la dispersion du
processus.
Lorsqu’on analyse des cartes de contrôle, il faut toujours commencer par la carte de surveillance
du paramètre de dispersion. En effet, si la dispersion du processus augmente, il faut arrêter tout
de suite la machine, car la capabilité court terme est en train de chuter. Par contre, une variation
sur la carte des moyennes se résoudra souvent par un réglage.