Vous êtes sur la page 1sur 31

Chapitre 3 : Les outils de la métrologie

I. Définition des besoins de mesure


1. Pourquoi définir son besoin de mesure ?
Le domaine de la métrologie n’est pas plus original que les autres domaines scientifiques et
techniques… il est nécessaire d’identifier les exigences à satisfaire et de définir ses besoins avant
d’agir. Au-delà du « besoin de mesure », se cache la nécessité de disposer de résultats de mesure
fiables qui serviront de support à une prise de décision, par exemple : accepter ou refuser un produit,
corriger un processus de production, donner l’alerte vis à vis de risques ou encore à prescrire des
traitements.

Figure 1 : les questions à se poser

Analyser convenablement le besoin en amont permettra donc d’apporter une réponse


adaptée.

L’analyse d’un besoin doit être traduit en incertitude cible. Ce travail permettra d’identifier
le processus de mesure le mieux adapté et ensuite de choisir les ressources appropriées.

S’il y a des contraintes ou spécificités, elles sont également à prendre en compte. Elles
peuvent être techniques bien sûr, mais souvent de nature budgétaire ou liées à des
cadences…
2. Comment identifier son besoin de mesure ?
On entend par « besoin de mesure », toute quantification d’une grandeur ou d’une caractéristique
liée à un produit ou à une prestation.

On appelle ce besoin, l’exigence ou la spécification métrologique.


Concrètement, identifier son « besoin de mesure » consiste à établir l’inventaire de toutes les
caractéristiques qui font l’objet d’une exigence spécifiée dans le cahier des charges techniques du
produit. Elles peuvent être de nature mécanique, physique, électrique, chimique…

Figure 2 : exemple de cahier des charge

Les spécifications peuvent également être issues de textes normatifs ou réglementaires, c’est
généralement le cas pour les laboratoires d’essais et d’analyse.

Figure 3 : exemple de norme dans le domaine de l’analyse microbiologique

Page 2 sur 31
Une spécification est obligatoirement composée de deux paramètres indispensables : la valeur
nominale et la tolérance.

Figure 4 : exemple de spécification

La valeur nominale correspond à l’objectif souhaité pour la caractéristique et la tolérance


correspond à la variation maximale acceptée de la caractéristique par rapport à la valeur nominale.

La tolérance ou encore intervalle de tolérance correspond à une étendue, elle n’est pas affectée
d’un signe. Elle définit des limites acceptables, par exemple : l’épaisseur d’une tôle qui doit être
de (20,00 ± 0,05) mm, c’est à dire comprise entre 19,95 mm et 20,05 mm. Dans ce cas, la tolérance
est de 0,1 mm.

Figure 5 : représentation de l’exemple de spécification

Les spécifications sont souvent exprimées avec deux limites mais parfois, la limite n’a de sens que
d’un seul côté. C’est par exemple le cas pour le taux maximum de matière sèche d’une eau de rejet
ou une couche de peinture minimum. Attention, dans certains textes, il peut y avoir des
spécifications incomplètes… Par exemple : incubation à (37±1)°C pendant une nuit… Dans ce cas,
il est nécessaire de compléter la spécification en étudiant l’impact de la durée d’incubation sur le
produit.

3. Objectif métrologique
La spécification étant identifiée, il reste à la convertir en objectif métrologique, donc en
incertitude. Rappelons que l’incertitude associée à un résultat de mesure est le paramètre
qui caractérise le résultat, il renseigne sur la confiance à accorder au résultat de mesure.

Pour cela, il faut définir ce que l’on appelle « l’incertitude cible », définie comme une limite
maximum acceptable pour l’incertitude élargie associée au résultat de mesure.

Page 3 sur 31
Figure 6 : spécification et incertitude cible
La capabilité est généralement définie comme étant le rapport entre la tolérance associée à
la spécification et l’incertitude associée au résultat.

Ce rapport, dans un sens ou dans l’autre et parfois appelé rapport de confiance ou coefficient
d’aptitude du processus de mesure.
Le dénominateur est parfois multiplié par deux pour avoir un rapport d’intervalles
(intervalle d’incertitude/intervalle de tolérance).
En général, la capabilité est comprise entre trois et dix. Elle est à définir dans l’entreprise
en fonction de la criticité de la spécification. On conçoit aisément qu’elle soit différente s’il
s’agit d’un assemblage mécanique, de la surveillance des conditions d’environnement ou
encore d’une exigence de santé.

L’image de marque d’un produit ou encore les contraintes financières peuvent avoir un impact
sur le choix de la capabilité.

Reprenons notre exemple, avec une capabilité de 5, l’incertitude cible du processus de mesure de
l’épaisseur de la tôle serait de 0,02 mm.

Figure 7 : exemple d’incertitude cible définie avec une capabilité de 5

Page 4 sur 31
La capabilité doit être adaptée au besoin et définie en amont, avant la conception et la réalisation
du processus de mesure.

4. Conception du processus de mesure


Le processus de mesure sera donc à concevoir avec les différentes ressources qui permettront
d’aboutir à une incertitude de mesure effective inférieure à l’incertitude cible.

5. Conclusion
Il faut donc retenir que l’identification et l’analyse des besoins constitue l’opération initiale et
primordiale pour concevoir des processus de mesure en adéquation aux exigences métrologiques.
C’est le point de départ pour que l’ensemble des ressources mises en œuvre soient appropriés.

Figure 8 : conception du processus de mesure à partir de l’analyse du besoin

II. Organiser la fonction métrologie dans son


entreprise
1. Définition et périmètre de la ‘fonction métrologie’
La « fonction métrologie » est définie comme étant la fonction qui a la responsabilité
administrative et technique de définir et de mettre en œuvre le système de management de
la mesure de l’entreprise. C’est en tout cas la définition proposée dans la norme NF EN ISO

Page 5 sur 31
10012 qui constitue le document de référence concernant les processus et les équipements
de mesure en cohérence avec la norme ISO 9001.

Concrètement, le système de management de la mesure est un ensemble d’éléments corrélés


ou interactifs nécessaires pour effectuer une confirmation métrologique et un contrôle
continu des processus de mesure.

Le but, rappelons-le, est de garantir que les exigences métrologiques spécifiées sont
satisfaites, que ce soit en production ou dans un laboratoire.

L’implication de la direction de l’entreprise apparaît donc être la condition première pour


atteindre cet objectif.

Notons que des opérations de surveillance, d’analyse et d’amélioration sont à mettre en


œuvre.
Elles sont basées sur la gestion d’indicateurs et d’audits.

Au-delà de ces points, qui ne sont pas spécifiques à la métrologie, je vous propose de faire
le tour des 3 types de ressources clés de la fonction métrologie, à savoir : les ressources
humaines, techniques et documentaires.

Figure 1 : système de management de la mesure

Page 6 sur 31
2. Ressources humaines
Concernant les ressources humaines, il s’agit essentiellement de compétences et de
responsabilités.

Les responsabilités de l’ensemble du personnel affecté au système de management de la


mesure sont donc à définir et à documenter. Ces responsabilités sont de toute nature : choix
des équipements, choix des prestataires, réalisation des confirmations métrologiques,
validation des résultats, formation des opérateurs, etc.

L’aptitude de chacun à remplir les tâches attribuées est à démontrer.

Les activités de formation sont à maintenir. Pour chaque formation, l’efficacité est à évaluer
et à documenter.

Lorsqu’une compétence particulière est requise, elle est à spécifier.

Enfin, pour du personnel en cours de formation, des dispositions de surveillance sont à


envisager.

Pour terminer sur ce volet, chacun doit être informé de l’étendue de ses responsabilités, de
ses obligations mais également de l’impact de ses activités sur l’efficacité du système de
management de la mesure et sur la qualité du produit.

Diarra Keita Cissé Kanté Diallo Bah Touré Koné

Responsable de la fonction métrologie x


Analyse des besoins x x x
Choix des équipements x x x x x x
Gestion des équipements x
Gestion des sous-traitants x
Référant mesures mécaniques x
Référant mesures thermiques x
Référant mesures optiques x
Référant mesures chimiques
Opérateur mesures mécaniques x x x x f
Opérateur mesures thermiques x x x x f
Opérateur mesures optiques x x x x f
Opérateur mesures chimiques x x x x f
Validation des résultats x x x
Validation des procédures x
Formation, maintien des compétences x
...
...

Figure 2 : exemple de matrice de compétences

Page 7 sur 31
3. Ressources techniques
Les ressources techniques regroupent bien sur tous les équipements de mesure impliqués dans les
processus de mesure, mais aussi l’environnement de mesure et les prestataires en métrologie qui
fournissent une prestation technique.

Concernant les équipements de mesure, ceux-ci doivent être identifiés, dans un état valide
d’étalonnage et confirmés pour l’utilisation projetée.

La confirmation métrologique des équipements, étape clé, correspond à l’ensemble des opérations
nécessaires pour assurer que les équipements répondent aux exigences métrologiques associées à
l’utilisation prévue.

Elle est basée sur les résultats d’étalonnage, peut inclure une vérification et éventuellement un
ajustage.

À chaque étape, elle se termine par une déclaration d’aptitude documentée.

Si une limitation ou une exigence spéciale existe, par exemple la position d’un capteur, la
confirmation métrologique sera établie avec cette condition.

Les intervalles de confirmation métrologique seront définis, revus et ajustés, si besoin.

N’oublions pas que, les exigences relatives aux prestations et aux prestataires seront définies et
documentées. Les prestataires seront évalués et sélectionnés sur leur aptitude à répondre aux
exigences de l’entreprise. Notons que les raccordements métrologiques peuvent être internes, cela
ne change rien, les exigences applicables restent les mêmes.

Dernier point, n’oublions pas que les conditions d’environnement requises sont à définir, à
surveiller et à enregistrer.

Page 8 sur 31
Figure 3 : principales exigences liées aux équipements de mesure, incluant prestataires et
environnement

4. Ressources documentaires
Les ressources documentaires décrivent les méthodes, apportent les éléments de preuve et
rendent valides les résultats de mesure.

Il y a d’abord les procédures, ce sont des documents qui précisent les méthodes, les modes
opératoires. Elles sont à documenter et à valider. Les mises à jour et la gestion des modifications
sont à prévoir.

Figure 4 : exemple de procédure

Page 9 sur 31
Viennent ensuite les enregistrements, par exemple les résultats de confirmation, les historiques de
formations ou encore les résultats de mesure. Ce sont eux qui apportent les preuves et les résultats.
L’identification, le stockage, la protection, la récupération, la durée de conservation et l’élimination
des enregistrements sont précisés dans les procédures.

Figure 5 : exemple d’enregistrement

Le cas échéant, on n’oubliera pas les documents d’origine externe applicables, textes normatifs
ou réglementaires par exemple, ils ne sont pas à produire mais à gérer. Dernier point, lorsque des
logiciels sont utilisés pour produire un résultat de mesure, ils sont à identifier, documenter,
valider et maitriser. 5. Conclusion Si la « fonction métrologie » est organisée de cette façon, alors
l’ensemble des exigences métrologiques spécifiées seront satisfaites et la qualité des produits sera
assurée.

III. LA GESTION DE PARC D’INSTRUMENT DE


MESURE
Les instruments de mesure constituent un des "5M" dont la maîtrise est essentielle pour la mise en
œuvre efficiente d’un processus de mesure. Il faut donc les maîtriser pour assurer la qualité des
résultats de mesure. C’est la raison pour laquelle nous avons tout intérêt à mettre en place une
gestion de parc d’instruments. Sept étapes sont nécessaires pour bien gérer un parc d’instruments
de mesure.

Étape 1
La première étape est la constitution du parc et le choix des instruments. Dans cette étape la
fonction "gestion de parc" est confrontée à l’acquisition des instruments donc à leur choix. Pour
plus d’efficacité, le gestionnaire du parc d’instruments doit être impliqué dans ce choix qui est fait
généralement en analysant le besoin, ce qui peut remettre en cause la méthode de mesure choisie,
en utilisant la connaissance des moyens existants dans les services et en impliquant les équipes de
maintenance et de métrologie. Au préalable, il est indispensable d’établir les caractéristiques des

Page 10 sur 31
instruments de mesure à acquérir, celles-ci seront toujours déduites du besoin de mesure final. La
figure 1 montre comment un résultat de mesure dépend toujours de l’instrument utilisé et doit être
en adéquation avec ce qu’il doit mesurer ou vérifier. On dit qu’il est capable de faire les mesures.

Figure 1. De la tolérance sur le produit à l’EMT sur l’instrument

Étape 2

La deuxième étape consiste à utiliser un logiciel pour la gestion de parc lorsque le nombre
d’instruments devient important. La mise en œuvre d’un logiciel de parc peut faciliter la maîtrise
du parc d’instruments. Il oblige à structurer le parc (par type d’instrument, par banc de mesure ou
par localisation), il permet d’accéder aisément à toutes les données du fichier, il facilite la mise à
jour des documents, il évite que chacun puisse intervenir sur le contenu des données, il permet de
ne pas oublier d’instruments dans le suivi périodique et de retrouver facilement l’historique de
chaque instrument de mesure. Lors du choix du fournisseur du logiciel, il convient d’exiger une
formation ainsi qu’un service après-vente. La possibilité d’échange de données avec d’autres
logiciels laisse ouverte l’opportunité de changer de fournisseur de logiciel si cela s’avère
nécessaire. Il existe de nombreux logiciels dont les principaux sont Split, QS-Métro, Hasting,
Optimu, Dimelco, Deca, Gessica, etc.

Étape 3
La troisième étape consiste en l’inscription à l’inventaire et à la création de la fiche de vie. C’est
la réception de l’équipement qui déclenche la mise à l’inventaire. Celui-ci constitue une base de
données liées aux instruments de mesure, il permet d’éviter le dédoublement des équipements, il
est obligatoire pour assurer la traçabilité des mesures, il est également nécessaire pour la gestion
des amortissements et des investissements et enfin, Il est l’ensemble des fiches de vie (figure 2).
Les instruments concernés par la gestion de parc sont les instruments critiques. Ce sont ceux qui
peuvent avoir une influence sur la qualité du produit, sur la sécurité des personnes, et sur
l’environnement.

Page 11 sur 31
Figure 2. l’inventaire (ensemble des fiches de vie) constitue le point
de départ d’une gestion de parc d’instruments maîtrisée

Note : si cette étape impliquait d'identifier ou de graver l'instrument de mesure, elle devrait être
effectuée après l'étape 5 car un fournisseur ne reprendrait alors pas l'instrument en cas de non-
conformité.

Étape 4
La quatrième étape est l’utilisation de la fiche de vie. Après sa création, la fiche de vie est
utilisée pour recueillir toutes les opérations effectuées sur l’instrument. C’est en quelque sorte
la "carte d’identité" et le "carnet de santé" de chaque instrument de mesure. Elle contribue à
assurer l’aptitude à l’emploi de l’instrument. Les rubriques de la fiche de vie, selon le fascicule
de documentation AFNOR X 07-018 sont :
■ identification de l’équipement de mesure ;
■ état du matériel à la réception (neuf, modifié, rénové, etc.) ;
■ affectation de l’équipement de mesure (localisation) ;
■ références aux procédures de maintenance, si elles existent ;
■ références aux procédures d’étalonnage ou de vérification ;
■ références des moyens d’étalonnage ou de vérification utilisés (sauf si cela est
mentionné dans un autre document) ;
■ documents de référence (norme, spécifications internes, erreurs maximales tolérées,
etc.) ;
■ date de l’intervention
■ nature de l’intervention (réception, mis en service, étalonnage, vérification,
maintenance, etc.) ;
■ résultats et/ou référence du document d’étalonnage ou de vérification ; observations
si nécessaire ;
■ intervalle entre deux étalonnages ou deux vérifications (exprimé soit en unités de
temps, soit en fonction du nombre d’utilisations) ou date limite d’utilisation ;
Page 12 sur 31
■ identification de l’intervenant (interne ou externe à l’entreprise) ;
■ identification du responsable de la confirmation métrologique.

Un exemple de fiche de vie est donnée par la figure 3.

Figure 3. Exemple de fiche de vie

Étape 5
La cinquième étape est l’étalonnage ou la vérification initiale des instruments de mesure. Les
étalonnages ou les vérifications initiaux sont effectués après la réception et la mise en inventaire
des instruments de mesure. Ils donnent une première information sur la qualité métrologique des
instruments et permettent de confirmer le choix. Ils constituent le point départ de l’historique de
chaque instrument. Ils permettent de vérifier la capabilité et la conformité des instruments aux
spécifications constructeur et déclenchent la mise en service de l’instrument. La figure 4 montre
un certificat d’étalonnage et un constat de vérification.

Page 13 sur 31
Figure 4. Certificat d’étalonnage et constat de vérification

Étape 6
La sixième étape est la mise en place du suivi des instruments. Des méthodes de détermination
des intervalles entre deux étalonnages ou vérifications, appelés intervalles de confirmation
métrologiques, doivent être définies et mises en œuvre pour une bonne maîtrise de la
dérive. On peut utiliser, par exemple :
■ une méthode d’ajustement automatique ;
■ des cartes de contrôle ;
■ le temps d’utilisation ;
■ le contrôle à chaque utilisation ;
■ la norme FD X 07-014 ou la méthode opperet.

La figure 5 illustre une carte de contrôle.

Page 14 sur 31
Figure 5. Carte de contrôle

Étape 7
La septième étape consiste en la réforme et le déclassement des instruments. La gestion de parc
prend aussi en charge le déclassement, la mise au rebut, le retrait de l’inventaire de tout équipement
de mesure obsolète ou inutile. Le gestionnaire du parc applique une procédure de réforme du
matériel. Celle-ci doit indiquer a minima qui décide de la mise en réforme et selon quelle démarche
on procède au déclassement ou à la réforme des instruments. Cette procédure doit tenir compte de
tous les aspects qui permettent d’optimiser la gestion des instruments de mesure, qu’ils soient
financiers ou environnementaux, qu’ils concernent la qualité des mesures ou la sécurité.

Page 15 sur 31
En conclusion, la gestion de parc de mesure est une composante importante de la fonction
métrologie dans une entreprise. Elle se construit pour être adaptée aux besoins de l’entreprise et
proche des préoccupations des services de production, principaux utilisateurs d’instruments de
mesure. Elle gagnerait à être perçue, dans l’intérêt de la société, comme un poste productif et non
un poste de coût.

IV. Choisir entre étalonnage et vérification


L’étalonnage et la vérification sont des processus de raccordement métrologique des
instruments de mesure. Par principe on compare les valeurs indiquées d’un instrument de
mesure aux valeurs connues correspondantes d'une grandeur.

La différence entre étalonnage et vérification intervient dans le traitement des résultats de


cette comparaison :
■■l’étalonnage d’un instrument, apporte de la "connaissance" sans présumer d’une
quelconque conformité. On donne les valeurs de l’étalon, de l’instrument, ainsi que les écarts et
les incertitudes associées, sans conclure à une quelconque conformité ;

Exemple :
Prenons l’exemple de la mesure de température avec 2 thermomètres, à savoir :
 un premier thermomètre, appelé thermomètre étalon, qui fournit une moyenne de mesures
à 37°C. Ce résultat présente une incertitude de …. °C conformément au Certificat
d’Etalonnage (CE).
 un second thermomètre de travail, appelé « indicateur » (fig. ci-dessous) donne une
température moyenne de 37.2°C. Le thermomètre de travail présente donc une erreur de
justesse, c’est-à-dire une erreur de l’indicateur de 0.2°C. L’incertitude de ce thermomètre
est évidemment supérieure à l’incertitude du thermomètre de référence et doit être

Page 16 sur 31
correctement estimée. On suppose ici que l’incertitude élargie de ce thermomètre de travail
est de 0.05°C.

Remarque : En utilisation, il faudra appliquer une correction de -0.2°C au thermomètre de travail


pour corriger le biais de ce thermomètre s’il est utilisé à 37°C. En effet, rappelons un principe de
base en métrologie : « Celui qui commet une erreur, qui le sait et qui ne la corrige pas en commet
une seconde ».

Mais la question que l’on peut se poser, c’est « que se passe-t-il si on utilise alors le thermomètre
de travail à une température autre que 37°C ? ». La réponse à cette question correspond au concept
d’étalonnage.

■■la vérification d’un instrument, apporte de la "confiance". On donne le résultat de la


comparaison des écarts (instrument - étalon) à une EMT (erreur maximale tolérée).

Exemple :
Soit une étuve dont la température attendue doit être de 37 °C ± 0,5 °C (EMT de 0.5°C). La question
posée est donc : « Est-elle conforme ou non conforme » ?
La température de l'enceinte est alors vérifiée avec un thermomètre préalablement étalonné, ayant
une incertitude de 0,05 °C. On pourrait introduire la capabilité de l’instrument par rapport à la
tolérance de l’enceinte. La valeur lue sur le thermomètre est : 37,2 °C.

Explication :
Il s’agit de s’assurer de la conformité des résultats d’étalonnage au regard de son besoin
usuellement exprimé sous le nom d’erreur maximale tolérée (EMT).

Page 17 sur 31
Pour s’assurer de la conformité à l’EMT, il convient de vérifier que la somme de la valeur
absolue de l’erreur de mesure et de l’incertitude d’étalonnage est inférieure à l’erreur
maximale tolérée.

Remarque : L’incertitude de mesure doit dégrader l’incertitude d’étalonnage pour prendre en


compte la dérive et les conditions d’utilisation qui peuvent être différentes des conditions
d’étalonnage (profondeur d’immersion d’un thermomètre, etc.)

Ce qu’il faut retenir sur la différence entre étalonnage et vérification


Un étalonnage permet d’estimer l'erreur de l'instrument, et en cas de défaut de justesse, de la
compenser en appliquant une correction. La vérification permet de confirmer que l'erreur de
mesure reste plus petite qu'une erreur appelée erreur maximale tolérée. L'erreur maximale
tolérée est définie par l'utilisateur comme étant la plus grande erreur qu'il est prêt à accepter.
Certains font la distinction entre l'étalonnage qui est du domaine de la connaissance (on connaît
certaines caractéristiques de l'instrument) et la vérification qui est du domaine de la confiance
(on sait que l'instrument à une erreur plus faible qu'une valeur définie a priori). Un étalonnage
conduit à l'émission d'un certificat d'étalonnage, et la vérification à l'émission d'un constat de
vérification. L'étalonnage ne donne pas lieu à une décision de conformité, seule la vérification
permet un jugement, une décision.

Remarque : une vérification nécessite un étalonnage préalable des moyens de mesure.

1. Définition de "erreur maximale tolérée" extraite du VIM


Valeur extrême de l'erreur de mesure, par rapport à une valeur de référence connue, qui est tolérée
par les spécifications ou règlements pour un mesurage, un instrument de mesure ou un système de
mesure donné.

NOTE 1 : les termes "erreurs maximales tolérées" ou "limites d'erreur" sont généralement utilisées
lorsqu'il y a deux valeurs extrêmes.

NOTE 2 : il convient de ne pas utiliser le terme "tolérance" pour désigner l'erreur maximale tolérée.

Page 18 sur 31
Figure 1 : processus de raccordement métrologique

Un instrument uniquement "étalonné" ne présume pas de sa conformité aux EMT


(erreurs maximales tolérées).

L’étalonnage permet de déterminer les corrections à effectuer et l’incertitude de mesure associée


à ces corrections.

Les données de sortie du processus d’étalonnage sont des informations quantitatives, elles sont
consignées dans un document qui porte le titre de certificat d’étalonnage.

La vérification permet de s'assurer que les erreurs de justesse entre les valeurs indiquées par un
instrument de mesure et les valeurs connues correspondantes d'une grandeur mesurées sont toutes
inférieures aux erreurs maximales tolérées, définies par une norme, par une réglementation ou
une spécification constructeur).

Le résultat d'une vérification se traduit par un jugement de conformité (conforme, non conforme)
consigné dans un document qui porte le titre de constat de vérification.

Notons qu’un Constat de Vérification peut être annexé dans un Certificat d’Etalonnage.

2. Quelles sont les répercussions sur l’incertitude


de mesure?
L’incertitude de justesse de l’instrument raccordé n’est pas la même selon que l’instrument sera
étalonné ou vérifié.

On obtient de plus faibles incertitudes sur la justesse de l’instrument en appliquant les corrections
d’un certificat d’étalonnage car en se rapprochant de la valeur de référence, on diminue le doute
sur le résultat de mesure. Exprimer plus simplement, quand je corrige, le doute associé aux
résultats devient plus faible.

Prenons le tableau de la figure 2.

Page 19 sur 31
Si je demande un étalonnage et que j’applique les corrections (Cj ), l’incertitude-type de justesse
u (Cj ) sera uniquement l’incertitude-type de la correction, c’est-à-dire l’incertitude élargie U sur
2.

Si j’utilise un constat de vérification, je n’applique pas de corrections, l’incertitude-type de justesse


est calculée à partir de la seule information disponible : l’erreur maximale tolérée (EMT) qui est
plus grande que l’incertitude d’étalonnage U. Pour estimer l’incertitude-type à partir de l’EMT,
on fait l’hypothèse d’une loi de distribution uniforme des résultats de mesure et l’incertitude-type

est :

Figure 2 : Répercussion de l’étalonnage ou la vérification sur l’incertitude de justesse.

Quand je corrige, le doute associé au résultat devient plus faible.

V. Évaluation de l’incertitude de mesure


Quelle que soit la méthode adoptée pour estimer ou quantifier l’incertitude de mesure associée à
une valeur, il est nécessaire de bien définir ce que l’on veut mesurer, en métrologie le terme
consacré est "le mesurande", noté Y.

Ensuite, on recense tous les facteurs d’influence possible sur le résultat, c’est l’analyse du
processus de mesure détaillé dans une séquence en début de formation. On appelle ces facteurs,
les grandeurs d’entrée, notées Xi.

Enfin selon les informations dont on dispose et selon l’organisation mise en place pour assurer la
qualité des résultats, plusieurs méthode d’évaluation de l’incertitude sont possibles :

Les différentes approches d'évaluation de l'incertitude de mesure

Page 20 sur 31
Si on fait l’analyse en interne dans son organisme et que l’on sait écrire le modèle f reliant le
mesurande aux différentes grandeurs d’entrée, alors on peut mettre en œuvre la méthode
d’évaluation d’incertitude comme défini dans le GUM (guide pour l’expression de l’incertitude de
mesure). Cette méthode est la méthode de référence reconnue internationalement et c’est celle qui
est déroulée ensuite dans la suite du document.

D’autres méthodes de quantification de l’incertitude existent, elles sont plus globales et font appel
par exemple à de la caractérisation de méthode, à des résultats de cartes de contrôle interne et/ou
à des résultats de comparaisons interlaboratoires (comparaison interlaboratoires ou essais
d’aptitude).

1. Synthèse de la méthode d’évaluation de l’incertitude


"GUM"
Pour présenter cette méthode, on a l’habitude de la découper en 4 étapes. La première étant ce
que l’on vient de voir ci-dessus :

Page 21 sur 31
Page 22 sur 31
2. Explications supplémentaires sur l’estimation de
l’incertitude de chacune des grandeurs d’entrée (ÉTAPE
2)
On appelle méthode d’évaluation de type A, les méthodes estimant l’incertitude-type à
partir de résultats expérimentaux.

Par exemple, pour estimer la répétabilité, j’ai répété n mesures dans les mêmes conditions.
L’incertitude-type, notée u est alors l’écart-type expérimental S.

On appelle méthode d’évaluation de type B, toutes les autres méthodes, c’est à dire celles
qui utilisent des informations sans faire de mesures.

Citons les principaux exemples :


■■j’utilise les résultats d’un certificat d’étalonnage. On me donne la correction et l’incertitude
élargie U sur cette correction. Si je mets en œuvre la correction, l’incertitude-type liée à la justesse
sera U/2 car l’incertitude élargie est égale à 2 fois l’incertitude-type :

■■j’utilise les résultats d’une notice constructeur qui stipule que, par exemple, l’influence du
facteur température sur notre résultat est au maximum de ± δ. Dans ce cas, pour transformer cette
information en incertitude-type, on fait l’hypothèse d’une loi uniforme ou rectangulaire pour
représenter la distribution possible des résultats et on calcule l’incertitude-type à partir de cette
distribution. On obtient :

VI. Valider ses méthodes


La validation de méthode est la confirmation par examen et l’apport de preuves objectives du
fait que les exigences particulières en vue d’une utilisation prévue déterminée soient remplies.

Page 23 sur 31
En des termes plus simples :

Validation = Vérification, par l’apport de preuves,


que la méthode répond aux besoins du client

Le processus pour valider inclut :


■■la spécification des exigences ;
■■la détermination des caractéristiques des méthodes ;
■■la vérification que les exigences peuvent être remplies en utilisant la méthode ;
■■la déclaration relative à la validité.

Figure 1 : processus de validation

Quelles méthodes doivent être validées ?


■ les méthodes non normalisées conçues/développées par le laboratoire ;
■ les méthodes normalisées employées en dehors de leur domaine d’application prévu.
Notons que, concernant les méthodes normalisées, il faut tout de même confirmer la capacité à
les mettre en œuvre.

Pour valider un processus de mesure, il faut déterminer les caractéristiques de ce processus.

Les caractéristiques les plus générales sont :


■■la justesse
■■la fidélité (répétabilité, fidélité intermédiaire ou reproductibilité)
■■la qualité du modèle d’étalonnage

Des caractéristiques supplémentaires sont propres à l’analyse chimique :


■■la sélectivité/spécificité
■■la limite de détection
■■la limite de quantification

Page 24 sur 31
La justesse est l’écart à une valeur de référence.

Pour l’estimer on peut :


■■se comparer à des étalons de référence ;
■■se comparer à des résultats obtenus avec d’autres méthodes (de référence) ;
■■se comparer à une valeur consensuelle obtenue lors d’une comparaison
interlaboratoires (essais d’aptitude).

La répétabilité : l’écart-type de répétabilité est la plus petite dispersion estimée à partir de


mesure répétées indépendantes sous des conditions identiques : même laboratoire, même
opérateur, même environnement, court laps de temps… Cette caractéristique est très importante
car elle sert de dispersion minimale pour juger de la significativité d’autres caractéristiques.

La reproductibilité : l’écart-type de reproductibilité est la dispersion estimée à partir de mesures


répétées lorsque au moins l’une des conditions varie, par exemple l’opérateur, le temps,
l’environnement, on parle aussi de fidélité intermédiaire. Notons que la reproductibilité peut aller
jusqu’à réaliser les mesures dans différents laboratoires, c’est le principe des comparaisons
interlaboratoires développées dans la norme NF ISO 5725. Pour éviter toute ambiguïté, Il est
demandé de noter le ou les facteurs de variation quand on emploie le terme de reproductibilité ou
de fidélité intermédiaire. Par exemple, l’écart-type de reproductibilité dû au temps, ou l’écart-type
de reproductibilité dû aux opérateurs…

Le modèle d’étalonnage : cette caractéristique consiste à vérifier la qualité de la fonction


d’étalonnage choisie, qu’elle soit linéaire, quadratique ou autre. C’est la caractéristique "linéarité"
qui a été étendue au-delà du simple modèle linéaire.

La spécificité : cette caractéristique consiste à vérifier que le signal n’est pas perturbé par la
présence d’interférents dans le milieu analysé.

La limite de détection est la valeur à partir de laquelle on considère avoir détecté sans pour
autant pouvoir quantifier.

La limite de quantification est la valeur à partir de laquelle on peut donner un résultat chiffré
et une incertitude.

En conclusion, la validation est toujours un équilibre entre les coûts, les risques et les
possibilités techniques.

VII. Surveiller les processus de mesure

1. Présentation des méthodes de surveillance


La méthode étant caractérisée et validée, comment garantir au quotidien la performance des
processus de mesure ? Notamment entre deux étalonnages.

Page 25 sur 31
Il ne faut pas oublier, que si on trouve un instrument "défaillant" au cours d’un étalonnage, il faudra
examiner tous les résultats de mesure obtenus avec cet instrument et en évaluer l’impact sur la
qualité des produits ou des services réalisés. Avec cet enjeu on comprend bien la nécessité de
mettre en place des méthodes simples de surveillance.

Mettre en place des méthodes de surveillance :


■■redondance des mesures ;
■■les cartes de contrôle.

2. Redondance des mesures


Principe : on réalise 2 mesures, si possible indépendantes, puis on compare les valeurs :
■■si les deux techniques de mesure sont différentes, on a plus de chance de mettre
en évidence une erreur systématique ;
■■si la technique de mesure utilisée est la même, on pourra mettre en évidence un
défaut de fidélité.

Parfois il est possible d’utiliser la technique de la redondance en comparant un "générateur"


et un "mesureur" par exemple la surveillance d’un ohmmètre avec une résistance étalon,
surveillance d’un pHmètre avec une solution étalon…

Le traitement des résultats, si on a réalisé deux mesures (indépendantes), consiste à


comparer leur différence à un multiple de la répétabilité s, que l’on appelle différence
critique (pour un niveau de probabilité donnée 0,05) :

Dcrit = 2,8 s

Si la différence entre les deux résultats est plus petite que la différence critique, les résultats
sont validés.

3. Cartes de contrôle
L’idée de base, due à W. A. Shewhart (1924), a été d’utiliser une étude préalable de la
variabilité d’un processus en régime stable pour calculer l’intervalle de variation probable
de la statistique suivie et de faire apparaître sur le graphique les limites de cet intervalle. On
surveille ainsi une moyenne et/ou un écart-type. Ces techniques font l’objet de normes.

3.1. Les différents types de carte


On a pour objectif de suivre deux caractéristiques traduisant :
■■le centrage de l’échantillon (justesse) ;
■■sa dispersion (fidélité).

On trouve donc les cartes suivantes :


■■carte (moyenne) ;
■■carte (s) (écart-type).

Page 26 sur 31
Il existe également d’autres cartes :
■■carte à moyenne mobile avec pondération exponentielle (EWMA), le poids des
données anciennes diminue progressivement ;
■■carte à somme cumulée (CUSUM) sommation algébrique des écarts à une valeur
de référence.

Le principe d’une méthode de surveillance par carte de contrôle, consiste à "mesurer" un étalon
avec le processus de mesure. Cet étalon peut être un objet quelconque, on lui demande simplement
d’être stable dans le temps. Si la valeur de la grandeur qu’il représente est connue alors on pourra
mieux exploiter la carte.

3.2. Construction d’une carte de contrôle


Au cours d’une opération préliminaire, on estime les paramètres (moyenne m0 et écart-type s0) de
la population des mesures de l’étalon.

Nature de l’étalon utilisé :


■■si l’étalon utilisé est stable, mais n’a pas de valeur traçable aux unités SI, alors seule la
fidélité du processus est surveillée ;
■■si la valeur de l’étalon a été déterminée et est traçable aux unités du SI, alors la
justesse du processus peut également être surveillée.

A intervalles de temps réguliers on "remesure" l’étalon puis on reporte sur un diagramme


les valeurs trouvées :

Page 27 sur 31
Le diagramme est établi pour n = 1.

Si le processus reste "sous contrôle", les points doivent rester entre les limites de surveillance
définies par deux fois l’écart-type s0 représentant la répétabilité du processus de mesure.

3.3. Utilisation de la carte de contrôle


Ce diagramme a pour objectif d’alerter l’opérateur sur une dérive du processus de mesure.

Les règles suivantes sont extraites de la norme NF X 06-031-0.

L’attention de l’opérateur sera attirée dans les cas suivants :


■■6 points consécutifs ascendants ou descendants ;
■■9 points consécutifs en dessous ou au-dessus de la cible (m0) ;
■■2 sur 3 points consécutifs entre les limites de surveillance et de contrôle voisines.

Si l’on se trouve dans l’une des situations précédentes, on doit redoubler de vigilance et
effectuer des vérifications sur le processus de mesure.

3.4. Exemple de processus de mesure suivi par carte de contrôle


Si dans une entreprise, on réalise des pesées à l’aide d’une balance. Il est possible de mettre
en place une surveillance de ce processus de pesée en mesurant (par exemple chaque matin)
un objet métallique (on est à peu près certain que la masse ne varie pas) et de reporter sur
un graphique du type carte de contrôle les résultats obtenus.

4. Ce qu’il faut retenir


Il existe différentes méthodes pour surveiller les processus de mesure. Les plus courantes sont :
■■les redondances ;
■■les cartes de contrôle.

Les méthodes de surveillance permettent d’assurer la qualité des mesures au quotidien.


Elles doivent être simples de mise en œuvre et d’exploitation (ex des cartes de contrôle).
Les opérateurs doivent en comprendre tout l’intérêt et maîtriser parfaitement leur utilisation.

Page 28 sur 31
Les référentiels du métrologue
1. Pourquoi des référentiels ?
Nous avons vu au cours de cette formation que la métrologie est une discipline "transverse"
l’entreprise. Elle intervient depuis la conception des produits jusqu’à leur mise au rebut. Le
métrologue doit donc échanger avec différents interlocuteurs tant internes qu’externes à
l’entreprise. Il faut donc disposer de règles, de concepts partagés, de modes d’expression des
résultats de mesure pour prendre de bonnes décisions. C’est le but de la normalisation de fournir
des outils permettant d’obtenir des données techniques fiables et d’organiser les échanges
d’information le plus efficacement possible.

De nombreux référentiels peuvent s’appliquer mais nous avons choisi de ne présenter que
ceux qui sont communs à tous les métrologues quelle que soit leur entreprise ou leur
domaine d’activité.

Le lecteur pourra consulter avec intérêt le fascicule de documentation Afnor FD X07-008


Arborescence des normes et travaux sur la métrologie "carte routière" des normes.

Par qui sont élaborés ces référentiels ?

Nous citerons en premier, le Joint Committee for Guides in Metrology (JCGM) qui
rassemble huit organisations internationales : Le Bureau International des Poids et Mesures
(BIPM), la Commission Electrotechnique Internationale (CEI), la Fédération Internationale
de Chimie Clinique (IFCC), l’Organisation International de Normalisation (ISO),
l’Organisation Internationale de Métrologie Légale (OIML), l’Union International de
Chimie Pure et Appliquée (UICPA), L’Union Internationale de Physique Pure et Appliquée
(UIPA) et la Coopération International sur l’agrément des laboratoires d’essais (ILAC). Le
JCGM élabore le vocabulaire des métrologues, le VIM et le Guide pour l’expression de
l’incertitude de mesure, le GUM ainsi que les documents associés. Ces documents sont
détaillés aux chapitres 4 et 5.

En second, nous citerons l’Organisation Internationale de Normalisation (ISO), qui


développe la norme ISO 9001 et la norme ISO 10012 et bien sûr beaucoup d’autres normes
internationales qui concernent les entreprises.

2. Le référentiel "management qualité" ISO 9001


La norme NF EN ISO 9001 (novembre 2008) Systèmes de management de la qualité –
Exigences, est une norme très connue des entreprises, elle sert de base à de nombreuses
certifications délivrées par des organismes certificateurs eux-mêmes accrédités.

Le paragraphe 7.6 Maîtrise des équipements de surveillance et de mesure présente les


exigences relatives aux équipements de surveillance et de mesure. Il est notamment indiqué
que "L’organisme doit déterminer les activités de surveillance et de mesure à entreprendre
Page 29 sur 31
et les équipements de surveillance et de mesure nécessaires pour apporter la preuve de la
conformité du produit aux exigences déterminées."
Dans ce texte le lecteur retrouvera quelques exigences essentielles pour les instruments de
mesure, mais il aura intérêt à consulter le document suivant (ISO 10012) où il trouvera de
nombreux renseignements sur le management des processus de mesure.

3. La norme de la fonction métrologie : ISO 10012


Cette norme internationale NF EN ISO 10012 "Exigences pour les processus et les
équipements de mesure" a été développée à partir d’une initiative française, car nous
disposions en France depuis de nombreuses années d’une norme sur la fonction métrologie
dans l’entreprise. Ce texte a été porté comme contribution au niveau international et a
contribué ainsi à la publication de cette norme internationale.

Ce texte écrit dans l’esprit d’ISO 9001, décrit dans le cadre d’une approche processus ce
qu’il faut mettre en place pour manager les processus de mesure et démontrer la conformité
aux exigences métrologiques.

Son grand mérite est d’avoir pris le parti de s’intéresser aux processus de mesure et de ne
pas s’intéresser uniquement aux instruments de mesure. Une autre originalité a été de définir
les exigences en terme d’objectifs et non pas de moyens, ce qui a fait dire à certains que
l’on devait passer du métrologue obéissant au métrologue intelligent.

Elle replace la métrologie au cœur du métier de l’entreprise.

On notera qu’il existe un fascicule de documentation FD X 07-007 :2005, Métrologie –


Guide d’application de la norme NF EN ISO 10012 "Systèmes de management de la mesure
– Exigences pour les processus et les équipements de mesure – Conception, développement,
maîtrise et amélioration des processus de mesure ou d’essai".

4. Le vocabulaire des métrologues : le VIM


Dans les différents domaines de la technique, il est important, pour avoir des échanges
simples, efficaces et sans ambiguïté, de disposer de vocabulaire commun et c’est le but de
la 3e édition du Vocabulaire international de métrologie – Concepts fondamentaux et
généraux et termes associés (VIM).

Le VIM se présente comme un dictionnaire terminologique bilingue Français anglais,


contenant les désignations et les définitions tirées d’un ou plusieurs domaines particuliers.
Il permet à tous les utilisateurs d’avoir la même signification pour un terme donné.

Le VIM concerne la métrologie c’est à dire la science des mesurages et ses applications, il
couvre également les principes de base régissant les grandeurs et les unités. Si la première
édition du VIM trouvait ses principales sources dans la physique et dans la métrologie légale
(métrologie essentiellement liée à la régularité des transactions commerciales et à la sécurité
des citoyens), la troisième édition considère qu’il n’y a pas de différence fondamentale dans

Page 30 sur 31
les principes de base des mesurages en physique, chimie, biologie médicale, biologie ou
science de l’ingénieur. Le VIM a également essayé de couvrir les besoins conceptuels des
mesurages dans les domaines tels que la biochimie, la science des aliments, l’expertise
médicolégale et la biologie moléculaire.
Il faut bien comprendre que ce qui est important ce sont les concepts et ensuite on utilise
des mots pour présenter, véhiculer, résumer les concepts. Le partage des concepts et
leur compréhension au sein de cultures parfois fort différentes constitue le challenge de
tout vocabulaire technique.

5. Le guide pour l’évaluation des incertitudes de


mesure : le GUM
Le guide pour l’expression des incertitudes de mesure, connu sous l’acronyme GUM
est un document essentiel pour les métrologues. Il présente la méthode de référence
pour l’évaluation de l’incertitude, référence Afnor NF ENV 13005, mais il est
également téléchargeable sur le site du Bureau International des Poids et Mesures. C’est
le document de référence pour l’évaluation des incertitudes de mesure.

"Lorsqu’on rend compte du résultat d’un mesurage d’une grandeur physique, il faut
obligatoirement donner une indication quantitative sur la qualité du résultat pour que
ceux qui l’utiliseront puissent estimer sa fiabilité. En l’absence d’une telle indication,
les résultats de mesure ne peuvent pas être comparés entre eux, soit par rapport à des
valeurs de référence données dans une spécification ou une norme. Aussi est-il
nécessaire qu’il existe une procédure facilement applicable, aisément compréhensible
et largement acceptée pour caractériser la qualité du résultat d’un mesurage, c’est-à-
dire pour évaluer et exprimer son incertitude". Cet extrait de l’introduction du GUM
résume parfaitement les objectifs de ce document.

Néanmoins, ce document de référence peut s’avérer difficile à lire et c’est pourquoi


dans la bibliographie nous proposons d’autres textes plus faciles présentant la méthode
de référence mais également des méthodes alternatives.

Page 31 sur 31

Vous aimerez peut-être aussi