Vous êtes sur la page 1sur 10

MÉTROLOGIE : UN LANGAGE UNIVERSEL

POUR LES SCIENCES ET TECHNIQUES

Mesurer, c'est comparer une grandeur physique inconnue avec une grandeur de
même nature prise comme référence, à l'aide d'un instrument. C'est exprimer le
résultat de cette comparaison à l'aide d'une valeur numérique, associée à une
unité qui rappelle la nature de la référence, et assortie d'une incertitude qui
dépend à la fois des qualités de l'expérience effectuée et de la connaissance que
l'on a de la référence et de ses conditions d'utilisation.
Les méthodes et conventions qui régissent la définition, l'évaluation et
l'expression des résultats de mesure, unités et incertitudes sont partie intégrante
du langage commun, à vocation universelle, de la métrologie.

LE RÔLE DE LA MESURE

Quelques domaines d’application (1)


La société s'appuie sur une infrastructure vaste, et souvent invisible, de
services, de denrées, de réseaux de transport et de communication dont la
présence nous est familière mais dont le bon fonctionnement est essentiel à la
vie quotidienne. La métrologie, science ou même art de la mesure, constitue
une partie de cette infrastructure cachée; elle garantit qu’on peut accorder
confiance aux mesures qui sous-tendent notre vie de mille et une façons, pour
la fabrication et les échanges de produits, pour l’analyse des phénomènes
physiques et chimiques, pour le diagnostic médical, pour assurer de hauts
débits de communication, pour les systèmes de repérage, la définition et le
contrôle des règles de sécurité, etc.
En effet, c’est par la métrologie qu’on peut assurer que d'importants volumes
de marchandises, comme le pétrole brut ou le gaz naturel, font l'objet de
transactions commerciales en sachant que les millions de tonnes de pétrole ou
les mètres cubes de gaz achetés et vendus sont mesurés de façon correcte, du
supertanker à la pompe à essence et du gazoduc qui traverse les frontières et
dans lequel le gaz circule sous haute pression jusqu'au compteur à gaz
domestique. C'est grâce à des mesures exactes qu’on peut fabriquer de façon
efficace les composants d'objets aussi variés que des moteurs à combustion
interne et des moteurs de turbines à gaz, pour lesquels la fiabilité et la durée de
vie dépendent de tolérances de fabrication de l'ordre de quelques micromètres,
ou des lecteurs de disques compacts, qui comportent des lentilles pour
concentrer la lumière du laser et qui sont fabriqués avec des tolérances
inférieures au dixième de micromètre.
De même les systèmes internationaux de télécommunications ne fonctionnent
avec des rythmes élevés de transmission de données que si les échelles de
temps et de fréquences qui couvrent le monde sont très étroitement
coordonnées. Dans le monde industrialisé, les échelles nationales de temps
sont reliées, à environ une microseconde près, à l'UTC, l'échelle internationale
de temps construite à partir des horloges atomiques. L’UTC est aussi l'échelle
de temps utilisée par les systèmes satellitaires de navigation à couverture

Page 1 sur10
globale, comme le système américain, Global Positioning System (GPS), et le
système russe, Global Navigation Satellite System (GLONASS).
Par ailleurs, la pratique de la médecine fait appel à des mesures délicates et
parfois difficiles tant pour les diagnostics qu'en thérapie, qu’il s’agisse
d’analyses chimiques ou de mesure des doses de rayonnements X ou y. En
agriculture, pour le contrôle des produits alimentaires et la protection de
l'environnement, les mesures prennent une importance croissante car elles
constituent à la fois la base d'un large éventail de dispositions législatives et le
moyen de vérifier que celles-ci sont respectées. Plus généralement, l’expertise
judiciaire s’appuie chaque jour davantage sur des résultats de mesure, du
simple contrôle de vitesse ou d’alcoolémie aux investigations les plus poussées
en matière, par exemple, de résistance des matériaux.

L’opération de mesure

Mesurer, c'est compter; c'est exprimer, sous forme d'une valeur numérique, la
grandeur physique caractérisant l'état d'un système. Plus précisément mesurer,
c'est comparer (2) ; c'est comparer une grandeur physique inconnue avec une
grandeur de même nature prise comme référence, à l'aide d'un instrument. C'est
exprimer le résultat de cette comparaison à l'aide d'une valeur numérique,
associée à une unité qui rappelle la nature de la référence, et assortie d'une
incertitude qui dépend à la fois des qualités de l'expérience effectuée et de la
connaissance que l'on a de la référence et de ses conditions d'utilisation.

Comparer, c'est mettre en oeuvre un principe de mesure physique, développer


les capteurs adaptés à la grandeur concernée, concevoir, construire, caractériser
l'instrument optimal, traiter enfin le signal délivré par la chaîne de mesure pour
en extraire toute l'information disponible, en s'affranchissant autant que faire se
peut des fluctuations indésirables, qui généralement constituent ce qu’on
appelle le bruit.

La traçabilité

Mesurer a aussi pour finalité d'asseoir les résultats de mesure sur des bases
reconnues sans équivoque par plusieurs partenaires, que ce soit à des fins
scientifiques, commerciales, ou d'expertise légale. Cela nécessite l'existence de
références dont les caractéristiques sont clairement établies. Ce peut être la
référence de travail d'un établissement ou d'un laboratoire, périodiquement
étalonnée, par comparaison (à nouveau !) à une référence d'incertitude plus
faible, c'est-à-dire située à un niveau plus élevé dans ce qu'on appelle la
hiérarchie d'une chaîne d'étalonnage.
Au sein de cette hiérarchie, les comparaisons sont entreprises selon des
méthodes et des procédures de plus en plus élaborées et contraignantes. Le
stade ultime de la hiérarchie nationale est la matérialisation dite primaire des
unités les plus fondamentales permettant d'accéder à la grandeur. Il n'est plus
question alors d'étalonnage, mais de mise en pratique de la définition de l'unité.
Seules des intercomparaisons effectuées entre des montages indépendants
permettent de préciser l'incertitude, on dit l'exactitude de réalisation. Le Bureau
National de Métrologie est en France le garant de la traçabilité des mesures
(3).

Page 2 sur10
Ainsi, les « fournisseurs » de résultats de mesure et leurs « clients » ont besoin
d’exprimer ces résultats en utilisant des références reconnues sans équivoque
par chacun des acteurs et en exprimant de façon scientifiquement convenue
l’incertitude associée. Cet ensemble constitue, pour toutes les grandeurs
physiques, le langage (universel ?) de la métrologie (4).

LE SYSTÈME INTERNATIONAL D’UNITÉS

Généralités
C'est dans le cadre du Système International d'Unités que sont élaborées les
références correspondant à l'ensemble des mesures physiques, références
disséminées à travers le monde entier. En fait, les premières tentatives
d'harmonisation des références remontent à la Révolution Française, à la fin du
18ème siècle.
Mais c'est en 1875 que la signature de la Convention du Mètre, traité
international qui régit la métrologie mondiale, auquel adhèrent aujourd'hui la
quasi totalité des états, précise le contour de l'actuel système de référence. Un
Comité International des Poids et Mesures (C.I.P.M.), assemblée de
scientifiques de différentes nations, fait des propositions aux diplomates de la
Conférence Générale des Poids et Mesures (C.G.P.M.) qui arrêtent les
nouvelles définitions, et chargent le Bureau International (B.I.P.M.) situé au
Pavillon de Breteuil, à Sèvres, de la mise en place des références et du pilotage
des intercomparaisons entre les divers étalons nationaux.
Ce système d'unités cohérent et rationalisé a couvert peu à peu l'ensemble du
champ disciplinaire des mesures physiques, en mécanique, électrodynamique,
et plus récemment thermodynamique, physico-chimie, photométrie.

Il repose sur sept grandeurs de base, pour lesquelles les définitions des unités
correspondantes ont été précisées : le mètre, la seconde, le kilogramme,
l'ampère, le kelvin, la mole, la candela. C'est un système évolutif qui tente de
mettre à profit les avancées les plus récentes de la science pour permettre aux
scientifiques et à tous les utilisateurs industriels de disposer des outils les plus
exacts, au sommet des chaînes d'étalonnage nationales qui garantissent la
traçabilité des mesures. Les structures nationales garantes de la traçabilité des
mesures inscrivent bien entendu leur action dans ce cadre.

La définition des unités de base

Les définitions retenues ont pour objectif d'assurer la pérennité, l'uniformité,


l'accessibilité et la plus grande exactitude possible des références; elles sont de
type très varié. A cet égard l'exemple du mètre, qui a connu en deux siècles
quatre définitions successives, est intéressant pour appréhender ces évolutions;
d'abord lié à un système supposé invariable, la longueur du méridien terrestre
(1795), le mètre devient en 1889 associé au prototype international, étalon
matériel particulier en platine iridié; les progrès de la spectroscopie et de la
physique quantique conduisent à retenir en 1960 un multiple de la longueur
d'onde d'une radiation résonante sur une transition dans l'atome de krypton. En
1983, la définition du mètre change une dernière fois: il est désormais établi à
partir du phénomène de propagation de la lumière dans le vide. La définition
traduit l'existence d'une loi physique fondamentale et impose le gel de la valeur

Page 3 sur10
numérique d'une constante physique fondamentale, la vitesse de propagation
de la lumière c, qui vaut désormais exactement 299 792 458 ms-1. Étalon
macroscopique terrestre, prototype, étalon atomique, expression d'une loi
physique fondamentale fixant la valeur numérique en SI d'une constance
fondamentale, ces quatre définitions successives montrent que le système
d'unités évolue de façon pragmatique dans le sens de la prise en compte de
toujours d'avantage de sciences et de lois fondamentales.

Les autres unités de base du SI traduisent cette variété de définitions (5) : la


seconde est aujord'hui réalisée avec une exactitude relative de 10 -14 , à l'aide
d'une horloge atomique, matérialisant la période de transition dans l'atome de
césium. Le kilogramme reste défini par le biais d'un prototype dont les copies
peuvent être étalonnées à quelques 10-9 près ; la définition de l'ampère
exprime la loi de Laplace et permet d'établir au dixième de millionième près
les principaux étalons du domaine électriques ; le kelvin fait référence à la
matérialisation du point triple de l'eau pure, réalisée en pratique au dixième de
millikelvin près ; la mole relie, par l'intermédiaire de la masse de l'isotope 12
de l'atome de carbone, les grandeurs à l'échelle atomique aux grandeurs
macroscopiques ; enfin la candela assure, à quelques millièmes près, le
raccordement entre les grandeurs radiométriques et le domaine photométrique
au sein duquel il est fait usage d'un instrument de mesure particulier, " l'oeil
humain moyen".

Le rôle croissant de la physique fondamentale (6)

De nombreux travaux sont entrepris pour obtenir une exactitude plus grande,
des références plus pérennes ou plus accessibles, ou encore pour élargir le
champ d’applications effectivement couvert. Ils portent principalement,
aujourd'hui, sur l'utilisation et la mise en oeuvre de phénomènes de physique
fondamentale. Dans le domaine électrique, - mais les recouvrements de ce
domaine avec les grandeurs énergétiques, et donc le kilogramme, sont
nombreux - on cherche à mettre à profit les effets quantiques macroscopiques
découverts au cours des trente dernières années : l'effet Josephson, aujourd'hui
pour la conservation du volt ; l'effet Hall quantique pour la conservation de
l'ohm ; les effets monoélectroniques dont la matérialisation pratique à un haut
niveau d'exactitude permettrait de boucler le triangle de la métrologie
quantique et d'introduire dans la détermination des constantes fondamentales h
(constante de Planck) et e (charge de l'électron) la redondance nécessaire à
l'estimation des incertitudes associées. De même les progrès en spectroscopie
atomique, ceux accomplis dans l'évaluation des caractéristiques des systèmes
microscopiques, permettent d'espérer de substantielles améliorations.
Aujourd'hui pour la seconde par exemple, la perspective d'obtenir et d'observer
expérimentalement des systèmes composés d'atomes pratiquement immobiles,
pratiquement isolés, et de construire à partir de ces atomes des horloges dans le
domaine optique, devient peu à peu une réalité grâce aux méthodes de
ralentissement et de refroidissement par laser. L'interférométrie atomique, dans
laquelle on met à profit le comportement ondulatoire de systèmes aussi lourds
que des atomes ou des molécules (qui doivent être ralentis de façon drastique)
permet d’utiliser ces atomes comme de très précises sondes locales et semble,
par exemple, une technique de gravimétrie prometteuse. L'Échelle

Page 4 sur10
Internationale de Température promulguée en 1990, et qui fait appel à un
instrument d'interpolation particulier (le thermomètre à résistance de platine)
entre des points fixes de référence nombreux, peut être utilement complétée
par la mise en oeuvre d'effets physiques nouveaux dans le domaine des très
basses températures, comme l’étude de la propagation du second son dans
l’hélium liquide. Les mesures de rayonnement reposent désormais sur la
radiométrie cryogénique à substitution électrique. Enfin d’importants efforts
sont engagés pour obtenir, à terme, une définition de l’unité de masse qui ne
fasse plus intervenir un prototype dont la pérennité n’est en aucun cas garanti :
expériences de mesure de flux magnétique dans des systèmes en lévitation
supraconductrice, de comparaison d’une puissance électrique à une puissance
mécanique, de comptage et de pesage simultanés d’ions lourds (susceptible de
raccorder, par une détermination meilleure de la constante d’Avogadro, une
masse atomique à une masse macroscopique au niveau d’exactitude requis)...

L’APPROCHE STATISTIQUE DE LA MESURE

La dispersion des résultats de mesure observée lorsque, par exemple, on répète


l’opération à l’identique, justifie l’adoption d’une démarche d’interprétation
statistique de la mesure. Il convient, dans chaque cas, de faire l’inventaire des
causes d’erreur susceptibles de biaiser le résultat, d’effectuer les corrections
nécessaires, d’évaluer l’incertitude associée à chacune de celles-ci, de
composer ces termes avec la dispersion liée à la non répétabilité du procédé de
mesure, et d’exprimer le résultat en termes d’intervalle de confiance (7).

Inventaire des causes d’erreur et incertitude de mesure

De nombreuses causes d'erreur viennent affecter le résultat brut d'un mesurage,


suite d’actes élémentaires permettant d’obtenir un résultat brut.

la grandeur mesurée elle-même est parfois mal définie, car le


système ne suit pas exactement la loi modèle prévue ; cette grandeur
varie dans le temps, ou l'espace ; elle est dans certains cas
définitivement affectée par le procédé de mesure, ce qui impose l'usage
de méthodes d’échantillonnage ; le principe physique à la base de la
mesure peut contribuer à cette imprévision.
les capteurs et instruments utilisés présentent le cas échéant des
défauts : temps de réponse fini, bande passante limitée, non linéarité,
hystérésis,...
le mode opératoire utilisé introduit des erreurs : une pesée effectuée
dans l'air doit prendre en compte la poussée d'Archimède ; une mesure
de résistance par voltmètre et ampèremètre est biaisée à la fois en
courte et en longue dérivation...
de nombreuses grandeurs caractérisant les conditions d'ambiance
influent sur le résultat ; on les dénomment "grandeurs d'influence" : il
s'agit selon les cas de la température, des conditions électriques,
magnétiques, lumineuses d'environnement, etc. Elles peuvent par
exemple mettre en évidence un écart entre les conditions de mesure et

Page 5 sur10
les conditions dans lesquelles le raccordement des instruments et des
références a été effectué.

Il faut introduire des corrections pour compenser ces erreurs.

La connaissance imparfaite des valeurs de référence utilisées, des courbes


d'étalonnage des instruments induit également des erreurs de mesure, et
contribue à l'incertitude du résultat : ces données ne peuvent être exactes
puisqu'elles proviennent aussi de comparaisons expérimentales.

Une valeur mesurée n'est donc pas une valeur certaine: elle est issue de
résultats présentant une certaine dispersion, et de plus il existe une certaine
méconnaissance de la valeur de chaque correction individuelle, donc de la
correction totale. Une fois prises en compte toutes ces causes d'erreur, on
appelle incertitude de mesure le paramètre associé au résultat qui caractérise la
dispersion des valeurs numériques et qui ne peut être, raisonnablement,
attribuée au mesurande. En l'absence d’incertitude, il n'est plus possible, plus
pertinent, de comparer entre eux des résultats. Comment savoir, sans connaître
l'incertitude, si une grandeur a évolué, si tel procédé de mesure conduit au
même résultat, ou si la différence éventuellement observée ne tient qu'à des
phénomènes aléatoires mal maîtrisés dont l'origine peut être intrinsèquement
liée à la grandeur elle-même ? Comment, dans des conditions analogues,
comparer un résultat à des valeurs de référence spécifiées par exemple dans
une norme, un autre texte réglementaire, un contrat, et donc garantir la
conformité du produit ou du système ainsi caractérisé ?

C'est l'approche statistique de la mesure qui permet d'évaluer l'incertitude de


mesure. En général, on fait l'hypothèse que les différentes valeurs pouvant être
obtenues pour la mesure d'une grandeur physique donnée suivent une
distribution gaussienne ; on peut alors évaluer le risque encouru lorsqu'on
donne pour la valeur de la grandeur un intervalle de confiance, de "certitude
maîtrisée". En limitant cet intervalle à plus ou moins deux écarts-types autour
de la valeur estimée, le risque est inférieur à 5%.

Outils statistiques pour l’évaluation des composantes de l’incertitude (9).

La répétition (à l'identique, autant que faire se peut) d'un procédé de mesure


direct conduit à associer à la grandeur mesurée (au mesurande) un ensemble de
n valeurs numériques

résultats bruts de ces mesurages, de moyenne .

Ces résultats bruts mettent en évidence, s'il en était besoin, l'existence d'une
dispersion des valeurs numériques Il convient d'apporter, pour chaque cause
d'erreur j et chaque biais identifiés, une correction Cj aux résultats bruts.
Chaque correction peut être déterminée expérimentalement ou analytiquement

Page 6 sur10
au moyen d'un modèle plus ou moins complexe et plus ou moins étayé sur des
considérations empiriques ou physiques. Un modèle affiné est fréquemment
utilisé pour décrire le comportement des instruments, en introduisant une
correction additive constante (un décalage de zéro...) et un facteur correctif
multiplicatif (la sensibilité...). On obtient alors la correction totale C (pouvant
dépendre éventuellement de i), les valeurs corrigées

et leur moyenne "corrigée

Cette valeur n'est pas une valeur certaine: elle est issue de résultats présentant
une certaine dispersion, et de plus il existe une certaine méconnaissance de la
valeur de chaque correction individuelle, donc de la correction totale. Une fois
prises en compte toutes ces causes d'erreur, on appelle incertitude de mesure le
paramètre associé au résultat qui caractérise la dispersion des valeurs
numériques et qui peut être, raisonnablement, attribuée au mesurande. Deux
classes de méthodes permettent son évaluation (8).

Les méthodes d'évaluation dites de type A

Il s'agit de toute technique d'évaluation basée sur un procédé statistique


prenant en compte la dispersion observée lors de la répétition, a priori à
conditions identiques, du procédé de mesure. Une telle évaluation ne peut être
que globale. Ainsi, on peut estimer l'incertitude due à la variabilité des

par l'écart-type d'échantillon

Des techniques d’ajustement par moindres carrés sont également fréquemment


mises en oeuvre.

Les méthodes d'évaluation dites de type B

Il s'agit à contrario de toute technique d'évaluation non basée sur un procédé


statistique. Une telle évaluation s'appuie généralement sur un jugement
scientifique porté à la suite d'une analyse physique de la manipulation, utilisant
toutes les informations disponibles. Il faut en particulier cerner la part
d'incertitude qui est due à chacune des corrections associées aux causes

Page 7 sur10
d'erreur identifiées, même lorsqu'elles n'apportent pas à priori de dispersion
aux résultats. On applique le même formalisme que pour les méthodes de type
A, à savoir évaluer l'incertitude sur la correction (correction qui peut être
nulle!) par une valeur Uj qu'on peut traiter comme un écart-type. Cette valeur
est déterminée à partir d'éléments tels que bibliographie sur les matériaux et
capteurs, notices des fournisseurs et constructeurs, certificats d'étalonnage,
rapport d'intercomparaisons, ... mais aussi à partir des connaissances et du
savoir faire de l'analyste et de l'opérateur. Cette manière de procéder revient,
dans certains cas, à postuler l'existence sous-jacente d'une loi de distribution
pour la correction considérée.
Pour obtenir l'incertitude Uc (écart-type) sur la correction totale, on applique
la loi de composition des variances qui s'écrit, dans l'hypothèse où causes
d'erreur et corrections sont non corrélées,

Incertitude-type

L'incertitude composée tient compte des incertitudes évaluées par les méthodes
de type A et de type B. Elle est obtenue en composant les variances associées
à et C, c'est à dire pour des mesurages bruts indépendants :

L’incertitude-type du résultat est donnée par la racine carrée de cette variance.


On peut également convenir de donner une incertitude globale en utilisant un
facteur d'élargissement multiplicatif purement conventionnel, égal à 2 dans le
cadre des laboratoires d'étalonnages européens, ce qui correspond, pour une loi
gaussienne, à la donnée d'un intervalle de confiance à risque d'erreur inférieur
à 5%. Il est essentiel d’adopter cette composition quadratique, cohérente avec
la donnée d’un intervalle de certitude maîtrisée, quelles que soient les
réticences associées à la donnée d’une « tolérance » qui prétend souvent être
assimilée à un intervalle de certitude absolue bien illusoire et scientifiquement
sans fondement.
Tout l'art du physicien métrologue consiste à identifier le mieux possible les
causes d'erreur de mesure, afin d'évaluer de la façon la plus correcte possible,
par une analyse physique, les corrections que celles-ci entraînent : on diminue
ainsi la composante aléatoire (type A ci-dessus). La répartition de la
contribution des phénomènes affectant la mesure entre les méthodes de type A
et B ci-dessus dépend donc de la connaissance du procédé de mesure et de
l'étude qui en a été faite, c'est-à-dire du détail du "budget des incertitudes" qui
a été effectué.
Bien évidemment cette méthode est généralisable à des cas plus complexes.

Exemple élémentaire de budget d’incertitude

Page 8 sur10
Ce paragraphe illustre la détermination du budget d’incertitude permettant
d'évaluer l'incertitude associée à la mesure d'une résistance électrique d'environ
10 à l'aide d'un voltmètre numérique et d'un ampèremètre à aiguille
préalablement étalonnés.
Outre le biais introduit par le mode opératoire utilisé (courte dérivation, en
l’occurrence), une analyse des causes d'erreur qui imposent une correction a
conduit à l'inventaire suivant :
étalonnage du voltmètre, étalonnage de l'ampèremètre

dérive de ces deux instruments

influence de la température sur chacun des deux instruments

limitations imposées par la résolution du voltmètre et de


l'ampèremètre

Il convient également d'évaluer la dispersion associée à la répétabilité des


mesures.

En appliquant les méthodes et conventions décrites ci-dessus pour l'évaluation


de chaque composante et pour la composition globale on aboutit au tableau
récapitulatif suivant (toutes les valeurs sauf l'incertitude élargie sont données à
1 écart-type.

Composantes évaluées par l'analyse statistique (en ) (en )


u (Rm) : Répétabilité des mesurages 0,005
A 0,005
Composantes évaluées par d'autres moyens en
u (étal U-R)Etalonnage voltmètre 0,001
u (étal I-R)Etalonnage ampèremètre 0,02
u (dériv U-R)Dérive voltmètre 0,0006
u (dériv I-R)Dérive ampèremètre 0,0087
u (T- U-R)Influence température
0,0001
sur voltmètre
u (T- I-R)Influence température
0,011
sur ampèremètre
u (résol U-R)Résolution voltmètre 0,00029
u (résol I-R)Résolution ampèremètre 0,0029
B 0,024
incertitude-type
0,025

incertitude élargie
0,05

Page 9 sur10
Dans ce cas élémentaire, la conclusion est simple. Si le niveau
d’incertitude atteint n’est pas suffisant pour l’application
envisagée, l’élimination ou la réduction de la composante
principale s’impose : meilleur étalonnage de l’ampèremètre,
meilleure caractérisation de cet instrument (effet de la
température, dérives, ...).

CONCLUSION

Ainsi « mesurer », c’est comparer une grandeur physique inconnue à une


référence dont la traçabilité est établie dans le cadre du Système international
d’unités, et évaluer l’incertitude associée, aussi élevée soit elle, par une
approche statistique de la mesure. Adopter le langage de la métrologie, qui
repose sur des règles scientifiquement justifiées pour l’évaluation et
l’expression ou la matérialisation de ces paramètres, est indispensable afin que
puissent être utilisés de façon pertinente, dans les domaines scientifiques,
techniques, ou de vie courante, les résultats de mesure.

REFERENCES

(1) Quinn T.J., Himbert M., Mesurer : unités et incertitudes, La Mesure,


Entretiens de la Villette vol. 7, Cité des sciences ed. Paris, (1996).
(2) Himbert M., Le mètre: l'aventure continue... Bulletin du Bureau National
de Métrologie 93, 1, Chiron ed. (1993).
(3) Barbier P., Métrologie dans l'entreprise, outil de la qualité, Mouv. Fr.pour
la Qualité ed. (1995).
(4) Giacomo P., Mesure et métrologie, Bulletin du Bureau National de
Métrologie 101, 1, Chiron ed. (1995).
(5) Le Système international d’unités, BIPM, Gauthier Villars (1995).
(6) Special issue on physical units, Metrologia, 31, 403-541 (1995).
(7) Guide to the expression of uncertainty in measurement (GUM), ISO ed.,
(1993). Version française, AFNOR ed., Paris (1995).
(8) Vocabulaire international des termes fondamentaux et généraux de
métrologie (VIM), norme ISO, version française AFNOR ed., NF X 07 001,
Paris (1993).
(9) Ranson C., Introduction à la lecture du "guide pour l'expression des
incertitudes de mesures", Bulletin du Bureau National de Métrologie, 103
Chiron ed. (1996).

Marc Himbert

Conservatoire National des Arts et Métiers, chaire de métrologie

Page 10 sur10