Vous êtes sur la page 1sur 205

57

1
61
Jean-Michel Pou

0
33
www.afnor.org/editions

t:
tta
Laurent Leblond

Se
s-
ue
niq
ch
Préface de Didier Nordon

Te
et
es
nc
La Smart

cie
sS
de
lté
cu
:Fa
om
Metrology
x.c
rvo
ola
ch
1.s
uh
trologie des instru
mé me
la nts
De ...

...à
la mét ions
rologie des décis
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
57
1
0 61
33
t:
tta
Se
s-
ue
Les auteurs

niq
ch
Te
Jean-Michel Pou, président fondateur de la société Delta Mu, membre

et
es
de la commission AFNOR X07b « Métrologie », est aussi président du

nc
cie
cluster d’excellence Auvergne Efficience Industrielle. Son blog en ligne :

sS
http://www.smart-metrology.com. Antérieurement, il a été responsable

de
lté
d’accréditation COFRAC (Auvergne Qualité), directeur technique et com-

cu
:Fa
mercial (BEA Métrologie), directeur général délégué (A+Métrologie)

om
et président du GIE (groupement d’intérêt économique) Quantum Metwork.

x.c
rvo
Laurent Leblond, expert en Statistique Industrielle pour le Groupe PSA

ola
ch
à la direction Qualité, diplômé de l’École nationale de la statistique et

1.s
uh
de l’administration économique (ENSAE), a débuté sa carrière comme
ingénieur d’étude à l’Institut national de la santé et de la recherche médicale
(INSERM). Aujourd’hui, il réalise et déploie des référentiels appliqués
à la qualité, accompagne et conseille les métiers de la conception et de
la fabrication automobile en statistique industrielle dont la métrologie est
une composante d’application. Il est également expert auprès de la commis-
sion « Statistique » d’AFNOR et membre de la Société Française de Statis-
tique.

© AFNOR 2016
Couverture : création AFNOR Éditions – Crédit photo © 2016 Fotolia
ISBN 978-2-12-465545-8
Toute reproduction ou représentation intégrale ou partielle, par ­quelque procédé que ce soit, des pages
publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une
contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé du
copiste et non destinées à une utilisation collective et, d’autre part, les analyses et courtes citations
justifiées par le caractère scientifique ou d’information de l’œuvre dans laquelle elles sont incorporées (loi
du 1er juillet 1992, art. L 122-4 et L 122-5, et Code pénal, art. 425).
AFNOR – 11, rue Francis de Pressensé, 93571 La Plaine Saint-Denis Cedex
Tél. : + 33 (0) 1 41 62 80 00 – www.afnor.org/editions
57
1
0 61
33
t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
Sommaire

ola
ch
1.s
uh
Préface................................................................................................... IX
Avant-propos......................................................................................... XIII
Remerciements..................................................................................... XV

Partie I
La métrologie ?
C’est quoi, au juste ?
1 Savoir d’où nous venons pour comprendre où nous sommes
 – Quelques mots d’histoire de la métrologie............................ 3
1.1 Des mesures communes................................................................ 4
1.2 Une organisation internationale...................................................... 4
1.3 La métrologie légale : garantir la loyauté des mesures.................. 5
1.4 Métrologie industrielle..................................................................... 7
1.5 Métrologie industrielle et qualité..................................................... 8
2 Les mesures ne peuvent pas être justes !................................. 11
2.1 L’objet mesuré (ou la grandeur d’intérêt)......................................... 13
2.2 Les conditions environnementales.................................................. 15
2.3 Répétabilité et opérateurs............................................................... 19
2.4 L’étalon............................................................................................ 22
2.5 L’instrument..................................................................................... 24
2.6 D’autres sources d’incertitudes....................................................... 28
2.7 Incertitudes et modèle de mesure................................................... 28
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
3 Point de certitude ici-bas… où règne l’aléa !............................. 31

niq
ch
3.1 L’estimation des paramètres de la représentation

Te
et
d’un « phénomène prévisible »....................................................... 32

es
nc
3.2 Expression d’un « phénomène aléatoire »...................................... 37

cie
sS
3.3 La qualité des estimations............................................................... 46

de
lté
cu
3.4 La qualité des échantillons.............................................................. 52

:Fa
om
4 La métrologie : une intime de la statistique.............................. 57

x.c
rvo
4.1 L’approche « expérimentale »......................................................... 61

ola
ch
4.2 L’approche « analytique »............................................................... 68

1.s
uh
5 Bilan… d’incertitude..................................................................... 83
5.1 Quelques termes utiles du bilan des causes d’incertitude.............. 85
5.2 La propagation des incertitudes via un modèle de mesure............ 87
5.3 Les limites de l’approche probabiliste............................................. 94
Conclusion de la première partie........................................................ 97

Partie II
« – Les mesures ne sont pas justes.
– Très bien ! Mais que fait-on alors ! ? »
6 Le métrologue ne travaille pas pour les auditeurs !................. 101
7 La gestion d’un parc d’instruments de mesure
ou comment gagner le temps nécessaire pour faire
de la Smart Metrology !................................................................ 111
7.1 La périodicité d’étalonnage/vérification........................................... 113
7.2 Étalonnage/vérification versus surveillance.................................... 124
8 De l’inutilité apparente de l’incertitude de mesure................... 131
8.1 Norme AFNOR NF EN ISO 14253-1 :
comprendre pourquoi l’incertitude est ignorée................................ 132
8.2 Du tolérancement « au pire des cas »
au tolérancement quadratique........................................................ 134
8.3 La probable surperformance des procédés industriels.................. 137
8.4 Quelques mots sur les conséquences des incertitudes
en Recherche et développement.................................................... 140

VI
57
1
0 61
33
Sommaire

t:
tta
Se
s-
ue
9 La Smart Metrology au service du pilotage des procédés...... 143

niq
ch
9.1 Les principes pour juger de l’aptitude d’un procédé........................ 144

Te
et
9.2 Les cartes de contrôle..................................................................... 151

es
nc
cie
9.3 La Smart Metrology et la Maîtrise statistique des processus......... 153

sS
de
10 La Smart Metrology : métrologie des décisions....................... 157

lté
cu
:Fa
10.1 La norme AFNOR NF E 02-204 :

om
capabilité des processus de mesure et « partage » des risques...... 158

x.c
rvo
10.2 La norme AFNOR NF ISO/CEI GUIDE 98-4 :

ola
ch
incertitude de mesure et conformité............................................... 161

1.s
uh
10.3 Les « bandes de garde » :
réconcilier les concepts d’aptitude et de risque.............................. 164
10.4 Risque global, risque spécifique..................................................... 167
11 La Smart Metrology : métrologie (de l’usine) du futur.............. 171
11.1 Production industrielle et marketing commercial :
un (des) point(s) commun(s) ?......................................................... 172
11.2 Un aperçu du data mining (fouille de données) par Élodie............. 174
12 Smart Metrology et ISO 9001 version 2015................................ 183
Conclusion – La métrologie pourrait de nouveau changer le monde :
pour cela, elle doit changer de monde !............................................. 191
Postface – Lettre ouverte
aux auditrices et auditeurs tierce partie............................................ 195
Bibliographie......................................................................................... 201

VII
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
57
1
0 61
33
t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
Préface

ola
ch
1.s
uh

Erreur propitiatoire

Einstein jouait du violon. Mais jouait-il bien ? Les témoignages divergent. Il s’en
trouve selon lesquels il n’avait pas le sens du rythme. « Monsieur Einstein,
votre temps est très relatif », lui fut-il dit un jour. Ce mot est trop beau pour
qu’on se risque à en vérifier l’authenticité. Einstein était un physicien fâché
avec la mesure !

La notion de mesure a ceci d’universel qu’on peut la violenter avec n’importe


quel instrument : j’exprime mes désordres sur un piano. Mon état de mathé-
maticien excuse-t-il mon inaptitude à jouer en mesure ? Mesurer, n’est-ce
pas, est une trivialité indigne du mathématicien. Voué à l’abstraction, il n’est
pas plus formé à mesurer les temps en musique que, par exemple, les angles
sur une figure. On ne l’imagine pas mesurant au rapporteur les angles d’un
triangle, constatant que l’un d’eux vaut 90 degrés à epsilon près, concluant
que le triangle est rectangle à epsilon près donc que le théorème de Pythagore
s’y applique à epsilon près ! En mathématiques, si un angle est droit, il l’est
en toute rigueur – soit par hypothèse, soit suite à un raisonnement où il n’y
a place pour aucune approximation.

Résumons. Une mesure n’est jamais exacte. Or les mathématiques sont


l’exactitude même. Donc la mesure ne les concerne pas : à ne pas aller
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
en mesure, je ne fais pas honte à ma profession. Hélas pour ma défense,

niq
ch
ce raisonnement est vicié. Les mathématiques n’échappent pas au sort

Te
commun : il leur arrive d’être dans le flou, de manier des objets dont elles ont

et
es
une appréhension lacunaire et qu’elles ne peuvent pas serrer d’aussi près

nc
cie
qu’elles serrent un triangle. Elles ont là affaire à l’incertitude. Pour en évaluer

sS
de
l’ampleur (et pour d’autres raisons), il leur faut établir une notion de mesure

lté
qui leur soit appropriée. La tâche est tellement délicate que plusieurs théories

cu
:Fa
se disputent les faveurs des mathématiciens. Lors de mes études, je fus

om
x.c
initié à la « mesure de Lebesgue ». Voici, entre autres, ce qu’on m’a révélé.

rvo
La mesure d’un ensemble est un nombre réel positif. Elle peut, le cas échéant,

ola
ch
être égale à plus l’infini. Elle peut aussi être nulle : bien qu’il contienne

1.s
uh
une infinité d’éléments, l’ensemble des nombres entiers a une mesure égale
à zéro. Certains résultats sont vrais « presque partout », c’est-à-dire partout
sauf peut-être sur un ensemble de mesure nulle… Je suis assez loin des
mathématiques, désormais, pour percevoir combien des considérations
pareilles peuvent sembler loufoques. Éternel problème des mots. Le mot
« mesure » est-il le même pour un mathématicien, pour un métrologue ou
pour un joueur de pétanque qui détermine avec un bout de ficelle quelle boule
est la plus proche du cochonnet ? La réponse, je crois, est à la fois « oui »
et « non ». L’idée de départ est bien la même pour tous. Mais, poussées par
leurs besoins spécifiques, les mathématiques font bifurquer le sens du mot au
point que l’entendement courant finit par ne plus le reconnaître. La métrologie
élabore des procédures dont l’extrême technicité est sans proportion avec
l’arbitrage d’un litige à la pétanque.

Récapitulons. En musique, je ne vais pas en mesure. J’ai étudié une discipline


qui ne s’intéresse pas à la matière, donc pas non plus aux mesures que l’on
doit faire pour la connaître. Les perspectives qu’offrent les fort abstraites
théories de la mesure concoctées par cette discipline ne m’ont pas retenu.
En outre, je n’ai aucun goût pour les appareils scientifico-techniques :
ma familiarité avec la technologie atteint à grand-peine le minimum exigé
par la vie en société. Mais alors, pourquoi diable Jean-Michel Pou et
Laurent Leblond m’ont-ils demandé de préfacer un texte sur lequel je suis
incapable du recul qui me permettrait d’en dégager les lignes de force
ainsi que l’originalité et de les présenter au lecteur ? Je devine la réponse.
Une constatation désabusée hante le milieu de l’édition : on a beau avoir lu
et relu les épreuves, les avoir corrigées et re-corrigées, un livre dans lequel
il n’y a pas une seule erreur, cela n’existe pas. Alors, Jean-Michel Pou et
Laurent Leblond ont, exprès, commis l’erreur de faire préfacer un ouvrage de
métrologie par quelqu’un qui n’y connaît rien. Par ce sacrifice, ils ont satisfait

X
57
1
0 61
33
Préface

t:
tta
Se
s-
ue
le dieu cruel qui exige au moins une erreur dans chaque livre. Grâce à quoi,

niq
ch
le corps de l’ouvrage proprement dit se présente sous de meilleurs auspices :

Te
il n’y a plus rien d’impossible à ce qu’il soit vierge de toute erreur, lui.

et
es
nc
cie
Didier Nordon

sS
de
Site : http://www.didiernordon.org/

lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

XI
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
57
1
0 61
33
t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
Avant-propos

ola
ch
1.s
uh

Cet ouvrage a pour objet de partager ce qui, pour nous, auteurs, paraît une
évidence : bien que la métrologie, cette science de la mesure, fasse l’objet
de beaucoup de discussions – essentiellement dans le cadre des systèmes
Qualité des entreprises – il semble qu’elle n’ait pas encore trouvé sa véritable
place dans les organisations industrielles. Ce livre a ainsi pour ambition
de partager, avec la communauté des métrologues actifs ou en devenir –
et plus généralement avec toutes les personnes concernées par les
mesures – une vision de cette discipline à la hauteur des enjeux d’un avenir
encore à inventer. À cette échéance, dont le terme nous est inconnu,
les mesures seront omniprésentes et l’exploitation que nous en ferons devra
être réalisée en toute connaissance des potentialités qu’elles offrent.
La première partie de cet ouvrage est consacrée à une description de
la métrologie en général et des raisons pour lesquelles elle nous paraît
si mal comprise, si mal utilisée et surtout si mal exploitée. C’est dans une
seconde partie que nous exposerons les évolutions qui nous semblent
souhaitables dans le cadre d’une approche rénovée de la mesure.
Ce sujet est si vaste qu’il n’est pas possible, en un seul ouvrage, d’aborder
dans le détail tous les aspects qu’il faudrait néanmoins comprendre et
maîtriser pour devenir un « Smart Métrologue ». Nous avons donc fait le choix
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
de décrire l’essentiel de chacun des principes et des concepts nécessaires

niq
ch
puis de renvoyer le lecteur vers une littérature choisie pour approfondir

Te
chaque sujet spécifique. Le lecteur constatera que notre ouvrage comporte

et
es
de nombreux renvois vers des notes de bas de page. Il peut d’ailleurs être

nc
cie
lu et les concepts compris sans les lire, mais ces notes nous permettent

sS
de
d’apporter des précisions que nous jugeons indispensables à qui souhaite

lté
explorer davantage ce domaine.

cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

XIV
57
1
0 61
33
t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
Remerciements

ola
ch
1.s
uh

Nous tenons à remercier très chaleureusement Didier Nordon qui nous a fait
l’honneur, avec son style inimitable, de préfacer cet ouvrage. Nous souhai-
tions surtout que cette préface invite le lecteur, par un trait d’intelligence et
d’humour décalé, à entamer ce livre dans un esprit critique parce qu’en toute
chose (presque) sérieuse, il faut savoir garder la mesure ! Nous ne pouvions
espérer mieux.
Un grand merci à Olec Kovalevsky qui nous a fait bénéficier de son talent
de qualiticien en rédigeant le dernier chapitre. Sa contribution témoigne
d’une éthique professionnelle qu’il partage avec nous et qui s’appuie sur
la créativité et la responsabilité de chacun pour la sauvegarde de tous.
Nous adressons également notre immense gratitude à Christine Silvand
et Catherine Dô-duc pour leurs inestimables corrections du manuscrit.
La lecture de cet ouvrage s’en trouve nettement améliorée.
Pour finir, il faut rendre hommage à celui sans lequel rien n’aurait été possible.
Il a présidé à nos existences, à nos trajectoires professionnelles et à notre
rencontre. Le lecteur aura compris que les auteurs lui vouent une certaine
forme d’admiration, presque une dévotion. Chacun aura reconnu, dans cette
courte description, celui auquel nous devons tant : le hasard ! Et puisqu’il est
également au cœur de la Smart Metrology, il méritait bien cet hommage.
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
57
1
0 61
33
t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
Partie I

ola
ch
1.s
uh
La métrologie ?
C’est quoi, au juste ?

Un métrologue, « titre » généralement obtenu lorsqu’une personne prend


cette fonction dans une entreprise, peut se sentir rapidement mal à l’aise
dans sa vie quotidienne lorsqu’il s’agit de parler de son statut. Pour s’en
convaincre, il suffit d’observer la réaction de ses ami(e)s lorsque ledit
métrologue énonce l’intitulé de son métier. Systématiquement ou presque,
les yeux de ses interlocuteurs s’ouvrent en grand avant que ne fuse
l’exclamation : « Mais c’est quoi, ça ? Jamais entendu parler ! »
Alors que la question de la fiabilité des mesures était encore au cœur
de la société française à la fin du XVIIIe siècle, il semble qu’elle ne soit tout
simplement plus aussi cruciale aujourd’hui. Inconsciemment et collectivement,
nous avons acquis la sensation que les mesures vont de soi et expriment
une « objective réalité ». Personne (ou presque) ne se soucie donc plus
de cette question de nos jours…
« Le problème de la métrologie, c’est que nos enfants l’apprennent dans
la cour de l’école, comme ils apprennent la vis et l’écrou. » Pierre Giacomo,
alors directeur du Bureau international des poids et mesures (BIPM),
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
faisait ce constat au cours du Xe Congrès International de Métrologie en 2001

niq
ch
à Saint-Louis (68). Par cette remarque, il signifiait que la perception que nous

Te
avons de la mesure date de notre prime enfance et qu’elle est acquise de

et
es
façon quasi inconsciente. En effet, nous entendons chaque jour ou presque,

nc
cie
et depuis toujours, des résultats de mesures. Celles-ci sont exprimées par

sS
de
une valeur unique, donc implicitement juste. Dès lors, tout comme l’enfant

lté
connaît la vis et l’écrou par leur fonction, et non par leur technologie très

cu
:Fa
compliquée, il connaît la mesure par sa fonction mais non par sa technologie,

om
x.c
elle aussi très compliquée.

rvo
ola
Cette première partie a pour objet d’analyser, à partir de l’histoire de la mesure,

ch
1.s
la manière dont elle est perçue et de donner les éléments « techniques » pour

uh
comprendre ce qu’est un résultat de mesure. Nous montrerons ainsi à quel
point notre intuition est éloignée de la réalité.

2
57
1
0 61
33
t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
1

ola
ch
1.s
uh
Savoir d’où nous venons
pour comprendre
où nous sommes
Quelques mots d’histoire
de la métrologie

Le besoin de mesures est pratiquement né avec l’Homme pour quantifier


le temps puis les distances pour ses voyages et enfin les quantités pour
ses achats. Au-delà de ces nécessités du quotidien, les mesures sont
essentielles à la science, tant fondamentale qu’appliquée, puisqu’elle est
l’indispensable outil permettant de vérifier une théorie. Par exemple, le boson
de Higgs, fruit de l’expérience de pensée de Peter Ware Higgs1, n’a acquis
un statut d’existence effective qu’au moment d’une mesure de ses effets.
De nombreuses théories scientifiques naissent ainsi d’observations et
de mesures qui alimentent des modélisations. Aussi, bien que nous n’en
n’ayons qu’une conscience partielle, la mesure est omniprésente et indis-
pensable pour le fonctionnement au quotidien de notre mode de vie.

1 Physicien britannique (1929).


57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
1.1 Des mesures communes

niq
ch
Te
et
À la veille de la Révolution française, le peuple faisait connaître, dans

es
nc
les cahiers de doléances, sa volonté de voir enfin émerger « un poids et

cie
une mesure ». L’histoire prête, même s’il y a débat, à Charles Maurice

sS
de
de Talleyrand-Périgord, évêque d’Autun puis homme politique, le principe

lté
cu
fondateur d’un système d’unités devant être partagé par l’ensemble de

:Fa
la communauté savante et des peuples : « considérant […] que le seul

om
x.c
moyen d’étendre cette uniformité aux nations étrangères, et de les engager

rvo
ola
à convenir d’un même système de mesure, est de choisir une unité qui,

ch
dans une détermination, ne renferme rien ni d’arbitraire ni de particulier

1.s
uh
à la formation d’aucun peuple sur le globe ». Une fois ce principe accepté,
et après de nombreux débats, la première définition du mètre2 a été votée
le 26 mars 1791 par l’Assemblée constituante. Le mètre est alors défini comme
« la grandeur du quart du méridien terrestre, pour base du nouveau système
de mesure ». Le système métrique décimal est ensuite institué le 18 germinal
an III (7 avril 1795) par la loi « relative aux poids et mesures ».
Une fois la définition adoptée, il a fallu la « matérialiser ». Sept ans environ
seront nécessaires pour connaître enfin la longueur de ce nouveau « mètre »
en « mesurant » la distance entre Dunkerque et Barcelone.

1.2 Une organisation internationale


Le 20 mai 1875, 17 États signent la Convention du mètre. Elle succède à
la Convention internationale du système métrique, mise en place en 1870
à Paris et dont l’objectif, fixé par Napoléon III, était de propager l’usage géné-
ral des mesures métriques, de faciliter les échanges et les comparaisons
de mesures entre les États et de procéder à l’élaboration d’un mètre
international à traits, donnant ainsi à la France un rôle moteur. Cette conven-
tion donne naissance à la Convention générale des poids et mesures3
(CGPM) et au Bureau international des poids et mesures4 (BIPM).
La CGPM est un organe de direction. Elle regroupe les délégués des États
membres ainsi que des observateurs des États associés. Elle discute et
examine les dispositions à prendre pour assurer l’extension et l’amélioration
du Système international d’unités (SI), sanctionne les résultats de nouvelles

2 Dont il a fallu, bien sûr, inventer le nom pour l’occasion !


3 Lien : http://www.bipm.org/fr/worldwide-metrology/cgpm/
4 Lien : http://www.bipm.org/fr/bipm/

4
57
1
0 61
33
Savoir d’où nous venons pour comprendre où nous sommes...

t:
tta
Se
s-
ue
déterminations métrologiques fondamentales et prend des résolutions

niq
ch
scientifiques de portée internationale dans le domaine de la métrologie

Te
(science des mesures et ses applications) ainsi que des décisions impor-

et
es
tantes concernant l’organisation, le développement du BIPM et sa dotation.

nc
cie
sS
Le BIPM est chargé5 :

de
►► « d’établir et de maintenir des étalons de référence appropriés, utilisés

lté
cu
pour conduire, au plus haut niveau métrologique, un nombre limité

:Fa
om
de comparaisons clés internationales ;

x.c
►► de coordonner les comparaisons internationales des étalons de mesure

rvo
ola
nationaux par l’intermédiaire des Comités consultatifs du Comité

ch
1.s
international des poids et mesures, en jouant le rôle de laboratoire pilote

uh
pour certaines comparaisons considérées prioritaires et en menant
les travaux scientifiques requis pour ce faire ;
►► de proposer certains services d’étalonnage aux États membres ;
►► de coordonner des activités entre les laboratoires nationaux de métrologie
des États membres, notamment par l’intermédiaire de l’arrangement
de reconnaissance mutuelle du CIPM6 et de leur fournir des services
techniques afin de soutenir leur travail ;
►► de collaborer, selon les besoins, avec d’autres organisations inter-
gouvernementales et organismes internationaux, directement ou par
l’intermédiaire de comités communs ;
►► d’organiser des réunions scientifiques visant à identifier les évolutions
futures du système mondial de mesure qui seront nécessaires pour
répondre aux exigences actuelles et à venir en matière de mesures dans
l’industrie, les sciences et la société ;
►► d’informer, par le biais de publications et de réunions, la communauté
scientifique, le grand public et les décideurs sur les questions liées à
la métrologie et à ses avantages. »

1.3 La métrologie légale :


garantir la loyauté des mesures
Cette nouvelle structure des unités de mesure, avant même qu’elle soit
internationale, a permis de faire émerger, conformément aux souhaits
des citoyens, une organisation qui permettra de garantir la loyauté des

5 D’après le site du BIPM.


6 Comité international des poids et mesures (International committee for weights and
measures).

5
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
échanges commerciaux (« un poids et une mesure »). Le 3 novembre 1801,

niq
ch
un décret rend légal le système métrique en France. Un corps d’inspecteurs

Te
des Poids et mesures est créé. Le 4 juillet 1837, une loi promulguée par

et
es
Louis Philippe interdit, sous peine de sanctions (art. 479 du Code Pénal),

nc
cie
l’utilisation d’autres unités que celles définies par la loi du 18 germinal An III.

sS
de
Cette loi entre en vigueur le 1er janvier 1840, date à laquelle le corps des

lté
inspecteurs de 1801 est transformé en un corps officiel des vérificateurs

cu
:Fa
des poids et mesures, fonctionnaires assermentés chargés de lutter

om
x.c
efficacement contre la fraude.

rvo
ola
Ces vérificateurs des Poids et mesures peuvent dresser des procès-verbaux

ch
1.s
en dehors de la présence d’un magistrat. Lesdits procès-verbaux sont ensuite

uh
transmis au juge de paix dans le cas de l’usage de faux poids ou au tribunal
correctionnel dans le cas d’usage d’instruments faux7.
L’ordonnance du 16 juin 1839 fixe par exemple les limites d’acceptation
des erreurs des balances8 : ces limites servent de base à la déclaration
de conformité desdites balances. Dans le cadre de sa mission qui consiste
à garantir la loyauté des échanges commerciaux (et puisque l’usage des
instruments concernés est connu « à l’avance »), le Service des poids
et mesures9 peut appliquer des limites d’erreurs maximales identiques sur
tout le territoire. L’étalonnage, dans ce cadre, n’est qu’une étape intermé-
diaire qui permet de définir les erreurs de l’instrument afin de les comparer
aux limites acceptables pour déclarer sa conformité (ou procéder à son
ajustage voire à sa réforme), ce qui importe finalement aux marchands et
aux consommateurs.

En 2016, cette mission de contrôle des instruments de mesure utilisés dans


le cadre des échanges commerciaux est toujours en vigueur. Elle est placée
sous le contrôle du Bureau national de métrologie (BNM) qui dépend de
la Direction générale des entreprises10 (DGE) depuis le 16 septembre 2014.
Le BNM est chargé de faire appliquer les règlements, concernant notamment
la conformité des instruments de mesure utilisés pour le commerce.
Cette conformité repose en grande partie, mais pas uniquement, sur la
vérification périodique desdits instruments. La vérification est matérialisée
par une étiquette verte apposée sur l’instrument et à la vue du consommateur.
Cette étiquette précise une date de validité, établie à partir de la date

7 C’est-à-dire « non-conformes » aux décrets qui en fixent les limites d’acceptation.


8 Écarts entre valeurs étalons et valeurs mesurées.
9 Première dénomination de l’actuel BNM.
10 Anciennement Direction générale de la compétitivité des industries et des services (DGCIS).

6
57
1
0 61
33
Savoir d’où nous venons pour comprendre où nous sommes...

t:
tta
Se
s-
ue
de vérification, et d’une périodicité fixée par décret. Il est important de

niq
ch
préciser ici que cette stratégie n’est pas uniquement française. L’Organi-

Te
sation internationale de la métrologie légale (OIML) joue en quelque sorte

et
es
le même rôle que le BIPM, mais dans le monde de la métrologie légale.

nc
cie
L’OIML propose notamment des modèles de réglementation pour les

sS
de
différentes catégories d’instruments de mesure. Les États membres prennent

lté
l’engagement moral de mettre ces modèles en application autant que

cu
:Fa
possible.

om
x.c
Le succès du BNM et, avant lui, de toutes les instances qui se sont chargées

rvo
ola
de rassurer le consommateur depuis 1837, est éclatant. À l’inverse d’il y a

ch
1.s
plus de 200 ans, plus personne, de nos jours, ne se tracasse « du poids

uh
et de la mesure », si ce n’est au sens figuré. Du fait de ce succès, et dans
notre mémoire collective, le doute sur les mesures a totalement disparu.
Les notions « d’instrument conforme » et de « mesure juste » apparais-
sent « associées ». Le besoin exprimé par le peuple (« Un poids et une
mesure ») est donc satisfait.

1.4 Métrologie industrielle


Depuis maintenant près de deux siècles, la métrologie industrielle se trouve
trop souvent cantonnée à l’étalonnage des instruments de mesure afin
de déterminer leur conformité par rapport à des erreurs maximales tolérées
(EMT) par quasi-mimétisme avec les pratiques de la métrologie légale.
Or, dans le monde industriel, la problématique ne se limite pas à la loyauté.
La métrologie doit permettre de :
►► fabriquer conforme et de préférence, du premier coup ;
►► prendre des décisions pertinentes eu égard, notamment, à la conformité
des produits et/ou des analyses lorsque la mesure sert à statuer sur
ce point.
Pour résumer en une formule : quand la métrologie légale doit garantir la
loyauté des échanges commerciaux, la métrologie industrielle doit garantir
la fonctionnalité des produits par de bonnes décisions. Ce sont ces bonnes
décisions qui sont indispensables à l’entreprise pour rester compétitive
et donc assurer sa pérennité.
Pour la métrologie légale, la maîtrise des instruments de mesure est un acte
suffisant. Cette maîtrise passe par des vérifications périodiques parfaitement
décrites par des décrets établis à partir des enjeux et des conditions connues
d’utilisation.

7
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
Dans le cadre industriel, la question de la mesure est beaucoup plus

niq
ch
complexe. Comme nous le verrons par la suite, et contrairement à la per-

Te
ception inconsciente que nous avons évoquée précédemment (« un poids

et
es
et une mesure »), les mesures ne peuvent pas être justes et les étalonnages

nc
cie
périodiques ne changent rien à cette fatalité. La seule prise en compte des

sS
de
étalonnages pour envisager la qualité des mesures est une réflexion aussi

lté
stupide que le fait de croire qu’en voiture, il suffit d’avoir de bonnes plaquettes

cu
:Fa
pour bien freiner !

om
x.c
rvo
ola
1.5 Métrologie industrielle et qualité

ch
1.s
uh
Malgré des démarches entamées dans les années 1980 par le BNM afin
de sensibiliser les industriels à cette discipline, il faut bien admettre que
le véritable essor de cette dernière, ou plutôt le succès des prestations
d’étalonnage, est essentiellement dû à l’avènement des référentiels qualité,
la série des normes « ISO 9000 » en tête.
Aujourd’hui encore, si le besoin technique de maîtrise de la mesure est
rarement ressenti11 comme essentiel par les industriels, il leur faut, pour
déclarer la conformité aux référentiels, prouver au minimum qu’ils ont bien
étalonné leurs instruments. Si chacun peut constater que le raccordement12
est devenu une pratique acceptée, l’évaluation des incertitudes de mesure
n’en est, quant à elle, qu’à ses débuts. La difficulté conceptuelle13 et
la difficulté mathématique n’ont pas aidé à faire accepter ce besoin, tant
du côté des industriels que de celui des auditeurs14. Il est en effet plus simple
de s’assurer que le moyen a été vérifié15 que d’évaluer la pertinence d’un
calcul d’incertitude !
Pour les vérifications, et faute de décret, les industriels s’appuient la plu-
part du temps sur des normes forcément généralistes pour s’assurer
de la conformité de leurs instruments. Dans certains domaines (l’électricité
notamment), les spécifications « constructeur » servent ainsi de base à

11 Tout se passe, en effet, pour les industriels comme pour les consommateurs : les mesures
sont apparemment justes.
12 Il s’agit de la traçabilité métrologique, c’est-à-dire la propriété d’un résultat de mesure
selon laquelle ce résultat peut être relié à une référence par l’intermédiaire d’une chaîne
ininterrompue et documentée d’étalonnages.
13 On a mis des années, à partir de 1837, pour oublier les erreurs de mesure dans notre vie
de consommateur.
14 Ceci est d’autant plus vrai que tout le monde se passe de ces calculs d’incertitudes depuis
toujours.
15 Il suffit de consulter un document et de regarder une étiquette.

8
57
1
0 61
33
Savoir d’où nous venons pour comprendre où nous sommes...

t:
tta
Se
s-
ue
la déclaration de conformité. Sachant que l’incertitude de mesure finale

niq
ch
dépend en grande partie de composantes propres aux conditions d’utilisation

Te
(et strictement indépendantes des caractéristiques intrinsèques du moyen),

et
es
une telle stratégie (norme ou spécification) ne peut pas être satisfaisante

nc
cie
du point de vue technique.

sS
de
En revanche, on se satisfait de la sécurité « inconsciente et séculaire »

lté
cu
associée au mot « conforme », résultante d’une simple vérification

:Fa
om
de l’instrument. Les normes sont trop généralistes pour être universelles.

x.c
Elles décrivent les erreurs que la technologie de tel ou tel instrument peut

rvo
ola
générer et la façon de les déterminer. Cependant, elles ne peuvent en aucun

ch
1.s
cas fixer une limite16 cohérente avec tous les usages. Il en va de même pour

uh
les spécifications « constructeur » qui représentent l’engagement du fabricant
mais ne présument en rien de l’incertitude qui s’exprimera finalement
à l’utilisation du moyen.
Ces dernières années, les métrologues, conscients du caractère insatisfaisant
de ces usages, ont pu observer que la quantification des incertitudes de
mesure (et pas uniquement des erreurs de l’instrument) est une question
récurrente mais également une pratique qui devient progressivement
incontournable. Cette nouvelle orientation, plus technique, vise à adapter une
stratégie à la réalité de l’entreprise et ne pourra que valoriser le travail des
métrologues. Aussi, et plutôt que d’obtenir un simple tampon de conformité,
les métrologues devront exprimer et justifier un besoin spécifique qui manque
à ce jour.

16 Les normes françaises donnent encore des limites, notamment dans le domaine de la métro-
logie dimensionnelle, alors qu’une norme internationale (ISO 14978:2006, Spécification
géométrique des produits (GPS) – Concepts et exigences généraux pour les équipements
de mesure GPS) s’y oppose.

9
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
ch
niq
ue
s-
Se
tta
t: 33
0 61
1 57
57
1
0 61
33
t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
2

ola
ch
1.s
uh
Les mesures
ne peuvent pas être justes !

Malgré l’idée que nous nous en faisons, les mesures ne peuvent pas être
justes. Il n’est pas nécessaire d’avoir fait de longues études en mécanique
pour convenir, par exemple, que la longueur d’une pièce en aluminium est
une propriété qui ne signifie rien par elle-même. En effet, cette longueur
dépend directement de la température d’observation17. De ce fait, exprimer
cette longueur sans fixer la température reviendrait à exprimer, par exemple,
une distance par rapport à un lieu sans point d’origine. Ce simple constat
physique et accepté par tout le monde permet de rappeler ce qui devrait être
une évidence : la mesure n’est pas juste car il est tout simplement impossible
de mesurer « juste », c’est-à-dire en maîtrisant toutes les influences.
Pour rester sur l’exemple de la dilatation, la mesure est quotidiennement
réalisée dans des conditions industrielles, voire de laboratoire, alors que
lesdites conditions ne peuvent pas être parfaites18. Cette incertitude sur les

17 Il s’agit de la dilatation des matériaux. La longueur est une fonction linéaire de la température
dans une plage donnée, eu égard à la taille et au coefficient de dilatation de la matière
concernée suivant la formule Lθ = Lθref × (1 + λ × θ) où λ représente le coefficient de dilatation
du matériau et θ la température d’observation.
18 Même si ces conditions étaient en réalité parfaites, nous ne le saurions pas, puisqu’il nous
faut les mesurer pour les connaître…
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
conditions de la mesure entraîne une incertitude sur le résultat de la mesure.

niq
ch
Cette réalité, qui heurte nos croyances, n’a pas été – en général – suffisam-

Te
ment prise en compte par l’industrie. Cette dernière s’est organisée comme

et
es
si les mesures étaient justes. Elle s’impose ainsi des exigences qui ne sont

nc
cie
pas nécessairement l’expression d’un besoin réel. Aussi, les résultats actuels

sS
de
étant souvent probants19, l’industrie se prive potentiellement de sources

lté
importantes de gains, tant en termes de productivité que de consommation

cu
:Fa
de matières premières et d’énergie. Croire que l’on mesure « juste », c’est

om
x.c
aussi croire qu’on a fonctionnellement besoin de « tant » alors qu’on pourrait

rvo
peut-être se contenter de « moins ». Autrement dit, la question que pose

ola
ch
la non-prise en compte de l’incertitude de la mesure est la suivante : les pro-

1.s
uh
duits qui fonctionnent aujourd’hui sont-ils des produits qui « sur-fonctionnent »,
donc qui coûtent trop cher ?
L’obtention d’un résultat de mesure relève d’un processus faisant intervenir
plusieurs facteurs, notamment le mesurande20 lui-même mais aussi
l’environnement de la mesure, l’opérateur, l’instrument, la méthode de mesure,
etc. Comme tous les processus industriels, le résultat d’une mesure varie
du fait des inévitables variations (ou imperfections) de chacun des facteurs
qui participe à l’obtention d’une mesure (voir figure 2.1).

Figure 2.1 Synoptique d’un processus de mesure

19 Ce qui n’aide pas à la prise de conscience nécessaire concernant la (non-)qualité intrin-


sèque des mesures.
20 Pour le métrologue, le mesurande est l’item (objet, analyse, etc.) à caractériser. Le VIM défi-
nit le mesurande comme étant la « grandeur que l’on veut mesurer ».

12
57
1
0 61
33
Les mesures ne peuvent pas être justes !

t:
tta
Se
s-
ue
Chacun des facteurs apporte sa nécessaire contribution à l’obtention

niq
ch
du résultat mais aussi ses propres imperfections. Ni l’objet mesuré, ni l’opé-

Te
rateur, ni les conditions de mesure ne sont parfaits et le résultat obtenu ne

et
es
peut donc pas l’être lui non plus. Nous aborderons l’évaluation des imper-

nc
cie
fections des facteurs et de l’imperfection globale qui en résulte au chapitre

sS
de
suivant (chapitre 3 « Point de certitude ici-bas… où règne l’aléa ! »). Il faut

lté
d’abord se convaincre des imperfections de chaque contributeur (facteur)

cu
:Fa
et de leur nature.

om
x.c
rvo
ola
2.1 L’objet mesuré (ou la grandeur d’intérêt)

ch
1.s
uh
Si on vous demande de mesurer la température d’une pièce, vous allez être
immédiatement confronté à une difficulté qui vous paraîtra probablement
évidente pour cet exemple mais qui est la même quel que soit le type
de mesure à réaliser : la température d’une pièce n’étant pas physiquement
homogène21, le résultat de la mesure varie en fonction de l’endroit où le
thermomètre est placé. Si la température, en un point donné de la pièce,
est ce qu’elle est, elle n’est pas identique en tout point de ladite pièce.
De surcroît, il est probable qu’elle varie au cours du temps. Le résultat de
la mesure a donc un caractère aléatoire, dû à l’inhomogénéité de la tempé-
rature réelle dans un volume donné et à l’instant où la mesure est réalisée.
Ce phénomène, facilement compréhensible ici, se produit pour tout type
de mesure. Pour prendre un autre exemple explicite, la mesure d’une
concentration en éthanol d’une solution quelconque sera impactée
par l’inhomogénéité de la solution et dépendra, elle aussi, de la localisation
du prélèvement. Évidemment, plus la solution sera homogène, moins
l’effet « prélèvement » sera perceptible mais, la perfection n’existant pas,
cet effet sera bel et bien présent et ce, dans toutes les mesures.
Plus surprenant peut-être pour les esprits habitués aux certitudes, les pro-
blèmes de ce type se rencontrent également dans le monde des pièces
mécaniques. Quoi de plus simple en effet que d’imaginer un alésage22
comme un cercle défini par un centre (localisé quelque part sur une pièce)
et un diamètre ? Nous avons tous appris les propriétés du cercle à l’école et
cela ne nous pose donc aucun problème de visualisation. Malheureusement,
un cercle théorique reste un objet mathématique impossible à réaliser

21 Puisque l’air chaud est plus léger que l’air froid, il monte naturellement, ce qui crée un
gradient de température entre le sol et le plafond.
22 Un trou rond pour les non-initiés.

13
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
physiquement. S’il est possible de fabriquer des pièces qui sont très proches

niq
ch
d’un cercle, ce ne sont pas pour autant des cercles au sens théorique

Te
du terme (voir figure 2.2).

et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh
Figure 2.2 Théorie versus réalité : cas d’un alésage

Comme l’illustre la figure 2.2, la notion de diamètre, si facilement appréhen-


dable en théorie, n’a pas de sens dans le monde physique. Les alésages
n’étant pas des cercles, mais plutôt des « patates », la notion de diamètre
disparaît et la mesure qui en est réalisée dépend, comme dans les exemples
précédents, de sa position. Cette position étant aléatoire (puisque la pièce
à mesurer dans un processus de fabrication se présente en effet souvent
« comme elle vient »), le résultat de la mesure le devient également. Même
si, en chaque position précise, la valeur de la distance entre les deux extré-
mités opposées de la pièce pourrait être envisagée comme « constante23 »,
il est exclu de la connaître parfaitement, en tout cas dans le cadre de mesures
classiques24. Pour les mêmes raisons que celles évoquées précédemment,
les notions de « distance entre deux plans », de « distance entre deux droites »
ou toute autre définition géométrique reposant sur des modèles théoriques
sont elles aussi sujettes à l’effet « échantillonnage ».
Ces quelques exemples permettent simplement d’illustrer l’inexorable
part d’incertitude qui relève de l’objet mesuré lui-même et qui existe dans
quasiment tous les processus de mesure. Le Vocabulaire international de
la métrologie25 (VIM) a d’ailleurs fait entrer une nouvelle définition (voir

23 Ce qui n’est, là encore, qu’une hypothèse théorique, compte tenu du fait de l’influence de
la température au moment de l’observation et éventuellement de bien d’autres facteurs.
24 Il existe de nos jours des technologies, le scanning par exemple, qui permettent de mieux
appréhender « la réalité » de la pièce mais elles ont également leurs propres limites.
25 Ou, dans la collection française des normes AFNOR : la norme AFNOR NF ISO/CEI
GUIDE 99:2011, Vocabulaire international de métrologie – Concepts fondamentaux et
généraux et termes associés (VIM).

14
57
1
0 61
33
Les mesures ne peuvent pas être justes !

t:
tta
Se
s-
ue
ci-après) dans sa dernière édition, définition qui invite à réfléchir à ce phé-

niq
ch
nomène pour tout processus de mesure :

Te
et
« 2.27 – Incertitude définitionnelle, f : composante de l’incertitude de mesure

es
nc
qui résulte de la quantité finie de détails dans la définition d’un mesurande.

cie
sS
NOTE 1 : l’incertitude définitionnelle est l’incertitude minimale que l’on peut

de
lté
obtenir en pratique par tout mesurage d’un mesurande donné.

cu
:Fa
NOTE 2 : toute modification des détails descriptifs conduit à une autre

om
x.c
incertitude définitionnelle.

rvo
ola
NOTE 3 : dans le GUM26:1995, D.3.4, et dans la CEI 6035927, le concept

ch
1.s
d’incertitude définitionnelle est appelé "incertitude intrinsèque". »

uh
Pour finir sur ce thème de l’objet lui-même, il convient de signaler la problé-
matique des essais et notamment des essais destructifs. S’il est intéressant
de savoir qu’une voiture d’un type donné a passé avec succès l’épreuve
du crash-test, il faut également noter que le véhicule utilisé dans ce cadre
ne sera jamais sur les routes. Or, c’est pourtant bien la capacité de toutes
les voitures du type donné à résister à ce test que nous cherchons à évaluer
et pas uniquement celle du véhicule testé. Il en est ainsi pour quasiment
tous les essais, quel que soit leur type. L’incertitude définitionnelle doit donc
être considérée pour une production globale dont quelques échantillons
seulement sont mesurés.

2.2 Les conditions environnementales


Il était aisé de commencer le chapitre précédent (chapitre 1 « Savoir d’où
nous venons pour comprendre où nous sommes – Quelques mots d’histoire
de la métrologie ») en faisant référence à la température dans le domaine
des mesures mécaniques afin de sensibiliser le lecteur à l’incertitude
de mesure. En effet, ce phénomène est connu de tous. Dans ce domaine,
puisqu’il a fallu statuer sur une température de référence, la température
moyenne sous nos latitudes tempérées a été fixée à 20 °C par la norme
AFNOR NF EN ISO 128 dont la dernière édition date de 200229.

26 Guide to the expression of uncertainty in measurement : guide pour l’expression de l’incer-


titude de mesure.
27 CEI 60359:2001, Appareils de mesure électriques et électroniques – Expression des perfor-
mances.
28 Spécification géométrique des produits (GPS) – Température normale de référence pour
la spécification géométrique des produits et vérification.
29 La première version de la norme date de 1951.

15
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
Dans un environnement industriel, la température ne peut pas être main-

niq
ch
tenue à strictement 20 °C en permanence. Les mesures deviennent alors

Te
aléatoires du fait du caractère aléatoire de la température, même si ce dernier

et
es
paramètre peut être contenu à l’aide notamment d’un système de climatisation.

nc
cie
Il est important de prendre conscience que cette température apporte de

sS
la dispersion (puisqu’elle n’est pas constante), mais également un biais

de
lté
si elle n’est pas en moyenne égale à la température de référence.

cu
:Fa
Ce point est important à retenir : au-delà des aspects environnementaux,

om
x.c
tous les facteurs participant au processus de mesure peuvent potentiellement

rvo
apporter des dispersions (effets aléatoires) mais aussi des biais (effets

ola
ch
systématiques). Ces deux phénomènes, dispersion et biais, seront analysés

1.s
uh
en détail dans le chapitre suivant (chapitre 3 « Point de certitude ici-bas…
où règne l’aléa ! »). Avant d’aborder ces derniers avec des formules,
il est essentiel de bien comprendre ce dont il est question. Les profils
de température (voir figures 2.3 et 2.4 ci-après) montrent des dispersions
identiques mais, dans le cas de l’environnement décrit par la figure 2.4,
le biais sur la température apportera une source d’incertitude supplémen-
taire dans le processus.
La température n’est pas le seul facteur environnemental susceptible
d’influencer les processus de mesure. Il n’est pas possible de faire la liste
de tous les comportements de l’ensemble des objets mesurables par rapport
aux paramètres du milieu dans lequel ils sont mesurés. Nombre d’entre
eux sont d’ailleurs certainement inconnus. Néanmoins, quelques exemples
classiques peuvent être cités.
Dans la mesure de masses, il faut tenir compte de la poussée d’Archimède.
Celle-ci est liée à la masse volumique de l’air ambiant30 (qui dépend de
la température et de l’humidité) mais également à l’accélération locale de la
pesanteur31 puisqu’il s’agit en fait de la mesure d’une force. Si les paramètres
« température et humidité » sont ici des phénomènes aléatoires, l’accélération
locale ne l’est pas car elle reste constante en un lieu donné32. On retrouve donc
un phénomène (la poussée d’Archimède) dont la participation dans l’incertitude
globale de mesure est composée d’effets aléatoires et systématiques.
Dans le cas des pièces plastiques, mais également des « papiers et cartons »,
l’humidité ambiante (comme la température) peut modifier les caractéris-
tiques dimensionnelles.

30 Voir l’article assez complet sur le sujet : http://fr.wikipedia.org/wiki/Masse_volumique_de_l’air


31 L’accélération locale de la pesanteur dépend de la latitude et de l’altitude.
32 À la position de la lune près, qui induit des déplacements de masses d’eau qui provoquent
des variations de g négligeables dans la plupart des applications mais pas dans la balance
du watt par exemple.

16
57
1
0 61
33
Les mesures ne peuvent pas être justes !

t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

Figure 2.3 Exemple de relevé de la température (au voisinage de 20 °C)

17
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
niq
ch
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

Figure 2.4 Exemple de relevé de la température (au voisinage de 24 °C)

18
57
1
0 61
33
Les mesures ne peuvent pas être justes !

t:
tta
Se
s-
ue
Pour finir sur un exemple moins traditionnel, certains résultats d’essais

niq
ch
peuvent être influencés par la luminosité ambiante. Lorsqu’il s’agit de noter

Te
le niveau d’usure d’un spécimen33 par comparaison à des « usures types »,

et
es
la lumière ambiante, au moment de la comparaison, peut impacter le résultat

nc
cie
de mesure suivant son intensité.

sS
de
lté
C’est probablement dans ce domaine des causes environnementales

cu
:Fa
(température, humidité, accélération, environnement électromagnétique,

om
luminosité, etc.) que l’expertise du métrologue, au sens de l’homme

x.c
rvo
qui fait les mesures, est probablement la plus importante. En effet,

ola
et même s’il ne sait pas toujours l’exprimer de façon théorique, le praticien

ch
1.s
a remarqué que tel ou tel paramètre influence son résultat de mesure.

uh
Une recherche bibliographique sérieuse permettra généralement de recueillir
des informations précieuses quant aux lois de comportement de la grandeur
d’intérêt compte tenu des facteurs incriminés. Si cette bibliographie n’est
pas disponible, il sera inévitable, soit de modéliser le comportement34, soit de
quantifier la dispersion possible du résultat liée aux conditions de mesure35.

2.3 Répétabilité et opérateurs


La mesure demande souvent de la dextérité, tout comme le tir à l’arc ou à
la carabine. Dans un monde où les mesures semblent justes et où les
appareils sont souvent à affichage numérique, on l’oublie trop rapidement.
La réalisation de mesures est souvent une opération relativement complexe.
Elle dépend de la façon de présenter l’objet et l’instrument ainsi que des
efforts nécessaires à leurs maniements, de la vitesse de réalisation36 ou
de l’interpolation de lecture pour les instruments à affichage analogique
(malgré tout encore nombreux) pour ne citer que quelques exemples.

En fait, et l’expérience le montre, le fait de répéter la même mesure, sur le


même objet, avec le même opérateur, avec la même méthode et dans un
temps très court conduit à des résultats qui ne sont pas tous identiques.

33 Certains essais cherchent à quantifier la résistance à l’abrasion d’un revêtement (les par-
quets mélaminés par exemple).
34 Ce qui nécessite d’effectuer des plans d’expérience. Pour plus d’informations, on pourra
consulter l’ouvrage de Walter Tinsson, Mathématiques & applications 67 – Plans d’expérience :
constructions et analyses statistiques, Springer-Verlag Berlin, Heidelberg Gmbh (2010).
35 Ce qui suppose également des expériences à réaliser dans des conditions plus souples
que les plans d’expérience et avec des traitements mathématiques plus simples mais moins
informatifs.
36 Exemple des mesures de couple ou des pipetages.

19
57
1
0 61
33
La Smart Metrology

t:
tta
Se
s-
ue
Cet effet, que le VIM appelle la répétabilité de mesure (voir les définitions

niq
ch
ci-après) est inhérent à tous les processus de mesure, tout comme la disper-

Te
sion des impacts d’un tireur d’élite est inévitable malgré un entraînement

et
es
intensif. Il s’agit en quelque sorte d’un bruit de mesure que seule une

nc
cie
résolution37 de l’instrument de mesure trop importante peut masquer :

sS
de
lté
« 2.21 – Répétabilité de mesure, f : fidélité de mesure selon un ensemble

cu
:Fa
de conditions de répétabilité.

om
x.c
2.15 – Fidélité de mesure, f : étroitesse de l’accord entre les indications ou

rvo
les valeurs mesurées obtenues par des mesurages répétés du même objet

ola
ch
ou d’objets similaires dans des conditions spécifiées.

1.s
uh
2.20 – Condition de répétabilité, f : condition de mesurage dans un en-
semble de conditions qui comprennent la même procédure de mesure,
les mêmes opérateurs, le même système de mesure, les mêmes conditions
de fonctionnement et le même lieu, ainsi que des mesurages répétés sur
le même objet ou des objets similaires pendant une courte période de temps. »

La répétabilité doit être étudiée pour n’importe quel processus de mesure :


elle représente, en quelque sorte, l’incertitude minimale d’un processus
de mesure dans des conditions stables et de référence. C’est donc une
information importante car toute exigence, en matière de qualité d’une
mesure, qui est inférieure à cette incertitude impose de facto d’envisager une
autre méthode de mesure.

Notons qu’en donnant comme résultat la moyenne de « n » mesures,


cela a pour effet de réduire l’incertitude d’estimation de cette moyenne
(voir le chapitre 3 « Point de certitude ici-bas… où règne l’aléa ! »).

Cette répétabilité de mesure peut être comparée à la dispersion de l’impact


des flèches tirées par un archer. Légitimement, on peut s’attendre au fait que
plus l’archer est expérimenté, moins il « disperse ». Néanmoins, il ne vise
peut-être pas « juste » (voir la figure 2.5). La seule répétabilité ne pourra donc
pas quantifier l’incertitude de mesure, elle n’en est qu’une partie. Elle a un
caractère purement aléatoire.

37 Il ne faut pas confondre « résolution » et « quantification ». La quantification est l’unité


de mesure gravée sur l’instrument. La résolution, quant à elle, représente la plus petite
lecture qu’il est possible de réaliser, sachant qu’il est évidemment conseillé d’interpoler
entre les possibilités offertes par l’instrument. Pour un appareil à affichage numérique,
la résolution et la quantification sont identiques. En revanche, pour un appareil à cadran,
il est souvent possible de lire la demi-quantification, le quart, voire le dixième suivant la taille
de l’aiguille et sa distance par rapport au cadran.

20
Les mesures ne peuvent pas être justes !

Figure 2.5 Erreur aléatoire et erreur de justesse

La répétabilité de mesure n’est pas la seule composante qui dépende de


l’opérateur38. Il n’est pas rare que des opérateurs différents, mettant en œuvre
le même processus de mesure dans les mêmes conditions, obtiennent en
moyenne des valeurs statistiquement différentes39 (voir figure 2.6). Il s’agit
alors d’erreurs causées par les opérateurs, « l’opérateur » étant considéré
comme un facteur influent au même titre qu’une température, par exemple.

34
88
3:8
57
11
06
33
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c

Figure 2.6 Représentation de résultats de mesure par opérateur


rvo
ola
ch

38 Attention également au fait que la répétabilité de mesure n’est pas liée qu’à l’opérateur.
1.s

Elle dépend évidemment de l’instrument de mesure lui-même (technologie, affichage,


uh

etc.) et de l’objet mesuré (notamment sa manipulation, sa préparation, etc.). Néanmoins,


on remarque que très souvent, pour un même processus de mesure, un opérateur
expérimenté disperse moins qu’un novice. Ce constat permet d’ailleurs souvent de valider
l’aptitude (qualification) d’un opérateur à réaliser une mesure.
39 La notion de « statistiquement différente » est abordée au chapitre suivant. Il s’agit ici
d’expliquer que, parfois, l’opérateur lui-même influence le résultat de mesure.

21
La Smart Metrology

Le fait qu’un résultat de mesure puisse être obtenu par l’intervention


d’un opérateur quelconque invite à considérer le facteur « opérateur » comme
un facteur introduisant, comme tout autre, une part de variabilité dans le résul-
tat de mesure. Autant que faire se peut, cette part apportée par l’opérateur
doit être déterminée, en plus de la répétabilité qui reste incontournable.
Dans le VIM, ce phénomène porte le nom de « fidélité intermédiaire » :
« 2.23 – Fidélité intermédiaire de mesure, f : fidélité de mesure selon un
ensemble de conditions de fidélité intermédiaire.
2.20 – Condition de fidélité intermédiaire, f : condition de mesurage dans un
ensemble de conditions qui comprennent la même procédure de mesure,
le même lieu et des mesurages répétés sur le même objet ou des objets
similaires pendant une période de temps étendue mais qui peuvent
comprendre d’autres conditions que l’on fait varier. »
Nous ne pouvons donc que vivement recommander la réalisation d’essais dits
de « fidélité intermédiaires inter-opérateurs ». L’expérience montre en effet
que cette influence de l’opérateur sur les résultats de mesure est fréquente,
voire très fréquente. Il ne faut pas se fier à l’intuition en ce domaine car elle

34
ne permet pas de bien appréhender ce phénomène.

88
3:8
Dans le monde automobile, ces études dites « R&R40 » sont d’ailleurs

57
11
quasiment imposées par le référentiel FD ISO/TS 1694941. Depuis longtemps,

06
33
les constructeurs américains ont intégré cette qualification des processus

at:
ett
de mesure, notamment dans le cadre de la mise en œuvre de la Maîtrise
-S
statistique des processus (MSP). Même si la R&R ne suffit pas à quantifier es
iqu

totalement l’incertitude de mesure d’un processus, elle permet au moins de


c hn

s’assurer que l’aptitude des opérateurs à mettre en œuvre le processus


Te
et

de mesure rend possible le pilotage d’un procédé de fabrication vis-à-vis


es
nc

d’une exigence contractuelle42.


cie
sS
de

2.4 L’étalon
lté
cu
:Fa
om

Toute mesure est par nature une comparaison. Cette réalité s’exprime dans
x.c
rvo

l’unité de chaque résultat de mesure. Mesurer 2 ohms ou 23 °C signifie que


ola

la caractéristique en cours de quantification vaut 2 fois la valeur de 1 ohm


ch
1.s
uh

40 Répétabilité et reproductibilité.
41 FD ISO/TS 16949:2009, Systèmes de management de la qualité – Exigences particulières
pour l’application de l’ISO 9001:2008 pour la production de série et de pièces de rechange
dans l’industrie automobile.
42 Sous réserve que d’autres causes trop influentes ne soient pas présentes dans le processus
de mesure et faussent cette conclusion.

22
Les mesures ne peuvent pas être justes !

ou 23 fois la valeur de 1 °C. La base de toute mesure est donc l’unité dans
laquelle elle est donnée et cette unité doit être universellement partagée pour
assurer la comparaison des résultats. Il suffit d’imaginer un monde dans
lequel les unités de mesure physique seraient aussi diverses que les unités
monétaires pour appréhender les difficultés insurmontables auxquelles
nous serions tous exposés.

Comme nous l’avons dit, le SI repose sur les décisions de la CGPM.


Les définitions des unités de mesure de base sont décidées d’un commun
accord. Cependant, une fois leur définition adoptée, les unités doivent
être matérialisées (pour être accessibles) et cette matérialisation ne peut
se faire sans aucune erreur. Pour mémoire, la première définition du mètre
le fixait comme étant la dix-millionième partie du quart du méridien terrestre.
Soit ! Mais combien « vaut un mètre » concrètement ? Le passage de
la définition à sa matérialisation induisant des erreurs43, personne ne sait
donc rigoureusement ce que « vaut » chacune des unités du système interna-
tional.

La mission des Instituts nationaux de métrologie (NMI – National metro-

34
88
logy institute), structure technique essentielle dans chaque pays membre

3:8
du BIPM, est justement d’être en mesure d’assurer le raccordement

57
11
des étalons, des instruments de mesure et des matériaux de référence

06
33
aux définitions des unités du SI. Ces laboratoires nationaux de métrologie

at:
ett
participent à « l’arrangement de reconnaissance mutuelle » du CIPM qui est
la structure permettant de démontrer l’équivalence internationale de leurs -S
es
iqu

étalons de mesure ainsi que des certificats d’étalonnage et de mesurage


c hn
Te

qu’ils émettent.
et
es
nc

Cet accord repose, entre autres, sur un ensemble de « comparaisons clés »


cie

(« key comparisons ») entre les NMI de chaque pays. L’ensemble de ce


sS
de

dispositif permet de rendre comparables les résultats de mesure exprimés


lté
cu

dans une unité du SI. Les laboratoires primaires sont, dans chaque pays,
:Fa

à la tête de la chaîne de traçabilité métrologique. C’est cette chaîne qui


om
x.c

permet de démontrer le raccordement des instruments de mesure via leurs


rvo

étalonnages, c’est-à-dire de faire en sorte qu’un millimètre, un gramme


ola
ch

ou une seconde représentent la même quantité partout dans le monde.


1.s
uh

43 On comprend aisément que malgré tous leurs efforts, Mechain et Delambre – les deux
astronomes chargés d’évaluer la valeur du mètre à partir de la mesure d’un bout de méridien
terrestre situé entre Dunkerque et Barcelone – n’aient pas réussi, après sept ans de travail,
à déterminer cette valeur sans la moindre erreur… (lire par exemple Le Mètre du monde par
Denis Guedj, Points, 2011).

23
La Smart Metrology

2.5 L’instrument
L’instrument est le facteur le plus souvent perçu comme cause d’incertitude.
La métrologie légale l’a mis au centre du processus de mesure car, dans
le cadre de l’exigence de loyauté, il était le seul à pouvoir être adminis-
trativement maîtrisé. Son étalonnage44 et sa vérification45 font partie du
quotidien du métrologue industriel46, par mimétisme avec la métrologie
légale, sans parfois que ce concept soit réellement compris.

Tout instrument de mesure est le produit d’un processus industriel et tous


les processus industriels dispersent sous l’effet de différents facteurs
(matière, matériel, main-d’œuvre, méthode et milieu). De ce fait, les instru-
ments n’étant pas rigoureusement identiques les uns avec les autres, leurs
indications ne sont pas parfaites. Conceptuellement, il est possible d’envisager
tout instrument de mesure comme une succession de graduations idéale-
ment espacées (voir figure 2.7).

34
88
3:8
57
11
06
33
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c

Figure 2.7 Concept d’un instrument mesureur


rvo
ola
ch
1.s

44 C’est-à-dire la comparaison de ses indications à des valeurs étalons connues.


uh

45 La vérification consiste à s’assurer que les écarts obtenus lors de l’étalonnage restent
inférieurs à des limites, souvent appelées Erreur maximale tolérée (EMT). La vérification
est donc une action qui impose un étalonnage préalable. Certaines vérifications peuvent
néanmoins être faites sans étalonnage, par exemple la vérification de bagues filetées
à l’aide de tampons filetés rapporteurs.
46 Notamment depuis l’avènement des référentiels qualité.

24
Les mesures ne peuvent pas être justes !

En réalité, et puisque tout processus disperse, chaque graduation réelle


comporte sa propre petite erreur. S’il était possible de connaître parfaitement
toutes les graduations d’un instrument de mesure, on constaterait « qu’en
moyenne », les graduations ne sont pas rigoureusement égales à la valeur
visée (quantification de l’instrument) et qu’elles ne sont pas toutes égales entre
elles, du fait de la « dispersion » lors de leur « production » (voir figure 2.8).

34
88
3:8
57
11
06
33
at:
ett
-S
es
iqu
c hn
Te

Figure 2.8 Représentation de la dispersion des graduations


et
es
nc
cie

Pour chaque graduation, l’écart e entre « valeur visée » et « valeur moyenne


sS
de

réalisée » est à l’origine d’une erreur systématique de l’instrument de


lté
cu

mesure. Tout se passe comme si la valeur visée de chaque graduation était


:Fa

« entachée » par cet écart auquel s’additionne une erreur aléatoire. Aussi,
om
x.c

à la nième graduation, l’erreur cumulée est égale à la somme des erreurs des
rvo

n graduations, qui vaut donc n x e en moyenne. Cet écart e, qui s’ajoute


ola
ch

de graduation en graduation, donne une « courbe de réponse47 » linéaire


1.s
uh

47 Qui représente la différence entre la valeur réalisée et la valeur théorique par rapport à
la valeur théorique. Nous parlons ici de « courbe de réponse » plutôt que de « courbe
d’étalonnage ». Il s’agit du comportement de l’instrument en dehors de toute incertitude.
Dans une courbe d’étalonnage, beaucoup d’autres facteurs interviennent (répétabilité,
conditions d’étalonnage, etc.) et perturbent la courbe de réponse.

25
La Smart Metrology

de l’instrument de mesure. La dispersion des graduations génère, quant à elle,


des écarts entre le modèle linéaire parfait48 et sa réalisation (voir figure 2.9).

0,2
Courbe de réponse

réalisée et valeur théorique


Différence entre valeur
0,15

0,1

0,05

0
-0,01 0 0,01 0,02 0,03 0,04 0 20 40 60 80 100 120
Répartition de l'erreur pour une graduation Valeur théorique

0,006
Courbe de réponse
réalisée et valeur théorique

0,004
Différence entre valeur

0,002
0
-0,002
-0,004
-0,006
-0,01 0 0,01 0,02 0,03 0,04 0 20 40 60 80 100 120
Répartition de l'erreur pour une graduation Valeur théorique

34
88
3:8
57
Figure 2.9 Exemple de répartitions et de courbes de réponse

11
selon deux erreurs systématiques différentes49

06
33
at:
ett
Pour l’exemple, nous avons envisagé dans la figure 2.9 le cas simple d’erreur
systématique linéaire. Il est cependant possible de rencontrer beaucoup -S
es
iqu

d’autres modèles que la statistique permet de quantifier. La définition du


c hn

VIM 3 (2008) concernant l’étalonnage (voir la définition ci-après) indique


Te
et

clairement que la recherche du modèle de réponse de l’instrument fait partie


es
nc

intégrante de l’acte d’étalonnage50 même si rares sont les laboratoires qui,


cie
sS

près de dix ans après cette préconisation, réalisent cette étape :


de
lté

« 2.39 - Étalonnage, m : opération qui, dans des conditions spécifiées, établit


cu
:Fa

en une première étape une relation entre les valeurs et les incertitudes
om
x.c
rvo

48 Qui serait en œuvre si toutes les graduations étaient égales à la graduation moyenne,
ola

c’est-à-dire sans aucune dispersion.


ch

49 Dans cet exemple, la « valeur visée » (quantification) vaut 0,01 et la dispersion (écart-type)
1.s

vaut 0,005.
uh

50 Le Collège français de métrologie (CFM) a publié un guide intitulé Application du nouveau


concept d’étalonnage du VIM 3 qui traite de ce sujet (Lexitis Éditions, 2014). Ce guide
décrit non seulement différentes techniques de modélisation (des moindres carrés principa-
lement) mais aussi la façon de prendre en compte les incertitudes d’étalonnage afin de tenter
de distinguer les effets « instrument » des erreurs d’étalonnage (lien : http://cfmetrologie.
com/documentation/product/application-du-nouveau-concept-detalonnage-du-vim-3.html).

26
Les mesures ne peuvent pas être justes !

de mesure associées qui sont fournies par des étalons et les indications
correspondantes avec les incertitudes associées, puis utilise en une seconde
étape cette information pour établir une relation permettant d’obtenir un
résultat de mesure à partir d’une indication.

NOTE 1 : un étalonnage peut être exprimé sous la forme d’un énoncé,


d’une fonction d’étalonnage, d’un diagramme d’étalonnage, d’une courbe
d’étalonnage ou d’une table d’étalonnage. Dans certains cas, il peut consister
en une correction additive ou multiplicative de l’indication avec une incertitude
de mesure associée.

NOTE 2 : il convient de ne pas confondre l’étalonnage avec l’ajustage d’un


système de mesure, souvent appelé improprement "auto-étalonnage",
ni avec la vérification de l’étalonnage.

NOTE 3 : la seule première étape dans la définition est souvent perçue


comme étant l’étalonnage. »

L’étalonnage des instruments de mesure ne se limite pas à cette recherche

34
des « erreurs de position des graduations51 ». La technologie de certains

88
instruments induit d’autres types d’erreurs. On peut citer par exemple

5:8
89
des erreurs d’hystérésis pour certains moyens (comparateur mécanique,

28
02
manomètres, etc.), d’homogénéité (enceinte climatique, bain thermostaté)

34
at:
ou encore de géométrie (parallélisme des faces de micromètres ou des becs

ett
-S
de mesure des pieds à coulisse). iqu
es

Les normes d’étalonnage des instruments de mesure ont pour objectif de


c hn
Te

décrire les caractéristiques propres à chaque technologie et les méthodes


et

d’étalonnage qui permettent de les estimer.


es
nc
cie
sS

Ces normes sont rarement d’utilisation obligatoire. Rien n’empêche donc


de

chaque métrologue de les adapter à son propre besoin. Souvent écrites


lté
cu

par les constructeurs et les prestataires d’étalonnage, elles ont d’ailleurs


:Fa
om

parfois tendance à rester assez théoriques, voire éloignées des pratiques.


x.c
rvo

S’il est important de les lire pour connaître l’état d’avancement des réflexions
ola
ch

des « spécialistes », il est souvent nécessaire de les adapter pour pouvoir


1.s
uh

répondre concrètement à la qualité des mesures dans chaque entreprise.

51 Les termes consacrés sont plutôt « erreur de justesse » ou « erreur d’indication » mais nous
avons vu que ces écarts sont composés de deux types d’erreur (biais et dispersion) qui ne
peuvent pas être englobés dans un seul terme tel qu’on le fait classiquement pour simplifier.

27
La Smart Metrology

2.6 D’autres sources d’incertitudes


Tout l’art de l’évaluation des incertitudes de mesure tient dans la capacité
à identifier les facteurs d’influence. Nous avons précédemment traité
des causes d’incertitude qui participent de tous les processus de mesure,
un peu comme les ingrédients incontournables à la réalisation d’une sauce
vinaigrette (huile et vinaigre). Aussi, l’imperfection de l’objet, l’effet instrument,
l’effet opérateur et les effets environnementaux sont les ingrédients
incontournables pour quantifier l’incertitude. Néanmoins, il peut exister
d’autres facteurs d’incertitude qu’il revient justement au métrologue d’expri-
mer et de quantifier. Des recherches bibliographiques peuvent être très utiles
pour identifier des causes spécifiques de tel ou tel processus particulier.
Beaucoup d’informations sont d’ailleurs disponibles de nos jours, notamment
grâce à Internet, mais il faut faire le tri car tout n’y est pas « parole d’évangile ».
De plus en plus de sociétés savantes organisent quant à elles des colloques,
des séminaires, des congrès, des journées techniques sur le thème de
la métrologie et les actes sont assez souvent publiés. Consacrer du temps
à cette quête ne sera pas vain…

34
88
Les évolutions technologiques en matière de mesure – notamment pour ce

5:8
89
qui concerne la partie « traitement numérique du signal » qui est de plus

28
02
en plus présente dans les nouveaux moyens de mesure – sont une source,

34
parmi d’autres, d’incertitude spécifique. Il est en effet difficile, voire

at:
ett
impossible, d’avoir accès aux codes de calculs qui traitent l’information
-S
es
mesurée physiquement pour énoncer les valeurs recherchées. L’exemple des
iqu
hn

machines à mesurer tridimensionnelles est, en cela, assez classique en


c
Te

ce domaine : comment est calculé le « diamètre » d’un alésage à partir des


et

« n » points palpés par la machine et, par conséquent, quelle est l’incertitude
es
nc
cie

provenant de l’algorithme utilisé lui-même ? De plus en plus de moyens traitant


sS

l’information physique, il est par conséquent important de s’interroger sur


de
lté

les incertitudes liées aux algorithmes d’optimisation ou de traitement utilisés.


cu
:Fa
om
x.c

2.7 Incertitudes et modèle de mesure


rvo
ola
ch

Dans toutes les descriptions précédentes, nous nous sommes limités


1.s
uh

aux mesures dites « directes », c’est-à-dire lorsque l’instrument restitue


directement le résultat attendu (le diamètre d’une pièce, le pH52 d’une
solution ou encore la température d’une enceinte). Souvent, ce résultat n’est

52 Potentiel d’hydrogène.

28
Les mesures ne peuvent pas être justes !

qu’un résultat intermédiaire en vue d’obtenir la caractéristique attendue :


le mesurande. Cette situation, où le mesurande est fonction de facteurs
effectivement mesurés, est très fréquente. Pour connaître la surface d’un
échantillon rectangulaire par exemple, il nous faudra mesurer la longueur et
la largeur dudit échantillon puis calculer la surface suivant un modèle simple :
Surface = Longueur x Largeur
Il faut alors « propager » les incertitudes sur les mesures de la longueur
et de la largeur dans le modèle de mesure pour obtenir l’incertitude sur la
surface de l’échantillon. Cette propagation, dont nous verrons les différentes
techniques de calculs possibles dans les chapitres suivants, n’est pas une
cause d’incertitude de mesure à part entière53 mais il est important de garder
à l’esprit que l’analyse des causes d’incertitude doit porter, si possible,
sur chaque grandeur mesurée plutôt que sur le résultat d’une fonction de
ces grandeurs. C’est une condition importante pour pouvoir distinguer
les facteurs à maîtriser et améliorer ainsi la qualité finale du résultat.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

53 Même si certaines approximations sont faites dans la méthode la plus utilisée et qu’elles
amènent donc aussi leur part d’incertitude sur le résultat final.

29
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
chn
iqu
es
-S
ett
at:
34
02
28
89
5:8
88
34
3
Point de certitude ici-bas…
où règne l’aléa !

34
88
5:8
89
28
02
34
at:
ett
-S
es
Pour chacun des facteurs qui participent à la réalisation d’une mesure,
iqu

le métrologue est confronté potentiellement à deux types de phénomènes


c hn
Te

lors d’une observation :


et
es

►► Les phénomènes prévisibles (au rang desquels les phénomènes


nc
cie

systématiques) : un phénomène prévisible est un phénomène dont


sS

on connaît le comportement. À chaque observation, il est possible


de
lté

de « prédire » sa valeur. Par exemple, un dé qui reste immobile sur


cu
:Fa

une table expose toujours la même valeur aux yeux de l’observateur.


om

Cette valeur est systématique.


x.c
rvo

►► Les phénomènes aléatoires : un phénomène aléatoire est un phénomène


ola
ch

dont on ne peut pas connaître avec certitude la valeur qu’il prendra à


1.s

un moment donné. Un tel phénomène peut être « borné » au sens où


uh

ses réalisations peuvent varier entre des limites éventuellement connues.


Par exemple, lorsqu’on lance un dé à six faces, on ne peut pas connaître
à l’avance la valeur qu’il produira. En revanche, cette valeur sera comprise
entre 1 et 6. Dans ce cas précis, on peut également affirmer, sous réserve
La Smart Metrology

que le dé ne soit pas pipé, que la probabilité (la chance) d’obtenir une
des valeurs réalisables (1, 2, 3, 4, 5 ou 6) est identique pour chacune
d’elles et à chaque lancer. On a une chance sur six que l’une ou l’autre
des valeurs possibles se réalise.

Pour analyser ces phénomènes, la statistique est une science indispensable.


Au sens le plus général, la statistique étudie, à partir de modélisations
mathématiques, les modes d’utilisation et de traitement des données dans le
but de conduire et d’étayer une réflexion ou de prendre une décision dans
une situation concrète soumise à des aléas. Le domaine de la statistique
se décompose en deux parties. La première, la plus connue, est la statistique
descriptive : il s’agit de l’art de manier, de décrire et de résumer des
observations. Cette première partie ne permet néanmoins pas d’interpréter
les informations qu’elle met en évidence et il faut pour cela faire appel à
des modèles adéquats fournis par le calcul des probabilités.

Le problème de l’observateur, qui a à disposition quelques observations et


une idée des modèles pouvant les représenter, est de préciser ces modèles
et de les mettre à l’épreuve des faits. Son objectif est d’induire à partir de

34
88
données échantillonnées des connaissances sur une population parente54.

5:8
Moins connue mais essentielle, cette seconde partie est dite « statistique

89
28
inférentielle ». Elle consiste à étudier les informations décrites dans la

02
34
perspective de les étendre à un domaine de validité non exploré direc-

at:
ett
tement55 en bénéficiant, si possible, d’une maîtrise des risques encourus.
-S
es
iqu
hn

3.1 L’estimation des paramètres


c
Te
et
es

de la représentation
nc
cie

d’un « phénomène prévisible »


sS
de
lté
cu
:Fa

Un phénomène prévisible est décrit par une relation mathématique qui


om

met en rapport une grandeur de sortie (ce qui est étudié) avec des gran-
x.c
rvo

deurs d’entrée qui sont censées expliquer un comportement observable


ola

du phénomène56. Par exemple, on sait que la dimension d’une pièce est


ch
1.s
uh

54 On parlera de « population parente » pour désigner la population dont les échantillons qui
sont à disposition de l’analyste sont supposés extraits.
55 Lorsqu’on calcule une moyenne ou un écart-type sur un échantillon d’une population
parente, on pratique une « inférence statistique ».
56 Il s’agit ici d’une traduction minimaliste d’un « principe de causalité déterministe ».

32
Point de certitude ici-bas… où règne l’aléa !

dépendante de sa température d’observation. Le modèle mathématique qui


décrit le comportement de la pièce en fonction de sa température est donné
par la formule suivante :

Notons que :
►► représente la température réelle (inconnue) au moment de la
mesure ;
►► représente la température de référence (fixée à 20 °C pour
les mesures dimensionnelles) ;
►► représente le coefficient de dilatation linéaire du matériau de
la pièce. C’est un paramètre de la relation précédente liant les variables
« température » et « longueur ». Ce coefficient est connu pour un grand
nombre de matériaux. Il peut être déterminé pour un matériau donné
dans le cadre d’un essai relativement simple (mesure d’une longueur
à différentes températures).

34
Bien que ces relations soient le plus souvent explicitées sur la base de

88
5:8
considérations physiques, il existe une méthode empirique pour les établir,

89
nommée « plans d’expériences57 ».

28
02
34
at:
La plus connue des techniques d’inférence utilisées pour la détermination

ett
-S
de paramètres inconnus est la « méthode de régression par moindres
es
carrés58 ». Simple en apparence et notamment disponible sur Excel,
iqu
hn

elle mérite qu’il en soit dit ici quelques mots.


c
Te
et

Pour illustrer notre propos, imaginons que nous souhaitions connaître le


es
nc

coefficient de dilatation l d’un nouveau matériau et que nous nous livrions


cie
sS

à une expérience consistant à mesurer la longueur dudit matériau à 10, 20,


de

30, 40 et 50 °C (voir le tableau 3.1 ci-après).


lté
cu
:Fa
om
x.c

57 Les plans d’expériences consistent à dimensionner des expérimentations sur la base


rvo

d’une relation polynomiale générique liant grandeur de sortie et grandeurs d’entrée


ola

connues. Le traitement des données expérimentales issues de ces plans d’expériences


ch

permet de spécifier le type d’ajustement aux données le plus adéquat. La thématique des
1.s

plans d’expériences est largement traitée dans différents ouvrages (voir par exemple :
uh

Les plans d’expériences – Optimisation du choix des essais et de l’interprétation


des résultats, Goupy Jacques, Dunod, 2013).
58 La « régression par moindres carrés » (voir Régression – Théorie et application par
Pierre-André Cornillon et Éric Matzer-Løber, Springer, 2006) est la plus connue mais
il existe d’autres techniques d’inférence : le maximum de vraisemblance et l’inférence bayé-
sienne par exemple.

33
La Smart Metrology

Tableau 3.1 Analyse du coefficient de dilatation d’un nouveau matériau

Température (°C) Longueur (mm)


10,3 100,02
19,8 101,11
31,1 102,32
40,5 103,28
51,7 104,6

Le graphique réalisé sur Excel (voir figure 3.1) permet de visualiser ces don-
nées et d’ajouter une « courbe de tendance » qui quantifie la relation linéaire
par un simple « clic droit ». Le coefficient directeur de cette droite59 exprime
en principe la valeur recherchée : .

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et

Figure 3.1 Représentation graphique des résultats du tableau 3.1


es
nc
cie
sS

Nous sommes ici dans le cadre le plus simple de cette méthode, celui des
de

Moindres carrés ordinaires (MCO ou encore OLS pour Ordinary least


lté
cu

squares). Dans ce cadre, la méthode demande, pour obtenir une bonne


:Fa
om

estimation des paramètres, qu’il n’y ait pas d’incertitude sur X (la température
x.c

au moment de l’expérience) et que les incertitudes soient identiques et


rvo
ola

indépendantes sur Y (la longueur)60. Même si nous n’évoquons pas encore ici
ch

le traitement des incertitudes de mesure, chacun comprendra, puisque nous


1.s
uh

utilisons des résultats de mesure entachés d’erreurs, que ces conditions ne

59 On a choisi ici une relation linéaire de la forme y = b0 + b1 × x.


60 De telles hypothèses sont liées aux propriétés attendues des paramètres estimés
déterminés lorsqu’une « erreur aléatoire » s’additionne à la relation déterministe qualifiant
le « phénomène prévisible » et qui décrit un « bruit » sur la grandeur de sortie.

34
Point de certitude ici-bas… où règne l’aléa !

sont pas respectées. Dans cette expérience, nous recherchons un coefficient


de dilatation. Il est probable que l’incertitude sur les températures sera
négligeable devant les incertitudes sur les mesures de longueur. Par ailleurs,
on mesure une faible variation de longueur, ce qui rend acceptable l’idée que
les incertitudes sur ladite longueur soient identiques61. La méthode MCO peut
donc, en première approximation, être utilisée dans ce cas. En revanche,
il n’est pas rare que les hypothèses de cette méthode ne soient pas respec-
tées, notamment lorsque la relation vise à connaître X à partir de Y, ce qui
est le cas lors des étalonnages.
Imaginons que nous souhaitions connaître la réponse d’un système de
mesure en fonction de la concentration d’un analyte donné. Nous mesurons
ici une variation de densité optique (DO) en fonction de la concentration.
Nous devons donc réaliser un étalonnage qui nous permettra de définir
un « modèle de mesure ». Pour réaliser cet étalonnage, il nous faut diluer
successivement une solution « mère » de concentration connue62 afin
de réaliser des solutions « filles » (de concentrations connues63 par calcul de
dilution) dont la densité optique sera ensuite mesurée par le système de
mesure. Contrairement au cas précédent, il est très probable que les

34
incertitudes sur les valeurs mesurées de densité optique (Y) soient ici

88
5:8
beaucoup plus faibles que les incertitudes sur les concentrations des solutions

89
28
(X) servant à faire l’étalonnage (voir tableau 3.2 et figure 3.2). Par ailleurs,

02
34
le lecteur comprendra que « l’erreur64 » sur la concentration de la solution

at:
ett
« mère » initiale s’est « propagée » dans les calculs faits pour déterminer
les concentrations des solutions « filles ». De ce fait, au moins, les incertitudes -S
es
iqu

sur la concentration de solutions « filles » ne sont pas indépendantes…


c hn
Te

Tableau 3.2 Étalonnage d’un densitomètre


et
es
nc

Solution « mère » : 0,212 g/l


cie
sS

Dilution Solution « fille » Incertitude-type (g/l) DO Incertitude-type


de

10 % 0,0212 0,0021 70 2
lté
cu

30 % 0,0636 0,0064 90 2
:Fa
om
x.c
rvo

61 En revanche, leur indépendance est beaucoup plus discutable, ce qui n’est pas sans
ola

conséquence. Le résultat exposé ci-dessus n’est pas satisfaisant parce que les valeurs
ch

mesurées n’étant pas parfaites, le résultat ne peut pas être parfait non plus. La méthode
1.s

MCO prévoit notamment d’estimer l’incertitude sur les paramètres du modèle et plus
uh

précisément sur la pente qui nous intéresse ici.


62 À quelque chose près, puisqu’aucune mesure n’est parfaite !
63 À quelque chose près à nouveau, ce « quelque chose » se dégradant évidemment à chaque
dilution qui apporte sa propre incertitude en cascade (incertitude sur les pipetages dans
la solution précédente et dans la solution complémentaire).
64 Écart entre la valeur connue (annoncée) et la valeur vraie impossible à connaître.

35
La Smart Metrology

Solution « mère » : 0,212 g/l


Dilution Solution « fille » Incertitude-type (g/l) DO Incertitude-type
50 % 0,106 0,0106 130 2
70 % 0,1484 0,0148 180 3
90 % 0,1908 0,0191 220 3

34
88
5:8
89
28
Figure 3.2 Représentation graphique des résultats du tableau 3.2

02
34
at:
ett
Les conditions d’utilisation de la méthode MCO ne sont ici plus du tout
-S
es
respectées. Le polynôme obtenu n’est par conséquent pas représentatif
iqu
hn

de la réalité du système de mesure. De plus, lorsque la relation est un


c
Te

polynôme d’ordre 2 comme c’est le cas ici, il n’est pas rare de faire le calcul
et
es

en « inversant » les colonnes sur Excel65. En effet, l’équation donnée sur


nc
cie

la figure 3.2 qui donne Y (DO) en fonction de X (concentration) n’est pas


sS

exprimée dans le sens dont l’utilisateur final a besoin. Dans le cas d’une telle
de
lté

inversion, des incertitudes-types initialement petites en X et grandes en Y


cu
:Fa

deviennent grandes en X et petites en Y. Elles ne respectent plus ainsi les


om

conditions d’utilisation des MCO. Dans le cas précédent, l’inversion arrange


x.c
rvo

les choses, mais il n’en est pas toujours ainsi.


ola
ch

La régression par MCO ne correspond donc pas aux besoins du métrologue,


1.s
uh

même si elle peut parfois rendre service (sous réserve de bien maîtriser
la pertinence des approximations réalisées). Il existe néanmoins une méthode

65 Pour les modèles linaires, il est aisé de passer de y = b0 + b1 × x à x en fonction de y si b1


non nul mais cette opération est bien plus délicate lorsque le degré du polynôme augmente.

36
Point de certitude ici-bas… où règne l’aléa !

de régression nommée « Generalised Gauss-Markov regression 66 » (GGMR)


qui sait prendre en compte tous les phénomènes d’incertitude (incertitude
en X, incertitude en Y et dépendance éventuelle (covariance) entre toutes
les incertitudes en jeu) qui impactent les données expérimentales.
Il faut donc retenir l’importance de la prise en compte des incertitudes sur
les données d’entrée ainsi que le nombre des valeurs observées, éléments
qui interviennent dans la qualité d’estimation des paramètres d’un modèle.
Par exemple, et pour conclure sur ce thème, Excel permet de calculer, suivant
les MCO, les incertitudes-types sur les paramètres du polynôme à l’ordre 2
donné pour exemple précédent. Les résultats sont pour le moins surprenants
(voir tableau 3.3).

Tableau 3.3 Incertitude-type (MCO) sur les paramètres estimés


à partir du tableau 3.2

b2 b1 b0
Valeur 1986,6 498,65 55,68
Incertitude-type 1005,15 218,98 9,83

34
88
5:8
3.2 Expression d’un « phénomène aléatoire »

89
28
02
34
at:
La description d’un phénomène aléatoire est forcément plus complexe que

ett
-S
celle d’un phénomène prévisible puisqu’il n’est pas possible de savoir quelle es
sera la valeur du phénomène au regard des grandeurs d’entrée, ladite valeur
iqu
hn

n’étant pas « déterminée » par les conditions d’observation.


c
Te
et

Pour comprendre les besoins en matière de description d’un phénomène


es
nc

aléatoire, il convient de se référer à un exemple pédagogique simple tel que


cie
sS

le lancer d’un dé. Si un expérimentateur lance un dé « n » fois, il obtiendra


de

« n » valeurs aléatoires67 toutes comprises entre 1 et 6 (puisqu’il s’agit d’un dé


lté
cu

à six faces). La fréquence d’observation de chacune des valeurs possibles


:Fa
om

(1, 2, 3, 4, 5 ou 6) se calcule facilement en rapportant le nombre obtenu de


x.c

chaque valeur possible au nombre total « n » de lancers. En reportant cette


rvo
ola

fréquence en ordonnée sur un graphique où l’abscisse donne les réalisations


ch
1.s

possibles du dé, on obtient un histogramme (voir figure 3.3).


uh

66 Le lecteur trouvera toutes les informations nécessaires à sa mise en œuvre dans l’article
« Generalised Gauss-Markov regression », Alistair B. Forbes, Peter M. Harris et Ian M. Smith,
in Algorithms For Approximation IV – Proceedings of the 2001 International Symposium.
67 Les valeurs obtenues ont d’autant moins de chances d’être identiques que « n » est grand.

37
La Smart Metrology

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté

Figure 3.3 Histogrammes des résultats de lancers d’un dé


cu
:Fa

selon un nombre différent de lancers


om
x.c
rvo

Il est aisé de comprendre que plus l’effectif d’échantillon (le nombre « n »)


ola
ch

est important, plus la connaissance du phénomène aléatoire est fiable.


1.s

Avec « n = 4 », toutes les valeurs possibles du dé ne peuvent pas être


uh

observées. Avec « n = 2 000 », chaque valeur se produit avec une fréquence


d’apparition plus régulière. En théorie, cette fréquence est de 1/6 = 16,7 %.
Expérimentalement, avec « n = 2 000 », on obtient pratiquement la valeur
attendue. Ces histogrammes représentent une estimation de la « loi de

38
Point de certitude ici-bas… où règne l’aléa !

probabilité 68 » de la variable aléatoire 69 correspondant au résultat du lancer


d’un dé. Nous pouvons constater, sur la figure 3.3 avec 2 000 lancers (situation
jugée représentative de la réalité), que la loi de probabilité s’apparente à
une « loi uniforme ». Il y a en effet autant de chances d’obtenir l’une ou l’autre
des valeurs possibles70.

Lorsque nous nous trouvons face à un phénomène aléatoire, il est d’usage


de parler de réalisation de la variable aléatoire associée au phénomène
considéré. Une telle réalisation est une valeur particulière que le phénomène
peut produire.

Dans le cas d’un lancer de dé, une réalisation de la variable aléatoire « résultat
du lancer d’un dé » est, par exemple, « 2 ». L’ensemble des valeurs réali-
sables que peut prendre une variable aléatoire est dit « support » de cette
variable.

La loi de probabilité d’une variable aléatoire discrète représente la probabilité


de chacune des valeurs que peut produire le phénomène aléatoire. Pour des
variables aléatoires continues, la loi de probabilité se représente par une

34
fonction mathématique, dite « densité », à partir de laquelle il est possible

88
5:8
de calculer la probabilité qu’une valeur observée soit comprise entre

89
28
deux valeurs limites définies. Par exemple, imaginons un phénomène aléatoire

02
34
variant uniformément entre - 5 et + 5. Rechercher la probabilité d’obtenir une

at:
valeur comprise entre - 3 et + 1,5 revient à calculer le ratio entre la surface

ett
-S
du rectangle blanc et la surface de la totalité du rectangle (qui vaut 1 par es
iqu

définition) de la figure 3.471.


c hn
Te
et

68 Une loi de probabilité permet de calculer la probabilité d’apparition d’événements,


es

seule information d’intérêt accessible pour le statisticien.


nc
cie

69 Une variable aléatoire X n’a rien d’aléatoire en soit : c’est un nom donné à un objet
sS

mathématique qui permet de qualifier un événement, par exemple « obtenir 6 » (id est
de

« X = 6 ») dans le cas du lancer d’un dé. La qualification « d’aléatoire » est liée au fait que
lté

l’information manipulée est une loi de probabilité des événements que la variable permet
cu
:Fa

d’exprimer. Pour parler de la loi de probabilité spécifiée d’une variable aléatoire, on dit que
om

la variable aléatoire suit cette loi de probabilité.


x.c

70 Dans ce cas particulier, on parle également de loi discrète car ce phénomène ne peut
rvo

prendre qu’un ensemble de valeurs que l’on peut compter. Il n’y aura jamais de valeur égale
ola

à 2,35 ou 5,72. Un exemple classique de loi discrète est celui des valeurs obtenues avec
ch

des appareils à affichage numérique. Un comparateur numérique au 1/100 de mm ne peut


1.s

donner que des valeurs avec deux chiffres derrière la virgule. Il n’indiquera jamais 1,213 mm
uh

par exemple.
71 La probabilité recherchée est : P(X[-3;+1,5]) = 45%. L’expression de cette probabilité
est simple parce que la représentation de la loi de probabilité est un rectangle et que
les surfaces rectangulaires se calculent aisément. Pour d’autres lois, le calcul s’effectue via
des intégrales dont se charge l’ordinateur. Ce n’est donc pas le calcul qui importe, aussi
compliqué soit-il, mais davantage le fait de comprendre son principe.

39
La Smart Metrology

-5 -3 0 1,5 5

Figure 3.4 Exemple de calcul d’une probabilité pour une loi uniforme continue

Une loi de probabilité d’une variable aléatoire représente la totalité


de l’information théorique du phénomène aléatoire que cette variable
modélise sur une population.
Ceci étant, par habitude, lorsque nous disposons d’un certain nombre de
valeurs, il semble naturel de faire une moyenne. Dans le cas des résultats
correspondant aux quatre lancers, la moyenne est égale à 3,25 et dans
le cas correspondant aux 2 000 lancers, elle est égale à 3,50. Dans les
deux cas, les moyennes obtenues ne suffisent pas à décrire les valeurs

34
88
possibles du phénomène aléatoire. En effet, une moyenne de 3,25 ou

5:8
de 3,5 ne permet pas de dire que les valeurs qui ont permis de la calculer

89
28
peuvent, unitairement, varier entre 1 et 6. Il en va de même lorsqu’on mesure

02
34
une production. La moyenne de quelques pièces ne donne pas d’information

at:
ett
sur un caractère important des phénomènes aléatoires, celui de la dispersion.
L’indicateur statistique qui donne une telle information s’appelle l’écart-type72. -S
es
iqu
hn

À ce stade, nous pouvons retenir qu’un phénomène aléatoire se décrit


c
Te

par une loi de probabilité que l’on résume par :


et
es

►► une moyenne, dite « paramètre de position73 » (dans le cas de la mesure


nc
cie

d’une seule et unique pièce, le seul paramètre de position disponible,


sS
de

sauf connaissance a priori du procédé, est la valeur mesurée elle-même) ;


lté
cu
:Fa
om

72 Ce mot laisse souvent un mauvais souvenir car il est synonyme, pour beaucoup, d’une
x.c

formule à l’apparence compliquée dont l’aspect théorique n’est que peu ou pas compris.
rvo

Rappelons utilement que, de nos jours, la formule de l’écart-type se résume par exemple,
ola

à « ECARTYPE(…) » sur Excel. L’apparente difficulté mathématique n’est donc plus une
ch

excuse…
1.s
uh

73 Il existe d’autres paramètres de position dont le plus connu est la médiane. Il s’agit
de la valeur qui sépare en deux ensembles d’effectifs égaux un ensemble de valeurs
(par exemple le salaire médian des Français représente le salaire en dessous duquel
la moitié des salariés français est rémunérée, l’autre moitié gagnant plus). Le mode qui,
lorsqu’il existe, est la valeur la plus fréquente réalisée est souvent donné comme un exemple
de paramètre de position. Dans le cas du lancer d’un dé, il n’y a pas de mode, toutes les
valeurs ayant la même chance de se produire.

40
Point de certitude ici-bas… où règne l’aléa !

►► un écart-type, dit « paramètre de dispersion74 ».


Jusqu’à présent, nous n’avons évoqué qu’un type de loi de probabilité pour
représenter les caractéristiques des phénomènes aléatoires.
Évidemment, il existe une multitude de lois de probabilité mais l’une d’entre
elles est remarquable et nous l’avons d’ailleurs incidemment rencontrée
au chapitre précédent (voir le chapitre 2 « Les mesures ne peuvent pas
être justes ! ») sans nous y étendre.
Elle peut cependant être observée simplement et la petite expérience sui-
vante la met en évidence. Au lieu de lancer un seul dé, nous en lançons
désormais trois en même temps. Une fois que les dés sont immobiles, nous
calculons la somme des trois faces telles qu’elles se présentent. Les valeurs
de ce nouveau phénomène aléatoire peuvent donc varier discrètement
entre 3 et 18. En lançant les dés 2 000 fois, nous pouvons observer à quoi
ressemble la loi de probabilité « somme de trois dés » ainsi que les fréquences
d’apparition de chaque possibilité75 (voir figure 3.5 ci-après). La répartition
des valeurs possibles n’est plus du tout uniforme, comme précédemment.
La forme que présente l’histogramme est souvent connue sous le nom

34
88
de « loi normale », « loi de Gauss » ou encore « loi de Laplace-Gauss ».

5:8
89
La popularité de cette loi tient à un théorème énonçant qu’un phénomène

28
02
aléatoire qui additionne un grand nombre de phénomènes aléatoires

34
at:
indépendants de même loi, se distribue approximativement suivant une

ett
-S
loi normale (dans l’exemple précédent, il s’agissait d’une somme de lois iqu
es
uniformes).
c hn
Te

74 Pour des raisons calculatoires, la dispersion a pu être quantifiée, par le passé, par l’étendue
et
es

des valeurs observées. Cette pratique ne donne pas une bonne estimation de la dispersion
nc

de la population parente. Par ailleurs, rien ne garantit d’avoir eu la chance, dans l’échantillon
cie

observé, de trouver la plus petite et la plus grande des valeurs possibles. Dans l’exemple
sS

donné de quatre lancers d’un dé, l’étendue apparente va de deux à cinq alors que nous
de

savons que la réalité va de un à six. Cette ancienne pratique doit être proscrite tant que
lté
cu

nous n’observons pas la totalité d’une population.


:Fa

75 Cette expérience nous permet d’introduire une propriété importante des probabilités. Lorsque
om

nous considérons des événements indépendants (ici, le cas du lancer des trois dés)
x.c

la probabilité que l’événement A se produise ET que l’événement B se produise est égale aux
rvo

produits des probabilités. En revanche, la probabilité que l’événement A se produise OU


ola

que l’événement B se produise est égale à la somme des probabilités. Ainsi, l’événement
ch
1.s

« somme des faces égale 3 » suppose que les trois dés produisent ensemble un 1 (1 ET 1
uh

ET 1). De ce fait, la probabilité de faire « 3 » est égale à 1/6 × 1/6 × 1/6 = 1/216. Pour faire
« 4 », il existe trois décompositions possibles (2+1+1 OU 1+2+1 OU 1+1+2), la probabilité
est donc égale à 1/216 pour la première décomposition plus 1/216 pour la deuxième plus
1/216 pour la troisième, soit une probabilité de produire un « 4 » égale à 3/216. Le lecteur
comprendra que pour « 10 », « 11 » ou « 12 », il existe beaucoup plus de décompositions
que pour « 17 » ou « 18 ». Ainsi, la figure 3.5 représente en ordonnée le nombre de façons
de réaliser un total indiqué en abscisse rapporté à 216.

41
La Smart Metrology

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté

Figure 3.5 Approximation de la loi de probabilité de la somme de trois dés


cu
:Fa
om

Or, les phénomènes que nous observons s’expliquent souvent par le mélange
x.c

de plusieurs phénomènes. Il est donc « normal » de rencontrer fréquemment


rvo
ola

ce type de loi de probabilité et c’est pourquoi elle a été particulièrement


ch
1.s

étudiée.
uh

Elle est caractérisée par deux quantités : m qui est une moyenne théorique
qualifiant sa « position » et s un écart-type théorique qui qualifie son
« étalement », paramètres que l’on observerait dans l’exemple précédent
avec une infinité de lancers (voir figure 3.6 ci-après).

42
Point de certitude ici-bas… où règne l’aléa !

Loi normale

34,135 % 34,135 %

13,59 % 13,59 %

2,14 % 2,14 %

m − 3s m − 2s m −s m m +s m + 2s m + 3s
68,27%

95,45%

99,73%

34
88
Figure 3.6 Propriétés de la loi normale

5:8
89
28
Un intervalle de dispersion de probabilité connue ne peut pas toujours être

02
34
calculé à l’aide de la moyenne et de l’écart-type théorique76. Un tel intervalle

at:
ett
est intimement lié à la forme de loi de probabilité parente.
-S
es
iqu

76 Ces notions théoriques correspondent aux moyennes et écarts types que l’on obtiendrait
hn

s’il était possible de connaître la population parente exhaustivement. Ces notions ne sont
c
Te

pas à confondre avec les moyennes et écarts types calculés à partir d’un échantillon
et

qui sont qualifiés de moyennes et écarts types expérimentaux parce que portant sur
es
nc

un échantillon.
cie

Par convention, nous utilisons les lettres majuscules scriptes (N par exemple) pour désigner
sS

une loi de probabilité. Lorsqu’une telle loi dépend de paramètres, lesdits paramètres sont
de

associés à des lettres, entre parenthèses (N(µ,σ) par exemple). En général, la lettre utilisée
lté
cu

évoque la loi de probabilité du phénomène, notamment :


:Fa

– N pour une loi de probabilité normale ;


om

– U pour une loi de probabilité uniforme (cas d’équiprobabilité).


x.c
rvo

Une variable aléatoire est, en général, désignée par une lettre majuscule de l’alphabet
latin (X, Y, etc.) et une réalisation de cette variable par la minuscule correspondante
ola
ch

(x, y, etc.). Très souvent en métrologie, nous ferons appel à des « erreurs » qui se réalisent
1.s

au moment d’une mesure. La lettre minuscule consacrée est alors souvent « e ». Si nous
uh

sommes en présence de plusieurs réalisations, chacune d’elles est indicée par son « rang »,
par exemple « e1 », « e2 », « en », etc. pour une série de « n » réalisations.
Pour en finir avec les conventions, les lettres grecques minuscules (par exemple µ, σ)
sont réservées aux valeurs vraies des paramètres d’une loi de probabilité. Lorsque nous
évoquons les estimations de ces valeurs (quantités expérimentales), nous utilisons des
lettres minuscules spécifiques.

43
La Smart Metrology

Par définition, la moyenne expérimentale est une

estimation de m et l’écart-type expérimental


est une estimation de s calculée à partir d’un échantillon x1, x2, ... . xn
de n valeurs.

De nos jours, grâce aux moyens informatiques à disposition, il est aisé


de simuler des réalisations de tous types de variables aléatoires à partir
des paramètres théoriques de la loi que suivent ces variables (simulation
dite « de Monte-Carlo »). Ces simulations permettent de comprendre
la différence entre la réalité (par exemple d’une variable aléatoire X suivant
une loi normale ) et ce que nous pouvons observer de cette réalité en
la simulant (c’est-à-dire en tirant un échantillon x1, x2, ... . xn de réalisations de
X au hasard selon la loi normale ). Avec des simulations, on peut donc
observer une différence entre la moyenne expérimentale et la moyenne
théorique m ou entre l’écart-type expérimental s et l’écart-type théorique s77.
On peut surtout prendre conscience, en réalisant de nouvelles simulations,

34
que les moyennes expérimentales et les écarts types expérimentaux varient

88
5:8
avec les échantillons alors que m et s sont constants. C’est ce que l’on nomme

89
la fluctuation d’échantillonnage d’un phénomène aléatoire. Nous verrons

28
02
à de nombreuses reprises que la simulation numérique est un outil précieux

34
at:
pour le métrologue.

ett
-S
es
Le lecteur ayant intégré la différence entre « réalité » et « observation
iqu
hn

échantillonnée » de cette réalité est maintenant à même de comprendre une


c
Te

erreur pratique courante qui a de graves conséquences quant à la description


et
es

d’une dispersion. Cette erreur consiste à calculer une étendue des valeurs
nc
cie

d’un échantillon plutôt qu’un écart-type.


sS
de

L’une des questions qui est posée dans l’estimation d’une dispersion
lté
cu

est d’avoir une idée de l’intervalle réel dans lequel les réalisations du
:Fa
om

phénomène aléatoire sont les plus probables. La longueur de cet intervalle


x.c

est l’étendue. Pour illustrer le propos, considérons la somme des résultats du


rvo
ola

lancer de cinq dés à six faces. L’étendue réelle de ce phénomène aléatoire


ch

est 25 = 30 - 5. Considérons un échantillon de dix lancers de cinq dés


1.s
uh

et calculons l’étendue ainsi que l’écart-type (quantités expérimentales)

77 La moyenne ou l’écart-type théorique ne seront jamais connus, sauf à disposer des


valeurs vraies de tous les individus d’une production par exemple, ce qui n’est pas réaliste.
Dans la pratique, nous devrons nous contenter de l’estimation, qui n’est donc qu’une valeur
approchée, de plus ou moins bonne qualité.

44
Point de certitude ici-bas… où règne l’aléa !

des résultats de leurs sommes (voir le tableau 3.4 ci-après – un échantillon


correspond à une ligne du tableau). En répétant cette expérience un certain
nombre de fois, il est possible de comparer l’intervalle [minimum ; maximum]
et l’intervalle [moyenne - 3 écarts types ; moyenne + 3 écarts types]
obtenus, ce dernier devant contenir la presque totalité (99,73 %) de la réalité
du phénomène aléatoire par approximation normale.

Tableau 3.4 Étendue versus écart-type

Résultat de la somme du lancer de cinq dés (dix fois)

+ 3 écart-type
– 3 écart-type
Expérience

Écart-type

Maximum
Minimum
Moyenne

Moyenne

Moyenne
Étendue

1 2 3 4 5 6 7 8 9 10

1 17,5 5 16 12 28 3,4 31,6 21 15 16 17 17 28 12 14 21 14


2 19,6 3 9 14 23 11,5 27,7 17 23 22 20 14 20 21 22 19 18
3 18,0 3 9 13 22 8,0 28,0 18 20 15 22 14 19 13 22 16 21
4 15,8 4 14 10 24 5,0 26,6 14 10 14 16 24 14 18 17 16 15

34
88
5 17,3 5 16 8 24 3,4 31,2 19 19 12 24 17 19 17 22 16 8

5:8
89
6 16,9 3 9 12 21 9,4 24,4 18 14 17 12 17 19 21 18 16 17

28
02
7 17,1 4 11 12 23 4,3 29,9 23 15 21 23 15 20 16 12 13 13

34
at:
8 20,3 3 9 16 25 10,3 30,3 19 25 17 20 16 24 18 21 25 18

ett
-S
Moyenne

es
17,8 3,6 11,6 12,1 23,8 6,9 28,7
iqu
chn
Te
et

Pour des échantillons de faibles effectifs, en utilisant l’écart-type, les valeurs


es
nc

réalisables, sans les avoir nécessairement « vues », sont estimées


cie
sS

(en moyenne sur les huit expériences) entre 6,9 (au lieu de 5) et 28,7 (au lieu
de

de 30) alors qu’avec le minimum et le maximum, l’intervalle se situe entre 12,1


lté
cu

et 23,8. Il est donc clair que l’écart-type expérimental, même s’il n’est pas
:Fa
om

parfait, est un outil plus puissant que l’étendue pour estimer, sur la base
x.c
rvo

d’un échantillon, l’intervalle réel dans lequel les réalisations du phénomène


ola

aléatoire sont les plus probables.


ch
1.s

Notons enfin que la moyenne théorique et l’écart-type théorique ont des


uh

propriétés remarquables qui doivent être soulignées. La moyenne théorique


d’une somme de phénomènes aléatoires quelconques est ainsi égale à la
somme des moyennes théoriques de ces phénomènes. L’écart-type théorique
d’une somme de phénomènes aléatoires quelconques mais indépendants

45
La Smart Metrology

est la moyenne quadratique (racine de la moyenne des carrés) des écarts


types théoriques de ces phénomènes78. Ces résultats sont extrêmement
intéressants parce qu’ils ne dépendent pas de la loi des phénomènes
aléatoires considérés. Aussi, moyenne et écart-type sont des informations
indissociables pour avoir un résumé pertinent d’une loi. En cela, leurs pro-
priétés algébriques leur confèrent un rôle de premier plan.

3.3 La qualité des estimations


Les données expérimentales ont pour objet d’estimer les paramètres
d’un modèle. Dans le cas d’un phénomène aléatoire simple où il s’agit d’es-
timer la moyenne et l’écart-type théoriques d’une population parente à l’aide
d’une moyenne et d’un écart-type expérimental calculés à l’aide des valeurs
à disposition, le problème se pose de connaître la qualité de l’estimation
ainsi déterminée.

3.3.1 L’écart-type

34
88
Dans un monde idéal, il suffirait de deux valeurs pour déterminer l’estimation

5:8
89
d’un écart-type théorique. Nul besoin de réaliser une grande expérience

28
02
pour imaginer que la valeur de l’écart-type expérimental obtenue sur la base

34
at:
de deux valeurs ne peut pas être d’une très grande qualité pour estimer

ett
-S
l’écart-type théorique. Elle est très dépendante du hasard, c’est-à-dire des es
échantillons sélectionnés. Intuitivement, on comprend aisément que plus
iqu
hn

l’effectif d’un échantillon est important, plus la qualité de l’estimation de


c
Te

l’écart-type sera grande et il en va de même pour la moyenne (voir ci-après).


et
es
nc

Par ailleurs, l’écart-type expérimental présente une autre propriété qui


cie
sS

n’est pas du goût des statisticiens, puisqu’il est en effet « biaisé ». Dès lors,
de

non seulement l’estimation d’un écart-type théorique est d’autant moins fiable
lté
cu

que l’effectif d’échantillon est faible, mais en plus cette estimation est en
:Fa

moyenne différente de l’écart-type théorique. On peut visualiser simplement


om
x.c

ces deux propriétés en simulant plusieurs échantillons de même effectif


rvo
ola

issus d’une loi parente normale79 dont on connaît la moyenne et l’écart-


ch

type théorique. Chaque échantillon donne une estimation différente de


1.s
uh

78 Le carré de l’écart-type est dit variance. La variance théorique d’une somme de phénomènes
aléatoires quelconques mais indépendants est donc la somme des variances théoriques
de ces phénomènes.
79 Loi parente normale signifie que la distribution des valeurs de laquelle les échantillons sont
issus est une loi normale.

46
Point de certitude ici-bas… où règne l’aléa !

l’écart-type théorique. Le rapport entre l’écart-type théorique et les résultats


des écarts-types expérimentaux moyennés sur l’ensemble des échantillons
illustre le biais pour un effectif d’échantillon donné80. La dispersion des écarts-
types expérimentaux sur l’ensemble des échantillons, rapportée à l’écart-type
théorique, illustre la « fiabilité » de l’estimation de l’écart-type théorique
La figure 3.7 suivante présente ces rapports81 pour différents choix d’effec-
tifs de 5 000 échantillons simulés à chaque fois.

34
88
5:8
89
28
02
34
at:
ett
-S
Figure 3.7 Qualité d’estimation d’un écart-type théorique es
iqu

sous hypothèse de normalité


c hn
Te
et

Il est donc nécessaire, pour aboutir à une estimation fiable, d’avoir un échan-
es
nc

tillon d’effectif important. Les statisticiens ont modélisé le comportement


cie
sS

de ces estimations afin notamment de définir un intervalle de confiance,


de

c’est-à-dire un intervalle calculé sur la base d’un échantillon et qui, avec un


lté
cu

certain niveau de confiance, donne un encadrement correct contenant la


:Fa
om

valeur de l’écart-type théorique.


x.c
rvo

Cela signifie qu’il y a peu de chance qu’un échantillon qui relève du phénomène
ola

considéré fournisse un intervalle qui ne contient pas la valeur du paramètre.


ch
1.s

La longueur d’un tel intervalle est d’autant plus petite que l’effectif d’échantillon
uh

est important.

80 Ce rapport doit être de 1 pour qu’il n’y ait pas de biais.


81 On montre que ces quantités ne dépendent pas du choix de la moyenne et de l’écart-type
théoriques de la loi parente normale.

47
La Smart Metrology

Un intervalle de confiance bilatéral d’estimation de s est donné par la formule


suivante pour un échantillon d’effectif n d’écart-type expérimental s :

Le niveau de confiance est traditionnellement de 1 - α = 95% et


(avec ou ) est un coefficient dit fractile d’une loi du Khi² à
degrés de liberté qui est lu dans une table ou calculé avec la fonction
sous Excel (attention, dans cette expression,
il s’agit bien de « 1 - b » et non de « b » pour calculer ). Cet intervalle
n’est plus représentatif lorsque l’échantillon n’est pas issu d’une loi parente
normale.

3.3.2 La moyenne
Pour la moyenne, l’effectif de l’échantillon impacte également sa qualité

34
d’estimation. Dans la même expérience de simulation que précédemment,

88
5:8
pour observer un éventuel biais, on peut regarder l’évolution de la différence

89
28
entre la moyenne théorique et les moyennes expérimentales moyennées sur

02
34
l’ensemble des échantillons82. Par ailleurs, comme précédemment, le rapport

at:
entre la dispersion des moyennes expérimentales et l’écart-type théorique

ett
-S
qualifie la fiabilité de l’estimation de la moyenne théorique83 (voir figure 3.8 es
iqu

ci-après).
c hn
Te

Un intervalle de confiance d’estimation de m est donné par la formule suivante


et
es

pour un échantillon d’effectif n de moyenne expérimentale et d’écart-type


nc
cie

expérimental s :
sS
de
lté
cu
:Fa

Le niveau de confiance est traditionnellement de 1 - a = 95% et


om
x.c

est un coefficient dit fractile d’une loi de Student à n - 1 degrés de liberté qui est
rvo
ola

lu dans une table ou calculé avec la formule


ch
1.s

sous Excel. Cet intervalle reste valable lorsque n est grand (supérieur à 30 en
uh

pratique) même lorsque l’échantillon n’est pas issu d’une loi parente normale.

82 Cette différence doit être de 0 pour qu’il n’y ait pas de biais.
83 Là encore, ces quantités ne dépendent pas du choix de la moyenne et de l’écart-type
théoriques de la loi parente normale.

48
Point de certitude ici-bas… où règne l’aléa !

Figure 3.8 Qualité d’estimation d’une moyenne théorique


sous hypothèse de normalité

Il faut toujours avoir en tête ces notions de qualité d’estimation (moyenne

34
88
ou écart-type ici). Les valeurs numériques que nous manipulons ne sont pas

5:8
des valeurs « vraies ». Elles ne sont que des valeurs plus ou moins proches de

89
28
la réalité. Aussi, pour comparer la moyenne de deux échantillons différents,

02
34
il ne suffit pas de le faire algébriquement84. Deux moyennes expérimentales

at:
ett
apparemment différentes peuvent en effet être deux estimations de la même
-S
es
moyenne théorique. De même, deux écarts types expérimentaux différents
iqu

peuvent provenir de la même population parente et n’être différents que du


c hn
Te

fait des échantillons. Les comparaisons entre estimations doivent donc être
et

réalisées à l’aide de tests statistiques85.


es
nc
cie
sS

3.3.3 La covariance
de
lté
cu

Nous n’avons évoqué jusqu’ici que des phénomènes aléatoires simples


:Fa
om

ou composés de phénomènes élémentaires indépendants. Parfois, l’indé-


x.c

pendance entre les phénomènes n’est pas totale, ce qui induit des compor-
rvo
ola

tements particuliers. Imaginons, par exemple, que lors d’un lancer de trois dés
ch
1.s

84 C’est-à-dire comparer avec un simple signe « > » ou « < » les valeurs expérimentales.
uh

85 Ces tests sont, pour les moyennes, le test dit de « Student » ou encore « Test T » et
pour les écarts types, le test dit de « Fisher-Snédécor » ou « Test F ». Ces tests sont
développés par exemple dans les fiches pratiques des Techniques de l’ingénieur intitulées
« Des bonnes pratiques en laboratoire à l’accréditation – Les outils statistiques qu’il faut
connaître et comprendre en métrologie », Leblond Laurent, Pou Jean-Michel et al., Techniques
de l’ingénieur.

49
La Smart Metrology

(deux jaunes et un bleu), les deux dés jaunes tombent systématiquement


sur la face opposée l’une de l’autre (voir figure 3.9).

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa

Figure 3.9 Réalisations du lancer de trois dés,


om
x.c

les dés jaunes tombant sur des faces opposées


rvo
ola
ch

Le dé 1, le dé 2 et le dé 3 varient de façon uniforme entre 1 et 6, mais


1.s
uh

l’histogramme des sommes obtenues à partir de ces réalisations met en


évidence un phénomène qui ne s’approxime plus par une loi normale telle
que celle que nous avions pu observer dans le cas où les dés étaient
indépendants. Dans ce cas, la loi de probabilité de la somme suit une loi
uniforme, entre 8 et 13, et pour cause : par construction, la somme des faces

50
Point de certitude ici-bas… où règne l’aléa !

opposées d’un dé fait systématiquement 7, donc le résultat de la somme


des trois dés est 7 (pour les deux dés jaunes) + une loi uniforme, ce qui
donne bien une loi uniforme variant entre 8 et 13. Ce phénomène se produit
parce que les dés 1 et 2 varient mais ils varient ensemble. La valeur de
l’un fixe la valeur de l’autre. Ils ne sont pas indépendants, ils « co-varient » et
cette dépendance induit un comportement différent sur la somme. De même,
si les dés jaunes tombaient systématiquement sur la même face, ils varieraient
ensemble, d’une autre façon, et la loi de probabilité qui en résulterait ne serait
pas normale non plus (voir figure 3.10).

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

Figure 3.10 Réalisations du lancer de trois dés,


les dés jaunes tombant sur la même face

51
La Smart Metrology

Il existe un indicateur théorique de cette co-variation entre deux variables


aléatoires (dit « covariance ») que l’on peut également estimer et qui, lorsque
ces variables suivent des lois normales, est nul uniquement si les variables
sont indépendantes86, c’est-à-dire qu’elles donnent des informations
totalement distinctes sur le phénomène résultant de leurs combinaisons
linéaires.

Cette propriété d’indépendance est recherchée parce que si des phéno-


mènes aléatoires élémentaires sont indépendants, ils apportent chacun
un éclairage bien différent sur le phénomène résultant de leurs combinaisons.

En pratique cependant, il est rare que les variables à disposition soient tota-
lement indépendantes. Il faut alors en tenir compte pour ne pas fausser
totalement les résultats, ce qui complexifie les analyses mais qui est
une condition indispensable à la robustesse des décisions qui en résultent.

3.4 La qualité des échantillons

34
88
5:8
L’effectif de l’échantillon n’est pas la seule problématique qui altère l’évalua-

89
tion des paramètres des lois parentes. La qualité des données disponibles,

28
02
et notamment leur caractère réellement aléatoire, est un facteur essentiel

34
at:
dont il faut s’assurer avant de faire les calculs.

ett
-S
es
La moindre erreur dans l’acquisition ou la retranscription d’une valeur peut
iqu
hn

impacter sensiblement les estimations. Il arrive également que l’acquisition


c
Te

des données de l’échantillon influence par elle-même les valeurs et qu’elle


et
es

fausse les estimations.


nc
cie
sS
de

3.4.1 Les valeurs « anormales »


lté
cu
:Fa
om

Il est indispensable de vérifier la cohérence des données disponibles dans


x.c

l’échantillon. Une erreur de saisie, qui aboutit par exemple à transformer


rvo
ola

un 1 en un 10, a des conséquences évidentes sur le calcul d’une moyenne


ch
1.s

ou d’un écart-type expérimental, notamment si seules quelques valeurs


uh

86 Pour d’autres lois, l’indépendance implique la nullité de la covariance mais la réciproque


est fausse. Pour de plus amples développements, le lecteur pourra consulter l’ouvrage
Probabilités et statistiques pour ingénieurs par Connie M. Borror, David M. Goldsman,
William Hines et Douglas C. Montgomery, Chenelière Éducation, 2012.

52
Point de certitude ici-bas… où règne l’aléa !

sont disponibles. Il existe cependant une multitude de tests87 permettant de


débusquer une valeur douteuse, parfois appelée « aberrante88 » ou « outlier ».
Une approche satisfaisante consiste en la normalisation de la série de
données. Il s’agit, lorsque nous disposons d’un échantillon de x1, x2, ... . xn
de n valeurs, de transformer chacune des valeurs en présence en un « écart
normalisé » qui se calcule, pour chaque valeur xi, de la façon suivante :
où représente la moyenne expérimentale et s l’écart-type
expérimental de l’échantillon. En procédant ainsi, la nouvelle série de valeurs
en1, en2, ... . enn suit une loi de moyenne nulle et d’écart-type égal à 1. Il est
alors aisé de détecter des valeurs douteuses. Par exemple, dans le cas où
la loi de probabilité de la loi parente de l’échantillon est supposée normale,
des n’ont que 5 % de chance d’appartenir à l’échantillon. S’il y
a plus de 5 % de valeurs ainsi détectées dans l’échantillon, il est légitime
de s’interroger sur la validité des valeurs concernées.
Tableau 3.5 Exemple de normalisation d’une série de données

Indice Valeur Écart normalisé


1 0,00024364 0,02

34
88
2 0,00029475 2,62

5:8
89
3 0,00023836 - 0,25

28
02
4 0,00023529 - 0,40

34
at:
5 0,0002235 - 1,00

ett
-S
6 0,00024415 0,05 iqu
es
7 0,00024048 - 0,14
c hn

8 0,00022896 - 0,72
Te
et

9 0,00024984 0,34
es
nc

10 0,0002331 - 0,51
cie
sS

Moyenne 0,00024321 0,00


de

Écart-type 1,96889 10-5 1,00


lté
cu
:Fa
om
x.c

87 Les tests de Mandel, Cochran (pour les écarts types) ou Grubbs (pour une ou deux valeurs
rvo

« anormales ») sont souvent cités dans le contexte d’utilisation industrielle en référence


ola

à la norme AFNOR NF ISO 5725 (Parties 1 à 6, Exactitude (justesse et fidélité) des résultats
ch

et méthodes de mesure) concernant les comparaisons interlaboratoires. Pour ces tests,


1.s

le lecteur pourra consulter l’article « Critical values of Mandel’s h and k, the Grubbs and
uh

the Cochran test statistic », Wilrich Peter T, in Advances in Statistical Analysis, 2013.
88 Nous parlerons également de valeurs « surreprésentées ». Par exemple, un yam de « 6 »
dans un lancer de cinq dés (id est les cinq dés tombent en même temps sur la même valeur
« 6 ») est assez improbable mais n’est pas aberrant. En revanche, dans un échantillon de
dix lancers de cinq dès, une valeur égale à « 30 » va forcément perturber les estimations
de la moyenne et de l’écart-type théoriques.

53
La Smart Metrology

Dans l’exemple du tableau 3.5, la seule lecture des valeurs ne permet pas
de détecter le fait que la deuxième est possiblement « surreprésentée ».
La normalisation des valeurs permet en revanche de voir qu’il y a peut-être
un souci sur celle-ci et donc de s’interroger sur le fait de la conserver ou non
pour évaluer la moyenne et l’écart-type.

Que ce soit dans ce contexte ou dans un autre, il est important de retenir que
ce ne sont pas les calculs et les tests qui décident de garder ou pas telle ou
telle valeur. Les tests permettent d’identifier des valeurs (ou des situations)
douteuses mais il revient seulement à l’analyste averti de statuer. De même,
la décision de garder ou de rejeter une valeur ne relève pas des compétences
d’un algorithme. La connaissance de la « physique » du phénomène observé,
et donc de la cohérence des données disponibles, est une composante
essentielle pour prendre de bonnes décisions qui relèvent naturellement,
elles, de la responsabilité de l’analyste.

3.4.2 « L’homogénéité » des données

34
Comme nous l’avons vu précédemment, tous les phénomènes ne sont pas

88
5:8
aléatoires. Il n’est notamment pas rare que des effets prévisibles se glissent

89
28
dans des données supposées parfaitement aléatoires. Il convient d’effectuer

02
34
un test dit « d’homogénéité » qui cherche à vérifier le fait qu’une série ne

at:
présente pas de caractère non aléatoire.

ett
-S
es
Le test dit de « Von Neumann » est l’un de ces tests. Pour un échantillon
iqu
hn

x1, x2, ... . xn de n valeurs la statistique du test de « Von Neumann » se cal-


c
Te

cule ainsi :
et
es
nc
cie

avec
sS
de
lté
cu
:Fa

Les valeurs analysées ne sont pas homogènes, au niveau de risque a


om
x.c

si la statistique de test u est supérieure à la limite calculée à partir des


rvo

pour contenir (1 - a) %
ola

propriétés de la loi normale centrée réduite


ch
1.s

des valeurs. Cette limite est déterminée par la syntaxe suivante sous Excel :
uh

(voir figure 3.11 ci-après).

54
Point de certitude ici-bas… où règne l’aléa !

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es

Figure 3.11 Exemple de test d’homogénéité de Von Neumann


nc
cie
sS

Dans cet exemple, il est aisé de comprendre la raison d’une telle non-
de

homogénéité en effectuant un graphe de points qui montre une dépendance


lté
cu

linéaire.
:Fa
om
x.c
rvo
ola
ch
1.s
uh

55
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
chn
iqu
es
-S
ett
at:
34
02
28
89
5:8
88
34
4
La métrologie :
une intime de la statistique

34
88
5:8
89
28
02
34
at:
ett
-S
Les développements qui précèdent trouvent toute leur pertinence au regard iqu
es
de la description d’un processus de mesure. Lors d’un mesurage, de nom-
hn

breux facteurs sont en effet mis en jeu (voir le chapitre 2 « Les mesures ne
c
Te

peuvent pas être justes ! »), ils sont souvent aléatoires (Quelle température
et
es

fait-il au moment de la mesure ?, Quel opérateur parmi les opérateurs ?, etc.)


nc
cie

et s’avérent parfois prévisibles (la température moyenne du local n’est pas


sS
de

égale à 20 °C, l’instrument de mesure présente une erreur en partie connue,


lté
cu

etc.).
:Fa
om

Dans les faits, on considère souvent qu’une valeur mesurée est le résultat
x.c

d’une somme d’erreurs associées à des facteurs supposés indépendants qui


rvo
ola

s’additionnent à la quantité vvraie inconnue qu’il s’agit d’évaluer. Formellement :


ch
1.s
uh

Dans cette expression, chaque terme d’erreur est un nombre considéré


comme la réalisation d’une variable aléatoire qui lui est associée, variable
aléatoire suivant une loi que nous supposerons caractérisée, pour simplifier,
La Smart Metrology

par les deux paramètres que sont moyenne et écart-type théoriques89.


Ainsi, par exemple, mope désigne le biais associé au facteur opérateur
et sope, la part d’incertitude-type théorique due à la dispersion de ce facteur
dans le résultat de mesure. Aussi, eope est donc une réalisation de la variable
aléatoire représentant le facteur « opérateur » de loi où
représente le nom d’une loi de probabilité.
Le problème principal de la métrologie se pose alors de la manière suivante :
évaluer, pour chaque facteur du processus de mesure, ses effets « prévisible »
et « aléatoire ». Il est ensuite possible de déterminer les corrections à réaliser
(le cas échéant) ainsi que le résiduel aléatoire qui entachera inexorablement
tout résultat de mesure. De fait, et malgré nos croyances, une mesure ne
peut pas être la stricte quantification de la réalité. Dès lors, la statistique
devient essentielle pour le traitement des résultats. Le métrologue se doit
d’autant plus de maîtriser et donc d’utiliser cette science qui édicte que ce
ne sont pas des nombres qui constituent la représentation adéquate de la
réalité mais des variables aléatoires. Ce sont en effet les lois de probabilités
de ces variables qui constituent l’information d’intérêt pertinente. D’ailleurs,
le VIM ne s’y trompe pas en donnant la définition du concept de « résultat

34
88
de mesure » :

5:8
89
« 2.9 – Résultat de mesure, m : ensemble de valeurs attribuées à un

28
02
mesurande, complété par toute autre information pertinente disponible.

34
at:
ett
NOTE 1 : un résultat de mesure contient généralement des informations
-S
pertinentes sur l’ensemble de valeurs, certaines pouvant être plus repré- es
iqu

sentatives du mesurande que d’autres. Cela peut s’exprimer sous la forme


c hn

d’une fonction de densité de probabilité. »


Te
et
es

Les métrologues ont, pour leur part, l’habitude de faire plus souvent référence
nc
cie

à la notion d’incertitude de mesure dont la définition du VIM (voir ci-après)


sS

reste néanmoins peu pertinente statistiquement parlant. En effet, un para-


de
lté

mètre peut caractériser la dispersion d’un phénomène (c’est le rôle dévolu


cu
:Fa

à l’écart-type), mais le lecteur aura compris que cette seule information


om

ne permet pas de définir une loi de probabilité. En ce sens, la définition


x.c
rvo

du « résultat de mesure » qui fait référence à une « fonction de densité


ola

de probabilité » est bien plus pertinente pour décrire la réalité d’un mesurage :
ch
1.s
uh

« 2.26 – Incertitude de mesure, f : paramètre non négatif qui caractérise la


dispersion des valeurs attribuées à un mesurande, à partir des informations
utilisées.

89 Cette hypothèse ne change pas fondamentalement les raisonnements présentés.

58
La métrologie : une intime de la statistique

NOTE 1 : l’incertitude de mesure comprend des composantes provenant


d’effets systématiques, telles que les composantes associées aux corrections
et aux valeurs assignées des étalons, ainsi que l’incertitude définitionnelle.
Parfois, on ne corrige pas des effets systématiques estimés, mais on insère
plutôt des composantes associées de l’incertitude.
NOTE 2 : le paramètre peut être, par exemple, un écart-type appelé
incertitude-type (ou un de ses multiples) ou la demi-étendue d’un intervalle
ayant une probabilité de couverture déterminée.
NOTE 3 : l’incertitude de mesure comprend en général de nombreuses
composantes. Certaines peuvent être évaluées par une évaluation de type
A de l’incertitude à partir de la distribution statistique des valeurs provenant
de séries de mesurages et peuvent être caractérisées par des écarts-types.
Les autres composantes, qui peuvent être évaluées par une évaluation
de type B de l’incertitude, peuvent aussi être caractérisées par des écarts-
types, évalués à partir de fonctions de densité de probabilité fondées
sur l’expérience ou d’autres informations.
NOTE 4 : en général, pour des informations données, on sous-entend que

34
l’incertitude de mesure est associée à une valeur déterminée attribuée au

88
5:8
mesurande. Une modification de cette valeur entraîne une modification

89
28
de l’incertitude associée. »

02
34
Dans l’équation posée en début de ce chapitre, la somme des termes

at:
ett
d’erreurs est donc la réalisation d’une variable aléatoire Eglobal qui,
-S
es
par hypothèse, suit une loi approximativement normale90 de paramètres :
iqu
c hn
Te
et
es
nc
cie
sS
de

Formellement, suit la loi .


lté
cu
:Fa
om

Cette formalisation permet de comprendre un aspect fondamental souvent


x.c

ignoré : la valeur mesurée vmes est une réalisation de la variable aléatoire Vmes
rvo
ola

et, en ce sens, elle n’a aucune raison d’être la valeur la plus probable que
ch
1.s

le processus de mesure peut produire. Dès lors, la représentation tradition-


uh

nelle qui confond la valeur mesurée vmes et la quantité vVraie + mGlobal

90 On considère ici que les conditions qui s’imposent pour que l’approximation normale soit
vérifiée sont réunies (indépendance des erreurs élémentaires et écart-type de chacune des
erreurs environ du même ordre).

59
La Smart Metrology

(voir figure 4.1) est une très mauvaise représentation dont nous verrons
que les conséquences ne sont absolument pas neutres.

Figure 4.1 Mauvaise et bonne représentation d’une valeur mesurée


et de « son » incertitude

L’incertitude de mesure n’est donc pas qu’une contrainte normative. C’est

34
88
une réalité qui s’impose pour que les décisions réalisées à partir de mesu-

5:8
89
res soient pertinentes.

28
02
34
Dans notre monde « citoyen », l’adéquation entre l’incertitude de mesure

at:
ett
et les risques liés à l’utilisation du résultat de la mesure est garantie par
l’État via les services de la Sous-direction de la métrologie légale. -S
es
iqu
hn

Dans le monde industriel, cette adéquation doit être garantie par le


c
Te

métrologue : c’est là, sans doute, son rôle le plus important.


et
es
nc

Par ailleurs, et compte tenu de la diversité des contextes industriels, cette


cie
sS

adéquation ne peut pas relever d’une unique stratégie contenue dans une
de
lté

norme et fonctionnant pour tous. Les enjeux ne sont en effet pas les mêmes
cu
:Fa

suivant que la production concerne des bouchons de stylo ou des pièces


om

critiques d’un moteur d’avion.


x.c
rvo
ola

Le métrologue doit donc nécessairement maîtriser les outils disponibles et


ch

choisir les plus pertinents pour répondre à chacune des problématiques


1.s
uh

auxquelles il est confronté.

Si l’évaluation de l’incertitude de mesure a pour objet d’estimer mGlobal


et sGlobal, il s’agit cependant de savoir comment procéder concrètement
à l’aide de méthodes statistiques éprouvées.

60
La métrologie : une intime de la statistique

4.1 L’approche « expérimentale »


L’évaluation d’une moyenne et d’un écart-type est à la portée de « tout le
monde », surtout depuis l’avènement des moyens informatiques. Il faut
néanmoins rappeler quelques évidences avant de conclure trop précipi-
tamment. Il ne suffit pas, en effet, de répéter dix ou quinze mesures
seul dans son coin pour obtenir une évaluation correcte de l’incertitude.
Chacun comprendra que pour que tous les facteurs aient l’opportunité
de varier, il faut diversifier les conditions de mesure. Par exemple,
si l’accélération locale de la pesanteur g est l’un des facteurs qui peut
perturber le résultat de mesure (cas de la mesure de masses, de forces ou
de couples), on aura beau répéter les mesures en un même lieu, on ne pourra
pas observer l’impact de sa dispersion91 dans le résultat. Pour « voir » cet
impact, il faut réaliser des mesures en des lieux différents. C’est la seule
solution permettant de faire varier g et de constater, le cas échéant, l’effet
de cette variation sur la mesure.

Par conséquent, si l’on souhaite évaluer l’incertitude de mesure par une

34
méthode purement expérimentale, il faut se mettre en situation de pouvoir

88
5:8
faire varier les facteurs du processus de mesure92. Ceci impose de réaliser

89
la mesure dans des contextes différents. En modifiant le contexte,

28
02
il est également possible de changer les opérateurs, les conditions

34
at:
environnementales, les instruments utilisés, la mise en œuvre, etc. Si l’on

ett
-S
peut, dès lors, espérer que la dispersion des résultats ainsi obtenus est iqu
es
représentative de l’effet cumulé de tous les facteurs, il reste encore une
hn

précaution importante. Toutes les mesures doivent en effet être réalisées


c
Te
et

sur le « même » objet, car il ne s’agit pas d’intégrer dans l’incertitude


es
nc
cie

91 Puisque g est constant en un lieu donné mais diffère en fonction du lieu…


sS

92 Évidemment, selon l’expérience menée, il est rare que tous les facteurs aient l’occasion
de

d’exprimer une variation. Il est utile d’introduire ici les concepts d’opportunités de variations
lté
cu

H.O. et L.O. des facteurs d’un processus de mesure. Si de nombreux facteurs du processus
:Fa

de mesure participent à l’incertitude de mesure, certains n’ont pas l’opportunité de varier


om

entre des mesures consécutives. Le cas de l’accélération locale de la pesanteur


x.c

est démonstratif à cet égard. La valeur vraie d’un g local ne pourra jamais être connue
rvo

parfaitement car elle relève d’une mesure. Il y a donc inévitablement une erreur entre
ola

la valeur vraie de cette accélération et sa valeur mesurée localement. Cette erreur est
ch
1.s

inconnue mais on sait qu’elle ne varie pas entre des mesures réalisées en un même lieu.
uh

Ce facteur est un facteur L.O. pour le processus de mesure. Nous retrouvons ce type de
comportement pour d’autres facteurs. Imaginons un environnement qui impacte, du fait
de la température, un processus de mesure. Si la température peut disperser au cours
du temps (elle est donc aléatoire), il est peu probable qu’elle ait l’opportunité de varier
beaucoup entre deux mesures consécutives sur un temps bref. Elle a donc un caractère L.O.
dans le cadre de ces deux mesures. La répétabilité en revanche est un facteur purement
H.O. C’est d’ailleurs, en quelque sorte, sa définition.

61
La Smart Metrology

de mesure la dispersion des objets eux-mêmes. Or, mesurer les mêmes


objets est parfois impossible (cas des mesures destructives) et il faut alors
s’assurer que les spécimens mesurés sont statistiquement identiques entre
eux (homogénéité) et dans le temps (stabilité).
Par ailleurs, les valeurs retenues pour exprimer un résultat de mesure
nécessitent d’interpréter les estimations comme les valeurs exactes
des paramètres recherchés puisque ce sont ces estimations qui sont
utilisées lorsque le processus de mesure est exploité. Pour ce faire,
la qualité d’estimation est une information essentielle. Imaginons,
par exemple, une série de mesures réalisées avec une même méthode
de mesure sur un même objet de valeur connue (une masse étalon par
exemple93) par différents laboratoires situés en des lieux différents, labora-
toires que nous supposons « répétables » ici, c’est-à-dire que les valeurs
de la masse qu’ils énoncent sont supposées fiables. Sous réserve de dispo-
ser de suffisamment de laboratoires ( p = 15 dans l’exemple ci-dessous),
le calcul de la moyenne et de l’écart-type des valeurs énoncées par l’ensemble
des laboratoires permet, sans information supplémentaire, d’estimer le
biais de la méthode de mesure et la dispersion de cette méthode due

34
88
aux laboratoires (voir tableau 4.1 ci-après).

5:8
89
Afin d’énoncer un résultat, nous ne nous sommes pas contentés ici de cal-

28
02
culer une moyenne et un écart-type mais nous avons également déterminé

34
at:
des intervalles de confiance94 associés. Nous constatons que l’hypothèse

ett
-S
« biais = 0 » est acceptable dans la mesure où « 0 » fait partie de l’intervalle es
de confiance95. Pour l’écart-type, il est d’usage de retenir la valeur obtenue
iqu
hn

(0,00016). Cependant et hors choix précis imposé, le métrologue est tout à fait
c
Te

libre de retenir la borne « maxi » de l’intervalle de confiance (0,00025) s’il le


et
es

souhaite. Nous verrons ultérieurement comment statuer sur ce point. En tout


nc
cie

état de cause, procéder aussi simplement permet d’exprimer un « résultat


sS

de mesure » sous la forme de la loi de probabilité


de
lté

par exemple96. Nous ne savons néanmoins pas expliquer les raisons de


cu
:Fa
om

93 Nous considérons ici, pour simplifier, que la valeur étalon (1,001) est connue sans incertitude.
x.c
rvo

94 Voir le chapitre 3 « Point de certitude ici-bas… où règne l’aléa ! » pour les formules utilisées.
ola

95 Cette règle est ici équivalente au test sur une moyenne : « µGlobal = 0 », mais il n’en est
ch

pas toujours ainsi. Un intervalle de confiance est une estimation d’un paramètre théorique
1.s

dite par intervalle alors qu’un test statistique est une décision quant à une valeur choisie de
uh

ce paramètre (hypothèse). Dans ce dernier cas, les observations servent à infirmer ou à


confirmer l’hypothèse et non à obtenir une évaluation (par intervalle) de la valeur du paramètre.
96 Le « résultat de mesure » n’est pas énoncé ici sous la forme « valeur annoncée ± incertitude
élargie (2s/√n)» (1,00097 ± 8,26 10-5). Cette dernière écriture ne qualifie pas le résultat
que l’on peut obtenir lorsqu’une mesure est réalisée mais une estimation par intervalle de
vvraie + µGlobal.

62
La métrologie : une intime de la statistique

la dispersion constatée. S’il nous fallait améliorer la connaissance de l’objet,


nous ne saurions pas sur quel(s) facteur(s) agir.
Tableau 4.1 Plan expérimental simple visant à évaluer
l’incertitude d’un processus de mesure d’une masse

Valeur étalon 1,00100


Laboratoire Valeur énoncée
1 1,00111
2 1,00099
3 1,00091
4 1,00078
5 1,00085
6 1,00089
7 1,00114
8 1,00092
9 1,00094
10 1,00090
11 1,00106
12 1,00077
13 1,00081 Intervalle de confiance

34
14 1,00124 Niveau de confiance 95 %

88
5:8
15 1,00126 Borne inférieure Borne supérieure

89
Moyenne 1,00097 1,00063 1,00131

28
02
Écart-type 0,00016 0,00012 0,00025

34
at:
Biais -0,00003 -0,00037 0,00031

ett
-S
Pour en savoir plus sur les raisons de l’incertitude, il est possible de mettre es
iqu

en œuvre une technique statistique nommée « ANOVA97 » qui s’adapte


c hn

à la prise en compte de plusieurs facteurs. Cette stratégie d’évaluation


Te
et

de l’incertitude de mesure est largement décrite dans la série des normes


es
nc

AFNOR NF ISO 5725. Nous exposons ci-après le principe d’une telle


cie

analyse en reprenant l’exemple précédent, lorsqu’une répétition des mesures


sS
de

(n = 3 ici) dans chaque laboratoire est réalisée (voir tableau 4.2 ci-après).
lté
cu

Il est alors possible de faire la part des choses entre l’effet « répétabilité »
:Fa

et l’effet « laboratoire98 », c’est-à-dire l’effet qui ne s’explique pas par


om
x.c

la répétabilité99.
rvo
ola
ch

97 Pour ANalysis Of VAriance, c’est-à-dire Analyse de la variance en français. On pourra


1.s

consulter à ce sujet les tutoriels dédiés sur WikiStat (lien : http://wikistat.fr/).


uh

98 Cet effet contient, par exemple, l’effet de l’accélération locale de la pesanteur comme évoqué
précédemment ou de l’instrument, de la mise en œuvre du processus de mesure ou encore
de la poussée d’Archimède…
99 Pour représenter des mesures répétées, il faut introduire dans le modèle un double indexage
(laboratoire, répétition), ce qui est différent d’une simple addition d’erreurs portant sur
des unités distinctes mesurées une fois (simple indexage).

63
La Smart Metrology

Tableau 4.2 Plan expérimental à un facteur avec répétition des mesures

Valeur étalon 1,00100

Moyenne Variance
Répétition de trois mesures Laboratoire
des trois mesures des trois mesures
1,0013 1,0011 1,0009 1 1,00111 3,28E-08
1,0009 1,0010 1,0010 2 1,00099 3,39E-09
1,0011 1,0008 1,0009 3 1,00091 3,39E-08
1,0010 1,0006 1,0008 4 1,00078 2,87E-08
1,0009 1,0005 1,0012 5 1,00085 1,01E-07
1,0009 1,0008 1,0009 6 1,00089 1,88E-09
1,0011 1,0009 1,0014 7 1,00114 6,39E-08
1,0009 1,0010 1,0009 8 1,00092 2,89E-09
1,0010 1,0011 1,0007 9 1,00094 4,15E-08
1,0010 1,0010 1,0007 10 1,00090 2,10E-08
1,0008 1,0015 1,0008 11 1,00106 1,60E-07
1,0010 1,0007 1,0006 12 1,00077 5,88E-08

34
88
1,0007 1,0006 1,0010 13 1,00081 4,24E-08

5:8
89
1,0011 1,0015 1,0012 14 1,00124 4,08E-08

28
02
1,0014 1,0010 1,0013 15 1,00126 4,77E-08

34
at:
Moyenne 1,00097 4,53E-08

ett
-S
Écart-type 0,00016 iqu
es
hn

À partir des valeurs mesurées par chaque laboratoire, on peut calculer


c
Te
et

la variance de chaque série des trois valeurs (qui est une estimation
es
nc

du carré de l’écart-type de répétabilité théorique du laboratoire concerné).


cie

Sous réserve que ces variances soient comparables100 (ce qui est le cas ici),
sS
de

la racine de leur moyenne ( ) représente l’écart-


lté
cu

type de répétabilité expérimental qui est une estimation de l’écart-type


:Fa

de répétabilité théorique sr et dont la qualité a été discutée précédemment.


om
x.c
rvo

Par ailleurs, la moyenne des trois valeurs pour chaque laboratoire représente
ola
ch

la valeur énoncée de la masse pour le laboratoire concerné, estimation


1.s

d’une moyenne théorique. Enfin, l’écart-type des moyennes sur l’ensemble


uh

des laboratoires (sinter = 0,00016) n’estime pas l’effet « laboratoire ». En effet,


la dispersion des moyennes n’a pas pour origine le seul effet « laboratoire »,

100 Ce que l’on vérifie en toute rigueur par ce que l’on nomme un test d’homoscédasticité.

64
La métrologie : une intime de la statistique

elle contient également un résiduel de répétabilité des valeurs qui ont per-

mis de calculer les moyennes. Cette quantité estime en fait où

sL désigne l’écart-type de l’effet « laboratoire » théorique. Une estimation

de sL en disposant de sinter et de sr est donc donnée par : ,

dit écart-type de l’effet « laboratoire » expérimental101.


La connaissance de chacune des variances qui participent à un phénomène
complexe permet de définir le poids de chacune d’elles102, donc leur
criticité. Lorsqu’il est nécessaire d’améliorer le processus de mesure, il est
indispensable de savoir sur quel facteur essayer d’agir. L’analyse des poids
respectifs de chaque facteur permet alors d’orienter ce travail. Dans le cas
présent, on peut comparer le poids de l’effet « répétabilité » et celui de l’effet
« laboratoire » par rapport à la reproductibilité dont l’écart-type théorique est

défini par dont une estimation est donnée par 103

34
88
(voir tableau 4.3).

5:8
89
Tableau 4.3 Poids des causes d’incertitudes

28
02
34
Estimation Poids

at:
ett
Écart-type de répétabilité 0,00021 82 %
-S
es
Écart-type de l’effet laboratoire 0,00010 18 %
iqu
hn

Écart-type de reproductibilité 0,00023


c
Te
et

Ici, c’est la « répétabilité » qui prédomine pour expliquer l’estimation de


es
nc

l’incertitude-type globale quantifiée par l’écart-type de reproductibilité.


cie
sS

Il n’est pas rare d’entendre que « pour réduire l’incertitude, il suffit de


de

multiplier les mesures ». Cette expression est au mieux un raccourci, au pire


lté
cu
:Fa
om

101 Il est toujours possible, du fait des effets échantillonnage, que le terme sous la racine carré
x.c

soit négatif, ce qui est impossible car une estimation de variance ne peut pas être négative !
rvo

Elle ne fait donc que signifier que la cause dont nous cherchons à évaluer la dispersion
ola

est négligeable devant le phénomène global sous réserve, bien sûr, de la qualité des esti-
ch

mations.
1.s

102 Le poids de chaque facteur se calcule comme étant le ratio de la variance dudit facteur
uh

divisée par la somme des variances qui composent le phénomène d’intérêt.


103 Cet écart-type représente la dispersion associée à une mesure unique d’un laboratoire
quelconque. Autrement dit, un « résultat de mesure » pourrait s’énoncer sous la forme
N(1,00097;0,00023). Ce résultat est à comparer à celui obtenu précédemment
N(1,00097;0,00016) où l’information sur la répétabilité était absente, les laboratoires n’ayant
fourni qu’une valeur moyenne.

65
La Smart Metrology

une confusion entre, d’une part, l’évaluation de l’écart-type sGlobal attaché


au phénomène (« mesure d’une masse » ici) et d’autre part, l’intervalle de
confiance de vvraie + mglobal (fiabilité de l’estimation du résultat énoncé) dont

la longueur dépend de , intervalle qui est donc d’autant plus petit que

le nombre de mesures augmente. Comme il est de coutume d’énoncer


un résultat de mesure avec l’estimation de vvraie + mglobal et une « incertitude
élargie » correspondant à la moitié de la longueur de l’intervalle de confiance
de cette quantité, on comprend que la confusion soit possible.
Cette confusion porte sur la distinction fondamentale entre « incer-
titude physique » – inhérente à tout phénomène que la multiplication des
mesures permet d’apprécier mais pas de réduire – et « incertitude épisté-
mique » liée à notre capacité à connaître plus ou moins bien une information
qui, elle, devient plus précise lorsque les mesures sont répétées. Ainsi,
pour « réduire » sglobal, la multiplication des mesures ne sert à rien104. Il faut
en effet analyser le processus de mesure afin de comprendre les raisons
pour lesquelles la méthode de mesure « disperse » lorsqu’un laboratoire
l’applique.

34
88
5:8
Les calculs précédents pourraient être conduits de façon différente. Plutôt

89
que de s’intéresser à l’effet « laboratoire », il est également possible de cal-

28
02
culer la variance de toutes les valeurs mesurées (variance expérimentale

34
at:
totale ) qui, elle, intervient dans la décomposition suivante, dite « dé-

ett
-S
composition de la somme des carrés » : iqu
es
c hn
Te

ou encore :
et
es
nc
cie
sS
de

Selon cette approche, on obtient le tableau 4.4 suivant où les poids sont
lté

calculés par rapport à la variance expérimentale totale, ce qui donne des


cu
:Fa

résultats sensiblement identiques.


om
x.c

Tableau 4.4 Décomposition de la variance expérimentale totale


rvo
ola

Estimation Poids
ch
1.s

Variance de répétabilité 4,53 10-8 83 %


uh

Variance de l’effet laboratoire 9,28 10-9 17 %


Variance totale 5,46 10-8

104 Multiplier les mesures ne change pas la valeur de l’écart-type théorique sGlobal mais améliore
la qualité de son estimation, sglobal.

66
La métrologie : une intime de la statistique

Par ailleurs, un calcul d’écart-type sur des valeurs numériques ne repré-


sente pas toujours ce que l’on croit. La quantité que ce calcul estime dépend
du modèle de représentation de la réalité que l’on se donne. Comme les
métrologues sont habitués à une représentation « déterministe » où la
valeur mesurée est l’expression de « la » réalité (« à quelque chose près »),
la représentation probabiliste est souvent source d’incompréhension à leurs
yeux. Cette incompréhension est due au fait qu’en réduisant les résultats
à une manipulation des nombres « moyenne/écart-type », il est facile d’ou-
blier que ces derniers ne sont que des résumés de lois de probabilité de
variables aléatoires mises en jeu pour décrire un phénomène. Contrairement
à ce que l’on peut imaginer, cette complexification de la représentation,
en modélisant la nature incertaine des phénomènes, rend plus précise
la description de la réalité et donc notre capacité à la comprendre et à
la maîtriser. L’incertitude n’est pas « une chose en plus » qu’il faut ajouter « en
bonne conscience ». C’est la caractéristique intrinsèque d’une représentation
plus fine de la réalité et le métrologue, par ce mode de représentation, ouvre
à son métier des potentialités de description encore insoupçonnées.

Ce que nous venons de réaliser pour quantifier les effets « répétabilité »

34
88
et « laboratoire » peut être effectué à l’intérieur de chaque laboratoire,

5:8
89
mais en faisant varier de façon ordonnée les facteurs internes qui contribuent

28
02
à la dispersion. Il est possible, par exemple, de prévoir une expérience

34
dans laquelle on décide de faire mesurer, en des jours différents (pour

at:
ett
faire varier l’environnement), par des opérateurs différents (pour faire varier
-S
es
les opérateurs) et avec des moyens différents (si on en dispose), trois fois
iqu
hn

le même objet (pour évaluer la répétabilité). Les différents facteurs qui


c
Te

sont alors estimés sont appelés « fidélités intermédiaires ». Ils permettent


et
es

de « décortiquer » le processus de mesure et, ainsi, de connaître finement


nc
cie

les facteurs prépondérants. Une telle expérience est dite multifactorielle.


sS

Comme nous l’avons vu dans l’exemple précédent, il existe une multitude


de
lté

d’écarts types qui sont associés à des facteurs différents. Dès lors, l’analyse
cu
:Fa

des résultats d’une ANOVA, surtout multifactorielle (qui introduit notamment


om

des effets croisés), demande une formation et une pratique qu’un métrologue
x.c
rvo

averti devra acquérir graduellement. Bien que des analyses facteur par
ola

facteur (avec la répétabilité) soient moins précises (et souvent déconseillées)


ch
1.s

qu’une analyse multifactorielle, elles peuvent, dans un premier temps,


uh

être exécutées pour acquérir une connaissance progressive de l’impor-


tance des facteurs influents. L’ANOVA est sans doute la technique la plus
essentielle qu’un métrologue se doit de maîtriser tant sur le plan théorique
que pratique, notamment en ce qui concerne l’interprétation des résultats.

67
La Smart Metrology

Suivant le nombre de facteurs qui participent au processus de mesure,


et puisqu’il faut assez d’échantillons pour que les estimations soient de
qualité suffisante, il arrive que le plan expérimental devienne, soit beaucoup
trop long, soit beaucoup trop coûteux pour être réalisé. Conscients de ce
problème, les métrologues ont développé une méthode « analytique » qui
permet de contourner cette difficulté, mais qui pose d’autres problèmes.

4.2 L’approche « analytique »


L’approche préconisée depuis 1995 par un document connu aujourd’hui
sous l’acronyme de GUM105, consiste à analyser un à un les différents facteurs
pour en définir les paramètres. Cette stratégie passe par l’établissement
d’un bilan des causes d’incertitude qui fait état de tous les facteurs
à considérer106. Cette identification est également nécessaire à l’approche
« expérimentale ».

Pour dresser le bilan, il est important d’écrire le modèle de mesure.


Cette première étape permet de se poser les bonnes questions quant aux

34
88
facteurs d’influence et, ainsi d’éviter d’en oublier, ou tout du moins essayer

5:8
de ne pas passer à côté des plus importants. Cette phase d’écriture du

89
28
modèle de mesure n’est pas toujours très simple et implique une véritable

02
34
compétence que le métrologue doit développer. Elle fait appel à diverses

at:
ett
connaissances, tant sur les principes physiques mis en jeu que sur la mise en
œuvre du processus de mesure lui-même. Pour illustrer cette démarche, nous -S
es
iqu

pouvons tenter d’écrire le modèle de mesure d’une pièce parallélépipédique


c hn
Te

en aluminium à l’aide d’un pied à coulisse, exemple classique de l’industrie


et

mécanique. Au moment de la mesure, nous pouvons écrire :


es
nc
cie
sS
de
lté
cu
:Fa
om

On remarque que, dans ce genre de modèle, toutes les erreurs qui


x.c

participent au résultat de mesure viennent en s’additionnant. Dans ces cas-là,


rvo
ola

les variances des différents facteurs s’additionnent également, comme vu


ch

précédemment. On verra plus tard que pour des modèles plus compliqués,
1.s
uh

105 Le GUM est repris entièrement dans la collection des normes françaises sous la référence
NF ISO/CEI GUIDE 98-3, Incertitude de mesure – Partie 3 : guide pour l’expression
de l’incertitude de mesure (GUM:1995), 2014.
106 Il faut alors être sûr d’identifier effectivement tous les facteurs qui contribuent et perturbent
la mesure, ce qui n’est pas toujours très simple ni très sûr.

68
La métrologie : une intime de la statistique

le GUM (ainsi que son supplément 1107) propose deux solutions présentant
chacune des avantages et des inconvénients.
À partir de ce modèle de mesure, le métrologue doit estimer les paramètres
de chaque terme du modèle de mesure pour pouvoir les combiner. L’image
de la réalisation d’une recette de cuisine semble correspondre en partie
à la problématique du métrologue :
►► identifier tous les ingrédients : dresser le bilan des causes d’incertitude
à partir du modèle de mesure ;
►► doser les ingrédients : quantifier toutes les composantes aléatoires
(lois de probabilités souvent résumées par moyennes et écarts types) ;
►► mélanger les ingrédients : additionner les effets prévisibles (pour les
corriger) et les effets aléatoires.
Par ailleurs, comme dans une recette de cake par exemple, l’incertitude
de mesure comporte des ingrédients « incontournables » et d’autres plus
spécifiques à chaque processus de mesure.

4.2.1 Les « ingrédients » incontournables

34
88
5:8
89
28
 La répétabilité

02
34
at:
Ce nom barbare à l’oreille de certains108 n’exprime finalement que ce que

ett
-S
d’autres nomment « le bruit de mesure ». Elle est une composante présente es
dans tous les processus de mesure. La répétition d’une même mesure,
iqu
hn

dans les mêmes conditions (même objet mesuré, même opérateur, même
c
Te

instrument, mêmes conditions environnementales), permet fréquemment de


et
es

constater une dispersion des mesures obtenues. Il peut arriver qu’aucune


nc
cie

dispersion ne soit expérimentalement constatée en répétant les mesures.


sS
de

Dans ce cas, c’est la résolution109 de l’instrument qui masque « le bruit ».


lté

C’est donc elle qui devra être considérée dans l’incertitude110.


cu
:Fa
om
x.c

107 Norme AFNOR NF ISO/CEI GUIDE 98-3/S1:2008, Incertitude de mesure – Partie 3 : guide
rvo

pour l’expression de l’incertitude de mesure (GUM:1995) – Propagation de distributions


ola

par une méthode de Monte Carlo.


ch

108 Il s’agit d’une mauvaise traduction de l’anglais « repetability » qui aurait dû être traduit
1.s

par « répétitivité ». Voir la définition 2.21 du VIM.


uh

109 Voir la définition 4.14 du VIM.


110 Il existe plusieurs « écoles » pour la prise en compte de « l’erreur de lecture » dans
l’incertitude de mesure. Dans cet ouvrage, la position est claire : soit nous observons une
dispersion des indications de l’instrument de mesure lors de l’étude de répétabilité et nous
considérons que la lecture en fait partie, soit nous n’observons pas de dispersion et l’erreur
de lecture sera considérée à part.

69
La Smart Metrology

L’évaluation des paramètres de la répétabilité passe généralement par une


étude expérimentale. Il suffit de répéter des mesures sur un même objet,
de valeur connue ou inconnue et de calculer l’écart-type expérimental des
valeurs obtenues. Nous avons vu précédemment que la qualité de cette
estimation pouvait être obtenue par l’intermédiaire d’un intervalle de confiance,
intervalle dans lequel l’écart-type théorique de répétabilité devrait se trouver,
au niveau de confiance choisi. Dans ce genre d’étude, il n’est pas nécessaire
de connaître la valeur « vraie » de l’objet car nous ne nous intéressons qu’à
la dispersion. De fait, la moyenne de la loi de probabilité pour la répétabilité
est égale à 0, seul l’écart-type est utilisé.
La répétabilité est souvent en relation avec « le niveau111 » de l’objet mesuré.
Dans ce cas, il est possible de modéliser l’écart-type de répétabilité à partir
de répétitions réalisées sur des niveaux différents, écart-type représentatif
du domaine de mesure (voir figure 4.2 ci-contre). Dans ce cas, l’écart-type
de répétabilité est une fonction du niveau.
La question du nombre de mesures à réaliser dans le cadre d’une étude
de répétabilité est importante. Dans l’esprit du « juste nécessaire »,
il convient de se poser les bonnes questions pour ne pas s’engager

34
88
inutilement dans des séries de mesures interminables. D’un point de vue

5:8
89
purement mathématique, on ne gagne plus beaucoup en qualité d’estimation

28
02
au-delà de quinze répétitions de la mesure. Cependant, dans bien des cas,

34
il est possible de faire moins, sous réserves de précautions utiles à rappeler.

at:
ett
À partir de deux mesures112, on peut estimer un intervalle de dispersion
-S
es
contenant σ et donc estimer la valeur maximale qui pourrait être celle de σ
iqu
hn

(borne maximale d’un intervalle de confiance (IC)). En prenant soin de faire


c
Te

cette analyse peu coûteuse, il est possible de limiter le nombre de répétitions.


et
es

Il conviendra de vérifier parallèlement que dans l’incertitude finale, l’impact


nc
cie

de la valeur maximale de la répétabilité reste raisonnable devant tous les


sS

autres facteurs d’incertitude (c’est-à-dire son poids dans la variance totale à


de
lté

laquelle elle participe). Le tableau 4.5 ci-contre donne un exemple de cette


cu
:Fa

borne maximale au fur et à mesure qu’une valeur répétée est ajoutée113,


om

à partir d’une simulation de réalisations d’une loi de probabilité .


x.c
rvo
ola

111 Le terme« niveau » est en général utilisé pour faire référence à la quantité, à la taille ou
ch

encore à « l’importance » de l’entité mesurée. Il fait référence par exemple à la longueur


1.s

d’une pièce, à la concentration d’une substance, etc.


uh

112 Sous réserve qu’elles ne soient pas identiques.


113 La syntaxe Excel pour la colonne « Borne maximale de l’IC de σ, ligne 3 (N° de mesure 2)
du tableau 4.5 est donnée par : « =RACINE((NBVAL(B$2:B3)-1)/KHIDEUX.INVERSE
(0.95;NBVAL(B$2:$B3)-1))*ECARTYPE(B$2:B3) » (cette expression correspond au calcul
de la borne maximale d’un intervalle de confiance unilatéral à 95 % ou bilatéral à 90 % dont
la formule a été donnée au chapitre 3 « Point de certitude ici-bas… où règne l’aléa ! »).

70
La métrologie : une intime de la statistique

34
88
5:8
89
28
02
34
at:
ett
-S
Figure 4.2 Exemple d’une étude de répétabilité dépendant de niveaux iqu
es

Tableau 4.5 Exemple de borne maximale


c hn

d’un intervalle de confiance d’un écart-type


Te
et

Borne maximale de l’IC de s


es

N° de mesure Valeur
nc

1 100,3
cie
sS

2 99,891 4,612
de

3 99,574 1,607
lté

4 100,358 1,077
cu
:Fa

5 99,978 0,759
om

6 100,185 0,615
x.c

7 99,862 0,532
rvo

8 99,649 0,519
ola
ch

9 99,851 0,467
1.s

10 99,935 0,424
uh

11 100,117 0,397
12 100,181 0,380
13 100,161 0,363
14 100,026 0,342
15 100,154 0,328

71
La Smart Metrology

Nous l’avons vu, la répétabilité peut également être fonction de l’expérience


de l’opérateur. Dès lors, une étude de répétabilité doit faire appel à différents
opérateurs pour s’assurer, soit qu’ils ont la même qualification, soit qu’ils
révèlent des différences de « performance ». Dans ce dernier cas, il sera
possible d’améliorer la répétabilité des moins performants, ou de considérer
la plus grande dispersion dans les calculs.

 L’imperfection de l’objet
C’est souvent un facteur d’incertitude important. Un rond n’est pas rond,
une température n’est pas constante dans un volume, pas plus qu’une
concentration ne l’est dans une solution. Cette imperfection ne produit
rien d’autre qu’une dispersion de la valeur mesurée quand on l’effectue
en des « points » différents. Pour l’estimer, il suffit, là encore, de mesurer
l’objet en différents « points » puis de calculer la dispersion. En réalisant
de telles mesures, le lecteur comprendra que se mélangent alors
l’imperfection de l’objet et la répétabilité que nous venons de détailler. Ainsi,
on peut supposer que chaque mesure réalisée en des « points » différents

34
peut être représentée sous la forme suivante avec des notations évidentes :

88
5:8
114
. On peut alors écrire la relation suivante sur

89
28
les variances : .

02
34
at:
Dans cette dernière égalité, le terme recherché est . Cette décompo-

ett
-S
sition de variances permet, à partir de , estimation de , et iqu
es
(une estimation préalablement connue de ), d’estimer la dispersion due
c hn
Te

à l’objet lui-même : 115


.
et
es

Dans certains contextes, un phénomène de stabilité peut également inter-


nc
cie

férer avec les mesures. Dans le cas de l’évaluation de l’homogénéité d’une


sS
de

enceinte climatique, il peut être nécessaire de déplacer un capteur en


lté

différents points de ladite enceinte et de le laisser se stabiliser. Or, pendant


cu
:Fa

ce temps qui passe, la régulation de l’enceinte fait potentiellement varier


om
x.c

la température globale de l’enceinte. Cette variation, due à la régulation,


rvo

ne doit pas être confondue avec la caractéristique recherchée. Là encore,


ola
ch
1.s

114 Attention au fait que ce modèle est différent de celui représentant des mesures répétées
uh

puisqu’il n’y a, sous-entendu ici, qu’un seul index pour distinguer les différentes valeurs :
le point de mesure sur l’objet.
115 Lors d’une telle décomposition, il n’est pas impossible que le terme sous la racine soit négatif.
Cela vient du fait que les valeurs numériques mises en jeu ne sont que des estimations.
Comme nous l’avons déjà signalé, dans ce cas, cela signifie que l’écart-type recherché est
négligeable devant les autres et peut donc être pris égal à 0.

72
La métrologie : une intime de la statistique

il convient de faire une décomposition de variances en considérant la va-


riance apparente d’homogénéité ( : variance des mesures réalisées en
différents points) et la variance de stabilité qui a pu être évaluée par ailleurs
en laissant le capteur en un point fixe et en relevant des mesures pendant
un temps donné. Dans cette dernière variance, l’effet « répétabilité » est

également pris en compte, aussi : .

 L’effet inter-opérateurs
L’expérience montre que cet effet existe dans bien plus de cas qu’il n’y
paraît. Nous ne pouvons que conseiller de vérifier si l’opérateur, dans sa
façon de pratiquer, induit ou non une erreur dans le processus de mesure.
En général, il n’est pas très compliqué de déterminer cette fidélité inter-
médiaire. Lors des études de répétabilité, il suffit de faire réaliser les mesures
par différents opérateurs, comme cela a été fait précédemment pour l’effet
laboratoire. Ce sont évidemment les mêmes calculs qui s’appliquent.
Un document de référence, le MSA (destiné à l’industrie automobile116), décrit
une méthode dite R&R pour évaluer cet effet. Cette méthode correspond

34
88
exactement à une ANOVA à deux facteurs117.

5:8
89
28
Lorsqu’il n’est pas possible d’envisager une telle expérience, il faut tenter de

02
34
décrire les raisons qui feraient que des opérateurs différents trouvent des

at:
ett
résultats différents pour le même objet mesuré. Il peut s’agir, notamment,
-S
de différences au niveau de la préhension de l’objet et de l’instrument, es
iqu

de variations dans les efforts de mesure, de capacité d’interprétation de


c hn

la mesure118, de positionnement d’un objet dans un montage, etc. La bonne


Te
et

connaissance du processus de mesure et l’expérience des opérateurs


es
nc

qui le pratiquent sont les clés d’une vision objective des raisons (facteurs)
cie

de possibles différences entre opérateurs. Il est donc nécessaire d’interviewer


sS
de

les utilisateurs sur ce point si l’on n’est pas, soi-même, coutumier du


lté
cu

processus. Quel que soit le phénomène suspecté, il s’agira au final de donner


:Fa

une information quantitative pour chaque facteur sous la forme d’un écart-
om
x.c

type, ce qui n’est pas intuitif.


rvo
ola
ch

116 MSA, Measurement System Analysis – Fourth Edition, 2010.


1.s

117 Dans le MSA, une estimation des différents écarts types est proposée en utilisant l’étendue
uh

des mesures. Cette méthode, dite « moyenne et étendue », est à proscrire pour des raisons
théoriques que nous ne pouvons détailler ici. Elle n’a été développée que pour simplifier
les calculs à une époque où les ordinateurs n’étaient pas aussi répandus. L’estimation par
écarts types expérimentaux (ANOVA) est également détaillée.
118 Interpolation de lecture sur un appareil à cadran ou détermination de la couleur d’un papier
indicateur de Ph par exemple (il existe une multitude d’autres cas).

73
La Smart Metrology

Dans de tels cas, et ils sont fréquents, le GUM propose une méthode, dite
de « type B ». Il suffit, pour cela, de considérer une loi de probabilité a priori
associée au phénomène119. Lorsque cette loi est bornée sur un intervalle
[a,b] et que cette loi ne dépend que de deux paramètres, il est possible
de déterminer son écart-type en fonction de a et de b. Par exemple,

pour une loi uniforme120 sur et pour une loi dite en dérivée

d’arc-sinus ou « loi en U » sur Cette loi est souvent utilisée

pour les erreurs de type « hystérésis ». La fonction de densité d’une telle

loi s’écrit dont nous donnons une représen-

tation ci-après pour [a,b] = [-1;1] (elle est alors dite loi Arc-sinus,

voir figure 4.3). Elle est symétrique par rapport à sa moyenne .

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s

Figure 4.3 Densité de la loi Arc-sinus


uh

119 Lorsque la réalisation de mesures n’est pas envisageable pour estimer la répétabilité
(cas des essais très coûteux par exemple), il est toujours possible d’en donner une estimation
par une méthode de type B.
120 Cette loi est souvent utilisée pour les erreurs de lecture des appareils à affichage numérique.

74
La métrologie : une intime de la statistique

Pour une loi dont le support n’est pas borné, il faut considérer un intervalle
dit de fluctuation couvrant un certain pourcentage de valeurs. Pour une
loi normale de moyenne m et d’écart-type s par exemple, si l’on considère
l’intervalle de fluctuation qui couvre environ 95 %
des valeurs : 121
.
Nous avons vu que la qualité des estimations122 était fortement dépendante
du nombre de données disponibles. Dans le cas des méthodes de type B,
la qualité du choix du support ou des intervalles de fluctuation a priori des
lois est tout aussi délicate. Elle est impactée non seulement par la définition
des bornes d’un intervalle contenant le phénomène mais aussi par la loi
de probabilité rarement connue, souvent admise.
En pratique, la véritable difficulté de l’évaluation des incertitudes de mesure
réside dans l’inventaire des facteurs qui perturbent la mesure123, dans l’esti-
mation des bornes entre lesquelles le facteur peut prendre des valeurs
et dans la détermination de la loi de probabilité dont sont supposées être
issues ces valeurs.

34
 Les erreurs de l’instrument (et la relation aux étalons)

88
5:8
89
À la suite d’une modification de la définition d’un étalonnage intervenue pour

28
02
la version 3 du VIM, le CFM a produit, en 2012, un guide détaillé124. À l’heure

34
at:
où sont écrites ces lignes, il est rare que les laboratoires le mettent en œuvre.

ett
-S
En conséquence, les métrologues doivent fréquemment exploiter par eux- es
mêmes les données d’étalonnage qui se résument souvent à un tableau avec
iqu
hn

des valeurs étalons, des valeurs mesurées, des écarts et des incertitudes.
c
Te

Nous ne pouvons qu’inviter le métrologue à découvrir, à travers ce guide,


et
es
nc
cie

121 Il est d’usage, lorsque nous supposons que le phénomène suit une loi de probabilité normale,
sS

de considérer que les bornes de l’intervalle de fluctuation sont données à plus ou moins
de

trois écarts types de µ au lieu de deux écarts types et alors σ = (b - a / 6). Il faut signaler au
lté

lecteur que cette relation n’est vraie que si la borne est effectivement la borne d’un intervalle
cu

de fluctuation donné à 99,73 %. Si l’intervalle n’était donné que pour 99 %, il conviendrait


:Fa

de diviser b - a par 2 × 2,575 = 5,15 au lieu de 6. La différence semble peu importante mais
om
x.c

elle induit une différence significative sur la variance : une erreur de 0,73 % sur l’évaluation
rvo

du pourcentage définissant l’intervalle de fluctuation conduit à 26 % de différence sur


ola

la variance !
ch

122 Le GUM parle de méthode de type A lorsqu’il s’agit d’évaluer un écart-type à partir d’une
1.s

série de données.
uh

123 On fait souvent référence à la méthode des 5M (Matière, Matériel, Main d’œuvre, Méthode,
Milieu) pour traiter cet aspect de la question.
124 Ce guide explique comment modéliser le comportement de l’instrument de mesure et
comment calculer l’incertitude résiduelle en tenant compte des incertitudes d’étalonnage
et du résiduel de l’instrument lui-même. Suite à ces travaux, et avec le financement de l’État,
le CFM a fait développer un logiciel M-CARE qui permet de mettre en œuvre tous les calculs.

75
La Smart Metrology

l’approche de modélisation d’un étalonnage proposée et qui montre, là en-


core, l’importance de la représentation probabiliste et l’exploitation statistique
de données d’étalonnage125.
Les instruments de mesure126 peuvent présenter d’autres types de problème
que la seule question relative à la « justesse de leurs graduations » (voir
le chapitre 2 « Les mesures ne peuvent pas être justes ! »). Chaque erreur
doit alors être considérée, souvent par une méthode de type B suivant
qu’elle entre en jeu ou non dans le processus de mesure en cours d’analyse.
Par exemple, un comparateur mécanique monté sur un statif127 qui participe
à la mesure de pièces verra son palpeur arriver systématiquement dans le
sens de sa descente sur les pièces (voir figure 4.4).

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS

Figure 4.4 Mesure à l’aide d’un comparateur


de

(l’hystérésis n’intervient pas dans ce type de processus)


lté
cu
:Fa
om

125 Les données mesurées utilisées pour estimer les paramètres d’un modèle d’étalonnage
x.c

étant incertaines, les estimations de ces paramètres sont également incertaines et


rvo

il convient donc d’en tenir compte en ne se limitant pas à une simple expression numérique.
ola

Ces incertitudes servent à apprécier la qualité d’ajustement du modèle aux données


ch

(validation) mais également à vérifier la significativité d’une différence par rapport à une
1.s

situation idéale afin de justifier, le cas échéant, une correction de l’instrument. On pourra
uh

consulter sur ce sujet l’article : http://www.lametrologieautrement.com/2015/03/exploitation-


des-resultats-detalonnage-pour-evaluer-la-part-de-linstrument-dans-un-bilan-dincertitude/
126 Rappelons qu’un instrument de mesure, quel qu’il soit, ne fait pas de mesures, il participe
à un processus de mesure.
127 Socle comportant une tige verticale pouvant recevoir divers dispositifs ou appareils
de laboratoire, de photographie (source : Larousse).

76
La métrologie : une intime de la statistique

Dans ce type de processus, son éventuelle erreur d’hystérésis, aussi im-


portante soit-elle, ne s’exprimera pas. En revanche, si le comparateur
intervient dans la mesure du défaut de battement de pièces dans un montage
entre-pointes, elle risque de s’exprimer suivant la pratique de l’opérateur
et sa capacité à déterminer les points de rebroussement dans le même
sens de mesure ou pas. On comprend ici toute la difficulté de l’approche
analytique qui nécessite une description fine du processus de mesure sou-
vent difficile à réaliser.

 La dérive des instruments


L’étalonnage/la vérification périodique est une pratique qui a été initiée
par la métrologie légale pour répondre à une exigence de loyauté.
Dans ce cadre, une « non-conformité » déclarée à l’échéance de la pério-
dicité n’a normalement pas d’incidence vitale. En effet, le vendeur ou l’ache-
teur ont pu subir un préjudice sur la période mais l’anomalie ne dure pas.
Elle est réparée périodiquement du fait de la vérification des instruments.
En revanche, en métrologie industrielle, un préjudice peut, quant à lui,
être fatal. Une dérive sur un instrument qui participe à la déclaration
de conformité d’une pièce critique, d’un médicament, d’un aliment,

34
88
d’un diagnostic médical pour ne citer que quelques exemples, peut avoir

5:8
89
des conséquences dramatiques pouvant aller jusqu’aux décès de per-

28
02
sonnes. Lente et monotone ou accidentelle, la dérive devrait être l’ennemi

34
juré du métrologue, qu’elle intervienne au niveau de l’instrument ou de tout

at:
ett
autre facteur contribuant à la mesure.
-S
es
Dès lors que l’on prend conscience de ces enjeux, on comprend que
iqu
hn

la périodicité ne peut pas être « arbitraire », comme en métrologie légale.


c
Te

Elle devrait être déterminée de façon à ce que l’impact de la dérive éven-


et
es

tuelle du moyen sur la qualité des mesures qu’il participe à produire soit
nc
cie

acceptable. Si la statistique peut, là encore, nous aider (comme nous


sS

le découvrirons dans le chapitre 7 consacré à la gestion d’un parc


de
lté

d’instruments), elle ne peut malheureusement pas prédire les accidents.


cu
:Fa

Dès lors, en fonction de la criticité des contextes, les moyens de surveillance


om

des processus de mesure doivent être dimensionnés aux regards des


x.c
rvo

risques potentiels encourus.


ola
ch

L’analyse d’une dérive s’effectue différemment selon que l’on considère, soit
1.s
uh

des étalons matérialisés, lesquels sont des instruments dits « à cotes fixes »
(masse, cale, diode Zener, shunt par exemple) caractérisés par une seule
valeur, soit des instruments (« mesureurs » au sens plus commun du terme)
dits à « cotes variables » qui possèdent la propriété de mettre en relation
un objet et une indication sur une plage de valeurs.

77
La Smart Metrology

Pour les instruments « à cotes fixes », l’évaluation de la dérive s’effectue


à partir de valeurs d’étalonnages antérieurs (ordonnées) en modélisant
leur fluctuation dans le temps (abscisse)128. Les raisons de l’évolution d’un
étalon dans le temps sont multiples : taux d’utilisation, qualité intrinsèque,
contexte d’utilisation par exemple. Lorsqu’on ne connaît pas formellement
les raisons129 à l’origine de l’évolution, il n’est pas raisonnable d’extrapoler
ce comportement. En revanche, et lorsque nous disposons de plusieurs éta-
lons de même nature, il est possible de considérer chacun des comportements
individuels comme un élément d’un échantillon représentatif de ce qui peut
se passer dans l’environnement. Dans ce cas, il est possible d’estimer,
ce qui risque de se passer « au pire » (à un niveau de confiance donné) même
si l’on n’a jamais observé ce pire et ce, notamment lorsque l’histogramme
des dérives des étalons de l’échantillon est approximativement normal130.
Le comportement extrême qu’un individu appartenant à une population
d’étalons du type de ceux qui sont analysés risque de subir peut alors être
estimé et la dérive « maximale » ainsi déterminée peut être prise en compte131.
Pour les instruments à « cotes variables », la problématique est assez
différente. L’étalonnage de ce type d’instruments est déjà, en lui-même,

34
88
un échantillonnage dans le sens où nous n’observons pas toutes les gra-

5:8
duations. Pour traiter cette question, il n’est pas rare que les métrologues

89
28
se contentent d’observer l’écart entre deux étalonnages successifs et

02
34
en chaque point (ce qui suppose en corollaire de toujours faire les étalon-

at:
ett
nages sur les mêmes points). On peut légitimement s’interroger sur la
pertinence d’une telle pratique. En effet, quelle est la représentativité d’un -S
es
iqu
hn

128 Prenons par exemple une droite obtenue par moindres carrés ordinaires (adaptée parce qu’il
c
Te

n’y a pas d’incertitude sur les dates) : une analyse des résidus du modèle permet de juger
et

de l’adéquation de l’approximation linéaire aux données. Dans ce cas, la pente de droite est
es
nc

un indicateur de la dérive qui s’exprime en unité de l’étalon par « unité d’évolution ».


cie

129 Certains phénomènes peuvent s’expliquer physiquement. Dans ce cas, le modèle peut être
sS

prédictif et être utilisé pour corriger la valeur de l’étalon en un temps donné. Par exemple,
de

l’austénite résiduelle qui provoque dans les aciers un gonflement de la matière (diminution
lté

des diamètres intérieurs et augmentation des longueurs). Lorsqu’elle est présente,


cu
:Fa

elle s’exprimera continûment et l’étalon concerné subira donc une évolution régulière.
om

130 Lorsque l’ensemble des étalons ont des valeurs de référence distinctes, il est parfois
x.c

nécessaire de ramener les dérives individuelles en pourcentage. Par exemple, une masse
rvo

de 1 kilogramme a plus de chance de perdre plus de masse entre deux étalonnages qu’une
ola

masse de 1 milligramme : considérer leurs dérives individuelles ensemble n’a alors pas
ch

de sens.
1.s
uh

131 Le réflexe est de vouloir considérer la dérive observée d’un étalon dans un calcul d’incertitude.
Très souvent, dans ces cas-là, on constate que le poids de cette dérive est parfaitement
dérisoire dans l’incertitude globale. En fait, la question n’est pas de savoir quelle est la
valeur de la dérive pour le calcul d’incertitude mais de savoir quelle est la dérive admissible
sur l’étalon sans que cela dégrade la qualité de la mesure ? Vu sous cet angle, cette valeur
de « dérive la plus grande admissible » permet de définir la périodicité à partir du
comportement extrême possible pour un étalon donné.

78
La métrologie : une intime de la statistique

écart entre deux mesures pour quantifier une dérive, sachant que les
mesures ne sont que des réalisations de variables aléatoires et qu’un écart
entre deux réalisations ne traduit pas nécessairement une dérive ?
Par ailleurs, en s’imposant des points d’étalonnage systématiques, on ne
profite pas de l’opportunité procurée par chaque étalonnage de recueillir,
au fil du temps, des informations complémentaires sur l’instrument.
En fait, dans ce cas, la dérive devrait être analysée en étudiant l’évolution
des paramètres du modèle qualifiant un étalonnage (pour une droite,
il s’agit de la pente et de l’ordonnée à l’origine dite « intercepte »).
Cette analyse est délicate dans la mesure où ces paramètres estimés sont
entachés d’incertitudes corrélées132. Une solution graphique simple peut
être envisagée pour détecter une dérive effective. Dans le cas de modèles
d’étalonnages linéaires par exemple, en reliant entre eux les points définis
sur un plan portant en abscisse la valeur de la pente et en ordonnée la valeur
de l’intercepte dans l’ordre des étalonnages successifs, une régularité obser-
vée (« les segments ne se croisent pas ») peut permettre de décider d’une
dérive prédictible. Une modélisation de la pente et de l’intercepte en fonction
du temps est alors envisageable. Si une dérive est constatée, elle doit être

34
88
prise en compte comme un effet à considérer dans les causes d’incertitudes.

5:8
89
28
02
4.2.2 Les « ingrédients » spécifiques

34
at:
ett
-S
 Les effets environnementaux iqu
es

Comme nous l’avons vu dans la description d’un processus de mesure,


c hn
Te

l’environnement peut induire des erreurs de mesure, systématiques ou


et

aléatoires. La bibliographie permet de prendre connaissance de certaines


es
nc

relations entre les paramètres physiques et les paramètres environnementaux.


cie
sS

Ainsi, la dilatation des matériaux suivant un coefficient dépendant de la nature


de

du matériau, la poussée d’Archimède que subit tout corps plongé dans un


lté
cu

fluide, la masse volumique de l’eau ou de l’air en fonction de paramètres tels


:Fa
om

que la température, la pression ou l’humidité relative (pour l’air, évidemment)


x.c

sont autant de relations physiques connues. Certains fabricants d’instruments


rvo
ola

donnent aussi des informations relatives à l’impact de l’environnement


ch
1.s

de la mesure sur les performances métrologiques desdits instruments.


uh

132 La question se pose ainsi : « Les écarts apparents entre les derniers paramètres et les
précédents sont-ils dus à une dérive ou à une fluctuation naturelle conséquence de
l’incertitude ? » On pourra consulter à ce sujet l’article : http://www.lametrologieautrement.
com/2015/03/une-piste-pour-evaluer-limpact-de-la-derive-dans-lincertitude-des-processus-
de-mesure-faisant-appel-a-des-instruments-mesureur/

79
La Smart Metrology

Ces effets ne doivent pas être confondus avec les caractéristiques métro-
logiques intrinsèques de l’instrument car dans ce cas, ce sont bien
les conditions de la mesure qui doivent être considérées comme à l’origine
de l’incertitude et pas l’instrument lui-même133.
Avec ces relations, en tenant compte de la dispersion des facteurs
environnementaux, il est possible de définir l’impact sur le processus
de mesure, généralement par une méthode de type B. On évalue les variations
maximales possibles des paramètres environnementaux, leurs impacts
maxima sur le processus de mesure (sur l’objet, sur l’instrument, etc.) et
on les transforme enfin en écart-type en tenant compte de la loi de proba-
bilité supposée des paramètres environnementaux considérés. Ici, il faut
également être attentif aux moyennes des phénomènes environnementaux
considérés. Par exemple si, dans un contexte donné, la température moyenne
n’est pas égale aux 20 °C de référence, l’écart entre la moyenne du contexte
et lesdits 20 °C induit une erreur de type « prévisible » dans le processus
de mesure.
La littérature disponible ne peut être strictement exhaustive en matière
de recueil de phénomènes. Il est donc possible que certains n’y soient

34
pas modélisés. L’évolution des techniques, des matériaux, voire même de

88
5:8
la connaissance acquise peut, par ailleurs, nous mettre dans des situations

89
où nous pensons qu’il existe un effet de tel paramètre sur telle caractéris-

28
02
tique sans que soit connue la relation. L’expérimentation devient alors

34
at:
nécessaire et la technique des « plans d’expériences » peut être utilisée pour

ett
-S
limiter le nombre d’expériences et avoir un modèle approximatif. iqu
es

 Les causes spécifiques à tel ou tel processus


c hn
Te
et

Au-delà des paramètres environnementaux, d’autres facteurs peuvent


es

perturber les résultats d’une mesure. On évoque souvent la méthode de


nc
cie

mesure elle-même qui peut être à l’origine d’une dispersion. Par exemple,
sS
de

en métrologie dimensionnelle134, la mesure d’une caractéristique d’un objet


lté
cu

à l’aide d’une machine à mesurer tridimensionnelle135 sera entachée d’une


:Fa
om
x.c

133 Par exemple, la dilatation d’une cale-étalon ou d’un pied à coulisse exposés à une tem-
rvo

pérature différente de 20 °C n’est pas une erreur liée à la cale ou au pied à coulisse mais
ola

à l’environnement qui a un effet sur la cale ou le pied à coulisse.


ch

134 Nous évoquons également souvent, en métrologie dimensionnelle, toutes les problématiques
1.s

liées aux déformations de contacts. Ces déformations dépendent du type de contact mis
uh

en jeu, de la matière des touches de l’instrument et de l’objet à mesurer, des efforts


de mesure. Dans ce cadre, il est d’usage de faire appel aux formules de Hertz (voir : https://
fr.wikipedia.org/wiki/Contact_de_Hertz).
135 Ce type de machine permet de faire l’acquisition, dans l’espace, des coordonnées (x, y, z)
de points physiques puis, à l’aide d’algorithmes spécifiques, de modéliser les formes
auxquelles les points sont censés appartenir, ce qui permet de caractériser lesdites formes.

80
La métrologie : une intime de la statistique

incertitude due au nombre de points relevés. Plus le défaut de forme de


la pièce sera important (caractéristique intrinsèque de l’objet), plus l’impact
du nombre de points sera important.
De même, et pour rester sur cet exemple, les algorithmes d’optimisation
utilisés sont souvent inconnus et génèrent eux aussi des « erreurs ». Il existe
de nombreuses façons de modéliser le diamètre d’un cercle théorique passant
par des points. Cependant, des modélisations différentes n’aboutissent pas
forcément à la même valeur pour les mêmes points mesurés. En conséquence,
dès lors que l’on ne connaît pas la meilleure méthode d’optimisation, il est
nécessaire de considérer la dispersion des algorithmes comme une source
d’incertitude. La présence d’algorithmes d’optimisation dans de nombreux
matériels sera probablement de plus en plus prégnante à l’avenir, ces
algorithmes n’étant d’ailleurs pas limités à un seul domaine. Que se passe-t-il,
par exemple, dans un automate de laboratoire de biologie médicale ou dans
un chromatographe ? Néanmoins, des méthodes de référence permettent
parfois de corriger, en tout ou partie, les effets des « méthodes136 ».
Le lecteur comprendra une fois encore que le problème de l’incertitude n’est

34
pas un problème de calcul, mais bel et bien de connaissance du processus

88
de mesure, de l’objet mesuré et des principes physiques et mathématiques

5:8
89
mis en œuvre pour tenter de le caractériser. On touche du doigt, dans

28
02
l’énumération des facteurs d’incertitude qui précède, toute la difficulté de

34
at:
la méthode analytique qui est, pourtant, souvent privilégiée. Si toutes ces

ett
-S
réflexions autour des causes d’incertitude sont indispensables, nul ne peut es
prétendre avoir fait le tour de la question. Dans le cadre des étalonnages et
iqu
hn

des essais accrédités, des experts se sont concertés pour statuer sur les
c
Te

causes principales à considérer. Néanmoins, nous pouvons tout de même


et
es

passer à côté de certains phénomènes non encore appréhendés et il n’est


nc
cie

donc pas surprenant que, parfois, la méthode analytique donne des résultats
sS

sensiblement différents de la méthode expérimentale. De tels écarts, lors-


de
lté

qu’ils sont détectés, doivent être considérés comme des opportunités


cu
:Fa

d’amélioration de la connaissance des processus de mesure concernés.


om

Dans ce cas, il faut savoir remettre en cause ses croyances…


x.c
rvo
ola
ch
1.s
uh

136 Les algorithmes ne sont pas les seuls facteurs susceptibles de provoquer des écarts entre
différentes méthodes de mesure. Il existe de nombreux cas de méthodes développées
qui doivent être comparées, lorsqu’elles existent, à des méthodes de référence acceptées
comme faisant foi par la profession concernée. Lorsqu’il n’existe pas de méthodes
reconnues comme méthode de référence, la dispersion inter-méthodes doit être considérée
dans l’incertitude globale.

81
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
chn
iqu
es
-S
ett
at:
34
02
28
89
5:8
88
34
5
Bilan… d’incertitude

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et

La synthèse de la réflexion menée jusqu’ici prend la forme d’un tableau


es
nc

qui agrège les résultats de l’étude d’incertitude. Ce tableau dresse le bilan


cie
sS

de tous les facteurs en présence dans leurs composantes « prévisibles »


de

et « aléatoires ». Aucune contrainte n’existe vraiment pour la présentation


lté
cu

d’un tel bilan mais les organismes accréditeurs sont parfois sensibles à
:Fa
om

une forme standardisée. Il faut donc s’assurer de ce point pour éviter des
x.c

désagréments. Pour chacun des facteurs, le caractère prévisible et l’écart-


rvo
ola

type qui quantifie la part aléatoire sont indiqués. Pour ce dernier, puisqu’il
ch
1.s

existe deux méthodes pour l’évaluer, il est parfois nécessaire de connaître


uh

« l’erreur maximale137 » et la loi de probabilité associée, paramètres à partir


desquels l’écart-type sera estimé (voir tableau 5.1 ci-après).

137 Nous mettons ici « erreur maximale » entre guillemets car ce concept d’erreur maximale
n’a qu’une signification limitée dans le monde probabiliste.
84
Exemple d’un bilan d’incertitude d’un processus de mesure

Part Aléatoire Part Prévisible Covariance entre deux mesures

Modèle
Causes d’incertitude « Erreur maximale » Loi de probabilité Écart-type Variance Poids Lk Part H.O. Part L.O.
(effet prévisible)
La Smart Metrology

Répétabilité du processus / / 0,0030 0,000009 2,7 % 0 0% 9,0E - 06 0,0E + 00

Imperfection du mesurande / / 0,0120 0,000144 43,4 % 0 0% 1,4E - 04 0,0E + 00

Reproductibilité inter-opérateur / / 0,0060 0,000036 10,8 % 0 100 % 0,0E + 00 3,6E - 05

Instrument : effet prévisible 0,0 % Non significatif

Instrument : part aléatoire 0,0030 0,000009 2,7 %

Instrument : erreur spécifique


0,015 Dérivée Arc-Sinus 0,0106 0,0001125 33,9 % 0% 1,1E - 04 0,0E + 00
(hystérésis)

Incertitude d’étalonnage 0,005 Normale (95%) 0,0025 0,00000625 1,9 % 0 100 % 0,0E + 00 6,3E - 06

Dérive de l’instrument / / 0,0020 0,000004 1,2 % Non significatif 100 % 0,0E + 00 4,0E - 06
uh
Tableau 5.1 Exemple de bilan d’incertitude

1.s
Condition de température ch
ola 0,01 Normale 0,0033 1,11111E-05 3,3 % 0,001 80 % 2,2E - 06 8,9E - 06
(dilatation) rvox
.co
… m:
Fa … … … … …
cu
lté
de Somme 0,000331861 Somme 2,7E - 04 5,5E - 05
sS
cie Correction
nc Incertitude-type composée 0,0182 +0,001
es à appliquer
et
Te
Incertitude élargie (k=2) 0,036
ch
niq
ue
s-
Se
tta
t:3
40
22
889
5:8
88
34
Bilan… d’incertitude

Par convention, il a été décidé au début des années 1990, au niveau


européen et pour les laboratoires d’étalonnage de mesure et d’essais,
que les incertitudes de mesure seraient exprimées à un niveau de confiance
de 95 %. Depuis cet accord, l’incertitude-type est multipliée par deux pour
répondre à cet objectif (dans le cas des lois normales…).

5.1 Quelques termes utiles


du bilan des causes d’incertitude
Le tableau 5.1 peut paraître un peu plus détaillé que les présentations
usuelles, notamment dans sa dernière partie, ce qui mérite quelques mots
d’explications.

5.1.1 Les « opportunités de variations »


Les parts d’opportunité de variations (L.O.138 et H.O.139) dans des conditions
spécifiques données sont des termes qui peuvent induire, selon la manière
dont est spécifié le modèle de mesure, une covariance entre les résultats
de mesures.

34
88
5:8
La valeur Lk, qui quantifie la part de caractère L.O. pour chaque cause

89
d’incertitude, est estimée en fonction des conditions de réalisation des

28
02
mesures. Par exemple, si l’opérateur ne change pas entre les mesures,

34
at:
Lk prend la valeur 100 % puisque l’erreur spécifique produite par l’opérateur

ett
-S
n’a pas l’opportunité de changer. En revanche, si l’opérateur était amené iqu
es
à changer, Lk passerait alors à 0 %, cet effet ayant, à chaque changement
hn

d’opérateurs, l’opportunité de varier.


c
Te
et

Pour les conditions de température, il est classique d’évaluer « l’erreur


es
nc

maximale » sur un temps long, l’année par exemple. Or, entre deux mesures
cie
sS

successives, il est probable que la variation de température ne puisse pas


de

« jouer » sur la totalité de cette étendue maximale. En fixant le Lk à 80 %,


lté
cu

nous estimons que la température ne pourra varier, au maximum, que sur


:Fa

20 % (= 1 - 80 %) de cette étendue.
om
x.c
rvo

Les ordres de grandeur à considérer pour les Lk de chaque facteur en présence


ola

repose sur une réalité physique des processus de mesure. Son évaluation
ch
1.s

intuitive pose en général beaucoup moins de difficultés que le choix des


uh

lois de probabilité à retenir ou la détermination de « l’erreur maximale »


de certains facteurs.

138 Low opportunity : faible opportunité.


139 High opportunity : grande opportunité.

85
La Smart Metrology

5.1.2 Les poids


L’efficience s’imposant aux métrologues comme à tous, il est impératif de
s’intéresser à l’importance relative de chaque facteur pour savoir où placer
son énergie lorsque le processus de mesure nécessite d’être amélioré.
Nous l’avons vu précédemment, le poids d’un facteur est le pourcentage
que représente sa variance sur la variance globale. Seules les causes qui
ont les poids les plus importants méritent d’être considérées lorsqu’il s’agit
de mieux les évaluer. Que ce soient par des approximations de type « A »
ou de type « B », l’évaluation des écarts types nécessite des choix (nombre
de répétitions, loi de probabilité, etc.) qui doivent être justifiés particuliè-
rement pour les facteurs ayant un fort impact.

Pour le métrologue, un bilan sert aussi, voire surtout, à affiner sa connais-


sance de l’incertitude de mesure en consacrant ses efforts à identifier et
à évaluer les facteurs déterminants. La règle universelle n’existant pas, il peut
être intéressant, ou non, de répéter les mesures pour « amortir » les effets
H.O. ; il peut être intéressant, ou non, de climatiser les locaux ; il peut être
intéressant, ou non, de choisir un instrument et/ou un laboratoire d’étalonnage

34
88
plus performant(s). Les réponses à ces problématiques fréquentes ne peuvent

5:8
89
passer que par l’étude de la composition de l’incertitude de mesure, étude

28
02
qui permet au métrologue de fonder ses choix et de prendre des décisions

34
réellement efficientes.

at:
ett
-S
es
5.1.3 Les expressions fonctionnelles
iqu
c hn
Te

Il est fréquent que l’expression des écarts types ne se limite pas à une valeur
et
es

constante. Modéliser l’écart-type de tel ou tel facteur pour tenir compte de


nc
cie

son évolution en fonction du niveau140 du mesurande est cependant souvent


sS

possible. Lorsqu’il en est ainsi, les écarts types individuels peuvent faire
de
lté

appel à des modélisations plus ou moins élaborées et le problème n’est plus


cu
:Fa

que mathématique141.
om
x.c
rvo

140 Le terme « niveau » est en général utilisé pour faire référence à la quantité, la taille ou
ola

encore l’importance de l’entité mesurée. Il fait référence par exemple à la longueur d’une
ch

pièce, à la concentration d’une substance, etc. (voir le chapitre 4 « Métrologie : une intime
1.s

de la statistique »).
uh

141 Dans le cas le plus fréquent où tous les écarts types considérés sont modélisés par des
droites (Cste + b × L où L représente généralement la lecture sur l’instrument), l’écart-type
global est la racine carrée d’un polynôme d’ordre 2 sur le domaine de mesure. Cette fonction
est généralement approximée par ce que l’on nomme « linéarisation de la corde », laquelle
consiste à prendre la droite qui joint les points extrêmes de cette fonction obtenus
aux bornes du domaine de mesure.

86
Bilan… d’incertitude

5.1.4 Application de l’ANOVA


Sous réserve d’avoir la possibilité de mener une étude entièrement
expérimentale, il est possible d’aller très loin dans l’analyse des termes
d’incertitude d’un processus de mesure. Le niveau de détails atteint quant
à l’identification et la quantification de chaque facteur sera fonction de l’effort
expérimental consenti, mais la statistique offre la possibilité d’analyses
approfondies pertinentes.
En mettant en œuvre ce type d’approche, on s’affranchit des évaluations
de type B. La méthode expérimentale a l’avantage incontestable de mettre
en œuvre le processus et d’analyser son comportement quand la méthode
analytique impose un certain nombre d’a priori qui peuvent être erronés.
En revanche, la qualité des estimations est liée au nombre d’observations
disponibles et l’exigence de robustesse des conclusions multiplie le nombre
des mesures à réaliser, donc le temps et le coût.
Compte tenu des avantages et des inconvénients de ces deux approches,
il est conseillé de dresser un bilan analytique des causes probables et d’en
évaluer rapidement les poids de façon à s’attacher, dans un second temps,

34
à évaluer de la façon la plus fiable possible les estimations des écarts-types

88
5:8
les plus importants. Pour ce faire, la méthode expérimentale est souvent

89
28
la plus performante, sauf à disposer d’une documentation très fiable sur

02
34
les composantes incriminées.

at:
ett
5.2 La propagation des incertitudes -S
es
iqu
hn

via un modèle de mesure


c
Te
et
es

Tout ce que nous venons de décrire concerne le cas d’une mesure directe,
nc
cie

c’est-à-dire lorsque le processus de mesure permet de déterminer directement


sS

la caractéristique recherchée. Néanmoins, la mesure n’est souvent pas


de
lté

directe et il est nécessaire de mesurer plusieurs grandeurs d’entrée pour


cu
:Fa

calculer la grandeur d’intérêt via une fonction dite « modèle de mesure » qui
om

peut s’avérer complexe.


x.c
rvo

L’exemple classique est la mise en pratique de la loi d’Ohm qui stipule qu’une
ola
ch

tension électrique continue aux bornes d’un composant est égale au produit de
1.s

l’intensité du courant qui traverse le composant par sa résistance (U = R x I ).


uh

Dans de tels cas, il convient, dans un premier temps et suivant la méthode


décrite, d’évaluer l’incertitude sur la mesure des grandeurs d’entrées
(ici la mesure de R et la mesure de I ), puis de déterminer l’incertitude sur
la grandeur d’intérêt (ici U ).

87
La Smart Metrology

5.2.1 La méthode analytique


La méthode proposée par le GUM, dite de « propagation des incertitudes
de mesure », repose sur un principe très simple. Il s’agit de calculer comment
les incertitudes sur les grandeurs d’entrée se propagent via le modèle
de mesure dans le résultat final. Le principe de base de cette propagation
s’appuie sur un développement limité à l’ordre 1 du modèle de mesure.
Ce développement mathématique signifie qu’au voisinage d’un point de
mesure une approximation linéaire est une bonne approximation de la fonc-
tion142 :

Dans cette expression, est dit « coefficient de sen-

sibilité » et représente la dérivée de f par rapport à chaque Xi exprimé en


m = (mX1, mX2, ... ., mXn), moyennes des Xi. L’incertitude uy sur Y est alors

34
88
approximée à l’aide des incertitudes uXi sur les Xi lorsque ces dernières sont

5:8
89
supposées indépendantes par la formule suivante, qui est un simple calcul

28
de variance 143 :

02
34
at:
144

ett
-S
es
iqu
hn

En écrivant ainsi la propagation de l’incertitude de chacune des grandeurs


c
Te

d’entrée mesurées sur la grandeur d’intérêt Y, on considère que le modèle


et
es

est assimilable à sa tangente au point moyen de chacune des grandeurs


nc
cie

d’entrée (voir figure 5.1 ci-après).


sS
de

Illustrons ce calcul sur l’exemple de la relation U = R x I. Avec m = (mR, mI),


lté
cu
:Fa

on a et et donc en première approximation :


om
x.c
rvo
ola
ch
1.s
uh

142 Ceci est une condition importante qu’il conviendrait de vérifier systématiquement avant
d’utiliser aveuglément le GUM pour traiter de cette question.
143 Un phénomène aléatoire, somme de phénomènes eux-mêmes aléatoires, a comme variance
la somme des variances des phénomènes qui le composent.
144 Le poids de chaque grandeur d’entrée dans le processus de mesure doit être analysé
en tenant compte du coefficient de sensibilité de chaque facteur.

88
Bilan… d’incertitude

Modèle de mesure : f
Courbe en pointillée
Normale (f(µ),b×σ)

f(µ)
Tangente en µ de f :
a+b×µ

µ
Normale (µ,σ)

34
Figure 5.1 Exemple d’approximation de l’incertitude propagée

88
5:8
89
28
Par ailleurs, on suppose ici que les incertitudes sur les grandeurs d’entrée

02
34
sont indépendantes. Or, il est fréquent que cette dernière hypothèse soit

at:
ett
fausse au regard de la physique du phénomène. Imaginons par exemple que
-S
es
nous nous intéressions à la surface d’un échantillon rectangulaire (S = L x l).
iqu

Pour obtenir cette information, nous devrons mesurer la longueur et la largeur


c hn
Te

dudit échantillon par un même processus de mesure : longueur et largeur


et
es

qui sont dépendantes de la température ambiante au moment de la mesure.


nc
cie

Comme il est peu probable que la température ait l’opportunité de varier


sS

entre les mesures de la largeur et de la longueur145, la température influera


de
lté

de la même manière sur ces quantités créant une « co-variation » entre leurs
cu
:Fa

erreurs de mesure respectives qui additionnent une part L.O. et une part
om

H.O. : et de même .
x.c
rvo
ola
ch

sT
1.s

Dans ces conditions, mais où


uh

désigne l’incertitude-type sur la mesure de la température ambiante.

145 Dans ce cas, la température est un facteur totalement L.O., son Lk prend la valeur 1 dans
le bilan d’incertitude. Elle n’est d’ailleurs probablement pas la seule cause L.O. dans un tel
bilan d’incertitude de la mesure d’une distance entre deux points.

89
La Smart Metrology

Ces covariances entre les erreurs sur les grandeurs d’entrée146 impactent
l’incertitude sur Y et on démontre qu’elles ajoutent un terme à l’expression
« À » précédente :
147

Là encore, cette expression n’est qu’une approximation de l’incertitude sur Y.


Il faut bien comprendre ce concept de covariance qui peut exister entre
deux phénomènes aléatoires, sachant qu’il faut considérer toutes les
variables deux à deux comme le montre la formule précédente. L’évaluation
des covariances reste un sujet délicat lié à la physique des phénomènes.
En effet, il est difficile de l’évaluer lors de mesures expérimentales parce
que cela nécessite d’être dans des conditions où des facteurs L.O.
– qui sont principalement responsables d’une co-variation entre les erreurs
sur les grandeurs mesurées – peuvent s’exprimer.

Dans l’exemple de la surface évoqué précédemment, et puisque c’est le


même processus qui mesure les deux grandeurs d’entrée, la part
d’erreur L.O. est la même pour la longueur et la largeur (par définition :

34
88
5:8
).

89
28
02
Il est alors aisé de montrer la relation suivante justifiant l’utilisation de cette

34
at:
pondération :

ett
où -S
es
iqu
chn
Te
et
es

À noter : il est important de souligner que le choix de la part L.O. condi-


nc
cie

tionne, par définition, l’incertitude de l’erreur H.O. par rapport à l’incertitude


sS
de

globale de chacune des grandeurs d’entrées.


lté
cu

Lorsque ce sont des processus de mesure différents qui interviennent (cas


:Fa
om

de la loi d’Ohm ci-dessus), l’évaluation de la covariance est plus délicate.


x.c

Elle repose sur les causes qui sont communes aux processus concernés.
rvo
ola

Par exemple, si l’ohmmètre qui mesure R et l’ampèremètre qui mesure I sont


ch
1.s
uh

146 Rappelons que Cov(Xi,Xj) = Cov(Ei,Ej) par définition de la covariance. La covariance


entre les grandeurs correspond donc à la covariance sur leurs erreurs de mesures.
147 Contrairement aux variances qui sont toujours positives, les covariances peuvent être
positives ou négatives. Par ailleurs, le signe de chaque coefficient de sensibilité peut
également être positif ou négatif. De ce fait, il n’est pas aisé de savoir si, au global, ce terme
augmente ou diminue l’incertitude sur Y.

90
Bilan… d’incertitude

tous les deux sensibles à la température ambiante et qu’ils sont aux mêmes
endroits lors de la mesure, alors la température ambiante qui est aléatoire
mais qui s’exprime identiquement pour R et I au moment de la mesure
contribue à la covariance148.
L’estimation de la covariance peut également s’effectuer via le concept du
coefficient de corrélation qui exprime une intensité de la liaison pouvant
exister entre deux variables. Son évaluation qui s’exprime en pourcentage149
de - 100 % à 100 %, est une forme d’estimation de type « B » fondée sur
la connaissance du métrologue, voire sur son intuition. La relation entre
« covariance » et « coefficient de corrélation » (noté r) est donnée par

la formule : et donc .

Lorsque le modèle de mesure fait appel à plusieurs grandeurs d’entrée, il est


d’usage de présenter les informations de variances et de covariances sous
la forme d’un tableau nommé « matrice de variances-covariances ».

34
88
5:8
89
28
02
Dans cette matrice carrée, les « en-têtes » des lignes et des colonnes

34
portent le nom des grandeurs d’entrée. À l’intersection d’une ligne et d’une

at:
ett
colonne, on trouve la covariance entre les incertitudes sur les grandeurs
-S
es
concernées et, dans le cas particulier de la diagonale, les variances
iqu
hn

des grandeurs d’entrée. Par ailleurs, et puisque ,


c
Te

une matrice de variances-covariances est toujours une matrice symétrique.


et
es

Cette méthode analytique pour évaluer la propagation des incertitudes


nc
cie

sur les grandeurs d’entrée dans l’incertitude finale permet, au prix du calcul
sS
de

des dérivées partielles (coefficient de sensibilité), d’évaluer convenablement


lté
cu

le poids de chaque grandeur d’entrée pour savoir sur lesquelles il convient de


:Fa

porter son intérêt. Elle reste néanmoins limitée pour au moins deux raisons,
om
x.c

elle :
rvo
ola

►► fait l’hypothèse que le modèle de mesure est assimilable à sa tangente


ch

en tout point du domaine et pour chaque grandeur d’entrée ;


1.s
uh

148 On pourra consulter à ce sujet : http://www.lametrologieautrement.com/2014/05/covariance-


dans-lestimation-de-lincertitude-de-mesure/
149 100% (respectivement - 100%) exprimant alors une corrélation totale, c’est-à-dire qu’à
chaque observation, eXi = eXj (respectivement eXi = - eXj) où e représente une réalisation
de l’erreur de mesure.

91
La Smart Metrology

►► ne permet pas de connaître la loi de probabilité de Y et donc de déterminer


un intervalle de fluctuation à un niveau de confiance donné sans supposer
une approximation normale.

5.2.2 La simulation numérique


Pour contourner ces inconvénients, et pour faciliter dans bien des cas
les calculs, la simulation numérique se présente comme une méthode
assez simple à mettre en œuvre et particulièrement performante. Le Joint
committee for guides in metrology (JCGM) WG1150 a d’ailleurs publié, en 2008,
un supplément 1 au GUM151 référencé JCGM 101 et qui traite de cette
approche « simulation » pour résoudre la question de la propagation
des incertitudes via le modèle de mesure.
Nous l’avons dit, une erreur de mesure est une réalisation d’une variable
aléatoire qu’il est souvent possible de modéliser par une loi de probabilité
paramétrée. Dans le cas d’un modèle de mesure nécessitant des grandeurs
d’entrée issues de processus de mesure dont les incertitudes ont été
évaluées152, les paramètres « moyenne et écart-type (incertitude-type) » sont

34
88
connus et, dans l’idéal, la loi de probabilité l’est également153. Dès lors, il est

5:8
possible de simuler, selon ces lois, des réalisations des grandeurs d’entrée

89
28
qui sont autant de valeurs mesurées possibles puis d’appliquer le modèle de

02
34
mesure sur ces valeurs pour obtenir des réalisations de Y. L’histogramme

at:
ett
de ces réalisations simulées est une approximation de la loi de probabilité
de Y d’autant plus précise que le nombre de valeurs simulées est important. -S
es
iqu

Toute l’information sur la grandeur d’intérêt est ainsi accessible. À partir


c hn
Te

d’Excel, cette simulation est assez facile et ne demande pas de compétences


et

particulières pour être réalisée lorsque les grandeurs d’entrées sont


es
nc

indépendantes. Par exemple, pour simuler sur Excel une réalisation d’une
cie
sS

loi de normale , il convient d’utiliser la fonction :


de
lté
cu
:Fa
om
x.c

150 Working group : groupe de travail.


rvo

151 Repris, sous forme de norme française sous la référence NF ISO/CEI GUIDE 98-3/S1
ola

(2008). AFNOR a également publié un fascicule de documentation dont l’objectif est


ch

d’aider à la compréhension de la norme souvent jugée assez difficile (FD X 07-023:2012,


1.s

Métrologie – Évaluation de l’incertitude de mesure par la méthode Monte Carlo – Principes


uh

et mise en œuvre du supplément 1 au GUM).


152 L’approche simulation numérique n’affranchit pas le métrologue de l’évaluation des incer-
titudes de mesure des grandeurs d’entrées.
153 Elle est souvent supposée normale mais il est possible de traiter tout type de loi de
probabilité via sa fonction de répartition (id est fréquences cumulées), qu’elle soit théorique
ou empirique (c’est-à-dire obtenue par expérimentation).

92
Bilan… d’incertitude

Pour une loi uniforme , la syntaxe permettant de simuler une valeur


est « ». De nombreux sites Internet
proposent des stratégies de simulation pour un grand nombre de lois de
probabilité.

Le tableau 5.2 ci-après présente, dans le cas de la loi d’Ohm et sous hypo-
thèse d’indépendance des erreurs sur la mesure de R et de I, les résultats
obtenus avec 5 000 simulations. Ils sont comparés à ce que l’on obtiendrait
en utilisant la méthode analytique : les valeurs obtenues sont similaires mais
ne sont évidemment pas exactement identiques puisque, dans les deux cas,
il ne s’agit que d’estimations.

Tableau 5.2 Exemple de propagation d’incertitude par simulation numérique


et comparaison des résultats avec l’approximation obtenue
selon la méthode du GUM

Modèle de mesure : U = R × I
Valeur Incertitude-type Loi
R (en ohm) 234,52 0,02 Normale

34
I (en ampère) 1,274 0,002 Normale

88
5:8
89
28
N° de simulation R « possible » I « possible » U « possible »

02
34
1 234,496 1,2784 299,7720

at:
ett
2 234,536 1,2784 298,6474
-S
es
3 234,508 1,2759 299,2027
iqu
hn

4 234,490 1,2721 298,2955


c
Te

5 234,510 1,2711 298,0840


et
es

… … … …
nc
cie

5000 234,502 1,2762 299,2796


sS
de

U moyen 298,7718
lté
cu

Incertitude-type 0,4670
:Fa
om
x.c
rvo

GUM classique
ola
ch

U estimé 298,7785
1.s
uh

Incertitude-type 0,4697

L’avantage essentiel de la simulation numérique tient à la possibilité d’obser-


ver une approximation de la loi de probabilité du mesurande (ici la tension U,
voir la figure 5.2 ci-après) qui permet, par exemple, de statuer sur sa normalité.

93
La Smart Metrology

Figure 5.2 Histogramme des valeurs simulées

La simulation peut devenir plus complexe lorsqu’il s’agit de tenir compte


de covariances sur les données d’entrée. Il est également plus délicat d’ana-

34
lyser le poids de chaque grandeur d’entrée dans le résultat final154.

88
5:8
Pour finir sur ce thème, le GUM S1 préconise de rechercher, à partir des

89
28
valeurs simulées du mesurande, des intervalles de fluctuations à 95 %.

02
34
Lorsque l’histogramme met en évidence une loi qui n’est pas normale,

at:
ett
il convient de rechercher les limites de l’intervalle de plus faible étendue
-S
es
qui contient le pourcentage de valeurs attendues. Évidemment, les bornes
iqu

dudit intervalle fluctuent entre des simulations différentes et elles fluctuent


c hn
Te

d’autant plus que le nombre de simulations réalisées est faible. Sachant


et

que les simulations sont parfois coûteuses en termes de temps de calcul,


es
nc

il s’agit de trouver le bon compromis entre fluctuation des bornes et temps


cie
sS

de calcul. Il faut également garder à l’esprit que la qualité, parfois médiocre,


de

des incertitudes sur les grandeurs d’entrée ne pourra jamais être compensée
lté
cu

par le nombre de simulations.


:Fa
om
x.c

5.3 Les limites de l’approche probabiliste


rvo
ola
ch
1.s

L’évaluation des incertitudes, suivant le GUM, repose sur les propriétés des
uh

phénomènes aléatoires que nous venons de développer. Ainsi, lorsque nous


estimons un intervalle de confiance à un niveau de confiance de 95 %, et

154 On pourra consulter à ces propos l’ouvrage de Nicolas Bouleau : Probabilités de


l’ingénieur – Variables aléatoires et simulation, Hermann (1986).

94
Bilan… d’incertitude

sous réserve que l’évaluation de tous les facteurs ait été faite avec pertinence,
cela signifie que dans 5 % des cas, la valeur vraie du mesurande sera
en dehors de l’intervalle annoncé.

Dans le cadre du GUM, il est d’usage de considérer l’incertitude d’étalonnage


comme l’une des causes d’incertitude participant à l’incertitude globale.
Elle est alors considérée comme l’un des phénomènes élémentaires
aléatoires qui entachent la qualité de la mesure. Or, l’incertitude d’étalonnage
provient de l’imperfection de la mesure au moment de l’étalonnage, c’est un
fait ! Dès lors, elle n’entache pas la réalité de l’objet étalonné mais seulement
la connaissance que nous en avons.

Dans le cas d’une masse par exemple, l’incertitude d’étalonnage est l’expres-
sion de l’imperfection de l’étalonneur, pas de celle de la masse elle-même.
Si l’incertitude d’étalonnage a un caractère indubitablement aléatoire,
la valeur « vraie » de la masse étalonnée, en un temps donné, n’a rien d’aléa-
toire.

Dans un processus de pesée d’un livre avec une balance de Roberval155,

34
l’évaluation de la masse du livre impose de disposer de masses étalons

88
5:8
permettant d’équilibrer la balance. Quelle que soit l’analyse produite sur

89
28
les facteurs d’incertitude, il n’est pas possible d’y trouver une incertitude

02
34
d’étalonnage des masses susceptibles d’avoir participé au processus

at:
de mesure. En effet, l’erreur qui s’est produite au moment de l’étalonnage

ett
-S
n’intervient en aucune manière au moment de la mesure du livre. Les masses es
iqu

n’ont rien d’aléatoire par elles-mêmes, en revanche leur poids peut varier en
c hn

fonction des conditions de la mesure. Ajouter un effet aléatoire (l’incertitude


Te
et

d’étalonnage) dans le bilan des causes d’incertitude sur la mesure du livre


es
nc

n’a dès lors que peu de sens probabiliste.


cie
sS

Si l’approche probabiliste excelle indiscutablement à quantifier les phéno-


de
lté

mènes aléatoires, elle bute sur la prise en compte des effets systématiques
cu
:Fa

dont on ne connaît pas la valeur réelle contenue dans un intervalle, comme


om

c’est le cas dans l’exemple précédent. Considérer une méconnaissance


x.c
rvo

sous l’angle probabiliste est une manière inadaptée de signifier l’ignorance


ola
ch

d’une valeur déterministe (systématique).


1.s
uh

155 La balance Roberval à deux fléaux est un instrument de pesage qui doit son nom à son
inventeur Gilles Personne de Roberval, mathématicien et physicien français né en 1602
[qui] avait [eu] l’ingénieuse idée de placer les plateaux au-dessus du fléau, alors que
traditionnellement ils étaient suspendus en dessous (source : Wikipédia).

95
La Smart Metrology

Si l’incertitude d’étalonnage ne contribue pas directement, sous sa forme


aléatoire, au bilan des causes d’incertitude d’un processus, elle induit indis-
cutablement en revanche un doute sur la valeur réelle d’une quantité, doute
qui se matérialise par un intervalle dans lequel nous pouvons déterminer
que se trouve possiblement la grandeur d’intérêt. L’approche « possibiliste »
semble apporter une solution à cette situation fréquente en métrologie.
Dans cette théorie, différente de la théorie « objective » de l’aléa, des stra-
tégies de calcul ont été élaborées pour « additionner » des intervalles de
« possibilités », quand le monde probabiliste « additionne des variances ».
Le but de cet ouvrage n’est pas de décrire la théorie des possibilités mais
d’alerter les métrologues quant à l’existence de cette méthode qui sera
probablement largement développée à l’avenir156.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

156 On pourra consulter à ce propos l’ouvrage de Simona Salicone : Measurement Uncer-


tainty – An approach via the Mathematical Theory of Evidence (Springer, 2010) ou la thèse
de Virginie Lasserre intitulée « Modélisation floue des incertitudes de mesures de capteurs »
(ANRT, 1999).

96
Conclusion
de la première partie

34
88
5:8
89
28
02
34
at:
ett
La plus grande difficulté du métrologue, de nos jours, tient essentiellement
-S
es
en la croyance de nos contemporains quant à la justesse des résultats
iqu

de mesure. Pierre Giacomo, en une simple phrase, nous a fait comprendre


c hn
Te

les raisons de cette difficulté. Imaginons l’effort que nos aïeux ont dû consentir,
et

à une époque où cela allait à l’encontre de leur perception, pour accepter


es
nc

l’idée selon laquelle la Terre n’était pas plate et qu’elle tournait autour
cie
sS

du Soleil. Tout ce que nous apprenons inconsciemment est profondément


de

ancré dans notre esprit. Notre cerveau, « machine » très performante,


lté
cu

présente l’inconvénient d’être difficile à reconditionner. À moins de s’expatrier


:Fa
om

très longtemps en terre anglo-saxonne, le lecteur appellera toujours


x.c
rvo

« maison » ce qui est appelé « house » au sein de cette dernière et il lui


ola

faudra faire un effort pour se rappeler que « maison » se dit « house »


ch
1.s

en anglais ! De la même manière, il devra faire un effort pour se souvenir


uh

qu’une mesure ne peut pas être juste.


Si le métrologue finit parfois par s’en convaincre, il se heurte systématiquement
au mur de ses interlocuteurs qui, eux, n’ont pas tous les jours l’occasion
de faire cet effort.
La Smart Metrology

En général, les incertitudes de mesure sont vues comme un problème de


calcul et non comme une propriété essentielle du résultat de mesure qu’il
faut examiner pour prendre des décisions pertinentes. Force est d’ailleurs
de constater que dans la vie de tous les jours, au marché ou à l’usine,
les mesures « fausses » ne perturbent pas réellement l’activité. Les produits
industriels fonctionnent même si les incertitudes n’ont été ni calculées,
ni prises en compte. Doit-on pour autant en déduire que tout ce que nous
venons de voir n’est que considérations oiseuses ? Aucun instrument, aucun
opérateur, aucune condition de mesure, aucun objet n’est parfait et il n’est
pas inutile de le dire et de le redire pour se convaincre de l’existence bien
réelle de l’incertitude. Il faut donc chercher ailleurs les explications qui font
que nos organisations industrielles, tous secteurs confondus et au niveau
mondial, ont su s’affranchir de ce problème pour atteindre leurs objectifs
de fonctionnalité. En fait, personne n’est vraiment dupe de cette situation…
Si les choses vont malgré les incertitudes, c’est simplement parce que les
exigences (tolérances, spécifications, consignes, etc.) contiennent « l’effet
incertitude ». Il est d’usage, en effet, de prendre des « sécurités » pour « être
sûr ». Finalement, le monde industriel marche aujourd’hui probablement

34
parce qu’il « sur-marche », et certainement qu’il « sur-coûte ».

88
5:8
Les véritables enjeux de la Smart Metrology ne résident pas dans les calculs

89
28
d’incertitude, même s’il faudra savoir les faire. Nous venons de voir que les

02
34
outils sont accessibles pour qui veut se donner les moyens de comprendre.

at:
ett
Une métrologie rénovée au XXIe siècle peut se révéler être un véritable outil
de productivité, de compétitivité et de développement durable. En contournant -S
es
iqu

l’incertitude par la simple « manipulation » des exigences, l’industrie perd


c hn
Te

énormément de temps, d’argent et d’énergie. Nous sommes aujourd’hui


et

très loin de l’efficience, du « juste nécessaire », dont la définition pourrait


es
nc

être par exemple : l’efficacité auX justeS coûtS, pluriels qui impliquent le fait
cie
sS

de considérer impérativement tous les impacts de la production industrielle


de

et non simplement un prix de revient « brut ». Des tolérances trop petites,


lté
cu

c’est trop de matière première, trop d’énergie, trop de temps (dont celui
:Fa
om

consacré aux litiges inutiles) et bien trop d’autres impacts négatifs.


x.c

La métrologie, si elle devient « Smart » a toute sa place dans une quête de


rvo
ola

l’efficience. Et elle doit la prendre. Associée à la statistique (ou l’inverse !),


ch
1.s

la Smart Metrology sait « où », « pourquoi » et « quand »… et nous allons


uh

maintenant pouvoir découvrir « comment ».

98
Partie II
« – Les mesures
ne sont pas justes.
– Très bien !

34
88
5:8
Mais que fait-on alors ! ? »

89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es

Toute notre société, voire notre civilisation, repose sur la croyance en des
nc
cie

« mesures justes ». Le lecteur a maintenant compris que ces dernières


sS

n’existent pas et ceci pour de nombreuses raisons. Nous devons néanmoins


de
lté

admettre que nous avons su collectivement contourner cette difficulté.


cu
:Fa

Les Hommes ont en effet acquis de nombreuses connaissances sur le monde


om

grâce aux mesures, nous avons développé des technologies qui sous-tendent
x.c
rvo

nos activités industrielles grâce aux mesures, nous avons amélioré la santé
ola
ch

humaine et, par voie de conséquence, l’espérance de vie grâce aux mesures.
1.s

Dans tous ces domaines (et tant d’autres !), les mesures servent à prendre
uh

des décisions. Et même si les mesures ne sont pas justes, les décisions
semblent adéquates. Voilà qui semble paradoxal : comment, sur la base
de mesures que nous croyons, à tort, justes, les décisions prises
peuvent-elles être pertinentes ?
La Smart Metrology

Cette question est le fondement de notre réflexion quant à la rénovation


nécessaire de la métrologie : les choses marchent parce que, sans doute,
elles « sur-marchent » ! La bonne compréhension de la problématique
de la mesure permet d’envisager la révision des exigences (tolérances,
spécifications, valeurs limites, etc.) ainsi que de certaines pratiques connexes
(contexte des mesures, formation, pertinence des décisions, etc.) et donc
de tendre vers le « juste nécessaire ».
Dans cette seconde partie, les exemples d’application de la Smart Metrology
que nous avons choisis et qui prennent en compte l’incertitude de mesure
(et le doute qu’elle induit sur les décisions à prendre), permettront de juger,
non seulement du chemin qu’il reste à parcourir mais aussi, et peut-être
surtout, des gains que nous pouvons attendre de cette incertitude dans
de nombreux secteurs de l’activité industrielle.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

100
6
Le métrologue
ne travaille pas
pour les auditeurs !

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et

Dans la quasi-totalité des entreprises, fonction « métrologie » et certification


es
nc

qualité vont de pair. Si les entreprises ont toujours eu un service « contrôle »


cie
sS

pour vérifier les produits, la fonction « métrologie » est toutefois, aujourd’hui,


de

fort éloignée de l’assistance à ce service. Les premières versions des


lté
cu

normes AFNOR NF EN ISO 9001 posaient pourtant bien l’objectif qui en


:Fa
om

était attendu, puisque le point 4.11 (« Maîtrise des équipements de contrôle,


x.c

de mesure et d’essai »), paragraphe 4.11.1 (« Généralités ») de la norme


rvo
ola

AFNOR NF EN ISO 9001:1994157 énonçait : « Les équipements de contrôle,


ch
1.s

de mesure et d’essai doivent être utilisés de façon à assurer que l’incertitude


uh

de mesure est connue et compatible avec l’aptitude requise en matière de


mesurage. »

157 Systèmes qualité – Modèle pour l’assurance de la qualité en conception/développement,


production, installation et prestations associées.
La Smart Metrology

Après avoir lu la première partie de cet ouvrage, et même si nous n’avons


pas encore abordé la question de la compatibilité avec l’aptitude requise,
le lecteur n’aura aucune peine à comprendre que les seuls étalonnage/
vérification des instruments de mesure sont très loin de satisfaire cette
exigence. De nos jours, la norme AFNOR NF EN ISO 9001:2015158 a simplifié,
en apparence seulement, l’exigence en la formulant de la manière suivante
(voir le paragraphe 7.1.5.2.) :
« Lorsque la traçabilité de la mesure est une exigence ou lorsqu’elle est
considérée par l’organisme comme un élément essentiel visant à donner
confiance dans la validité des résultats de mesure, l’équipement de mesure
doit être :
a) étalonné et/ou vérifié à intervalles spécifiés, ou avant l’utilisation,
par rapport à des étalons de mesure pouvant être reliés à des étalons
de mesure internationaux ou nationaux. Lorsque ces étalons n’exis-
tent pas, la référence utilisée pour l’étalonnage ou la vérification doit
être conservée sous forme d’information documentée ;
b) identifié afin de pouvoir déterminer la validité de son étalonnage ;

34
c) protégé contre les réglages, les dommages ou les détériorations

88
5:8
susceptibles d’invalider l’étalonnage et les résultats de mesure ultérieurs.

89
28
02
Lorsqu’un équipement de mesure s’avère inadapté à l’usage prévu,

34
l’organisme doit déterminer si la validité des résultats de mesure antérieurs

at:
ett
a été compromise et mener l’action appropriée, si nécessaire. »
-S
es
iqu

Le lecteur attentif remarquera que la norme est passée des « incertitudes


c hn

connues et compatibles » à l’idée suivante : « lorsque la traçabilité de la


Te
et

mesure est une exigence ou lorsqu’elle est considérée par l’organisme


es
nc

comme un élément essentiel visant à donner confiance dans la validité des


cie
sS

résultats de mesure ». Dans la note a) qui suit l’exigence et qui est censée
de

apporter des éclaircissements, la norme oriente l’entreprise (et l’auditeur) vers


lté
cu

les étalonnages, les deux autres notes restant quant à elles dans le domaine
:Fa
om

du « bon sens ». S’il est vrai qu’un instrument « conforme » est nécessaire
x.c

à une mesure fiable, ce n’est pas une condition suffisante. Nous venons de
rvo
ola

le voir, de nombreux facteurs interviennent en effet lors d’une mesure et


ch

la mesure aura la qualité globale du plus mauvais desdits facteurs ou plus


1.s
uh

précisément de la « somme » de leurs imperfections. Qui pourrait avoir l’idée


saugrenue de penser que seule la qualité des plaquettes de frein conditionne
une distance de freinage ?

158 Systèmes de management de la qualité – Exigences.

102
Le métrologue ne travaille pas pour les auditeurs !

La métrologie, en tant que science des mesures, ne peut se limiter aux seuls
instruments de mesure. Notons d’ailleurs que dans un processus de mesure,
il est fréquent que l’instrument soit le facteur le moins influant, puisque sa
maîtrise a été assurée par son fabricant. Les causes d’incertitude les plus
importantes sont souvent cachées au niveau de l’entité mesurée elle-même
et des conditions environnementales voire de la méthode mise en œuvre.
Cette vision réductrice de la métrologie comme « science des instruments »
trouve ses origines bien avant les normes « qualité », ce qui les a d’ailleurs
probablement orientées involontairement vers une forme de sacralisation des
étalonnages.
Le lecteur se rappellera que dans le cadre de la métrologie légale, le légis-
lateur connaît par avance l’utilisation des moyens de mesure et les enjeux
de la mesure. Puisqu’il s’agit de garantir la loyauté des mesures (versus
la fonctionnalité dans le monde industriel), il est en capacité de définir des
conditions de vérification uniques pour chaque type de moyens afin de tous
les y soumettre. Les décrets qui servent de base aux vérifications ont donc
été réfléchis pour tenir compte du contexte des mesures, des technologies,
des instruments et des « risques ». Les procédures à suivre, le type d’étalons

34
à utiliser, les périodicités et les écarts maximum tolérés (EMT) sont détaillés

88
5:8
et imposés à tous. Même sans tenir compte de tous les facteurs d’incertitude,

89
28
la métrologie légale remplit son objectif consistant à garantir la loyauté. L’idée

02
34
selon laquelle la vérification des instruments de mesure garantit la qualité des

at:
ett
mesures est ancrée dans les esprits, à tel point que la plupart des personnes
assimilent « étalonnage » et « réglage » ainsi que « vérification conforme » -S
es
iqu

et « réglage conforme », ce qui conduit les industriels à considérer qu’un


c hn

instrument étalonné conforme mesure juste… préjugé surtout conforme


Te
et

à cette « croyance expérimentale » : il faut bien régler sa montre de temps


es
nc

en temps pour avoir l’heure « juste » !


cie
sS

La preuve de cette confusion existe depuis la première version de la norme


de
lté

AFNOR NF EN ISO 9001. Si la formulation de l’exigence du point 4.11 était


cu
:Fa

conforme au réel besoin, les notes, comme dans la version de 2015, orientent
om

les industriels sur la voie unique de l’étalonnage :


x.c
rvo

« Le fournisseur doit :
ola
ch
1.s

a) déterminer les mesurages à effectuer, l’exactitude requise et sélectionner


uh

l’équipement de contrôle, de mesure et d’essai approprié capable


d’apporter l’exactitude et la précision nécessaire ;
b) identifier tous les équipements de contrôle, de mesure et d’essai qui
peuvent avoir une influence sur la qualité produit, les étalonner et les

103
La Smart Metrology

régler aux intervalles prescrits, ou avant utilisation, par rapport à des


équipements certifiés reliés de façon valable à des étalons reconnus
au plan international ou national. Lorsque ces étalons n’existent pas,
la référence utilisée pour l’étalonnage doit faire l’objet d’une description
écrite ;
c) définir le processus utilisé pour l’étalonnage des équipements de contrôle,
de mesure et d’essai en détaillant le type d’équipement, l’identification
spécifique, l’emplacement, la fréquence des vérifications, la méthode
de vérification, les critères d’acceptation et l’action à entreprendre lorsque
les résultats ne sont pas satisfaisants ;
d) identifier les équipements de contrôle, de mesure et d’essai avec un
marquage approprié ou un enregistrement d’identification approuvé pour
indiquer la validité de l’étalonnage ;
e) conserver des enregistrements d’étalonnage pour les équipements
de contrôle, de mesure et d’essai ;
f) évaluer et consigner par écrit la validité de contrôle et d’essais antérieurs
lorsque les équipements de contrôle, de mesure et d’essai s’avèrent être

34
88
en dehors des limites fixées pour l’étalonnage ;

5:8
89
g) assurer que les conditions d’environnement sont appropriées pour la

28
02
réalisation des étalonnages, contrôle, mesures et essais ;

34
at:
ett
h) assurer que la manutention, la préservation et le stockage des équipe-
ments de contrôle, de mesure et d’essai sont tels que l’exactitude et -S
es
iqu

l’aptitude à l’emploi sont maintenues ;


c hn
Te

i) protéger les moyens de contrôle, de mesure et d’essai, y compris les


et
es

matériels et les logiciels d’essai, contre les manipulations qui invalide-


nc
cie

raient les réglages de l’étalonnage. »


sS
de

Nous ne disserterons pas ici sur chacune de ces notes mais nous pouvons
lté
cu

simplement souligner trois points.


:Fa
om
x.c

Le premier concerne les occurrences du mot « étalonnage ». Cette incessante


rvo

répétition est probablement à l’origine des pratiques encore persistantes,


ola
ch

malgré d’autres exigences qui ont souvent été oubliées (la note a), bien sûr,
1.s
uh

mais aussi, par exemple, la note g) qui évoque la maîtrise et donc la prise en
compte des conditions environnementales pour les mesures). En insistant sur
l’étalonnage, le normalisateur a oublié ce que nous avons répété plusieurs
fois : métrologie légale et métrologie industrielle n’ont pas les mêmes objectifs.

104
Le métrologue ne travaille pas pour les auditeurs !

On peut également trouver dans cette longue liste d’exigences la justification


d’un consensus non écrit qui semble s’être installé entre auditeurs et audités
(les deux participant à l’élaboration de la norme) et qui pourrait se résumer
ainsi : « L’étalonnage des instruments, c’est déjà pas mal ! »

L’organisation qui s’est mise en place autour de cette exigence « d’étalonnage »


est à ce titre édifiante : nous sommes passés, en moins de trente ans,
du BNM qui agréait et habilitait (dans le cadre d’une mission de service
public) le peu de laboratoires qui pratiquaient ce métier à une organisation
à l’échelle internationale via de nombreux accords multilatéraux et de règles
parfois très contraignantes, dont l’interlocuteur français est le Comité français
d’accréditation (COFRAC). Qu’en est-il, pour autant, de la qualité réelle
des mesures ?

Il est difficile de demander à un auditeur d’être un expert en métrologie,


ce n’est pas son rôle. Les auditeurs ne sont ni experts-comptables, ni cher-
cheurs, ni directeurs de production. En principe, on leur demande de s’assurer
que l’entreprise a bien « pensé » à tel ou tel aspect de son organisation (guidée
pour cela par la norme) et que les stratégies mises en place garantissent,

34
au final, la satisfaction du client. On ne demande pas à un auditeur de donner

88
5:8
son avis sur la technologie utilisée pour fabriquer un moteur d’avion. On lui

89
demande de juger si l’organisation mise en place, notamment via les retours

28
02
clients et le pilotage managérial, sont dignes de confiance. On lui demande

34
at:
également de s’assurer que l’entreprise s’est bien dotée des moyens qui lui

ett
-S
permettent de garantir la pertinence de ses actions dans le temps. iqu
es

Pourtant, de nos jours, l’audit de la fonction « métrologie » ressemble


c hn
Te

étrangement à un contrôle fiscal. Le métrologue a le rôle de l’assistant


et

comptable chargé de présenter les pièces (certificats d’étalonnage et constat


es
nc

de vérification) prises au hasard et demandées par l’inspecteur (l’auditeur).


cie
sS

Il faut alors que les papiers soient conformes (notamment la fameuse


de
lté

traçabilité), bien datés (respect des périodicités) et bien enregistrés (attention


cu
:Fa

aux erreurs de saisie !). Pas étonnant, dans un tel cadre, que les métrologues
om

d’entreprise soient généralement peu satisfaits par leur activité et qu’ils


x.c
rvo

souffrent d’un manque de considération. Ils ne sont visibles, finalement,


ola

que lorsqu’il y a un problème lors de l’audit !


ch
1.s
uh

La mesure est pourtant un enjeu majeur pour l’entreprise. On la trouve à


différents niveaux, niveaux auxquels elle est toujours essentielle. En Recherche
et développement (R&D), la qualité des mesures intervient directement sur
les temps de développement et de mise au point. Pour prendre des décisions

105
La Smart Metrology

dans ce domaine (poursuivre une voie de recherche, valider un modèle,


valider des performances, etc.), la mesure doit être suffisamment fiable
pour que les décisions soient pertinentes. A contrario, l’entreprise risquerait
de perdre du temps en revenant sur ses choix, en abandonnant des pistes,
en reprenant des spécifications, etc. Ce temps peut être critique pour elle et
le métrologue devrait non pas être le garant des étiquettes de validité mais
l’expert participant activement aux bonnes décisions. C’est en analysant
la qualité des mesures disponibles, en proposant des technologies de mesure
pour garantir un niveau de performance requis, en assurant la formation et
l’accompagnement des opérateurs chargés des mesures que le métrologue
donne à sa fonction la place qu’elle mérite.
Le deuxième point concerne la production : la mesure est essentielle au
pilotage des procédés. Réaliser des produits conformes impose de suivre
des spécifications, donc de réaliser des mesures pour vérifier et régler,
le cas échéant, les procédés. Là encore, la qualité des mesures est essen-
tielle, puisque des mesures non « capables » peuvent induire des réglages
intempestifs et une augmentation du taux de produits non conformes,
préjudiciable à l’entreprise.

34
88
5:8
La mesure intervient également dans la qualification et le suivi des fournis-

89
seurs ainsi que dans la validation des produits finaux. De fait, son importance

28
02
dans les relations voulues de confiance entre l’entreprise, ses fournisseurs

34
at:
et ses clients, n’est plus à démontrer. Nous aborderons par la suite les

ett
-S
notions de risques client et fournisseur, risques dont la qualité des mesures es
est l’une des clés essentielles.
iqu
c hn
Te

Évoquons enfin les entreprises, et elles sont nombreuses, dont le métier est
et

de mesurer. Il s’agit notamment des laboratoires d’essais, des laboratoires


es
nc

de biologie médicale et des laboratoires d’étalonnage. Même s’il peut


cie
sS

sembler naturel pour ces laboratoires de s’intéresser aux incertitudes de


de

mesure (c’est leur métier de mesurer et les mesures ne sont pas justes !),
lté
cu

il faut bien constater qu’il reste encore beaucoup de chemin à parcourir pour
:Fa
om

passer d’une intention formelle à une utilisation courante. Si les laboratoires


x.c

d’étalonnage accrédités sont rompus au calcul d’incertitude, chacun pourra


rvo
ola

constater que les incertitudes sont ensuite rarement considérées. Pour les
ch
1.s

autres laboratoires, la prise en compte d’une incertitude ou d’un risque est,


uh

à l’heure où ces lignes sont écrites, encore exceptionnelle.

Les technologies avancent et, à l’aube du xxie siècle, il n’est pas utopiste
de penser que la mesure continuera à jouer un rôle majeur, notamment
dans la mise en œuvre des nouvelles technologies. On évoque de plus

106
Le métrologue ne travaille pas pour les auditeurs !

en plus souvent le big data159 dont la performance nécessite des mesures


représentatives et fiables. Si la mesure a pour objectif de décrire la réalité à
travers ces « flots de données », cet objectif ne peut en aucun cas se limiter
à la seule connaissance des performances des instruments de mesure.

L’avenir de la métrologie et la réalisation de son potentiel passent donc par


une refonte de ses pratiques. Pour signer cette nouvelle fondation d’un sceau
marquant les espérances des organisations industrielles du futur, nous avons
souhaité associer au mot « métrologie » le terme « smart160 » qui qualifie les
caractéristiques que devrait idéalement avoir un objectif pour sa réalisation.

Les chapitres qui suivent sont donc consacrés à décrire ce que sont, selon
nous, la « Smart Metrology » et son acteur principal, le Smart Métrologue.
Pour cela, commençons l’aventure par l’histoire d’une Smart Métrologue qui
appréhenderait ce nouveau métier.

Élodie, 35 ans, Smart Métrologue…

Alors que la première action d’un métrologue traditionnel aurait été de prendre
connaissance du parc d’instruments, du logiciel de gestion, des étalonnages

34
88
réalisés en interne, des sous-traitants, etc. Élodie, nouvellement recrutée, s’est

5:8
avant tout intéressée aux enjeux de la mesure dans l’entreprise. Ces enjeux

89
28
sont notamment de comprendre les attentes, explicites ou non, des différents

02
34
acteurs qui utilisent d’une façon ou d’une autre un résultat de mesure pour

at:
ett
prendre leurs décisions. Voici la première mission qu’elle s’est fixée, dans le
but d’établir une cartographie des pratiques afin d’être en mesure de proposer -S
es
iqu

une politique adaptée aux enjeux de son entreprise.


c hn
Te
et

Élodie n’a, en aucune façon, eu l’idée de cantonner sa mission à satisfaire les


es

desiderata d’un auditeur. Elle sait en effet à quel point la qualité des mesures
nc
cie

est un enjeu essentiel pour la pérennité de son entreprise, donc de son


sS
de

emploi. En recueillant les attentes de chacun, en les comprenant pour ensuite


lté
cu

tenter de les satisfaire, elle espère inscrire son travail dans une efficience
:Fa

pragmatique. La liste de ses actions est claire :


om
x.c

►► répondre aux besoins des opérateurs qui pilotent les procédés et


rvo
ola

l’organisation (autocontrôle, contrôle final, etc.) pour obtenir et valider


ch
1.s

la conformité finale ;
uh

159 Le big data (littéralement les « grosses données ») [...] désigne des ensembles de données
qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des
outils classiques de gestion de base de données ou de gestion de l’information (source :
Wikipédia).
160 Spécifique, mesurable, acceptable, réaliste, temporellement défini.

107
La Smart Metrology

►► assurer la formation et le conseil auprès des opérateurs pour la mise


en œuvre des processus de mesure ;
►► conduire une veille technologique pour savoir offrir les options optimales
en matière de technologie de mesure ;
►► garantir les bonnes relations avec les fournisseurs dans le cadre,
notamment, du « contrôle réception » où il ne s’agit pas d’accuser à tort
des fournisseurs ni d’accepter à tort des produits ;
►► satisfaire le service R&D qui fait des mesures en permanence pour mettre
au point les nouveaux produits, lesquels se doivent d’être « justement
dimensionnés » pour être compétitifs sur le marché ;
►► assister le service commercial en participant à « l’image de marque »
de l’entreprise qui dépend, en grande partie, de la capacité de cette
dernière à satisfaire ses clients actuels pour conquérir ceux de demain ;
►► participer à l’optimisation des dépenses concernant les achats et les opé-
rations de maintenance, en appui au service achats ;
►► comprendre l’écosystème de l’entreprise dans ses aspirations légitimes

34
88
de « développement durable » et de maîtrise des risques industriels.

5:8
89
Cette liste non exhaustive, Élodie devra la compléter, selon son contexte,

28
02
en rencontrant de nombreux interlocuteurs aux aspirations éventuellement

34
at:
contradictoires.

ett
-S
es
Tous les acteurs de l’entreprise ont pour objectif partagé d’assurer la pérennité
iqu

et le bon fonctionnement de celle-ci. En revanche, il n’est pas rare que leurs


c hn
Te

objectifs individuels ne soient pas concordants. Il arrive même qu’ils soient


et

contradictoires. L’opérateur voudra le meilleur moyen pour être sûr, tandis que
es
nc

le financier ne pourra pas forcément le lui offrir car ses choix sont dictés par
cie
sS

les possibilités de l’entreprise. Le fournisseur souhaitera qu’aucune décision


de

ne lui soit préjudiciable mais n’acceptera pas forcément les coûts associés
lté
cu

à une amélioration des moyens de contrôle d’entrée. Le service marketing


:Fa
om

en voudra « toujours plus » mais n’acceptera pas les incidences financières


x.c

et la société civile voudra tendre vers le « zéro risque » sans vouloir en


rvo
ola

assumer les coûts forcément exorbitants (le zéro risque n’existe pas,
ch
1.s

rappelons-le !).
uh

Au milieu de toutes ces exigences, Élodie souhaite devenir, par la trans-


versalité de ses actions, un chef d’orchestre susceptible de proposer des
arbitrages entre les parties, organisant ainsi la rationalisation des exigences.
En établissant des objectifs quant aux résultats de son action vis-à-vis de

108
Le métrologue ne travaille pas pour les auditeurs !

chacun de ses interlocuteurs et non du seul auditeur, elle aura également


les moyens d’alimenter le système qualité en indicateurs pertinents161.
En principe, un indicateur doit permettre de mesurer une situation dans le
but de l’améliorer. L’amélioration « coûte que coûte » d’une performance
n’est pourtant pas nécessairement le meilleur objectif. Des économistes ont
proposé de définir « la valeur » (d’un service, d’un produit, d’une action, etc.)
comme le ratio entre la satisfaction des utilisateurs (valeur d’usage) et le coût
(du service, du produit, de l’action, etc.). Or, la satisfaction suit généralement
une progression de type logarithmique, tandis que le coût suit, quant à lui,
une évolution plutôt exponentielle. La valeur, ratio de ces deux solutions,
présente un maximum162 qu’il convient alors de viser pour atteindre l’efficience
de la fonction « métrologie » (voir la figure 6.1).

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
hn

Figure 6.1 Illustration du rapport entre « satisfaction » et « coût »


c
Te
et

Évidemment, les équations des courbes de la satisfaction (trait pointillé


es
nc

épais) et du coût (trait pointillé fin) de la figure 6.1 ne sont pas aisées à
cie

déterminer. Pour le « coût », les choses peuvent être malgré tout assez
sS
de

simples puisqu’il s’agit d’euros : dès lors, une comptabilité analytique bien
lté
cu

paramétrée peut probablement permettre d’obtenir une information fiable.


:Fa
om
x.c

161 Si des indicateurs existent déjà chez les métrologues, il est très fréquent qu’ils soient
rvo

tournés vers des problématiques spécifiquement « auditeur ». Un taux de retard par rap-
ola

port aux échéances souvent arbitraires d’étalonnage et un taux de non-conformité


ch

par rapport à des exigences normatives qui ne sont pas forcément adaptées sont les
1.s

indicateurs les plus fréquemment rencontrés. Notons que le fascicule de documentation


uh

FD X 07-007:2005 (Métrologie – Guide d’application de la norme NF EN ISO 10012


« Systèmes de management de la mesure – Exigences pour les processus et les équipements
de mesure » – Conception, développement, maîtrise et amélioration des processus de
mesure ou d’essai) propose,en son chapitre 4.1, quelques exemples pertinents.
162 Pour un coût convexe strictement croissant positif et une satisfaction concave strictement
croissante positive, ce ratio admet un unique maximum.

109
La Smart Metrology

Pour la « satisfaction », l’exercice est plus délicat car l’unité de mesure


« naturelle » n’est pas l’euro et il faut savoir quantifier un paramètre dont
certaines composantes sont purement subjectives (enquête de satisfaction
des interlocuteurs identifiés pour évaluer le niveau atteint par exemple).
Cependant, même si l’on ne peut pas calculer l’optimal d’efficience en absolu,
il est possible de savoir où l’on se situe sur la courbe de la valeur (en trait
plein sur la figure 6.1) suite à deux évaluations du ratio sur une période assez
courte. En effet, cette courbe est croissante, puis décroissante. De ce fait,
deux évaluations successives croissantes auraient tendance à montrer
que l’organisation se dirige vers l’optimum. À l’inverse, deux évaluations
successives décroissantes pourraient en revanche montrer que l’optimum
a été dépassé et que la « valeur » se dégrade. Enfin, deux évaluations
sensiblement identiques auraient tendance à indiquer une situation optimale
sauf si l’organisation n’évolue pas (c’est-à-dire que les coûts et la satisfaction
restent constants).
Enfin, le point le plus important, en termes d’intérêt de ce ratio, est que
plusieurs stratégies permettent de l’augmenter (voir figure 6.2).

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie

Figure 6.2 Stratégies d’augmentation de la « valeur »


sS
de

Une telle vision de la fonction « métrologie », largement soutenue par


lté
cu

le FD X 07-007, permet d’envisager le rôle d’Élodie dans un univers très


:Fa
om

différent de celui auquel le métrologue traditionnel s’est habitué, voire celui


x.c

dans lequel il s’est enfermé.


rvo
ola

La métrologie n’est pas une fonction administrative. Elle participe, de fait,


ch
1.s

à la compétitivité de l’entreprise et non uniquement à sa certification.


uh

Des normes existent pour aider l’entreprise à progresser grâce à la métrologie


et il suffit, pour tous les futurs Smart Métrologues qu’ils s’appellent Élodie
ou Igor, de les dominer et de les appliquer en les adaptant ; voici l’esprit de
la Smart Metrology qu’il nous faut développer.

110
7
La gestion d’un parc
d’instruments de mesure
ou comment gagner
le temps nécessaire

34
88
5:8
89
pour faire

28
02
34
at:
de la Smart Metrology ! c
iqu
hn

-S
es
ett
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om

Élodie est bien décidée à ne pas commettre cette erreur si naturelle qui
x.c
rvo

consiste à s’inscrire, sans recul, dans la dynamique du prédécesseur que


ola

l’on écoute attentivement au moment de la prise de fonction eu égard


ch
1.s

à son expérience, surtout lorsque ce dernier atteint l’âge de la retraite !


uh

« La métrologie, c’est simple, tu sors le planning du mois prochain,


tu préviens les prestataires, tu organises la récupération des instruments
dans les ateliers en adressant un e-mail aux interlocuteurs "qualité" désignés
et tu t’occupes de faire les étalonnages qu’on a décidé de réaliser en interne.
La Smart Metrology

Pour eux, c’est simple ! La norme nous dit ce qu’il faut faire, on a acheté
les étalons et un stagiaire nous a fait un fichier Excel. Tu n’as plus qu’à
saisir les valeurs et ça te dit tout seul si c’est conforme ou pas… Et le mois
prochain, tu recommences. » lui a-t-il dit. Sachant que son rôle de métro-
logue dans l’entreprise ne pouvait pas se limiter à une activité aussi peu
intéressante que celle consistant à gérer un planning, Élodie a profité de
sa prise de fonction dans son nouveau poste pour appliquer les principes
auxquels elle croit.
Si tous les métrologues se plaignent de ne pas avoir de temps pour faire
prendre conscience de l’importance de leur métier dans l’entreprise, c’est
simplement parce qu’ils consomment ce temps à faire des choses souvent
inutiles. Techniquement et par analogie, la date de réétalonnage devrait être
considérée comme la date de rendez-vous à prendre chez le dentiste pour un
contrôle périodique et non comme la date du contrôle technique automobile
qui, elle, a un caractère obligatoire : une fois cette date dépassée, elle peut
se conclure par une amende si les forces de l’ordre s’en mêlent.

En revanche, considérer l’étalonnage comme une opération visant à confirmer,

34
comme le ferait le dentiste (l’accident sur l’instrument s’apparentant à la rage

88
5:8
de dents !), qu’il n’y a pas de gros soucis à régler, épargnera à l’entreprise

89
bien des situations critiques. Dépasser une date arbitraire quand aucun

28
02
élément d’urgence n’a été démontré n’est pas le drame qu’en font parfois

34
at:
les auditeurs…

ett
Cette vision discrétionnaire des dates d’étalonnage provient probablement des -S
es
iqu

pratiques de la métrologie légale que nous avons présentées au chapitre 1


c hn
Te

(« Savoir d’où nous venons pour comprendre où nous sommes – Quelques


et

mots d’histoire de la métrologie »). Comme le contrôle technique, l’État


es
nc

impose aux « commerçants » de vérifier leurs instruments de mesure suivant


cie
sS

des périodicités imposées. Cette action ne permet en aucun cas de prévenir


de

des dérives ou des accidents sur les instruments utilisés mais elle permet de
lté
cu

garantir la loyauté. Le risque est le même pour l’acheteur et le vendeur et,


:Fa
om

en cas de non-conformité, la seule action prévue consiste à corriger, puis à


x.c

relancer la périodicité. Dans ce monde du commerce, les études d’impact


rvo
ola

ne sont pas imposées.


ch
1.s
uh

Pour l’entreprise, en revanche, l’objectif est de livrer, à chaque instant et à tous


ses clients, des produits ou des services conformes à leurs spécifications
afin d’en assurer la fonctionnalité et la performance. Or, dans ce cadre,
un étalonnage périodique arbitraire ne garantit rien du tout. Il n’est en réalité
qu’une photo du passé, et cette photo ne donne aucune indication quant

112
La gestion d’un parc d’instruments de mesure...

à la fiabilité des mesures, ni dans le présent, ni dans l’avenir. Finalement,


dans le contexte industriel, le seul intérêt de l’étalonnage périodique est
d’être facilement vérifiable pour donner du grain à moudre aux audits ! Il est
en effet plus facile de vérifier qu’une date n’est pas dépassée (comme lors
d’un contrôle de la DGCCRF163 dans les commerces) que de s’assurer que le
moyen et sa mise en œuvre permettent de statuer avec pertinence sur l’action
à mener suite à un résultat de mesure. Finalement, auditeurs et audités sont
ainsi rassérénés sans avoir répondu, à aucun moment, à la seule question
que l’entreprise devrait pourtant se poser et que le Smart Métrologue doit
imposer : « Quels sont les risques associés à la décision prise, à n’im-
porte quel moment, sur la base de mesures ? »
Pour répondre à cette question, il faut du temps et ce temps est précieux
à en croire les nombreux métrologues qui expliquent en manquer. Mais ne
peut-on pas facilement en trouver ?

7.1 La périodicité d’étalonnage/vérification


Étonnamment, tout le monde se satisfait depuis longtemps d’une stratégie

34
88
dont on peut aisément démontrer l’inadaptabilité au regard de la probléma-

5:8
89
tique industrielle. Il suffit, pour en prendre conscience, d’analyser les cas

28
suivants.

02
34
at:
Imaginons un ensemble de masses étalons en qualité M1164 ou un ensemble

ett
-S
de tampons filetés165. Ces ensembles font l’objet de normes qui fixent les es
limites de conformité (tolérances) pour chacun de leurs éléments. La figure 7.1
iqu
hn

ci-après166 montre la position de deux éléments distincts par rapport à


c
Te

ces tolérances pour chacun des deux exemples.


et
es
nc

Les deux schémas mettent en évidence le fait que les éléments de


cie
sS

chaque ensemble ne peuvent pas avoir la même périodicité puisque leur


de

« reste à vivre », c’est-à-dire la « distance » qui les sépare de leurs limites


lté
cu

d’acceptation (donc d’utilisation), est fonction de leur position respective dans


:Fa

leurs tolérances. La périodicité optimale ne peut par conséquent qu’être


om
x.c

individuelle.
rvo
ola
ch

163 Direction générale de la concurrence, de la consommation et de la répression des fraudes.


1.s

164 Les masses étalons M servent à vérifier les balances en classe III, c’est-à-dire celles d’usage
uh

classique chez les bouchers notamment. Cette qualité est imposée pour certaines étendues
par la circulaire n° 92.00.600.001.1 du 15 octobre 1992.
165 Les tampons filetés font partie de la famille des calibres à limites. Ils sont utilisés pour vérifier
la conformité des taraudages (c’est-à-dire des « écrous » pour faire simple).
166 Pour simplifier les figures, nous ne faisons pas apparaître les incertitudes qui entachent
les valeurs mesurées des masses et des tampons.

113
La Smart Metrology

34
88
5:8
89
28
02
Figure 7.1 Exemples de tolérances

34
at:
(cas des tampons filetés et des masses étalons)

ett
-S
es
Lorsqu’une même périodicité est choisie pour s’appliquer à tous les éléments
iqu

d’un même ensemble, avec pour objectif de ne pas avoir (ou le moins
c hn
Te

possible) de « non-conformités » à l’échéance, il semble que la périodicité qui


et
es

convient au pire des éléments (celui le plus proche de la limite) soit un bon
nc
cie

choix. On pense ainsi éviter les non-conformités en effectuant la vérification


sS

suffisamment souvent. Cette façon de faire est pourtant inadaptée parce


de
lté

qu’au moment d’une vérification, rien n’assure qu’un élément conforme


cu
:Fa

n’atteigne sa limite de non-conformité bien avant la prochaine vérification.


om

Par ailleurs, une périodicité unique pour un ensemble d’instruments coûte


x.c
rvo

cher, en temps et en argent, notamment pour ceux qui sont encore loin de
ola

leurs limites de conformité et qui sont donc vérifiés inutilement. Pour s’en
ch
1.s

convaincre, il suffit de faire un petit bilan de tous les étalonnages des années
uh

précédentes, étalonnages qui n’ont conduit à aucun ajustage.


Pour gérer les périodicités, de plus en plus d’industriels font appel à
des logiciels allant de la simple feuille Excel développée en interne au logiciel
du marché d’apparence très performant. Les métrologues s’accordent

114
La gestion d’un parc d’instruments de mesure...

à donner le nom de GMM (pour Gestion des moyens de mesure) à ces outils.
Mais de quel étrange mode de gestion s’agit-il ?

Nous sommes tous, dans nos vies privées, amenés à gérer nos budgets :
dans ce cadre, nous nous attachons à prévoir les dépenses et les entrées
à venir. La gestion ne se limite pas en effet au constat quotidien déprimant
d’un solde bancaire. Il est impératif de comprendre les événements du passé
et de connaître au mieux son environnement pour savoir quelle décision
prendre face à une question, par exemple reporter un achat pour cause
d’un probable manque de liquidité.

On attribue à Léonard de Vinci la citation suivante : « Gérer, c’est prévoir.


Ne pas prévoir, c’est déjà gémir ! » Le Smart Métrologue, en disciple
de Léonard, doit s’attacher à prévoir en analysant les données du passé
et l’évolution de son contexte. Un ordinateur a pour finalité de réaliser des
calculs. Il peut aisément faire beaucoup plus qu’une simple addition entre
une date d’étalonnage et une périodicité (souvent empirique et arbitraire)
pour trouver une prochaine échéance ! Il ne revient pas nécessairement aux
métrologues de fixer les périodicités. Ils pourront en revanche décider de

34
celles-ci à partir de calculs réalisés par des outils s’appuyant sur l’exploitation

88
5:8
des données antérieures. Le Smart Métrologue peut également se référer

89
28
aux normes existantes afin d’élaborer sa propre stratégie de gestion.

02
34
at:
Le fascicule de documentation FD X 07-014167 propose notamment trois

ett
-S
méthodes pour déterminer des périodicités d’étalonnage. L’objectif n’est es
pas de les décrire dans cet ouvrage mais d’en définir les grandes lignes et
iqu
hn

de donner quelques conseils à leur propos au lecteur.


c
Te
et
es

7.1.1 Le facteur d’usure maximal


nc
cie
sS
de

Le comportement d’un tampon fileté ou d’une masse, pour rester sur les
lté

exemples précédents, dépend d’une multitude de facteurs tels que le taux


cu
:Fa

d’utilisation, la qualité intrinsèque du moyen, les conditions d’utilisation,


om
x.c
rvo

167 FD X 07-014:2006, Métrologie – Optimisation des intervalles de confirmation métrologique


ola

des équipements de mesure.


ch
1.s

Il est utile de signaler qu’il existe d’autres normes internationales traitant de ce sujet :
uh

– ILAC-G24 / OIML D 10:2007, Guide international pour la détermination des intervalles


d’étalonnages des instruments de mesure. Ce guide a été réalisé communément entre l’ILAC
(International laboratory accreditation cooperation) et l’OIML (Organisation internationale de
métrologie légale).
– RP-1:2010, Establishment and Adjustment of Calibration Intervals, publié par le NCSLI
(National conference of standards laboratories international).

115
La Smart Metrology

le « degré » de conscience de l’utilisateur quant aux enjeux, etc. Il n’est donc


probablement pas raisonnable de tenter de décrire l’évolution de chacun
des éléments.

En revanche, il est possible de s’attacher à évaluer le comportement que


les éléments dans leur ensemble risquent de subir. Ce problème est clas-
sique en statistique. Comme nous l’avons vu dans la première partie,
s’il n’est pas possible de prévoir la valeur de la somme des faces d’un lancer
particulier de cinq dés, il est en revanche possible, à un niveau de confiance
donné et à partir de quelques observations, d’estimer la « pire » valeur que
ladite somme peut produire.

De même, par une simple droite des moindres carrés, le comportement


historique de chaque élément (coefficient directeur de la droite des moindres
carrés, appelé également « facteur d’usure ») d’un ensemble dont le périmètre
est à choisir au cas par cas, peut être déterminé (voir figure 7.2 ci-après).

34
En observant alors la distribution desdits comportements168 (voir figure 7.3

88
5:8
ci-après), il est possible d’en déduire un facteur d’usure maximal qu’un

89
28
élément risque de subir.

02
34
at:
Ce comportement devient alors la clé de la détermination des périodicités

ett
-S
individuelles169 (voir figure 7.4 ci-après). Il est ainsi possible de définir la iqu
es
date la plus proche, à un niveau de risque déterminé, à laquelle un élément
hn

peut devenir « non conforme ».


c
Te
et
es

Si cette date est trop proche (périodicité trop petite), il devient légitime
nc
cie

de remplacer cet élément car il devient coûteux à entretenir et s’approche


sS

dangereusement de la zone où son utilisation peut poser des problèmes


de
lté

fonctionnels. Dans ce cadre, l’étalonnage/vérification périodique est une


cu
:Fa

action qui vise à s’assurer que l’élément n’a pas subi le pire et qu’il reste
om

utilisable.
x.c
rvo
ola
ch

168 Il convient également de s’assurer de la cohérence des comportements et, le cas échéant,
1.s

d’analyser les raisons probables de comportements jugés atypiques.


uh

169 Ce comportement doit être, idéalement, réactualisé à chaque campagne d’étalonnage/


vérification d’une série d’éléments des ensembles. La réactualisation doit également
permettre de s’assurer qu’il n’y a pas de modifications significatives dans les comportements
individuels, ce qui imposerait, le cas échéant, de refaire étalonner tous les éléments,
la valeur du « pire des cas » ayant servi lors des calculs n’étant alors peut-être plus garantie,
notamment pour ceux qui ont les périodicités les plus longues.

116
La gestion d’un parc d’instruments de mesure...

Figure 7.2 Comportement d’un élément modélisé par une droite des moindres carrés

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te

Figure 7.3 Distribution des comportements individuels


et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

Figure 7.4 Calcul de la périodicité d’un élément

117
La Smart Metrology

Malheureusement, cette technique n’est pas toujours applicable. En effet,


il est impératif que les incertitudes d’étalonnage permettent de « voir »
les dérives des facteurs d’usure, ce qui est loin d’être systématiquement
le cas. Une dérive peut en effet être masquée par du « bruit d’étalonnage ».
Ce dernier peut être mis en évidence en ajoutant les incertitudes d’étalon-
nage au graphe de la figure 7.5 ci-après.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu

Figure 7.5 Prise en compte de l’incertitude dans la mise en évidence d’une dérive
:Fa
om
x.c
rvo

7.1.2 Le poids de l’instrument dans l’incertitude


ola
ch
1.s

L’instrument de mesure, objet de toutes les attentions, n’est pourtant pas


uh

le seul facteur du processus de mesure, comme nous l’avons dit et redit.


Il est d’ailleurs fréquent qu’il n’en soit pas le facteur prépondérant, comme le
démontre souvent l’analyse des résultats d’étalonnage. En effet, il n’est pas
rare que l’incertitude d’étalonnage soit du même ordre de grandeur, voire

118
La gestion d’un parc d’instruments de mesure...

supérieure aux erreurs observées lors de l’étalonnage. Ceci prouve que,


même dans des conditions de référence, l’instrument n’est pas clairement
détecté et ne perturbe pas la mesure. Dans des conditions quotidiennes
d’utilisation, il le sera donc encore moins et la qualité de la mesure ne dépendra
finalement que des autres facteurs, l’instrument étant alors négligeable.
En tout état de cause, un calcul d’incertitude suffit à quantifier le poids
de l’instrument (pourcentage de variance, voir la partie I « La métrologie ?
C’est quoi au juste ? ») dans le processus, c’est-à-dire son importance dans
la qualité d’un résultat de mesure.
Chacun peut aisément admettre que moins l’instrument contribue à
l’incertitude de mesure, moins il est utile de dépenser d’énergie à l’étalonner.
À l’instar du système de freinage d’une voiture dans lequel seuls les organes
les plus sensibles méritent d’être requalifiés de temps à autre, le processus
de mesure doit être observé sous l’angle de ses facteurs les plus importants.
S’il s’agit de l’instrument, la stratégie actuelle peut se défendre. S’il s’agit
des conditions climatiques sur lesquelles rien ne peut être envisagé (alors
qu’elles sont sûrement suffisantes pour l’usage attendu, sans quoi l’entreprise
s’en serait probablement rendu compte), à quoi cela sert-il de regarder

34
l’instrument ?

88
5:8
Alors que nombreux sont ceux qui doutent de l’utilité de calculer les

89
28
incertitudes de mesure, les considérations qui suivent la justifient pleinement.

02
34
La périodicité d’étalonnage est en effet coûteuse si elle est trop courte

at:
ett
(étalonnage inutile) et coûteuse également si elle est trop longue (étude
d’impact pour les instruments non conformes). Or, cette périodicité peut être -S
es
iqu

déterminée de façon optimale à partir d’un constat simple : plus l’instrument


c hn

participe à l’incertitude de mesure, plus il est important de l’étalonner.


Te
et

Inversement, moins il participe à celle-ci, moins il est utile de le faire.


es
nc
cie

Le fascicule FD X 07-014 donne un nom particulier au poids de l’instrument


sS

dans le processus de mesure : Rper pour « rapport de périodicité ». Il propose


de

d’écrire une relation entre Rper ainsi estimé et la périodicité en posant


lté
cu
:Fa

les principes suivants :


om

►► si R Per tend vers 1 (c’est-à-dire que l’instrument est le seul facteur qui
x.c
rvo

contribue à l’incertitude), la périodicité tend approximativement vers 0


ola

(il faut étalonner en permanence pour s’assurer que l’instrument est


ch
1.s

toujours conforme) ;
uh

►► si R Per tend vers 0 (c’est-à-dire que l’instrument ne participe pas du tout


à l’incertitude de mesure), alors la périodicité tend vers l’infini (puisqu’il
est inutile de s’intéresser à lui). Dans ce cas, l’infini a été réduit à 10 ans,
soit 120 mois.

119
La Smart Metrology

Le point suivant est arbitraire mais il permet de fixer une relation de type
exponentielle entre périodicité et R Per :
►► si R Per tend vers 0,5 (c’est-à-dire que l’instrument participe pour 50 %
à l’incertitude de mesure), alors la périodicité tend vers 12 mois,
c’est-à-dire la périodicité la plus souvent pratiquée de nos jours.

La relation est alors donnée par : 170


.

Même si cette relation est parfaitement discutable, elle a l’avantage d’être


simple et prend en compte tout le processus de mesure. Évidemment, chaque
Smart Métrologue peut jouer sur cette équation pour trouver une relation qui
lui semblera plus pertinente171. Ici comme ailleurs, les normes qui ne sont pas
imposées par un accord client/fournisseur, sont d’application volontaire172.

Cette méthode, comme la précédente, impose de disposer d’informations


concernant l’instrument et parfois même, des informations récurrentes
obtenues étalonnage après étalonnage. Lorsque le Smart Métrologue n’en
dispose pas, soit parce qu’elles n’ont pas été enregistrées, soit parce que
le parc n’a jamais été étalonné, il peut néanmoins mettre en œuvre une

34
88
autre approche, plus qualitative, qui n’impose pas de disposer préalablement

5:8
de résultats d’étalonnage : la méthode OPPERET.

89
28
02
34
at:
7.1.3 OPPERET : Optimisation des périodicités d’étalonnage

ett
-S
es
La méthode OPPERET a été initiée dans le monde aéronautique et plus
iqu
hn

précisément au sein du groupe « métrologie » de la société EADS, sous


c
Te

l’impulsion de Gilbert Brigodiot. Cette méthode a ensuite été améliorée


et
es

et le CFM a édité un guide technique qui explique les modalités de sa mise


nc
cie

en œuvre en donnant des exemples d’application.


sS
de

Avant d’être une méthode de calcul « prévisionnel » de périodicité, OPPERET


lté
cu

permet de hiérarchiser, suivant leur criticité globale, des instruments de


:Fa

mesure. Il est ensuite possible de définir une périodicité à partir du « rang


om
x.c
rvo
ola

170 Dans cette équation, Rper est exprimé en pourcentage, c’est pourquoi il convient de le mul-
ch

tiplier par 100 pour obtenir une valeur comprise entre 0 et 100 (et non entre 0 et 1).
1.s

171 Les lecteurs intéressés par ce sujet pourront notamment lire le billet suivant : http://www.
uh

lametrologieautrement.com/2015/03/une-piste-pour-evaluer-limpact-de-la-derive-dans-
lincertitude-des-processus-de-mesure-faisant-appel-a-des-instruments-mesureur/
172 Les normes donnent des principes qui permettent aux utilisateurs de bénéficier « d’une
pensée consensuelle » que des personnes s’intéressant aux mêmes sujets qu’eux ont eue.
Ces principes doivent servir de base à une réflexion plus personnelle dont rien ne dit qu’elle
sera moins intéressante à condition qu’elle soit proprement justifiée.

120
La gestion d’un parc d’instruments de mesure...

de criticité », c’est-à-dire de l’importance relative, tout critère pondéré


confondu, de chaque instrument dans le parc des instruments. La transfor-
mation proposée par la méthode offre une grande souplesse aux métro-
logues pour définir les périodicités. En ce sens, la méthode permet d’adapter
la gestion des étalonnages/vérifications à n’importe quelle contrainte
budgétaire.
Cette méthode propose par ailleurs des items de réflexion à partir desquels
des critères de hiérarchisation, adaptés à chaque contexte, peuvent être
retenus. En ce sens, la mise en œuvre d’OPPERET peut-être une étape
intéressante pour discuter, en interne, du « consensus des attentes » proposé
au chapitre précédent (voir le chapitre 6 « Le métrologue ne travaille pas
pour les auditeurs »). Lorsque tous les acteurs concernés se réunissent pour
faire valoir leurs attentes en matière de métrologie, les critères à considérer
dans OPPERET surgissent rapidement et les équilibres entre les exigences
s’imposent rapidement elles aussi. Il n’y a donc pas loin entre la « valeur »
attendue de la fonction métrologie et les critères qui permettent de déterminer
une périodicité eu égard aux risques acceptés et aux attentes exprimées.
Il n’est d’ailleurs pas rare que ces discussions révèlent des manques

34
88
importants dans les informations nécessaires pour réaliser la mission de

5:8
la métrologie.

89
28
02
Nous avons vu que les méthodes développées précédemment (voir

34
at:
les paragraphes 7.1.1 et 7.1.2) nécessitaient de disposer des résultats

ett
-S
d’étalon-nage et de leurs dates. En revanche, bien d’autres éléments sont es
fréquemment indispensables si l’on souhaite utiliser la méthode OPPERET.
iqu
hn

Il convient notamment de connaître le nombre de réparations, le nom de


c
Te

l’utilisateur (ou des utilisateurs), la fréquence d’utilisation réelle, les conditions


et
es

de mise en œuvre (altérantes ou non), le prix d’achat, les coûts de mainte-


nc
cie

nance périodique, le taux de non-conformité constaté, les problèmes


sS

rencontrés, la date de mise en service, l’état général du moyen ou encore


de
lté

le caractère dédié ou non des mesures réalisées. L’utilisateur devra égale-


cu
:Fa

ment procéder à l’enregistrement des données provenant du moyen, etc.


om
x.c

Pour tous les critères173 retenus, chaque instrument reçoit une note dans
rvo
ola

l’ensemble ou . Conventionnellement, une note


ch
1.s

négative réduit la périodicité, tandis qu’une note positive l’augmente.


uh

173 Chaque critère fait également l’objet d’une pondération. En effet, les risques ne sont pas
les mêmes pour une pièce critique d’avion et pour un bouchon de stylo. Le critère « coût
d’étalonnage », fréquemment retenu, n’a donc nécessairement pas le même poids chez
l’un ou chez l’autre.

121
La Smart Metrology

Une fois tous les critères notés pour tous les instruments, la méthode invite
à transformer chaque note en son écart normalisé (critère par critère) puis à
faire la somme pondérée des écarts normalisés pour chaque instrument j :
174

Cette note ne suffit pas, par elle-même, à statuer sur la périodicité. Comme
chaque instrument a une note globale, son écart normalisé peut être calculé
par rapport à l’ensemble des notes globales des instruments :

Cet écart normalisé représente la position, tout critère pondéré confondu,


d’un instrument donné dans son périmètre, donc sa hiérarchie en termes
d’efforts à consacrer.

Il est possible de considérer que la distribution des périodicités suit une


loi normale de moyenne m et d’écart-type s (voir figure 7.6 ci-après) :

34
88
et .

5:8
89
28
02
34
μ

at:
ett
-S
es
Périodicité minimale
iqu

(Confiance ≈ 2,5 %)
c hn
Te
et


es
nc
cie
sS
de
lté


cu

Périodicité maximale
:Fa

(Confiance ≈ 0,135%)
om

Figure 7.6 Distribution des périodicités suivant les hypothèses de la méthode OPPERET
x.c
rvo
ola

À partir de m et s, la périodicité de chaque moyen est alors calculée suivant


ch
1.s

la formule : .
uh

174 L’indice i concerne un critère Pi (le poids du critère i) et Eni (l’écart normalisé de la note
du ième critère) pour l’instrument donné.

122
La gestion d’un parc d’instruments de mesure...

Avouons-le, la première expérience d’Élodie (ou d’Igor…) avec la méthode


OPPERET fut traumatisante : si définir les critères et leurs pondérations
n’est pas une chose très compliquée et ne consomme finalement qu’une ou
deux journées de travail, l’idée de noter les 5 000 instruments qu’elle avait
à gérer a été un choc pour elle ! Comment trouver le temps pour cela ?
L’entêtement à respecter le planning est typique d’une courte vue : on pense
ne pas avoir le temps de noter les instruments, mais on trouve celui pour
les étalonner… ce qui est évidemment sans aucune commune mesure !

Élodie a vite compris qu’en considérant, d’une part le temps « logistique »


et d’autre part, la gestion de la relation avec le prestataire, mais également
le temps d’immobilisation des moyens pendant lequel, inexorablement,
les opérateurs ne manqueraient pas de venir la solliciter pour savoir
quand leurs instruments leur seraient rendus, il était plus simple de noter
les instruments que de les étalonner sans réflexion.

Pour pouvoir activer la méthode OPPERET, il suffit de disposer d’une estima-


tion de la moyenne m et de l’écart-type s pour chacun des critères (de chacun
des périmètres). De plus, une bonne estimation de ces deux paramètres

34
ne nécessite qu’une centaine d’instruments notés (par périmètre). Ainsi,

88
5:8
et en prenant au hasard 100 instruments, Élodie est en mesure d’estimer

89
les périodicités de tous ses instruments au fil de l’eau, c’est-à-dire au fur

28
02
et à mesure qu’ils apparaissent au planning. Il est, de fait, bien plus facile

34
at:
de noter 100 ou 200 instruments tous les mois (jusqu’à les avoir tous notés)

ett
-S
et de n’étalonner que les quelques unités qui le nécessiteront effectivement, iqu
es
plutôt que de tous les étalonner/vérifier « à l’aveugle » et se plaindre d’un
hn

manque de temps. Élodie sait qu’elle disposera ainsi d’un outil puissant qui
c
Te

lui permettra par ailleurs de se libérer du temps. Quand elle aura collecté
et
es

suffisamment de résultats d’étalonnage de la qualité requise, elle pourra


nc
cie

utiliser l’une ou l’autre des méthodes évoquées précédemment, tout en


sS
de

valorisant le travail effectué pour OPPERET175.


lté
cu
:Fa

Focalisé sur ses plannings, le métrologue est, par ailleurs, concentré sur
om

les dates et sur le raccordement. Sensibilisé aux enjeux, il s’intéresse aux


x.c
rvo

informations qui lui permettront de prendre les bonnes décisions et, ainsi,
ola

d’allouer les justes ressources à la gestion des étalonnages. La définition


ch
1.s

des périodicités est ainsi un enjeu majeur pour le Smart Métrologue.


uh

Les erreurs du passé ont eu l’avantage d’habituer l’entreprise à un coût et


à des ressources permettant d’assurer cette gestion. En libérant du temps

175 Le FD X 07-014:2006 explique comment la périodicité peut être calculée à partir de la


notation OPPERET et d’une approche « dérive » ou « poids ».

123
La Smart Metrology

et du budget, tout en diminuant les risques de « non-conformité » puisque


les périodicités correspondent à un besoin réel, le Smart Métrologue
pourra apporter son expertise dans ses autres missions, ainsi qu’une
véritable valeur ajoutée à la métrologie. Mais il peut aller encore plus
loin. En effet, les vérifications périodiques sont inscrites dans les mœurs,
du fait des pratiques de la métrologie légale. Cependant, à bien y réfléchir,
elles sont très loin d’être essentielles. Elles ont en effet quasiment toujours
lieu, soit « trop tôt », soit « trop tard ». Le véritable objectif technique est
de garantir au mieux la qualité quotidienne des mesures. Cet objectif implique
d’être en mesure de détecter les anomalies dès qu’elles se produisent.
Après une vérification initiale, comme un instrument conforme qui ne dérive
pas reste conforme, une surveillance bien pensée est très souvent beaucoup
plus efficace et beaucoup moins coûteuse qu’une vérification arbitraire.
Par ailleurs, les normes qualité invitent à faire des surveillances. Voici donc
une belle opportunité pour remettre en cause les principes de gestion, notam-
ment en réalisant des vérifications métrologiques quand elles sont
techniquement pertinentes, ainsi que des surveillances adaptées pour
fiabiliser les mesures.

34
88
5:8
89
7.2 Étalonnage/vérification versus surveillance

28
02
34
Quel métrologue n’a jamais connu une situation dans laquelle l’opérateur

at:
ett
lui-même rapporte son instrument en soupçonnant une anomalie,
-S
es
voire en l’ayant identifiée et décrite ? Si l’étalonnage/vérification ressemble
iqu

à un tirage du loto (dans lequel on gagnerait presque souvent, l’instrument


c hn
Te

étant généralement déclaré conforme !), l’utilisation d’un moyen, au quotidien,


et

par des personnes compétentes permet de détecter des anomalies à peu


es
nc

près dès qu’elles se produisent. Cette capacité de détection s’explique


cie
sS

aisément, nous verrons même qu’elle a une expression mathématique


de

parfaitement connue (et largement utilisée dans bien des domaines).


lté
cu

En fait, les industriels font rarement des mesures sur des entités inconnues.
:Fa
om
x.c

Que ce soit des caractéristiques produites en interne ou des fabrications


rvo

sous-traitées, les objets mesurés ont normalement fait l’objet de la plus


ola
ch

grande attention pour être conformes. De ce fait, l’opérateur a souvent un « a


1.s

priori » sur la valeur qu’il doit normalement trouver et, finalement, sa mesure
uh

ne sert bien souvent qu’à confirmer ledit a priori. Elle rassure, c’est certain,
mais elle est inutile puisqu’elle ne change rien à la situation. En revanche,
quand la mesure lui paraît bizarre, son premier réflexe est alors, très souvent,
de la refaire, de demander à un collègue son avis ou encore de changer

124
La gestion d’un parc d’instruments de mesure...

de moyen de mesure pour confirmer ou infirmer la première valeur jugée


étrange. Cette compétence, souvent non explicite mais qui fait normalement
partie de la culture et/ou de l’expérience de l’opérateur, permet de détecter
les anomalies bien avant que le laboratoire les constate.
Le Smart Métrologue ne doit pas s’enfermer dans les pratiques d’un autre
âge et surtout d’un autre contexte. Sa mission est de travailler à la fiabilité
permanente des mesures et il dispose, matérialisé dans la compétence des
opérateurs, d’un outil bien plus puissant que les étalonnages de la métrologie
légale. Si un instrument ne sait pas encore faire son autodiagnostic176,
l’opérateur peut, quant à lui, se servir de ses neurones pour identifier, ou en
tout cas soupçonner, un souci. Il n’a pas besoin pour cela d’être connecté,
mais juste formé. De même, il est probablement beaucoup plus pertinent de
miser sur les opérateurs pour prévenir les incidents/accidents en matière
de qualité de la mesure que sur des étalonnages périodiques. Par exemple,
si on a tous pu voir un instrument de mesure tomber du fait de la loi univer-
selle de la gravitation, on n’en a jamais vu un remonter tout seul sur
la table. Puisque la chute peut détériorer l’instrument, chacun comprendra
qu’il est préférable de le ramener systématiquement au métrologue (même

34
88
si en apparence tout va bien) plutôt que d’attendre une date arbitraire pour

5:8
savoir s’il est ou non endommagé. Sensibiliser les opérateurs à cette simple

89
28
démarche se révélera donc bien plus intéressant que les étalonnages.

02
34
Et ce sera tellement moins coûteux !

at:
ett
-S
La surveillance des processus de mesure peut prendre un grand nombre es
de formes. D’une simple sensibilisation des opérateurs aux bonnes pratiques
iqu
hn

en cas de doute à la mise en place d’une pièce type qu’on mesure


c
Te

périodiquement pour tenter de détecter une dérive177 (accidentelle ou


et
es

monotone) en passant par des stratégies plus élaborées d’analyses efficaces


nc
cie

et simples si possible, la surveillance est le fruit de la réflexion du Smart


sS

Métrologue qui devra savoir utiliser les opportunités offertes par son contexte.
de
lté

Avec les bons outils statistiques, il pourra proposer de faire des choses
cu
:Fa

efficientes. Par ailleurs, nous ne devons pas oublier que nous sommes
om

à l’ère du big data et que la puissance de calcul des ordinateurs est chaque
x.c
rvo

jour plus importante. Nous disposons ainsi d’une technologie qui doit pouvoir
ola
ch

nous aider à améliorer sans trop de mal des pratiques vieilles de près
1.s

de deux siècles.
uh

176 On peut imaginer que les choses évolueront sur ce point, grâce la technologie des
objets connectés (IOT : Internet of things) qui pourrait, demain, rendre l’instrument plus
« conscient » de son propre état.
177 Le fameux exemple du caillou sur la balance.

125
La Smart Metrology

Le CFM a réédité en 2014 son guide technique sur les surveillances


des processus de mesure178. Ce guide décrit cinq méthodes mais n’a pas
la prétention d’être exhaustif sur ce sujet qui n’a finalement pour limite que
l’imagination dont Élodie sait faire preuve. En outre, il apporte un regard
intéressant sur l’énergie à déployer pour lesdites surveillances, dès lors
qu’elles peuvent nécessiter d’être formalisées pour être efficaces. Le guide
propose une matrice (voir tableau 7.1) qui décrit des situations en fonction
des niveaux de risque (produit de la gravité par la probabilité).

Tableau 7.1 Matrice des situations de risque

Niveaux de gravité

Négligeable Mineur Important Critique Catastrophique

Fréquent 4 4 5 5 5
Niveaux
Probable 3 3 4 5 5
de probabilité
(combinaison Occasionnel 2 3 3 4 5
occurrence et Rare 1 2 3 3 4
non-détectabilité)
Improbable 1 1 2 3 4

34
88
Pour chacune des situations décrites par des numéros différents, le guide

5:8
89
propose de choisir les stratégies suivantes :

28
02
1. surveillance occasionnelle non enregistrée ;

34
at:
ett
2. surveillance fréquente et non enregistrée ;
3. surveillance occasionnelle et enregistrée (les résultats sont traités suivant -S
es
iqu

une méthode documentée) ;


chn
Te

4. surveillance fréquente et enregistrée (les résultats sont traités suivant


et
es

une méthode documentée) ;


nc
cie

5. surveillance permanente.
sS
de

Dans la méthode OPPERET, il est donc important de considérer les critères


lté
cu

« gravité » et « probabilité ». Ces deux critères, lorsqu’ils sont choisis


:Fa
om

et renseignés, permettent de statuer quant au niveau de surveillance à


x.c

mettre en œuvre. Ici, et de façon quasi-naturelle, le lien entre étalonnage/


rvo
ola

vérification, périodicité et surveillance est assuré de façon pertinente…


ch
1.s

très loin des douze mois traditionnels !


uh

Fin 2015, la commission X07b (Métrologie) d’AFNOR a lancé un groupe


de travail chargé de proposer une méthode de surveillance innovante

178 Voir sur le site du CFM (lien : http://cfmetrologie.com), rubrique Publications.

126
La gestion d’un parc d’instruments de mesure...

et particulièrement bien adaptée à la gestion d’un parc d’instruments de


mesure et intitulée « les comparaisons inter-instruments » (C2I). Dans cette
approche, la surveillance est réalisée en comparant les résultats obtenus via
des instruments différents mais dans un même contexte179 lors de la mesure
d’une même entité. Même sans connaître la valeur vraie de l’entité considérée,
chacun comprendra qu’il est peu probable que tous les instruments participants
à la C2I aient dérivé dans le même sens et à hauteur de la même valeur.
Par conséquent, si un ou deux d’entre eux ont un problème, ces instruments
apparaîtront comme différents des autres. Il devient alors légitime de les
envoyer à des spécialistes (laboratoire d’étalonnage) qui sauront déterminer
la source du problème. Grâce à une telle méthode, le concept de « périodicité
conditionnelle » laisse percevoir une véritable révolution dans la gestion
d’un parc d’instruments de mesure. Il n’est en effet pas rare, actuellement,
que les envois en étalonnages se fassent par campagnes et regroupent ainsi
plusieurs instruments de même nature. Mais Élodie pourra désormais mener
une C2I sur les lots d’instruments de même nature et n’envoyer finalement
que ceux qui seront suspectés, les autres pouvant être remis en service et
la périodicité reconduite.

34
88
Le Smart Métrologue développe alors une compétence particulière

5:8
(l’utilisation de la statistique pouvant être assez sophistiquée suivant le niveau

89
28
auquel il veut accéder) et quasi-exclusive dans la mise en œuvre concrète

02
34
des instruments de mesure. Il peut ainsi prétendre à aider les utilisateurs

at:
ett
au quotidien.
-S
es
Terminons ce chapitre sur la gestion d’un parc d’instruments de mesure en
iqu
hn

évoquant les fameuses EMT qui occupent tant de monde. Dans la métrologie
c
Te

légale, il est absolument légitime de faire appliquer les mêmes EMT


et
es

à tous les instruments ayant la même utilisation. On y vise une loyauté dont
nc
cie

des EMT identiques pour tout le monde sont probablement l’une des clés.
sS

En revanche, il est surprenant de voir qu’après trente ans de métrologie


de
lté

industrielle (certifiée), ce sujet n’ait pas été traité mieux qu’il ne l’est aujourd’hui.
cu
:Fa

Dans la norme AFNOR NF EN ISO 14978180 qui décrit ce qu’il faut intégrer dans
om

une norme, il est signifié ce qui suit : « Exception faite de quelques exemples
x.c
rvo

(c’est-à-dire l’ISO 1938 et l’ISO 3650), les normes relatives aux équipements
ola
ch
1.s
uh

179 Il s’agit de faire en sorte qu’un maximum de causes d’incertitude ne puisse pas s’exprimer
(i. e. faire en sorte qu’elles soient de type L.O. : même opérateur, même méthode, même
lieu, même objet « au même endroit », etc.) afin de ne voir que la répétabilité et l’effet
« instrument ».
180 NF EN ISO 14978:2006, Spécification géométrique des produits (GPS) – Concepts et exi-
gences généraux pour les équipements de mesure GPS.

127
La Smart Metrology

de mesure spécifiques doivent exclure toutes valeurs numériques des MPE181


et MPL182 en comportant toutefois des tableaux vides dédiés aux valeurs de
MPE et MPL qui serviront de lignes directrices ou canevas à l’utilisateur
de la norme. »

Qui applique ce principe pourtant évident ?

AFNOR édite encore, notamment en métrologie dimensionnelle, des normes


dans lesquelles des EMT sont données, soi-disant pour aider les industriels.
Si nous comprenons bien la difficulté pour les laboratoires prestataires d’aider
tous leurs clients à définir leurs besoins, nous avons du mal à croire que tous
les industriels aient réellement besoin des mêmes EMT. De fait, la norme
aide surtout le laboratoire, interne ou externe, qui s’affranchit de quasiment
toute réflexion et trouve ainsi un référentiel qui a les apparences de la bonne
solution… puisque c’est la norme qui le dit ! Il suffit souvent de lire les noms
des experts qui ont participé à sa rédaction pour en comprendre les enjeux…

Or, faire des études d’impact ou changer d’instruments de mesure n’est


souvent pas anodin. Si cela est inutile au bon fonctionnement de l’entreprise

34
et ne satisfait aucun besoin de ses parties prenantes, c’est une perte de valeur

88
que le Smart Métrologue ne peut pas admettre. En revanche, lire les normes

5:8
89
permet d’enrichir son propre avis grâce à ceux qu’émettent des personnes

28
02
compétentes extérieures. Cela ne peut être que positif. Aussi, satisfaire les

34
at:
intérêts des membres d’une commission de normalisation, lorsque la norme

ett
-S
n’est imposée par rien, n’est pas dans les objectifs d’Élodie qui, elle, a pour es
devise : « La norme : oui pour s’enrichir, non pour la subir lorsqu’elle n’est pas
iqu
hn

réglementaire ! »
c
Te
et

Nous l’avons déjà souvent écrit dans cet ouvrage, la qualité de l’instrument
es
nc

n’est qu’un contributeur à la qualité de la mesure et donc aux risques associés


cie
sS

aux décisions qui seront prises. Cet enchaînement de causes/conséquences


de

peut être complexe à appréhender et demande souvent beaucoup de travail.


lté
cu

Or, Élodie se l’entend dire tous les jours : « Oui d’accord, mais il faut produire ! »
:Fa
om

Pour arriver au bout de cette mission qui est bien sa mission essentielle,
x.c

il lui faudra beaucoup de temps et de travail. Elle devra notamment prioriser


rvo
ola

ses actions et toutes les discussions précédentes (objectifs et consensus,


ch
1.s

matrice des risques) lui seront bien utiles. Néanmoins, et avant de maîtriser
uh

l’ensemble des processus de mesure et leurs limites réelles, il lui faut trouver
des solutions pour sortir des EMT arbitraires et des études d’impact inutiles,

181 Maximum permissible error : erreurs maximales tolérées d’une caractéristique métrologique.
182 Maximum permissible limit : limites tolérées d’une caractéristique métrologique.

128
La gestion d’un parc d’instruments de mesure...

ce qui lui fera gagner non seulement un temps précieux mais aussi beaucoup
d’énergie.
Les C2I sont une partie de la réponse. En effet, pour les instruments
réputés identiques, c’est-à-dire ceux qui n’ont pas été détectés et envoyés
à l’étalonnage, il est possible de conclure immédiatement à leur conformité
pour l’utilisation habituelle. À n’en pas douter, l’entreprise se serait
probablement rendu compte des conséquences de l’utilisation d’instruments
inappropriés. Par ailleurs, et puisqu’ils sont statistiquement identiques, ils ne
peuvent pas tous être « non conformes ». Le bon sens nous conduit donc
à les accepter en l’état. Notons ici que la C2I n’est qu’une forme particulière
des comparaisons inter-laboratoires (CIL) que nous avons évoquées
précédemment. Les CIL permettent d’évaluer la répétabilité intralaboratoires
et la reproductibilité interlaboratoires. La C2I permet quant à elle d’estimer
la répétabilité (de l’opérateur qui la pratique) et l’effet inter-instruments :
ce dernier est exprimé directement sous forme d’un écart-type et est utilisable
dans un calcul d’incertitude de mesure, sans passer par une évaluation
de type B souvent très critiquable, comme nous l’avons indiqué.

34
Lorsque les instruments sont uniques ou peu nombreux, il est possible de

88
trouver une solution basée sur la notion de R Per. Faute de savoir qu’elle

5:8
89
est l’incertitude de mesure acceptable pour un processus donné, il reste

28
02
cependant souvent possible de constater que l’instrument n’est pas le facteur

34
at:
prédominant et de se fixer une limite par rapport à la notion de poids de

ett
-S
l’instrument dans l’incertitude de mesure. Une simple étude R&R permet es
d’estimer la participation des opérateurs à l’incertitude. Si cette participation
iqu
hn

est nettement supérieure aux erreurs d’un instrument, le tour est joué : la part
c
Te

de l’instrument n’a aucune raison d’être considérée et sa « non-conformité


et
es

potentielle » n’a aucune influence sur le besoin.


nc
cie
sS

Notons, pour finir sur ce point, qu’un test R&R permet aussi de détecter
de

des opérateurs douteux, lesquels méritent donc d’être sensibilisés, voire


lté
cu

formés, à la mise en œuvre du processus de mesure. Et puisque même


:Fa
om

avec la meilleure voiture du monde, vous n’êtes pas en sécurité si le pilote


x.c

ne sait pas conduire, chacun saura conclure qu’avec le meilleur instrument


rvo
ola

du monde, si on ne sait pas l’utiliser… La métrologie a donc d’avantage intérêt,


ch

nous le constatons sur ce sujet aussi, à miser sur les hommes plutôt que
1.s
uh

sur les instruments !

Enfin, il est important de préciser que si le laboratoire d’étalonnage cherche


à quantifier l’erreur de l’instrument, il n’a accès, lors des mesures qu’il réalise,
qu’à des erreurs de mesure auxquelles l’instrument a contribué – en plus

129
La Smart Metrology

de toutes les autres. Finalement, il a le même problème que les industriels qui
cherchent des valeurs vraies et qui ne disposent que de valeurs mesurées,
c’est-à-dire de la somme algébrique de la valeur vraie et de l’erreur de mesure
qui s’est produite au moment de la mesure. Ainsi, lorsque le laboratoire
ne voit pas clairement l’instrument parmi toutes les causes d’incertitudes,
il ne fait face finalement qu’à son propre « bruit » (c’est-à-dire ses propres
erreurs aléatoires). L’instrument n’est, dans ce cas, pas suffisamment impor-
tant dans le processus pour être observé. Lorsque cette situation se présente
(et elle n’est pas rare), l’instrument qui n’est pas perceptible dans des conditions
optimales d’utilisation le sera encore moins dans son utilisation quotidienne
où les conditions ne peuvent être que plus mauvaises. L’instrument peut alors
être déclaré « conforme » puisque, manifestement, ce sont les autres fac-
teurs d’incertitude qui feront la qualité finale de la mesure.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

130
8
De l’inutilité apparente
de l’incertitude de mesure

34
88
5:8
89
28
02
34
at:
ett
-S
es
Élodie a hérité d’un monde où la fiabilité des mesures n’est plus discutée.
iqu
hn

Chacun est en effet convaincu que les mesures sont justes. Avant de prendre
c
Te

conscience de cet héritage, Élodie a été longtemps perturbée de vivre


et
es

le paradoxe suivant, partagé par tous les métrologues (ou presque) : si les
nc
cie

référentiels qualité sont clairs quant à l’obligation de considérer l’inexorable


sS

doute associé à chaque mesure, dans le quotidien industriel (et malgré


de
lté

de nombreux calculs d’incertitude), la plupart des collègues d’Élodie ne


cu
:Fa

s’intéressent et ne donnent sens qu’à la seule valeur mesurée. Toutes les


om

décisions (ou presque) sont prises en considérant ladite valeur comme vraie.
x.c
rvo

Bien qu’elle ait conscience aujourd’hui que cette valeur vraie puisse parfois être
ola
ch

assez éloignée de la valeur mesurée, Élodie est bien obligée de constater que
1.s

cette négligence n’a finalement aucune conséquence apparente. Les clients


uh

de son entreprise ne se plaignent pas, les non-conformités fonctionnelles


sont exceptionnelles et tout se passe comme si, finalement, c’est elle qui
avait tort. Dès lors, la simple dilatation d’un matériau lui sert en quelque sorte
de soutien moral lorsqu’elle se met à douter de la pertinence de sa réflexion.
La Smart Metrology

Il paraît donc légitime de s’interroger sur ce constat : comment l’industrie fait-


elle pour ignorer les incertitudes de mesure dans ses décisions ? La norme
AFNOR NF EN ISO 14253-1:2013183, dont la première édition date de 1999,
donne – sans le savoir – une partie de l’explication.

8.1 Norme AFNOR NF EN ISO 14253-1 :


comprendre pourquoi l’incertitude
est ignorée
Cette norme a pour objectif de résoudre, après quelques années de pratique
« ISO 9001 », la question de la prise en compte des incertitudes afin
de répondre à la principale question qui se pose en matière de « qualité » :
mes caractéristiques ou « entités » sont-elles conformes à leurs spéci-
fications184 ?

La norme propose d’appliquer la stratégie résumée sur la figure 8.1 ci-après.

34
Suivant cette norme, il s’agit simplement de « soustraire » l’incertitude de

88
5:8
mesure U aux bornes de la tolérance pour définir une zone, dite « zone

89
28
de conformité », qui a pour propriété de permettre de déclarer « conforme »

02
34
toute entité dont la valeur mesurée appartiendra à ladite zone. Autour des

at:
ett
bornes Tinf et Tsup, dans un intervalle de largeur ± U, la norme définit deux zones
de doute et préconise de mesurer à nouveau l’entité à l’aide d’un processus -S
es
iqu

de mesure exprimant une incertitude plus petite pour pouvoir statuer. Enfin,
c hn

une valeur mesurée au-delà des zones définies ci-avant conduit à déclarer
Te
et

la non-conformité de l’entité.
es
nc
cie

Si cette approche a tout pour séduire tant elle est simple, nous verrons
sS
de

rapidement ses limites (voir le chapitre 10 « La Smart Metrology »).


lté

En attendant, elle permet de comprendre comment sont traitées pratiquement


cu
:Fa

les incertitudes. Au quotidien, la déclaration de conformité suit plutôt


om
x.c

l’approche décrite dans la figure 8.2 ci-après.


rvo
ola
ch

183 Spécification géométrique des produits (GPS) – Vérification par la mesure des pièces et
1.s

des équipements de mesure – Partie 1 : règles de décision pour prouver la conformité ou


uh

la non-conformité à la spécification.
184 Nous verrons dans les chapitres suivants que la vraie question n’est pas tant de savoir
si telle ou telle entité est conforme mais plutôt de faire en sorte, en prenant les bonnes
décisions aux bons moments, qu’elle le soit. Chacun admettra en effet que dans un souci
légitime d’efficience, il est nettement préférable de produire conforme plutôt que de vérifier
si on a produit conforme…

132
De l’inutilité apparente de l’incertitude de mesure

34
88
5:8
89
28
02
34
at:
ett
Figure 8.1 Prise en compte des incertitudes de mesure

-S
suivant norme la norme AFNOR NF EN ISO 14253-1:2013 iqu
es
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c

Figure 8.2 Pratique constatée


rvo
ola
ch

Par conséquent, l’incertitude de mesure n’est pas considérée dans la pratique


1.s
uh

courante et nous pouvons donc en conclure que les tolérances exprimées sur
les spécifications ont d’ores et déjà les propriétés de la « zone de conformité »
décrite dans la norme AFNOR NF EN ISO 14253-1. Ce constat n’est finalement
pas surprenant. Les tolérances actuelles ont été déterminées par un modèle
dans lequel la réalisation d’entités conformes fonctionnellement est souvent

133
La Smart Metrology

le fruit d’itérations (permettant la mise au point) à partir desquelles les


bornes de spécification Tinf et Tsup ont été revues pour s’adapter à des valeurs
mesurées considérées comme « seul juge de paix ». Vue sous cet angle,
l’incertitude de mesure se présente comme une fabuleuse opportunité pour
tendre vers une expression plus rationnelle du besoin fonctionnel. Dès lors,
un véritable potentiel d’amélioration de la productivité industrielle, non encore
exploité, s’offre à ceux qui sauront remettre en cause cette croyance en des
mesures justes. En effet, des spécifications plus larges (c’est-à-dire « au juste
nécessaire ») permettent d’envisager non seulement des coûts de production
plus faibles mais aussi de moindres consommations, tant en énergie qu’en
matières premières, pour un futur plus « durable ».

C’est ainsi que certaines contraintes « matérielles » existant il y a encore


quelques années peuvent aujourd’hui être remises en cause pour tendre vers
l’objectif d’efficience que les Smart Métrologues partagent. Les outils de la
statistique, du raisonnement probabiliste, de l’étude de la fiabilité des systèmes
(qui impose de prendre en compte l’aléa qui existe en tout domaine) et demain,
du big data, peuvent être utilisés dans ce but. La technologie, et notamment
la puissance de calcul des ordinateurs, nous en donne l’opportunité.

34
88
5:8
89
28
8.2 Du tolérancement « au pire des cas »

02
34
au tolérancement quadratique
at:
ett
-S
es
iqu

Une des contraintes du passé tient en un raisonnement déterministe. Dans


c hn

le monde de la table à dessin, l’allocation des tolérances pour un système


Te
et

mécanique repose sur le principe appelé « chaîne de cotes ». Séduisant lui


es
nc

aussi par sa simplicité, un calcul de tolérance dit « au pire des cas » peut
cie

cependant se révéler néfaste pour la productivité, donc pour le coût de


sS
de

revient d’une pièce et nous allons rapidement comprendre pourquoi.


lté
cu

Imaginons le cas simple suivant : nous voulons agencer quatre cubes dans
:Fa

une boîte rectangulaire. La tolérance de la longueur de la boîte nous est


om
x.c

imposée. Elle est fixée à 0,1 mm. Les quatre cubes ayant la même difficulté
rvo

de réalisation, l’allocation de tolérance se fera en donnant la même tolérance


ola
ch

de fabrication à chacun d’eux, soit par calcul :


1.s
uh

Jamais trop prudent à ses propres yeux, le concepteur se réservera


souvent en plus une petite marge de sécurité « au cas où » et donnera

134
De l’inutilité apparente de l’incertitude de mesure

souvent une spécification de 0,02 mm, voire 0,015 mm à chacun des cubes.
Cette stratégie est dite « au pire des cas » car elle prévoit que quatre cubes
en cote maximale et quatre cubes en cote minimale puissent répondre
à l’exigence, c’est-à-dire se loger ensemble dans la boîte.

Or, nous l’avons vu précédemment, il est probable que la production des


cubes suive une loi de probabilité de type « normale », ce qui implique,
pour un processus de fabrication maîtrisé, que la probabilité de produire
aux extrêmes (petit ou grand cube) est faible, voire très faible. En tenant
compte de cette propriété, l’allocation des tolérances pour les cubes devient
très différente. Comme pour les erreurs de mesure produites par chacun des
facteurs d’incertitude au moment d’une mesure, ce ne sont pas les étendues
qui s’additionnent mais leurs variances. En supposant une fabrication
sans décentrage et en considérant que la tolérance est proportionnelle
à la variance, la relation entre la tolérance de la boîte et celle des cubes s’écrit
alors quadratiquement :

34
88
5:8
soit :

89
28
02
34
at:
Contrairement à l’intuition du déterministe, quatre cubes produits selon

ett
-S
un processus de fabrication sans décentrage et de tolérance individuelle es
iqu

de 0,05 mm peuvent entrer dans une boîte de tolérance 0,1 mm. Ce simple
c hn

exemple permet de comprendre deux choses :


Te
et
es

►► l’allocation de tolérance est souvent conceptuellement trop sévère.


nc
cie

On passe ici d’une tolérance calculée de 0,015 mm (au pire des cas)
sS

à 0,05 mm (approche quadratique), soit une exigence trois fois moins forte
de
lté

pour le même besoin ;


cu
:Fa

►► avec une telle approche, l’incertitude de mesure est souvent très


om
x.c

largement « intégrée » dans le besoin exprimé, comme le laissait supposer


rvo
ola

la discussion précédente autour des zones de conformité de la norme


ch

AFNOR NF EN ISO 14253-1.


1.s
uh

Pour être utilisée, cette relation suppose une contrainte fondamentale


imposant que le processus de fabrication soit centré. Ceci induit une contrainte
quant au management de l’information entre fabrication et conception que
le tolérancement « au pire des cas » n’impose pas : ce que l’on gagne

135
La Smart Metrology

d’un côté, il faut donc le payer d’un autre mais pour des gains qui s’avèrent
non négligeables au final185.

Cet exemple du domaine mécanique a le mérite d’être simple et compré-


hensible par tout le monde. Ce mode de raisonnement « au pire
des cas » n’est pas exclusif à la mécanique, il est même fréquent dans tous
les domaines. Nous n’avons pas naturellement « l’intuition probabiliste »
pour résoudre les problèmes qui nous sont soumis. L’habitude de voir
les choses comme le concepteur les voit sur sa planche à dessin, les règles
telles que celle du « dixième186 » et beaucoup d’autres vérités empiriques
ont construit un monde dans lequel les tolérances exigées sont souvent
trop sévères pour assurer le besoin fonctionnel. De nos jours, les moyens
de calcul disponibles permettent d’envisager les choses sous un angle très
différent. Dans l’exemple ci-dessus, nous avons considéré un cas théorique
simple pour illustrer l’approche probabiliste. Souvent, les cas pratiques sont
plus complexes mais la philosophie probabiliste reste toujours la même.
Elle consiste à définir les « positions » des lois de probabilité de chaque
constituant d’un ensemble pour que cet ensemble remplisse la fonction à
laquelle il est destiné. Par ailleurs, et puisque le risque « zéro » n’existe pas,

34
88
il convient également d’évaluer le risque de défaillance et, dans la mesure

5:8
89
du possible, de l’optimiser en agissant sur les « positions » des constituants.

28
02
34
Pour illustrer ce propos, considérons l’exemple du bouchon de stylo.

at:
ett
Dans le raisonnement « au pire des cas », le concepteur exige que tous
-S
les bouchons soient « plus grands » que tous les stylos (voir la figure 8.3). es
iqu

Dans une vision probabiliste, il s’agira de positionner la loi de probabilité des


c hn

bouchons par rapport à la loi de probabilité des stylos en faisant en sorte


Te
et

d’optimiser le nombre de cas de défaillance, à savoir des bouchons, soit trop


es
nc

grands, soit trop petits pour les stylos qu’ils rencontreront (voir également
cie
sS

la figure 8.3).
de
lté

Dans l’approche probabiliste, tout type de lois de probabilité peut évidemment


cu
:Fa

être considéré. La simulation numérique, notamment, permet de traiter


om

les cas les plus complexes.


x.c
rvo
ola
ch

185 Nous verrons dans le prochain chapitre (chapitre 9 « La Smart Metrology au service du
1.s

pilotage des procédés ») consacré à la maîtrise des procédés de fabrication en quoi une
uh

approche probabiliste du tolérancement peut, là encore, remettre en cause certaines


pratiques.
186 Il était d’usage, dans le domaine mécanique, de préconiser l’utilisation d’un instrument
dont la quantification est égale au plus au dixième de la tolérance à vérifier. Cette règle a
souvent inspiré des pratiques dans des domaines plus récents tels que la pharmaceutique,
l’électronique, la biologie médicale, etc.

136
De l’inutilité apparente de l’incertitude de mesure

Si les exemples précédents sont tous les deux pris dans le domaine
mécanique, l’approche probabiliste ne lui est pas réservée. Tous les procédés
sont concernés par les phénomènes aléatoires et peuvent être dimensionnés
par une approche probabiliste187.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es

Figure 8.3 Tolérancement au « pire des cas » (en haut) et « probabiliste » (en bas)
nc
cie
sS
de
lté

8.3 La probable surperformance


cu
:Fa
om

des procédés industriels


x.c
rvo
ola

La non prise en compte des incertitudes de mesure a probablement eu aussi


ch
1.s

quelques conséquences dans la mise au point des équipements industriels


uh

qui constituent l’outil de production en tout domaine. Nous avons beaucoup

187 Le lecteur pourra par exemple lire l’article suivant qui traite du dimensionnement probabiliste
des caractéristiques métrologiques de micropipettes chez un leader mondial dans la
production de vaccins : www.deltamu.fr/Publications/TelechargerArticlePublication/21

137
La Smart Metrology

insisté précédemment – et nous insisterons encore – sur le fait qu’une mesure


n’est pas le reflet de la réalité mais la somme de ladite réalité et d’une erreur
de mesure : .

Puisque l’action de concevoir et de mettre au point un centre d’usinage,


une enceinte climatique ou une presse à injecter impose de faire de
nombreuses mesures d’entités produites par l’équipement, on obtient,
du fait de la relation précédente, la formule suivante :

Par conséquent et même si l’équipement était parfait, il apparaîtrait tout


de même comme « dispersant » du fait des mesures. On peut imaginer que
les efforts de mise au point, et notamment l’intelligence qu’il a fallu déve-
lopper pour diminuer les variations – apparentes – des équipements,
ont permis de concevoir des matériels plus performants qu’il n’y paraît.
Assez souvent en effet, le processus de mesure disperse plus que le procédé
de fabrication. Dans ces cas-là, on peut conclure que les équipements

34
88
de production sont plus performants que les processus de mesure qui les

5:8
89
suivent.

28
02
34
Par exemple, sur l’étude des micropipettes évoquée précédemment,

at:
ett
nous avions pu démontrer que les erreurs observées lors de leur étalon-
nage provenaient très majoritairement de l’effet « opérateur ». Si, dans des -S
es
iqu

conditions d’étalonnage, il n’est pas vraiment possible de « voir » les erreurs


c hn
Te

des micropipettes, on peut facilement imaginer que leurs fabricants ont


et

rencontré les mêmes phénomènes et ont, par conséquent, passé beaucoup


es
nc

de temps à améliorer la technologie de fabrication de ces micropipettes


cie
sS

sans finalement observer le fruit de leurs travaux. En effet, fort de la


de

relation sur les variances précédentes et en supposant une production


lté
cu

de micropipettes parfaites, ils verront toujours, expérimentalement :


:Fa
om

.
x.c
rvo
ola

Nous avons pu observer une réalité similaire lors d’une comparaison


ch

interlaboratoires portant sur la mesure de pièces mécaniques de


1.s
uh

très haute qualité à l’aide de machines à mesurer tridimensionnelles.


Dans cette comparaison, une incertitude de mesure expérimentale de l’ordre
de ± 0,01 mm a été observée pour la mesure d’alésages de tolérance H5,
soit 0,006 mm de tolérance pour cette gamme de diamètre.

138
De l’inutilité apparente de l’incertitude de mesure

Cette incertitude a été évaluée à partir de valeurs obtenues par une quin-
zaine de laboratoires habitués à mesurer des pièces de provenance très
différentes. Après un temps de discussion autour des incertitudes (comment
peut-on vérifier une tolérance de 0,006 mm avec une incertitude de ± 0,01 mm
sans que cela pose de problème ?), l’idée a été de s’intéresser aux moyennes
générales obtenues sur les nombreux alésages qui avaient été mesurés par
les laboratoires. Il est apparu que toutes les moyennes étaient quasiment
au nominal, c’est-à-dire au milieu de la tolérance. Sachant que ces moyennes
estiment la valeur « vraie » des alésages (car elles proviennent de plusieurs
mesures toutes indépendantes), le procédé de fabrication ne pouvait être
que beaucoup plus performant que le processus de mesure.

Ces cas ne sont pas exceptionnels et chaque Smart Métrologue, comme Élodie,
pourra le constater par lui-même. Une bonne compréhension des propriétés
des erreurs de mesure et l’observation de quelques dizaines d’échan-
tillons d’une production suffisent souvent à conclure… Pour faire simple,
et de manière caricaturale, si l’écart-type estimé à partir de trente entités

34
88
différentes est comparable à celui obtenu en mesurant trente fois une même

5:8
89
entité par le même processus de mesure (test de Fisher), alors cet écart-type

28
02
représente principalement la variabilité du processus de mesure.

34
at:
ett
Ce qui est fait est fait ! Nous n’avions peut-être pas besoin d’équipements
aussi performants que ceux disponibles aujourd’hui mais la combinaison de -S
es
iqu

leur performance avec les évolutions culturelles souhaitables en matière


c hn
Te

de dimensionnement/expression des besoins est indéniablement un atout


et

pour améliorer sensiblement l’efficience des unités de production.


es
nc
cie
sS

Évidemment, cela impose de modifier profondément la façon d’appréhender


de

la réalité et Élodie a un rôle important à jouer dans cette mutation inexorable.


lté
cu

La métrologie n’a en effet pas encore réellement été exploitée dans le cadre
:Fa
om

de la performance car son action s’est souvent limitée à « garantir » la confor-


x.c

mité. En pensant que les mesures sont justes, les industriels ont pu com-
rvo
ola

mettre des erreurs coûteuses à une époque où la pérennité du modèle


ch

économique n’était pas à l’ordre du jour. L’optimisation de l’utilisation


1.s
uh

des ressources et la compétition mondiale imposent une refonte importante


de notre système de pensée. La métrologie doit faire partie de cette
(r)évolution et le métrologue, en devenant smart, en sera l’un des acteurs
incontournables.

139
La Smart Metrology

8.4 Quelques mots sur les conséquences


des incertitudes
en Recherche et développement
Nous ne pouvons pas terminer ce chapitre sur l’apparente inutilité des
incertitudes de mesure sans parler de la R&D. Et qui mieux qu’un prix Nobel
de physique pour aborder ce thème ? Dans son livre Devenez sorciers,
devenez savants188, dont Henri Broch est coauteur, Georges Charpak
écrit : « Or, il faut rappeler que l’incertitude sur une donnée est toute aussi
importante que la donnée elle-même puisqu’elle décide de la fiabilité que l’on
peut accorder à cette dernière et, par voie de conséquence, de la fiabilité
à accorder à la théorie reposant sur ce résultat […] » En interpellant ainsi
ses pairs, Georges Charpak souligne que la question de la fiabilité de
la donnée n’est pas forcément toujours au cœur des préoccupations des
chercheurs.
La qualité des mesures est pourtant centrale pour ces derniers. Combien de
chemins ont-ils été abandonnés car les mesures ne semblaient pas confirmer

34
88
un quelconque potentiel ? Au contraire, combien de voies ont-elles été

5:8
89
suivies alors qu’elles ne menaient à rien ? Enfin, combien d’hypothèses ont-

28
02
elles été retenues sans tenir compte de leur fiabilité et des actions inutiles,

34
at:
voire néfastes, entreprises à tort ? Non seulement l’incertitude de mesure,

ett
-S
lorsqu’elle n’est pas considérée, peut augmenter le fameux « time to market189 »
es
mais elle peut également priver l’entreprise de potentiels d’innovation.
iqu
hn

La mesure est au cœur des décisions et la R&D n’est pas épargnée par cette
c
Te

réalité. La simple observation de l’utilisation des méthodes d’estimation de


et
es

modèles standards (moindre carré par exemple) met en évidence que seules
nc
cie

les valeurs des paramètres sont exploitées et les incertitudes associées


sS

négligées. Si tout le monde sait désormais afficher l’équation d’un modèle


de
lté

sur un graphe Excel, qui va jusqu’à utiliser la matrice de covariances pour


cu
:Fa

donner les incertitudes sur les paramètres du modèle ?


om
x.c

Nous vivons dans un monde où la confiance dans la mesure est prégnante.


rvo

Cette confiance, nécessaire en certains domaines tels que l’aéronautique


ola
ch

par exemple, nous a conduit à développer, souvent inconsciemment, des


1.s
uh

188 Odile Jacob, 2003.


189 Temps de mise au point, donc de mise sur le marché, d’un nouveau service ou produit.
Ce temps est précieux car le moindre retard sur la concurrence peut avoir des
conséquences désastreuses pour l’entreprise. Pour les brevets notamment, seul le premier
est récompensé…

140
De l’inutilité apparente de l’incertitude de mesure

stratégies « de contournement ». Ces stratégies ont l’avantage de donner


des résultats concluants (les avions volent !) mais ils sont rarement optimaux.
Nous venons de le voir, elles ont conduit à des spécifications probablement
trop exigeantes. L’heure n’étant plus à la sur-qualité, mais au juste nécessaire,
la Smart Metrology peut s’imposer comme l’un des principaux outils de
l’usine du futur. Avec un tel objectif, Élodie a un avenir que les étalonneurs
en entreprise d’aujourd’hui devraient suffisamment envier pour devenir eux-
mêmes les acteurs de leur propre (r)évolution.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

141
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
chn
iqu
es
-S
ett
at:
34
02
28
89
5:8
88
34
9
La Smart Metrology
au service du pilotage
des procédés

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te

Fabriquer « conforme » et du « premier coup » sont probablement les objec-


et

tifs partagés par la totalité des unités de production. Lorsque les productions
es
nc

ne concernent que quelques unités, la mesure de chacune, que ce soit


cie
sS

pendant la production (réglage) ou lors de la réception (conformité),


de

est envisageable. En revanche, dans le cas des productions en grandes


lté
cu

séries (ou en grands volumes), chaque entité ne peut pas être mesurée190
:Fa
om

et toute une méthodologie s’est développée autour de la problématique


x.c

qu’est la Maîtrise statistique des procédés (MSP191). Ces outils reposent sur
rvo
ola

une analyse statistique de « films de production » : il s’agit de comprendre


ch
1.s

la population parente à partir de quelques échantillons, de s’assurer que


uh

190 Ce constat se révèle de moins en moins vrai. Nous verrons, au chapitre 11 (« La Smart
Metrology : métrologie des décisions ») que la possibilité de plus en plus fréquente
de mesurer « en ligne » toute une production offre de nouvelles opportunités en termes de
gains de productivité.
191 Ou Statistical process control (SPC) en anglais.
La Smart Metrology

ladite population est compatible avec les spécifications clients (ou faire
en sorte qu’elle le devienne via des réglages) puis de suivre dans le temps
son évolution de façon à garantir le maintien de la conformité tout au long
du cycle de production. Si le métrologue traditionnel est rarement associé à
la mise en œuvre de la MSP, Élodie a rapidement compris que son expertise,
tant statistique que métrologique, était cruciale pour que cet outil soit exploité
dans les meilleures conditions par son entreprise. Elle a ainsi pu démontrer
que la métrologie ne se limite pas à la gestion d’instruments de mesure.

9.1 Les principes pour juger


de l’aptitude d’un procédé
La MSP procède d’une démarche classique en statistique : modéliser,
quantifier et conclure.

9.1.1 Déterminer la loi de probabilité


de chaque caractéristique

34
des entités produites

88
5:8
par un procédé de production

89
28
02
Le procédé de production, comme tout procédé, ne peut pas produire

34
at:
en permanence rigoureusement la même entité. Là encore, les 5M sont

ett
-S
à l’œuvre et le caractère aléatoire de chacun d’eux entraîne le caractère es
aléatoire du procédé global. De ce fait, chaque caractéristique des entités
iqu
hn

produites se distribue suivant une loi de probabilité qui, lorsqu’elle est connue,
c
Te

permet de déterminer le taux global d’entités « non conformes » que le procédé


et
es

génère par rapport aux spécifications. Tout comme pour les incertitudes
nc
cie

de mesure192, il est fréquemment admis que ces lois de probabilité sont de


sS

type « normales193 », donc entièrement définies par deux paramètres :


de
lté

une moyenne « µ » et un écart-type « σ » pour chaque caractéristique.


cu
:Fa

Évidemment, cette hypothèse mérite d’être systématiquement vérifiée car


om

elle n’est pas toujours vraie. Par exemple, les caractéristiques géométriques
x.c
rvo

des pièces mécaniques (planéité, excentration, défaut de forme, etc.)


ola
ch

ne peuvent pas suivre des lois de probabilité normales, notamment parce


1.s

que les valeurs négatives y sont impossibles. De la même façon, la concen-


uh

tration d’une substance dans une matrice ne peut pas être inférieure à zéro.

192 Qui relèvent du même phénomène 5M, comme nous l’avons vu précédemment.
193 Les causes originelles étant nombreuses et souvent indépendantes (voir le théorème de
la limite centrale).

144
La Smart Metrology au service du pilotage des procédés

Si la normalité n’est pas démontrée (ou admise sur la base d’arguments


recevables), il convient de revoir les stratégies décrites ci-après pour prendre
en compte cet aspect, la philosophie globale n’étant pas remise en cause
parce que la connaissance de la loi n’est utilisée que pour déterminer
une estimation du taux de non conformes.

9.1.2 Déterminer les paramètres des lois de probabilité


Pour chaque caractéristique, les évaluations de « µ » et « σ » passent
par la mesure de différentes entités. Nous l’avons vu, la qualité des estima-
tions est non seulement fonction du nombre d’entités disponibles mais
aussi des erreurs qui se réalisent lors des mesures. Par ailleurs, une loi
de probabilité peut évoluer dans le temps, il est donc d’usage d’évoquer
une aptitude « court terme » pour définir ce que le procédé produit
sur une courte période de temps et une aptitude « long terme » pour décrire
sa performance dans le temps, aptitude qui sera alors généralement moins
favorable. Par ailleurs, un procédé devra être toujours plus surveillé à mesure
que le temps en dégradera la performance, ce qui peut avoir un impact

34
88
économique important. En cela, l’analyse de la variance constitue un outil

5:8
très important. Elle permet en effet d’identifier les facteurs qui, dans le temps,

89
28
dégradent significativement la performance du procédé et d’adapter ainsi

02
34
les stratégies de suivi.

at:
ett
-S
es
9.1.3 Conclure sur l’aptitude du procédé de production
iqu
c hn
Te

La MSP vise à s’assurer que l’aptitude d’un procédé194, déclaré apte à


et
es

produire suivant les exigences à un instant donné, se maintient dans


nc
cie

le temps. Cette notion d’aptitude s’appuie sur deux considérations distinctes


sS
de

que le métrologue connaît bien : la justesse (phénomène prévisible) et


lté

la fidélité (caractère aléatoire du procédé).


cu
:Fa
om

Dans un premier temps, il s’agit de s’assurer que le procédé est potentiellement


x.c

apte à produire des entités dont les caractéristiques sont conformes aux
rvo
ola

exigences, c’est-à-dire des entités dont les caractéristiques se trouvent


ch
1.s
uh

194 L’aptitude d’un procédé doit s’entendre comme la capacité à assurer la conformité de toutes
les caractéristiques importantes pour la fonctionnalité des entités que le procédé permet
de produire. On supposera dans le texte, par souci de simplification, que ces caractéris-
tiques sont indépendantes. Cette condition n’est évidemment pas toujours respectée,
par exemple dans les pièces moulées. Dans ces cas-là, il faut utiliser des techniques
multivariées.

145
La Smart Metrology

principalement dans les tolérances. Un premier indicateur195 d’aptitude


traditionnel, dit « capabilité potentielle », s’intéresse donc à la dispersion du
procédé pour chaque caractéristique désignée par Cp pour la dispersion
« court terme » ou Pp pour la dispersion « long terme ». Cp et Pp sont en
fait de simples ratios entre la tolérance à réaliser et l’écart-type « σ »
du procédé qui est, selon le cas, celui à court ou à long terme. Un tel ratio est

donné par la formule suivante : .

Dans cette formule, TSup et TInf représentent les limites de l’intervalle


de tolérance. Une estimation « naturelle » mais biaisée de Cp (ou Pp)

est généralement donnée par : .

L’exigence d’aptitude pour chaque caractéristique se traduit par une inégalité


du type où est un objectif choisi (nombre généralement
supérieur ou égal à 1) qui, en toute rigueur, devrait faire l’objet d’un accord
entre client et fournisseur.

34
88
En effet, une exigence sur ce coefficient induit un coût de production car

5:8
89
la diminution de la dispersion naturelle d’un procédé de fabrication impose

28
02
souvent de lourds moyens tels qu’une ambiance maîtrisée, la constance dans

34
at:
les lots « matière », des outils de production plus performants, etc.

ett
-S
es
Dans la littérature, on trouve fréquemment l’exigence suivante :
iqu
hn

, ce qui signifie que l’écart-type du procédé doit être inférieur


c
Te

au huitième de la tolérance. En imaginant un procédé parfaitement centré


et
es

pour une caractéristique (c’est-à-dire m = v où v est ici le centre de l’intervalle


nc
cie

de tolérance), la condition signifie qu’un procédé produit, pour la


sS
de

caractéristique concernée et sous hypothèse de normalité, environ 64 entités


lté

« non conformes » par million d’entités réalisées (64 ppm).


cu
:Fa
om

Néanmoins, la dispersion du procédé ne suffit pas à connaître le taux de


x.c
rvo

non conforme puisqu’il est également impacté par le décentrage éventuel


ola

du procédé. La figure 9.1 ci-après montre deux situations très différentes


ch
1.s

construites à partir d’un même Cp.


uh

195 Il existe énormément de littérature sur le sujet et de nombreux indicateurs plus ou moins
dérivés de ceux présentés ici peuvent être imaginés. Le but de cet ouvrage n’étant pas de
faire un point exhaustif sur la MSP, nous nous limiterons aux indicateurs les plus usuels.

146
La Smart Metrology au service du pilotage des procédés

34
88
5:8
89
28
02
34
at:
ett
Figure 9.1 Distributions d’une même caractéristique
-S
pour deux procédés différemment décentrés es
iqu
c hn
Te

La MSP prévoit donc de considérer le décentrage via un second indicateur dit


et

« capabilité potentielle corrigée (du décentrage) », appelé Cpk (ou Ppk pour
es
nc

le décentrage « long terme »). Il est donné par la formule suivante :


cie
sS
de
lté
cu
:Fa
om
x.c
rvo

où et est le décentrage.
ola
ch
1.s
uh

Comme précédemment, est une esti-

mation biaisée de Cpk. Dans cette formule, représente la moyenne


(estimation de « µ ») et s l’écart-type empirique (estimation de « σ »),
tous deux obtenus à partir d’un échantillon.

147
La Smart Metrology

Il est très souvent possible d’agir sur le décentrage via les réglages
du procédé. Si la dispersion naturelle impose de lourds moyens pour être
maîtrisée, le décentrage impose, quant à lui, de maîtriser les réglages,
ce qui suppose une métrologie performante. En complément de l’inégalité
précédente portant sur Cp, l’aptitude est jugée par l’inégalité
où l’objectif Cpkobj est choisi (nombre tel que ). Cet objectif
a également des impacts économiques et devrait être théoriquement fixé
par un accord client-fournisseur. En admettant la possibilité de régler
le procédé pour maintenir l’inégalité précédente, un important Cpkobj
imposera une stratégie de surveillance du procédé plus stricte et donc
des échantillonnages fréquents avec des effectifs d’échantillonnage plus
importants.

9.1.4 Une approche simple et efficiente


S’il est légitime de s’intéresser aux taux de non conforme généré par
un procédé, ce taux est principalement conditionné par le décentrage et

34
la dispersion relativisés à l’intervalle de tolérance. Aussi, en définissant

88
5:8
le rayon de tolérance par , il paraît naturel de considérer

89
28
02
les deux indicateurs suivants qui représentent les pourcentages de décen-

34
at:
trage et de dispersion par rapport à ce rayon : et .

ett
-S
es
iqu

Ces indicateurs ont une interprétation immédiate tout en donnant plus


hn

simplement les mêmes informations que le Cp et Cpk puisque :


c
Te
et
es

et .
nc
cie
sS
de

Par ailleurs, ils permettent de définir très facilement des notions différentes
lté

d’aptitudes en définissant des zones dans un graphique élémentaire


cu
:Fa

(voir figure 9.2). Sur ce graphique, chaque point représente l’aptitude d’un
om

procédé à réaliser une caractéristique avec %d en abscisse et %s en


x.c
rvo

ordonnée. Dire qu’un procédé fabrique une caractéristique conforme,


ola
ch

c’est affirmer que le point correspondant à cette caractéristique se trouve


1.s
uh

dans une zone à choisir. Chaque zone définit un ensemble de situations


où le procédé est considéré apte si toutes les caractéristiques des entités
s’y trouvent. Par exemple, sur la figure 9.3 ci-dessous, les quatre caractéris-
tiques sont conformes selon la zone définie par le triangle mais seulement
trois le sont selon la zone délimitée par le rectangle.

148
La Smart Metrology au service du pilotage des procédés

Figure 9.2 Juger de l’aptitude en décentrage et dispersion pour Cpkobj = 1

La zone à l’intérieur du triangle correspond à l’inégalité


et conditionne, sous hypothèse de normalité, un taux de non conforme
de moins de 196
.

Lorsqu’on ajoute à l’inégalité , l’inégalité 197


, la zone

34
88
graphique correspondante est l’intérieur d’un trapèze délimité par le triangle

5:8
89
et la ligne supérieure du rectangle. Ce jugement de conformité souffre

28
02
de la même limite que celui qui est exprimé lorsque la zone triangulaire

34
est choisie. Ainsi, une caractéristique peut être jugée conforme en étant

at:
ett
très décentrée et très peu variable.
-S
es
iqu

La zone à l’intérieur du rectangle évite cette limite en traduisant la formule


c hn

de bon sens suivante : « être apte, c’est être peu décentré et peu
Te
et

variable ». Cette évidence ne se traduit pas par les inégalités précédentes


es
nc
cie

( et ), mais par : .
sS
de
lté
cu
:Fa

Le taux de non conforme d’une caractéristique normalement distribuée


om
x.c

se situant dans cette zone rectangulaire (avec et ) est


rvo

inférieur à 1 350 ppm198.


ola
ch
1.s

196 Cette situation correspond à un point situé sur le sommet du triangle. Attention à ne pas
uh

confondre cette situation avec la condition précédente qui conduisait à 64 ppm et qui
correspondait à %δ = 0 et Cp = 4/3, c’est-à-dire %σ = 1/4.
197 Sur le graphique, l’inégalité « Cpobj inférieure à Cp » se traduit par une zone en dessous
d’une ligne horizontale.
198 Ce taux de « non conforme » maximal correspond à l’un ou l’autre des coins supérieurs
du rectangle.

149
La Smart Metrology

Le choix d’une zone de conformité autre que rectangulaire pour maîtriser


simultanément décentrage et variabilité d’un procédé dépend de propriétés
qu’il nous est impossible de développer ici. Mentionnons cependant que
lorsque l’on choisit une zone délimitée par le plus grand demi-cercle inclus
dans le triangle, on parle de conformité inertielle199.
Un autre avantage de ces indicateurs est que leurs estimations corres-
pondent, à une transformation linéaire près, à l’estimation d’un écart-type
ou à l’estimation d’une moyenne. Leurs propriétés sont donc bien connues :
et .

Ce graphique permet donc de juger de l’aptitude de façon élémentaire en


visualisant la position de points correspondant aux caractéristiques d’entités
produites par un procédé. Il est également possible de faire apparaître
des zones de doute liées à la qualité des estimations.
De même, la première limite d’une déclaration d’aptitude traditionnelle tient
au fait qu’un procédé déclaré apte peut produire des entités dont certaines
caractéristiques sont très proches de l’une ou l’autre des deux limites

34
de tolérance TSup et TInf (si sa dispersion est très faible). Dans l’exemple

88
5:8
où il s’agit de faire entrer quatre cubes dans une boîte, un procédé qui ne

89
produirait que des cubes de longueur en limite maximale de tolérance (TSup)

28
02
34
engendrerait probablement des efforts pouvant mettre en péril la fiabilité

at:
du système. À l’inverse, si la longueur des cubes est proche de TInf, le jeu

ett
-S
induit par les cubes dans la boîte peut s’avérer trop important, compromettant es
iqu

alors la fonctionnalité et la durée de vie de l’assemblage. Dans ces deux cas


c hn

et même si le procédé est jugé apte, le risque encouru par la condition


Te
et

limite est une situation que devraient détester les industriels (voir figure 9.3
es
nc

ci-après).
cie
sS
de

La seconde limite d’une déclaration d’aptitude traditionnelle est liée à


lté
cu

l’allocation quadratique des tolérances. En effet, un assemblage d’éléments


:Fa

trop décentrés peut s’avérer impossible. De plus, les spécifications d’un


om
x.c

élément ne précisent quasiment jamais la stratégie retenue pour les définir


rvo

(« au pire des cas » ou « quadratique »). La déclaration d’aptitude peut alors


ola
ch

induire des problèmes de fonctionnalité puisque les éléments peuvent être


1.s
uh

déclarés conformes individuellement sans pour autant que leur assemblage


le soit.

199 Ce type de conformité est lié au « tolérancement inertiel » développé par Maurice Pillet,
professeur des universités au département Qualité, logistique industrielle et organisation
de l’IUT d’Annecy et directeur de recherche au laboratoire Symme de l’Université de Savoie.

150
La Smart Metrology au service du pilotage des procédés

Figure 9.3 L’assemblage de cubes : la juste spécification

La déclaration d’aptitude traditionnelle autorisant le fait d’être aux limites


de tolérance oublie un principe pourtant élémentaire quand il devrait être
une règle d’or qui stipule que la position la plus favorable d’une production est

34
88
la valeur au centre de la tolérance .

5:8
89
28
02
9.2 Les cartes de contrôle

34
at:
ett
-S
Les cartes de contrôle sont le principal outil de la MSP. Elles se construisent es
iqu

progressivement. Elles ont pour objectif de vérifier que le procédé est maî-
hn

trisé dans le temps, c’est-à-dire qu’il continue à produire des entités


c
Te
et

conformes. Il convient évidemment de s’intéresser à la conformité par rap-


es
nc

port aux deux paramètres principaux que sont le centrage et la dispersion.


cie
sS

Pour réaliser ce suivi, des prélèvements à partir desquels sont calculés une
de

moyenne et un écart-type (ou une étendue) sont réalisés périodiquement.


lté
cu

À chaque prélèvement, la valeur des paramètres est non seulement comparée


:Fa
om

à des limites de surveillance200 mais leur comportement temporel est égale-


x.c

ment analysé. Il s’agit finalement de vérifier que : soit la dispersion apparente


rvo
ola
ch

200 Les limites de surveillance sont calculées en considérant :


1.s
uh

– l’effectif de chaque prélèvement (souvent fixe) ;


– la dispersion moyenne (écart-type ou étendue) pour la carte qui analyse les dispersions ;
– la valeur nominale ou la moyenne des moyennes antérieures pour la carte qui analyse
les moyennes.
Les coefficients utilisés sont issus des niveaux de confiance choisis et des propriétés
statistiques des estimateurs (moyenne, écart-type et étendue).

151
La Smart Metrology

des paramètres est due à l’effet échantillonnage, soit le procédé connaît une
évolution (dérive) monotone ou accidentelle. Les règles d’alertes sont défi-
nies par des tests statistiques qui servent à attirer l’attention sur un phéno-
mène jugé possiblement douteux, ce qui ne signifie pas que le phénomène
est réellement douteux. D’ailleurs, Élodie ne perd jamais de vue que,
lorsqu’elle doute, elle peut toujours augmenter le nombre d’observations
avant de statuer.
La littérature regorge de documentations sur la question des cartes
de contrôle, des plus simples (cartes de la moyenne ou de l’étendue)
aux plus compliquées. Néanmoins, Élodie s’est souvent interrogée sur le fait
que cette littérature fait peu de cas de la métrologie. En effet, et cela est
rarement rappelé, l’évolution d’une moyenne ou d’un écart-type de séries
mesurées périodiquement peut signifier deux choses :
1. soit le procédé de production évolue effectivement et des actions
pertinentes doivent être engagées pour maintenir la conformité des en-
tités produites ;
2. soit l’évolution observée, puisqu’elle est obtenue par des mesures,
est due en réalité à l’évolution du processus de mesure lui-même.

34
88
Des actions pertinentes pour le remettre à niveau doivent alors être

5:8
engagées. Ce cas est facilement révélé sous réserve d’avoir mis le

89
28
processus de mesure sous surveillance également, c’est-à-dire de l’avoir

02
34
confronté à des entités stables et transcrit les résultats sur… une carte

at:
ett
de contrôle. Pour prendre de bonnes décisions, Élodie n’a pas hésité à
mettre sous surveillance ses processus de mesure les plus sensibles, -S
es
iqu

ce qui est ici bien plus efficient que des étalonnages périodiques.
c hn
Te

On peut toujours craindre que les deux processus (le procédé de fabrication
et
es

et le processus de mesure qui le surveille) évoluent tous les deux en


nc
cie

sens inverse, ce qui masquerait leurs propres évolutions. Lorsque les


sS

deux processus sont indépendants, cette probabilité se calcule et reste


de
lté

suffisamment faible pour être très souvent acceptable. En revanche,


cu
:Fa

si le procédé de fabrication est piloté (c’est-à-dire réglé) à partir des mesures


om

qui le surveillent, ce problème devient probable, voire très probable,


x.c
rvo

et doit être considéré avec attention. Dans ce cas, une carte de contrôle
ola

du processus de mesure devient impérative…


ch
1.s
uh

Ces cartes de contrôle sont l’occasion de collecter des informations


sur le procédé et doivent être considérées dans leur ensemble.
Chaque échantillonnage n’est pas seulement l’occasion de faire une photo
du procédé. Il permet également d’ajouter de la connaissance aux infor-
mations antérieurement disponibles.

152
La Smart Metrology au service du pilotage des procédés

En effet, si un échantillon est considéré comme appartenant à une population


parente représentative du procédé, il vient s’ajouter aux données antérieures
et améliore ainsi la connaissance de la moyenne et de la dispersion réelles
du procédé. Ce simple constat statistique permet de valoriser toute
l’information disponible, nous verrons à quel point l’information antérieure
peut permettre d’améliorer les décisions…

9.3 La Smart Metrology


et la Maîtrise statistique des processus
Les études de capabilité des procédés de fabrication sont soumises à
deux difficultés : la qualité des mesures et l’échantillonnage.

9.3.1 La qualité des mesures


C’est notamment sur ce point qu’Élodie peut faire valoir sa compétence car

34
elle sait qu’il ne suffit pas d’étalonner des instruments de mesure (pratique

88
5:8
commune) pour que les mesures soient suffisamment fiables et que,

89
par conséquent, les conclusions de l’étude d’aptitude soient pertinentes.

28
02
34
at:
Alors que l’hypothèse suivant laquelle lesdites incertitudes de mesure

ett
-S
peuvent être négligées est souvent formulée (et ordinairement de façon im- es
plicite), il est impératif de s’en assurer avant toute étude d’aptitude. Il convient
iqu
hn

donc de vérifier préalablement que le processus de mesure est lui-même


c
Te

apte à déterminer l’aptitude du procédé de fabrication.


et
es
nc

Cette notion « d’aptitude du processus de mesure » est largement évoquée


cie
sS

dans l’industrie, notamment dans l’industrie automobile. Les constructeurs


de

automobiles ont produit différents documents qui traitent de cette question


lté
cu

délicate. Le référentiel qui semble faire consensus de nos jours est le MSA 201.
:Fa
om

Élodie, comme tous les Smart Métrologues, en a fait un temps son livre
x.c

de chevet tant les informations qu’il contient sont importantes et pertinentes.


rvo
ola

Il s’agit d’une approche différente mais parfaitement compatible avec


ch
1.s

celle proposée par le GUM pour l’évaluation des incertitudes de mesure.


uh

La connaissance acquise par l’une des deux renforce celle proposée


par l’autre.

201 Voir le paragraphe « L’effet inter-opérateurs » au 4.2.1 « Les «ingrédients» incontournables ».

153
La Smart Metrology

Dans sa version la plus simple, le MSA propose d’étudier les effets liés
aux moyens de mesure (notée EV pour Equipment variation – variation de
l’équipement) et aux opérateurs (notés AV pour Appraiser variation – variation
due à l’opérateur), effets qui sont souvent majoritaires notamment dans
le monde mécanique. En pratique, il convient donc de s’assurer que
la dispersion uc du processus de mesure est négligeable devant la dispersion
du procédé de fabrication. Par ailleurs, il convient de vérifier préalablement
que le processus de mesure ne présente pas de biais, biais qui aurait
un impact sur l’évaluation de la moyenne du procédé de fabrication,
donc sur le taux de non conforme que le procédé produit202.

Dans le MSA, le caractère négligeable de la part aléatoire de l’incertitude


de mesure est démontré lorsque le ratio est au maximum égal à 30 %.
Cette exigence, lorsqu’elle n’est pas contractuellement imposée par un
client, peut être revue en fonction de chaque contexte. La norme AFNOR
NF ISO 22514-7203 donne des informations importantes sur la qualité
des estimateurs Cp et Cpk en fonction de ce ratio.
Le MSA va beaucoup plus loin que cette première considération.

34
88
En conséquence, nous ne pouvons qu’inciter le lecteur à l’étudier afin d’appro-

5:8
89
fondir cet aspect de la Smart Metrology appliquée au pilotage des procédés.

28
02
34
9.3.2 L’échantillonnage (effectif et représentativité)

at:
ett
Comme dans toutes les études statistiques, le prélèvement des entités -S
es
iqu

(échantillonnage) à partir desquelles les calculs et les analyses seront


c hn
Te

conduits est extrêmement important. Les précautions à prendre concernant


et

l’effectif d’échantillon, les valeurs « aberrantes » et l’analyse de la normalité


es
nc

ont été discutées dans la Partie I (« La métrologie ? C’est quoi, au juste ? »).
cie
sS
de

Ce qui est essentiel ici est la prise en compte des facteurs de dispersion
lté
cu

du procédé selon l’approche court ou long terme. Les procédés de fabri-


:Fa
om

cation dispersent du fait des variations des grandeurs d’influence.


x.c
rvo

202 Il nous faut ici préciser que les caractères L.O. et H.O. de certains facteurs des incertitudes
ola
ch

de mesure doivent être considérés (bien que le MSA ne l’évoque pas) :


1.s

– dans l’évaluation des incertitudes sur l’évaluation de la dispersion du procédé (à laquelle


uh

« s’ajoute » la dispersion H.O. des incertitudes de mesure, par exemple le « EV ») ;


– dans l’incertitude sur la connaissance de la moyenne du procédé (qui est impactée par
les composantes L.O., par exemple le « AV », notamment si l’évaluation de la moyenne
repose sur des mesures réalisées par le même opérateur).
203 NF ISO 22514-7:2013, Méthodes statistiques dans la gestion de processus – Aptitude
et performance – Partie 7 : aptitude des processus de mesure.

154
La Smart Metrology au service du pilotage des procédés

Leurs dispersions sont évaluées à partir d’entités prélevées de temps


en temps. Ces prélèvements, pour être représentatifs de la réalité, doivent
avoir lieu de telle sorte que les grandeurs d’influence aient effectivement eu
l’opportunité d’exprimer leur propre variation. Par exemple, des prélèvements
qui sont réalisés pour un même lot de matière première (en imaginant que
la matière première soit influente) ne permettent pas d’estimer l’impact
de la variation due à la matière première. Ce qui est vrai pour la matière
première l’est pour toute autre grandeur d’influence. Chacune doit donc avoir
eu l’opportunité de varier au fil des échantillonnages pour que la dispersion
estimée du procédé soit représentative de sa réalité à long terme.

Pour les études d’aptitude, on comprend donc bien la nécessité de distinguer


l’aptitude « court terme » et l’aptitude « long terme ». Les calculs des
indicateurs sont identiques mais la façon de prélever les échantillons s’étale
ou non dans le temps. Les indicateurs Cp et Cpk sont en général utilisés
lors de la mise en service d’un procédé. Lorsque les données s’accumulent
dans le temps, les indicateurs deviennent souvent Pp et Ppk pour exprimer
une aptitude « long terme ».

34
88
Même s’il est probable que l’évolution technologique permettra, dans un

5:8
89
avenir proche, de mesurer 100 % d’une production, il est encore difficile

28
02
et coûteux de le faire de nos jours. L’inférence statistique204 s’impose donc

34
at:
encore pour connaître (étude d’aptitude) et maintenir (cartes de contrôle)

ett
la qualité intrinsèque d’un procédé de fabrication. Le concept d’aptitude d’un
-S
es
processus de mesure, c’est-à-dire sa capacité à quantifier l’aptitude
iqu
hn

d’un procédé de fabrication, est une clé essentielle. Il répond à une question
c
Te

simple : l’incertitude de mesure est-elle compatible (c’est-à-dire négligeable)


et
es

avec les propriétés du procédé de fabrication ? Cette aptitude nécessite


nc
cie

une expertise métrologique et une connaissance approfondie des propriétés


sS

statistiques des phénomènes, dans leur dimension prévisible ou aléatoire,


de
lté

tant pour la mesure que pour la production.


cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

204 Rappelons que l’inférence statistique est la science qui permet d’estimer certaines quantités
d’une population parente à partir d’un échantillon de cette dernière.

155
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
chn
iqu
es
-S
ett
at:
34
02
28
89
5:8
88
34
10
La Smart Metrology :
métrologie des décisions

34
88
5:8
89
28
02
La métrologie est souvent associée à la qualité, c’est-à-dire, pour la plupart

34
at:
des professionnels, à la conformité qui assure cette qualité. Malheureu-

ett
sement, la qualité se vérifie plus qu’elle ne s’obtient et il est frappant
-S
es
de constater que le « contrôle » reste encore l’un des rôles principaux
iqu
hn

du métrologue : contrôler pour savoir si un produit ou un service est conforme


c
Te

est, selon le cas, soit inutile s’il est effectivement conforme, soit trop tardif s’il
et
es

est effectivement non conforme. Cette triste vision du métier de métrologue,


nc
cie

élevant ainsi son art au comble de l’inutilité, devrait induire une prise
sS

de conscience de la profession quant aux enjeux d’une métrologie efficiente


de
lté

et bien moins morose… Et il y a matière à réflexion !


cu
:Fa

Comme nous l’avons vu, la capacité à donner satisfaction aux clients avec
om
x.c

un taux maîtrisé de non-conformité c’est, concrètement, garantir le risque


rvo

que le client peut accepter, ce dernier devant alors « faire avec » les entités
ola
ch

non conformes. Pour le décisionnaire, ce « risque client » est défini comme


1.s
uh

le risque d’accepter une entité qui est en réalité non conforme205.

205 Il ne faut pas confondre cette dénomination de « risque client » avec un risque décisionnel
qui apparaît dans un test statistique (risque alpha ou bêta) et qui peut avoir parfois le même
nom. Pour un test, les risques sont des probabilités conditionnelles, alors qu’ici, il s’agit de
la probabilité d’une conjonction : mesurer conforme et être non conforme.
La Smart Metrology

Dans le cadre de la MSP, nous avons introduit le concept d’aptitude


d’un processus de mesure nécessaire à la détermination des paramètres
(centrage et dispersion) des procédés. Pourtant, il n’est pas rare de voir ce
concept utilisé pour parler de l’aptitude d’un processus de mesure à déclarer
la conformité d’une entité. Toutefois, avec un tel glissement conceptuel,
nous sommes très loin de répondre aux véritables – et seules – questions
importantes.

10.1 La norme AFNOR NF E 02-204 :


capabilité des processus de mesure
et « partage » des risques
La norme AFNOR NF E02-204:1993 (Vérification des tolérances des
produits – Déclaration de conformité) a été retirée de la collection AFNOR
lorsque la norme NF EN ISO 14253-1:2013 (dont nous avons vu les
principes au chapitre 8 « De l’inutilité apparente de l’incertitude de mesure »)
a été éditée. Elle introduisait le concept de « capabilité d’un processus

34
88
de mesure » en donnant la règle suivante :

5:8
89
28
02
34
at:
La norme précisait alors que le coefficient C devait être contractuel,

ett
-S
c’est-à-dire convenu entre les parties. Elle définissait également des règles es
iqu

de décision qui devaient, elles aussi, faire l’objet d’un accord (voir figure 10.1).
c hn
Te

Tolérance exprimée
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo

Figure 10.1 Zone de décision suivant la norme NF E 02-204


ola
ch
1.s

On peut remarquer la similitude des normes AFNOR NF E 02-204 et


uh

NF EN ISO 14253-1. Toutes les deux définissent en effet des zones à partir
de la tolérance exprimée et de l’incertitude de mesure. Néanmoins, la norme
NF E 02-204 préconisait la règle suivante : « Dans le cas d’absence d’un
accord entre client et fournisseur, le produit sera déclaré conforme dans la

158
La Smart Metrology : métrologie des décisions

partie de la zone 3 comprise dans la zone de tolérance, et non conforme


dans l’autre partie. Les risques sont alors partagés […] » tandis que la norme
NF EN ISO 14253-1 exclut la zone 3 pour déclarer la conformité, ou la non-
conformité, sans accord contraire (voir figure 10.2). Finalement, la norme
NF E 02-204 permettait simplement d’utiliser la tolérance exprimée sans
tenir compte de l’incertitude, sous réserve que celle-ci respecte le coef-
ficient C choisi…
Ainsi, dans un monde idéal, le concepteur définit la tolérance fonctionnelle
pour chaque caractéristique d’une entité puis impose un coefficient
de capabilité C pour réécrire sa spécification en zone 1 de la norme
NF E 02-204206 (voir également figure 10.2). Dès lors, les industriels peuvent
se contenter de la valeur mesurée pour statuer sur la conformité puisque
l’incertitude maximale de mesure (d’un processus de mesure apte) a été
soustraite à la tolérance fonctionnelle. Aussi, la seule personne (dans ce
monde idéal que nous décrivons) qui connaît le coefficient à retenir est
celle-là même qui a exprimé le besoin. Par conséquent, ce coefficient devrait
être exprimé dans la spécification pour éviter toute discussion stérile.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

Figure 10.2 Définition de la tolérance exprimée (zone de conformité)


à partir d’une tolérance fonctionnelle et d’un coefficient de capabilité contractuel

206 Ou « zone de conformité » de la norme AFNOR NF EN ISO 14253-1. Pour le concepteur,


l’évolution de la norme n’a donc pas d’impact…

159
La Smart Metrology

Malheureusement, dans le monde réel, les spécifications ne précisent


pas ce coefficient qui n’existe d’ailleurs sans doute même pas dans la
tête des concepteurs, ces derniers pensant souvent à tort que la mesure
est « juste207 ». Sensible sur ce point, la norme NF E 02-204 précisait que
lorsque ce coefficient n’était pas connu, on pouvait prendre la valeur « 8 ».
Cette valeur, presque tout droit « sortie du chapeau », ne répond cependant
pas à la seule question intéressante : quel risque le client accepte-t-il208
avec le coefficient choisi ?
En évoquant, dans les règles de décision, le partage des risques (« […]
les risques sont alors partagés […] »), la norme introduit un autre risque
non encore évoqué, le « risque fournisseur » dont la dénomination peut
porter à confusion. Dans les faits, c’est en effet toujours le client qui pâtit
des deux risques, qu’il soit nommé client ou fournisseur. Par définition,
le risque fournisseur représente le risque de refuser une entité conforme.
Ce risque génère, dans l’industrie mécanique par exemple, des rebuts qui
sont en réalité fonctionnels ou des retouches inutiles. Or, le fournisseur se
doit d’intégrer le coût des rebuts (et des retouches) dans le prix de revient
des entités conformes, sous peine de ne plus être en mesure de maintenir

34
la rentabilité nécessaire à la poursuite de son activité et de devoir fermer

88
5:8
ses portes.

89
28
02
Il en est de même dans tous les domaines. Par exemple, dans celui de la santé,

34
le risque lié au résultat obtenu lors d’une analyse de sang est de deux ordres :

at:
ett
soit cette analyse a conclu que vous n’êtes pas malade, alors que vous
-S
es
l’êtes en réalité et vous risquez donc de ne pas suivre le traitement adéquat
iqu
hn

(vous êtes alors peut-être en danger) ; soit elle a déterminé que vous étiez
c
Te

malade alors vous ne l’êtes pas et un traitement inutile vous est prescrit,
et
es

traitement dont les effets directs, voire secondaires, peuvent vous être
nc
cie

préjudiciables.
sS
de

Dans le domaine des vérifications métrologiques, qui nous est plus familier,
lté

le risque est également à la seule charge du client. En effet, soit le labora-


cu
:Fa

toire déclare conforme un instrument qui ne l’est pas et l’entreprise prend un


om
x.c
rvo

207 En revanche, ils sont souvent enclins à prendre des sécurités.


ola

208 Cette question est très perturbante dans notre société. La réponse évidente, lorsque la
ch
1.s

question est ainsi posée, est systématiquement : aucun. Malheureusement, le risque zéro
uh

n’existe pas : par exemple, en prenant votre voiture, vous prenez le risque d’un accident,
il est faible et c’est tant mieux, mais il n’est pas nul. De même, en voyageant en avion,
vous prenez aussi un risque car certains s’écrasent parfois. Par ailleurs, le terme
de risque n’est, quant à lui, même pas évoqué dans la norme NF EN ISO 14253-1. Il est en
revanche à la base du FD ISO/TR 14253-6:2013 (Spécification géométrique des produits
(GPS) – Vérification par la mesure des pièces et des équipements de mesure – Partie 6 :
règles de décision générales pour l’acceptation ou le rejet d’instruments et de pièces).

160
La Smart Metrology : métrologie des décisions

risque industriel en l’utilisant en toute bonne foi ; soit le laboratoire déclare


non conforme un instrument en réalité conforme et il engage alors le client
dans des démarches de maintenance/réparation (voire de remplacement
du moyen), de diminution de la périodicité mais aussi dans une étude d’impact
(obligatoire dans les référentiels qualité) souvent coûteuse, et dans ce cas
inutile.
Or, si comme la réalité du quotidien industriel invite à le penser, les tolérances
exprimées de nos jours sont déjà les zones de conformité pour obtenir
la fonctionnalité209, les règles proposées par défaut, tant dans la norme
NF E 02-204 que dans la norme NF EN ISO 14253-1, sont erronées.
Les situations qui y sont décrites ne semblent finalement avantager que
le client qui ne prend apparemment aucun risque… direct. Tout ceci n’est
cependant rassurant que d’un point de vue intellectuel puisque, comme
nous venons de l’expliquer, c’est au final lui, le client, qui assume l’intégralité
du risque fournisseur.

10.2 La norme AFNOR NF ISO/CEI GUIDE 98-4 :

34
incertitude de mesure et conformité

88
5:8
89
28
En 2012, le JCGM a produit un document210 immédiatement repris sous

02
34
forme d’une norme ISO211, norme ISO elle-même rapidement traduite en

at:
ett
français pour rejoindre dès 2013 la collection française sous la référence
NF ISO/CEI GUIDE 98-4:2013 (Incertitude de mesure – Partie 4 : rôle de -S
es
iqu

l’incertitude de mesure dans l’évaluation de la conformité).


c hn
Te

Nous pourrions résumer l’approche proposée par cette norme par la


et
es

phrase de bon sens suivante : le risque client n’existe que si l’entité


nc
cie

mesurée est effectivement non conforme. Par conséquent, à la question


sS

« Dans le cas de la figure 10.3212, quel est le risque que l’entité soit réelle-
de
lté

ment non conforme ? », la réponse est que la probabilité que la valeur


cu
:Fa

vraie soit non conforme n’est pas de 50 % !


om
x.c
rvo

209 Sous condition, souvent implicite, d’une aptitude donnée du processus de mesure.
ola

210 JCGM 106:2012, Évaluation des données de mesure – Le rôle de l’incertitude de mesure
ch

dans l’évaluation de la conformité (lien : http://www.bipm.org/outils/common/documents/


1.s

jcgm/JCGM_106_2012_E.pdf).
uh

211 ISO/CEI GUIDE 98-4:2012, Incertitude de mesure – Partie 4 : rôle de l’incertitude de mesure
dans l’évaluation de la conformité.
212 Comme nous l’avons déjà dit, cette figure entretient une grave confusion puisque la valeur
mesurée n’est qu’une réalisation d’une loi de probabilité, elle n’a donc aucune raison de
correspondre à la moyenne pour une loi normale par exemple. C’est pourtant ce que suggère
cette figure trop souvent présente dans les manuels et les normes.

161
La Smart Metrology

Tolsup

Tolérance exprimée

Valeur mesurée
Figure 10.3 Situation d’une mesure sur la limite de tolérance supérieure

Dans la réponse intuitive de 50 %, qui semble « de bon sens », on oublie


simplement que la probabilité de conclure à la non-conformité de l’entité
considérée ne peut être supérieure à la probabilité que le procédé qui
l’a produite génère des entités non conformes. Or, quel procédé pourrait

34
88
encore de nous jours se permettre de produire plus de 50 % d’entités

5:8
89
non conformes ?

28
02
En fait, la question du risque client (voir figure 10.4) doit être posée de

34
at:
la façon suivante : « Quel est le risque de mesurer «conforme» une entité

ett
-S
réellement «non conforme» ? » es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s
uh

Figure 10.4 Situation du risque client

162
La Smart Metrology : métrologie des décisions

De plus, au regard du client, cette question doit se poser pour toutes les
entités potentiellement non conformes, c’est-à-dire toutes les entités que le
procédé, compte tenu de ses propriétés, peut générer en dehors des limites
de tolérances TInf et TSup. L’expression mathématique des risques client et
fournisseur est complexe213. Il est néanmoins fondamental de comprendre
que leurs évaluations imposent de connaître la loi de probabilité du procédé.
Définir les risques liés aux mesures grâce à une description et à une quan-
tification des procédés de l’entreprise est pour Élodie, sans conteste,
une tâche intéressante et pertinente.
La simulation numérique, outre le fait qu’elle permet de « voir » concrètement
les phénomènes, peut également contribuer à expliquer et évaluer les risques.
Il suffit en effet de simuler des valeurs possibles du procédé, de statuer
sur la conformité de l’entité générée (par simple comparaison à TInf et TSup
de la valeur générée), de générer une erreur de mesure, de l’additionner
à la valeur du procédé tirée précédemment puis de comparer cette somme
à TInf et TSup. En recommençant cette séquence un grand nombre de fois,
il est aisé de calculer les ratios correspondants aux définitions des risques
client et fournisseur.

34
88
La seule valeur de C ne suffit donc pas à répondre à la question mais Élodie

5:8
89
a tout de même pu mettre ce concept d’aptitude à profit. Dans son idée,

28
02
et puisque l’entreprise satisfait ses clients alors que les spécifications sont

34
at:
vérifiées sans tenir compte des incertitudes de mesure, les processus

ett
-S
de mesure mis en œuvre sont donc, a priori, « suffisamment capables ». es
En interrogeant les opérateurs sur les types de moyen de mesure214 qu’ils
iqu
hn

utilisent pour vérifier telle ou telle spécification, elle a pu en déduire le


c
Te

coefficient de capabilité implicite CImplicite en œuvre dans son entreprise.


et
es

Elle le calcule de la façon suivante :


nc
cie
sS
de
lté
cu
:Fa

En pratiquant ainsi, Élodie fait preuve d’ingéniosité parce qu’elle ne


om

bouleverse pas les habitudes de l’entreprise215. Elle répond aux exigences


x.c
rvo
ola

213 On pourra consulter à ce propos l’article intitulé « Control of customer and supplier risks
ch

by the guardband method », Leblond Laurent et Pou Jean-Michel, in International Journal


1.s

of Metrology and Quality Engineering, 2015, Vol. 6, n° 2, 205. Le lecteur intéressé pourra
uh

télécharger gratuitement, sur le site de la société Delta Mu, un fichier Excel qui permet
de faire les calculs par simulation numérique (lien : http://www.deltamu.fr/Publications).
214 Le moyen de mesure induit un processus de mesure qui exprime une incertitude moyenne
qu’il est possible d’évaluer.
215 Il serait en effet malvenu qu’encore jeune, elle se permette de mettre en cause la compétence
des plus anciens généralement sûrs de leur fait et difficiles à contredire !

163
La Smart Metrology

de ses auditeurs à partir d’une solution normalisée, mais surtout, elle a pu


découvrir un potentiel d’amélioration important. En effet, alors que la norme
AFNOR NF E 02-204 proposait un rapport de 8, elle a pu constater que le
coefficient ainsi estimé était souvent proche de 1, voire même parfois inférieur.
Son expérience la menant souvent à l’idée que la tolérance fonctionnelle est
probablement beaucoup plus large que la tolérance exprimée, ce résultat ne
l’a pas surprise et elle n’a pas cédé une seconde à la panique. En travaillant
sur une meilleure expression du besoin, elle sait qu’elle finira par convaincre
ses responsables que les tolérances peuvent être augmentées sans grand
risque et contribuer ainsi à l’amélioration de la performance de son entreprise.

10.3 Les « bandes de garde » :


réconcilier les concepts d’aptitude
et de risque
Nous venons de voir que le concept de « coefficient de capabilité C » ne peut
pas décrire, à lui seul, le risque client. En revanche, lorsqu’il est fixé et que

34
88
les propriétés de la loi de probabilité du procédé sont connues, il est possible

5:8
89
de calculer le risque client sous-jacent.

28
02
34
Ce concept s’étant installé dans notre culture, il n’est pas rare qu’il soit

at:
ett
imposé par un cahier des charges ou une commande. Il n’est cependant
pas rare non plus qu’il ne soit pas raisonnablement tenable, ce qui peut -S
es
iqu

mettre les différentes parties prenantes dans une situation délicate.


c hn

La norme AFNOR NF ISO/CEI GUIDE 98-4 propose, dans ce cas, de définir


Te
et

des bandes de garde permettant de corriger la tolérance exprimée pour


es
nc

tenir compte d’une incertitude qui serait trop grande par rapport à l’incertitude
cie
sS

maximale autorisée par le « coefficient de capabilité » imposé. Il s’agit alors


de

de résoudre une équation dans laquelle SLInf et SLSup représentent les


lté
cu

nouvelles limites d’acceptation pour la mesure des entités, limites calculées


:Fa

de manière à assurer un risque client correspondant au respect de C


om
x.c

(voir la figure 10.5 ci-après). Ces bandes de garde sont en général bien
rvo
ola

moins importantes que celles obtenues en retranchant l’incertitude de mesure.


ch
1.s

L’idée de résoudre une telle équation complexe216 n’est pas pour rassurer
uh

les métrologues, qu’ils soient ou non Smart ! Néanmoins, à l’époque où tout

216 Pour ne pas « effrayer » ceux des métrologues non aguerris aux expressions mathématiques
compliquées, nous avons décidé de ne pas écrire explicitement la formule des risques client
et fournisseur. Elle est aisément accessible sur le Web.

164
La Smart Metrology : métrologie des décisions

le monde possède un ordinateur, cette question est subsidiaire et les logiciels


de métrologie devront évoluer pour proposer ce type de fonctionnalités
indispensables à la mise en œuvre d’une métrologie raisonnée.

Bande de garde Bande de garde

SLinf SLsup

Zone d’acceptation

Tolérance exprimée Tsup


Tinf
Figure 10.5 Concept des bandes de garde

Si cette méthode semble de prime abord très intéressante pour régler le


problème des incertitudes de mesure trop grandes, elle induit un inconvénient
majeur incontournable. En effet, lorsqu’elles réduisent la tolérance exprimée,
les bandes de garde font augmenter considérablement le risque fournisseur,

34
lequel est également assumé par le client (voir figure 10.6).

88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa

Figure 10.6 Évolution comparée des risques client et fournisseur


om

en fonction du facteur de garde217


x.c
rvo
ola

Ce concept de bande de garde est donc à manier avec précaution, il peut en


ch
1.s

effet très vite aller à l’encontre de celui qui pense en tirer parti puisqu’il peut
uh

217 Le facteur de garde se définit comme le ratio : 1 - (SLsup - SLinf)/(Tsup - Tinf). Ainsi, l’intervalle
[Tinf,Tsup] contient [SLinf,SLsup] lorsque le facteur de garde est positif et est inclus dans
[SLinf,SLsup] lorsque le facteur de garde est négatif. Le graphique est construit pour un
procédé de loi normale de moyenne 0 et d’écart-type 1, une incertitude-type de mesure de
0,2 et une tolérance de Tsup – Tinf = 4

165
La Smart Metrology

induire plus de non-conformités déclarées que nécessaire. Dit autrement,


une mauvaise utilisation des bandes de garde peut engendrer plus de
problèmes qu’en résoudre. En revanche, elles se révèlent particulièrement
efficaces dès lors que le praticien a bien compris que les risques client et
fournisseur étaient finalement les deux faces d’une même médaille, celle que
paye le client à son fournisseur.
Même s’il est rarement possible de quantifier exactement l’impact financier,
direct et indirect, des risques client et fournisseur, il est souvent possible
de les pondérer l’un par rapport à l’autre. Dans l’industrie aéronautique par
exemple, et notamment pour les fournitures critiques, chacun comprend que
le risque client (utiliser un matériel en réalité défectueux) a potentiellement
des conséquences sans commune mesure (le crash de l’avion) avec le
surcoût d’une retouche inutile (risque fournisseur). Le risque client doit ici être
pondéré de façon bien plus grande que le risque fournisseur. En revanche,
dans des domaines à moins forte valeur ajoutée, où les marges sont parfois
extrêmement faibles, il est possible de statuer sur une pondération inverse.
Par exemple, un lot de bouchons en plastique qui s’avère non conforme peut
être réutilisé (après broyage) sans risque majeur. Dans ce cas, le fournisseur

34
peut choisir de diminuer le poids du risque de réglages et de rebuts inutiles

88
5:8
devant celui de non-fonctionnalité. Et parce que choisir, c’est renoncer,

89
28
les consensus sont nécessaires pour disposer de stratégies efficientes.

02
34
Les missions de la métrologie contribuent alors au processus de décision.

at:
ett
Définir les pondérations des risques client et fournisseur que l’entreprise
est prête à assumer constitue l’une des plus valorisantes de ces missions -S
es
iqu

parce qu’elle participe à la construction de choix maîtrisés dont l’entreprise


c hn

ne peut s’affranchir.
Te
et
es

Élodie, en tant que métrologue avertie, a bien compris tout l’intérêt de ces
nc
cie

bandes de garde qui considèrent les deux risques. En appliquant, lorsqu’elle


sS

le peut, le concept de « périodicité conditionnelle » s’appuyant sur les C2I218,


de
lté

elle cherche à détecter les instruments possiblement non conformes avant


cu
:Fa

même de les envoyer en vérification. Elle évite ainsi de trop subir un risque
om

fournisseur sur lequel elle n’a pas prise. En effet, lorsque le laboratoire
x.c
rvo

déclare non conforme un instrument qui ne l’est pas en réalité, elle n’a en
ola

général pas d’autres choix que d’accepter un ajustage ou une réparation.


ch
1.s

Il lui est notamment difficile, économiquement, de faire revenir l’instrument


uh

pour l’envoyer dans un autre laboratoire qui confirmera (ou non) l’avis initial.
Elle subirait alors tous les coûts liés à cette opération dont l’indisponibilité

218 Voir le chapitre 7 « La gestion d’un parc d’instruments de mesure, ou comment gagner
le temps nécessaire pour faire de la Smart Metrology ».

166
La Smart Metrology : métrologie des décisions

du moyen. Le risque client, en revanche, ne l’effraie pas. Les outils de sur-


veillance performants qu’elle a mis en place lui permettent effectivement de
détecter l’anomalie lorsqu’elle se produit, contrairement au laboratoire qui
risque de ne pas voir cette dernière. D’ailleurs, plus proche de l’utilisation
réelle de l’instrument que le laboratoire, Élodie a finalement plus de chances
que lui, et avant lui, de détecter un problème.

10.4 Risque global, risque spécifique


En plus des notions de risques client et fournisseur, la norme AFNOR
NF ISO/CEI GUIDE 98-4 introduit également les concepts de risque global
et de risque spécifique.

Jusqu’ici, et sans l’avoir écrit, nous avons traité de ce que la norme appelle
le risque global, c’est-à-dire le taux calculé comme le rapport entre le
nombre de non-conformités vraies non détectées du fait de la mesure et
le nombre d’entités acceptées219. Cela sous-entend donc que nous mesurons
la totalité du lot d’entités. Or, à part quelques cas particuliers220, il est

34
88
rare que les lots soient mesurés à 100 % pour déclarer leur conformité.

5:8
89
Très souvent en revanche, les demandeurs s’intéressent à la conformité

28
02
d’une entité en particulier. C’est le cas notamment, par exemple, du patient

34
qui, en se soumettant à des analyses, souhaite déterminer s’il est malade

at:
ett
ou non. Ce qu’il en est des autres patients ne l’intéresse pas.
-S
es
iqu

Le risque associé à la décision concernant une entité particulière est qualifié


c hn

de risque spécifique par la norme. Il s’agit de déterminer, conditionnellement


Te
et

à une mesure observée, quelle est la probabilité que la valeur vraie (qui n’est
es
nc

pas la valeur mesurée) soit ou non dans les tolérances exprimées.


cie
sS

Or, dans bien des cas, l’entité d’intérêt (le patient qui demande à connaître sa
de
lté

glycémie par exemple) est, ainsi que l’erreur de mesure, la réalisation d’une
cu
:Fa

variable aléatoire : ce patient est l’un des patients possibles. Cette variable
om

aléatoire suit une loi dite « a priori » et lorsque l’on connaît la loi du processus
x.c
rvo

de mesure conditionnellement à une valeur vraie envisageable, il est possible


ola
ch

de calculer la loi dite « a posteriori » des valeurs vraies « compatibles »


1.s

avec la mesure réalisée. Ce calcul est une application de la formule dite


uh

219 Ce taux peut être estimé par simulation numérique.


220 Les laboratoires de biologie médicale mesurent tous les patients. De même, les laboratoires
d’étalonnage mesurent tous les instruments de leurs clients. Dans ces deux cas, le risque
global représente bien le taux d’erreur de jugement.

167
La Smart Metrology

de « Bayes ». Dans ce monde dit « bayésien », le principe fondamental est


de réviser une croyance a priori à l’aide des observations à disposition.
À titre pédagogique, considérons la situation suivante où les lois sont
normales221 (voir tableau 10.1).

Tableau 10.1 Situation où les lois sont normales

Moyenne mapriori = 50
A priori
Écart-type sa priori = 1

Biais 0
Loi mesure
Écart-type smes = 1

Dans un tel contexte, si nous obtenons une valeur égale à vmes = 52222 suite
à la mesure, nous pouvons estimer la probabilité des valeurs « vraies »
conditionnellement à cette observation (voir figure 10.7).

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa

Figure 10.7 Révision bayésienne


om
x.c

Si nous ne connaissons rien de la loi a priori, nous ne pouvons rien dire


rvo
ola

de plus sur l’entité mesurée que ce qui est habituellement exprimé par
ch
1.s
uh

221 Pour plus de détails, lire : http://www.lametrologieautrement.com/2015/05/bayes-ou-une-


facon-si-enthousiasmante-de-reconsiderer-les-mesures/
222 Pour obtenir un résultat de mesure égal à vmes = vvraie + emes, plusieurs combinaisons sont
possibles : vmes = 51,8 + 0,2 ou vmes = 51,6 + 0,4 ou… Dès lors, en connaissant la probabilité
des différentes valeurs vraies (loi a priori) et des erreurs de mesure associées (loi mesure),
on peut calculer la « valeur vraie la plus probable » associée à la valeur mesurée 52.

168
La Smart Metrology : métrologie des décisions

un résultat de mesure, c’est-à-dire 52 ± 0,5 à un écart-type. En revanche,


si nous disposons d’une information « a priori » sur les valeurs vraies possibles
(ce qui est souvent le cas), on peut réviser la valeur mesurée pour obtenir
(sous hypothèse de normalité) :
►► la valeur la plus probable sous-jacente : mrévisée = 51,6 (au lieu de 52) ;
►► l’écart-type de la loi « a posteriori » : srévisée = 0,45(au lieu de 0,5).
Mathématiquement, lorsque les lois en présence sont normales et qu’il n’y a
pas de biais de la mesure, la valeur la plus probable mrévisée et l’incertitude-
type associée srévisée sont données par les formules suivantes :

avec

Avec cette nouvelle connaissance de la grandeur d’intérêt, il est possible

34
88
de quantifier la probabilité que la valeur vraie soit ou non au-delà de la

5:8
89
tolérance exprimée. Il est alors possible de répondre, avec un risque maîtrisé,

28
02
à la question du type : ce patient est-il malade ?

34
at:
Dans ce chapitre, nous avons traité de la question des risques liés aux

ett
-S
décisions, pour des lots ou pour des entités. Cette question nous a permis de iqu
es
montrer comment, là encore, la connaissance de l’incertitude est primordiale
hn

mais surtout comment la considérer sous un angle fort différent de l’approche


c
Te
et

traditionnelle. L’inférence bayésienne doit être l’un des objectifs principaux


es

du Smart Métrologue. Si nous avons pu expliquer pourquoi l’incertitude


nc
cie

de mesure n’est pas, de nos jours, une nécessité pour déclarer la conformité,
sS
de

nous venons en revanche de comprendre son utilité pour améliorer


lté
cu

sensiblement, et sans surcoût, la fiabilité d’une valeur mesurée.


:Fa
om
x.c
rvo
ola
ch
1.s
uh

169
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
chn
iqu
es
-S
ett
at:
34
02
28
89
5:8
88
34
11
La Smart Metrology :
métrologie (de l’usine)
du futur

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn

« Do it or die ! » Ce leitmotiv des années 2012-2015, faisant référence au


Te
et

mouvement qui constitue pour certains la troisième révolution industrielle,


es
nc

peut paraître assez angoissant. Ce mouvement, connu sous le nom de big


cie

data, est porté par une capacité de stockage de données colossale, une
sS
de

interconnexion planétaire des systèmes de communication et une puissance


lté
cu

de calcul de plus en plus impressionnante. Ce mantra « big data » prend


:Fa

place, chaque jour un peu plus, dans le quotidien et les esprits de tout
om
x.c

un chacun. La façon d’appréhender de nombreuses questions techniques


rvo
ola

et sociétales s’en trouve profondément bouleversée.


ch
1.s

Bousculant un monde d’hypothèses testées sur la base de quelques


uh

échantillons seulement, ce nouveau paradigme, induit par la technologie


numérique, offre la possibilité de réviser nos croyances en analysant la
presque totalité d’une réalité informationnelle disponible. Par l’expression
« Do it or die ! », les spécialistes signifient que les bouleversements en cours
La Smart Metrology

sont tellement importants que ceux qui manqueront d’intégrer ce nouveau


paradigme seront vite dépassés et disparaîtront du paysage économique.
Les GAFA 223 sont les premiers acteurs et bénéficiaires des possibilités
offertes par ce « déluge de données », ce qui explique – en grande partie –
leur incontestable réussite en ce début de xxie siècle.

La Smart Metrology est-elle concernée par ce mouvement et si oui,


comment ?

11.1 Production industrielle


et marketing commercial :
un (des) point(s) commun(s) ?
En ce début de siècle, le big data a été essentiellement exploité par les fonc-
tions du marketing pour décrypter de plus en plus finement le comportement
des consommateurs de manière à prédire leurs besoins ainsi que leurs
envies et donc favoriser les ventes. Le monde du big data parle donc en

34
88
permanence de clients, de prospects, d’analyse de profils, d’expérience

5:8
89
utilisateur, d’analyse de comportements, etc. Toute l’énergie y est souvent

28
02
focalisée sur le commerce.

34
at:
ett
Si les commerçants ont en effet besoin de comprendre les clients pour mieux
les convaincre, les industriels, eux, ont en revanche besoin de comprendre -S
es
iqu

et de maîtriser le comportement des procédés pour obtenir, aux justes


c hn

coûts, cette perfection du produit qu’ils appellent de leurs vœux. La quête


Te
et

du « zéro défaut » ou l’idée du « bon du premier coup » sont ainsi les


es
nc

challenges quotidiens des fabricants. Comprendre précisément « son


cie
sS

monde », c’est agir de façon adaptée par des décisions justifiées et efficientes.
de

Voilà en résumé le point commun entre commerciaux et producteurs.


lté
cu
:Fa

Dans le commerce, il semble évident que l’âge, le sexe, la catégorie


om
x.c

socioprofessionnelle, la localisation géographique, le temps qu’il fait,


rvo

les centres d’intérêts et les comportements antérieurs sont quelques facteurs


ola
ch

clés pour comprendre les comportements d’achats du client/prospect.


1.s

Pour l’industrie, c’est la connaissance des paramètres d’un procédé permettant


uh

de produire « conforme » qui est l’enjeu principal. Ce qui est révolutionnaire


dans l’approche big data utilisée pour accéder à la connaissance, c’est de

223 Acronyme englobant Google, Amazon, Facebook et Apple.

172
La Smart Metrology : métrologie (de l’usine) du futur

s’appuyer systématiquement sur une certaine exhaustivité des faits224 en


considérant les cas où les choses ont fonctionné comme on l’attendait.
Alors que nous pouvions nous contenter des recettes de type « opinion »,
c’est-à-dire des habitudes (« on a toujours fait comme ça ! »), pour un
business réalisé à partir d’exigences forcément surdimensionnées,
il semble qu’aujourd’hui – par nécessité de survie – le temps où le
« surdimensionnement » était essentiel à l’obtention de bons résultats
soit révolu.
Fortes de cette profonde mutation, les pratiques industrielles subiront très
probablement les mêmes bouleversements que ceux intervenus dans le
monde du marketing et de la vente. L’usine du futur, l’industrie 4.0 ou la smart
factory ne pourront probablement pas fonctionner sans évoluer vers des
solutions big data, c’est-à-dire la collecte, le stockage et surtout l’exploitation
des données. Les industriels pourront ainsi remettre en cause leurs pratiques
empiriques et auront la possibilité d’optimiser leur fonctionnement.
Dans ce « nouveau monde », la métrologie aura un tout autre rôle que celui
qu’elle tient traditionnellement. Il ne s’agira plus de s’assurer de la conformité

34
d’une entité ou d’un instrument de mesure, mais bel et bien de garantir que

88
la donnée (c’est-à-dire la mesure) représente le plus fidèlement possible

5:8
89
la réalité, condition sine qua non pour espérer en tirer de la « valeur ».

28
02
Cette révolution est une réelle opportunité pour une remise en cause des

34
at:
pratiques et tendre vers le « juste nécessaire ». Pour les métrologues,

ett
-S
l’opportunité est ainsi immense de participer à la réussite de leurs entreprises es
dans ce futur inattendu.
iqu
c hn

Alors que le big data se définissait, à ses débuts, par les 3V (volume, variété
Te
et

et vélocité), les précurseurs ont rapidement fini par comprendre, pour l’avoir
es
nc

expérimenté à leurs dépens, qu’il fallait aussi impérativement intégrer un


cie
sS

quatrième V, celui de « véracité ». S’il est intuitif de s’attendre à tirer beaucoup


de

de profits de ce nouvel « or numérique » que sont les données, il est tout


lté
cu

aussi intuitif d’admettre que ces données doivent être impérativement fiables
:Fa
om

pour « accoucher » d’utilisations pertinentes. Or, qui d’autres que le Smart


x.c

Métrologue est le mieux placé pour assurer cette fiabilité ?


rvo
ola

Par la veille technologique qu’elle s’impose et en bonne pratiquante des


ch
1.s

réseaux sociaux, Élodie s’est très vite passionnée pour ces nouveaux
uh

challenges.

224 Les anglo-saxons parlent de « fact driven » pour qualifier ceux qui prennent des décisions
à partir de « faits » en opposition aux « opinion driven », terme qualifiant ceux qui prennent
des décisions sur la base de leurs opinions.

173
La Smart Metrology

11.2 Un aperçu du data mining


(fouille de données) par Élodie
Le but d’une industrie est de (re)produire des objets pour les vendre.
La création de valeur passe donc par des clients qui doivent avoir envie
d’acheter le produit (compétitivité hors coût) au juste prix (compétitivité coût)
et en être satisfait (qualité).
Le plus souvent, chaque produit, une fois imaginé, doit être dessiné (plan
projet), prototypé, validé225 puis industrialisé. Au final, on obtient un ensemble
de « recettes » qui fixent les conditions d’obtention du produit final. Il s’agit
formellement de l’ensemble des plans et des spécifications qui permettent à
la production de réaliser sa mission : produire et surtout, produire conforme.
En effet, toute « non-conformité » (à l’usine comme chez le client) est
génératrice de coûts et d’insatisfactions, ce qui pénalise le produit – voire
l’entreprise – qui risque, si elle ne sait pas se corriger, de finir par disparaître…
Dans ce contexte, le « Graal » se présente comme LA recette qui permet
d’obtenir LE produit dans les meilleures conditions de coûts, de délais et

34
88
de qualité. La première révolution industrielle, avec le charbon comme

5:8
89
source d’énergie , date de 1790. La deuxième révolution naît autour de 1850

28
02
avec l’électricité. Depuis, l’activité industrielle n’a cessé de se développer

34
et de progresser, passant d’ateliers de quelques dizaines de personnes

at:
ett
à des firmes mondiales comptant plusieurs milliers de collaborateurs.
-S
es
Avec l’ouverture des frontières, le terrain de la compétition est désormais
iqu
hn

planétaire et la course à la compétitivité devient un enjeu vital. La troi-


c
Te

sième révolution industrielle226, telle qu’elle commence à se dessiner,


et
es

s’appuie donc en partie (suivant tous les observateurs) sur la capacité


nc
cie

de stockage massif de données et sur l’augmentation considérable des


sS

puissances de calcul que nous avons évoquées.


de
lté

Si l’énergie, la technique et les outils de production ont considérablement


cu
:Fa

évolué depuis 1790, on peut constater (et regretter) que le mode de pensée
om
x.c

qui conditionne nos recettes n’a, quant à lui, que bien peu progressé. Or, il
rvo

existe un important potentiel de compétitivité à développer en remettant en


ola
ch
1.s

225 La phase de validation peut conduire à revoir la conception initiale et ceci, autant de fois que
uh

nécessaire pour obtenir le résultat attendu. Cette mise au point récursive est consommatrice
de temps. Elle impacte non seulement le prix de revient de l’objet mais aussi le « time
to market », ce dernier pouvant remettre en cause la pertinence du produit lui-même.
226 Le concept de troisième révolution industrielle a été popularisé par Jeremy Rifkin. Elle se
traduit par le développement des nouvelles technologies de l’information et de la commu-
nication à partir du milieu du XXe siècle.

174
La Smart Metrology : métrologie (de l’usine) du futur

cause nos recettes d’antan. Nous venons en effet d’un monde « déterministe »
dans lequel le principe « deux et deux font quatre » suffisait à l’action.
La réalité est cependant bien plus « imprévisible ». Nous avons notamment vu
comment la statistique permet d’exploiter le caractère aléatoire des événe-
ments pour une meilleure appréhension de cette réalité. Cette science a
connu un essor important à partir de la seconde moitié du xxe siècle mais
a du mal à pénétrer le quotidien du monde industriel, même si la MSP et le
Six Sigma227 ont connu des fortunes diverses. Bertrand Russell228 résume
assez bien la difficulté quasi existentielle d’accepter le monde probabiliste
lorsqu’il écrit : « Ce que les hommes veulent, en fait, ce n’est pas la
connaissance, c’est la certitude. » La statistique ne propose finalement
que des doutes, des risques et, au final, tout ce qui nous angoisse…
Aussi, l’industrie est restée dans la pratique la plus courante symbolisée
par le principe discutable : « TOUS les bouchons doivent être plus grands
que TOUS les stylos pour que l’ensemble bouchon/stylo fonctionne. »
Les conséquences de cette pensée sont, comme nous l’avons vu, coûteuses,
très coûteuses… Or, en réalité, il suffit qu’un bouchon particulier soit plus
grand, mais pas trop, que le stylo particulier qu’il devra fermer. « Bouchon

34
particulier » et « stylo particulier » doivent être vus ici comme ils sont,

88
5:8
c’est-à-dire des réalisations des procédés industriels qui les produisent…

89
28
02
34
11.2.1 Big data et data mining :

at:
ett
la recherche du « Graal » dans l’hyperespace
-S
es
iqu

Si l’inférence statistique est née du besoin de caractériser une population


c hn
Te

totale sur la base de quelques échantillons pour contourner la question des


et

coûts importants liés à la mesure, la technologie permet de plus en plus de


es
nc

sortir de cette contrainte. Avec les capteurs actuels de toute sorte, filaires,
cie
sS

Bluetooth, Wifi ou autre qui délivrent de l’information en mode quasi-continu


de

sur tous types de paramètres, nous sommes entrés dans l’ère du « 100 %
lté
cu

mesuré » ou, tout du moins, du « 100 % mesurable ». Toutes ces données qui
:Fa
om

deviennent disponibles sont stockables à un coût quasiment dérisoire. Cloud


x.c

(nuage de données) ou non, elles sont donc exploitables et archivables…


rvo
ola

le problème étant alors de les exploiter effectivement. Cette exploitation est


ch
1.s

rendue possible par les outils du data mining (fouille de données).


uh

227 Le Six Sigma désigne une méthode de gestion de projet s’appuyant essentiellement sur
les outils statistiques traditionnels que nous avons décrits.
228 Bertrand Russell (1872-1970) est un mathématicien, logicien, philosophe, épistémologue,
homme politique et moraliste britannique.

175
La Smart Metrology

Prenons un exemple simple pour illustrer l’une des techniques du data mining
dite « hypercube ». Imaginons que nous souhaitions trouver les paramètres
optimaux pour obtenir des plantes d’une longueur supérieure à une limite.
Nous pourrons, dans un premier temps, identifier les facteurs « arrosage »
et « lumière » comme des facteurs importants à considérer. En recueillant
chaque jour, tout au long d’une production, les données relatives aux quantités
de lumière et d’arrosage reçues par chaque plante, il est possible, au moment
de la récolte, d’associer le paramètre « longueur » (grandeur d’intérêt)
aux paramètres influents « arrosage cumulé » et « lumière cumulée ».
Chaque plante peut alors être représentée par un point de coordonnées
(« arrosage cumulé », « lumière cumulée ») dans un simple plan (X ; Y) tel
que présenté sur la figure 11.1. Dans la figure proposée, le point est blanc si
la longueur est supérieure à la limite, noir dans le cas contraire. En déplaçant
un rectangle dans le plan, on peut rechercher une zone dans laquelle ne
se trouvent que des points blancs229. Les côtés du rectangle dans lequel
se trouvent les points blancs donnent les quantités cumulées de lumière et
d’arrosage qui permettent d’obtenir des plantes de longueur au moins égale
à la longueur souhaitée.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo

Figure 11.1 « Hypercube » en deux dimensions


ola
ch
1.s

Imaginons maintenant que nous considérions un troisième facteur influent,


uh

par exemple la quantité d’engrais distribuée. La démarche est rigoureusement


la même si ce n’est que nous ne sommes plus dans un plan mais dans

229 On peut aussi rechercher une zone dans laquelle on trouve un maximum de densité
de points blancs.

176
La Smart Metrology : métrologie (de l’usine) du futur

un espace à trois dimensions. Chaque point a en effet trois coordonnées


(lumière, arrosage et engrais) mais il est toujours noir ou blanc suivant que
la longueur de la plante est inférieure ou supérieure à la limite. Cette nouvelle
coordonnée doit, elle aussi, être explorée. Il nous faut donc maintenant
un parallélépipède pour parcourir l’espace et trouver, comme ci-avant,
une zone ne contenant que des points blancs (voir figure 11.2). Les intervalles
en X, Y et Z du parallélépipède donnent alors « la recette » pour obtenir
les plantes voulues en tenant compte des trois facteurs identifiés.

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et

Figure 11.2 « Hypercube » en trois dimensions


es
nc
cie
sS

En ajoutant un, deux, dix, cent, mille autres facteurs d’influence, on ajoute
de

autant de dimensions à notre espace précédent qui devient alors un


lté
cu

hyperespace230. Pour retrouver les zones de densité maximale en points


:Fa

blancs, nous devons scruter les « n » dimensions de cet hyperespace :


om
x.c

il nous faut donc passer d’un « cube » à ce que l’on nomme un « hypercube ».
rvo
ola
ch

Dans cette nouvelle approche, les données expérimentales sont primordiales


1.s
uh

car ce sont sur elles que repose la recette optimale. Nous constatons que
chaque plante est – ou non – d’une longueur suffisante et nous recherchons
les conditions qui ont fait qu’elles s’avèrent conformes à nos exigences.

230 L’hyperespace est un « espace » qui possède plus de trois dimensions.

177
La Smart Metrology

En conséquence, les mesures doivent être métrologiquement de qualité,


tant pour la longueur finale que pour les différents paramètres. Elles doivent
également impérativement rester comparables dans le temps pour continuer
à être exploitables. Ainsi, et contrairement aux approches précédentes,
la recette n’est pas robuste aux erreurs de mesure. Le Smart Métrologue
doit dès lors s’investir, non plus dans la « qualité » des instruments de
mesure (étalonnage), mais bel et bien dans la qualité des mesures pour que
la technologie (capteurs, stockage et capacité de calculs) serve de façon
optimale la performance de son entreprise. En ajoutant des points (blancs
ou noirs) lors de chaque nouvelle production, ces données améliorent
la connaissance acquise, c’est-à-dire l’a priori. Elles doivent donc être
considérées et il faut s’en donner les moyens, comme un pas de plus
en direction du « Graal ».

Les techniques du data mining231 ont pour objet d’établir, à partir des données
à disposition, des règles prédictives comme dans l’exemple précédent.
La manière d’envisager la construction d’un modèle, objet qui est au cœur
de l’exploitation de la donnée, différencie les approches de la statistique et

34
du data mining. Dans le premier cas, il s’agit d’une construction spécifique

88
a priori (analyse physique par exemple, comme nous avons pu le voir),

5:8
89
les données étant utilisées pour confirmer ou infirmer l’a priori. Dans le

28
02
second cas, il s’agit d’une construction a posteriori dite « à partir des données ».

34
at:
L’objectif est de faire apprendre une correspondance entre données d’entrée

ett
-S
et données de sortie par optimisation d’une « structure adaptative ». Ainsi, es
les données servent à configurer un « modèle universel ». Malheureusement,
iqu
hn

cela entraîne une confusion entre le fait de posséder des données et le fait
c
Te

d’obtenir des données adaptées à une correspondance envisageable.


et
es
nc
cie

La difficulté d’application du data mining réside donc dans la mise au point


sS

d’une telle « structure adaptative » pour qu’elle devienne correctement


de
lté

prédictive. Dans l’exemple de la croissance des plantes précédent, il s’agit


cu
:Fa

de « piloter efficacement » un hypercube dans un hyperespace232 afin de


om

trouver les conditions optimales de réalisation, le fameux « Graal ». Mais


x.c
rvo

pour réussir, il faut également que les données disponibles soient de qualité.
ola

C’est ici une ambition forte de la Smart Metrology pour l’usine du futur.
ch
1.s
uh

231 Le lecteur pourra consulter l’ouvrage de Stéphane Tufféry, Data mining et statistique
décisionnelle, l’intelligence des données (Technip, 2005).
232 Il existe sur le marché quelques solutions informatiques dédiées à cette forme d’analyse.
Nous pouvons par exemple inviter le lecteur à consulter le site de la société Braincube
(lien : http://fr.braincube.com/).

178
La Smart Metrology : métrologie (de l’usine) du futur

11.2.2 Quelques mots sur le machine learning


(apprentissage automatique)
Le machine learning (apprentissage automatique) regroupe des techniques
de data mining qui sont une base fondamentale de l’intelligence artificielle.
Cette pratique a essentiellement pour objet de classifier 233 des données à
l’aide de leurs attributs. S’il est aisé pour tout le monde de tirer une conclusion
pertinente quant au statut de « voyageur » pour une personne qui réunit
les attributs « valise » et « aéroport », il n’est pas si aisé de le faire lorsque les
attributs, et les conclusions possibles, sont très nombreux. Par exemple,
pour une voiture autonome, il est nécessaire de pouvoir agir automatiquement
(et rapidement) à partir d’une multitude d’informations d’origines différentes
qui, prises toutes ensemble, décrivent un contexte dans lequel de nom-
breuses décisions pourraient se justifier sachant que seule la bonne peut,
et doit, être prise.

Dans le monde industriel, le premier sujet de la décision qui vient à l’esprit


tient en la question classique du « conforme/non conforme ». Nous venons
de voir, par exemple, l’application d’une technique qui peut permettre

34
88
(sachant les attributs sur les différents axes de l’hyperespace) de connaître

5:8
89
la probabilité de conformité des entités. Nous pouvons alors concevoir

28
02
un monde industriel dans lequel le contrôle final, à 100 % ou par échantillon-

34
nage, ne porterait que sur des entités douteuses triées à partir d’un

at:
ett
algorithme de machine learning se nourrissant de toutes sortes de données
-S
es
du procédé. Les autres, réputées conformes avec un risque connu, accepté
iqu
hn

et maîtrisé, pourraient être livrées sans contrôle complémentaire.


c
Te
et

Nous retrouvons ici, en quelque sorte, la stratégie des périodicités


es
nc

conditionnelles évoquées dans le cadre de la gestion des instruments.


cie

Ainsi, la question traitée actuellement par la MSP qui impose de prélever


sS
de

des entités pour les mesurer afin de suivre les paramètres du procédé pourra
lté
cu

probablement évoluer vers une approche se limitant à l’analyse complexe


:Fa

des paramètres du procédé pour statuer sur ce qu’il convient de faire,


om
x.c

notamment « laisser faire ou régler ».


rvo
ola

Chacun admettra que s’il devient possible de laisser une voiture nous
ch
1.s

conduire de façon autonome d’un point A à un point B, il sera probablement


uh

rapidement possible de laisser le procédé se gérer lui-même à partir


d’algorithmes de mêmes types.

233 Les classements sont essentiels pour organiser les connaissances et ainsi « donner
du sens ».

179
La Smart Metrology

11.2.3 Big data et Smart Metrology


Quelle que soit la technique utilisée, aujourd’hui ou demain, l’utilisation
des données pour comprendre les phénomènes impose d’ores et déjà une
meilleure fiabilité des mesures. Par ailleurs, chaque mesure a un coût pour
l’entreprise. Elle est le fruit d’un processus et doit être, en tant que tel, fiable
et accessible. Le temps des relevés papier est dépassé et le Smart Métro-
logue le sait. Son métier consiste désormais à enregistrer informatiquement
des données fiables afin d’en permettre l’exploitation, aujourd’hui ou demain,
et aboutir à la qualité requise aux justes coûts234.
Tout au long de cet ouvrage, nous avons décrit différentes techniques utiles
pour réussir une mission passionnante. L’époque des seuls étalonnages
périodiques « aveugles » est ainsi révolue. Nous avons expliqué dans le
chapitre précédent tout l’intérêt de connaître l’a priori lors d’une mesure.
Le big data offre une possibilité inédite pour définir objectivement la loi de
probabilité des procédés, compte tenu du volume d’informations disponibles.
Le Smart Métrologue peut désormais estimer les risques associés aux
décisions mais aussi réviser la valeur mesurée pour obtenir une valeur

34
plus fiable. De plus, une fois l’a priori connu, il est facile d’imaginer des

88
5:8
techniques de surveillance dynamique des processus de mesure afin

89
28
de détecter les éventuelles dérives de ces derniers. Par exemple, il n’y a

02
34
aucune raison, pour un laboratoire de biologie médicale, de constater une

at:
ett
dérive de la moyenne de la glycémie de ses patients dans le temps. Il est
-S
plus probable que cette évolution s’explique par une dérive du processus es
iqu

de mesure. De même, dans un laboratoire d’étalonnage en métrologie


c hn

dimensionnelle, il n’est pas très naturel (pour des raisons physiques) d’avoir
Te
et

une évolution de la moyenne des valeurs mesurées pour des cales étalons de
es
nc

10 mm. L’indépendance des entités (pour la glycémie comme pour la cale) fait
cie
sS

que, logiquement, la moyenne devrait rester stable pour une population aux
de

caractéristiques identiques… Notons qu’au-delà du paramètre « moyenne »,


lté
cu

cette remarque peut s’étendre à la loi de probabilité globale du mesurande.


:Fa
om

Pour finir, il convient d’insister sur la nécessité absolue de garantir la


x.c
rvo

comparabilité – et au minimum la compatibilité – des valeurs mesurées,


ola

notamment en cas de changement de capteurs. Les conséquences de ce


ch
1.s

changement sont aisément traitées grâce aux outils statistiques que nous
uh

avons présentés en première partie du présent ouvrage (voir la partie I

234 Rappelons-le, le pluriel de « aux justes coûts » indique qu’il convient de considérer tous
les impacts d’une production (énergie, matières premières, rejets, etc.) et pas uniquement
un prix de revient classique.

180
La Smart Metrology : métrologie (de l’usine) du futur

« La métrologie ? C’est quoi, au juste ? ») et qui permettent de comparer


deux moyennes et deux dispersions. Le lecteur retiendra ici toute l’importance
de corriger d’éventuelles erreurs de justesse, car l’exigence de comparabilité
l’impose, mais seulement si cette correction est effectivement justifiée.
C’est sur ce dernier constat notamment qu’Élodie se met à rêver 235. Big data
et usine du futur ne sont pas seulement synonymes de traitements de données.
Les technologies actuelles ont ouvert d’autres champs tels que la fabrication
additive, la cobotique236, la transformation de l’économie de la possession
vers l’économie du service, les objets connectés, etc. Ces derniers sont une
avancée majeure pour la Smart Metrology. La possibilité de connecter un
instrument de mesure à un système d’information connaissant l’objectif de
la mesure en cours et son contexte rend possible l’automatisation des calculs
nécessaires à la bonne décision à prendre. Et du rêve à la réalité, il n’y
a parfois qu’un pas… pour le meilleur ou pour le pire237 !

34
88
5:8
89
28
02
34
at:
ett
-S
es
iqu
c hn
Te
et
es
nc
cie
sS
de
lté
cu
:Fa
om
x.c
rvo
ola
ch
1.s

235 « C’est d’ailleurs pour cela qu’elle ne fait pas son boulot », diront certaines mauvaises
uh

langues conservatrices !
236 Technologie à l’interface de la cognitique (science du traitement automatique de la connais-
sance) et du facteur humain, de la biomécanique et de la robotique.
237 On gardera en effet à l’esprit que la volonté de maîtriser le monde devrait être au service
d’une émancipation de l’humanité. Cette volonté ne devrait pas se retourner contre l’Homme
lui-même.

181
uh
1.s
ch
ola
rvo
x.c
om
:Fa
cu
lté
de
sS
cie
nc
es
et
Te
chn
iqu
es
-S
ett
at:
34
02
28
89
5:8
88
34
12
Smart Metrology
et ISO 9001 version 2015

34
88
5:8
Le professeur Deming238, s’il lisait la production actuelle de livres traitant de

89
28
qualité en général et de la performance des entreprises, serait certainement

02
34
heureux de constater que le flambeau de la promotion des statistiques

at:
ett
– pour l’obtention de la qualité au meilleur coût comme il l’a défendu toute
sa vie – a été repris avec force et détermination. Il pourrait cependant -S
es
iqu

s’attrister du fait que les progrès n’ont pas été plus rapides et qu’aujourd’hui
c hn
Te

encore, en 2016, la compréhension et la diffusion des outils statistiques


et

même élémentaires restent encore relativement faibles.


es
nc
cie

Cependant, l’enthousiasme d’Élodie, d’Igor et de quelques autres jeunes


sS

métrologues apporte assurément un certain réconfort à tous ceux qui


de
lté

s’intéressent à la qualité et donc à la mesure des caractéristiques qui


cu
:Fa

la déterminent.
om
x.c

« Certification qualité et métrologie vont de pair », est-il dit plus haut.


rvo

Certes et l’on pourrait remonter plus loin en disant que qualité et mesure
ola
ch

sont intrinsèquement liées. Dans un livre très instructif publié par le ministère
1.s
uh

de l’Industrie en 1995239, on lit : « En Égypte, au xve siècle avant J.-C.,

238 William Edwards Deming (1900-1993) est un statisticien, professeur, auteur et consultant
américain (source : Wikipédia).
239 Petite histoire de la qualité, Crusilleau Martine, Dragomir Radu et Halais Bernard, Ministère
de l’Industrie, SQUALPI, 1995.
La Smart Metrology

afin de garantir la tenue des monuments pharaoniques, la perpendicularité


et la régularité d’un bloc de pierre étaient vérifiées, en présence du tailleur
de pierre, à l’aide d’une corde, ou d’une règle en os, par un inspecteur. »
Un peu plus loin : « Les Phéniciens inventèrent une méthode d’action
corrective à partir d’une "méthode statistique" : ils faisaient couper la main
à ceux qui réalisaient, à plusieurs reprises, des produits non conformes à la
qualité attendue. Cette pratique physique de l’assurance de la qualité s’est
d’ailleurs perpétuée jusqu’au Moyen Âge, et même plus tard pour vérifier
l’étalonnage des instruments de mesure. Ainsi au xive siècle, en Pologne,
la loi imposait de couper un doigt si le "mètre" local était plus court d’un doigt
que l’étalon, voire la main si l’instrument était raccourci de plus de deux doigts.
Au xviie siècle, Colbert, qui en tant que fils de drapier accordait une grande
importance à la fabrication et au commerce des draps, édicta que pour avoir
mis en vente un drap non conforme à ses règlements, la première fois on était
puni d’une amende, à la récidive du pilori, et enfin des galères. »

Voilà peut-être à quelle pédagogie ancienne on doit la réussite de la métro-


logie légale… Plus sérieusement, ces rappels historiques illustrent l’imbrication
intime entre qualité et mesure. Bien plus tard, à la fin des années 1980,

34
88
lorsque les normes ISO 9000 ont été introduites afin d’apporter des garanties

5:8
en matière d’assurance de la qualité (c’est-à-dire d’établissement de relations

89
28
de confiance entre fournisseurs et clients), la mesure a tout naturellement

02
34
pris une place importante dans le référentiel.

at:
ett
-S
Les exigences portant sur le suivi des appareils de mesure (vérification, iqu
es
étalonnage, étiquetage, etc.) ont été rappelées dans les chapitres précédents
hn

mais l’information serait incomplète si nous nous arrêtions à ces seules


c
Te

exigences. En effet, les normes ISO 9000 stipulaient également des


et
es

exigences portant sur la formation des personnes réalisant des activités


nc
cie

de vérification (par exemple, la formation du métrologue), sur la mise à


sS
de

disposition de moyens pour assurer la qualité (par exemple, des moyens


lté

de mesures correspondant aux besoins en termes de mesurage), sur la mise


cu
:Fa

en place de méthodes de contrôle et donc de mesures dans l’environnement


om
x.c

de production (décrites dans des procédures) ainsi que sur l’identification


rvo

et la maîtrise des techniques statistiques nécessaires pour vérifier l’aptitude


ola
ch

des processus de production et des caractéristiques du produit.


1.s
uh

On voit donc que dans le texte de l’ISO 9001:1987240, tous les ingrédients
pour des pratiques métrologiques intelligentes (matériels adaptés, personnes

240 Systèmes qualité – Modèle pour l’assurance de la qualité en conception/développement,


production, installation et soutien après la vente.

184
Smart Metrology et ISO 9001 version 2015

formées, techniques statistiques et procédures validées et établies, mise en


œuvre dans un environnement de travail adapté, etc.) avaient été pensés
et explicités.

Qu’en est-il advenu en pratique dans la vie des entreprises et de leurs


démarches qualité certifiées ISO 9001 ? Nos retours d’expérience, en tant
que professionnels de la métrologie, de l’accompagnement de démarches
qualité ou de l’audit d’entreprises suivant l’ISO 9001, peuvent converger vers
le constat de pratiques privilégiant le facteur « appareil de mesure » parmi
tous les autres facteurs conditionnant la qualité et la pertinence des mesures.
Il semble donc que les entreprises engagées dans des démarches qualité
avec certification ISO 9001 aient, collectivement, surévalué l’importance
des activités de vérification et d’étalonnage des appareils de mesure. Dont
acte ! Il est alors grand temps de remettre les pendules à l’heure !

Il n’aura notamment pas échappé au lecteur que le message des auteurs


va au-delà d’une simple correction et invite à une réflexion profonde sur
le juste besoin, la juste qualité, ainsi que sur les questions cruciales de la
valeur et de l’efficience. Des exemples et des développements bousculant

34
parfois les idées reçues et les certitudes ont été présentés. Nous reviendrons

88
5:8
plus loin sur cette prospective, après avoir développé la part de la métro-

89
28
logie dans le nouveau référentiel ISO 9001:2015241.

02
34
at:
Un grand nombre d’exigences de l’ISO 9001:2015 peuvent aider l’entreprise

ett
-S
à maîtriser sa fonction métrologie au-delà de la seule question des appa- es
reils de mesure. Le nombre des exigences de l’ISO 9001 qui peuvent
iqu
hn

concerner la métrologie dépend de l’étendue d’application de la métrologie


c
Te

dans l’entreprise ou, autrement dit, des types de mesurandes auxquels


et
es

s’intéresse la fonction métrologie de l’entreprise.


nc
cie
sS

Ainsi, même en se limitant aux mesurandes de nature physique, chimique


de

ou biologique (fréquemment rencontrés dans l’industrie) représentant les


lté
cu

caractéristiques des produits finis ou en cours de réalisation par l’entreprise,


:Fa
om

les paragraphes suivants de l’ISO 9001:2015 peuvent être identifiés comme


x.c

pertinents du point de vue de la métrologie :


rvo
ola
ch

►► « 5.3 Rôles, responsabilités et autorités au sein de l’organisme » :


1.s

pour définir le rôle du métrologue avec ses responsabilités et ses attri-


uh

butions dans l’entreprise (voir les exemples au chapitre 6242) ;

241 Également repris dans la collection AFNOR sous la référence NF EN ISO 9001:2015.
242 Les mentions font ici référence au chapitre du présent ouvrage.

185
La Smart Metrology

►► « 6.1 Actions à mettre en œuvre face aux risques et opportunités » :


pour apporter un éclairage de métrologue sur les notions de risques liés
aux produits et aux mesures (voir les exemples aux chapitres 6 et 10) ;
►► « 6.2 Objectifs qualité et planification des actions pour les atteindre » :
pour s’assurer que les objectifs qualité fixés pour les produits, assortis des
tolérances imposées, sont mesurables avec les moyens de l’entreprise
(voir les développements aux chapitres 4 et 5) ;
►► « 7.1.2 Ressources humaines » : pour s’interroger sur le besoin de fonction
métrologie dans l’entreprise (voir au chapitre 6) ;
►► « 7.1.3 Infrastructure » : pour s’interroger sur l’adéquation des infrastructures
(bâtiments, équipements, matériels, logiciels, technologies de l’information
et de la communication, etc.) avec les activités de métrologie à mettre
en œuvre dans l’entreprise (voir les exemples au chapitre 2) ;
►► « 7.1.4 Environnement pour la mise en œuvre des processus » :
pour s’interroger sur les conditions de mise en œuvre des mesures
dans l’entreprise (voir les développements au chapitre 2) ;
►► « 7.1.5 Ressources pour la surveillance et la mesure » : pour définir les

34
besoins de mesure et en déduire les ressources et les équipements

88
adaptés, ainsi que pour définir les méthodes et les techniques permettant

5:8
89
d’assurer la validité des résultats tels que les vérifications, les étalon-

28
02
nages, l’identification, etc. (voir les développements aux chapitres 6 et 7) ;

34
at:
►► « 7.1.6 Connaissances organisationnelles » : pour s’interroger sur les

ett
-S
connaissances et les informations métrologiques particulièrement utiles iqu
es
dans l’entreprise (voir les développements aux chapitres 3 et 4) ;
c hn

►► « 7.2 Compétences » : pour s’interroger, en lien avec la définition


Te
et

des responsabilités, sur les compétences requises dans l’entreprise en


es
nc

matière de métrologie, aux différents niveaux et fonctions de l’entreprise


cie

(voir les développements aux chapitres 1, 6, 9 et 10) ;


sS
de

►► « 7.3 Sensibilisation » : pour s’interroger sur le niveau de sensibilisation utile


lté
cu

dans l’entreprise concernant la métrologie et ses concepts d’incertitude


:Fa
om

et de risque (voir les développements aux chapitres 2 et 9) ;


x.c

►► « 7.5 Informations documentées » : pour aider à définir les règles


rvo
ola

concernant la gestion des informations et documents associés ;


ch
1.s

►► « 8.1 Planification et maîtrise opérationnelle » : pour planifier les étapes


uh

de mesure dans les processus de réalisation des produits ;


►► « 8.2 Exigences relatives aux produits et services » : pour aider à expri-
mer les exigences relatives aux produits et les tolérances clients (voir
les exemples aux chapitres 1, 8 et 9) ;

186
Smart Metrology et ISO 9001 version 2015

►► « 8.3 Conception et développement » : pour s’interroger sur les exi-


gences fonctionnelles et de performance et exprimer leurs traductions
opérationnelles (voir les développements au chapitre 8) ;
►► « 8.4 Maîtrise des processus, produits et services fournis par des pres-
tataires externes » : pour s’interroger sur les exigences et informations
à transmettre aux prestataires y compris les critères d’acceptabilité (voir
les développements au chapitre 9) ;
►► « 8.5 Production et prestation de service » : pour définir et mettre en œuvre
les activités de surveillance et de mesure aux étapes planifiées (voir
les développements au chapitre 9) ;
►► « 8.6 Libération des produits et services » : pour aider à définir les
vérifications et informations à recueillir pour attester que les exigences
relatives aux produits sont satisfaites (voir les développements aux
chapitres 2, 8 et 9) ;
►► « 9.1 Surveillance, mesure, analyse et évaluation » : pour définir les
méthodes et techniques (notamment techniques statistiques) à appliquer
dans l’entreprise et définir l’analyse des résultats associés (voir les
développements aux chapitres 4, 5 et 8).

34
88
5:8
Cette liste d’exigences reformulées de l’ISO 9001:2015 montre comment

89
28
le référentiel peut aider à la mise en place de la fonction métrologie dans

02
l’entreprise. Elle devrait rassurer Élodie et tous les métrologues. En aucun

34
at:
cas, l’ISO 9001 n’encourage une vision réductrice de la métrologie.

ett
-S
es
Ce tour d’horizon de l’ISO 9001 illustre aussi une caractéristique de cette
iqu

norme qui se prête mal à une exploitation par rubriques ou par sections,
c hn
Te

contrairement à d’autres normes de natures plus techniques. L’objet même


et

de ce référentiel, qui est de spécifier des exigences de système de mana-


es
nc

gement de la qualité fait que, quel que soit le sujet d’application portant sur
cie
sS

la mesure ou la réalisation des produits ou toute autre activité, les exigences


de

applicables ne sont pas localisées dans un chapitre particulier mais réparties


lté
cu

dans tout le référentiel suivant le principe de plus en plus admis que c’est
:Fa
om

le système entrepris qui produit les résultats attendus et non pas un élé-
x.c

ment indépendant, aussi bon soit-il. Pour ceux qui en douteraient encore,
rvo
ola

les analogies sportives devraient suffire à les convaincre. Un virtuose


ch
1.s

du ballon a besoin d’une équipe pour s’exprimer pleinement. Alors que


uh

la réciproque n’est pas toujours vraie, loin s’en faut !


Pour en revenir au lien entre qualité et métrologie, ce serait déjà une satis-
faction pour les auteurs de ce livre si celui-ci pouvait contribuer à éclairer
le sujet sous l’angle d’une part, de la complémentarité entre qualité et

187

Vous aimerez peut-être aussi