Vous êtes sur la page 1sur 36

MESURE, INCERTITUDE &

MODÉLISATION

Philippe Breuil, janvier 2015

MODÉLISATION

Détermination à partir de données


expérimentales d’une fonction
mathématique mono ou multi-variables
permettant de « reproduire » un phénomène

2/62

1
DANS TOUS LES CAS, IL EST NÉCESSAIRE DE
FAIRE APPEL AUX STATISTIQUES…
signal
signal
signal
14
16
14
25
16
12
14
14
12
20
12
12
10
10
10
10
15
8 8
88
66
10
66
44
454
2222
0000
0000 10
10
10 20
20
20 temps
temps
30
30
30
30
temps
temps

3/62

MESURE, INCERTITUDE & MODÉLISATION

Modélisation
Objectifs
Méthodes
Stats de la mesure
Rappels
Calcul de l’incertitude

2
MODÉLISATION
Modèle = fonction mathématique mono ou multi-variables
permettant de « reproduire » un phénomène

1: Modèle de connaissance:
à partir d'une base théorique connue (ex: équations physico-chimiques),
Le plus connu des chercheurs…

Démarche expérimentale Etalonnage, prédiction

2: Modèle de comportement:
modèle « boite noire », le seul but est de reproduire « au mieux » des
expériences
5/62

Modèle de connaissance

DÉMARCHE EXPÉRIMENTALE
(RECHERCHE)
expériences

Mesures + erreurs

? Modèle
(approximations)

Généralement modèle de connaissance… Théorie


… car objectif = connaissance (approximations)

6/62

3
VALIDITÉ DU MODÈLE DE CONNAISSANCE

Erreurs de mesure

Expériences Mesures
Valide?
Variables d'entrée
(ex: temps, tension, Compatibilité?
température etc…)

Modèle Calculs

Valide?

Approximations
simplificatrices •Crédibilité du modèle

•(in)validation statistique
Théorie
Valide?
7/62

CRÉDIBILITÉ DU MODÈLE
Informations
Données expérimentales
Erreurs aléatoires

Beaucoup de modèles possibles,


• du plus simple au plus complexe,
• du plus crédible au plus loufoque…

PROBABILITE

COMPLEXITE
Principe de parcimonie… 8/62

4
PRINCIPE DE PARCIMONIE, OU « RASOIR D’OCCAM »

9/62

ETALONNAGE &
Modèle de comportement
PRÉDICTION
Etalonnage…

Etalons Y pH

Modèle = ( )
Mesures signaux capteurs X mV

Mesures signaux capteurs X mV


Mesures
Modèle F pH

… Prédiction
Généralement modèle de comportement… 10/62

5
ETALONNAGE: MODÈLE D’UN MULTICAPTEURS

Y « Multicapteur » X
Yvariables: Xvariables:
- Variables d’état du système - Variables issues du capteur
- Difficiles à mesurer - faciles à mesurer
- (ex: concentrations…) - (ex: signaux électriques…)

X conséquence de Y…
… modélisation de connaissance X=f(Y) possible …
… mais peu utile

Car ici objectif = calculer Y en fonction de X…


11/62

ETALONNAGE = MODÈLE DIT « INVERSE »


X=F(Y): F fonction univoque, calculable par modèle de connaissance (physico-chimie)

Mais, utilisation du multicapteur (« prédiction ») = Calcul de Y à partir de X

X « Modèle de
prédiction »
Y
Problème dit du « modèle inverse », plus complexe (inverse à
relation cause – effet, relation éventuellement multivoque)

Donc modèle généralement comportemental (boite noire) dont


l’obtention est alors obtenue à partir d’expériences et à l’aide des
statistiques…

12
12/62

6
MODÈLE DE COMPORTEMENT -1-

Modélisation de type « boite noire »


But = prédire une variable
Approche 100% statistique
Modélisation = étalonnage
Les expériences d'étalonnage doivent comprendre tous les cas possibles
(extrapolation risquée…)

13/62

EXEMPLE: LA PRÉVISION MÉTÉOROLOGIQUE:


OBJECTIF = PRÉDICTION
Approche "connaissance" Approche "comportement"
Découpage atmosphère en briques
élémentaires: Modélisation des données
météo et de leur évolution à
espace partir de statistiques
Échanges:
•Énergie
qq km

"Telle situation va statistiquement


•Matière aboutir à telle prévision"
•Qtité mouvement
sol
Mesures
météorologiques Il faudrait des centaines
J-5 à J d'années de données fiables
Mise en équation… et fines pour pouvoir prévoir
Modèle tous les cas, notamment
Acquisition conditions
les extrêmes.
initiales…

Calculs colossaux… prévisions


météorologiques
14/62
J+1 à J+10

7
SUR ET SOUS MODÉLISATION Modèle de comportement
) & connaissance

Modèle: fonction paramétrée Y=F(X, A)


•Y=mesures "Yvariables"
•X=variables d'entrée "Xvariables"
A
•A= paramètres d'ajustement
X F Y
Ex: Y=a0+a1.X1+a2.X2

Adaptation de la complexité du modèle à la réalité du phénomène…

Sous-modélisation: modèle trop simple par rapport aux expériences et à la


réalité

Sur-modélisation: modèle correct avec les expériences mais trop complexe par
rapport à la réalité, on a modélisé des particularités des expériences (erreur Demo
aléatoire) alors que le modèle doit être universel Excel

Le problème est qu’on ne connait pas forcement la réalité…

Principe de parcimonie! 15/62

SUR ET SOUS MODÉLISATION


Y p=2
loi physique OK

p=1
p=5
sous-modélisation
sur-modélisation

Complexité du modèle adapté à la complexité du phénomène …

Nécessité de vérifier la répétabilité des expériences avant de modéliser…


Exemple Excel
16/62

8
SENSIBILITÉS DU MODÈLE Modèle de comportement
(CONNAISSANCE & COMPORTEMENT) & connaissance
Modèle: fonction paramétrée Y=F(X, A)
•Y=mesures A +∆A
•X=variables d'entrée
•A= paramètres "d'ajustement"
X F Y
Ex: Y=a0+a1.X1+a2.X2
+∆X +∆Y

Sensibilité du
modèle: ∆Y Aux variables d'entrée,
∆Y
Y
Aux paramètres: S a =
Y SX =
∆a ∆Y Et donc aux erreurs aléatoires: ∆X
Y X
Sp = a
∆A
A

« on montre » que la sensibilité augmente avec la complexité du modèle


Un bon modèle doit être universel,
Et donc peu sensible aux « perturbations »

Principe de parcimonie!
17/62

SENSIBILITÉ: EXEMPLE, MODÈLE MÉTÉO

18/62

9
MÉTHODES MATHÉMATIQUES DE MODÉLISATION

Ajustement de courbe (curve fitting "fittage")

Détermination de la fonction mathématique F décrivant "au


mieux" les points expérimentaux

Paramètres d'ajustement

Xvariables Yvariables
F
d'entrée de sortie

1: choix du type de fonction (ex: mono ou


multivariable, droite, polynôme de degré 3,
exponentielle…) Partie « Connaissance »
2: détermination par calculs statistiques des
paramètres d'ajustement (ex: coefs du
polynôme) ajustant "au mieux" les résultats Y
aux valeurs expérimentales.

Moindres carrés 19/62

LES MOINDRES CARRÉS (1)


Modélisation de données expérimentales à l’aide d’une fonction mathématique:

Y
Détermination d’un fonction
représentant « au mieux »
les points expérimentaux
X

•Choix du type de fonction (ex: polynôme de degré 3)


•Détermination des paramètres (ex: coefficients du polynôme)

« au mieux »:
•Tenir compte du principe de parcimonie
•Tenir compte des connaissances
•Choix d’une distance
20/62

10
LES MOINDRES CARRÉS (2)
Y=(y1…yn) N points P paramètres
X=(x1…xn) expérimentaux A=(a1…ap) de la fonction f

On veut modéliser: Y = f(X), en fait, généralement la courbe ne


passe pas par tous les points, on a donc:
Y = f(X) + E où E = « résidu » ou erreur à « minimiser »

(
E = Y − F ( A, X ) = yi − f (a1 ,.., a p , xi ) )
On utilise généralement la distance Euclidienne, on
minimisera donc son carré:

Trouver les a1..ap tels que:

∑ (y )
2
j − f (a1 ,.., a p , xi ) « minimale »
i

21/62

LA RÉGRESSION LINÉAIRE
Monovariable (y=f(x) ) + hypothèse linéaire (y=ax+b)
2 cas:

Y
Régression de y/x:
y = ax + b + ε y
X

Minimisations des
erreurs sur Y
Y Régression de x/y:
1 b'
xˆ = a ' y + b'+ε x yˆ = x−
a' a'
X

Attention, une régression de y/x avec des


Minimisation des erreurs sur x (ou l’inverse), entraîne une
erreurs sur X erreur systématique sur la pente…
22/62

11
LA RÉGRESSION LINÉAIRE: Y/X OU X/Y?

Attention, une régression de y/x avec des erreurs sur x (ou l’inverse), entraîne
une erreur systématique sur la pente…

Régression Y/X Régression X/Y

12
y = 0.6669x + 1.6244
12
y = 1.0036x - 0.0354
10 10

8 8

6 6

4 4

2 2

0 0
-2 0 2 4 6 8 10 12 -2 0 2 4 6 8 10 12
-2 -2

Différence négligeable dans une majorité de cas…

23/62

RÉGRESSION Y/X: QUELQUES FORMULES…


Estimations de a et b: Y

∑ (x − x)(y − y) Cov( x, y)
i i
a= i
=
∑ (x − x )
i
Var ( x) i
2

Minimisations des erreurs


sur Y

b = y − ax yˆ = ax + b
Ecart-types: ∑ (y i − ŷ i ) 2
Des résidus… s y/x = i

n−2

sy/ x
De la pente…
sa =
∑ (x
i
i − x) 2
24/62

12
MESURE DE LA QUALITÉ D'AJUSTEMENT D'UNE RÉGRESSION
LINÉAIRE:

Var(Y) = Var( aX+b) + Var(ε)


information totale = information modélisée + information résiduelle

Y
Coef. De détermination:

Var(info modélisée)
Rd =
Var(info totale)

Coef. de corrélation: Cov ( X , Y )


Rc =
Rd=Rc2 σ ( X )σ (Y )
25/62

LE COEF. DE CORRÉLATION, 35

UTILISATION: 30

25

20

15
R=0.75
R=0.8
10

0
0 2 4 6 8 10 12

25

R=0.8
20

15
R=0.75

10

0
0 2 4 6 8 10 12

600

500
R=0.8
400
R=0.75
Le cœfficient de corrélation 300
ne sert à quantifier que les
200
relations linéaires entre X et
100
Yvariables
0
0 5 10 15
-100
26/62

13
tension (mV) RÉGRESSION LINÉAIRE: EXAMEN DES RÉSIDUS
700
Valeurs mesurées
600

500 Résidu = information non


y = 0.5045x - 29.385
400 modélisée, idéalement
erreur aléatoire
300

200 Ri=yi-(a.xi+b)
100

0
0 200 400 600 800 1000 1200 1400 Détection points
-100
courant (mA) aberrants
A éliminer après
Graphe des résidus: mesure - droiteregr. vérification et avec
précautions…
50
40
30
tension (mV)

20
10 Vérification linéarité
0
-10 0 200 400 600 800 1000 1200 1400
A corriger
-20
-30
éventuellement avec
courant (m A) régression non linéaire

27/62

RÉGRESSION MULTIVARIABLES LINÉAIRE:


n Xvariables, p expériences

Écriture matricielle pour les p expériences: Y= A.X+εy À minimiser

 y1 = a1 x1,1 + ... + an xn ,1

 y p = a1 x1, p + ... + an xn , p
p<n: pas de solution…

p=n: peut-être une solution: A= Y.X-1 Résidu εy nul…


(Ex: 2 points pour déterminer 1 droite…)

p>n: X non carrée…


Mais peut-être quand même une solution au sens des moindres carrés!

A=Y.XT.(X.XT)-1
XT.(X.XT)-1 est appelée "pseudo-inverse de X

Demo •Utiliser fonction "DROITEREG" d'Excel


Excel 28/62

14
MESURE, INCERTITUDE & MODÉLISATION

Modélisation
Objectifs
Méthodes
Stats de la mesure
Rappels
Calcul de l’incertitude

LA MESURE ET SON INCERTITUDE:

Aspect « crédibilité de Aspect légal et


la mesure » normatif

30/62

15
MÉTROLOGIE, CHAINE DE MESURE

Etalons
CGPM: tous les 4 ans

NIST (US),
PTB (D), Laboratoire National
NPL (UK)… d’Essais

Comite Français
d’accréditation

31

QUELQUES RAPPELS SUR L'ERREUR ET L'INCERTITUDE…

Mesure x d’une variable de valeur réelle xR: xR = E (x)


(espérance de x)
Expectation

Erreur: variable ε=xR-x x = xR + ε B + ε A

Erreur systématique: εB
Systematic error
Erreur accidentelle ou aléatoire: εA
Random or accidental error

32

16
ERREUR SYSTÉMATIQUE OU ALÉATOIRE?

Par définition, l'erreur aléatoire est imprévisible (et donc non


corrigeable) et de valeur moyenne nulle
Le caractère systématique ou aléatoire de l'erreur peut
dépendre du contexte…

33

ERREUR SYSTÉMATIQUE OU ALÉATOIRE?


Par définition, l'erreur aléatoire est imprévisible (et donc non
corrigeable) et de valeur moyenne nulle
Le caractère systématique ou aléatoire de l'erreur peut
dépendre du contexte…

Ex: mesure d'une masse à l'aide d'une balance numérique:


εa: Erreur aléatoire non expliquée
εT: Dérive en température
Erreur: ε= εa+εT+εo+εu+εs εo: Erreur "opérateur"
εu: Erreur propre à l'appareil
εs: Erreur systématique de la série (!)

Conditions des expériences εa εT εo εu εs


1 opérateur le même jour, 1 appareil
Idem + étalé sur plusieurs jours
Idem + plusieurs opérateurs
Idem + tests sur un lot d'appareils 34

17
CARACTÉRISATION DE LA MESURE (ET DE L’ERREUR
ALÉATOIRE):

Moyenne estimée de n mesures d'une


même valeur xR 1 n
x= ∑ xi
n 1
Estimated mean

lim(x ) = x R = E ( x) (espérance de x)
Expectation
n →∞ xR = valeur réelle

(loi des grands nombres)


Law of large numbers
(Si erreur aléatoire)

35

ECART-TYPE DE L'ERREUR ALÉATOIRE:


Standard deviation of random error

V = (x − xR )
2
Variance (de l’erreur aléatoire) :
Variance (of random error)

σ= V
Ecart-type de
l'erreur aléatoire

((x − E ( x)) ) = 1n ∑ ( x − E ( x))


n
Valeur réelle,
σ= i
2
i
2
À priori inconnue…
1

1 n
Ecart-type estimé de
l'erreur aléatoire
s= ∑ ( xi − x ) 2
n −1 1

σ et s ont même espérance…

σ
Ecart type σr =
relatif : x
36

18
QUELQUES CALCULS, JUSTIFICATION DU TERME (N-1)
Soit la grandeur: v ( x) = (x − x ) =
2 1
n i
( )
∑ (xi − x )2 = x 2 − x 2
(( ) )
E (v ) = E x 2 − x 2 = E x 2 − E x 2 ( ) ( )
E (v ) = E ( x ) 2 + V ( x ) − E ( x ) 2 − V ( x )
1 n −1
E (v ) = E ( x ) 2 + V ( x ) − E ( x ) 2 − V ( x ) = V ( x)
n n

∑ (xi − x )2 a pour espérance V(x)…


n 1
Donc le terme v( x ) =
n −1 n −1 i

E ( x ) = E ( x)

( ) ( )
V ( x) = E ( x − E ( x ) ) = E x 2 − 2 xE ( x) + E ( x) 2 = E ( x 2 ) − E ( x) 2
2

E ( x ) = E ( x ) + V ( x)
2 2

V ( x)
V ( x) = théorème de la moyenne, démo + loin, propag erreur
n
37

DISTRIBUTIONS D’ERREURS
Distributions of errors

P(ε)
Courbe de probabilité de l'erreur

Gaussienne ou normale*,
Uniforme, Gaussian or normal*,
Uniform,
Poissonnienne, Poissonnian,
Etc…

* La plus répandue, grâce au Théorème central limite… 38

19
LA DISTRIBUTION GAUSSIENNE (OU
NORMALE)
3σ: 99.7% des valeurs − 
1  x− x  2

0.5 1 σ 
F ( x) = e 2
2σ: 95.5% des valeurs σ 2π
0.4
σ: 68.3% des valeurs
0.3

0.2
Tableau des coefficients
0.1 « t » de Student
P N=5 N=10 N=20 N> 100
0 50 % 0,73·σ 0,70·σ 0,69·σ 0,67·σ
−3σ −2σ −σ 0 σ 2σ 3σ 68 % 1·σ
σ = écart-type Ecart à la moyenne x-x 70 % 1,16·σ 1,09·σ 1,06·σ 1,04·σ
87 % 1,5·σ
90 % 2,02·σ 1,81·σ 1,73·σ 1,65·σ

P = proba[ X − X R < t.σ ] 95 % 2,57·σ 2,23·σ 2,09·σ 1,96·σ


99 % 4,03·σ 3,17·σ 2,85·σ 2,56·σ
=1-LOI.STUDENT(t;N;2) 99,7 % 3·σ
99,9 % 6,87·σ 4,59·σ 3,85·σ 3,28·σ
N= nb échantillons utilisés pour le calcul de s 99,999 999 8 % 6·σ
39

THÉORÈME CENTRAL LIMITE


Central Limit Theorem

Si une variable est la résultante d'un grand nombre de causes, petites, à


effet additif, cette variable tend vers une loi normale.

C'est à cause de cette interprétation que la loi normale est très souvent
employée comme modèle (malheureusement pas toujours à raison).

Demo
40

20
DISTRIBUTION DE POISSON

Ex: comptage d’évènements non simultanés


(désintégration radioactive, queue…)

Moyenne: µ
Variance: µ

demo

41

Significance tests
LES TESTS D’HYPOTHÈSE
Tests d’une hypothèse (« null hypothesis », ex: 2 échantillons ont même
moyenne) à partir d’un nombre fini d’échantillons, entachés d’erreur
aléatoire.
Le résultat du test n’est pas absolu mais est une probabilité qui est une
aide à la validation ou non de l’hypothèse initiale, il ne constitue donc
jamais une preuve.
Tests paramétriques
(hypothèse sur distribution + ou – nécessaire)
1-sample T-test Comp. Échantillon à valeur de référence, intervalle de confiance
2-samples T-test Comparaison de 2 échantillons
F-Test Comparaison de la variance de 2 échantillons
ANOVA Analyse de variance: analyse des variances de K échantillons, comparaison
des moyennes
Chi-Square test Utilisation notamment pour vérifier une hypothèse de distribution
Grubbs’ test Détection des valeurs aberrantes (« outliers »)
Tests non paramétriques
(pas d’hypothèse sur distribution)
Test Wilcoxon.M.W Comparaison de 2 échantillons, méthode de rang

En rouge: tests décrits + loin, sinon voir biblio ou google 42

21
ONE-SAMPLE T-TEST « SIMPLIFIÉ »
Comparaison de la mesure X d’un échantillon à une
valeur de référence R, on suppose que la
distribution est normale.
X

Hypothèses:
• « X est différent de R »? Oui, quasiment toujours, à cause de l’erreur aléatoire…
• « X est significativement différent de R »?
• « La différence entre X et R n’est pas due qu’à l’erreur aléatoire »
Cette hypothèse de différence H1 est retenue si sa probabilité est
supérieure à 95% (par exemple) (ou si la probabilité d’égalité est
inférieure à 5% (H2)
1 mesure: X, écart-type estimé de la mesure: s, distr. gaussienne
Μ R Hypothèse retenue si:
X − R ≥ t.s (t=coef de Student)

si s est calculable « précisément *»:


95% H1: 95% (ou H1: 99% (ou H2: H1: 99.9% (ou
H2: 5%) 1%) H2: 0.1%)
-4s’ -3s’ -2s’ –s’ 0 s’ 2s’ 3s’ 4s’
t 1.96 2.56 3.28
*n>20, sinon, tableau des coefs de Student… 43

ONE-SAMPLE T-TEST « OFFICIEL »


Comparaison de la moyenne d’un échantillon à une valeur de référence R, on
suppose que la distribution est normale*.
Hypothèse: « la différence entre la moyenne de n mesures et une valeur de
référence n’est pas due qu’aux erreurs aléatoires »
Cette hypothèse est retenue si sa probabilité est supérieure à
95% (par exemple)
n mesures: moyenne µ, écart-type estimé de chaque mesure: s
s
On montre (+ loin…) que l’écart-type estimé de la moyenne est: s' =
n

µ R Hypothèse retenue si:


s
µ−R ≥t (t=coef de
Student)
n
95% si s est calculable « précisément »:
H1: 95% (ou H1: 99% (ou H2: H1: 99.9% (ou
-4s’ -3s’ -2s’ –s’ 0 s’ 2s’ 3s’ 4s’ H2: 5%) 1%) H2: 0.1%)
t 1.96 2.56 3.28
44

22
ONE-SAMPLE T-TEST, EXEMPLE
Hypothèse: « la différence
entre la moyenne de n
pesages d’une masse étalon
de 1 kg et la valeur de cette
masse n’est pas due qu’aux 1 1.04946993
erreurs aléatoires » 2 1.11917309 Etalon R (kg) 1.0000
3 0.99865798
Il existe un « biais »… 4 1.01040713
5 1.14655592
6 0.97054733

? 7
8
9
1.14894136
1.08005111
1.03044121
moyenne µ: 1.04614199
Ecart-type s: 0.05326172
10 0.98202478
11 1.05094267 µ − R 0.0461
s
µ − R ≥ t. 12
13
1.06252219
1.02608401 s
n 14 1.04961426 t. 0.02381937 (t=2)
15 1.03483134 n (n=20)
16 1.03475702
1.2
µ−R
17 0.98306671
18 1.09287381 1.1
t= 19 0.97490694 1
s 20 1.07697103 0.9
0.8
n 1 3 5 7 9 11 13 15 17 19

TWO-SAMPLE T-TEST
Comparaison de 2 moyennes de 2 échantillons, on suppose que la distribution est normale.
Hypothèse: « la différence entre les 2 moyennes n’est pas due qu’aux erreurs aléatoires »

Cette hypothèse est retenue si sa probabilité est supérieure à 95% (par exemple)

Ech 1 Ech 2
Comparaison de µ1 et µ2:
Nb mesures n1 n2
Peut se ramener à un 1-sample-test
Ecart type estimé s1 s2 en comparant |µ1-µ2| à 0
Moyenne estimée µ1 µ2

On prend alors, comme écart- s12 s22 (démontré dans partie « lois de
type de |µ1-µ2| : s= + propagation de l’erreur »)
n1 n2

Hypothèse retenue si: µ1 − µ 2 ≥ t.s


s12 s22
µ1 − µ 2 ≥ t +
n1 n2
Et le nombre de degrés de liberté est en 1ere approx: n1+n2-2
46

23
TWO-SAMPLE T-TEST: EXEMPLE
Hypothèse: « la différence op1 op2 op1 op2
3.59385514 3.49673556 moyenne µ 3.54463973 3.55551443
entre les moyennes de pesages
3.58810682 3.50481358 écart-type s 0.04510027 0.04809217
d’une même masse par 2 3.53371004 3.47201328
opérateurs n’est pas due 3.52760094 3.553306 |µ1-µ2| 0.0108747
qu’aux erreurs aléatoires » 3.44867115 3.57512954
3.51024893 3.55717682
Il existe un « biais entre les 2
3.60880932 3.62969549 s12 s22
opérateurs»… 3.53927667 3.66487781 s= + 0.0139361
3.55719746 3.54702026
n1 n2
3.52552333 3.54598904 n: 43 t=2
3.49798625 3.48741103
? 3.49706929 3.56409401
3.56771949 3.56622487
s.t: 0.02787228

3.7
3.59781434 3.54564972
3.65
3.54032574 3.50388551
s12 s22 3.57799787
3.6 3.65577103
µ1 − µ 2 ≥ t. + 3.49003712
3.55 3.55839436
n1 n2 3.57276739
3.5 3.53637213
3.61263276
3.45 3.57229694
3.50544464
3.4 3.56392763
3.35 3.60261554
3.3 3.52637678
1 3.5652033
3 5 7 9 11 13 15 17 19 21 23 25
3.58384532
3.50903522
1 2

Confidence interval
INTERVALLE DE CONFIANCE
L'intervalle de confiance à p (95%) d’une mesure x est un
intervalle de valeurs qui a une probabilité centrée p (95%)
de contenir la vraie valeur xR du paramètre estimé.

[x − α , x + β ]
P ( xR < x − α ) = P( xR > x + β ) = (1 − p ) / 2
α et β = incertitude à p (95%) α β

0
La calcul de α et β en fonction de la probabilité P (généralement 95%) dépend de la loi de
distribution de l'erreur

Distribution symétrique:
• α=β Distribution
α β normale
•Valeur moyenne de la mesure
= la plus probable 48
0

24
INTERVALLE DE CONFIANCE, CAS DE LA DISTRIBUTION NORMALE:
L'intervalle de confiance à p (95%) d’une mesure x est un
intervalle de valeurs qui a une probabilité centrée p (95%)
de contenir la vraie valeur xR du paramètre estimé.

[x − t .s , x + t .s ]
3σ: 99.7% des mesures Coefs de Student t
0.5

Nombre de points - 1 pour le


intervalle de conf. 90.0% 95.0% 98.0% 99.0% 99.9%
p 0.1 0.05 0.02 0.01 0.001
2σ: 95.5% des mesures deg lib

[ ]
0.4 1 6.31 12.71 31.82 63.66 636.62

x − αdes
σ: 68.3% +α
2 2.92 4.30 6.96 9.92 31.60
, xmesures 3 2.35 3.18 4.54 5.84 12.92

calcul de σ
4 2.13 2.78 3.75 4.60 8.61
0.3 5 2.02 2.57 3.36 4.03 6.87
6 1.94 2.45 3.14 3.71 5.96
7 1.89 2.36 3.00 3.50 5.41
0.2 8 1.86 2.31 2.90 3.36 5.04
9 1.83 2.26 2.82 3.25 4.78
10 1.81 2.23 2.76 3.17 4.59
12 1.78 2.18 2.68 3.05 4.32
0.1 14 1.76 2.14 2.62 2.98 4.14
17 1.74 2.11 2.57 2.90 3.97
20 1.72 2.09 2.53 2.85 3.85
0 30 1.70 2.04 2.46 2.75 3.65
40 1.68 2.02 2.42 2.70 3.55
−3σ −2σ −σ 0 σ 2σ 3σ 50 1.68 2.01 2.40 2.68 3.50
100 1.66 1.98 2.36 2.63 3.39
σ = écart-type Ecart à la moyenne x-x
100000 1.64 1.96 2.33 2.58 3.29
49

ÉCRITURE D’UNE MESURE (DISTRIBUTION NORMALE)


Le résultat d’une mesure doit comporter 4 éléments : 1 : Numerical value with a correct
Ex : CNO = 125.3 ppb ± 1.7 ppb (à 95% ou k=2) number of decimals
1 2 3 4 2 : Unit
1 : Valeur numérique avec un nombre correct de décimales 3 : expanded uncertainty = t.s
2 : Unité 4 : Coverage factor t
3 : Incertitude élargie = t.σ
4 : Le coefficient d’élargissement t utilisé

Probabilité en % pour que la mesure


soit dans l’intervalle [
x − ts, x + ts ]

95%
Loi normale:

50

25
ÉVALUATION DE L’INCERTITUDE :
Évaluation par analyse statistique de séries de mesures (« type A »)
(généralement mesure, mais aussi simulation)

Évaluation par calcul de l’effet sur l’incertitude finale des différentes


sources d’incertitude (« type B »: « par tout autre moyen »!), elles même
évaluées :

par une méthode de type A,


par des données constructeur, d’étalonnage etc…

Il est alors nécessaire de connaître les lois de propagation de


l’erreur…

51

QUELLE EST LA PESÉE LA PLUS PRÉCISE?

(les erreurs sont aléatoires)

26
LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES
INDÉPENDANTES (1)
combined standard uncertainty for random & independant errors

Exemple de la somme: s=a+b


Rappel: les erreurs s’ajoutent algébriquement: es=ea+eb
ea
eb
es
Et leur écart-type?
a b a+b
6.00
2.82 1.51 4.33
5.00
2.61 1.71 4.32
2.64 1.68 4.32 4.00
a
3.45 2.02 5.48 3.00
b
3.32 1.90 5.23 2.00
2.79 2.08 4.88 a+b
1.00
3.17 1.55 4.72 0.00
2.70 2.09 4.79 1 2 3 4 5 6 7 8 9 10
3.10 1.86 4.96
3.40 1.56 4.95
moyenne 3.00 1.80 4.80 4.80 somme moyennes
variance 0.11 0.05 0.16 0.16 somme variances
ecartype 0.33 0.23 0.39 0.55 somme écart-types

53

LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES


INDÉPENDANTES (2)
combined standard uncertainty for random & independant errors

Exemple de la somme: s=a+b

Erreur aléatoire:
σ(s)≤σ(a)+σ(b)
Les écart-types (et donc les incertitudes) ne s’ajoutent pas!!

Var (a + b) = Var ( a) + Var (b) Mais les variances si!!*

(σ (a + b ))2 = σ (a )2 + σ (b )2 σ (a+b)= σ (a)2+σ (b)2


Les écart-types s’ajoutent quadratiquement*
*si les erreurs sont indépendantes et aléatoires 54

27
QUELLE EST LA PESÉE LA PLUS PRÉCISE?

ÉCART TYPE DE L'ERREUR ALÉATOIRE DE LA SOMME DE


VARIABLES

Exemple de la somme: s=a+b (suite)

∑ (bi − b )
1
∑ (ai − a )
1 2
Var (b) =
2
Variance: Var (a) =
n −1 n −1

n−1
2

n−1
(
Var(s)= 1 ∑(ai −a +bi −b ) = 1 ∑(ai −a ) +∑(bi −b ) +2∑((ai −a )(bi −b ))
2 2
)

Var (a + b) = Var (a ) + Var (b) + 2Cov(a, b)


=0 si erreurs indépendantes
Les variances s’ajoutent,
Et les écarts-types?

σ (a+b)= σ (a)2+σ (b)2


Somme quadratique des écart-types
56

28
RAPPEL: LOI DE PROPAGATION D’UNE « PETITE » ERREUR
y = f (x) df
f ( x + ∆x) = f ( x) + .∆x
dx
df
∆y = .∆x
dx
Fonction quelconque: y = f ( x1 ,..xi ,..)

 ∂f 
n
∆( y ) = ∑  ∆xi
1  ∂xi 

a.b.c 3
Cas particulier, produit: y = 1/ 2
d
∆y ∆a ∆b ∆c ∆d
= + + 3 −1/ 2
y a b c d
57

LOIS DE PROPAGATION DES INCERTITUDES, CAS GÉNÉRAL

Fonction quelconque: y = f ( x1 ,..xi ,..)


n
∂f
Variance, comme pour l’erreur: V ( y) = ∑ V (xi ) Si erreurs
1 ∂xi indépendantes…

2
Ecart-type: n
 ∂f 
σ ( y ) = ∑  σ
2 2
 ( xi )
1  ∂xi 

Donc si les lois de distribution sont connues, on peut en déduire


la loi de propagation des incertitudes:

Exemple, distr. Gaussienne et I=2σ:


2
n
 ∂f 
( y ) = ∑  
2 2
I 1  ∂xi 
I ( xi )

58

29
LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES
INDÉPENDANTES (4)

Combinaison linéaire: y = ∑ ai xi σ ( y ) 2 = ∑ (aiσ ( xi )) 2


i i

Ex: somme ou
différence:
y = a+b−c
σ ( y ) = σ (a ) 2 + σ (b) 2 + σ (c) 2

Application fondamentale en instrumentation: La moyenne

59

LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES


INDÉPENDANTES (5)

Application fondamentale en instrumentation: La moyenne


1 n 1 n
σ ( x)
x= ∑ xi σ (x) =
n
∑ σ ( x) 2
=
n
n 1 1

Théorème de la moyenne: Theorem of the mean


Si une série de mesures a une erreur aléatoire et
indépendante d’écart-type σ, alors la moyenne de n
de ces mesures a une erreur aléatoire dont l’écart-
type est divisé par racine carrée de n.

Loi "des grands nombres" Demo


60

30
LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES (6)

Produits et puissances :
σ ( x)
Propriété intéressante des écart-types relatifs:
x
2

y = A∏ xi
2
αi  σ ( y)   σ ( xi ) 
  = ∑  α i 
i  y  i  xi 
Somme quadratique des écart-types relatifs

a.b.c 3
Exemple: y = 1/ 2
d
σ( y)  σ(a)   σ(b)   σ(c)   σ(d) 
2 2 2 2

=   +  +3  +1/ 2 
y  a   b   c   d  61

LOIS DE PROPAGATION DES ERREURS ALÉATOIRES:


EXEMPLE DE LA DROITE D’ÉTALONNAGE

Débit: D=a.V
V = tension fournie par capteur…

0 ≤ D ≤ 10 L/h
a=0.8 L/h/mV * ±0.01 (t=2)
Etalonnage
Inc. Sur V : 0.1 mV (t=2)
Incertitude relative sur débit D?

σ ( D)  σ (a)   σ (V ) 
2 2
I ( D) Mesure des faibles
=2 =2   +  valeurs peu précise!
D D  a   V 

 σ (a)   aσ (V ) 
2 2

=2   + 
 a   D 
2 2
 I (a)   aI (V ) 
=   + 
 a   D  * a = inverse de la sensibilité
62

31
CALCUL DE L’INCERTITUDE PAR SIMULATION DE L’ERREUR ALÉATOIRE

Ex: y=f(x1,x2),
x1 et x2 ont des erreurs aléatoires indépendantes caractérisées par leur écart-type s1 et s2

•Simuler un certain nombre d’expériences avec les


mêmes valeurs x1 et x2 + erreur aléatoire

yi=f(x1+ε1,x2+ε2) N fois

•Les εi sont calculés à l’aide d’un générateur de nombre


aléatoires à distribution adéquate (généralement normale*)
•Calcul de l’écart type des yi
* Excel: =LOI.NORMALE.INVERSE(ALEA();0;écart-type)
Ou Algorithme de Box-Müller:
ε = − 2Ln(Rnd) *cos( 2πRnd' )
Rnd et Rnd’: distributions uniformes 0-1 ε =0 σ (ε ) = 1 Ex:
débitmètres 63/62

CALCUL DE L’INCERTITUDE PAR SIMULATION DE L’ERREUR ALÉATOIRE, EXEMPLE

Tirage aléatoire normal:


ε = − 2Ln(Rnd) *cos( 2πRnd' )

moyenne des D 5.0012 Dmax 10.0000


Débit: 5.0000 E Type des D 0.0526 a 0.8000
tension V: 6.2500 Incertitude 0.1052 I(a) 0.0100
I(V) 0.1000

N° tirage (400) erreur sur a erreur sur V valeur a valeur V D=a.V


1 -0.0010 0.0253 0.7990 6.2753 5.0142
D=a.V 2
3
0.0011
0.0032
-0.0518
0.0436
0.8011
0.8032
6.1982
6.2936
4.9654
5.0551
4 -0.0098 0.0026 0.7902 6.2526 4.9407
0 ≤ D ≤ 10 L/h 5 0.0021 +
0.0867 0.8021 6.3367 5.0824
6 -0.0064 -0.0202 0.7936 6.2298 4.9437
a=0.8 L/h/mV ±0.01 (t=2) 7 0.0017 -0.0820 0.8017 6.1680 4.9450
8 -0.0065 0.0444 0.7935 6.2944 4.9949
Inc. Sur V = 0.1 mV (t=2) 9 0.0009 0.0757 0.8009 6.3257 5.0663
10 -0.0049 -0.0318 0.7951 6.2182 4.9439
11 0.0130 0.0109 0.8130 6.2609 5.0901
12 0.0004 0.0084 0.8004 6.2584 5.0092
13 -0.0046 0.0031 0.7954 6.2531 4.9737
14 -0.0024 0.0249 0.7976 6.2749 5.0049
15 0.0047 0.0311 0.8047 6.2811 5.0543
16 -0.0021 -0.0251 0.7979 6.2249 4.9668

32
L’INCERTITUDE DUE À LA DISCRÉTISATION :
La discrétisation intervient lorsque les valeurs
finales constituent un ensemble discret.
Résolution δ du système d’acquisition, à ne
pas confondre avec l’incertitude, ou la
sensibilité.

0.1
0.09
0.08
0.07
Tension affichée 0.06
δ
0.05
0.04
V 0.03
0.02
0.01
0
0 0.05 0.1
Tension réelle

65/62

L’INCERTITUDE DUE À LA DISCRÉTISATION : (2)

5δ 6δ 7δ

Erreur maxi: δ/2

δ
Ecart type de l’erreur due σd = ≈ 0.3δ
à la discrétisation:
2 3
Incertitude à 95% (de discrétisation):
Id = 0.475 q (≠ 2σd=0.58q car non gaussien)
Id # q/2

Ecart type de l’erreur totale: σ ( X ) = σ 2 ( x) + σ d2


Incertitude totale: I ( X ) ≈ 2σ ( X ) (approximation…)
66/62

33
LE « DITHERING »
demo

La méthode du moyennage
peut réduire aussi l’erreur
de discrétisation (=
quantification):
Pas de « bruit », pas de moyennage Pas de « bruit », moyenne 50
signaux

« bruit », pas de moyennage « bruit », moyenne 50 signaux

On peut gagner 1 bit de … à condition que le signal avant


résolution chaque fois que l’on numérisation contienne un bruit (aléatoire
multiplie par 4 la fréquence et indépendant) de valeur efficace
d’échantillonnage… supérieure à la résolution initiale…

La présence d’erreur aléatoire permet ici d’améliorer la « précision » de la mesure !!!


67/62

L’INCERTITUDE DUE À LA DISCRÉTISATION : (3) LES DÉCIMALES


SIGNIFICATIVES

Ecriture d’un nombre avec un nombre de chiffres fini Erreur de discrétisation

Pour une mesure, l’écart type de l’erreur introduite doit être petit devant celui
de l’erreur de mesure initiale

Mais les systèmes numériques peuvent donner beaucoup de chiffres significatifs…

Ex: mesure = 438.2659872 Écart-type mesure = 0.55 (soit 0.125 % en relatif)

438.2659872 ?
Doit-on écrire:
438.265 ?
438 ?
68/62

34
L’INCERTITUDE DUE À LA DISCRÉTISATION : (3) LES DÉCIMALES SIGNIFICATIVES:
EXEMPLE

Ex: mesure = 438.2659872 Écart-type mesure = σ(x)= 0.55 (soit 0.125 % en relatif)

Mesure affichée E.T. erreur E.T. erreur finale % d’erreur due


résolution discrétisation à la
δ discrétisation
σd = σ ( X ) = σ 2 ( x) + σ d2
2 3
438.265987 2.9 . 10-7 0.55 < 10-3 %
0.000001
438.27 2.9 . 10-3 0.550008 10-3 %
0.01
438.3 0.029 0.5506 0.14 %
0.1
438 0.29 0.62 13 %
1
440 2.89 2.94 434 %
10
•On peut choisir la résolution immédiatement plus petite que l’écart-type de la mesure.
•L’écart-type (ou l’incertitude) affiché ne doit pas avoir plus de 2 chiffres significatifs.
69/62

BIBLIO & LIENS UTILES


Bouquins:
"Statistics for analytical Chemistry" 3 rd ed. J.C. Miller and J.N. Miller John Wiley & Sons, 1998.
"Multivariate Statistical Methods, A Primer" B.F.J. Monley, Chapman & Hall 1986.
"Modélisation et estimation des erreurs de mesure", M Neuilly, CETAMA, Lavoisier, Paris 1993.

Sites WWW: (la plupart en anglais…)


http://www.emse.fr/%7Epbreuil/capmes/index.html: Ce document + exercices sous Excel

http://physics.nist.gov/cuu/Uncertainty/index.html: excellent site simple et succinct mais de référence


sur la calcul des incertitudes, ce document s'en est beaucoup inspiré. Un cours plus complet de
statistiques est disponible à : http://www.itl.nist.gov/div898/handbook/
http://www.math-info.univ-paris5.fr/smel/simulations/cadre_simulations.html: cours, articles exemples
et surtout "applets" sur les stats
http://www.aiaccess.net/f_gm.htm: Glossaire de Statistique et de Modélisation de Données (en partie
payant…)
http://www.agro-montpellier.fr/cnam-lr/statnet/cours.htm: Cours en Français sur les techniques de la
statistique
http://fr.freestatistics.info/index.php: Collection de liens et surtout de Freewares sur les stats
:http://www.deltamuconseil.fr/Publications/Publications-metrologie-generale.aspx#: Deltamu PME de
métrologie offrant de nombreuses ressources
http://www.asqualab.com/documents/qualite/metrologie/19-unites_pifometriques.pdf: Norme
pifométrique…
70/62

35
LA NORME AFNOR LA PLUS UTILISÉE:

http://www.qualiteonline.com/norme_afnor_pifometrique.pdf 71/62

36

Vous aimerez peut-être aussi