Vous êtes sur la page 1sur 82

Initiation à la propagation des incertitudes

Pascal PERNOT
pascal.pernot@u-psud.fr
Laboratoire de Chimie Physique, Orsay
Réseau National Mesures, Modèles et Incertitudes

April 2, 2013

P. Pernot () Propagation des incertitudes April 2, 2013 1 / 81


Mesures et incertitudes

Mesurer, c'est comparer une grandeur physique inconnue avec une grandeur de
même nature prise comme référence, à l'aide d'une chaîne instrumentale
comportant un ou plusieurs capteurs.

C'est exprimer le résultat de cette comparaison à l'aide d'une valeur numérique,


associée à une unité qui rappelle la nature de la référence, et assortie d'une
incertitude qui dépend à la fois des qualités de l'expérience eectuée, des outils
employés et de la connaissance qu'on a de la référence et de ses conditions
.
d'utilisation

M. Himbert (1993) Bulletin du Bureau National de Métrologie 93:1.

P. Pernot () Propagation des incertitudes April 2, 2013 2 / 81


L'incertitude, a quoi bon ?
Comparer un résultat à une limite ou à une consigne

Consigne Resultat

Comparer deux résultats

Resultat 1 Resultat 2
Quantier la délité de mesure

Resultat
P. Pernot () Propagation des incertitudes April 2, 2013 3 / 81
La démarche incertitudes

Etape préliminaire 1. Dénition du mesurande


Etape préliminaire 2. Analyse du processus de mesure
(Deux étapes métier nécessaires
à la désambiguation du mesurande)

Phase 1. Description du processus et calcul du mesurande


Phase 2. Phase "métrologique" - contribution des données d'entrée
Phase 3. Propagation des incertitudes (Comb. Var. ou Monte Carlo)
Phase 4. Analyse de sensibilité, hiérarchisation des contributions
Phase 5. Incertitude élargie - Présentation du résultat

P. Pernot () Propagation des incertitudes April 2, 2013 4 / 81


Etapes préliminaires - Exemple

Mesurer la surface de votre table...

P. Pernot () Propagation des incertitudes April 2, 2013 5 / 81


Incertitude et probabilité

Quantication de l'incertitude (P-S. Laplace, ca. 1800)


on peut attribuer un degré de conance p (X = x)
à chaque valeur possible x d'une quantité incertaine X
cohérence et normalisation ⇒p (X = x ) obéit aux
règles de la théorie des probabilités

Cette démarche est adoptée dans le GUM (3.3.1)


l'incertitude de mesure reète le manque de connaissance
sur la valeur exacte du mesurande.
l'état des connaissance correspondant est décrit au mieux par
une distribution sur l'ensemble des valeurs possibles du mesurande.

P. Pernot () Propagation des incertitudes April 2, 2013 6 / 81


Les densités de probabilité
Si dx est un nombre réel positif inniment petit, alors la probabilité que la valeur
de la variable X soit incluse dans l'intervalle [x , x + dx ] est égale à p(x )dx , soit

P (x < X < x + dx ) = p (x ) dx

Pour une variable continue prenant ses valeurs dans l'intervalle [xmin , xmax ], la
densité de probabilité p(x ) vérie les propriétés suivantes :
positivité
p (x ) ≥0

normalisation à l'unité  xmax


dx p(x ) = 1
xmin

P. Pernot () Propagation des incertitudes April 2, 2013 7 / 81


Les densités de probabilité
Quelques rappels:
probabilité (massique) pour que X se trouve dans un intervalle [a, b]
 b
P (a ≤ X ≤ b) = d x p (x )
a

valeur moyenne  xmax


x = E(X ) = dx x p(x )
xmin

variance  xmax
σX =2
dx (x − x )2 p(x )
xmin

entropie de Shannon
 xmax
H (p ) =− p (x ) ln p(x ) dx
xmin

P. Pernot () Propagation des incertitudes April 2, 2013 8 / 81


Les densités de probabilité
p(x) p(x)

x x

(a) Positivité (b) Normalisation


p(x) p(x)

a b x b x

(c) Probabilité massique (d) Fonction de distribution

P. Pernot () Propagation des incertitudes April 2, 2013 9 / 81


Représenter un jeu d'informations par une pdf
Approche statistique

Lorsqu'on dispose d'un échantillon représentatif de la variable X , on a plusieurs


solutions pour dénir une densité de probabilité:
approche directe: construction d'une densité de probabilité approchée à partir
de l'échantillon (nécessite un grand nombre de points):
histogrammes
méthode des noyaux

approche inverse: inférer la densité de probabilité (en général supposée


simple) ayant permis de générer l'échantillon.
Remarque anticipée: pour la mise en oeuvre de la méthode de propagation des
distributions par Monte-Carlo, l'essentiel est de disposer d'un moyen numérique
pour générer des échantillons représentatifs (il n'est pas nécessaire d'établir une
expression analytique de la densité de probabilité).

P. Pernot () Propagation des incertitudes April 2, 2013 10 / 81


Approche statistique

0.5
density(X)
Inferred Gaussian
True pdf

0.4
0.3
Density
0.2
0.1
0.0

-3 -2 -1 0 1 2 3
X

P. Pernot () Propagation des incertitudes April 2, 2013 11 / 81


Dénir une pdf à partir des informations disponibles
Approche informationnelle

Si on ne dispose que d'informations partielles (p. ex. une valeur moyenne et un


écart type), il existe une innité de densités de probabilité pouvant les reproduire.
Le Principe du Maximum d'Entropie (Maxent) spécie que parmi toute ces
distributions, on doit retenir celle qui maximise l'entropie de Shannon

H (p ) =− p (x ) ln p(x ) dx

avec les contraintes imposées par les informations disponibles. C'est la distribution
la moins informative (celle qui minimise l'information statistique), compte tenu
des contraintes.

Rq: la mise en oeuvre (analytique ou numérique) est hors du propos de la


formation, mais nous mentionnerons ce principe à plusieurs occasions.

P. Pernot () Propagation des incertitudes April 2, 2013 12 / 81


Dénir une pdf à partir des informations disponibles
Documents de référence

E.T. Jaynes (1957) Information theory and statistical mechanics. Physical


Review 106:620630.
http://bayes.wustl.edu/etj/articles/theory.1.pdf
Le père fondateur...

S.Y. Park and A.K. Bera (2009). Maximum entropy autoregressive


conditional heteroskedasticity model. Journal of Econometrics 150:219230.
http://www.wise.xmu.edu.cn/UploadFiles/paper-masterdownload/
2009519932327055475115776.pdf
Contient une table pratique des densités d'entropie maximale les plus utiles.

sans oublier Wikipedia...

P. Pernot () Propagation des incertitudes April 2, 2013 13 / 81


Exemples

P. Pernot () Propagation des incertitudes April 2, 2013 14 / 81


Pdf uniforme/rectangulaire x ∼ Unif (a, b)

Propriétés
1
x ∈ [a, b ] ⇒ ( | , )=
p x a b b-a
b −a
1/(b-a)
x ∈
/ [a, b ] ⇒ ( | , )=0
p x a b

a +b 1 b −a
x = ; ux = √
2 3 2

Utilisation
On ne dispose que des bornes de X ,
sans indications sur une valeur préférée.

Unif (a, b ) est la distribution d'entropie


0
maximale parmi toutes les distributions a b
<x> =(a+b)/2
continues sur [a, b ].

P. Pernot () Propagation des incertitudes April 2, 2013 15 / 81


Pdf triangulaire x ∼ Tri (a, b)

Propriétés
(x − a ) (b-a)
x ∈ [a, c ] ⇒ ( | , )=
p x a b
(b − a )2 2/(b-a)

(b − x )
x ∈ [c , b ] ⇒ p (x |a, b ) =
(b − a )2
x ∈
/ [a, b ] ⇒ p (x |a, b ) = 0

a +b 1 b −a
x = ; ux = √
2 6 2

Utilisation
on dispose des limites de X et d'une 0 a b
valeur préférée au centre de l'intervalle <x>=(a+b)/2

P. Pernot () Propagation des incertitudes April 2, 2013 16 / 81


Pdf triangulaire x ∼ Tri (a, b, c )

Propriétés
2(x − a)
x ∈ [a , c ] ⇒ ( | , , )=
p x a b c
(b − a)(c − a) 2/(b-a)

2(b − x )
x ∈ [c , b ] ⇒ p (x |a, b , c ) =
(b − a)(b − c )
x ∈
/ [ a , b ] ⇒ p ( x |a , b , c ) = 0

a + b + c
2 2 2
a + b + c − ab − ac − bc
x = ; ux = √
3 3 2

Utilisation
on dispose des limites de X et d'une 0 a c b
valeur préférée <x>=(a+b+c)/3

P. Pernot () Propagation des incertitudes April 2, 2013 17 / 81


Pdf dérivée d'arc-sinus x ∼ Arcsin(a, b)

Propriétés
1
x ∈ [a, c ] ⇒ ( | , )=
p x a b p
π (x − a)(b − x )
x ∈
/ [a, b ] ⇒ ( | , )=0
p x a b

a +b 1 b −a
x = ; ux = √
2 2 2

Utilisation
variation sinusoïdale de X entre deux
limites a et b .

le nom vient de la densité cumulée


„r « a b
2 x −a <x>=(a+b)/2
( )=
F x arcsin
π b − a

P. Pernot () Propagation des incertitudes April 2, 2013 18 / 81


Pdf gaussienne/normale x ∼ Norm(µ, σ)
Propriétés
„ «
1 1
( |µ, σ) = √
p x exp − (x − µ)2
2πσ 2σ 2
99%
< x >= µ ; ux = σ
95%

Utilisation 67%

Si on dispose d'une valeur moyenne (µ) et


d'une incertitude connue sous la forme
d'une

incertitude type s , ux =s
incertitude relative s /x , ux = x .(s /x )
intervalle de conance à 95% x ± c,
ux = c /2
-3s -2s -s 0 s 2s 3s
Norm (µ, σ) est la distribution d'entropie
x
maximale sur ]−∞, +∞[, sachant µ et σ

P. Pernot () Propagation des incertitudes April 2, 2013 19 / 81


Densités de probabilité multivariées
Lorsqu'on a plusieurs variables dépendantes, elles sont en général décrites à l'aide
de leurs valeurs moyennes et d'une matrice de variance-covariance. Dans ce cas, la
densité de probabilité utilisée est la distribution normale multivariée, p. ex.
1
 
p (x , y |µX1 , µX2 , Σ) ∝ (det Σ)−1/2 exp − ET Σ−1 E
2

σX2 1 σX2 1 X2
   
− µX1
= ST RS
x1
E= x2 − µX2
;Σ=2
σX2 X1 σX2 2
1
   
σX1 ρ
S= σ ;R=
ρ 1
X2

Σ est la matrice de variance-covariance


R est la matrice de corrélation

P. Pernot () Propagation des incertitudes April 2, 2013 20 / 81


Densités de probabilité multivariées
1000

800

600
E/K

400

200

0
-25 -24 -23 -22 -21 -20
ln A

Nuages de points correspondant à des distributions normales bivariées:


(a) cyan : variables non corrélées ;
(b) marron : variables fortement corrélées.
P. Pernot () Propagation des incertitudes April 2, 2013 21 / 81
Variables incertaines avec contraintes

Introduire le maximum de contraintes pertinentes


dans la représentation des variables incertaines

Cas des lois de conservation


PN
N variables telles que i =1 X i = 1 et {Xi ≥ 0; i = 1, N },
on utilise la distribution de Dirichlet (Maxent)

{X1 , . . . , XN } ∼ Diri (γ ∗ (µ1 , . . . , µN ))

où γ>0 est un facteur de précision (la précision augmente avec γ)

exemples: composition chimique, rapports de branchement...

mots-clés pour la littérature: Compositional Data Analysis

P. Pernot () Propagation des incertitudes April 2, 2013 22 / 81


Distribution de Dirichlet

P. Pernot () Propagation des incertitudes April 2, 2013 23 / 81


Évaluation des incertitudes par propagation des distributions

Schéma de principe de la méthode de propagation des distributions

P. Pernot () Propagation des incertitudes April 2, 2013 24 / 81


Théorie probabiliste de la propagation des incertitudes

(1) Formulation
1 identication des variables d'entrée incertaines X = {X1 , ..., Xk }
2 dénition du modèle Y = f (X)

3 dénition de la densité de probabilité jointe des variables d'entrée


X
g 1 ,..., Xk (ξ1 , . . . , ξk )

(2) Propagation des distributions (Équation de Markov)1



gY (η) = d ξ1 . . . d ξk δ (η − f (ξ1 , . . . , ξk )) gX1 ,...,Xk (ξ1 , . . . , ξk )

1 Interprétation: on prend tous les points dans l'espace des ξ dont l'image par F vaut η , et on
somme leurs poids donnés par gX (ξξ ). La discrétisation de cette intégrale nous donne une recette
pour bâtir un histogramme représentatif de gY .
P. Pernot () Propagation des incertitudes April 2, 2013 25 / 81
Théorie probabiliste de la propagation des incertitudes

(1) Formulation
1 identication des variables d'entrée incertaines X = {X1 , ..., Xk }
2 dénition du modèle Y = f (X)

3 dénition de la densité de probabilité jointe des variables d'entrée


X
g 1 ,..., Xk (ξ1 , . . . , ξk )

(2) Propagation des distributions (Équation de Markov)1



gY (η) = d ξ1 . . . d ξk δ (η − f (ξ1 , . . . , ξk )) gX1 ,...,Xk (ξ1 , . . . , ξk )

1 Interprétation: on prend tous les points dans l'espace des ξ dont l'image par F vaut η , et on
somme leurs poids donnés par gX (ξξ ). La discrétisation de cette intégrale nous donne une recette
pour bâtir un histogramme représentatif de gY .
P. Pernot () Propagation des incertitudes April 2, 2013 25 / 81
Évaluation des incertitudes par propagation des distributions
(3) Résumés statistiques de gY (η)
1 espérance statistique de Y et son écart type
 ∞
( )=
E Y d η η gY (η)
−∞
 ∞
η (η − E (Y ))2 gY (η)
p
( )=
u y ( );
V Y ( )=
V Y d
−∞

2 et/ou intervalle de couverture 100p %, contenant Y avec une probabilité p


spéciée
ˆ −1 −1 ˜
Y (α) ; GY (p + α) ;
G 0 ≤α≤1−p
où GY (η) est la fonction de distribution de Y
 η
GY (η) = dz g Y (z ).
−∞

P. Pernot () Propagation des incertitudes April 2, 2013 26 / 81


Relation entre les résumés statistiques de g et le GUM Y

Pour obtenir des statistiques de Y , il n'est pas nécessaire de calculer explicitement


gY . Ainsi, pour l'espérance statistique, on a

 ∞
E (Y ) = dη η gY (η)
 −∞

= dη η dξ δ (η − f (ξξ )) gX (ξξ )
 
= dξ dη η δ (η − f (ξξ )) gX (ξξ )

= dξ f (ξξ ) gX (ξξ )

où on applique la relation de translation de la distribution δ de Dirac:


 +∞
dx f (x ) δ (x0 − x ) = f (x0 )
−∞
.
P. Pernot () Propagation des incertitudes April 2, 2013 27 / 81
Relation entre les résumés statistiques de g et le GUM Y

Pour la variance, on applique le même type de développement:


 ∞
V (Y ) = dη (η − E (Y ))2 gY (η)
 −∞

2
= dη (η − E (Y )) dξ δ (η − f (ξξ )) gX (ξξ )
 
= dξ dη (η − E (Y ))2 δ (η − f (ξξ )) gX (ξξ )

= d ξ (f (ξξ ) − E (Y ))2 gX (ξξ )

On est donc ramené à des intégrales (multiples) sur les variables incertaines
du modèle.

P. Pernot () Propagation des incertitudes April 2, 2013 28 / 81


Le cas des modèles linéaires
Si on considère un modèle linéaire, ou bien le développement en série de Taylor au
premier ordre d'un modèle quelconque autour d'un point x 0 , on peut écrire
ξ ) = f (x 0 ) + J T .(ξξ − x 0 )
f (ξ (1)
où les coecients de sensibilité Ji sont donnés par les dérivées premières du
modèle au point x 0
∂ f (ξξ )
Ji =
∂ξi ξ =x 0
d'où

+ J T .(ξξ − x 0 ) gX (ξξ )
 
E (Y ) = dξ F (x 0 )
 X 
= F (x 0 ) d ξ gX (ξξ ) + Ji dξ (ξi − x0,i ) gX (ξξ )
i
X
= F (x 0 ) + Ji (E (Xi ) − x0,i )
i

Si on choisit x 0 = E (X ), on a E (Y ) = f (E (X)).
P. Pernot () Propagation des incertitudes April 2, 2013 29 / 81
Le cas des modèles linéaires
Dans cette hypothèse, on peut dériver la variance

X)) + J T .(ξξ − E (X)) − f (E (X))
 2
V (Y ) = dξ f (E ( gX (ξξ )
  T 2
= dξ ξ − E (X)) gX (ξξ )
J .(ξ

X 
= Ji Jk dξ (ξi − E (Xi )) (ξk − E (Xk )) gX (ξξ )
i ,k
X
= Ji u (Xi , Xk ) Jj
i ,k
= J T .Σ.J

où Σ est la matrice de variance-covariance des variables d'entrée, telle que


Σi ,j = u (Xi , Xj ).
Ce résultat est la notation matricielle de l'équation de combinaison des variances.

P. Pernot () Propagation des incertitudes April 2, 2013 30 / 81


Évaluation des incertitudes par propagation des distributions

Approximation linéaire de la propagation des incertitudes (modèle à 1 variable).


From K.O. Arras (1998) An Introduction To Error Propagation.
Technical report Nº EPFL-ASL-TR-98-01 R3, EPF Lausanne.

P. Pernot () Propagation des incertitudes April 2, 2013 31 / 81


La méthode GUM de combinaison des variances
Procédure normalisée pour gérer les incertitudes associées à une mesure
(Évaluation des données de mesure  Guide pour l'expression de l'incertitude de
mesure. JCGM 100:2008,
http://www.bipm.org/utils/common/documents/jcgm/JCGM_100_2008_F.pdf).

1 Identier les sources d'incertitude


Évaluation de l'ensemble des sources d'incertitudes aectant une mesure
2 Caractériser les incertitudes
Les incertitudes sont de deux types :
1 Type A : incertitudes obtenues par analyse statistique d'un ensemble de
mesurages répétés d'un même mesurande
2 Type B : tout le reste

3 Estimer les incertitudes-type


4 Propager/combiner les incertitudes
Estimation de l'incertitude sur le résultat de la mesure à partir des sources
identiées
P. Pernot () Propagation des incertitudes April 2, 2013 32 / 81
Identier les sources d'incertitudes
Diagramme des 5M ou diagramme des causes/eets ou diagramme d'Ishikawa
ou diagramme en arêtes de poisson...

P. Pernot () Propagation des incertitudes April 2, 2013 33 / 81


Modèle de mesure

Mesure directe
X =x +C
X : valeur du mesurande
x: indication(valeur mesurée)
C : corrections (justesse, quantication...)

Propriétés dérivées
Y = f (X1 , ..., Xk )

P. Pernot () Propagation des incertitudes April 2, 2013 34 / 81


Incertitudes de type A
La caractérisation d'un échantillon de mesures se fait par un ensemble de résumés
statistiques. Typiquement une valeur moyenne et une incertitude-type :
Valeur moyenne
X N !
x = xi /n
i =1

Variance n
2
(xi − x )2 /(n − 1)
X
sX =
i =1

Incertitude-type sur x √
uX = sX / n

Rq: ces estimateurs, notamment l'incertitude-type, ne sont pertinents que si la


distribution des erreurs est raisonnablement symétrique. Une étape préalable
d'Analyse Exploratoire des Données est donc toujours judicieuse.
P. Pernot () Propagation des incertitudes April 2, 2013 35 / 81
Incertitude sur l'incertitude
Comment l'estimation de la variance dépend de la taille de l'échantillon
Pn
i =1 (xi − x ) /(n − 1) est un estimateur de la variance de X , σX2
2
sX = 2

on veut estimer l'erreur relative sur l'écart type: r = usX /sx

si X suit une loi normale, la variable (n − 1)sX2 /σX2 suit une loi du χ2 à
(n − 1) degrés de liberté, dont on tire

' 1/ 2(n − 1)
p
r

n 2 5 10 50 100 5000
r = u s X / sx 0.70 0.35 0.24 0.10 0.07 0.01

P. Pernot () Propagation des incertitudes April 2, 2013 36 / 81


Incertitudes de type B

En absence de mesurages répétés, on est en général contraint d'utiliser des


informations collectées sous des formes diverses, tirées de diérentes sources :
notice des instruments
certicats de calibration
limitations d'achage...
Le problème est ici de dénir une incertitude-type à partir de ces informations
souvent partielles.

La technique recommandée est de dénir une densité de probabilité pour


représenter la distribution plausible des erreurs, et d'utiliser l'incertitude-type
correspondant à cette densité .

P. Pernot () Propagation des incertitudes April 2, 2013 37 / 81


Exemple: erreur de justesse du mètre à ruban
la précision des mètres ruban est normalisée: la classe de précision
(I, II ou III) est indiquée sur le ruban.
les erreurs maximales tolérées sont dénies par EMT = ±(a + c + bL) mm
L est la longueur mesurée arrondie en excès au nombre entier de mètres
a, b et c sont dénis pour chaque classe de précision (c 6= 0 est pris en
compte lorsque le mètre se termine par un crochet, et qu'on l'utilise...)

Classe a b c
I 0.1 0.1 0.1
II 0.2 0.3 0.2
III 0.6 0.4 0.3

Ex: longueur mesurée L = 1 652 mm avec un mètre de classe II + crochet


EMT = ±1.0 mm (0.2 + 0.2 + 0.3*2)
représentation par une distribution uniforme Unif (−1, 1) mm
l'erreur de justesse est donc caractérisée par une correction nulle Cj =0 et une
incertitude type sur la correction uCj = √1 2 = 0.58 mm
32

P. Pernot () Propagation des incertitudes April 2, 2013 38 / 81


Combinaison des variances

Pour obtenir l'incertitude combinée, on applique les formues suivantes

y = f (x1 , ..., xk )

X  ∂ Y 2 X  ∂Y   ∂Y 
2
uY
2
cov(Xi , Xj )
∂ Xi xi Xi
= u +
∂ Xi xi ∂ Xj xj
i i 6=j
T
= J ΣJ

P. Pernot () Propagation des incertitudes April 2, 2013 39 / 81


Exemple: surface de la table
Modèle S = LA × LB
Mesure d'une longueur avec le mètre à ruban
on eectue 5 mesures réparties uniformément sur un côté
x i = lx ,i + Cq,i + Cj + CT
L ,

Cq : correction de l'erreur de quantication (lecture)


Cj : correction de l'erreur de justesse pour la longueur mesurée
CT = Lnom α∆T : correction de température due à la dilatation éventuelle du
mètre.

5
1 X
L x= (lx ,i + Cq,i ) + Cj + Lx ,nom α∆T
5
i =1

2 2 1
u ( Lx ) = u (l x ) + u 2 (C q ) + u 2 (C j ) +
5
2 ` 2 2 2 2 ´
Lx ,nom α u (∆T ) + ∆T u (α)

P. Pernot () Propagation des incertitudes April 2, 2013 40 / 81


Budget des incertitudes pour la longueur

Source d'incertitude Type Loi ux jx2 (jx ux )2


l répétabilité de mesure A s 2 /5 1 mm

1 1 mm2
Cq résolution du mètre (1 B Unif 1/ 3 mm 1/5 0.067 mm2
mm)

Cj classe du mètre (II) B Unif 1/ 3 mm

1 0.33 mm2
∆T température du mètre B Arcsin 2/ 2 °C L2 α2 6.8 10−4 mm2
(20 ± 2 °C), 3.4 ×
Lnom = 1.6 m 10−4
α méconaissance du coe B Norm 1 10−6 °C−1 L2 ∆T 2 10.2 10−6 mm2
de dilatation α = 10.2 ×
(11.5 ± 1)10−6 °C−1 106
u2 (L) = 1.4 mm2

LA = 1600.0 ± 1.2 mm

P. Pernot () Propagation des incertitudes April 2, 2013 41 / 81


Budget des incertitudes pour la largeur

Source d'incertitude Type Loi ux jx2 (jx ux )2


l répétabilité de mesure A s 2 /5 1 mm

1 1 mm2
Cq résolution du mètre (1 B Unif 1/ 3 mm 1/5 0.067 mm2
mm)

Cj classe du mètre (II) B Unif 0.7/ 3 mm

1 0.17 mm2
∆T température du mètre B Arcsin 2/ 2 °C L2 α2 2.2 10−4 mm2
(20 ± 2 °C), 1.1 ×
Lnom = 0.9 m 10−4
α méconaissance du coe B Norm 1 10−6 °C−1 L2 ∆T 2 3.2 10−6 mm2
de dilatation α = 3.2 ×
(11.5 ± 1)10−6 °C−1 106
u2 (L) = 1.3 mm2

LB = 900.0 ± 1.2 mm

P. Pernot () Propagation des incertitudes April 2, 2013 42 / 81


Bilan pour la surface

S = LA ∗ LB
2 2 2 2
u
2
(S ) = LB u (LA ) + LA u (LB ) + 2LA LB cov(LA , LB )
2 2 2 2
' LB u (LA ) + LA u (LB ) + 2LA LB u 2 (Cj )

2
x u x j x (jx ux )2
2 4
LA 1600 mm 1.2 mm LB 1166400 mm
2 4
LB 900 mm 1.2 mm LA 3686400 mm
√ 4
0.33 mm 2LA LB 1654434 mm
2 2 2 4
S 1440000 mm 2600 mm ←− u (S ) = 6507234 mm

S = 1440000 ± 2600 mm2


Rq: si on utilise deux mètres diérents pour mesurer LA et LB ,
le terme de covariance devient nul...
P. Pernot () Propagation des incertitudes April 2, 2013 43 / 81
Combinaison des variances vs. combinaison des incertitudes
∂Y
Pourquoi on n'utilise pas une formule de la forme uY uXi pour
P
= i ∂ Xi
xi
combiner des erreurs aléatoires ?
Théorème de la limite centrée : la somme de variables aléatoires indépendantes
et de variance nie converge vers une loi Normale.
Comme illustré ci-dessous, dès qu'on combine quelques variables aléatoires, une
tendance centrale se dégage, et les valeurs extrêmes deviennent non
représentatives.

X1 X1 + X2 X1 + X2 + X3 X1 + . . . + X6

Illustration du théorème de la limite centrée : addition de variables uniformes


X i ∼ Unif (0, 1)
P. Pernot () Propagation des incertitudes April 2, 2013 44 / 81
Exemples - variables dépendantes

On s'intéresse ici à la diérence de deux variables Y = X1 − X2 . La formule


standard nous donne
+ ux22 − 2 ∗ cov(X1 , X2 )
q
uY = ux2
1

avec cov(X1 , X2 ) = uX ∗ uX ∗ corr(X1 , X2 ).


1 2

Pour illustrer l'eet de la corrélation supposons que les variables soient de même
écart-type (uX = uX ). Selon la valeur du coecient de corrélation, on obtient
1 2
des résultats très diérents, allant du doublement de l'incertitude standard, à la
compensation totale des erreurs :
corr(X1 , X2 ) -1 √ 0 1
uY 2 ∗ uX 1
2 ∗ uX 1
0

P. Pernot () Propagation des incertitudes April 2, 2013 45 / 81


Exemples - variables dépendantes

On remarquera que, compte tenu des limites du coecient de corrélation, on


vérie toujours

0 ≤ uY + uX2 2 − 2 ∗ uX1 ∗ uX2 ∗ corr(X1 , X2 ) ≤ uX1 + uX2


q
= 2
uX
1

Plus généralement
X ∂Y
0 ≤ uY ≤ uX i
i ∂ Xi xi
La combinaison des incertitudes fournit donc seulement une limite supérieure
absolue à l'incertitude-type obtenue par la combinaison des variances, et non une
estimation de cet écart-type.

P. Pernot () Propagation des incertitudes April 2, 2013 46 / 81


La méthode GUM de propagation des distributions
Documents de référence

Évaluation des données de mesure  Supplément 1 du Guide pour


l'expression de l'incertitude de mesure  Propagation de distributions par
une méthode de Monte Carlo . JCGM 101:2008.
http://www.bipm.org/fr/publications/guides/gum.html

M. Désenfant, N. Fischer, B. Blanquart, N. Bédiat (2007). Évaluation de


l'incertitude en utilisant les simulations de Monte Carlo. Actes du 13ème
Congrès de Métrologie, Lille.
http://www.lne.fr/publications/13e-congres-metrologie/actes/
117-desenfant-incertitude-simulations-monte-carlo.pdf

P. Pernot () Propagation des incertitudes April 2, 2013 47 / 81


Les limites du GUM - Linéarité

Hypothèse de linéarité
La formule de combinaison des variances du GUM est basée sur une
approximation linéaire du modèle de la mesure au voisinage de la valeur moyenne
des variables incertaines
E [f (X )] ' f [E (X )]
qui est valide tant que les écarts à la linéarité sont faibles devant les incertitudes.
Dans le cas de modèles linéaires, il n'y a aucune restriction de validité pour le
calcul des valeurs moyennes E (Y ) et incertitudes standard u (y ).

P. Pernot () Propagation des incertitudes April 2, 2013 48 / 81


Les limites du GUM - Linéarité

Pour les modèles non-linéaires, des problèmes sont susceptibles de se produire


dès que les incertitudes relatives des variables d'entrée dépassent 20-30 %. On
peut alors avoir recours à des développements de Taylor du modèle à des ordres
supérieurs, mais plusieurs points doivent alors être vériés:
F doit être continûment dérivable jusqu'à un ordre approprié, en toutes les
variables au voisinage de E (X);
les Xi impliqués dans des termes d'ordre supérieur du développement de
Taylor de f (X) sont indépendantes et les pfds attribuées à ces variables sont
normales/gaussiennes;
les termes ignorés de la série de Taylor de f (X) sont négligeables.

P. Pernot () Propagation des incertitudes April 2, 2013 49 / 81


Les limites du GUM - Intervalles de conance

L'estimation des intervalles de conance préconisée par le GUM (multiplication de


l'incertitude standard par un facteur de couverture dépendant d'un nombre de
degrés de liberté) présente également des limites:
la connaissance du nombre de degrés de liberté pour chacune des sources
d'incertitude (comment faire pour celles de Type B ?);
le facteur de couverture implique un intervalle de conance symétrique autour
de la valeur estimée, hypothèse qui peut devenir invalide si les densités de
probabilité attachées aux variables d'entrée inuentes ne sont pas symétriques
(p.ex. à cause de contraintes de positivité)...

P. Pernot () Propagation des incertitudes April 2, 2013 50 / 81


Les réponses apportées par la propagation des distributions

La méthode de propagation des distributions permet de s'aranchir de


pratiquement toutes les restrictions liées à la formule de combinaison des
variances:
pas de restrictions sur la linéarité du modèle;
pas de restriction sur la forme des densités de probabilité;
calcul direct des intervalles de conance, même assymétriques...

Même si l'approche GUM reste valide dans une grande majorité de cas pratiques,
la méthode de propagation des distributions peut aussi être un outil de validation
pour la mise en place d'une démarche GUM pour un nouveau dispositif de mesure.

P. Pernot () Propagation des incertitudes April 2, 2013 51 / 81


Le cas des modèles complexes
Ces modèles font en général appel à un ensemble de paramètres qui proviennent
de mesures expérimentales (p.ex. simulations mécaniques par éléments nis,
problèmes de chimie-transport...)
Il est primordial d'évaluer l'impact des incertitudes de ces paramètres sur la
précision des prédictions des modèles. Les situations où on a plusieurs centaines,
voire milliers de paramètres à gérer ne sont pas rares. La démarche GUM présenta
alors deux problèmes:
1 il est pratiquement impossible de déterminer à l'avance les paramètres
inuents; et
2 la formule de propagation des variances devient vite inadaptée si on n'a pas
une expression analytique des coecients de sensibilité ou si les paramètres
incertains sont susceptibles de mettre en évidence les non-linéarités du
modèle.
Dans ce type de situation la méthode de propagation des distributions est un outil
précieux qui doit être combiné avec une étape d'analyse de sensibilité permettant
d'identier les paramètres inuents et éventuellement de simplier le modèle.
P. Pernot () Propagation des incertitudes April 2, 2013 52 / 81
Principes de base

1 Formulation
1 identication des variables d'entrée incertaines X = {X1 , ..., Xk }
2 dénition du modèle Y = f (X)
3 dénition de la densité de probabilité jointe des variables d'entrée gX (ξξ )

2 Propagation des distributions (Équation de Markov)



gY (η) = dξ δ (η − f (ξξ )) gX (ξξ )

3 Résumés statistiques de gY (η)

P. Pernot () Propagation des incertitudes April 2, 2013 53 / 81


L'approche Monte Carlo

on obtient directement les résumés statistiques sur Y à l'aide d'intégrales


impliquant F (X) et gX

le calcul de telles intégrales peut rarement être mené de manière analytique.


On a donc recours à des méthodes numériques:
les méthodes d'intégration basées sur une discrétisation des variables d'entrée
sont ingérables dès qu'il y a plus de quelques variables: le nombre d'évaluations
du modèle augmente comme une puissance du nombre de variables

l'intégration stochastique par la méthode de Monte Carlo ne présente pas ce


désavantage.

P. Pernot () Propagation des incertitudes April 2, 2013 54 / 81


Approximation d'intégrales par Monte Carlo
Principe

 (i )
la pdf gX (ξξ ) est remplacée par un échantillon représentatif ξ ; i = 1, N

le calcul d'intégrale est remplacé par une moyenne arithmétique


 N
1
ξ (i )
X  
dξ F (ξξ ) gX (ξξ ) ' F
N
i =1

point positif: la précision de l'intégrale calculée ne dépend pas du nombre de


dimensions de l'espace des paramètre incertains.

ξ (i ) ; i = 1 , N
n o
Si les résultent de tirages indépendants, l'incertitude sur la
−1/2
valeur de l'intégrale évolue en N (Théorème de la limite centrée).

P. Pernot () Propagation des incertitudes April 2, 2013 55 / 81


Application à la propagation des distributions

1 Dénir les densités de probabilité pour toutes les variables incertaines


(type A et type B) gX (ξξ )
2 Générer un échantillon représentatif de chacune des variables ou groupes de
variables corrélées (à l'aide de générateurs de nombres aléatoires)
3 Calculer le résultat du modèle pour chaque point de l'échantillon
η (i ) = F (ξξ (i ) ); i = 1, N

4 Produire les résumés statistiques adéquats: ,


E (Y ) u (y ) et intervalle de
conance à 100p %

P. Pernot () Propagation des incertitudes April 2, 2013 56 / 81


Propagation des distributions par Monte Carlo
Étape 1: génération d'un échantillon représentatif des entrées

gX (ξξ )

z }| { f
(1) (1) (1)
ξ1 ξ2 ... ξn → η (1)
(2) (2) (2)
ξ1 ξ2 ... ξn → η (2)
... ... ... ...
(m )
ξ1
(m)
ξ2 ... ξn
(m)
→ η (m )

gY (η)

P. Pernot () Propagation des incertitudes April 2, 2013 57 / 81


Propagation des distributions par Monte Carlo
Étape 2: application du modèle à chacun des points de l'échantillon

gX (ξξ )

z }| { f
(1) (1) (1)
ξ1 ξ2 ... ξn → η (1)
(2) (2) (2)
ξ1 ξ2 ... ξn → η (2)
... ... ... ...
ξ1
(m ) (m)
ξ2 ... ξn
(m)
→ η (m)

gY (η)

P. Pernot () Propagation des incertitudes April 2, 2013 58 / 81


Propagation des distributions par Monte Carlo
Étape 3: analyse statistique de l'échantillon des sorties du modèle

gX (ξξ )

z }| { f
(1) (1) (1)
ξ1 ξ2 ... ξn → η (1)
(2) (2) (2)
ξ1 ξ2 ... ξn → η (2)
... ... ... ...
(m)
ξ1
(m)
ξ2 ... ξn
(m )
→ η (m)

gY (η)

P. Pernot () Propagation des incertitudes April 2, 2013 59 / 81


Limites sur la propagation des distribution par Monte Carlo
La seule condition pour pouvoir eectuer le calcul de propagation est que la
fonction F doit être continue au voisinage de E (X).
Des restrictions plus sévères s'appliquent pour assurer la validité des résumés
statistiques:
pour pouvoir évaluer de manière univoque des intervalles de conance, il est
nécessaire que la fonction de distribution GY soit continue et monotonement
croissante
pour la détermination de l'intervalle de conance à 100p % le plus court, des
contraintes s'appliquent sur la pdf gY : continuité, unimodalité
E (Y ) et V (Y ) doivent exister

un nombre de tirages M susant doit être réalisé.


Le principe de la méthode de Monte Carlo est donc très simple et elle a un champ
d'application très large. Il nous laisse cependant avec deux problèmes techniques:
comment générer un échantillon représentatif d'une densité de probabilité ?
combien de tirages sont nécessaires pour atteindre une précision spéciée sur
les résumés statistiques ?
P. Pernot () Propagation des incertitudes April 2, 2013 60 / 81
Générer des nombres aléatoires de distribution prescrite
Dispositifs capables de produire une séquence de nombres dont on ne peut pas
facilement tirer des propriétés déterministes:
Générateurs reposant sur des phénomènes imprévisibles: les dés, la
roulette, le tirage au sort (loto et autres), les diérentes méthodes de mélange
des cartes, le pile ou face... ( souvent biaisés ou insusamment sûrs)
Générateurs reposant sur des phénomènes physiques: radioactivité ;
bruits thermiques ; bruits électromagnétiques ; mécanique quantique (a priori
les meilleurs générateurs, mais ils ne sont pas faciles à mettre en place). Des
séquences nombres aléatoires physiques sont téléchargeables à partir
d'internet : www.random.org, www.randomnumbers.info
Générateurs reposant sur des algorithmes
un algorithme est déterministe, à l'opposé de ce que l'on recherche
certaines opérations sont susamment imprévisibles pour donner des résultats
qui semblent aléatoires
les nombres ainsi obtenus sont appelés pseudo-aléatoires
plus facile et plus ecace à produire que par d'autres méthodes

P. Pernot () Propagation des incertitudes April 2, 2013 61 / 81


Générateurs de séquences de nombres aléatoires

tous les générateurs ne sont pas égaux entre eux

s'assurer avant tout que les générateurs aléatoires utilisés ont des propriétés
satisfaisantes pour:
la période de récurrence du générateur
la corrélation séquentielle

des algorithmes sophistiqués combinant plusieurs générateurs (Mersenne


Twister, Wichmann-Hill...) sont aujourd'hui la norme. A condition d'être
correctement programmés et paramétrés, ils fournissent des séquences avec
des périodes couvrant la majorité des besoins en propagation des distribution.

P. Pernot () Propagation des incertitudes April 2, 2013 62 / 81


Ecacité statistique
L'utilisation d'une chaîne de Markov, ou d'une dynamique fait que les points
successifs de l'échantillon ne sont plus indépendants. Il faut alors estimer
l'ecacité statistique de l'échantillon:
estimer µ = x and σ2 = N −1 1 (xi − x )2
P
1

2 calculer la fonction d'autocorrélation


N −l
1
(xi − x )(xi +l − x ); l ≥ 0
X
A(l ) =
σ 2 (N − l − 1)
i =1
et estimer la longueur de corrélation τ (intégrale de A(l ) ou ajustement
monoexponentiel A(l ) = exp(−l /τ ))
3 on obtient alors ρ = (1 + 2τ )−1 , l'ecacité statistique de la chaîne
(0 < ρ < 1) et l'incertitude type sur l'estimation de la valeur moyenne est
σ
µ=x±√ .

Certains packages de R (coda) fournissent directement la taille eective N ρ de


l'échantillon et/ou l'incertitude type corrigée.
P. Pernot () Propagation des incertitudes April 2, 2013 63 / 81
Convergence des estimateurs
On n'est pas capable de prévoir le nombre de tirages nécessaires pour atteindre
une précision prescrite sur tous les estimateurs d'une séquence aléatoire. On
utilise une approche adaptative: augmenter le nombre de tirages jusqu'à la
stabilisation statistique des estimateurs.

0.10
Moyenne
Limites exactes
Q05
0.05
Deviation des estimateurs cumulatifs

0.00
-0.05
-0.10

0 2000 4000 6000 8000 10000

P. Pernot () Propagation des incertitudes April 2, 2013 64 / 81


Méthode Monte Carlo adaptative
Cette procédure doit nous fournir pour une variable Y des valeurs vériant la
tolérance prédénie: l'espérance statistique y , l'incertitude standard u (y ) et les
limites ylow et yhigh d'un intervalle de conance de couverture spéciée 100p %.
1 dénir ndig à une valeur appropriée (typiquement ndig =1 ou 2)
2 calculer le nombre de tirages élémentaire M = max(ceiling (100/(1 − p )), 104 )
3 initialiser le compteur d'itération h =1
4 calculer M tirages Monte Carlo de Y = f (X)
5 (h ) (h ) (h ) (h )
calculer les estimateurs pour ces M valeurs: y , u (y ), ylow et yhigh
6 si h = 1, incrémenter h et aller à l'étape 4.
7 calculer l'écart type associé aux valeurs moyennes des diérents estimateurs sur les
P h “ (r ) ”2 Ph
2 (r )
itérations sy = h(h1−1) r =1 y − y , avec y = h1 r =1 y . Idem pour u (y ),
y low et yhigh .
8 utiliser toutes les M ×h valeurs de Y pour estimer u (y )
9 calculer la tolérance numérique δ pour u (y )
10 si une valeur parmi 2sy , 2su (y ) , 2sy et 2sy dépasse δ, incrémenter h et aller à
low high
l'étape 4.
11 le calcul a convergé : utiliser les M ×h valeurs de Y pour les estimations
statistiques nales

P. Pernot () Propagation des incertitudes April 2, 2013 65 / 81


La tolérance numérique

Soit ndig le nombre de chires considérés comme signicatifs pour une valeur
numérique x . La tolérance numérique δ associée à x est dénie par:
1 mettre x sous la forme c × 10l , où c est un entier à ndig chires et l un entier;
2 on a alors δ = 0.5 × 10l
Exemple
numtol(12345,ndig=1) = 5000
numtol(12345,ndig=2) = 500

P. Pernot () Propagation des incertitudes April 2, 2013 66 / 81


Analyse de sensibilité
Objectifs
Repérer a posteriori les variables inuentes en analysant les échantillons de X et
Y.

Cette partie n'est pas explicitement abordée par le GUM-Supp1, mais on peut
considérer c'est un complément pratiquement indispensable à l'approche par
Monte Carlo.

Documents de référence
J.C. Helton, J.D. Johnson, C.J. Salaberry, and C.B. Storlie (2006) Survey of
sampling based methods for uncertainty and sensitivity analysis. Reliability
Engineering and System Safety 91:11751209.

A. Saltelli, S. Tarantola, F. Campolongo and M. Ratto (2004). Sensitivity


Analysis in Practice: A Guide to Assessing Scientic Models. John Wiley and
Sons.

P. Pernot () Propagation des incertitudes April 2, 2013 67 / 81


Corrélation entrées/sortie

les échantillons générés pour la propagation des distributions peuvent être


directement utilisés pour calculer des indices de sensibilité.
une méthode simple à mettre en oeuvre est le calcul des coecients de
corrélation entre les échantillons de Y et de X.
dans le cas d'un modèle linéaire, on a l'analogue Monte Carlo du calcul des
coecients de sensibilité Ji = df (X )/dXi .
pour ne pas être trop dépendant d'une hypothèse de linéarité, on utilise en
général la corrélation de rang (Spearman), plutôt que la corrélation linéaire
(Pearson).

dans certaines limites, en particulier la variation monotone de Y en fonction


de X, la valeur absolue du coecient de corrélation ρi = cor (Y , Xi ) traduit
l'importance de l'inuence de Xi sur Y .

P. Pernot () Propagation des incertitudes April 2, 2013 68 / 81


Exemple SA 1
Si Y ne varie pas monotonement en fonction d'un paramètre, même une forte
dépendance peut se traduire par un coecient de corrélation nul.
X1 <- rnorm(1000, 0, 1)
X2 <- rnorm(1000, 0, 0.1)
Y <- X1^2 + X2^2
# Comparaison des correlations lineaires (Pearson) et de rang
# (Spearman) entre la sortie et les entrees du modele
X <- cbind(X1, X2)
cor(Y, X, method = "pearson")

## X1 X2
## [1,] -0.03531 -0.04242

cor(Y, X, method = "spearman")

## X1 X2
## [1,] 0.0134 -0.04971

ces cas ne sont pas forcément aisés à repérer lorsqu'on a des modèles avec
des centaines de paramètres...
P. Pernot () Propagation des incertitudes April 2, 2013 69 / 81
Exemple SA 1
SAPlot(cbind(X, Y))

P. Pernot () Propagation des incertitudes April 2, 2013 70 / 81


Exemple SA 2
Même modèle, paramètres d'entrée diérents
X1 <- rnorm(1000, 1, 1)
X2 <- rnorm(1000, 1, 0.1)
Y <- X1^2 + X2^2
# Comparaison des correlations linéaires (Pearson) et de rang
# (Spearman) entre la sortie et les entrees du modele
X <- cbind(X1, X2)
cor(Y, X, method = "pearson")

## X1 X2
## [1,] 0.817 0.09588

cor(Y, X, method = "spearman")

## X1 X2
## [1,] 0.8938 0.1684

P. Pernot () Propagation des incertitudes April 2, 2013 71 / 81


Exemple SA 2
SAPlot(cbind(X, Y))

P. Pernot () Propagation des incertitudes April 2, 2013 72 / 81


Warning: corrélation vs. dépendance

P. Pernot () Propagation des incertitudes April 2, 2013 73 / 81


Au delà des corrélations

comme le montrent ces exemples, il ne faut jamais se contenter des


chires, et il est toujours utile de tracer des diagrammes de paires entre les
variables pour repérer d'éventuelles anomalies.
en cas de doute à propos de la méthode des corrélations, il existe des
méthodes plus sophistiquées:
nécessitent la génération d'échantillons spéciques, où les variables sont
perturbées de façon optimale pour repérer les inuences

elles sortent du cadre de cette formation...

pour en savoir plus, consulter les ouvrages cités plus haut, ainsi que le package
sensitivity de R, qui fournit la plupart de ces méthodes.

P. Pernot () Propagation des incertitudes April 2, 2013 74 / 81


Exemple Sobol sur Y = X12 + X22 en x1 = x2 = 0
# Run de la methode de Sobol
z <- soboljansen(model = sq.fun, X1 = X1, X2 = X2, nboot = 100)
print(z)

##
## Call:
## soboljansen(model = sq.fun, X1 = X1, X2 = X2, nboot = 100)
##
## Model runs: 200000
##
## First order indices:
## original bias std. error min. c.i. max. c.i.
## x1 0.99990 -1.711e-08 2.025e-06 0.99989 0.99990
## x2 -0.00759 2.186e-03 1.220e-02 -0.03624 0.01158
##
## Total indices:
## original bias std. error min. c.i. max. c.i.
## x1 1.007590 -2.186e-03 1.220e-02 9.884e-01 1.0362350
## x2 0.000101 1.711e-08 2.025e-06 9.694e-05 0.0001053

P. Pernot () Propagation des incertitudes April 2, 2013 75 / 81


Comment reporter un résultat
notation standard
Y /U = y ± uY
où Y est le mesurande, U l'unité, y le résultat de mesure et uY l'incertitude
type associée.
p. ex., si on a mesuré y = 1.2345 kg avec uY = 0.0011 kg, on notera
Y/ kg = 1.2345 ± 0.0011

on trouvera aussi souvent la notation condensée


Y/ kg = 1.2345(11)
où l'ordre de grandeur des 2 chires entre parenthèses correspond à celui des
2 derniers chires signicatifs du résultat.
NB: dans le cas de plusieurs résultats avec des incertitudes corrélées, il faut
également fournir la matrice de variance/covariance, ou la matrice de
corrélation.
P. Pernot () Propagation des incertitudes April 2, 2013 76 / 81
Incertitude élargie

déterminer k tel que si Y est estimé par y avec une incertitude (élargie)
= ku (y ), on peut armer que
U (y )

y − U (y ) ≤ Y ≤ y + U (y )

avec une probabilité p proche de 1. [y − U (y ), y + U (y )] est alors un


intervalle de conance à p %.

il faut connaître la pdf, ce qui peut poser des problèmes avec la méthode de
combinaison des variances
dans le cas idéal (modèle raisonnablement linéaire, plusieurs sources
d'incertitude avec des inuences comparables...) la pdf de Y est Normale, et
on peut utiliser les propriétés correspondantes ( k =2 pour p ' 0.95 ou k =3
pour p ' 0.99...)

P. Pernot () Propagation des incertitudes April 2, 2013 77 / 81


Incertitude élargie

sinon, il faut identier les sources principales d'incertitude (hyp: modèle


approx. linéaire)
type A avec peu (moins de 10) de répétitions: utiliser les coecients de
Student (k = tp )

n 3 4 5 6 7 8 9 10
t95% 4.30 3.18 2.78 2.57 2.45 2.37 2.31 2.26
t99% 9.93 5.84 4.60 4.03 3.71 3.50 3.36 3.25

Ex: mesure de la surface de la table

type B non Normal: se baser sur les propriétés de la pdf

sinon, Monte Carlo....

P. Pernot () Propagation des incertitudes April 2, 2013 78 / 81


Combien de chires signicatifs?
cela dépend de l'incertitude sur ce résultat, mais aussi de la destination de ce
résultat:
résultats intermédiaires d'un calcul : en garder le maximum pour éviter
l'accumulation d'erreurs d'arrondi;
résultat nal: conserver 2 chires signicatifs pour l'incertitude et tronquer
le résultat au même niveau. p. ex., si y = 1.23456789 U et uY = 0.0045 U,
on reportera Y / U = 1.2345 ± 0.0045.
d'une manière générale, il vaut mieux reporter trop de chires que trop peu.
Dans ce dernier cas, on causerait une dégradation préjudiciable de
l'information. Cependant, ne pas exagérer, et avoir toujours en tête un ordre
de grandeur des incertitudes associées à la mesure ou à la méthode de calcul
utilisée.

NB: pour la matrice de variance/covariance, choisir un nombre de chire


signicatifs assurant que la matrice tronquée est bien dénie positive.

P. Pernot () Propagation des incertitudes April 2, 2013 79 / 81


Méthode d'arrondissage

Pour arrondir les résultats de mesure et les incertitudes au bon nombre de chires
signicatif:
résultat de mesure
si le dernier chire est supérieur à 5, l'avant-dernier chire est arrondi au
chire supérieur
ex: 101.28 −→ 101.3
si le dernier chire est strictement inférieur à 5, l'avant-dernier chire est
arrondi au chire inférieur
ex: 101.23 −→ 101.2

incertitude
quelque soit le dernier chire, on arrondit toujours au chire supérieur pour
ne pas risquer de minimiser l'incertitude
ex: 1.01 −→ 1.1 et 1.09 −→ 1.1

P. Pernot () Propagation des incertitudes April 2, 2013 80 / 81


Les logiciels
Logiciel Dédié ? Système requis Prix ( ¿)
R Non - 0
Matlab Non - ¿¿¿
NPLUnc Oui Windows, Matlab-MCR 0
QMSys Uncertainty Workshop Oui Windows 890
GUM Workbench 2.4 Oui Windows 2700
Crystal Ball Oui Windows + Excel 700/300
MUSE Oui Windows, Linux / Java 0

Attention aux tableurs, qui ont parfois de piètres générateurs de nombres


aléatoire, en tous cas mal documentés...
[...] it is not recommended to use any spreadsheet for nonlinear
regression and/or Monte Carlo experiments. Excel incurs in the very
same errors of older versions detected, among others, by McCullough
(2008b); McCullough and Heiser (2008); McCullough (2004); Nash
(2008). Nash (2008) claims that no spreadsheet should be used in
classroom, especially for teaching statistics. Almiron et al. (2010)

P. Pernot () Propagation des incertitudes April 2, 2013 81 / 81

Vous aimerez peut-être aussi