Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
MODÉLISATION
MODÉLISATION
2/62
1
DANS TOUS LES CAS, IL EST NÉCESSAIRE DE
FAIRE APPEL AUX STATISTIQUES…
signal
signal
signal
14
16
14
25
16
12
14
14
12
20
12
12
10
10
10
10
15
8 8
88
66
10
66
44
454
2222
0000
0000 10
10
10 20
20
20 temps
temps
30
30
30
30
temps
temps
3/62
Modélisation
Objectifs
Méthodes
Stats de la mesure
Rappels
Calcul de l’incertitude
2
MODÉLISATION
Modèle = fonction mathématique mono ou multi-variables
permettant de « reproduire » un phénomène
1: Modèle de connaissance:
à partir d'une base théorique connue (ex: équations physico-chimiques),
Le plus connu des chercheurs…
2: Modèle de comportement:
modèle « boite noire », le seul but est de reproduire « au mieux » des
expériences
5/62
Modèle de connaissance
DÉMARCHE EXPÉRIMENTALE
(RECHERCHE)
expériences
Mesures + erreurs
? Modèle
(approximations)
6/62
3
VALIDITÉ DU MODÈLE DE CONNAISSANCE
Erreurs de mesure
Expériences Mesures
Valide?
Variables d'entrée
(ex: temps, tension, Compatibilité?
température etc…)
Modèle Calculs
Valide?
Approximations
simplificatrices •Crédibilité du modèle
•(in)validation statistique
Théorie
Valide?
7/62
CRÉDIBILITÉ DU MODÈLE
Informations
Données expérimentales
Erreurs aléatoires
PROBABILITE
COMPLEXITE
Principe de parcimonie… 8/62
4
PRINCIPE DE PARCIMONIE, OU « RASOIR D’OCCAM »
9/62
ETALONNAGE &
Modèle de comportement
PRÉDICTION
Etalonnage…
Etalons Y pH
Modèle = ( )
Mesures signaux capteurs X mV
… Prédiction
Généralement modèle de comportement… 10/62
5
ETALONNAGE: MODÈLE D’UN MULTICAPTEURS
Y « Multicapteur » X
Yvariables: Xvariables:
- Variables d’état du système - Variables issues du capteur
- Difficiles à mesurer - faciles à mesurer
- (ex: concentrations…) - (ex: signaux électriques…)
X conséquence de Y…
… modélisation de connaissance X=f(Y) possible …
… mais peu utile
X « Modèle de
prédiction »
Y
Problème dit du « modèle inverse », plus complexe (inverse à
relation cause – effet, relation éventuellement multivoque)
12
12/62
6
MODÈLE DE COMPORTEMENT -1-
13/62
7
SUR ET SOUS MODÉLISATION Modèle de comportement
) & connaissance
Sur-modélisation: modèle correct avec les expériences mais trop complexe par
rapport à la réalité, on a modélisé des particularités des expériences (erreur Demo
aléatoire) alors que le modèle doit être universel Excel
p=1
p=5
sous-modélisation
sur-modélisation
8
SENSIBILITÉS DU MODÈLE Modèle de comportement
(CONNAISSANCE & COMPORTEMENT) & connaissance
Modèle: fonction paramétrée Y=F(X, A)
•Y=mesures A +∆A
•X=variables d'entrée
•A= paramètres "d'ajustement"
X F Y
Ex: Y=a0+a1.X1+a2.X2
+∆X +∆Y
Sensibilité du
modèle: ∆Y Aux variables d'entrée,
∆Y
Y
Aux paramètres: S a =
Y SX =
∆a ∆Y Et donc aux erreurs aléatoires: ∆X
Y X
Sp = a
∆A
A
Principe de parcimonie!
17/62
18/62
9
MÉTHODES MATHÉMATIQUES DE MODÉLISATION
Paramètres d'ajustement
Xvariables Yvariables
F
d'entrée de sortie
Y
Détermination d’un fonction
représentant « au mieux »
les points expérimentaux
X
« au mieux »:
•Tenir compte du principe de parcimonie
•Tenir compte des connaissances
•Choix d’une distance
20/62
10
LES MOINDRES CARRÉS (2)
Y=(y1…yn) N points P paramètres
X=(x1…xn) expérimentaux A=(a1…ap) de la fonction f
(
E = Y − F ( A, X ) = yi − f (a1 ,.., a p , xi ) )
On utilise généralement la distance Euclidienne, on
minimisera donc son carré:
∑ (y )
2
j − f (a1 ,.., a p , xi ) « minimale »
i
21/62
LA RÉGRESSION LINÉAIRE
Monovariable (y=f(x) ) + hypothèse linéaire (y=ax+b)
2 cas:
Y
Régression de y/x:
y = ax + b + ε y
X
Minimisations des
erreurs sur Y
Y Régression de x/y:
1 b'
xˆ = a ' y + b'+ε x yˆ = x−
a' a'
X
11
LA RÉGRESSION LINÉAIRE: Y/X OU X/Y?
Attention, une régression de y/x avec des erreurs sur x (ou l’inverse), entraîne
une erreur systématique sur la pente…
12
y = 0.6669x + 1.6244
12
y = 1.0036x - 0.0354
10 10
8 8
6 6
4 4
2 2
0 0
-2 0 2 4 6 8 10 12 -2 0 2 4 6 8 10 12
-2 -2
23/62
∑ (x − x)(y − y) Cov( x, y)
i i
a= i
=
∑ (x − x )
i
Var ( x) i
2
b = y − ax yˆ = ax + b
Ecart-types: ∑ (y i − ŷ i ) 2
Des résidus… s y/x = i
n−2
sy/ x
De la pente…
sa =
∑ (x
i
i − x) 2
24/62
12
MESURE DE LA QUALITÉ D'AJUSTEMENT D'UNE RÉGRESSION
LINÉAIRE:
Y
Coef. De détermination:
Var(info modélisée)
Rd =
Var(info totale)
LE COEF. DE CORRÉLATION, 35
UTILISATION: 30
25
20
15
R=0.75
R=0.8
10
0
0 2 4 6 8 10 12
25
R=0.8
20
15
R=0.75
10
0
0 2 4 6 8 10 12
600
500
R=0.8
400
R=0.75
Le cœfficient de corrélation 300
ne sert à quantifier que les
200
relations linéaires entre X et
100
Yvariables
0
0 5 10 15
-100
26/62
13
tension (mV) RÉGRESSION LINÉAIRE: EXAMEN DES RÉSIDUS
700
Valeurs mesurées
600
200 Ri=yi-(a.xi+b)
100
0
0 200 400 600 800 1000 1200 1400 Détection points
-100
courant (mA) aberrants
A éliminer après
Graphe des résidus: mesure - droiteregr. vérification et avec
précautions…
50
40
30
tension (mV)
20
10 Vérification linéarité
0
-10 0 200 400 600 800 1000 1200 1400
A corriger
-20
-30
éventuellement avec
courant (m A) régression non linéaire
27/62
y1 = a1 x1,1 + ... + an xn ,1
y p = a1 x1, p + ... + an xn , p
p<n: pas de solution…
A=Y.XT.(X.XT)-1
XT.(X.XT)-1 est appelée "pseudo-inverse de X
14
MESURE, INCERTITUDE & MODÉLISATION
Modélisation
Objectifs
Méthodes
Stats de la mesure
Rappels
Calcul de l’incertitude
30/62
15
MÉTROLOGIE, CHAINE DE MESURE
Etalons
CGPM: tous les 4 ans
NIST (US),
PTB (D), Laboratoire National
NPL (UK)… d’Essais
Comite Français
d’accréditation
31
Erreur systématique: εB
Systematic error
Erreur accidentelle ou aléatoire: εA
Random or accidental error
32
16
ERREUR SYSTÉMATIQUE OU ALÉATOIRE?
33
17
CARACTÉRISATION DE LA MESURE (ET DE L’ERREUR
ALÉATOIRE):
lim(x ) = x R = E ( x) (espérance de x)
Expectation
n →∞ xR = valeur réelle
35
V = (x − xR )
2
Variance (de l’erreur aléatoire) :
Variance (of random error)
σ= V
Ecart-type de
l'erreur aléatoire
1 n
Ecart-type estimé de
l'erreur aléatoire
s= ∑ ( xi − x ) 2
n −1 1
σ
Ecart type σr =
relatif : x
36
18
QUELQUES CALCULS, JUSTIFICATION DU TERME (N-1)
Soit la grandeur: v ( x) = (x − x ) =
2 1
n i
( )
∑ (xi − x )2 = x 2 − x 2
(( ) )
E (v ) = E x 2 − x 2 = E x 2 − E x 2 ( ) ( )
E (v ) = E ( x ) 2 + V ( x ) − E ( x ) 2 − V ( x )
1 n −1
E (v ) = E ( x ) 2 + V ( x ) − E ( x ) 2 − V ( x ) = V ( x)
n n
E ( x ) = E ( x)
( ) ( )
V ( x) = E ( x − E ( x ) ) = E x 2 − 2 xE ( x) + E ( x) 2 = E ( x 2 ) − E ( x) 2
2
E ( x ) = E ( x ) + V ( x)
2 2
V ( x)
V ( x) = théorème de la moyenne, démo + loin, propag erreur
n
37
DISTRIBUTIONS D’ERREURS
Distributions of errors
P(ε)
Courbe de probabilité de l'erreur
Gaussienne ou normale*,
Uniforme, Gaussian or normal*,
Uniform,
Poissonnienne, Poissonnian,
Etc…
19
LA DISTRIBUTION GAUSSIENNE (OU
NORMALE)
3σ: 99.7% des valeurs −
1 x− x 2
0.5 1 σ
F ( x) = e 2
2σ: 95.5% des valeurs σ 2π
0.4
σ: 68.3% des valeurs
0.3
0.2
Tableau des coefficients
0.1 « t » de Student
P N=5 N=10 N=20 N> 100
0 50 % 0,73·σ 0,70·σ 0,69·σ 0,67·σ
−3σ −2σ −σ 0 σ 2σ 3σ 68 % 1·σ
σ = écart-type Ecart à la moyenne x-x 70 % 1,16·σ 1,09·σ 1,06·σ 1,04·σ
87 % 1,5·σ
90 % 2,02·σ 1,81·σ 1,73·σ 1,65·σ
C'est à cause de cette interprétation que la loi normale est très souvent
employée comme modèle (malheureusement pas toujours à raison).
Demo
40
20
DISTRIBUTION DE POISSON
Moyenne: µ
Variance: µ
demo
41
Significance tests
LES TESTS D’HYPOTHÈSE
Tests d’une hypothèse (« null hypothesis », ex: 2 échantillons ont même
moyenne) à partir d’un nombre fini d’échantillons, entachés d’erreur
aléatoire.
Le résultat du test n’est pas absolu mais est une probabilité qui est une
aide à la validation ou non de l’hypothèse initiale, il ne constitue donc
jamais une preuve.
Tests paramétriques
(hypothèse sur distribution + ou – nécessaire)
1-sample T-test Comp. Échantillon à valeur de référence, intervalle de confiance
2-samples T-test Comparaison de 2 échantillons
F-Test Comparaison de la variance de 2 échantillons
ANOVA Analyse de variance: analyse des variances de K échantillons, comparaison
des moyennes
Chi-Square test Utilisation notamment pour vérifier une hypothèse de distribution
Grubbs’ test Détection des valeurs aberrantes (« outliers »)
Tests non paramétriques
(pas d’hypothèse sur distribution)
Test Wilcoxon.M.W Comparaison de 2 échantillons, méthode de rang
21
ONE-SAMPLE T-TEST « SIMPLIFIÉ »
Comparaison de la mesure X d’un échantillon à une
valeur de référence R, on suppose que la
distribution est normale.
X
Hypothèses:
• « X est différent de R »? Oui, quasiment toujours, à cause de l’erreur aléatoire…
• « X est significativement différent de R »?
• « La différence entre X et R n’est pas due qu’à l’erreur aléatoire »
Cette hypothèse de différence H1 est retenue si sa probabilité est
supérieure à 95% (par exemple) (ou si la probabilité d’égalité est
inférieure à 5% (H2)
1 mesure: X, écart-type estimé de la mesure: s, distr. gaussienne
Μ R Hypothèse retenue si:
X − R ≥ t.s (t=coef de Student)
22
ONE-SAMPLE T-TEST, EXEMPLE
Hypothèse: « la différence
entre la moyenne de n
pesages d’une masse étalon
de 1 kg et la valeur de cette
masse n’est pas due qu’aux 1 1.04946993
erreurs aléatoires » 2 1.11917309 Etalon R (kg) 1.0000
3 0.99865798
Il existe un « biais »… 4 1.01040713
5 1.14655592
6 0.97054733
? 7
8
9
1.14894136
1.08005111
1.03044121
moyenne µ: 1.04614199
Ecart-type s: 0.05326172
10 0.98202478
11 1.05094267 µ − R 0.0461
s
µ − R ≥ t. 12
13
1.06252219
1.02608401 s
n 14 1.04961426 t. 0.02381937 (t=2)
15 1.03483134 n (n=20)
16 1.03475702
1.2
µ−R
17 0.98306671
18 1.09287381 1.1
t= 19 0.97490694 1
s 20 1.07697103 0.9
0.8
n 1 3 5 7 9 11 13 15 17 19
TWO-SAMPLE T-TEST
Comparaison de 2 moyennes de 2 échantillons, on suppose que la distribution est normale.
Hypothèse: « la différence entre les 2 moyennes n’est pas due qu’aux erreurs aléatoires »
Cette hypothèse est retenue si sa probabilité est supérieure à 95% (par exemple)
Ech 1 Ech 2
Comparaison de µ1 et µ2:
Nb mesures n1 n2
Peut se ramener à un 1-sample-test
Ecart type estimé s1 s2 en comparant |µ1-µ2| à 0
Moyenne estimée µ1 µ2
On prend alors, comme écart- s12 s22 (démontré dans partie « lois de
type de |µ1-µ2| : s= + propagation de l’erreur »)
n1 n2
23
TWO-SAMPLE T-TEST: EXEMPLE
Hypothèse: « la différence op1 op2 op1 op2
3.59385514 3.49673556 moyenne µ 3.54463973 3.55551443
entre les moyennes de pesages
3.58810682 3.50481358 écart-type s 0.04510027 0.04809217
d’une même masse par 2 3.53371004 3.47201328
opérateurs n’est pas due 3.52760094 3.553306 |µ1-µ2| 0.0108747
qu’aux erreurs aléatoires » 3.44867115 3.57512954
3.51024893 3.55717682
Il existe un « biais entre les 2
3.60880932 3.62969549 s12 s22
opérateurs»… 3.53927667 3.66487781 s= + 0.0139361
3.55719746 3.54702026
n1 n2
3.52552333 3.54598904 n: 43 t=2
3.49798625 3.48741103
? 3.49706929 3.56409401
3.56771949 3.56622487
s.t: 0.02787228
3.7
3.59781434 3.54564972
3.65
3.54032574 3.50388551
s12 s22 3.57799787
3.6 3.65577103
µ1 − µ 2 ≥ t. + 3.49003712
3.55 3.55839436
n1 n2 3.57276739
3.5 3.53637213
3.61263276
3.45 3.57229694
3.50544464
3.4 3.56392763
3.35 3.60261554
3.3 3.52637678
1 3.5652033
3 5 7 9 11 13 15 17 19 21 23 25
3.58384532
3.50903522
1 2
Confidence interval
INTERVALLE DE CONFIANCE
L'intervalle de confiance à p (95%) d’une mesure x est un
intervalle de valeurs qui a une probabilité centrée p (95%)
de contenir la vraie valeur xR du paramètre estimé.
[x − α , x + β ]
P ( xR < x − α ) = P( xR > x + β ) = (1 − p ) / 2
α et β = incertitude à p (95%) α β
0
La calcul de α et β en fonction de la probabilité P (généralement 95%) dépend de la loi de
distribution de l'erreur
Distribution symétrique:
• α=β Distribution
α β normale
•Valeur moyenne de la mesure
= la plus probable 48
0
24
INTERVALLE DE CONFIANCE, CAS DE LA DISTRIBUTION NORMALE:
L'intervalle de confiance à p (95%) d’une mesure x est un
intervalle de valeurs qui a une probabilité centrée p (95%)
de contenir la vraie valeur xR du paramètre estimé.
[x − t .s , x + t .s ]
3σ: 99.7% des mesures Coefs de Student t
0.5
[ ]
0.4 1 6.31 12.71 31.82 63.66 636.62
x − αdes
σ: 68.3% +α
2 2.92 4.30 6.96 9.92 31.60
, xmesures 3 2.35 3.18 4.54 5.84 12.92
calcul de σ
4 2.13 2.78 3.75 4.60 8.61
0.3 5 2.02 2.57 3.36 4.03 6.87
6 1.94 2.45 3.14 3.71 5.96
7 1.89 2.36 3.00 3.50 5.41
0.2 8 1.86 2.31 2.90 3.36 5.04
9 1.83 2.26 2.82 3.25 4.78
10 1.81 2.23 2.76 3.17 4.59
12 1.78 2.18 2.68 3.05 4.32
0.1 14 1.76 2.14 2.62 2.98 4.14
17 1.74 2.11 2.57 2.90 3.97
20 1.72 2.09 2.53 2.85 3.85
0 30 1.70 2.04 2.46 2.75 3.65
40 1.68 2.02 2.42 2.70 3.55
−3σ −2σ −σ 0 σ 2σ 3σ 50 1.68 2.01 2.40 2.68 3.50
100 1.66 1.98 2.36 2.63 3.39
σ = écart-type Ecart à la moyenne x-x
100000 1.64 1.96 2.33 2.58 3.29
49
95%
Loi normale:
50
25
ÉVALUATION DE L’INCERTITUDE :
Évaluation par analyse statistique de séries de mesures (« type A »)
(généralement mesure, mais aussi simulation)
51
26
LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES
INDÉPENDANTES (1)
combined standard uncertainty for random & independant errors
53
Erreur aléatoire:
σ(s)≤σ(a)+σ(b)
Les écart-types (et donc les incertitudes) ne s’ajoutent pas!!
27
QUELLE EST LA PESÉE LA PLUS PRÉCISE?
∑ (bi − b )
1
∑ (ai − a )
1 2
Var (b) =
2
Variance: Var (a) =
n −1 n −1
n−1
2
n−1
(
Var(s)= 1 ∑(ai −a +bi −b ) = 1 ∑(ai −a ) +∑(bi −b ) +2∑((ai −a )(bi −b ))
2 2
)
28
RAPPEL: LOI DE PROPAGATION D’UNE « PETITE » ERREUR
y = f (x) df
f ( x + ∆x) = f ( x) + .∆x
dx
df
∆y = .∆x
dx
Fonction quelconque: y = f ( x1 ,..xi ,..)
∂f
n
∆( y ) = ∑ ∆xi
1 ∂xi
a.b.c 3
Cas particulier, produit: y = 1/ 2
d
∆y ∆a ∆b ∆c ∆d
= + + 3 −1/ 2
y a b c d
57
2
Ecart-type: n
∂f
σ ( y ) = ∑ σ
2 2
( xi )
1 ∂xi
58
29
LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES
INDÉPENDANTES (4)
Ex: somme ou
différence:
y = a+b−c
σ ( y ) = σ (a ) 2 + σ (b) 2 + σ (c) 2
59
30
LOIS DE PROPAGATION DES INCERTITUDES DES ERREURS ALÉATOIRES (6)
Produits et puissances :
σ ( x)
Propriété intéressante des écart-types relatifs:
x
2
y = A∏ xi
2
αi σ ( y) σ ( xi )
= ∑ α i
i y i xi
Somme quadratique des écart-types relatifs
a.b.c 3
Exemple: y = 1/ 2
d
σ( y) σ(a) σ(b) σ(c) σ(d)
2 2 2 2
= + +3 +1/ 2
y a b c d 61
Débit: D=a.V
V = tension fournie par capteur…
0 ≤ D ≤ 10 L/h
a=0.8 L/h/mV * ±0.01 (t=2)
Etalonnage
Inc. Sur V : 0.1 mV (t=2)
Incertitude relative sur débit D?
σ ( D) σ (a) σ (V )
2 2
I ( D) Mesure des faibles
=2 =2 + valeurs peu précise!
D D a V
σ (a) aσ (V )
2 2
=2 +
a D
2 2
I (a) aI (V )
= +
a D * a = inverse de la sensibilité
62
31
CALCUL DE L’INCERTITUDE PAR SIMULATION DE L’ERREUR ALÉATOIRE
Ex: y=f(x1,x2),
x1 et x2 ont des erreurs aléatoires indépendantes caractérisées par leur écart-type s1 et s2
yi=f(x1+ε1,x2+ε2) N fois
32
L’INCERTITUDE DUE À LA DISCRÉTISATION :
La discrétisation intervient lorsque les valeurs
finales constituent un ensemble discret.
Résolution δ du système d’acquisition, à ne
pas confondre avec l’incertitude, ou la
sensibilité.
0.1
0.09
0.08
0.07
Tension affichée 0.06
δ
0.05
0.04
V 0.03
0.02
0.01
0
0 0.05 0.1
Tension réelle
65/62
5δ 6δ 7δ
δ
Ecart type de l’erreur due σd = ≈ 0.3δ
à la discrétisation:
2 3
Incertitude à 95% (de discrétisation):
Id = 0.475 q (≠ 2σd=0.58q car non gaussien)
Id # q/2
33
LE « DITHERING »
demo
La méthode du moyennage
peut réduire aussi l’erreur
de discrétisation (=
quantification):
Pas de « bruit », pas de moyennage Pas de « bruit », moyenne 50
signaux
Pour une mesure, l’écart type de l’erreur introduite doit être petit devant celui
de l’erreur de mesure initiale
438.2659872 ?
Doit-on écrire:
438.265 ?
438 ?
68/62
34
L’INCERTITUDE DUE À LA DISCRÉTISATION : (3) LES DÉCIMALES SIGNIFICATIVES:
EXEMPLE
Ex: mesure = 438.2659872 Écart-type mesure = σ(x)= 0.55 (soit 0.125 % en relatif)
35
LA NORME AFNOR LA PLUS UTILISÉE:
http://www.qualiteonline.com/norme_afnor_pifometrique.pdf 71/62
36