Académique Documents
Professionnel Documents
Culture Documents
1.1 Généralités
On a vu que l‘intervalle de fluctuation = intervalle probabiliste (Chap 3):
On utilise les caractéristiques de la population étudiée pour calculer l’intervalle de
fluctuation. Intervalle de fluctuation
(
= intervalle fixe dans lequel on s’attend à trouver P X ∈ I
la moyenne empirique avec (1-α) chances.
)
f = 1−α
X1
Population
cible x21 , x22 ,..., x2n ; X 2 a µ b
X2
a µ b
..
.
Loi de X - Gaussienne Xk
centrée autour xk1 , xk 2 ,..., xkn ; X k a µ b
d’une moyenne µ
Moyenne et intervalle de fluctuation fixes, mais la moyenne X varie.
On connait la distribution de la population. et la moyenne théorique, ou on
suppose les connaître.
On va chercher à construire un intervalle fixe, centrée autour de la moyenne
théorique qui a la propriété suivante: la moyenne empirique doit se trouver à
l’intérieur de cet intervalle pour (1-α)% des échantillons tirés au hasard.
Seuls α% des échantillons tirés seront tels que leur moyenne empirique ne sera
pas contenue dans cet intervalle de variation fixé.
L’intervalle de confiance est de nature Statistique.
La démarche est inductive.
On ne connait pas la population.
P ( I c ∍ µ ) = 1− α
( )
P X ∈ I f = 1−α P ( I c ∍ µ ) = 1− α
intervalle de fluctuation ≠ intervalle de confiance
(ou de Variation)
Fixe, aléatoire,
dépends des paramètres ne dépends que des observations
théoriques (et donc des valeurs empiriques).
P( X ∈ I f ) = 1 − α
⎛ σ σ ⎞
⇔ P⎜ µ − e α ≤ X ≤µ+ e α ⎟ = 1 − α
⎜ ⎟
Inversion
⎝ n 1−
2 n 1− 2 ⎠
⎛ σ σ ⎞
⇔ P⎜ X − e α ≤µ≤X+ e α ⎟ = 1 − α
⎜ n 1− 2 n 1− 2 ⎟
⎝ ⎠
ou
P(I c ∍ µ ) = 1 − α
⎡ σ σ ⎤
I c = ⎢ X − e α,X + e α ⎥
⎢⎣ n 1−
2 n 1− ⎥
2 ⎦
Avec e α défini par:
1−
2
⎛ ⎡ ⎤ ⎞
P⎜ Z ∈ ⎢− e α ,+e α ⎥ ⎟ = 1 − α
⎜ ⎢ 1− 1− ⎥ ⎟
⎝ ⎣ 2 2 ⎦ ⎠
On montre que:
quand n, la taille de l’échantillon, est grande (n>30 typiquement), l’intervalle
de confiance précédent est valide en remplaçant la variance théorique σ2
inconnue par un estimateur empirique convergent.
Note: Les deux estimations de σ, S calculée avec n ou S (sans biais,) calculée avec
n-1, au dénominateur sont convergente.
P(I c ∍ µ ) = 1 − α
⎡ S S ⎤
I c = ⎢ X − e α,X + e α ⎥
⎢⎣ n 1− 2 n 1− 2 ⎥⎦
1.2.3 Variance inconnue, échantillon de petite taille
Intervalle de confiance d’une moyenne théorique µ d’une distribution
normale
N (µ, σ²), avec σ inconnue.
On utilise dans ce cas le théorème de Fisher:
Soit (X1,X2, Xn) un échantillon issu d’une distribution normale
N (µ, σ²), alors: n
2
∑ (X i − X )
1. X et S X2 = i =1
sont indépendan tes et
n −1
n −1
2. S X2 ~ χ 2 (n − 1)
σ2
Par ailleurs, on sait que la loi de Student s’applique dans le cas suivant
(cf. chap 2):
Soient deux variables aléatoires indépendants
U ~ N(0,1) et Y ~ χ2(n) alors la variable
U
T=
Y
n
2 2
n
2 # X i − µ # X µ &&
n n
# Xi − X & 1
n
2
∑(Ui −U ) ∑%$ σ − %$ σ − σ ('(' ∑%$ σ (' σ 2 ∑( Xi − X ) S 2
SU2 = i=1 = i=1 = i=1 = i=1
= X2
n −1 n −1 n −1 n −1 σ
2
(n −1)SX
et (n −1)SU2 = 2
~ χ 2 (n −1)
σ
(Loi chi2 pour la somme de var gaussiennes centré-réduites au carré)
N(0,1)
"X µ% "X µ%
n$ − ' n$ − '
nU #σ σ & #σ σ & X −µ
= = = ~ T (n −1)
2 2 2 2
(n −1)S U S U S X SX
2
n −1 σ n
χ2(n-1)
n-1
Donc, pour déterminer l’intervalle de confiance de la moyenne théorique dans le
cas d’un petit échantillon et d’une variance inconnue, on considère la variable
aléatoire:
X −µ
Y= ~ T (n − 1)
2
SX
n
⎛ ⎡ ⎤ ⎞
⎜ ⎟
P⎜ T ∈ ⎢− t α ,+t α ⎥ ⎟ = 1 − α
⎜ ⎢ 1− 1− ⎥ ⎟
⎝ ⎣ 2 2 ⎦ ⎠
⎡ ⎤
S S
I c = ⎢ X − t α ,X + t α ⎥
⎢ n 1− n 1− ⎥
⎣ 2 2 ⎦
Chap 4.
1. Estimation par intervalle pour
Chapitre 4 une moyenne d’une variable
Gaussienne
2. -- pour une moyenne d’une
Estimation variable quelconque
3. Maximum de vraisemblance
4. Exemples
2.1 Généralités
On considère un échantillon X1,X2,…,Xn de variables indépendantes et
identiquement distribuées selon un loi quelconque f avec
E ( X i ) = µ ; Var ( X i ) = σ 2
Théorème Central Limite (TCL):
n
(X − µ ) ⎯⎯⎯→ N (0,1)
n →∞
σ
On peut alors calculer l’intervalle de confiance asymptotique:
P(I c ∍ µ ) = 1 − α
⎡ ⎤
σ σ
I c = ⎢ X − e α ,X + e α ⎥
⎢ n 1− n 1− ⎥
⎣ 2 2 ⎦
∑X i
(== proportion observée P0.)
X = i =1
n
et
E ( X i ) = π ; Var ( X i ) = π (1 − π )
TLC:
n
(X − µ ) = n
(X − π ) = n
(X − π ) n →∞
⎯⎯⎯→ N (0,1)
σ π (1 − π ) X (1 − X )
Estimateur convergent
de la variance
P(I c ∍ µ ) = 1 − α
⎡ ⎤
X (1 − X ) X (1 − X )
I c = ⎢ X − e α ,X + e α ⎥
⎢ n 1− n 1− ⎥
⎣ 2 2 ⎦
Chap 4.
1. Estimation par intervalle pour
Chapitre 4 une moyenne d’une variable
Gaussienne
2. -- pour une moyenne d’une
Estimation variable quelconque
3. Maximum de vraisemblance
4. Exemples
Qd les obs. sont connues, c’est une fonction (probabilité ou densité) du seul
paramètre inconnu θ.