Vous êtes sur la page 1sur 33

Université Mohammed V

Faculté des Sciences de Rabat


Département de Mathématiques

Inférence Statistique

M. Fihri
m.fihri@gmail.com

2020 ∼ 2021
Estimation

M. Fihri Inférence Statistique 2


Inférence Statistique

4 Exemple d’estimateur ponctuel : la


1 Introduction et définitions moyenne et la variance empirique
2 Notions de convergence stochastique 5 Méthodes d’estimation
3 Estimateur ponctuel, définition et 6 Estimation par intervalle de
propriétés confiance

M. Fihri Inférence Statistique 3


Introduction et définitions

Plan

4 Exemple d’estimateur ponctuel : la


1 Introduction et définitions moyenne et la variance empirique
2 Notions de convergence stochastique 5 Méthodes d’estimation
3 Estimateur ponctuel, définition et 6 Estimation par intervalle de
propriétés confiance

M. Fihri Inférence Statistique 4


Introduction et définitions

Soit le modèle statistique P = {Pθ |θ ∈ Θ}, Θ ⊆ Rk engendrant le vecteur


aléatoire X = (X1 , X2 , ..., Xn ) qui reflète l’objet d’intérêt, les Xi sont i.i.d. et Pθ
désigne leur loi commune.
θ est un paramètre qui peut représenter, par exemple, la moyenne (la variance, ou
les deux) de la distribution mère (θ = µ, θ = (µ, σ 2 ), ...).
⇒ θ est donc un paramètre inconnu de la population
⇒ on cherche une valeur approchée (estimation ; on note par θ̂)
M. Fihri Inférence Statistique 5
Notions de convergence stochastique

Plan

4 Exemple d’estimateur ponctuel : la


1 Introduction et définitions moyenne et la variance empirique
2 Notions de convergence stochastique 5 Méthodes d’estimation
3 Estimateur ponctuel, définition et 6 Estimation par intervalle de
propriétés confiance

M. Fihri Inférence Statistique 6


Notions de convergence stochastique

On considère ici une suite infinie de v.a. X1 , X2 , ..., Xn , ... notée en bref {Xn }.
On peut définir plusieurs modes de convergence pour une telle suite : convergence
en loi, en probabilité, en moyenne quadratique ou presque surement. On
notera FXn (ou Fn ) la fonction de répartition de Xn .
Définition 1 (Convergence en probabilité)
P
La suite {Xn } converge en probabilité vers la constante a ∈ R (noté {Xn } −
→ a)
si et seulement si
∀ε > 0, lim P(|Xn − a| > ε) = 0.
n→∞

Théorème 1
Si les v.a. Xn (n = 1, ..., ∞) ont pour espérance a et si leur variance tend vers 0
P
quand n → ∞, alors {Xn } − → a.

Pour assurer la convergence en probabilité de {Xn } vers a, il suffit de montrer


que lim E(Xn ) = a et lim Var(Xn ) = 0.
n→∞ n→∞

Théorème 2
P P
Si {Xn } −
→ a et si g est une fonction continue de R dans R, alors g(Xn ) −
→ g(a).
M. Fihri Inférence Statistique 7
Notions de convergence stochastique

Définition 2 (Convergence en loi)


La suite {Xn } converge en loi vers une v.a. X de Fonction de répartition F , si
L
(noté {Xn } −
→ X) si en tout point x de continuité de F , on a

lim FXn (x) = F (x).


n→∞

Théorème 3 (Continuous mapping theorem)


L
Si {Xn } −
→ X et si g est une fonction continue de R dans R, alors
L
g(Xn ) −
→ g(X).

Théorème 4 (Théorème de Slutsky)


L

 Xn + Yn − →X +a
(
L 
Xn −→X L
P ⇒ Xn Yn −
→ aX .
Yn −
→a  L
Xn /Yn −
→ X/a, (a 6= 0)

M. Fihri Inférence Statistique 8


Estimateur ponctuel, définition et propriétés

Plan

4 Exemple d’estimateur ponctuel : la


1 Introduction et définitions moyenne et la variance empirique
2 Notions de convergence stochastique 5 Méthodes d’estimation
3 Estimateur ponctuel, définition et 6 Estimation par intervalle de
propriétés confiance

M. Fihri Inférence Statistique 9


Estimateur ponctuel, définition et propriétés

Introduction
Soit à estimer certaine caractéristique d’une variable aléatoire X (moyenne,
variance, proportion, la fonction de répartition, la fonction de densité, etc.) sur la
base d’une réalisation (x1 , x2 , ..., xn ) d’un n−échantillon (X1 , X2 , ..., Xn ).
La théorie de l’estimation étudie les propriétés des estimations et des méthodes
générales d’estimation comme celle dite du ”maximum de vraisemblance”.
L’objectif est de comparer les lois d’échantillonnage des ’estimateurs’ pour établir
des préférences lorsque plusieurs choix se présentent.
Définition 3
– On appelle estimateur de θ (noté θ̂) toute statistique (donc toute fonction de
X1 , X2 , ..., Xn ) à valeurs dans Θ.
– On appelle estimateur de g(θ) toute statistique à valeur dans g(Θ).
Soit X une v.a. dont la densité de probabilité f (x; θ) dépend d’un paramètre θ. A
l’aide d’un échantillon issu de X, il s’agit de déterminer au mieux la vraie valeur
de θ. On pourra utiliser plusieurs méthodes : estimateur ponctuel, par intervalle,
méthode des moments, maximum du vraisemblance, ...
Il existe plusieurs estimateurs... comment faire la différence entre un bon et moins
bon estimateur ? Quelles sont les propriétés d’un estimateur ?
Les propriétés d’un estimateur sont, en fait, les propriétés de sa loi échantillonnée.
M. Fihri Inférence Statistique 10
Estimateur ponctuel, définition et propriétés

Estimateur Biaisé

Définition 4 (Biais)
Soit X une v.a. de densité f (x; θ). Soit X1 , X2 , ..., Xn un n−échantillon issu de
cette loi et θ̂ un estimateur de θ. On appelle biais de θ̂ pour θ la quantité :

B(θ) = E(θ̂) − θ.

Si B(θ) = 0, c-à-d E(θ̂) = θ, alors θ̂ est dit Estimateur non-biaisé.

Introduisons le biais asymptotique de sorte que l’estimateur θ̂ soit regardé comme


faisant partie d’une suite θ̂(n) , d’estimateurs calculés à partir d’une suite X (n) .
Définition 5
Un estimateur θ̂(n) est dit asymptotiquement sans biais de θ si
(B (n) (θ) = E(θ̂(n) ) − θ)

lim B (n) (θ) = 0, c-à-d. si lim E(θ̂(n) ) = θ.


n→∞ n→∞

M. Fihri Inférence Statistique 11


Estimateur ponctuel, définition et propriétés

Estimateur convergent

Définition 6 (Estimateur convergent)


Une suite θ̂(n) d’estimateurs de θ est dite faiblement convergente si, pour tout
θ ∈ Θ, θ̂(n) converge en probabilité vers θ (weak consistency), lorsque n → ∞.
Elle est dite fortement convergente si, pour θ ∈ Θ, θ̂(n) converge presque
surement vers θ (strong consistency).

Pour assurer la convergence (faible) de θ̂(n) , il suffit de montrer que

lim E(θ̂(n) ) = θ et lim Var(θ̂(n) ) = 0;


n→∞ n→∞

en liaison avec la loi des Grands Nombres, il peut paraître désirable que, lorsque
le nombre n d’observations tend vers l’infini, un estimateur converge vers le
paramètre à estimer.
La propriété de convergence se conserve par transformation continue.
Exemple : θ̂(n) = X est un estimateur non biaisé et convergent de θ = µ.

M. Fihri Inférence Statistique 12


Estimateur ponctuel, définition et propriétés

Précision
Définition 7
On appelle risque quadratique d’un estimateur θ̂ de θ la fonction

R(θ̂, θ) = E[(θ̂ − θ)2 ].

R(θ̂, θ) représente donc l’erreur quadratique moyenne commise lorsqu’on estime θ


par θ̂.
Proposition 1

R(θ̂, θ) = Var(θ̂) + (B (n) (θ))2 .

Définition 8
On dit qu’un estimateur θ̂1 est plus précis qu’un estimateur θ̂2 si

R(θ̂1 , θ1 ) < R(θ̂2 , θ2 ).

Si θ̂1 et θ̂2 sont tous deux sans biais, le plus précis est donc celui qui a la plus
petite variance. Mais un estimateur biaisé peut être plus précis qu’un estimateur
non biaisé.
M. Fihri Inférence Statistique 13
Estimateur ponctuel, définition et propriétés

Estimateur exhaustif
Un estimateur θ̂ (de façon plus générale, une statistique T ) est exhaustif (en
anglais, sufficient) s’il contient toute l’information concernant θ qui se trouve
contenue dans X.
L’exhaustivité est délicate à formaliser de façon rigoureuse c’est pourquoi dans le
cadre de ce cours, on adoptera comme définition la condition nécessaire et
suffisante fournie par le résultat suivant.
Théorème 5 (Critère de factorisation Neyman-Fisher)
Une estimation (une statistique) T (X) est exhaustive si, pour toute valeur x de
X, la vraisemblance se factorise en
L(x; θ) = gθ (T (x))h(x);
où h dépend de x mais pas de θ et g ne dépend de x qu’à travers T (x).
Si T est exhaustive, alors toute fonction bijective T1 de T est aussi exhaustive.
On définit la vraisemblance, pour une suite de v.a. {Xn } continue de densité
f (x; θ) (ou de loi de probabilité p(θ, xi ) = Pθ (X = xi ) dans le cas discret), par
 Qn
Qi=1 f (xi , θ), dans le cas continu
L(x1 , ..., xn , θ) = n .
i=1 p(θ, xi ), dans le cas discret
M. Fihri Inférence Statistique 14
Estimateur ponctuel, définition et propriétés

Estimateur exhaustif - Famille exponentielle

Définition 9
On dit qu’une statistique T 0 est exhaustive minimale si elle est exhaustive et si
on peut trouver une fonction u telle que T 0 = u(T ), pour toute statistique T .

On admet qu’une statistique exhaustive est en générale minimale.


Théorème 6
Soit à estimer un paramètre θ ∈ Θk de loi mère appartenant à une famille
paramétrique de la classe exponentielle. Alors, la statistique de dimension k :
n n n
!0
X X X
d1 (Xi ), d2 (Xi ), ..., dk (Xi )
i=1 i=1 i=1

est exhaustive minimale pour le paramètre θ.


Les fonctions di sont celles définies dans l’écriture exponentielle de la loi mère.

M. Fihri Inférence Statistique 15


Estimateur ponctuel, définition et propriétés

Quantité d’information de FISHER


Soit le modèle statistique P = {Pθ |θ ∈ Θ}, Θ ⊆ R engendrant le vecteur aléatoire
X = (X1 , X2 , ..., Xn ) qui reflète l’objet d’intérêt, les Xi sont i.i.d. et Pθ désigne
leur loi commune de densité f (x, θ) (on discutera ici le cas unidimensionnel).
Définition 10
On considère les hypothèses suivantes :
(H1 ) {x/f (x, θ) > 0} indépendamment de θ ;
(H2 ) f (x, θ) et log f (x, θ) sont continûment dérivables par rapport à θ, pour tout
θ ∈ Θ et Pθ p.s. ;
(H3 ) f (x, θ) (aussi log fR(x, θ)) est dérivable par rapport à θ au moins deux fois et
pour tout A ∈ B : A f (x, θ)dx est dérivable par rapport à θ au moins deux
fois et on peut permuter les deux opérations.

Définition 11
On suppose que (H2 ) est vraie, on appelle quantité d’information de Fisher pour θ
la quantité notée I(θ) et définie par :
" 2 #

I(θ) = E log f (X; θ) .
∂θ
M. Fihri Inférence Statistique 16
Estimateur ponctuel, définition et propriétés

Quantité d’information de FISHER


Lemme 7
f 0 (X; θ)
  00
 
f (X; θ)
Si (H3 ) est vérifiée, alors on a : E =E = 0.
f (X; θ) f (X; θ)
Proposition 2
f 0 (X; θ)
 
Sous (H1 ), (H2 ) et (H3 ), on a : I(θ) = Var .
f (X; θ)
Théorème 8
∂2
 
Sous (H1 ), (H2 ) et (H3 ), on a : I(θ) = −E log f (X; θ) .
∂θ2
Propriétés 1
(positivité) Sous (H1 ), (H2 ) et (H3 ), on a : I(θ) > 0.
(additivité) Soient X et Y deux v.a. indépendantes de lois resp. Pθ et Qθ .
Notons IX (θ), IY (θ) et IX,Y (θ) les quantités d’information de Fisher
fournies par θ resp. par X, Y et (X, Y )0 . Alors, on a, sous (H1 ), (H2 ) et
(H3 ) : IX,Y (θ) = IX (θ) + IY (θ).
M. Fihri Inférence Statistique 17
Estimateur ponctuel, définition et propriétés

Quantité d’information de FISHER


Lemme 9
Soit X1 , X2 , ..., Xn un échantillon i.i.d. extrait de X. Sous (H1 ), (H2 ) et (H3 ),
on a : In (θ) := IX1 ,X2 ,...,Xn (θ) = nIX (θ).
On notera :
In (θ) : l’information fournie par X1 , X2 , ..., Xn
I(θ) : l’information fournie par X

Théorème 10 (Lien avec l’exhaustivité)


Soient I(θ) l’information pour θ fournie par (X, Pθ ), T une statistique et I T (θ)
l’information pour θ fournie par (T, PTθ ), où PTθ est l’image de Pθ par T ; alors on
a:
(a) I T (θ) ≤ I(θ)
(b) on a l’égalité si et seulement si T est exhaustive.

Le cas multidimensionnel se traite de la même manière en introduisant la


notion du gradient et la matrice d’information qui est définie positive.
M. Fihri Inférence Statistique 18
Exemple d’estimateur ponctuel : la moyenne et la variance empirique

Plan

4 Exemple d’estimateur ponctuel : la


1 Introduction et définitions moyenne et la variance empirique
2 Notions de convergence stochastique 5 Méthodes d’estimation
3 Estimateur ponctuel, définition et 6 Estimation par intervalle de
propriétés confiance

M. Fihri Inférence Statistique 19


Exemple d’estimateur ponctuel : la moyenne et la variance empirique

considérons un n−échantillon de moyenne µ et de variance σ finie, alors :


– X est un estimateur non biaisé et convergent pour la moyenne µ, en effet :

σ 2 n→∞
E(X) = µ et Var(X) = −−−−→ 0.
n

M. Fihri Inférence Statistique 20


Exemple d’estimateur ponctuel : la moyenne et la variance empirique

2
S

considérons un n−échantillon de moyenne µ et de variance σ finie, alors :


– S 2 est un estimateur biaisé (mais asymptotiquement non biaisé) et convergent
pour la variance σ 2 , en effet :
n−1 2 n→∞
E(S 2 ) = σ 6= σ 2 et Var(S 2 ) −−−−→ 0.
n
2
On définit, ce qu’on appelle variance empirique corrigée (notée S 0 ), un
estimateur non biaisé et convergent par :
n
2 n 1 X
S0 = S2 = (Xi − X)2 .
n−1 n − 1 i=1

Bien que
2 2 n→∞
E(S 0 ) = σ 2 et Var(S 0 ) −−−−→ 0.

M. Fihri Inférence Statistique 21


Exemple d’estimateur ponctuel : la moyenne et la variance empirique

Propriété de (X, S 2 )

On admet le résultat fondamental suivant.


Théorème 11 (Lemme de Fisher))
Soit X1 , X2 , ..., Xn une suite de v.a. i.i.d. N (µ, σ 2 ). Alors
2
(i) X ∼ N (µ, σn ),
nS 2 (n−1)S 02
(ii) σ2 = σ2 ∼ χ2 (n − 1),
2
(iii) X et S sont indépendants.

Il découle du lemme de Fisher que



n X−µ
σ
√ X −µ √ X −µ
√ = n−1 = n ∼ t(n − 1).
√nS S S0
σ n−1

M. Fihri Inférence Statistique 22


Méthodes d’estimation

Plan

4 Exemple d’estimateur ponctuel : la


1 Introduction et définitions moyenne et la variance empirique
2 Notions de convergence stochastique 5 Méthodes d’estimation
3 Estimateur ponctuel, définition et 6 Estimation par intervalle de
propriétés confiance

M. Fihri Inférence Statistique 23


Méthodes d’estimation

Méthode des moments


Considérons qu’on cherche à estimer un paramètre θ = (θ1 , θ2 , ..., θk )0 sur un
n−echantillon X1 , X2 , ..., Xn Notons, pour i = 1, ..., k :
E(X i )

µi (θ) = P moment-population
1 n .
mi = n j=1 Xji moment-empirique
Supposons que les µi (θ), i = 1, ..., k existent et sont finis. Ces moments sont des
fonctions du paramètre θ
La méthode des moments consiste à prendre comme estimateur de θ la solution
θ̂ M du système


 µ1 (θ) = m1
 µ2 (θ) = m2

.. ,


 .
µk (θ) = mk

un système de k équations à k inconnues possède une et une seule solution.


On peut utiliser les moments centrés ou le mélange des deux selon ce qui facilité
la résolution et on a le résultat théorique suivant
√ :
θ̂ M converge en probabilité vers un θ0 et n(θ̂ M − θ0 ) converge en loi vers une
loi normale centrée de dimension k
M. Fihri Inférence Statistique 24
Méthodes d’estimation

Méthode des moments

Exemple :
Sur un n−echantillon X1 , X2 , ..., Xn issu d’une population normale de moyenne µ
et de variance σ 2 . Estimer par la méthode des moment (µ, σ 2 )0 .

Corrigé :
Ici k = 2, le système est donc
 
µ1 (θ) = m1 µ=X
⇔ 1
Pn
µ2 (θ) = m2 E(X 2 ) = σ 2 + µ2 = n i=1 Xi2
M 2
sa solution est donc µ̂M = X et σˆ2 = 1
Pn
n i=1 Xi2 − X = S 2

Cette méthode ne fournit pas toujours de bon estimateurs !

M. Fihri Inférence Statistique 25


Méthodes d’estimation

Méthode du maximum de vraisemblance


La méthode du maximum de vraisemblance est la méthode d’estimation la plus
utilisée. Elle possède de nombreuses propriétés intéressantes, notamment des
propriétés de convergence, de normalité et d’efficacité asymptotiques. Soit
x = (x1 , x2 , ..., xn )0 une observation
Qn dont le comportement
Qn est caractérisé par une
vraisemblance L(x, θ) (= i=1 f (xi , θ) ou = i=1 p(θ, xi ))
Définition 12
On appelle estimateur du maximum de vraisemblance (en anglais, maximum
likelihood estimator ou MLE) de θ toute valeur θ̂ M V maximisant la vraisemblance
L(x, θ), i.e., :
θ̂ M V = arg max L(x, θ)
θ

ou, de façon équivalente,


 Pn
arg maxθ Pi=1 log f (xi , θ), dans le cas continu
θ̂ M V = arg max log L(x, θ) = n
θ arg maxθ i=1 log p(θ, xi ), dans le cas discret
Si X(Ω) ne dépend pas de θ et L deux fois continument dérivable par rapport à θ
Pn ∂
(∀x &∀ θ), alors θ̂ M V est solution de i=1 ∂θ log f (xi , θ) = 0 et vérifie la
Pn ∂ 2
relation : i=1 ∂θ2 log f (xi , θ)cθ=θ̂M V < 0.
M. Fihri Inférence Statistique 26
Méthodes d’estimation

Méthode du maximum de vraisemblance, Propriétés


Théorème 12 (Inégalité de Cramer-Rao ou de Fréchet)
Soit T un estimateur sans biais pour θ de dimension 1. Sous certaines conditions
de régularité on a nécessairement, pour tout θ ∈ Θ :
1
Var(T ) ≥ ,
nI(θ)
I(θ), appelée information de Fisher, vaut :
" 2 #  2 
∂ ∂
I(θ) = E log f (X; θ) = −E log f (X; θ) .
∂θ ∂θ2
Proposition 3
Soit un n−échantillon issu de la densité f (x; θ). Sous certaines conditions de
régularité qui garantissent notamment l’existence d’un EMV θ̂(n)M V pour tout n ;
on considère la suite (θ̂(n)M V )n quand n croit à l’infini. Alors cette suite est telle
que :
√ (n)M V
 
L 1
n(θ̂ − θ) −
→ N 0, .
I(θ)
M. Fihri Inférence Statistique 27
Méthodes d’estimation

Méthode du maximum de vraisemblance, Exemple


Soit à estimer le paramètre θ > 0 de la loi exponentielle dont la densité est :
f (x; θ) = θe−θx , si x ≥ 0 (0 sinon).
La vraisemblance (pour xi ≥ 0; ∀i = 1, ..., n) vaut :
n n
!
Y X
n
L(x1 , x2 , ..., xn ; θ) = f (xi ; θ) = θ exp −θ xi
i=1 i=1
n
X
log L(x1 , x2 , ..., xn ; θ) = n log θ − θ xi
i=1
n
∂ n X n
log L(x1 , x2 , ..., xn ; θ) = 0 ⇔ − xi = 0 ⇔ θ∗ = Pn
∂θ θ i=1 i=1 xi

∂2 n
2
log L(x1 , x2 , ..., xn ; θ) = − 2 < 0
∂θ θ
Donc θ∗ est bien maximum ; c-à-d. θ̂M V = Pn n Xi est un EMV et on a :
i=1

√ MV
 
L 1 1
n(θ̂ − θ) −
→ N 0, , avec I(θ) = 2
I(θ) θ
M. Fihri Inférence Statistique 28
Estimation par intervalle de confiance

Plan

4 Exemple d’estimateur ponctuel : la


1 Introduction et définitions moyenne et la variance empirique
2 Notions de convergence stochastique 5 Méthodes d’estimation
3 Estimateur ponctuel, définition et 6 Estimation par intervalle de
propriétés confiance

M. Fihri Inférence Statistique 29


Estimation par intervalle de confiance

Définition
L’estimation ponctuelle de θ associe une estimation θ̂x (un nombre) à chaque
valeur x de l’observation X. L’information fournie est relativement maigre : un
seul nombre.
Dans le problème de l’estimation par intervalle, on associe un intervalle
[L− (x); L+ (x)] à chaque valeur x de l’observation X.
Définition 13
Un intervalle de confiance au niveau de confiance 1 − α (α choisi à l’avance) pour
θ est un intervalle [L− (x); L+ (x)] tel que
(a) L− (X) et L+ (X) sont des statistiques,
(b) P(θ ∈ [L− (x); L+ (x)]) ' 1 − α.
– L’intervalle de confiance (noté IC1−α (θ) ou ICα (θ)) est donc déterminé par la
connaissance de (la probabilité) la loi de l’estimateur de θ : par exemple dans le
cas d’une proportion
P
(dans une expérience de Bernoulli) on a démonter que pour
Xi
n grand, p̂ = n ∼ N (p, pq n ) : √ √ 
p̂q̂ p̂q̂
ICα (p) = p̂ − z1−α/2 √ ; p̂ + z1−α/2 √ .
n n
– Lorsque la taille de l’échantillon est grande et grâce au TCL, on pourra
facilement trouver l’IC (via la loi normale).
M. Fihri Inférence Statistique 30
Estimation par intervalle de confiance

Rappel

—————————————————————————————————–
Rappelons le lemme de Fisher :
Pour un échantillon X1 , X2 , ..., Xn i.i.d. N (µ, σ 2 ), on a
2
(i) X ∼ N (µ, σn ),
nS 2 (n−1)S 02
(ii) σ2 = σ2 ∼ χ2 (n − 1),
2
(iii) X et S sont indépendants.
et que du lemme de Fisher, on constate que

√ X −µ
n ∼ t(n − 1).
S0
On sait que, pour Z ∼ N (0, 1) : P(−z1−α/2 < Z < z1−α/2 ) = 1 − α ;
P(Z < zα ) = α, ...
Et de même pour T ∼ t(ν) : P(−tν,1−α/2 < T < tν,1−α/2 ) = 1 − α, ...
—————————————————————————————————–

M. Fihri Inférence Statistique 31


Estimation par intervalle de confiance

IC pour la moyenne d’un échantillon gaussien


1) Cas où σ connu :

D’après le lemme de Fisher, n X−µ
σ ∼ N (0, 1). Donc
√ X −µ
 
P −z1−α/2 < n < z1−α/2 = 1 − α,
σ
 
C-à-d. σ σ
P X − z1−α/2 √ < µ < X + z1−α/2 √ =1−α
n n
 
σ σ
ICα (µ) = X − z1−α/2 √ ; X + z1−α/2 √
n n
2) Cas où σ inconnu :
√ X−µ
n S 0 ∼ t(n − 1). Donc
√ X −µ
 
P −tn−1,1−α/2 < n < tn−1,1−α/2 = 1 − α,
S0
C-à-d. 
S0 S0

P X − tn−1,1−α/2 √ < µ < X + tn−1,1−α/2 √ =1−α
n n
S0 S0
 
ICα (µ) = X − tn−1,1−α/2 √ ; X + tn−1,1−α/2 √
n n
M. Fihri Inférence Statistique 32
Estimation par intervalle de confiance

IC pour la variance d’un échantillon gaussien


Rappelons que –la loi du χ2 n’est pas symétrique par rapport à 0– pour
X ∼ χ2 (ν) on a : P(χ2ν,α/2 < X < χ2ν,1−α/2 ) = 1 − α.
1) Cas où µ inconnu :
2
D’après le lemme de Fisher, nS 2
σ 2 ∼ χ (n − 1). Donc

nS 2
 
P χ2n−1,α/2 < 2 < χ2n−1,1−α/2 = 1 − α,
σ
C-à-d. 2
!
nS 2 nS 2
P <σ < 2 =1−α
χ2n−1,1−α/2 χn−1,α/2
" #
2 2
nS nS
ICα (σ 2 ) = ; .
χ2n−1,1−α/2 χ2n−1,α/2
2) Cas où µ connu :
2 2 Pn
On admet le résultat nS” 2
σ 2 ∼ χ (n); avec S” = n
1 2
i=1 (Xi − µ) .
De même on trouve que :
" #
2 2
nS” nS”
ICα (σ 2 ) = ; .
χ2n,1−α/2 χ2n,α/2
M. Fihri Inférence Statistique 33

Vous aimerez peut-être aussi