Vous êtes sur la page 1sur 13

Chap 4.

1.  Estimation par intervalle pour


Chapitre 4 une moyenne d’une variable
Gaussienne
2.  -- pour une moyenne d’une
Estimation variable quelconque
3.  Maximum de vraisemblance
4.  Exemples

1.  Estimation par intervalle pour une moyenne d’une


variable Gaussienne
Souvent plus réaliste et plus intéressant de donner un renseignement du type
a < θ < b plutôt que θ = c. On dit alors qu’on donne une estimation par intervalle de
θ ou estimation ensembliste.

1.1 Généralités
On a vu que l‘intervalle de fluctuation = intervalle probabiliste (Chap 3):
On utilise les caractéristiques de la population étudiée pour calculer l’intervalle de
fluctuation. Intervalle de fluctuation
(
= intervalle fixe dans lequel on s’attend à trouver P X ∈ I
la moyenne empirique avec (1-α) chances.
)
f = 1−α

Exemple: k échantillons possibles extraits et on calcule les k différentes X


x11 , x12 ,..., x1n ; X 1

X1
Population
cible x21 , x22 ,..., x2n ; X 2 a µ b

X2
a µ b
..
.
Loi de X - Gaussienne Xk
centrée autour xk1 , xk 2 ,..., xkn ; X k a µ b
d’une moyenne µ
Moyenne et intervalle de fluctuation fixes, mais la moyenne X varie.
On connait la distribution de la population. et la moyenne théorique, ou on
suppose les connaître.
On va chercher à construire un intervalle fixe, centrée autour de la moyenne
théorique qui a la propriété suivante: la moyenne empirique doit se trouver à
l’intérieur de cet intervalle pour (1-α)% des échantillons tirés au hasard.
Seuls α% des échantillons tirés seront tels que leur moyenne empirique ne sera
pas contenue dans cet intervalle de variation fixé.
L’intervalle de confiance est de nature Statistique.
La démarche est inductive.
On ne connait pas la population.

On part de l’échantillon, dans lequel on a observé une moyenne empirique, et on


cherche un intervalle aléatoire, fonction des seuls observations que l’on a, mais
qui, construit de la même manière sur tout autre échantillon, sera tel que sur 100
échantillons tirés, (1-α)% des intervalles construits tous de la même manière,
contiendront la vraie valeur de la moyenne théorique (inconnue !).

P ( I c ∍ µ ) = 1− α
( )
P X ∈ I f = 1−α P ( I c ∍ µ ) = 1− α
intervalle de fluctuation ≠ intervalle de confiance
(ou de Variation)

Fixe, aléatoire,
dépends des paramètres ne dépends que des observations
théoriques (et donc des valeurs empiriques).

Pour construire l’intervalle de confiance, le statisticien va utiliser le calcul des


probabilités:
•  Suppose que la loi de la population et sa moyenne sont connues;
•  Calcule un intervalle de fluctuation autour de la moyenne théorique;
•  En déduit l’intervalle de confiance par „inversion“:
partant d’un couple de valeurs théoriques encadrant la moyenne empiriques,
il en déduira un couple de valeurs empiriques encadrant la moyenne
théorique.

Pas toujours possible.


La détermination et le calcul des intervalles de confiance constituent des
problèmes mathématiques d’une difficulté non négligeable, surtout quand le
nombre de paramètres inconnus est grand.
Plutôt que de formaliser une théorie générale, nous allons aborder la question par
des exemples simples, utiles et suffisants dans la plupart des cas que nous
rencontrerons.
1.2 Intervalle de confiance d’une moyenne théorique d’une
loi normale

1.2.1 Variance connue

Intervalle de confiance d’une moyenne théorique d’une distribution normale


N (µ, σ²), avec σ connue.
Il s’agit d’un intervalle aléatoire Ic , vérifiant :
P( I c ∍ µ ) = 1 − α
Pour construire cet intervalle, on part d’un intervalle de fluctuation, et on utilise
les inégalités qui en découlent, à savoir :

P( X ∈ I f ) = 1 − α
⎛ σ σ ⎞
⇔ P⎜ µ − e α ≤ X ≤µ+ e α ⎟ = 1 − α
⎜ ⎟
Inversion

⎝ n 1−
2 n 1− 2 ⎠
⎛ σ σ ⎞
⇔ P⎜ X − e α ≤µ≤X+ e α ⎟ = 1 − α
⎜ n 1− 2 n 1− 2 ⎟
⎝ ⎠

ou

P(I c ∍ µ ) = 1 − α
⎡ σ σ ⎤
I c = ⎢ X − e α,X + e α ⎥
⎢⎣ n 1−
2 n 1− ⎥
2 ⎦
Avec e α défini par:
1−
2

⎛ ⎡ ⎤ ⎞
P⎜ Z ∈ ⎢− e α ,+e α ⎥ ⎟ = 1 − α
⎜ ⎢ 1− 1− ⎥ ⎟
⎝ ⎣ 2 2 ⎦ ⎠

Où Z est distribué suivant une loi normale N(0,1).

Si n> 30 (grand échantillon), cet intervalle de confiance reste valable


∀ la distribution des observations.

1.2.2 Variance inconnue; échantillon de grande taille

On montre que:
quand n, la taille de l’échantillon, est grande (n>30 typiquement), l’intervalle
de confiance précédent est valide en remplaçant la variance théorique σ2
inconnue par un estimateur empirique convergent.
Note: Les deux estimations de σ, S calculée avec n ou S (sans biais,) calculée avec
n-1, au dénominateur sont convergente.

D’où, l’intervalle de confiance ici:

P(I c ∍ µ ) = 1 − α
⎡ S S ⎤
I c = ⎢ X − e α,X + e α ⎥
⎢⎣ n 1− 2 n 1− 2 ⎥⎦
1.2.3 Variance inconnue, échantillon de petite taille
Intervalle de confiance d’une moyenne théorique µ d’une distribution
normale
N (µ, σ²), avec σ inconnue.
On utilise dans ce cas le théorème de Fisher:
Soit (X1,X2, Xn) un échantillon issu d’une distribution normale
N (µ, σ²), alors: n
2
∑ (X i − X )
1.  X et S X2 = i =1
sont indépendan tes et
n −1

n −1
2.  S X2 ~ χ 2 (n − 1)
σ2

Par ailleurs, on sait que la loi de Student s’applique dans le cas suivant
(cf. chap 2):
Soient deux variables aléatoires indépendants
U ~ N(0,1) et Y ~ χ2(n) alors la variable

U
T=
Y
n

suit une loi de Student à n degrés de libertés, T(n).


Conséquence: On considère l’équivalent centré réduit de notre échantillon:
Xi − µ
(U1,U2 ,U3,...,Un ) avec U i = ~ N (0,1)
Alors: σ
n n
# Xi − µ & n
∑Ui ∑%$ σ (' ∑ Xi − nµ X µ 1
U = i=1 = i=1 = i=1 = − ~ N (0, )
n n nσ σ σ n
et nU ~ N (0,1)

2 2
n
2 # X i − µ # X µ &&
n n
# Xi − X & 1
n
2
∑(Ui −U ) ∑%$ σ − %$ σ − σ ('(' ∑%$ σ (' σ 2 ∑( Xi − X ) S 2
SU2 = i=1 = i=1 = i=1 = i=1
= X2
n −1 n −1 n −1 n −1 σ
2
(n −1)SX
et (n −1)SU2 = 2
~ χ 2 (n −1)
σ
(Loi chi2 pour la somme de var gaussiennes centré-réduites au carré)

Si on applique maintenant la loi de Fisher à l’échantillon (Z1,Z2,…,Zn), on a:


n Z et (n − 1 )SZ2 indépendantes et (n − 1 )SZ2 ~ χ 2 (n − 1).

On en déduit la loi de Student suivante:

N(0,1)
"X µ% "X µ%
n$ − ' n$ − '
nU #σ σ & #σ σ & X −µ
= = = ~ T (n −1)
2 2 2 2
(n −1)S U S U S X SX
2
n −1 σ n
χ2(n-1)
n-1
Donc, pour déterminer l’intervalle de confiance de la moyenne théorique dans le
cas d’un petit échantillon et d’une variance inconnue, on considère la variable
aléatoire:
X −µ
Y= ~ T (n − 1)
2
SX
n

Cette loi nous permettra de déduire l’intervalle de fluctuation:

⎛ ⎡ ⎤ ⎞
⎜ ⎟
P⎜ T ∈ ⎢− t α ,+t α ⎥ ⎟ = 1 − α
⎜ ⎢ 1− 1− ⎥ ⎟
⎝ ⎣ 2 2 ⎦ ⎠

Et l’intervalle de confiance de la moyenne théorique µ:

⎡ ⎤
S S
I c = ⎢ X − t α ,X + t α ⎥
⎢ n 1− n 1− ⎥
⎣ 2 2 ⎦
Chap 4.
1.  Estimation par intervalle pour
Chapitre 4 une moyenne d’une variable
Gaussienne
2.  -- pour une moyenne d’une
Estimation variable quelconque
3.  Maximum de vraisemblance
4.  Exemples

2.  Estimation par intervalle pour une moyenne d’une


variable quelconque

2.1 Généralités
On considère un échantillon X1,X2,…,Xn de variables indépendantes et
identiquement distribuées selon un loi quelconque f avec
E ( X i ) = µ ; Var ( X i ) = σ 2
Théorème Central Limite (TCL):

n
(X − µ ) ⎯⎯⎯→ N (0,1)
n →∞

σ
On peut alors calculer l’intervalle de confiance asymptotique:

P(I c ∍ µ ) = 1 − α
⎡ ⎤
σ σ
I c = ⎢ X − e α ,X + e α ⎥
⎢ n 1− n 1− ⎥
⎣ 2 2 ⎦

S2 Estimateur convergent de la variance théorique.

è La possibilité de construire un intervalle exact pour des petits effectifs dépendra


de la loi f caractérisant la distribution.
2.2 Exemple

Intervalle de confiance d’une proportion théorique de réalisation


d’un événement:
Evénement se réalise: code 1
sinon: code 0
Une expérience Xi est donc équivalente à un tirage de Bernouilli de
paramètre π(probabilité de se réaliser).
n

∑X i
(== proportion observée P0.)
X = i =1
n
et
E ( X i ) = π ; Var ( X i ) = π (1 − π )

TLC:

n
(X − µ ) = n
(X − π ) = n
(X − π ) n →∞
⎯⎯⎯→ N (0,1)
σ π (1 − π ) X (1 − X )
Estimateur convergent
de la variance

L’intervalle de confiance est donc dans ce cas:

P(I c ∍ µ ) = 1 − α
⎡ ⎤
X (1 − X ) X (1 − X )
I c = ⎢ X − e α ,X + e α ⎥
⎢ n 1− n 1− ⎥
⎣ 2 2 ⎦
Chap 4.
1.  Estimation par intervalle pour
Chapitre 4 une moyenne d’une variable
Gaussienne
2.  -- pour une moyenne d’une
Estimation variable quelconque
3.  Maximum de vraisemblance
4.  Exemples

3.  Estimation : Maximum de vraisemblance

Méthode du Maximum de Vraisemblance :


consiste à prendre pour estimateur d’un paramètre inconnu θ, la fonction des
observations θ = S(X) qui rende maximum la probabilité de l’échantillon observé
(appelée Vraisemblance de l’échantillon.), c’est à dire la probabilité de réalisation
des données dont il dispose:

On recherche θ = S (X ) tel qu’on maximise la probabilité d’observer l’échantillon.


On considère donc que la réalité observée est la plus probable.
3.1 Vraisemblance d’un échantillon
Correspond à une probabilité conditionnelle qui décrit le paramètre θ d’une loi
statistique en fonction des valeurs observées xi supposées connues.
Soit X1, X2, …, Xn, un échantillon de la variable X suivant la loi f dépendant d’un
paramètre inconnu θ (notée f(x ; θ)). On appelle vraisemblance des observations
(X1, X2, …, Xn) :

X discrète: Vrais( x1, x2 ,... xn ;θ ) = P( X1 = x1, X 2 = x2 ,... X n = xn ;θ )


= f ( x1;θ ) × f ( x2 ;θ ) × ... f ( xn ;θ )
n
= ∏ f ( x ;θ )
i =1
i

X continue: Vrais( x1, x2 ,... xn ;θ ) = f ( X1 = x1, X 2 = x2 ,... X n = xn ;θ )


= f ( x1;θ ) × f ( x2 ;θ ) × ... f ( xn ;θ )
n
= ∏ f ( x ;θ )
i =1
i

Qd les obs. sont connues, c’est une fonction (probabilité ou densité) du seul
paramètre inconnu θ.

L( x1, x2 ,... xn ;θ ) = Log (Vrais( x1, x2 ,... xn ;θ ))


= Log ( f ( x1;θ )) + Log ( f ( x2 ;θ )) + ... + Log ( f ( xn ;θ ))
n
= ∑ Log( f ( x ;θ ))
i =1
i
3.2 Méthode d’estimation du maximum de vraisemblance

θ Estimateur du maximum de vraisemblance de θ ssi il vérifie:

Vrais( x1, x2 ,... xn ;θ ) = Maxθ {Vrais( x1, x2 ,... xn ;θ )}


ou
L( x1, x2 ,... xn ;θ ) = Maxθ {L( x1, x2 ,... xn ;θ )}

θ Asymptotiquement (i.e. pour de gdes valeurs de n):


sans biais, consistent, gaussien et souvent optimal (variance min).

On va donc recherche les valeurs pour lesquelles: ∂L


=0
∂θ

Vous aimerez peut-être aussi