Vous êtes sur la page 1sur 9

Correction de l’examen de Statistique du

Mardi 7 décembre 2010

Exercice 1 : Estimation

On considère n variables aléatoires X1 , ..., Xn indépendantes suivant la même loi de densité


 
 2
 x x2
f x; σ = 2 exp − 2 IR+ (x)
σ 2σ
avec σ > 0 et où IR+ (x) est la fonction indicatrice sur R+ (IR+ (x) = 1 si x ∈ R+ et IR+ (x) = 0 si
x∈/ R+ ). Cette loi est appelée loi de Rayleigh et on utilisera la notation habituelle Xk ∼ R (σ 2 ).
On admettra que les premiers moments deles résultats suivants
  
π  2 2
 3 π  
E [Xk ] = σ , E Xk = 2σ , E Xk = 3 σ 3 et E Xk4 = 8σ 4 .
2 2
Estimateur du Maximum de Vraisemblance
1) La vraisemblance de (x1 , ..., xn ) est définie par
n

L(x1 , ..., xn; θ) = f (xi ; θ) ,


i=1

n  2
xi x
= exp − IR+ (xi ) ,
i=1
θ 2θ
n n
 n
x 1

i=1 i 2
= exp − x IR+ (xi ) .
θn 2θ i=1 i i=1

On a alors n n
1 2
ln L(x1 , ..., xn ; θ) = −n ln θ + ln (xi ) − x.
i=1
2θ i=1 i
∂ ln L(x1 ,...,xn ;θ)
En étudiant le signe de ∂θ
, on obtient :
n
∂ ln L(x1 , ..., xn ; θ) −n 1 2
≥ 0 ⇐⇒ + 2 x ≥ 0,
∂θ θ 2θ i=1 i
n
1 2
⇐⇒ θ ≤ x.
2n i=1 i
1
n
La vraisemblance possède donc un maximum global unique obtenu pour θ = 2n i=1 x2i d’où
n
1 2
θMV = X .
2n i=1 i

1
2) La moyenne de l’estimateur θMV est
  n
1  2
E θMV = E Xi
2n i=1
n
1  2
= 2σ
2n i=1
= σ2 = θ

L’estimateur θMV est donc un estimateur non biaisé de θ. La variance de l’estimateur θMV est
n 
  1
var θMV = 2
var Xi2 ,
4n i=1
1  2
= var X1 ,
4n
1   4  2 
= E X1 − E X12 ,
4n
1  4 
= 8σ − 4σ 4
4n
σ4
=
n

L’estimateur θMV est un estimateur non biaisé de θ tel que


 
lim var θMV = 0
n→∞

donc l’estimateur θMV est convergent.


3) La borne de Cramer-Rao pour les estimateurs non biaisés du paramètre θ est définie par
−1
BCR (θ) =  ,
∂ ln L(X1 ,...,Xn ;θ)
E ∂θ2
n
−1
∂ −n 1 2
= −E + 2 X ,
∂θ θ 2θ i=1 i
n
−1
n 2 2
= −E 2 − 3 X
θ 2θ i=1 i
 −1
n 1 θ2
= − 2 + 3 (2nθ) =
θ θ n
 
Puisque θMV est un estimateur non biaisé de θ et que var θMV =BCR(θ), l’estimateur θMV est
l’estimateur efficace de θ.

2
Estimation Bayésienne
On suppose désormais qu’on dispose d’une information a priori sur le paramètre θ résumée dans
la loi inverse-gamma IG (α, β) de densité

βα 1 β
f (θ) = exp − IR+ (θ)
Γ (α) θ α+1 θ
1) La loi a posteriori de θ| x1 , ..., xn s’écrit
f ( θ| x1 , ..., xn ) ∝ f ( x1 , ..., xn | θ) f (θ)
n
 
1 1 2 1 β
∝ n exp − x exp − IR+ (θ)
θ 2θ i=1 i θα+1 θ
 n 
1 1 1 2
∝ n+α+1 exp − x +β IR+ (λ)
θ θ 2 i=1 i
Cette densité est la densité d’une loi inverse-gamma
 n

1
θ| x1 , ..., xn ∼ IG n + α, x2i + β
2 i=1

2) L’estimateur du maximum a posteriori du paramètre θ noté θMAP est obtenu en maximisant le


logarithme de la loi a posteriori f ( θ| x1 , ..., xn ). Mais
n 
1 1 2
ln [f ( θ| x1 , ..., xn )] = C − (n + α + 1) ln θ − x +β
θ 2 i=1 i

d’où
n 
∂ ln [f ( θ| x1 , ..., xn )] n+α+1 1 1 2
≥ 0 ⇐⇒ − + 2 x +β ≥0
∂θ θ θ 2 i=1 i
n 
1 1 2
⇐⇒ θ ≤ x +β
n + α + 1 2 i=1 i

La loi a posteriori f ( θ| x1 , ..., xn ) possède donc un unique maximum global, d’où


n 
1 1
θMAP = X2 + β
n + α + 1 2 i=1 i

On peut exprimer θMAP en fonction de θMV puisque


n

1 1 β
θMAP = Xi2 +
1 + α+1
n
2n i=1
n
1  β
= α+1 θMV +
1+ n n+α+1

L’estimateur θMAP se comporte donc θMV comme lorsque n → ∞. Lorsqu’on a beaucoup d’observations,
on fait confiance à ces observations et donc l’effet de la loi a priori est négligeable.

3
Méthode des Moments
1) La moyenne d’une loi de Rayleigh est

π
E [X] = σ
2
donc
2
θ = σ2 = [E [X]]2
π
L’estimateur des moments résultant de cette dernière égalité est
n 2
2 1
θM = Xi
π n i=1

2) La moyenne de l’estimateur θM est


n 
  2 n
E θM = E Xi Xj
πn2 i=1 j=1
2
= E [Xi Xj ]
πn2 i,j
2   2  2  2
= nE X i + n − n E [Xi ]
πn2
2   2 π 
= 2nθ + n − n θ
πn2 2
4 + π (n − 1)
= θ
πn
On en déduit un estimateur non-biaisé du paramètre θ
n 2
πn 2n 1
θ∗ = θM = Xi
4 + π (n − 1) 4 + π (n − 1) n i=1

4
Exercice 2 : Test de Neyman-Pearson

1) Le test de Neyman-Pearson est défini par

L(x1 , ..., xn ; θ1 )
Rejet de H0 si > kα .
L(x1 , ..., xn ; θ0 )

Mais
n   
xi
L(x1 , ..., xn ; θ1 )
i=1
θ1n
exp − 2θ11 ni=1 x2i
> Sα ⇔ n  n 2  > kα ,
L(x1 , ..., xn ; θ0 ) i=1 xi 1
exp − 2θ0 i=1 xi
θ0n

n
1 1
⇔ − x2i > kα′
θ0 θ1 i=1

1 1
Pour θ1 > θ0 , on a θ0
− θ1
> 0 et donc on en déduit le test équivalent
n

Rejet de H0 si Xi2 > sα .
i=1

1 1
Pour θ1 < θ0 , on a θ0
− θ1
< 0 et donc le test s’écrit
n

Rejet de H0 si Xi2 < sα .
i=1

La statistique du test de Neyman-Pearson est donc


n

Tn = Xi2 .
i=1

La région critique de ce test est définie par

• Si θ1 > θ0   
 n

x ∈ Rn  x2i > sα .

i=1

• Si θ1 < θ0   n 

n 2
x∈R  xi < sα .

i=1

Xk2
2) Le changement de variables Yk = σ2
est bijectif de R+ dans R+ . De plus

x2k √
yk = 2
⇐⇒ xk = σ yk
σ

5
Le Jacobien de la transformation est donc
dxk σ
J= = √
dyk 2 yk

La densité de Yk est donc


√  y  σ
σ yk k
g(yk ) = exp − √ IR+ (yk )
σ2 2 2 yk

soit  y 
1 k
g(yk ) = exp − IR+ (yk )
2 2
Xk2
On en déduit que Yk = σ2
suit une loi du χ22 à deux degrés de liberté. La fonction caractéristique
de Tσn2 est
 Tn 
φ(u) = E eiu σ2
  2

Xk
iu n
= E e k=1 σ 2

n 

= E eiuYk
k=1

En utilisant le fait que les variables aléatoires Yk sont indépendantes, on obtient


n

φ(u) = φYk (u)


k=1

n
1
=
k=1
1 − 2iu
1
=
(1 − 2iu)n
Tn
On en déduit que σ2
suit une loi du khi-deux à 2n degrés de liberté

Tn
∼ χ22n
σ2
3) Le risque de première espèce α est défini par

α = P [Rejeter H0 | H0 vraie] ,
n  


= P Xi2 > sα  θ = θ0 ,

i=1  n

Tn sα  Xi2
= P > 2 ∼ χ22n ,
σ02 σ0 i=1 σ02


= G2n .
σ02

6
De la même façon

β = P [Rejeter H1 | H1 vraie] ,
n  


= P Xi2 ≤ sα  θ = θ1 ,

i=1
 n 
Tn sα  Xi2
= 1−P > 2 ∼ χ22n ,
σ12 σ1 i=1 σ12


= 1 − G2n .
σ12

4) Les courbes caractéristiques opérationnelles du récepteur (courbes COR) expriment la puissance


du test π = 1 − β en fonction de α. Dans le cas présent, on a


π = G2n ,
σ12
 2 
σ0 −1
= G2n 2 G2n (α) .
σ1

On voit donc que la performance du test dépend des variances σ02 et σ12 uniquement via la quantité
σ02
σ2
(la puissance dépend aussi de α bien entendu). Si on fixe σ02 et le risque α, plus σ12 est grand,
1
σ02
plus σ12
est petit et donc plus la puissance du test est grande.

7
Exercice 3 : Test d’ajustement

1) Nous allons effectuer un test du χ2 construit à partir des 6 classes suivantes

C1 = {1}, C2 = {2}, C3 = {3}, C4 = {4}, C5 = {5}, C6 = {6}

Les deux hypothèses sont définies par

H0 : le dé est non truqué


H1 : le dé est truqué

L’hypothèse H0 est caractérisée par


1
P (Ci ) = pi = , ∀i = 1, .., 6
6
tandis que pour l’hypothèse H, au moins une des probabilités pi est différente de 16 . La statistique
du test du χ2 est
6
(Ni − npi )2
φ =
i=1
npi

6  n 2
6
= Ni −
n i=1 6
1
= [4 + 4 + 4 + 1 + 0 + 9]
20
22
= = 1.1
20
La régle de décision du test du χ2 est

Rejet de l’hypothèse H0 si φ > sα,

avec

α = P [Rejeter H0 | H0 vraie] ,
= P [φ > sα | H0 vraie] .
 
= P φ > sα | φ ∼ χ25 .

On sait que φ est distribuée suivant une loi du χ2K−1 sous l’hypothèse H0 , où K = 6 est le nombre
de classes. Si gn (u) est la densité d’une loi du χ2n , on pose
 ∞
gn (u)du = Gn(x),
x

et on obtient
α = G3 (sα ) =⇒ sα = G−1
5 (α) .

8
Pour α = 0.05, les tables de la loi du χ25 donnent

sα = 11.071

On observe que
φ < s0.05
et donc on accepte l’hypothèse que le dé est parfait avec le risque a = 0.05.
2) L’application du théorème de la limite centrale donne
1
n
Xi − E[Xi ] L
n
i=1 → N (0, 1)
var [Xi ] /n n→∞


Pour n grand, on peut donc approcher la loi de n1 ni=1 Xi par la loi normale

var [Xi ]
N E[Xi ],
n

Pour une loi uniforme sur l’ensemble {1, ..., 6} (ce qui correspond à l’hypothèse H0 ), on a
1 + ... + 6 7
E[Xi ] = =
6 2
12 + ... + 62 49 35
var [Xi ] = E[Xi2 ] − E [Xi ]2 = − = = ν2
6 4 21
donc n
1 7
n
Xi −
i=1 2
Un = √ ≃ N (0, 1)
ν/ n
où ≃ signifie asymptotiquement distribué. On en déduit

α = P [Rejeter H0 | H0 vraie] ,
 2 
n
1 7
= P Xi − > sα | H0 vraie ,
n i=1 2
 2 
ν 2
= P U > sα | H0 vraie ,
n n
 n 
2 2 2
= P Un > 2 sα | Un ∼ χ1 ,
 n ν
= G1 2 sα
ν
On en déduit
ν 2 −1
sα = G (α) .
n 1

Vous aimerez peut-être aussi