0% ont trouvé ce document utile (0 vote)
390 vues9 pages

Mathf 207 Seance 5 Corr

Ce document présente la résolution d'un exercice portant sur l'estimation ponctuelle. L'exercice consiste à estimer le paramètre θ d'une loi de densité donnée à partir d'un échantillon. Plusieurs estimateurs sont proposés et leur propriétés (biais, variance, efficacité) sont étudiées.

Transféré par

soulaimane lafhal
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
390 vues9 pages

Mathf 207 Seance 5 Corr

Ce document présente la résolution d'un exercice portant sur l'estimation ponctuelle. L'exercice consiste à estimer le paramètre θ d'une loi de densité donnée à partir d'un échantillon. Plusieurs estimateurs sont proposés et leur propriétés (biais, variance, efficacité) sont étudiées.

Transféré par

soulaimane lafhal
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Math-F-207 Corrigé Séance 5

Séance 5 : Exercices récapitulatifs sur l’estimation ponctuelle

Exercice 1
Les éléments d’une population possèdent un caractère X qui suit une loi de densité

θ 2
fθ (x) = √ e−θx /2

où θ > 0. Pour étudier le paramètre θ, on a effectué une suite de n expériences indépendantes qui
ont donné les réalisations x1 , . . . , xn de n v.a. X1 , . . . , Xn i.i.d. de même loi que X.
1. Déterminez un estimateur θ̂ du paramètre θ par la méthode du maximum de vraisemblance.
2. θ̂ est-il exhaustif ?
3. Calculez la moyenne et la variance de θ̂. Déduisez-en un estimateur θ̂1 de θ non biaisé. Quelle
est la variance de θ̂1 ? Est-il convergent ?
4. Notons B (n) (θ) la borne de Cramer-Rao pour l’estimation de θ. Dans l’ensemble des estima-
teurs non biaisés de θ, on définit l’efficacité relative de θ̂1 comme étant
B (n) (θ)
e(θ̂1 ) := .
V ar[θ̂1 ]

Calculez e(θ̂1 ). Qu’en concluez-vous ?


5. Soit s2 = n1 ni=1 (Xi − X̄)2 . Peut-on définir un estimateur θ̂2 non biaisé de θ, qui soit sim-
P

plement lié à s2 ? Quelle est son efficacité relative ? De θ̂1 et θ̂2 , lequel préconiseriez-vous ?

Solution :

1. La vraisemblance s’écrit :
n  n/2
Y θ Pn
Xi2
Lθ (X) = fθ (Xi ) = e−θ/2 i=1 .

i=1

Cette fonction est C ∞ en θ, on peut donc chercher son maximum en utilisant les conditions
du premier et second ordre. Comme elle est partout positive, on passe au logarithme pour
simplifier les calculs :
  n
n θ θX 2
log Lθ (X) = log − Xi
2 2π 2
i=1
n
n 1X
∂θ log Lθ (X) = − Xi2
2θ 2
i=1
n
∂θ log Lθ (X) = 0 ⇔ θ̂ = Pn 2
i=1 Xi

On vérifie aisément que θ̂ = Pn n X 2 est un maximum et l’on conclut que θ̂ est l’estimateur
i=1 i
du maximum de vraisemblance pour θ.
2. On utilise ici le critère de factorisation de la vraisemblance
 n/2
θ Pn 2
Lθ (X) = e−θ/2 i=1 Xi = h(X)gθ (θ̂),

avec  n/2
1 −θ
h(t) = et gθ (x) = θe 2nx .

La statistique θ̂ est donc exhaustive.

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

3. On ne veut pas intégrer directement θ̂ pour calculer son espérance, le changementPde variables
impliqué étant peu pratique. Il vaut mieux commencer par déterminer la loi de ni=1 Xi2 , qui
est plus accessible. En effet, on remarque à la forme de la densité de fθ que les Xi suivent en
fait une loi normale‘déguisée”, si l’on pose µ = 0 et σ 2 = θ−1 . Ainsi,
1
Xi ∼ N (0, )
θ
de façon indépendante. Si l’on se souvient que la somme de normales centrées réduites
indépendantes est distribuée
√ selon une loi chi-deux, on est proche de l’objectif. Il suffit de
considérer les variables θXi qui sont centrées réduites, et il vient que
n
X
Z=θ Xi2 ∼ χ2n ,
i=1

dont on connaı̂t la densité. On a ainsi


 
h i nθ
= nθIE Z−1 .
 
IE θ̂ = IE
Z
On va maintenant écrire l’espérance comme une intégrale et bricoler un peu à l’intérieur pour
arriver au résultat.
  Z Z
1 1 1 n
−1 −z/2 1 n−2
IE = n/2
z2 e dz = n/2
z 2 −1 e−z/2 dz.
Z IR+ z 2 Γ(n/2) IR+ 2 Γ(n/2)
L’idée est de faire apparaı̂tre sous l’intégrale la densité d’une loi chi-deux en ajustant le nombre
de degrés de libertés au fait que la puissance de z dans l’intégrande est diminuée de un. Il
faut donc mettre les bonnes constantes. Entre autres, faire sortir un deux au dénominateur,
ainsi qu’un facteur (n − 2)/2 grâce aux propriétés de la fonction Γ. L’intégale restante est
alors celle d’une densité sur son domaine et vaut donc un. D’où
 
1 1
IE = .
Z n−2

On en déduit l’espérance de θ̂
 
h i 1 n
IE θ̂ = nθIE = θ.
Z n−2

Le raisonnement et les calculs sont similaires pour la variance. Connaissant l’espérance de θ̂,
il nous reste pour obtenir la variance à calculer celle de son carré :
n2 θ 2
θ̂2 = .
Z2
On a alors, à l’aide des mêmes idées
h i n2 θ2
IE θ̂2 =
(n − 2)(n − 4)
et   2n2 θ2
Var θ̂ = · · · = .
(n − 2)2 (n − 4)
On note au passage que θ̂ est asymptotiquement sans biais et convergent. On en déduit un
estimateur sans biais par une simple transformation linéaire :
n−2 h i
θ̂1 = θ̂ ⇒ IE θ̂1 = θ.
n

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

On déduit aisément la variance du nouvel estimateur


  2θ2
Var θ̂1 = .
n−4
qui montre que θ̂1 est également convergent.
4. Comme la log-vraisemblance du modèle est C ∞ , ne nous privons pas pour dériver deux fois
avant de prendre l’espérance.
n
∂θ2 log Lθ (X) = − 2 ,

et donc,
n 2θ2
I(θ) = −IE ∂θ2 log Lθ (X) = 2 et B(n) (θ) =
 
.
2θ n
Remarquons que ces deux quantités peuvent bien sûr se calculer ”à l’ancienne” en prenant
l’espérance du carré de la première dérivée de la log-vraisemblance. Le fait que I(θ) soit un
multiple de n est rassurant. On peut alors calculer l’efficacité relative de θ̂1
2θ2 n − 4 n−4
e(θ̂1 ) = 2
= .
n 2θ n
On remarque que e < 1, donc que θ̂1 n’est pas efficace, mais que e → 1 et donc que θ̂1 est
asymptotiquement efficace.
5. Cette question fait appel à un résultat du cours. Le lemme de Fisher nous dit que dans un
modèle i.i.d. gaussien, X̄ et s2 sont indépendants, et que ns2 /σ 2 ∼ χ2n−1 , où n est la taille
de l’échantillon. Comme notre échantillon simple est gaussien ; ce résultat s’applique, et les
rappels sur la loi chi-deux nous donnent
 2
ns
= IE ns2 θ = (n − 1),
 
IE 2
σ
i.e.
IE s2 = (n − 1)/nθ.
 

Pour définir simplement un estimateur à partir de s2 , il faut considérer son inverse 1/s2 .
Calculons l’espérance de cette statistique, dans l’espoir qu’elle soit une fonction linéaire de θ.
   
 2 nθ 1 nθ
IE 1/s = IE 2
= nθIE 2
= ··· = .
nθs nθs n−3
Ainsi, la statistique θ̂2 = n−3
ns2
st un estimateur sans biais pour θ. Calculons sa variance, et
pour ce faire, l’espérance de son carré :
(n − 3)2
   
2 2 1
IE = (n − 3) θ IE 2 2 4
n2 s4 n θ s
Z
1 1 (n−1)
= (n − 3)2 θ2 2 (n−1)/2
z 2 −1 e−z/2 dz
IR+ z 2 Γ((n − 1)/2)
1
= (n − 3)2 θ2
(n − 3)(n − 5)
(n − 3)θ 2
=
(n − 5)
et donc   (n − 3)θ2 2θ2
Var θ̂2 = − θ2 = .
(n − 5) n−5
Cet estimateur est donc également convergent, et son efficacité relative est de
n−5 n−4
e(θ̂2 ) = < = e(θ̂1 ).
n n
On lui préférera donc θ̂1 .

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

Exercice 2
Les éléments d’une population possèdent un caractère X qui suit une loi de densité
2 2
fθ (x) = √ 3/2
x2 e−x /θ
πθ
où θ > 0. Une suite de n expériences indépendantes a donné les valeurs x1 , . . . , xn .
1. Déterminez un estimateur θ̂ du paramètre θ par la méthode du maximum de vraisemblance.
2. Examinez les qualités suivantes de θ̂ : efficacité, biais, convergence, exhaustivité.

Solution :
On écrit la vraisemblance du modèle grâce à l’hypothèse i.i.d. et on obtient :
n
Y 2 2
Lθ (X) = √ 3/2 Xi2 e−Xi /θ
i=1
πθ
n
2n Y
2 − θ1 i Xi2
P
= X e
π n/2 θ3n/2 i=1 i
n
3n X 1X 2
log Lθ (X) = C− log θ − 2 log Xi − Xi
2 θ
i =1
n
3n 1 X 2
∂θ log Lθ (X) = − + 2 Xi
2θ θ
i=1
n
2 X
∂θ log Lθ (X) = 0 ⇔ θ̂ = Xi2 .
3n
i=1

Clairement, la vraisemblance (ou log-vraisemblance) peut se factoriser de la bonne manière et


l’estimateur du maximum de vraisemblance θ̂ est donc exhaustif. Tentons de factoriser la dérivée
de la log-vraisemblance :
n n
!
3n 1 X 2 3n 2 X 2
∂θ log Lθ (X) = − + 2 Xi = 2 Xi − θ .
2θ θ 2θ 3n
i=1 i=1

Ainsi, d’après le critère de factorisation, θ̂ est efficace (donc sans biais) pour θ. Reste à juger de sa
convergence, en calculant sa variance. Pour ce faire, il nous manque l’espérance de son carré. On
note pour ce faire que les variables Yi = Xi2 ont pour densité
√ 1 1
gθ (y) = fθ ( y) √ = √ 3/2 y 1/2 e−y/θ y > 0,
2 y πθ
où l’on reconnaı̂t une loi Gamma de paramètres a = 1/θ et b = 3/2. La somme de n variables
indépendantes de telle loi donne une variable Gamma de paramètres a = 1/θ et b = 3n/2. On
connaı̂t donc son moment d’ordre deux
" n #
X
2 Γ(3n/2 + 2) 2
IE Yi = θ = (3n/2 + 1)(3n/2)θ2 .
Γ(3n/2)
i=1

On en déduit la quantité recherchée


h i 4
IE θ̂2 = 2 (3n/2 + 1)(3n/2)θ2 .
9n
Il est alors immédiat que   2 2
Var θ̂ = θ .
3n
L’estimateur est donc également convergent.

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

Exercice 3
En 1897, l’économiste suisse Vilfredo Pareto (1848-1923), professeur d’économie politique à
l’université de Lausanne, eut l’idée de modéliser la loi des revenus en postulant que le nombre relatif
de personnes dont le revenu dépasse une valeur x est inversément proportionnel à une puissance de
x. La définition suivante fut adoptée : une variable aléatoire X, absolument continue, suit une loi
de Pareto de paramètres α et θ si sa densité est donnée par

fα,θ (x) = kx−α I[x≥θ] ;

où θ > 0 et α > 1. Cet exercice vous propose d’étudier différentes caractéristiques de cette loi sur
le plan probabiliste et statistique.
1. Analyse probabiliste
a) Déterminez la constante de normalisation k.
A ce stade vous êtes tous capable de calculer une intégrale définie... Réponse : k = (α−1)θα−1 .
b) Ecrivez la fonction de répartition FX de X.
Même remarque pour une primitive... Réponse :
X
(x) = 1 − (θ/x)α−1 I[x≥0] .

Fα,θ

c) Calculez le moment non centré d’ordre s(s ∈ IN0 ). Précisez ses conditions d’existence.
Déduisez-en E[X] et V ar[X].
De manière générale,
Z +∞  s−α+1 +∞
s (α − 1)θα−1 α−1 x
IE [X ] = α−s
dx = (α − 1)θ .
θ x s−α+1 θ
La condition d’existence de l’intégrale est s − α + 1 < 0, c’est-à-dire s < α − 1. On a alors
(α − 1)θs
IE [Xs ] = .
α−1−s
Si α > 2, l’espérance existe et vaut donc
(α − 1)θ
IE [X] = .
α−2
Si α > 3, le moment d’ordre deux existe, et permet de calculer la variance
(α − 1)θ2 (α − 1)2 θ2 (α − 1)θ2
Var (X) = IE X2 − (IE [X])2 =
 
− 2
= .
α−3 (α − 2) (α − 3)(α − 2)2

d) Donnez la loi de la variable aléatoire U définie par U = (α − 1) ln(X/θ).

Sur le domaine de X, ce changement de variable est admissible et on utilise la formule


habituelle
α−1
U = G(X) ⇒ G0 (X) = , X = G−1 (U )
X
avec G−1 (u) = θeu/(α−1) , X ≥ θ ⇔ U ≥ 0
et donc
1 (α − 1)θα−1 θeu/(α−1)
fU (u) = fX (G−1 (u)) = = e−u .
G0 (G−1 (u)) (θeu/(α−1) )α α − 1
Ainsi, en combinant cette expression avec le domaine de u, on reconnaı̂t la densité d’une loi
exponentielle de paramètre 1 (ou Γ(1, 1)).

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

e) Soient n variables aléatoires indépendantes X1 , . . . , Xn suivant toutes la même loi de Pareto


de paramètres α et θ. Déterminez la loi de Z = X(1) . Identifiez cette loi

Pour déterminer la loi du minimum de n v.a. i.i.d., on considère sa fonction de répartition


n
Y
IP [Z ≤ z] = 1 − IP [Z > z] = 1 − IP [Xi > z] = 1 − (1 − F X (z))n ,
i=1

et on réinjecte l’expression obtenue pour F X à la question (b)


n
F Z (z) = 1 − (θ/z)α−1 = 1 − (θ/z)n(α−1) ,

qui est de la forme F (z) = 1 − (θ/z)a−1 avec a = n(α − 1) − 1. C’est donc une loi de Pareto
de paramètres n(α − 1) − 1 et θ.
2. Inférence sur α. Supposons que θ est connu. Soient les variables aléatoires X1 , . . . , Xn i.i.d. de
loi de Pareto de paramètres α et θ.
a) Donnez une statistique exhaustive pour α.
Factorisons la vraisemblance. Comme θ est connu, on suppose que l’indicatrice vaut 1, sans
quoi la vraisemblance serait identiquement nulle et toute statistique serait exhaustive.
n n
!−α
Y Y
n n(α−1) −α n n(α−1)
Lα (X) = (α − 1) θ Xi = (α − 1) θ Xi .
i=1 i=1

Ainsi, le produit des observations est exhaustif.


b) Proposez un estimateur α̂ de α par la méthode du maximum de vraisemblance.
On trouve
n
X
log Lα (X) = n log(α − 1) + n(α − 1) log θ − α log Xi
i=1
n n  
n X n X Xi
∂α log L = + n log θ − log Xi = − log
α−1 α−1 θ
i=1 i=1
n  
n X Xi
∂α log L = 0 ⇔ = log
α̂ − 1 θ
i=1
n
⇔ α̂ = 1 + P  
n Xi
i=1 log θ

On vérifie que c’est bien un maximum en remarquant que


n
∂α2 log Lα (X) = − < 0.
(α − 1)2

c) α̂ est-il sans biais pour α ? Si non, construisez un estimateur sans biais α̂1 pour α et vérifiez
s’il est convergent et efficace.
Il faut calculer l’espérance de α̂. On utilise pour cela de résultat montré précédemment sur
la loi (α − 1) log(X/θ). En effet, en posant Yi = (α − 1) log(Xi /θ), on a
n(α − 1)
Yi ∼ Γ(1, 1) et α̂ = 1 + Pn .
i=1 Yi

Les Yi étant indépendants, leur somme W suit une loi Γ(1, n). Ainsi,
(α − 1)n
⇒ IE [α̂] = 1 + n(α − 1)IE W−1 .
 
α̂ = 1 +
W

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

Cette dernière espérance est facile à calculer commeune intégrale, en faisant apparaı̂tre dans
−1 = (n − 1)−1 . Ainsi,

l’intégrande une densité Γ(1, n − 1) et on trouve IE W

n(α − 1) nα − 1
IE [α̂] = 1 + = .
n−1 n−1
L’estimateur maximum de vraisemblance est donc biaisé (mais asymptotiquemen sans biais).
Le biais est cependant aisément corrigé car l’espérance de α̂ est une fonction linéaire de α.
Ainsi,
(n − 1)α̂ + 1
α̂1 =
n
est sans biais pour α. Pour juger de sa convergence et de son efficacité, on calcule sa variance.
notons qu’avec les notations précédentes

(n − 1)(α − 1)
α̂1 = 1 +
W
et il nous faut l’espérance du carré de α̂1 , son espérance étant α. On trouve aisément que (en
développant le carré et en calculant IE W−1 et IE W−2 ) que
 

(n − 1)2 (α − 1)2
IE α̂12 = · · · = 2α − 1 +
 
.
(n − 1)(n − 2)

On en déduit alors la variance de l’estimateur :


(α − 1)2
Var (α̂1 ) = IE α̂12 − (IE [α̂1 ])2 = · · · =
 
.
n−2
On en déduit que l’estimateur est convergent. Calculons la borne de Cramer-Rao pour juger
de son efficacité :
1 n
I(α) = −IE ∂α2 log L =
 
BCR = avec .
I(α) (α − 1)2

Ainsi, Var (α̂1 ) > BCR et l’estimateur n’est pas efficace.


3. Inférence sur θ. Supposons que α est connu. Soient les variables aléatoires X1 , . . . , Xn i.i.d. de
loi de Pareto de paramètres α et θ.
a) Donnez une statistique exhaustive pour θ.
Bien entendu, la vraisemblance n’a pas foncièrement changé d’une fois à l’autre, mais il
convient ici de ne pas oublier les indicatrices, qui dépendent de θ. Ainsi,
n n
!
Y Y
Lθ (X) = (α − 1)n θn(α−1) Xi−α I[θ,+∞ [ (Xi ) = (α − 1)n θn(α−1) Xi−α I[θ,+∞ [ (X(1) ).
i=1 i=1

En factorisant, on constate que X(1) est une statistique exhaustive.


b) Proposez un estimateur θ̂ de θ par la méthode du maximum de vraisemblance.
Il n’est pas question de passer au logarithme directement du fait de la présence de l’indicatrice,
ni de dériver par rapport à θ. On note que la vraisemblance dépend de θ à travers l’indicatrice
d’une part et d’autre part à travers le terme θn(α−1) , qui est une fonction croissante de θ
puisque α > 1. Ainsi, comme il existe des valeurs de θ pour lesquelles la vraisemblance
n’est pas nulle, le maximum de vraisemblance est obtenu lorsque l’indicatrice vaut 1 ; ce qui
correspond à θ ≤ X(1) , et par croissance, le maximum est atteint pour la plus grande valeur
de θ dans cet ensemble, soit
θ̂ = X(1) .

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

c) θ̂ est-il convergent ?
Pour juger des caractéristiques d’optimalité de cet estimateur, on doit connaı̂tre son espérance
et sa variance, mais les résultats obtenus dans la première partie de l’exercice nous garan-
tissent que la loi de θ̂ est une loi de Pareto de paramètres θ et n(α − 1) − 1. Ainsi,
h i n(α − 1)θ   n(α − 1)θ2
IE θ̂ = et Var θ̂ =
n(α − 1) − 1 (n(α − 1) − 2)(n(α − 1) − 1)2
pour peu que ces quantités existent, ce qui est vrai pour n suffisament grand. Cet estimateur
est ainsi biaisé, mais asymptotiquement sans biais, et convergent.

Exercice 4
Les éléments d’une population possèdent un caractère X qui suit une loi de probabilité dont la
densité est  −θ(x−a)
θe si x ≥ a
fa,θ (x) =
0 sinon
où θ, a > 0. Une suite de n expériences indépendantes a donné les valeurs x1 , . . . , xn .
1. Inférence sur a. Supposons que θ est connu.
a) Proposez un estimateur â de a par la méthode du maximum de vraisemblance.
La vraisemblance est donnée par
P
La,θ (X) = θn e−θ i Xi −na
e I[a,+∞[ (X(1) ).
Un raisonnement identique à celui fait plus haut permet de conclure
â = X(1)

b) â est-il sans biais, convergent, exhaustif ?


Par factorisation immédiate, â est exhaustif. Calculons son espérance et sa variance. Pour ce
faire, il faut obtenir la loi de X(1) . On obtient aisément
 
F X(1) (x) = 1 − (1 − F X (x))n = 1 − e−nθ(x−a) I[a,+∞[ (x).

La densité est alors donnée par


f X(1) (x) = nθe−nθ(x−a) I[a,+∞[ (x).
Restent deux calculs faciles :
Z ∞
IE [â] = xnθe−nθ(x−a) dx
a
h i∞ Z ∞
−nθ(x−a)
= xe + e−nθ(x−a) dx
a a
1
= a+
Z ∞ nθ
x2 nθe−nθ(x−a) dx
 2
IE â =
a
h i∞ Z ∞
2 −nθ(x−a)
= x e + 2xe−nθ(x−a) dx
a a
2
= a2 + IE [â]

2a 2
= a2 + + 2 2
nθ n θ
2a 2 1 2a 1
Var (â) = a2 + + 2 2 − a2 − 2 2 − = 2 2.
nθ n θ n θ nθ n θ

Titulaire: D. Paindaveine Assistant: G. Van Bever


Math-F-207 Corrigé Séance 5

L’estimateur maximum de vraisemblance est donc biaisé mais asymptotiquement sans biais,
et convergent.
2. Inférence sur θ. Supposons que a est connu.
a) Proposez un estimateur θ̂ de θ par la méthode du maximum de vraisemblance.
On reprend la vraisemblance, mais cette fois-ci, a étant connu, on peut supposer les indica-
trices toutes égales à un et s’en passer dans l’expression de L. On trouve alors
n
n X
∂θ log L = − n(Xi − a).
θ
i=1

Ainsi (et car la dérivée seconde est partout négative), l’estimateur maximum de vraisemblance
est
n
θ̂ = Pn
i=1 (X i − a)

b) Cherchez la densité de probabilité de la variable Y = θ ni=1 (Xi − a), où les Xi sont i.i.d. de
P
même loi que X.
On commence par la loi de Yi = θ(Xi − a), dont la densité est de façon immédiate

fY (y) = e−y I[0,+∞[ (y).

Ainsi, les Yi sont de loi Γ(1, 1). Y étant la somme des Yi , par indépendance, sa loi est Γ(1, n).
c) θ̂ est-il non biaisé ? Si non, construisez un estimateur non biaisé θ̂1 de θ et vérifiez s’il est
convergent, efficace et exhaustif.
On calcule l’espérance de θ̂ en se servant du résultat précédent (déjà vu plus haut)
h i nθ
IE θ̂ = nθIE Y−1 =
 
n−1
et l’on en déduit l’estimateur maximum de vraisemblance est biaisé mais asymptotiquement
sans biais. On peut alors définir
(n − 1)θ̂
θ̂1 =
n
qui sera sans biais. On calcule l’espérance de son carré et on trouve
h i (n − 1)θ
IE θ̂12 = ,
n−2
d’où la variance   (n − 1)θ2 θ2
Var θ̂1 = − θ2 = ,
n−2 n−2
ainsi θ̂1 est convergent. La borne de CR est θ2 /n ce qui implique que l’estimateur θ̂1 n’est
pas efficace.

Titulaire: D. Paindaveine Assistant: G. Van Bever

Vous aimerez peut-être aussi