Vous êtes sur la page 1sur 11

Corrigé du TD no 1 Modèles linéaires et généralisations

Exercice 1

Question (1). Soient X1 , . . . , Xn i.i.d. de densité θx−θ−1 1l(x ≥ 1), où θ > 0. On suppose que
θ > 1, estimer θ par la méthode des moments.

On calcule l’espérance de X1 :

θx1−θ ∞
Z
θx θ
µ1 (θ) = Eθ (X1 ) = θ+1
dx = = .
1 x (1 − θ) 1
θ−1
La fonction µ1 (.) établit une bijection de Θ =]1, +∞[ dans ]1, +∞[, d’inverse µ−11 = µ1 .
Comme X̄ appartient p.s. à ]1, +∞[, l’estimateur par la méthode des moments est bien défini
p.s. sur Θ =]1, +∞[ et est l’unique θ tel que µ1 (θ) = X̄, c’est-à-dire

θ̂nM M = .
X̄ − 1
Question (2). On suppose maintenant que Θ = {θ > 0}. Estimer θ par la méthode des
moments généralisée et du maximum de vraisemblance.

Montrons d’abord que la méthode des moments ne peut pas être appliquée dans ce cas.
On calcule les moments d’ordre r de X1 pour un r > 0 :
Z ∞ ( r−θ ∞
r θx θ
θx (r−θ) 1 = θ−r , si θ > r,

µr (θ) = Eθ (X1r ) = θ+1
dx =
1 x +∞, si θ ≤ r.
On voit qu’il n’existe pas de r > 0 tel que la fonction θ ∈ Θ =]0, +∞[7→ µr (θ) soit injective.
Cela veut dire que l’estimateur par la méthode des moments ne peut pas être défini dans ce
cas. (On ne pourra jamais trouver un ensemble D contenant Θ pour lequel θ ∈ D 7→ µr (θ) soit
injective.) En revanche, on peut définir l’estimateur par la méthode des moments généralisée.
On pose g(x) = 1/x. Dans ce cas
Z ∞
θ θ
µg (θ) = Eθ (g(X1 )) = 2+θ
dx = .
1 x 1 + θ
La fonction µg (.) établit une bijection de Θ =]0, +∞[ dans ]0, 1[, d’inverse µ−1 g (y) = y/(1 −
−1
Pn
y). Comme 1/X = n i=1 g(Xi ) appartient p.s. à ]0, 1[, l’estimateur par la méthode des
moments est bien défini p.s. sur Θ =]0, +∞[ et est l’unique θ tel que µg (θ) = 1/X, c’est-à-dire
1/X
θ̂nM M = .
1 − 1/X
Calculons à présent l’estimateur du maximum de vraisemblance sur Θ =]0, +∞[, on a
n
n
Y 1
L((x1 , . . . , xn ), θ) = θ 1l(x(1) ≥ 1) .
xθ+1
i=1 i
Comme X(1) ≥ 1 p.s., l’égalité ci-dessus implique
n
(θ + 1) X
ln (θ) = − log θ + log Xi
n
i=1

1
2

La fonction de log-vraisemblance ln (.) est dérivable sur Θ =]0, +∞[ et on a ln0 (θ) = −θ−1 +
n
n−1 i=1 log Xi , de sorte que
P
 X n −1
1
ln0 (θ) ≥ 0 ⇐⇒ θ ≥ log Xi .
n
i=1
−1
Pn
Comme l’inverse de n i=1 log Xi est p.s. dans Θ =]0, +∞[, la fonction de log-vraisemblance
admet un unique maximum sur Θ =]0, +∞[ et
 X n −1
1
θ̂nM V = log(Xi ) .
n
i=1
On remarque que l’EMV aurait pu être obtenu en appliquant la méthode des moments avec
g(x) = log(x).
Question (3). Le modèle statistique en question est-il régulier ? Calculer l’information de
Fisher I(θ).
Pour prouver que le modèle est régulier, il faut vérifier les hypothèses (D), (H1)-(H4) (voir
cours). L’hypothèse (D) est évidemment satisfaite avec la mesure de Lebesgue.
L’hypothèse (H1) équivaut à vérifier que pour différentes valeurs de θ, les densités fθ ont le
même support. Dans notre cas il est évident que le support de fθ est [1, ∞[ et il est indépendant
de θ.
La fonction θ 7→ l(x, θ) = log fθ (x) = log θ − (1 + θ) log x définie sur l’intervalle ouvert θ > 0
est infiniment dérivable, donc (H2) est également satisfaite.
Pour vérifier (H3), on remarque que pour tout θ∗ > 0 et pour tout θ ∈]θ∗ /2, 2θ∗ [:= Uθ∗ , on a
2
|l0 (x, θ)| = |θ−1 − log x| ≤ ∗ + log x, ∀ x > 1
θ
 2
2 8
|(l0 (x, θ))2 | ≤ ∗
+ log x ≤ ∗ 2 + 2 log2 (x), ∀ x > 1
θ (θ )
4
|l00 (x, θ)| = | − θ−2 | ≤ ∗ 2 , ∀ x > 1
(θ )
2θ∗
sup fθ (x) ≤ θ∗ /2+1 , ∀ x > 1.
θ∈Uθ∗ x
2
L’hypothèse (H3) découle immédiatement de ces inégalités, en posant Λ(x) = θ∗ + log x +
8
(θ∗ )2
+ 2 log2 (x).
Calculons à présent l’information de Fisher, ce qui nous permettra de vérifier (H4). Par
définition,
 2   2 
d log fθ 1
I(θ) = Eθ (X) = Eθ − log X .
dθ θ
On pose Yi = log(Xi ) ; par intégration par parties, on trouve
log(x) ∞ 1 ∞ 1
Z ∞ Z ∞
log(x) 1
E(Yi ) = θ dx = − + dx = − θ = ,
1 xθ+1 xθ 1 xθ+1 1 θx θ 1
et
∞ ∞
log2 x
Z Z
2 log x 2E(Y1 ) 2
E(Yi2 ) =θ dx = dx = = 2.
1 xθ+1 1 x θ+1 θ θ
3

Par suite I(θ) = Var(Y1 ) = θ−2 > 0, ce qui nous permet de conclure que le modèle statistique
qu’on considère est régulier.
Question (4). Sans utiliser le théorème général, étudier la loi limite de l’estimateur du

maximum de vraisemblance θ̂nEM V . Est ce que la variance asymptotique de n(θ̂nEM V − θ) est
égale à I(θ)−1 ? Pourquoi ?

Pour trouver la loi limite de θnM V , on utilise la loi forte des grands nombres et le théorème
central limite pour les variables Yi = log(Xi ) i.i.d. : d’une part, on remarque que Yi ≥ 0 p.s.
car X1 ≥ 1 p.s., de sorte que E(|Y1 |) = E(Y1 ) = 1/θ < ∞ et en utilisant la loi forte des grands
nombres on obtient
1 p.s. 1
θ̂nM V = −−−→ = θ. (1)
Ȳ n→∞ E(Y1 )
Pour déterminer la loi limite, on utilise le théorème central limite (car E(Yi2 ) = 2/θ2 < ∞),

√ D
n (Ȳ − θ−1 ) −−−→ N (0, θ−2 ). (2)
n→∞
En utilisant les convergences (1), (2), la représentation

√ √ −1 θ n
(θ̂nM V Ȳ − θ−1

n − θ) = n (Ȳ − θ) = −

ainsi que le théorème de Slutsky, on obtient
√ D
n (θ̂nM V − θ) −−−→ −N (0, θ2 ) = N (0, θ2 ).
n→∞

La variance asymptotique de − θ) est donc égale à I(θ)−1 . Ceci est cohérent avec
n(θ̂nEM V
le résultat général du cours sur la distribution asymptotique de l’EMV, valable dans tout
modéle régulier lorsque l’EMV est consistant (donc par exemple, tout à fait applicable dans
le contexte présent).

Exercice 2

On observe X1 de loi U [0, 1] sous H0 , ou U [2, 3] sous H1 . Proposer un test de l’hypothèse H0


contre l’alternative H1 , et calculer ses erreurs de première et deuxième espèce.
Vu que les intervalles [0, 1] et [2, 3] sont disjoints, le test le plus naturel consiste à accepter
H0 si la valeur observée X1 appartient à [0, 1] et accepter H1 dans le cas contraire.
L’erreur de première espèce est alors la probabilité de rejeter H0 alors qu’elle était vraie :
PU [0,1] (X1 6∈ [0, 1]) = 0.
De la même faÁon, on vérifie que l’erreur de second espèce est également nulle. C’est donc
un test idéal, car la probabilité de commettre une erreur est nulle.

Exercice 3

On suppose que l’on observe X1 , . . . , Xn i.i.d. de loi N (µ, 1). On veut tester H0 : µ = 0 contre
H1 : µ = m o ? m est un nombre réel négatif fixé.
Question (1). Donner la forme du test de Neyman-Pearson de niveau α ∈ (0, 1) pour ce
problème.
4

Pour définir le test de Neyman-Pearson (N-P), on détermine d’abord la fonction de vraisem-


blance :
n
2
Y
L(µ, X1 , . . . , Xn ) = (2π)−n/2 e−(Xi −µ) /2
i=1
et le rapport des vraisemblances :
n
L(µ1 , X1 , . . . , Xn ) Y
exp − [(Xi − µ1 )2 − (Xi − µ0 )2 ]/2

=
L(µ0 , X1 , . . . , Xn )
i=1
1 1 2
= exp n(µ1 − µ0 )X̄ + n(µ20 − µ21 ) = e− 2 nm +mnX̄ ,

2
o ? la dernière égalité est due au fait que dans notre cas µ0 = 0 et µ1 = m. Cette expression
du rapport de vraisemblance implique que le test N-P est défini par la région critique
1 2 +nmX̄
R = {e− 2 nm > cα }
1 2 +nmX̄
o ? cα vérifie P0 (e− 2 nm ≥ cα ) = α. Si l’on pose c0α = (2n−1 log cα + m2 )/2m, alors la
région R se simplifie :
R = {X̄ < c0α }.
Il est évident que sous H0 , la variable aléatoire X̄ suit la loi N (0, 1/n) = n−1/2 N (0, 1). Donc

α = P0 (R) = P(n−1/2 N (0, 1) < c0α ) = Φ( n c0α ),
o ? Φ désigne la fonction de répartition de N (0, 1). On en déduit que
√ 0
n cα = Φ−1 (α) = qαN , ou encore c0α = n−1/2 Φ−1 (α) = n−1/2 qαN ,
o ? qαN est le quantile d’ordre α de la loi normale N (0, 1).
Question (2). Calculer la puissance m ∈ R− 7→ πn (m) de ce test et tracer son graphe.
Etudier la convergence simple de πn lorsque n tend vers +∞. Peut–on parler de convergence
uniforme sur R− ?

La puissance de ce test est définie par


πn (m) = Pm (X̄ < c0α ).

Lorsque X̄ ∼ N (m, n−1 ), on a n(X̄ − m) ∼ N (0, 1). Donc
√ √ √
πn (m) = P N (0, 1) < n(c0α − m) = Φ( nc0α − n m)


= Φ qαN − n m .


On a évidemment πn (0) = α et lim−∞ πn = lim+∞ Φ = 1. De plus, comme Φ√est croissante,


πn est décroissante. On peut aussi calculer la pente de πn en 0 : πn0 (0) = − nφ(qαN ), o ? φ
est la densité d’une loi normale centrée réduite.
Il est facile de voir que (πn )n converge simplement vers la fonction 1l]−∞,0[ +αδ0 . Comme cette
fonction limite n’est pas continue alors que les πn le sont, on en déduit que la convergence
n’est pas uniforme (théorème de Dini).
Question (3). On considère l’alternative H1 : µ = −Cn−γ , avec C > 0 et γ ∈ R. Étudier le
comportement de la puissance du test en fonction de γ lorsque n → ∞.
5

Posons π̃n (γ) = πn (−Cn−γ ). En substituant m par −Cn−γ dans l’expression de la puissance
de la question précédente, on obtient :
1
π̃n (γ) = Φ qαN + Cn 2 −γ .


1 1
Si γ > 1/2, alors n 2 −γ → 0 et donc π̃n (γ) → Φ(qαN ) = α. Si γ < 1/2,
 alors n
2
−γ
→ +∞ et
N N
donc π̃n (γ) → Φ(qα + ∞) = 1. Si γ = 1/2, on a π̃n (γ) = Φ qα + C . En conclusion,

α,
 si γ > 1/2,
N

lim π̃n (γ) = Φ qα + C , si γ = 1/2,
n→∞ 
1, si γ < 1/2.

On voit que pour γ ≥ 1/2 ce test n’est pas consistant (π 6→ 1). Ceci implique qu’on ne peut
pas distinguer l’alternative de l’hypothèse si elles sont “trop proches”.

Exercice 4

Un marchand de graines a l’habitude de fournir à un ingénieur agronome un mélange de 6


types de graines qui entrent toutes dans le mélange avec les mêmes proportions. Quelque soit
le type, les graines ont sensiblement le même poids la même taille. Elles diffèrent d’un type à
l’autre par leurs formes. On désigne ces 6 types par A,...,F.
Un jour, l’ingénieur lui demande de préparer un mélange spécial dans lequel il y aura 1/4 de
graines A, 1/2 de B, les autres graines restent en proportion inchangées.
Le jour de livraison, un employé un peu trop zélé a déplacé les sacs. Le grainetier, fort perplexe,
croit que le premier sac est bon, mais il n’en est pas certain. Comment faire ?
Évidemment, on pourrait trier les graines de ce sac, mais ceci serait fastidieux. On propose
ici un test pour apporter une solution à ce problème : il s’agit, à partir d’un échantillon de
graines du sac, de décider entre deux hypothèses : “ ce sac est bon” et “ce sac est ordinaire”.
Question (1). A partir des observations de la forme “la i-ième graine tirée est de type A ou
non”, formuler un modèle statistique et poser le problème de test d’hypothèses.
Soient Yi une variable aléatoire qui vaut 1 si le i-ème graine de l’échantillon choisi est de type
A, et 0 dans le cas contraire. Il est bien évident que Y suit une loi de Bernoulli qu’on notera
Be(p), pour un paramètre d’intérêt p ∈]0, 1[. L’hypothèse H0 est alors “le sac est bon”, qui
se traduit par H0 :p = 1/4, l’alternative étant “le sac est ordinaire” H1 : p = 1/6.
Question (2). Quelle est, sous chacune des ces hypothèses, la loi du nombre X de graines de
type A dans un échantillon de taille n ? Donner les valeurs de E(X) et Var(X) correspondant
à chaque cas.
La variable X est simplement la somme des Yi , donc elle suit la loi binomiale :
Xn
X= Yi ∼ B(n, p).
i=1
Sous H0 cela donne X ∼ B(n, 1/4), alors que sous H1 , X ∼ B(n, 1/6). On a déjà calculé
l’espérance et la variance de la loi binomiale :
sous H0 E(X) = nE(Y1 ) = np = n/4, Var(X) = nVar(Y1 ) = np(1 − p) = 3n/16,
sous H1 E(X) = nE(Y1 ) = np = n/6, Var(X) = nVar(Y1 ) = np(1 − p) = 5n/36.
6

Question (3). Donner la forme du test Neyman–Pearson de niveau α pour tester l’hypothèse
”ce sac est bon” contre l’alternative ”c’est un sac ordinaire”.
Pour tout p, la vraisemblance de ce modèle de Bernoulli s’écrit
n
Y
pYi (1 − p)1−Yi = pX (1 − p)n−X ,

L(Y1 . . . Yn , p) =
i=1
de sorte que le rapport de vraisemblance entre p1 = 1/6 et p0 = 1/4 est
 X 
1 − p1 n−X
 X 
5 4 n−X
   X  n
L(Y1 . . . Yn , p1 ) p1 4 3 10
= = · = .
L(Y1 . . . Yn , p0 ) p0 1 − p0 6 6 3 5 9
Par conséquent, la région critique du test de N-P est
R∗ = {L(Y1 . . . Yn , p1 ) > cα L(Y1 . . . Yn , p0 )} = {X < c0α }
o ? c0α = (n log(10/9) − log(cα ))/ log(5/3). La valeur c0α est telle que
α = P1/4 (R∗ ) = P1/4 (X < c0α ) = P(Z < c0α ) avec Z ∼ B(n, 1/4).
Question (4). En utilisant une approximation de la loi de la variable aléatoire X par une loi
normale (sous chacune des hypothèses), déterminer la taille minimale n0 de l’échantillon et
la région critique pour avoir un test de niveau de confiance α et de puissance plus grande que
1 − β avec 0 < α = β < 1. Que vaut la région de rejet et n0 pour α = β = 0.05 ? Conclure.
Comme les variables Yi sont i.i.d. telles que E(|Y |2 ) = E(Y ) < ∞, on peut leur appliquer le
théorème central limite : pour tout p,
X − np √ Ȳ − p D
p = np −−−→ N (0, 1).
np(1 − p) p(1 − p) n→∞
Après calcul, ceci nous donne pour p0 = 1/4 et p1 = 1/6 les convergences :
4X − n D
sous H0 : √ −→ N (0, 1) (3)
3n
6X − n D
sous H1 : √ −→ N (0, 1) (4)
5n
Choisissons à présent la constante c0α de tel sorte que α = P1/4 X < c0α , en utilisant l’ap-


proximation (3) :

4c0α − n
 
4X − n
c0α

α = P1/4 X < = P1/4 √ < √
3n 3n
0
   0 
4cα − n 4cα − n
≈ P N (0, 1) < √ =Φ √ .
3n 3n
√ 
L’approximation (3) nous suggère donc de choisir c0α telle que α = Φ (4c0α − n)/ 3n (en
toute rigueur, il faudrait noter cette constante c00α car elle diffère légèrement de c0α ; on la note
c0α pour simplifier). Par suite, en notant qαN = Φ−1 (α) le quantile d’ordre α de la loi normale
0 −n
centrée réduite, on obtient 4c√α3n = qαN et donc

0 qαN 3n + n
cα = .
4
7

Par ailleurs, ce choix de c0α étant effectué, on cherche à choisir n0 assez grand, tel que pour
tout n ≥ n0 , le test de région {X < c0α } est une puissance d’au moins 1 − β. Ceci équivaut à
∀n ≥ n0 ,
6c0α − n
 
0 6X − n
1 − α = 1 − β ≤ P1/6 (X < cα ) = P1/6 √ > √ .
5n 5n
A l’approximation (4) près, et en utilisant
 0
6c0α − n

6cα − n
1−α≤Φ √ ⇐⇒ −qαN ≤ √
5n 5n
√ N
− 5nqα + n
⇐⇒ ≤ c0α
√ 6 √
− 5nqαN + n qαN 3n + n
⇐⇒ ≤
6 √ 4√
N
⇐⇒ 2n ≥ (−qα )(4 5n + 6 3n)
√ √
⇐⇒ n ≥ (qαN )2 (2 5 + 3 3)2 ,
√ √
on déduit que n0 est le premier entier supérieur ou égal à (qαN )2 (2 5 + 3 3)2 .
Pour α = 0.05, on a d’après l’énoncé qαN ' −1.65, une calculatrice donne R∗ = {X < 52.34}
et n0 = 255.
Finalement, en utilisant le test de N-P (et l’approximation d’une loi binomiale par une loi
normale), pour garantir un niveau inférieure à 0.05 et pour garantir une puissance plus grande
que 0.95 , le grainetier doit tirer 255 graines et doit décider que le sac est ordinaire si et
seulement si le nombre de graines de type A tirées est plus petit que 53.

Exercice 5

Soit X1 , . . . , Xn des v.a. i.i.d., dont la loi admet la densité f (x−θ), o ? f (x) = 2(1−x)1l[0,1] (x).
On veut tester H0 : θ ≥ 1 contre H1 : θ < 1. Pour ceci, on introduit les régions critiques
Rc = {X(1) < c} et R̃c = {X(n) < c}.
Le but de cet exercice est de comparer les tests basés sur Rc et R̃c .
Question (1). Calculer la fonction puissance πc associée à Rc et vérifier que cette fonction
est monotone.

Par définition,
πc (θ) = Pθ (Rc ) = Pθ (X(1) < c) = 1 − Pθ (X(1) ≥ c)
n
Y
=1− Pθ (Xi ≥ c) = 1 − (1 − Fθ (c))n ,
i=1
o ? Fθ (x) désigne la fonction de répartition ayant la densité f (x − θ), c’est-à-dire

0, x < θ,
Z x 
 x
Fθ (x) = 2(1 − y + θ)1l[θ,θ+1] (y) dy = −(1 − y + θ)2 , x ∈ [θ, θ + 1],

−∞ 
 θ
1, x > θ + 1.
= 1 − (1 − x + θ)2 1l[θ,θ+1] (x) + 1l]θ+1,∞[ (x).

8

On en conclut que
πc (θ) = 1 − [1l]−∞,θ[ (c) + (1 + θ − c)2n 1l[θ,θ+1] (c)] = 1 − (1 − c + θ)2n 1l[c−1,c] (θ) + 1l]−∞,c−1[ (θ).


Il est évident que c’est une fonction constante sur ] − ∞, c − 1[∪]c, +∞[ et décroissante sur
[c − 1, c].
Question (2). Quelle valeur critique c = c1 faut-il choisir pour que le test associé à Rc1 soit
exactement de niveau 5% ?

L’ensemble des valeurs de θ correspondant à l’hypothèse H0 est Θ0 = [1, ∞[. Il s’agit donc de
trouver c tel que supθ∈Θ0 Pθ (Rc ) ≤ 0.05. Vu que la fonction puissance est décroissante, son
supremum est atteint lorsque θ = 1. On cherche donc la valeur c = c1 vérifiant
 
0.95 = P1 (X(1) ≥ c1 ) = (1 − F1 (c1 ))n = (1 − c1 + θ)2n 1l[θ,θ+1] (c1 ) + 1l]−∞,θ[ (c1 ) .

θ=1
On en déduit facilement que
c1 = 2 − (0.95)1/2n .
Question (3). Calculer la fonction puissance π̃c associée à R̃c et trouver la valeur critique
c = c2 pour que le test associé à R̃c2 soit exactement de niveau 5%.

Par définition,
π̃c (θ) = Pθ (R̃c ) = Pθ (X(n) < c)

n
Y 0,
 c < θ,
n 2 n
= Pθ (Xi < c) = [Fθ (c)] = [1 − (1 + θ − c) ] , c ∈ [θ, θ + 1],

i=1 
1, c > θ + 1.
= [1 − (1 + θ − c)2 ]n 1l[c−1,c] (θ) + 1l]−∞,c−1[ (θ).
Encore une fois, c’est une fonction décroissante, donc la valeur c = c2 est définie par l’égalité
P1 (R̃c2 ) = 0.05 ⇐⇒ π̃c2 (1) = 0.05.
On déduit que
[1 − (2 − c2 )2 ]n = 0.05
(2 − c2 )2 = 1 − (0.05)1/n
q
c2 = 2 − 1 − (0.05)1/n .
Question (4). Comparer les fonctions puissance πc1 et π̃c2 pour les tests de niveau 5%.
Peut–on affirmer qu’un de ces tests est plus puissant que l’autre ?

Pour c1 = 2 − (0.95)1/2n , la fonction puissance vaut


πc1 (θ) = (1 − [1 − c1 + θ]2n )1l[c1 −1,c1 ] (θ) + 1l]−∞,c1 −1[ (θ),
p
alors que pour c2 = 2 − 1 − (0.05)1/n on a
π̃c2 (θ) = (1 − [1 − c2 + θ]2 )n 1l[c2 −1,c2 ] (θ) + 1l]−∞,c2 −1[ (θ).
En dérivant la fonction g(x) = (1 − x)n − (1 − xn ), on peut vérifier qu’elle est décroissante
sur [0, 1/2] et croissante sur [1/2, 1]. Elle admet donc son maximum sur [0, 1] soit au point 0
9

soit au point 1. On en déduit que g(x) < g(0) = g(1) = 0 pour tout x ∈]0, 1[. En particulier,
pour x = (0.05)1/n , on obtient 1 − (0.05)1/n < (0.095)1/n et donc c2 > c1 .
Pour prouver que le test basé sur R̃c est plus puissant que celle basé sur Rc , il faut vérifier
que
π̃c2 (θ) ≥ πc1 (θ), ∀ θ ∈ Θ1 =] − ∞, 1[.
On a déjà prouvé que
1 < c1 < c2 < 2.
Cette inégalité implique que pour tout θ < c2 − 1, on a
π̃c2 (θ) = 1 ≥ πc1 (θ).
En particulier π̃c2 (c2 − 1) = 1 > πc1 (c2 − 1). Donc le premier test n’est pas plus puissant que
le second.
Pour prouver que le second test non plus n’est pas plus puissant que le premier, on remarque
que, pour n = 2,
n−1
πc0 1 (1) − π̃c0 2 (1) = −2n(1 − c1 + 1)2n−1 + 2n 1 − (2 − c2 )2 (2 − c2 )
q √
= 4 0.05(1 − 0.05) − (0.95)3/4

√ 
< 4 0.05 − 0.95
< 4(0.3 − 0.95) < 0.
Donc la fonction h(θ) = πc1 (θ)− π̃c2 (θ) est décroissante dans un voisinage de 1. En particulier,
pour ε > 0 suffisamment petit, h(1 − ε) > h(1) = πc1 (1) − π̃c2 (1) = 0.05 − 0.05 = 0. Donc
π̃c2 (1 − ε) < πc1 (1 − ε).
Ceci implique que le second test n’est pas plus puissant que le premier.
En conclusion, il n’y a pas un test plus puissant que l’autre. La Figure 1 représente les deux
fonctions puissances dans le cas n = 2. Elle illustre bien qu’aucune courbe puissance domine
uniformément l’autre.
Question (5). Etudier la convergence simple de πc et π̃c sur ] − ∞, 1[ quand n → ∞ et c
reste fixé.

Fixons θ < 1 et rappelons que


πc (θ) = 1 − (1 − c + θ)2n 1l[c−1,c] (θ) + 1l]−∞,c−1[ (θ).


Pour tout θ ∈ [c − 1, c[, on a 1 − c + θ ∈ [0, 1[. Donc (1 − c + θ)2n −−−→ 0. Il en résulte que
n→∞

lim πc (θ) = 1l]−∞,c[ (θ).


n→∞

De même
π̃(θ) = [1 − (1 − c + θ)2 ]n 1l[c−1,c] (θ) + 1l]−∞,c−1[ (θ) −−−→ 1l]−∞,c−1] (θ).
n→∞

Question (6). Etudier la convergence simple de πc1 et π̃c2 sur ] − ∞, 1[ quand n → ∞, en


remarquant que les quantités c1 et c2 (qui dépendent de n) vérifient c1 → 1 et c2 → 2. Les
tests associés à Rc1 et R̃c2 sont ils consistants ?
10

Figure 1. Pour n = 2, graphes des deux fonctions π̃c2 (trait pointillé) et πc1
(trait plein). Haut : sur l’intervalle [c2 − 1, c2 ]. Bas : zoom près de c2 − 1 .

Fixons θ < 1. Comme c1 = 2 − (0.95)1/2n → 1, il existe un δ > 0 tel que à partir d’un certain
rang en n, on ait θ + δ < c1 . Ainsi, (1 − c1 + θ)2n ≤ (1 − δ)2n tend vers 0 et

πc1 (θ) = (1 − [1 − c1 + θ]2n )1l[c1 −1,c1 ] (θ) + 1l]−∞,c1 −1[ (θ)


→ 1l]−∞,1[ (θ) = 1.
p
Pour c2 = 2 − 1 − (0.05)1/n → 2 on a c2 − 1 > θ à partir d’un certain rang et donc à partir
de ce rang π̃c2 (θ) = (1 − [1 − c2 + θ]2 )n 1l[c2 −1,c2 ] (θ) + 1l]−∞,c2 −1[ (θ) vaut 1. Ceci implique que
π̃c2 (θ) tend vers 1.
11

Finalement, les deux fonctions πc1 et π̃c2 convergent simplement sur Θ1 =] − ∞, 1[ vers 1,
donc les tests correspondant sont consistants.
la correction ne sera pas tjrs tapée (lol)...katia

Vous aimerez peut-être aussi