Vous êtes sur la page 1sur 10

CONCOURS DENTREE A LECOLE DE 2014

CONCOURS EXTERNE
5me preuve dadmissibilit
STATISTIQUE
(dure : cinq heures coefficient 2)
Une composition portant sur la statistique.
L'usage de la calculatrice est interdit

Le sujet se compose de deux exercices et de deux problmes.

Notations
Ensembles, matrices et fonctions:
IR designe lensemble des nombres reels, IRm lensemble des vecteurs a` coefficients reels de
d
esigne lensemble des nombres reels strictement positifs.
dimension m, IR+
P
Les symboles 2 et
sont utilises pour designer respectivement lappartenance et la sommation.
On note t M la transposee de la matrice M et M

linverse de la matrice M .

La fonction indicatrice dun evenement E est notee {E}, elle vaut 1 si E est realise et 0 sinon.
Pour tout ensemble A IRd , on note A lapplication x 7! {x 2 A}.
Probabilites:
On designe par P(E) la probabilite dun evenement E.

a un evenement E 0 de
On designe par P(E | E 0 ) la probabilite dun evenement E conditionnelle `
probabilite non nulle.
On designe par E[X] lesperance dune variable aleatoire X lorsque celle-ci est bien definie.
On designe par E[X | E] lesperance dune variable aleatoire X conditionnelle `
a un evenement
E lorsque celle-ci est bien definie.

Rappels
En theorie des tests, on appelle p-valeur le plus grand niveau autorisant lacceptation de lhypoth`ese
nulle H0 .
Pour montrer la normalite asymptotique, on a souvent recours `
a la methode delta : soient (Un )n2N
m
une suite de vecteurs aleatoires de IR , (an )n2N une suite deterministe de reels et : IRm ! IRp
une application telles que :
an ! +1 quand n ! +1,

il existe U 2 IRm un vecteur deterministe et V un vecteur aleatoire tels que an (Un

est une fonction dierentiable en U , de dierentielle notee D (U ),

U) ! V ,

alors on a la convergence en loi :


an ( (Un )

(U )) ! D (U ) V , quand n ! +1.

Dans le contexte dun mod`ele statistique parametrique de vraisemblance L (X1 , . . . , Xn ), 2


IR, on rappelle que linformation de Fisher est I() = E [(ln L )00 (X1 , . . . , Xn )] lorsque lon suppose 7! ln L (x1 , . . . , xn ) est deux fois derivable en .
Un estimateur sans biais est dit efficace si sa variance est egale `
a linverse de linformation de
Fisher.
Les tables statistiques des lois normale centree reduite, du chi-deux (
les pages suivantes.

2)

et de Student sont fournies dans

F(u)

Variable NORMALE CENTREE REDUITE

U N(0,1)

P( U u ) = F(u) =

1
2

x2 / 2

dx

F(-u) = 1 - F(u)
P(|U| u) = 2 F(u) - 1
TABLE de F(u) en fonction de u :
u
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
3,4

0,00

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,08

0,09

0,5000
0,5398
0,5793
0,6179
0,6554
0,6915
0,7257
0,7580
0,7881
0,8159

0,5040
0,5438
0,5832
0,6217
0,6591
0,6950
0,7291
0,7611
0,7910
0,8186

0,5080
0,5478
0,5871
0,6255
0,6628
0,6985
0,7324
0,7642
0,7939
0,8212

0,5120
0,5517
0,5910
0,6293
0,6664
0,7019
0,7357
0,7673
0,7967
0,8238

0,5160
0,5557
0,5948
0,6331
0,6700
0,7054
0,7389
0,7704
0,7995
0,8264

0,5199
0,5596
0,5987
0,6368
0,6736
0,7088
0,7422
0,7734
0,8023
0,8289

0,5239
0,5636
0,6026
0,6406
0,6772
0,7123
0,7454
0,7764
0,8051
0,8315

0,5279
0,5675
0,6064
0,6443
0,6808
0,7157
0,7486
0,7794
0,8078
0,8340

0,5319
0,5714
0,6103
0,6480
0,6844
0,7190
0,7517
0,7823
0,8106
0,8365

0,5359
0,5753
0,6141
0,6517
0,6879
0,7224
0,7549
0,7852
0,8133
0,8389

0,8413
0,8643
0,8849
0,9032
0,9192
0,9332
0,9452
0,9554
0,9641
0,9713

0,8438
0,8665
0,8869
0,9049
0,9207
0,9345
0,9463
0,9564
0,9649
0,9719

0,8461
0,8686
0,8888
0,9066
0,9222
0,9357
0,9474
0,9573
0,9656
0,9726

0,8485
0,8708
0,8907
0,9082
0,9236
0,9370
0,9484
0,9582
0,9664
0,9732

0,8508
0,8729
0,8925
0,9099
0,9251
0,9382
0,9495
0,9591
0,9671
0,9738

0,8531
0,8749
0,8944
0,9115
0,9265
0,9394
0,9505
0,9599
0,9678
0,9744

0,8554
0,8770
0,8962
0,9131
0,9279
0,9406
0,9515
0,9608
0,9686
0,9750

0,8577
0,8790
0,8980
0,9147
0,9292
0,9418
0,9525
0,9616
0,9693
0,9756

0,8599
0,8810
0,8997
0,9162
0,9306
0,9429
0,9535
0,9625
0,9699
0,9761

0,8621
0,8830
0,9015
0,9177
0,9319
0,9441
0,9545
0,9633
0,9706
0,9767

0,9772
0,9821
0,9861
0,9893
0,9918
0,9938
0,9953
0,9965
0,9974
0,9981

0,9778
0,9826
0,9864
0,9896
0,9920
0,9940
0,9955
0,9966
0,9975
0,9982

0,9783
0,9830
0,9868
0,9898
0,9922
0,9941
0,9956
0,9967
0,9976
0,9982

0,9788
0,9834
0,9871
0,9901
0,9925
0,9943
0,9957
0,9968
0,9977
0,9983

0,9793
0,9838
0,9875
0,9904
0,9927
0,9945
0,9959
0,9969
0,9977
0,9984

0,9798
0,9842
0,9878
0,9906
0,9929
0,9946
0,9960
0,9970
0,9978
0,9984

0,9803
0,9846
0,9881
0,9909
0,9931
0,9948
0,9961
0,9971
0,9979
0,9985

0,9808
0,9850
0,9884
0,9911
0,9932
0,9949
0,9962
0,9972
0,9979
0,9985

0,9812
0,9854
0,9887
0,9913
0,9934
0,9951
0,9963
0,9973
0,9980
0,9986

0,9817
0,9857
0,9890
0,9916
0,9936
0,9952
0,9964
0,9974
0,9981
0,9986

0,9987
0,9990
0,9993
0,9995
0,9997

0,9987
0,9991
0,9993
0,9995
0,9997

0,9987
0,9991
0,9994
0,9995
0,9997

0,9988
0,9991
0,9994
0,9996
0,9997

0,9988
0,9992
0,9994
0,9996
0,9997

0,9989
0,9992
0,9994
0,9996
0,9997

0,9989
0,9992
0,9994
0,9996
0,9997

0,9989
0,9992
0,9995
0,9996
0,9997

0,9990
0,9993
0,9995
0,9996
0,9997

0,9990
0,9993
0,9995
0,9997
0,9998

0,0642
0,446
1,005
1,649
2,343
3,070
3,822
4,594
5,380
6,179
6,989
7,807
8,634
9,467
10,307
11,152
12,002
12,857
13,716
14,578
15,445
16,314
17,187
18,062
18,940
19,820
20,703
21,588
22,475
23,364

5,578
6,304
7,042
7,790
8,547
9,312
10,085
10,865
11,651
12,443

13,240
14,041
14,848
15,659
16,473
17,292
18,114
18,939
19,768
20,599

0.80

0,0158
0,211
0,584
1,064
1,610
2,204
2,833
3,490
4,168
4,865

0.90

Pour n > 30, on peut admettre que

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

22 -

17,182
18,101
19,021
19,943
20,867
21,792
22,719
23,647
24,577
25,508

8,148
9,034
9,926
10,821
11,721
12,624
13,531
14,440
15,352
16,266

0,148
0,713
1,424
2,195
3,000
3,828
4,671
5,527
6,393
7,267

0.70

2n-1 N(0,1)

TABLE DU CHI-DEUX : 2(n)

20,337
21,337
22,337
23,337
24,337
25,336
26,336
27,336
28,336
29,336

10,341
11,340
12,340
13,339
14,339
15,338
16,338
17,338
18,338
19,337

0,455
1,386
2,366
3,357
4,351
5,348
6,346
7,344
8,343
9,342

0.50

23,858
24,939
26,018
27,096
28,172
29,246
30,319
31,391
32,461
33,530

12,899
14,011
15,119
16,222
17,322
18,418
19,511
20,601
21,689
22,775

1,074
2,408
3,665
4,878
6,064
7,231
8,383
9,524
10,656
11,781

0.30

26,171
27,301
28,429
29,553
30,675
31,795
32,912
34,027
35,139
36,250

14,631
15,812
16,985
18,151
19,311
20,465
21,615
22,760
23,900
25,038

1,642
3,219
4,642
5,989
7,289
8,558
9,803
11,030
12,242
13,442

0.20

29,615
30,813
32,007
33,196
34,382
35,563
36,741
37,916
39,087
40,256

17,275
18,549
19,812
21,064
22,307
23,542
24,769
25,989
27,204
28,412

2,706
4,605
6,251
7,779
9,236
10,645
12,017
13,362
14,684
15,987

0.10

32,671
33,924
35,172
36,415
37,652
38,885
40,113
41,337
42,557
43,773

19,675
21,026
22,362
23,685
24,996
26,296
27,587
28,869
30,144
31,410

3,841
5,991
7,815
9,488
11,070
12,592
14,067
15,507
16,919
18,307

0.05

36,343
37,659
38,968
40,270
41,566
42,856
44,140
45,419
46,693
47,962

22,618
24,054
25,472
26,873
28,259
29,633
30,995
32,346
33,687
35,020

5,412
7,824
9,837
11,668
13,388
15,033
16,622
18,168
19,679
21,161

0.02

38,932
40,289
41,638
42,980
44,314
45,642
46,963
48,278
49,588
50,892

24,725
26,217
27,688
29,141
30,578
32,000
33,409
34,805
36,191
37,566

6,635
9,210
11,341
13,277
15,086
16,812
18,475
20,090
21,666
23,209

0.01

T
p/2

Variable de STUDENT degrs de libert

p/2
-t

T =

U
Y/

o U N(0,1) et Y 2() sont indpendants en probabilit.

TABLE de t en fonction du degr de libert et de la probabilit p, tels que P( | T | > t ) = p :


p

0,90

0,70

0,50

0,40

0,30

0,20

0,10

0,05

0,02

0,01

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

0,158
0,142
0,137
0,134
0,132
0,131
0,130
0,130
0,129
0,129

0,510
0,445
0,424
0,414
0,408
0,404
0,402
0,399
0,398
0,397

1,000
0,816
0,765
0,741
0,727
0,718
0,711
0,706
0,703
0,700

1,376
1,061
0,978
0,941
0,920
0,906
0,896
0,889
0,883
0,879

1,963
1,386
1,250
1,190
1,156
1,134
1,119
1,108
1,100
1,093

3,078
1,886
1,638
1,533
1,476
1,440
1,415
1,397
1,383
1,372

6,314
2,920
2,353
2,132
2,015
1,943
1,895
1,860
1,833
1,812

12,706
4,303
3,182
2,776
2,571
2,447
2,365
2,306
2,262
2,228

31,821
6,965
4,541
3,747
3,365
3,143
2,998
2,896
2,821
2,764

63,657
9,925
5,841
4,604
4,032
3,707
3,499
3,355
3,250
3,169

0,129
0,128
0,128
0,128
0,128
0,128
0,128
0,127
0,127
0,127

0,396
0,395
0,394
0,393
0,393
0,392
0,392
0,392
0,391
0,391

0,697
0,695
0,694
0,692
0,691
0,690
0,689
0,688
0,688
0,687

0,876
0,873
0,870
0,868
0,866
0,865
0,863
0,862
0,861
0,860

1,088
1,083
1,079
1,076
1,074
1,071
1,069
1,067
1,066
1,064

1,363
1,356
1,350
1,345
1,341
1,337
1,333
1,330
1,328
1,325

1,796
1,782
1,771
1,761
1,753
1,746
1,740
1,734
1,729
1,725

2,201
2,179
2,160
2,145
2,131
2,120
2,110
2,101
2,093
2,086

2,718
2,681
2,650
2,624
2,602
2,583
2,567
2,552
2,539
2,528

3,106
3,055
3,012
2,977
2,947
2,921
2,898
2,878
2,861
2,845

0,127
0,127
0,127
0,127
0,127
0,127
0,127
0,127
0,127
0,127

0,391
0,390
0,390
0,390
0,390
0,390
0,389
0,389
0,389
0,389

0,686
0,686
0,685
0,685
0,684
0,684
0,684
0,683
0,683
0,683

0,859
0,858
0,858
0,857
0,856
0,856
0,855
0,855
0,854
0,854

1,063
1,061
1,060
1,059
1,058
1,058
1,057
1,056
1,055
1,055

1,323
1,321
1,319
1,318
1,316
1,315
1,314
1,313
1,311
1,310

1,721
1,717
1,714
1,711
1,708
1,706
1,703
1,701
1,699
1,697

2,080
2,074
2,069
2,064
2,060
2,056
2,052
2,048
2,045
2,042

2,518
2,508
2,500
2,492
2,485
2,479
2,473
2,467
2,462
2,457

2,831
2,819
2,807
2,797
2,787
2,779
2,771
2,763
2,756
2,750

0,12566

0,38532 0,67449

0,84162

1,03643

1,28155

1,64485

1,95996

2,32634

2,57582

La loi limite, lorsque tend vers l'infini, est une loi Normale centre rduite.

Exercice 1
Soient X1 , . . . , Xn n observations independantes et identiquement distribuees (i.i.d.) de durees de vie
modelisees par des lois exponentielles de param`etre 2 R+ .
1. Calculer lesperance et la variance de X1 .
a ce mod`ele.
2. Calculer linformation de Fisher In ( ) associe `
a partir de X1 , . . . , Xn .
3. Proposer un estimateur sans biais
n de = 1/ `
4. Cet estimateur est-il efficace ?
5. Determiner la loi de
n .
6. En deduire une fonction pivotale pour le param`etre .
7. Calculer lestimateur du maximum de vraisemblance de

a partir de X1 , . . . , Xn . On le notera n .
`

8. Cet estimateur est-il sans biais ?


9. Pour n > 2, construire un estimateur sans biais de

de la forme n = c n avec c bien choisi.

10. Cet estimateur est-il efficace ?

Exercice 2
Pour determiner si les merles vivent en communaute ou en solitaire, on proc`ede `
a lexperience suivante :
on dispose un filet dans la zone dhabitat des merles, et on vient relever le nombre de captures pendant
89 jours.
On obtient les resultats suivants :
Nombre de captures
Nombre de jours

0
56

1
22

2
9

3
1

4
0

5
1

6
0

1. On suppose quune loi de Poisson est representative de lexperience. Construire un estimateur du


param`etre de cette loi.
2. Verifier `a laide dun test du
au niveau = 5%.

ladequation du mod`ele aux donnees. Faire lapplication numerique

3. Reprendre lexercice en groupant les categories Nombre de captures = 2, 3, 4, 5 et 6 en Nombre


de captures > 2.

Probl`
eme 1
On souhaite evaluer et analyser le phenom`ene du ch
omage. Pour cela, on dispose de n observations sur
les durees yi , 1 6 i 6 n, pendant lesquelles des individus sont restes sans emploi.
On suppose dans la suite que les variables aleatoires correspondantes (Yi )i2{1,...,n} sont independantes et
identiquement distribuees (i.i.d.) et suivent la loi de Weibull de param`etres reels a et b. On rappelle que
cette loi est continue sur IR+ et admet la fonction de repartition :

F (y; a, b) = 1 exp
ay b .
On definit la fonction de survie par :

S(y; a, b) = 1

F (y; a, b)

et la fonction de hasard par :


h(y; a, b) =

f (y; a, b)
,
S(y; a, b)

o`
u f (y; a, b) est la densite de la loi de Weibull de param`etres a et b.
1. Generalites.
(a) Donner lexpression de la fonction de hasard du mod`ele.
(b) Quelle est en terme de chomage linterpretation de la fonction de hasard ? Expliquer alors
pourquoi il est important de considerer le cas particulier o`
u cette fonction est constante. Pour
quelles valeurs des param`etres, la fonction de hasard est-elle constante? Quelles sont alors les
lois des durees de chomage ?
(c) Etudier levolution du chomage en fonction de a, puis en fonction de b.
2. Estimation contrainte.
On suppose dans cette partie b = 1. Le mod`ele est alors uniquement parametre par a.
(a) Le mod`ele est-il exponentiel ? Si oui, expliciter une statistique exhaustive.
(b) Determiner le vecteur du score et verifier directement quil est centre.
(c) Quel est lestimateur du maximum de vraisemblance a
0 de a ? Est-il sans biais ? Y a-t-il
sur-estimation ou sous-estimation systematique ?
(d) Determiner la variance asymptotique de cet estimateur a
0 .
3. Estimation non contrainte.
On consid`ere maintenant le cas o`
u a et b peuvent a priori prendre toutes valeurs positives.
(a) Le mod`ele est-il exponentiel avec une statistique exhaustive dont la taille est independante du
nombre n dobservations ? Si oui, expliciter une telle statistique.

(b) Ecrire
les equations de vraisemblance. Sont-elles resolubles sous forme analytique ?
(c) Donner
variance

la forme de la
asymptotique de lestimateur du maximum de vraisemblance
a
n
a
du param`etre
.
bn
b

(d) En deduire la variance asymptotique de a


n lorsque b = 1. Comparer alors les estimateurs a
n
et a
0 lorsque b = 1. Quelle conclusion en tirer ?

a
n
(e) Quelle demarche pourrait-on proposer pour etudier la distribution de lestimateur
bn
lorsque lechantillon est de petite taille, par exemple n = 10 ?
4. Cas independant - non equidistribue.
On consid`ere maintenant le cas de T observations y1 , . . . , yT independantes, de lois respectives :
F (y; et , 1) , t 2 {1, . . . , T } , 2 IR.
(a) Determiner la vraisemblance du mod`ele et verifier quelle est concave en `
a (y1 , . . . , yT ) fixe.
En deduire lequation caracterisant lestimateur du maximum de vraisemblance
T de .
(b) Calculer lesperance des variables Yt dont sont issues les observations yt . On note ut = yt
e T t . Donner linterpretation de ut .
(c) Montrer que lequation de la vraisemblance correspond `
a la condition dorthogonalite de
(u1 , . . . , uT ) et de (1, . . . , T ) pour un certain produit scalaire que lon precisera.

Probl`
eme 2
Soit d > 1 un entier. Soient Y1 , . . . , Yd des variables aleatoires reelles definies sur un meme espace
de probabilite et de carre integrable. On designe par la matrice de covariance du vecteur aleatoire
Y = (Y1 , . . . , Yd ) et par 1 celle du vecteur (Y1 , . . . , Yd 1 ).
1. Montrer que lon peut ecrire
=

1,2
2
d

1,2

en identifiant le vecteur colonne 1,2 de dimension d 1, t 1,2 sa transposee et le nombre reel non
a coefficients reels.
nul d2 . Dans la suite, on designe par |M | le determinant dune matrice carree `
2. Soit Z la meilleure approximation, au sens des moindres carres, de la variable Yd par une combi6 0, on a alors les relations suivantes:
naison affine des variables Y1 , . . . , Yd 1 . Montrer que, si | 1 | =
| |=|
et

1|

E (Z

2
d

1,2 1

| |
.
Yd ) 2 =
| 1|

1,2

3. Montrer que si la matrice de covariance est de rang r 2 {0, . . . , d}, le vecteur centre Y
`a valeurs dans un sous espace vectoriel de dimension r avec probabilite 1.

E[Y ] est

4. Covariance empirique.
Soient yi = (yi,1 , . . . , yi,n ), i = 1, . . . , k, k vecteurs de Rn . Pour tout i 2 {1, . . . , k}, on pose :
n

1X
yi,. =
yi,j
n
j=1

et

1X
S(y1 , . . . , yk ) = @
(yi,j
n

yi,. )(yl,j

j=1

Rn

On designe par 1 = (1, . . . , 1) le vecteur de

yl,. )A

1j,lk

dont toutes les composantes sont egales `


a 1.

(a) Montrer que la matrice S(y1 , . . . , yk ) est inversible si et seulement si la famille de vecteurs de
Rn {1, y1 , , . . . , yk } est libre. (On remarquera que cela ne peut etre le cas que si k + 1 6 n).

(b) Soit

1
n
X
1
V (y1 , . . . , yk ) = @
yi,j yl,j A
n
0

j=1

1j,lk

Montrer que la matrice V (y1 , . . . , yk ) est inversible si et seulement si la famille de vecteurs de


IRn {y1 , . . . , yk } est libre.

a
(c) Soit Y = (Y (1) , . . . , Y (n) ) un vecteur aleatoire de dimension n ayant une densite par rapport `
n
n
la mesure de Lebesgue sur R et soient y1 , . . . , yk des vecteurs de R formant avec le vecteur
1 une famille libre, k < n 1. Montrer que la matrice S(y1 , . . . , yk , Y ) est inversible avec une
probabilite egale `a 1.
(d) Soit {y1 , . . . , yk } une famille libre de Rn , k < n. En designant toujours par Y un vecteur
aleatoire de dimension n ayant une densite par rapport `
a la mesure de Lebesgue sur Rn ,
a 1.
montrer que la matrice V (y1 , . . . , yk , Y ) est inversible avec une probabilite egale `
5. Soient Y1 , . . . , Yk k vecteurs aleatoires de dimension n. On suppose que (Y1 , . . . , Yk ), vu comme
un vecteur aleatoire de dimension nk, admet une densite par rapport `
a la mesure de Lebesgue.
Montrer que la matrice S(Y1 , . . . , Yk ) est inversible avec une probabilite egale `
a 1 lorsque k < n et
a 1 lorsque k 6 n.
que la matrice V (Y1 , . . . , Yk ) est inversible avec une probabilite egale `
6. Cas gaussien.
On designe par M+
` coefficients reels
k lensemble des matrices de dimension k k inversibles a
positifs. Soient m 2 Rk et 2 M+
.
On
observe
n
r
e
alisations
ind
e
pendantes
X1 , . . . , Xn de la
k
loi gaussienne multivariee Nk (m, ). On pose Xi = (X1i , . . . , Xki ) pour tout i 2 {1, . . . , n} et on
consid`ere la matrice de dimension n k X = (Xij )1in,1jk dont les vecteurs Xi , 1 i n, sont
les vecteurs lignes : 8(i, j) 2 {1, . . . , n} {1, . . . , k}, Xij = Xji . On designe par :
n

X
n = 1
Xi = (X1,. , . . . , Xk,. )
X
n
i=1

le vecteur moyenne empirique et on note X la matrice n k dont les vecteurs colonnes sont les
vecteurs Xi,. 1, 1 6 i 6 k. La matrice de covariance empirique est associee `
a lechantillon X1 , . . . , Xn
est donnee par :
1t
Sn = (X X )(X X ).
n
On pose VX =t X X .
(a) Montrer que si k > n alors |Sn | = 0. Prouver que si k < n alors la matrice de covariance
e egale `
a 1.
empirique Sn appartient `a M+
k avec une probabilit

(b) Montrer que si k > n alors |V | = 0. Prouver que si k 6 n alors la matrice VX appartient `
a
+
a 1.
Mk avec une probabilite egale `
(c) On suppose m = 0. On appelle loi de Wishart `
a n degres de liberte de param`etre
la matrice aleatoire V . Verifier que :

la loi de

E[V ] = (E [Vi,j ])1i,jk = n .


n et
(d) On suppose `a present m quelconque dans Rk . Preciser la loi de la moyenne empirique X
n et Sn sont independantes. Prouver que nSn suit une loi de
montrer que les statistiques X
Wishart `a (n 1) degres de liberte de param`etre .

10

Vous aimerez peut-être aussi