Académique Documents
Professionnel Documents
Culture Documents
Exercices
Anne Philippe
anne.philippe@math.univ-nantes.fr
7 décembre 2010
1
CHAPITRE 1
Pré requis
fonction GAMMA
20
La fonction Γ est définie sur R+ par
Z ∞
15
gamma (x)
0
5
0 1 2 3 4 5
Exercice 2. Convergence
Soit (α, β) ∈ R∗+ .
On dispose deux échantillons indépendants (X1 , . . . , Xn ) et (Y1 , . . . , Yn ) qui
possèdent les propriétés suivantes
• (X1 , . . . , Xn ) sont iid suivant la loi exponentielle de paramètre α
• (Y1 , . . . , Yn ) sont iid suivant la loi exponentielle de paramètre αβ.
La loi exponentielle de paramètre τ > 0 a pour densité f (x) = τ e−τ x IR+ (x) On souhaite estimer
les paramètres α et β à partir des observations (X1 , . . . , Xn , Y1 , . . . , Yn ).
1) Écrire la fonction de vraisemblance de l’échantillon (X1 , . . . , Xn , Y1 , . . . , Yn ).
2) Calculer les estimateurs du maximum de vraisemblance des paramètres (α, β). On les note
(α̂, β̂n ).
3) On pose
n n
1 X 1 X
X̄n = Xi et Ȳn = Yi
N i=1 N i=1
3
4 1. PRÉ REQUIS
α−1
X̄n
Montrer que le vecteur Zn := converge presque sûrement vers z = .
Ȳn α−1 β −1
4) En déduire que (α̂n , β̂n ) est un estimateur convergent au sens de la convergence presque sure.
√
5) Montrer que n(Zn − z) converge en loi vers une variable gaussienne. Préciser la moyenne et
la variance de la limite.
6) En déduire que
√
α̂n α
n −
β̂n β
converge en loi vers une variable gaussienne. Préciser la moyenne et la variance de la limite.
On pose (
1 si X1 ≤ X2
N=
2 sinon
1) Déterminer le loi de X1 sachant N = 1, puis l’espérance conditionnelle.
2) Déterminer le loi de X1 sachant N = 2, puis l’espérance conditionnelle.
3) Exprimer l’espérance de X1 en fonction des espérances conditionnelles calculées aux questions
précédentes
4) Calculer la loi et l’espérance de N conditionnellement à X1 .
Statistique Bayésienne
Exercice 1
On veut estimer la moyenne d’un échantillon gaussien dont la variance est supposée connue
et égale à σ 2 = 9 . On sait a priori que la moyenne µ inconnue est autour de 3.
1) Montrer que si la loi a priori est une loi gaussienne de moyenne 3 et de variance τ alors la loi
τ nX̄n + 3σ 2 τ σ2
a posteriori est aussi gaussienne de moyenne 2
et de variance 2 .
nτ + σ σ + nτ
2) Quel est l’estimateur du maximum de vraisemblance de µ ?
On suppose que µ = 3. Simuler un échantillon de taille N = 200.
R 3) Sur les données simulées : On fixe τ = 1. Superposer la densité de la loi a priori et les densités
a posteriori pour différentes tailles d’échantillon n (par exemple n varie de 20 à 200 par pas
de 20).
R 4) Reprendre la question précédente pour différentes valeurs de τ = 1/10, 1/2, 100.
5) Interpréter les résultats obtenus aux questions 3 et 4.
R 6) Sur les données simulées, représenter l’évolution de l’estimateur du maximum de vraisemblance
en fonction de la taille de l’échantillon n = 1...N . Superposer l’évolution de la moyenne de la
loi a posteriori pour différentes valeurs de τ = 1/10, 1/2, 1, 100. Commenter les résultats.
R 7) On suppose maintenant que µ = 4. Reprendre la question 6 avec le même a priori.
8) Conclure.
Exercice 2
Trois personnes veulent estimer la proportion p d’étudiants qui ne résident pas sur le campus.
– A suppose que la loi a priori sur p est la loi discrète définie par
pi .1 .2 .3 .4 .5
π(pi ) .5 .2 .2 .05 .05
– B suppose que la loi a priori sur p est la loi Beta de paramètres (3, 12)
– C suppose que la loi a priori sur p est Beta de paramètres (1, 4)
R 1) Calculer la moyenne et l’écart type de ces trois lois a priori.
2) Ont-ils la même information a priori sur la localisation du paramètre p ? Accordent ils la même
confiance à l’information a priori obtenue ?
3) On veut prédire y le nombre d’étudiants qui habitent hors du campus dans un échantillon de
taille 12.
Donner l’expression de la loi prédictive a priori m(y) dans les trois situations.
R 4) Superposer les courbes représentatives des densités des lois prédictives a priori.
5
6 2. STATISTIQUE BAYÉSIENNE
i bi P (p = bi )
1 0.05 0.03
2 0.15 0.18
3 0.25 0.28
4 0.35 0.25
5 0.45 0.16
6 0.55 0.07
7 0.65 0.02
8 0.75 0.00
9 0.85 0.00
10 0.95 0.00
Table 1
Exercice 3
On veut estimer p la proportion des étudiants qui dorment plus de 8 heures par nuit. Les
observations sur un échantillon de 27 étudiants sont :
11 étudiants dorment plus de 8 heures
16 étudiants dorment moins de 8 heures.
On envisage trois lois a priori différentes sur p :
A- La loi discrète définie dans la Table 1
B- Un mélange de loi uniforme (loi a priori de type histogramme) défini par
i 0 1 2 3 4 5 6 7 8 9
qi 2 4 8 8 4 2 1 1 1 1
où
ai = i/10
et
qi
P (p =∈ [ai , ai+1 ]) = P9
j=0 qj
C- La loi Beta de paramètres a = 3.4 and b = 7.4.
R 1) Représenter graphiquement les trois lois a priori, calculer la moyenne et la variance de ces lois
a priori
2) Pour les trois lois a priori proposées, calculer la loi a posteriori, sa moyenne et sa variance.
R 3) Représenter graphiquement les trois lois a posteriori.
R 4) Commenter les résultats obtenus
2) Montrer que les régions HPD de niveau 1 − α(= .95) sont de la forme
X̄n u1−α/2 X̄n u1−α/2
θ∈ −√ ; +√ = I HP D (τ, X̄n )
1 + τ 2 /n n + τ 2 1 + τ 2 /n n + τ2
où uα est le quartile d’ordre α de la loi gaussienne standard.
R 3) Tracer les bornes des régions de confiance en fonction de τ . On prend par exemple θ = 0.
EXERCICE 7 7
Exercice 7
R 1) Récupérer le fichier de données de taille n = 500
http://www.math.sciences.univ-nantes.fr/∼philippe/lecture/Piecesdef.txt.
La ie observation Ni est égale au nombre de pièces défectueuses dans le ie lot. Un lot est
constitué de 50 pièces. On veut estimer la probabilité de produire une pièce défectueuse.
2) Décrire le modèle statistique.
3) Montrer que la famille des lois β est une famille de lois conjuguées pour ce modèle.
4) Le service qualité fournit les informations suivantes
– la proportion de pièces défectueuses est en moyenne 0.15
– la proportion de pièces X1 , ..., Xn défectueuses appartient à l intervalle [0.1, 0.2] avec une
probabilité de 95%
8 2. STATISTIQUE BAYÉSIENNE
Utiliser ces informations pour fixer les paramètres de la loi a priori conjuguée.
5) Calculer la loi a posteriori et l’estimateur de Bayes associé au coût quadratique.
6) Situation non informative : Calculer la loi a priori de Jeffrey pour ce modèle.
7) Calculer la loi a posteriori et l’estimateur de Bayes.
R 8) Représenter les deux estimateurs de Bayes en fonction du nombre d’observations n.
R 9) Tracer sur un même graphique les deux lois a posteriori calculées sur les K premières observa-
tions. Faire varier K par exemple 5, 10, 15, 20.
CHAPITRE 3
On estime maintenant la variance et les régions de confiance par une méthode non asymp-
totique. La loi de l’estimateur de Monte Carlo In est estimée à n fixé par une méthode de
simulation.
R 5) La variance, les quantiles, etc de la loi de In sont estimés à partir de N échantillons indépendants
de taille n.
La démarche
– On construit une matrice n lignes et N colonnes de nombres aléatoires distribués suivant
la loi de densité f . On note A cette matrice
– On calcule la suite des estimateurs {Ik , k = 1, . . . , n} sur les N colonnes
h = function(x) .... à définir ....
cummean = function(x) cumsum(h(x))/(1 :length(x))
B = apply(A,2,cummean)
La k ème ligne de la matrice B contient un échantillon suivant la loi de l’estimateur de
Monte Carlo Ik .
Évaluation de la variance de In
– Calculer la variance de chacune des lignes
V = apply(B,1,var)
pour obtenir une estimation de la variance de Ik , k = 1 . . . , n
– Représenter l’estimation de la variance en fonction de la taille de l’échantillon
– Représenter le nuages de points {(log(k), log(V [k]), k = 1 . . . , n}. Commenter le résultat
et faire le lien avec le résultat Var(In ) = Cn−1 .
– En déduire une estimation de C.
Régions de confiance
9
10 3. SIMULATION ET ESTIMATEURS DE MONTE CARLO
– Estimer les quantiles d’ordre α/2 et 1 − α/2 de la loi de In . Utiliser la fonction quantile
et apply sur les lignes de la matrice B.
– Représenter sur un même graphique l’estimateur de Monte Carlo et sa région de confiance
en fonction de la taille de l’échantillon
Bootstrap
#----------------------------------------------------#
# utilisation de la fonction boot library(boot)
#----------------------------------------------------#
#----------------------------------------------#
# le bootstrap parametrique
#----------------------------------------------#
13
14 4. BOOTSTRAP
boot.stat=function(x) mean(x)
#----------------------------------------------#
# le bootstrap non parametrique
#----------------------------------------------#
boot.stat=function(x,n) mean(x[n])
nonpara= boot(xdata,statistic=boot.stat,R=B)