Vous êtes sur la page 1sur 3

Université Paris Dauphine 2017–2018

Département MIDO
Master 1 – Méthodes de Monte Carlo

Examen Final – 18/01/2018


D URÉE 2 H 00 – D OCUMENTS ET C ALCULATRICE N ON AUTORISÉS

Important. Suivant les réglements en vigueur :

1. Les enseignants présents lors de l’épreuve ne peuvent communiquer que sur les fautes d’énoncé
potentielles. Toute autre question durant la composition ne sera pas acceptée.
2. Les étudiants sont tenus de se lever au moment de l’annonce de fin de la composition. En cas
de refus, le responsable de l’UE sera fondé à ne pas prendre en compte la copie incriminée.
3. L’identification des copies et intercalaires doit avoir été faite au moment de la remise de chaque
copie par les enseignants et surveillants. Il ne sera pas accordé de délai pour cette raison en fin
d’épreuve.

Les différents exercices/parties sont indépendants et peuvent être traités dans l’ordre de votre
choix. En particulier, ne restez pas bloqué trop longtemps sur une question.

Exercice 1 (4 pts). On souhaite calculer


Z
I= h(x) f (x)dx,
Rd

en simulant X1 , . . . , Xn des variables aléatoires i.i.d. de densité f par la méthode du rejet. Pour ce faire,
on a dû simuler Y1 , . . . , Yn+T , avec Yn+T = Xn , un nombre aléatoire de variables aléatoires de densité g
satisfaisant :

(i) pour tout x ∈ Rd , f (x) ≤ M g (x), avec M = sup( f /g ) ;


(ii) {x ∈ supp( f ) : f (x) = M g (x)} est de mesure nulle.

1. Donner, avec démonstration, la loi des variables aléatoires Z1 , . . . , ZT ayant été rejetées, condition-
nellement à T = t .

2. En déduire que la densité marginale de Yi conditionnellement à T = t , i ∈ {1, . . . , n + t −1}, est donnée


par

n −1 t M g (y) − f (y)
ψ(y) = f (y) + .
n +t −1 n +t −1 M −1

3. Montrer que
" © ª ¶−1 #
1 n+t
X−1
µ
t M g (Yk ) − f (Yk )
h(Yn+t ) + 1+ h(Yk )
n k=1 (n − 1)(M − 1) f (Yk )

est un estimateur sans biais de I .

1
Examen Méthodes de Monte Carlo

Exercice 2 (3 pts). Soit I = E [h(U )] où U est une variable aléatoire de loi uniforme sur [0 , 1] et h une
fonction de carré intégrable. On considère U1 , . . . ,U N des variables aléatoires i.i.d. suivant la loi uni-
forme sur [0 , 1]. h i
1. Montrer que k−1+U
N , k = 1, . . . , N , est distribuée suivant la loi conditionnelle de U sachant U ∈ k−1 k
N , N .

2. Justifier que l’estimateur suivant est un estimateur stratifié :

1 XN µ
k − 1 +Uk

h
N k=1 N

3. Cet estimateur est-il plus efficace en terme de variance que l’estimateur de Monte Carlo classique ?

Exercice 3 (17 pts). Soient X et Y des variables aléatoires réelles. L’objectif est de calculer à l’aide de
méthodes de Monte Carlo :

p = P [X + Y ≥ t ], t ∈ R.

On notera n le nombre de réalisations de variables aléatoires utilisées pour calculer l’estimateur.

Partie 1 – 10 pts

Dans cette partie, les variables aléatoires X et Y sont indépendantes et ont pour fonction de répartition
respective F et G. On suppose que les inverses généralisés de F et G, notés respectivement F −1 et G −1 ,
sont numériquement facilement calculables et que l’on dispose d’un générateur aléatoire suivant la loi
uniforme sur [0 , 1].
1. Donner le pseudo-code (i.e., l’algorithme sans utiliser un langage de programmation particulier) qui
permet d’obtenir n réalisations i.i.d. du couple (X , Y ) à partir du générateur uniforme sur [0 , 1].

2. En utilisant la méthode de Monte Carlo classique, donner un estimateur pbn de p en fonction de F −1


et G −1 . Préciser notamment la variance de la méthode et comment l’estimer.

Réduction de la variance et invariance.


3. En utilisant la méthode des variables antithétiques, donner un estimateur pbn(1) de p permettant de
réduire la variance.
Indication. On pourra utiliser, sans justification, le résultat suivant : soient Z1 , Z2 des variables aléa-
toires réelles indépendantes. Si Φ et Ψ sont des fonctions de R2 dans R vérifiant :

Φ(Z1 , Z2 ) et Ψ(Z1 , Z2 ) ont même loi et E Φ2 (Z1 , Z2 ) < +∞ ;


£ ¤
(i)
(ii) Φ, respectivement Ψ, est croissante, respectivement décroissante, en chacune de
ses coordonnées,

alors Cov[Φ(Z1 , Z2 ), Ψ(Z1 , Z2 )] ≤ 0.

Conditionnement.
4. Montrer que p = E [1 −G(t − X )].
h i
5. En déduire un nouvel estimateur pbn(2) de p et montrer que Var pbn(2) ≤ Var pbn .
£ ¤

2
Examen Méthodes de Monte Carlo

6. Commenter le coût de calcul de pbn(2) , notamment en comparaison des estimateurs précédents. Quelle
limite voyez-vous à cet estimateur ?

Partie 2 : variable de contrôle – 4 pts

Dans cette partie, on considère X = e V1 et Y = e V2 avec (V1 ,V2 ) un vecteur gaussien centré tel que
Var[V1 ] = Var[V2 ] = 1 et Cov[V1 ,V2 ] = ρ, avec |ρ| ≤ 1.
7. On suppose que l’on dispose d’un générateur aléatoire de la loi normale centrée réduite. Expliquer
comment obtenir n réalisations i.i.d. du couple (V1 ,V2 ) à partir de ce générateur.

8. Exprimer les probabilités suivantes en fonction de la fonction de répartition Φ de la loi normale


centrée réduite :
a. P exp(V1 + V2 ) ≥ t b. P exp(V2 ) ≥ t
£p ¤ £ ¤

9. En utilisant la méthode de la variable de contrôle avec 8.a., respectivement 8.b., déduire un nouvel
estimateur pbn(3) , respectivement pbn(4) , de p.

10. Quel argument formel permet de justifier l’efficacité relative de ces estimateurs en terme de va-
riance et de choisir l’estimateur le plus efficace ? (Aucun calcul explicite du critère n’est attendu)

Partie 3 : estimateur auto-normalisé – 3 pts

Dans cette partie, on suppose que le couple (X , Y ) admet une densité f proportionnelle à
µ 2
x + y2

f˜(x, y) = cos2 (x) + 2 sin2 (y) cos4 (x) exp −
© ª
.
2

11. Soient (S k , Tk )k=1,...,n des variables aléatoires i.i.d. de densité g suivant laquelle on sait simuler.
Montrer que
Pn
k=1
h(S k , Tk )w(S k , Tk ) f (S k , Tk )
Pn , avec w(S k , Tk ) = ,
k=1
w(S k , Tk ) g (S k , Tk )

converge vers E [h(X , Y )].

12. En déduire une méthode d’estimation de p ne nécessitant pas de connaître la constante de norma-
lisation de f .

Vous aimerez peut-être aussi