Académique Documents
Professionnel Documents
Culture Documents
Département MIDO
Master 1 – Méthodes de Monte Carlo
Exercice 1 (Stratification avec allocation proportionnelle). Soit X une variable aléatoire de loi de den-
sité f sur D. On considère
Z
I= h(x) f (x)dx.
D
1. Étant données D 1 , . . . , D K une partition de D et (X n )n≥1 une suite de variables aléatoires i.i.d. de loi
de densité f , rappeler la définition de l’estimateur stratifié avec allocation proportionnelle et X pour
variable de stratification.
K p X nk ³ ´ 1 X K X nk ³ ´
k
δbn (p 1 , . . . , p K ) = h X i(k) = h X i(k) ,
X
k=1 n k i =1 n k=1 i =1
2. Montrer que, si l’on doit estimer P [X ∈ D k ], k = 1, . . . , K , cet estimateur n’apporte pas d’améliorations
par rapport à l’estimateur de Monte Carlo usuel.
Exercice 2. Soit X une variable aléatoire de loi de Cauchy C (0, 1). On s’intéresse au calcul de
Z +∞ 1
p := P [X ≥ 2] = dx.
2 π(1 + x 2 )
1. Calculer analytiquement p.
Solution.
· ¸+∞
1 1 1
p= arctan(x) = − arctan(2).
π 2 2 π
Dans la suite on admettra que p ≈ 0.15. On se donne X 1 , . . . , X n un ensemble de variables aléatoires i.i.d.
suivant la loi de Cauchy C (0, 1).
2. Montrer que la variance de l’estimateur de Monte Carlo usuel δbn est
£ ¤ p(1 − p) 0.126
Var δbn = ≈ .
n n
1
TD n°4 Méthodes de Monte Carlo
1 Xn
i.i.d.
δbn = 1{X k ≥2} , X 1 , . . . , X k ∼ C (0, 1).
n k=1
n δbn est une somme de n variables aléatoires i.i.d. de loi de Bernoulli de paramètre p. On en déduit
que Var n δbn = np(1 − p). D’où le résultat souhaité.
£ ¤
3. En utilisant la symétrie de la loi de Cauchy C (0, 1), proposer un nouvel estimateur δb(1)
n et montrer
que la variance de cet estimateur est
Solution. La loi de Cauchy C (0, 1) étant symétrique, alors les variables aléatoires X et −X suivent
toutes les deux une loi de Cauchy C (0, 1). On en déduit l’estimateur par variable antithétique sui-
vant
1 Xn
i.i.d.
δb(1)
n = 1{|X k |≥2} , X 1 , . . . , X n ∼ C (0, 1).
2n k=1
Solution. Si l’on souhaite estimer la probabilité d’un événement rare, i.e. P [X ≥ t ] pour t « grand »,
il est difficile d’obtenir des réalisations plus grandes que t et donc (presque) toutes les indicatrices
valent 0. Il est donc difficile d’obtenir une estimation précise de P [X ≥ t ], les estimateurs δbn et δb(1)
n
valant presque systématiquement 0.
5. Montrer que
1
Z 2 1
p= − dx.
2 0 π(1 + x 2 )
2
TD n°4 Méthodes de Monte Carlo
Il s’agit alors d’estimer par Monte Carlo l’intégrale sur [0 , 2]. Pour estimer une intégrale de la forme,
Z a 1
dx,
0 π(1 + x 2 )
on écrit
Z a
a a
· ¸
1 1
Z
dx = 1{x∈[0,a]} dx = E , U ∼ U ([0 , a]). (1)
0 π(1 + x 2 ) R π(1 + x ) a
2 π(1 +U 2 )
On en déduit l’estimateur
1 1 Xn 2 i.i.d.
δb(2)
n = − , U1 , . . . ,Un ∼ U ([0 , 2]).
2 n k=1 π(1 +Uk2 )
a2 a a 1 + x2 − x2
¸ Z a
a a a 1 a a x
· Z Z Z
E 2 = dx = 2 dx = 2 dx − 2 x dx.
π (1 +U )
2 2
0 π (1 + x )
2 2 2 π 0 (1 + x )2 2 π 0 1+x 2 π 0 (1 + x 2 )2
a ¸a Z a
x
·
−x 1
Z
x 2 2
dx = 2
+ 2
dx.
0 (1 + x ) 2(1 + x ) 0 0 2(1 + x )
Il en résulte
a2 a2 a2
Z a
a a
· ¸
1
E 2 = dx + = arctan(a) + . (2)
π (1 +U 2 )2 2π2 0 1 + x 2 2π2 (1 + a 2 ) 2π2 2π2 (1 + a 2 )
1 2 1
Var δb(2) arctan2 (2).
£ ¤
n = 2
arctan(2) + 2
−
nπ 5nπ nπ2
6. Montrer que
1/2
1
Z
p= dx.
0 π(1 + x 2 )
3
TD n°4 Méthodes de Monte Carlo
1 1 Xn 1 i.i.d.
δb(3)
n = − , U1 , . . . ,Un ∼ U ([0 , 1/2]).
2 n k=1 2π(1 +Uk2 )
1 1 1
Var δb(3) arctan2 (1/2).
£ ¤
n = arctan(1/2) + −
4nπ2 10nπ2 nπ2
1{0≤X ≤2}
· ¸ · ¸
1 1
p = E 1{0≤X ≤1/2} =E =E
£ ¤
.
π(1 +U 2 ) 21{0≤U ≤1/2} 2π(1 +U 2 )
+∞ x2
· ¸ · ¸
2 1 1
Z
p= dx = E =E .
2 2π(1 + x 2 ) x 2 2π(1 + 1/Z 2 ) 2π(1 +U 2 )
Exercice 3. Soit X une variable aléatoire de loi N µ , σ2 et K une constante réelle. On s’intéresse au
¡ ¢
calcul de
p := P e X ≥ K .
£ ¤
4
TD n°4 Méthodes de Monte Carlo
2m(X − µ) − m 2
· ½ ¾ ¸
p = E exp 1{e X −m ≥K }
2σ2
Solution. Soit (X n )n≥1 une suite de variables aléatoires i.i.d. de loi N µ , σ2 . D’après la question
¡ ¢
n 2m(X k − µ) − m 2
½ ¾
1 X
δn =
b exp 1{e X k −m ≥K } .
n k=1 2σ2
Remarque. Si l’on souhaite se convaincre qu’il s’agit bien d’un estimateur d’échantillonnage pré-
férentiel, on pourra remarquer qu’il s’obtient de façon équivalente en écrivant
φµ (Y )
· ¸
p =E Y ∼ N µ − m , σ2 ,
¡ ¢
1{e Y ≥K } ,
φµ−m (Y )
Le paramètre m permet de translater la loi N µ , σ2 de sorte que l’on ait un nombre significatif de
¡ ¢
3. En utilisant une loi de support [ln K , +∞[, quel autre estimateur d’échantillonnage préférentiel auriez-
vous pu proposer ?
(Z − µ)2
· µ ¶¸
1
p =E p exp λ(Z − ln K ) − .
λ 2πσ2 2σ2
1 nu
µ o2 ¶
1
Z
p= p exp u − 2 + ln K − µ exp(−u)1{u≥0} du.
R λ 2πσ2 2σ λ
5
TD n°4 Méthodes de Monte Carlo
Il en résulte
¾2 ¶¸
Y
· µ ½
1 1
p =E p exp Y − 2 + ln K − µ ,
λ 2πσ2 2σ λ
où Y suit la loi exponentielle de paramètre 1. Étant donné (Yn )n≥1 une suite de variables aléatoires
i.i.d. de loi exponentielle de paramètre 1, on a l’estimateur d’échantillonnage préférentiel suivant :
n ¾2 ¶
Yk
µ ½
1 X 1 1
δbn = p exp Yk − 2 + ln K − µ .
n k=1 λ 2πσ2 2σ λ