Vous êtes sur la page 1sur 3

Université Paris Dauphine Année universitaire 2016-2017

Deuxième année du DE MI2E TD de MR. BEY


Probabilités multidimensionnelles et théorèmes limite Groupes 2 & 3

TD 14 : 22/03/2017
Correction suite Exos Vecteurs aléatoires
Solution Exercice 41 (Simulation de variables gaussiennes (algorithme de Box-
Müller))
Énoncé : Soient U et U deux variables aléatoires indépendantes de loi uniforme sur
1 2
[0, 1]. Montrer que les variables aléatoires dénies par
p p
X = −2 log(U1 ) cos(2πU2 ), Y = −2 log(U1 ) sin(2πU2 ).

sont indépendantes et de même loi N (0, 1)).

On se rappelle que pour identier la loi d'une variable aléatoire, il sut de savoir calculer
les espérances de fonctions de cette variables aléatoires (pour toute fonction dans un
ensemble de fonctions tests). Notons :
G = (u, v) ∈ R2 tel que u ∈]0, 1] × v ∈ [0, 1] .


Nous prenons donc ϕ ∈ Cb+ (R2 ) est l'ensemble des fonctions positives, continues, bornées
de R2 dans R :
 p p 
E(ϕ(X, Y )) = E ϕ −2ln(U1 ) cos(2πU2 ), −2ln(U1 ) sin(2πU2 ) .
Z p p 
= ϕ −2ln(u) cos(2πv), −2ln(u) sin(2πv) fU1 ,U2 (u, v) du dv
ZG p p 
= ϕ −2ln(u) cos(2πv), −2ln(u) sin(2πv) fU1 (u) fU2 (v) du dv
ZG p p 
= ϕ −2ln(u) cos(2πv), −2ln(u) sin(2πv) .1 du dv
G

Nous eectuons le changement de variable suivant :


p
r= −2ln(u), θ = 2πv ∀ u ∈]0, 1] × v ∈ [0, 1].

L'application
g1 : G =]0, 1] × [0, 1] −→ H = R+ × [0, 2π]
p 
(u, v) 7−→ (r, θ) = −2ln(u), 2πv

1
est une bijection de classe C 1 de réciproque
g1−1 : H = R+ × [0, 2π] −→ G =]0, 1] × [0, 1]
 
−r 2 2π
(r, θ) 7−→ (u, v) = e 2 , .
θ

Nous obtenons la matrice jacobienne


√ −1
 
∂r ∂r 0
 
∂u ∂v u −2 ln(u)
g1 (r, θ) =  = ,


∂θ ∂θ
∂u ∂v 0 2π

de déterminant Jacg1 = |det(g1 )| = √


u

−2log(u)
. Donc dr dθ = |det(g1 )| du dv . Par
conséquent
p −r 2 −r 2
u −2log(u) |r|e 2 re 2
du dv = dr dθ = dr dθ = dr dθ
2π 2π 2π
Le jacobien de g1 ne s'annule jamais sur G. Il découle de la formule du changement de
variable que
Z p p 
E(ϕ(X, Y )) = ϕ −2ln(u) cos(2πv), −2ln(u) sin(2πv) du dv
G
Z −r 2
re 2
= ϕ (r cos(θ), r sin(θ)) dr dθ
R+ ×[0,2π] 2π

Nous eectuons maintenant à nouveau le changement de variable


x = r cos(θ), y = r sin(θ) r ∈ R+ , θ ∈ [0; 2π]

(c'est le passage usuel en coordonnées polaires). Nous obtenons la matrice jacobienne


∂x ∂y
   
∂r ∂r
cos(θ) sin(θ)
g2 (x, y) =  = ,
∂x ∂y
∂θ ∂θ
−r sin(θ) r cos(θ)
de déterminant det(g2 ) = r cos2 (θ) + r sin2 (θ) = r. Donc dxdy = rdrdθ.
−r 2 2 2 )/2
e−(x +y
Z Z
re 2
E(ϕ(X, Y )) = ϕ (r cos(θ), r sin(θ)) dr dθ = ϕ(x, y) dxdy.
R+ ×[0,2π] 2π R2 2π

On conclut que la densité du couple (X, Y ) vérie :


2 2 )/2
e−(x +y
f(X,Y ) (x, y) = .

Par un calcul intégrale, nous trouvons les lois marginales de X et Y :
2 2 )/2 2 2 2
e−(x +y e−(x )/2 e−(y )/2 e−(x )/2
Z Z Z
fX (x) = f(X,Y ) (x, y)dy = dy = √ √ dy = √
R R 2π 2π R 2π 2π

2
et 2 2 2
e−(y )/2 e−(x )/2 e−(y )/2
Z Z
fY (y) = f(X,Y ) (x, y)dx = √ √ dx = √
R 2π R 2π 2π
Il est clair que f(X,Y ) (x, y) = fX (x)fY (y) On montre donc X et Y sont deux variables
indépendantes de même loi N (0, 1).
Remarque : Pour simuler une variable X de ploi N (0, 1), il sut donc de prendre
U , U ∼ U ([0, 1]) indépenantes et poser X = −2log(U ) cos(2πU ). Pour simuler
une variable X de loi N (µ, σ ), il sut de prendre X = µ + σY avec Y ∼ N (0, 1).
1 2 1 2
2

Vous aimerez peut-être aussi