Vous êtes sur la page 1sur 4

Master 1ère année Université Paris 1

Probabilités 1 - Feuille de TD 2 - Corrigé

R +∞ Exercice 4
Soit I = −∞ exp (−x ) dx. Calculer I 2 en utilisant le théorème de Fubini et un
2

changement de variables adapté. En déduire I.

Solution : On calcule
Z +∞ 2  Z +∞ 2 Z +∞  Z +∞ 
2 −x2 −x2 −x2 −y 2
I = e dx = 2 e dx =4 e dx e dy .
−∞ 0 0 0

La fonction (x, y) → exp(−(x2 + y 2 )) étant continue (donc mesurable) positive, le


Théorème de Fubini-Tonelli entraı̂ne
Z +∞ Z +∞ Z +∞ Z +∞
e−(x +y ) dxdy
2 2
2 −x2 −y 2
I =4 e e dxdy = 4
0 0 0 0

Un changement de variables en coordonnées polaires est nécessaire :



x = ρ cos θ
y = ρ sin θ

Le difféomorphisme associé est (vérifier que c’est bien un difféomorphisme !)

i πh
Φ : ]0, ∞[ × 0, −→ R∗+ × R∗+
2
(ρ, θ) −→ (ρ cos θ, ρ sin θ)

La matrice Jacobienne de Φ est


!
∂Φ1 ∂Φ1  
∂ρ ∂θ cos θ −ρ sin θ
JΦ (ρ, θ) = ∂Φ2 ∂Φ2 =
∂ρ ∂θ
sin θ ρ cos θ

et le déterminant de la matrice Jacobienne est donc



cos θ sin θ
= ρ cos2 θ + ρ sin2 θ = ρ.

det JΦ (ρ, θ) =

−ρ sin θ ρ cos θ

Par le théorème de changement de variable, on en déduit


Z +∞ Z +∞ Z +∞ Z π
2
−(x2 +y 2 )
e−(ρ cos θ+ρ sin θ) ρdθdρ
2 2 2 2
e dxdy =
0 0 0 0
Z π ! " #+∞
Z +∞ Z +∞ −ρ2
2 2 π 2 π −e π
= e−ρ ρ dθ dρ = e−ρ ρdρ = =
0 0 2 0 2 2 4
0
Ceci montre que
Z +∞ Z +∞
2
I =4 e−(x
2 +y 2
) dxdy = 4 π = π
0 0 4

et puisque I ≥ 0, I = π.

Exercice 5
Soit (X, Y ) un couple de variables aléatoires sur R2 de densité :

1
e (−x) ID (x, y) avec D = (x, y) ∈ R2 /0 < y < x

f (x, y) =
x
Y
On pose U = X et V = X
.

1. Déterminer la loi de (U, V ).

2. Déterminer les lois marginales de U et de V . Ces variables aléatoires sont-elles


indépendantes ?

Solution :

1. La loi de (U, V ) :
Y

On considère le couple (U, V ) = Φ (X, Y ) = X, X , où

Φ : D = (x, y) ∈ R2 , 0 < y < x → D0 = (u, v) ∈ R2 , 0 < u, 0 < v < 1


 
 y
(x, y) → (u, v) = Φ (x, y) = x, .
x

Vérifier que Φ est bien un difféomorphisme. L’application réciproque est Φ−1 = Ψ


définie par Ψ(u, v) = (u, uv) puisque x = u et y = uv. La matrice Jacobienne de
l’application réciproque Ψ est
∂Ψ1 ∂Ψ1
   
∂u ∂v
1 0
JΨ (u, v) = ∂Ψ2 ∂Ψ2 =
∂u ∂v
v u

et son déterminant est


det JΨ (u, v) = u
La densité du couple (U, V ) s’écrit donc :

f(U,V ) (u, v) = f(X,Y ) (Ψ (u, v)) | det JΨ (u, v) |1D0 (u, v)


1
= f(X,Y ) (u, uv) u1D0 (u, v) = e−u 1D0 (u, v)
u
−u
= e 1]0,+∞[ (u)1]0,1[ (v).
2. Les lois marginales :
R
Pour u ≤ 0, on a fU (u) = f(U,V ) (u, v) dv = 0. Pour tout u > 0,
Z Z 1
fU (u) = f(U,V ) (u, v) dv = e−u dv = e−u
0

et donc U ∼ Exp (1), c’est à dire que U suit une loi exponentielle de paramètre
1.
R
Pour v ∈]0,
/ 1[, fV (v) = f(U,V ) (u, v) du = 0 tandis que pour 0 < v < 1, on a :
Z Z ∞
fV (v) = f(U,V ) (u, v) du = e−u du = 1
0

et donc V ∼ U (0, 1).


De plus, on remarque que f(U,V ) (u, v) = fU (u) fV (v) pour tout (u, v) ∈ D0 . Les
variables U et V sont donc indépendantes.

Exercice 6
Soient X et Y deux variables aléatoires indépendantes, de loi respective Γ (1, a) et
Γ (1, b) où a et b sont des réels strictement positifs.
X
Déterminer la loi du couple (S, Z) où S = X + Y et Z = X+Y . Calculer les lois de S
et Z. Les variables aléatoires S et Z sont-elles indépendantes ? A quelle condition, Z
est-elle de carré intégrable ?

Solution :

La loi de (S, Z) :
X

On considère le couple (S, Z) = Φ (X, Y ) = X + Y, X+Y ,

Φ : D = R∗+ × R∗+ → D0 = R∗+ × ]0, 1[


 
x
(x, y) → (s, z) = Φ (x, y) = x + y,
x+y

Vérifier que Φ est bien un difféomorphisme. L’application réciproque Ψ est définie pour
0 < s et 0 < z < 1 par x = zs, et y = s − x = s(1 − z), soit Ψ(s, z) = (sz, s(1 − z))
pour (s, z) ∈ D0 . La matrice Jacobienne de Ψ est :
∂Ψ1 ∂Ψ1
   
∂s ∂z
z s
JΨ (s, z) = ∂Ψ2 ∂Ψ2 =
∂s ∂z
1 − z −s

et son déterminant est donc

det JΨ (s, z) = −sz − s (1 − z) = −s


La densité du couple (S, Z) s’écrit donc :

f(S,Z) (s, z) = f(X,Y ) Φ−1 (s, z) | det JΦ−1 (s, z) |1D0 (s, z)


= f(X,Y ) (sz, s (1 − z)) | − s|1D0 (s, z)

Comme les variables X et Y sont indépendantes, f(X,Y ) (x, y) = fX (x) fY (y). On en


déduit

f(S,Z) (s, z) = fX (sz) fY (s (1 − z)) s1D0 (s, z)


1 −sz 1 −s(1−z)
= e (sz)a−1 e (s (1 − z))b−1 s1D0 (s, z)
Γ (a) Γ (b)
1 
−s a+b−1

a−1 b−1

= e s 1]0,+∞[ (s) z (1 − z) 1]0,1[ (z) .
Γ (a) Γ (b)

On remarque que cette densité est le produit de deux fonctions dépendant respec-
tivement seulement de s et de z. Les deux variables aléatoires S et Z sont donc
indépendantes.
Les lois marginales :
On reconnaˆ, sauf pour le coefficient de normalisation, que la fonction de s est la
densité d’une loi Γ(1, a + b). On normalise donc en récrivant f(S,Z) (s, z) = g(s)h(z), où

1 Γ(a + b) a−1
g(s) = e−s sa+b−1 1]0,+∞[ (s) et h(z) = z (1 − z)b−1 1]0,1[ (z).
Γ(a + b) Γ (a) Γ (b)

On remarque que g est une densité. On en déduit donc que


Z Z
fZ (z) = f(S,Z) (s, z) ds = h(z) g(s) ds = h(z).

La loi de Z a donc pour densité la fonction h dont l’intégrale vaut donc 1. La variable
aléatoire Z suit une loi B(a, b).
La densité de S est alors
Z Z
fS (s) = f(S,Z) (s, z) dz = g(s) h(z) dz = g(s)

et S suit une loi Γ(1, a + b).

Vous aimerez peut-être aussi