Vous êtes sur la page 1sur 5

ECC 1A 2017-2018

Probabilités
TD 2

Objectifs.

— Déterminer la loi de variables aléatoires

Exercice 1. Soit (X, Y ) un couple de variables aléatoires de loi E(λ) ⊗ E(µ), avec λ, µ > 0. Calculer
la loi des variables aléatoires suivantes.
1. max(X, Y )
2. min(X, Y )
3. X + Y

Correction.
1. On note Z = max(X, Y ). La fonction de répartition FZ de Z est donnée par : pour tout t ≥ 0

FZ (t) = P(max(X, Y ) ≤ t)
= P(X ≤ t, Y ≤ t)
= P(X ≤ t)P(Y ≤ t) car X et Y sont indépendants.
= FX (t)FY (t)
= (1 − e−λt )(1 − e−µt )
= 1 + e−(λ+µ)t − e−λt − e−µt .

Comme FZ est dérivable, Z est à densité par rapport à la mesure de Lebesgue, et sa densité
est donné par :  
fZ (x) = λe−λt + µe−µt − (λ + µ)e−(λ+µ)t 1R+ (t).

2. La même astuce permet de calculer P(min(X, Y ) > t) et de trouver min(X, Y ) ∼ E(λ + µ).
3. Soit f une fonction borélienne bornée. Alors
Z ∞Z ∞
Ef (X + Y ) = f (x + y)λµe−(λx+µy) dxdy
0 0
Z ∞Z z
= λµ e(λ−µ)y dyf (z)e−λz dz
0 0
(R ∞
f (z)λµze−λz dz si λ = µ
= R0∞ e−µz −e−λz
0 f (z)λµ λ−µ dz sinon.

On peut alors en déduire la densité de la loi de Z.

Exercice 2. Soit (X, Y ) ∼ N (0, Id). Calculer la loi des variables aléatoires suivantes.
1. X 2
X2
2. Y2
X
3. |Y |
4. X + Y
5. X − Y
Les variables aléatoires X + Y et X − Y sont-elles indépendantes ?
On définit de plus, U ∼ U([0; 1]) indépendante de (X, Y ). On pose
X 0 = X cos(2πU ) − Y sin(2πU ) et Y 0 = X sin(2πU ) + Y cos(2πU )
Donner la loi des variables aléatoires suivantes.
1. U 2
2. (X 0 , Y 0 )
Les variables aléatoires X 0 , Y 0 et U sont-elles indépendantes ?
Correction. Dans les trois premiers cas, on utilise la même méthode : on calcule Ef (Z) pour f
borélienne bornée. Un changement de variable approprié (attention à ce qu’il soit bijectif !) permet
d’obtenir les résultats suivants.
1. X 2 a pour densité (pour un certain C > 0)
e−x/2
x 7→ C √ 1R+ (x).
2x
Cette loi est appelée loi du χ2 à 1 degré de liberté.
2
2. X
Y2
a pour densité
1 1
x 7→ 1 + (x).
π x (x + 1) R
1/2

Cette loi est appelée loi de Fisher de paramètres (1,1) et est notée F(1, 1).
3. |YX| a pour densité (pour un certain C > 0)
1
x 7→ C .
1 + x2
Cette loi est appelée loi de Student de paramètre 1 et est notée St(1) (c’est aussi une loi de
Cauchy).
4. X + Y est une combinaison linéaire du couple (X, Y ) qui est un vecteur gaussien. Donc, X + Y
est une variables aléatoire gaussienne. Le calcul de l’espérance et de la variance donne X + Y ∼
N (0, 2).
5. De même, X − Y ∼ N (0, 2).
1. Un changement de variable donne la densité
1
u 7→ 1[0;1] (u).
2u1/2
2. On note φ la fonction
(x, y, u) 7→ (x cos(2πu) − y sin(2πu), x sin(2πu) + y cos(2πu), u).
Sa jacobienne est donnée par
 
cos(2πu) − sin(2πu) −x2π sin(2πu) − y2π cos(2πu)
Jac(φ)(x, y, u) =  sin(2πu) cos(2πu) 2π cos(2πu) − y2π sin(2πu) 
0 0 1
La jacobienne est de déterminant constant 1, donc φ est inversible sur R2 × [0, 1] et son inverse
ψ est de jacobienne de déterminant constant 1. Donc, pour toute fonction f borélienne bornée,
en
Ef (X 0 , Y 0 , U ) = Ef (X cos(2πU ) − Y sin(2πU ), X sin(2πU ) + Y cos(2πU ), U )
Z
x2 +y 2 1
= f (x cos(2πu) − y sin(2πu), x sin(2πu) + y cos(2πu), u)e− 2 1[0,1] (u) dxdydu

Z
x02 +y 02 1
= f (x0 , y 0 , u)e− 2 1[0,1] (u) dx0 dy 0 du

On a utilisé le fait que [x cos(2πu) − y sin(2πu)]2 + [x sin(2πu) + y cos(2πu)]2 = x2 + y 2 . Ce qui
donne (X 0 , Y 0 ) ∼ N (0, Id) et montre aussi que les variables X 0 , Y 0 , U sont indépendantes.

Exercice 3. Soient X = (X1 , ..., Xn ) ∼ N (0, Id) et A une matrice de k lignes et n colonnes.
1. Donner la loi de AX
2. Calculer la loi de ni=1 Xi .
P

3. Calculer la loi de ni=1 Xi2 .


P

On admettra (ce que l’on pourrait montrer à l’aide du théorème des résidus) que pour tout
α, β > 0,
it −α
Z ∞ α  
β α−1 −βx itx
x e e dx = 1 − .
0 Γ(α) β
Correction.
1. Toutes les combinaisons linéaires de AX sont des combinaisons linéaires de X, donc AX est aussi
un vecteur gaussien. L’espérance étant linéaire, EAX = 0. Enfin, la matrice de covariance est
donnée par ΣAX = EAXX T AT . La linéarité de l’espérance donne alors ΣAX = AIdAT = AAT .
2. C’est une variable gaussienne (en tant que combinaison linéaire de coordonnées d’un vecteur
gaussien), d’espérance 0 et de variance n.
3. Il suffit d’utiliser le fait que φPni=1 X 2 = φnX 2 et l’indice donné pour identifier la loi de ni=1 Xi2
P
i 1
à une loi de densité
2−n/2 n/2−1 −x/2
1x>0 x e
Γ(n/2)
C’est la loi du chi-2 à n degré de liberté, noté χ2 (n).

Exercice 4. Soit X = (X1 , ..., Xn ) ∼ N (0, Σ) où Σ est une matrice symétrique définie positive.
1. Justifier l’existence d’une matrice L telle que Σ−1 = LT L
2. Calculer la loi de LX.
Correction.
1. Il s’agit de la décomposition de Cholesky (par exemple). Dans ce cas, L est triangulaire
supérieure (mais on ne l’utilisera pas).
2. De la même façon que dans l’exercice précédent, LX est un vecteur gaussien, et d’espérance 0
et de variance
ΣLX = ELXX T LT = LΣLT = LL−1 (LT )−1 LT = Id

Exercice 5. Soient X, Y deux variables aléatoires indépendantes.


1. Si X ∼ B(p), Y ∼ B(p0 ), que vaut P(X ≥ Y ) ?
2. Si X ∼ P(λ), Y ∼ G(1/4), que vaut EY X ?
3. Si X ∼ U(0, 2), Y ∼ E(1), que vaut P(Y ≤ X) ?

4. Si X ∼ N (0, 1), Y ∼ E(1), que vaut EeX Y ?
Correction.
1. Le calcul donne

P(X ≥ Y ) = P(X = 1, Y = 1) + P(X = 1, Y = 0) + P(X = 0, Y = 0)


= pp0 + p(1 − p0 ) + (1 − p)(1 − p0 )
= 1 − p0 (1 − p)
2. Le calcul donne
 j
i
i −λ λ 3
X
X
EY = je /4
i! 4
i,j≥0
 j X
X
−λ 3 (jλ)i
= e /4
4 i!
j≥0 i≥0
X  3 j
−λ
= e /4 eλ
4
j≥0
1
= e−λ si 4 > 3eλ et + ∞ sinon.
4 − 3eλ

3. Le calcul donne
e−2 + 1
P(Y ≤ X) = .
2
√ √
4. En remarquant que x y − x2 /2 − y = −(x − y)2 /2 − y/2 pour y > 0,
√ Z Z √ 2 dx
−y/2
Ee X Y
= e e−(x− y) /2 √ dy
y>0 2π
Z
= e−y/2 dy
y>0
= 2.

Exercice 6. Soit (X, Y ) un couple de variables aléatoires de densité


x2 +y 2
f(X,Y ) : (x, y) 7→ Ce− 2 1xy>0 .

1. Calculer C.
2. Donner la loi de X et de Y .
3. Calculer la covariance (X, Y ).
4. (X, Y ) est-il un vecteur gaussien ?

Correction.
1. Pour obtenir une densité (donc d’intégrale 1), il faut C = π1 .
2. Le calcul de Ef (X) et Ef (Y ) pour f borélienne bornée montre que X ∼ N (0, 1) et Y ∼ N (0, 1).
3. X et Y sont d’espérance nulle, donc
2
cov(X, Y ) = EXY = .
π
4. Ce n’est pas un vecteur gaussien cas sa matrice de variance-covariance est inversible, et f(X,Y )
n’est pas la densité d’un vecteur gaussien telle que vue en cours.
On peut remarquer que |X| et |Y | sont indépendants.

Exercice 7. Soit (X, Y, Z) ∼ E(1)⊗3 . On pose S = X + Y + Z.


1. Quelle est la loi ( X Y
S , S , S) ?
2. Montrer que la loi de ( X Y
S , S ) est uniforme sur un domaine que l’on précisera.
3. Quelle est la loi de S ?
4. ( X Y
S , S ) et S sont-ils indépendants ?
Exercice 8. Soit (X, Y ) une fonction de densité
1
f : (x, y) 7→ (1 + xy(x2 − y 2 ))1|x|≤1,|y|≤1 .
4
1. Calculer cov(X, Y ).
2. Quelle est la loi de X ? La loi de Y ?
3. Calculer les fonctions caractéristiques de X, Y et X + Y .
4. Les variables X et Y sont-elles indépendantes ?

Vous aimerez peut-être aussi