Vous êtes sur la page 1sur 9

Université Ibn Zohr

Ecole Nationale des Sciences Appliquées


G-Mec 1
A.U. 2020/2021
M. Fakhouri

Probabilités
Travaux Dirigés

Exercice 1
Soit (X, Y ) un vecteur aléatoire de densité :
f(X,Y ) (x, y) = θ2 e−θ(x+y) 1R+∗ (x)1R∗+ (y)
où θ > 0 est une constante fixée.
a) Vérifier que f(X,Y ) est une densité.
b) Calculer les densités de X et Y .
c) Déduire l’indépendance de X et Y .
d) Calculer la fonction de répartition F(X,Y ) du vecteur aléatoire (X, Y ).
e) Calculer P(2 ≤ X ≤ 5) et P(1 ≤ Y ≤ 3).

Exercice 2
Soit (X, Y ) un vecteur aléatoire de densité
f(X,Y ) (x, y) = θ2 e−θ(x+y) 1R∗+ ×R∗+ (x, y).
Soient les v.a. U = X + Y et V = X − Y .
Quelle est la loi du vecteur aléatoire (U, V )?

Exercice 3
Soient X et Y deux v.a. réelles indépendantes de même loi PX = PY = N (µ, σ 2 ).
Montrer que X + Y et X − Y sont indépendants.

Exercice 4
Soient Y et Z deux variables aléatoires indépendantes telles que Y suit la loi normale
centrée réduite N (0, 1) et Z a pour loi P(Z = 1) = P(Z = −1) = 12 .
Soit W = Y Z.
(i) Montrer que W est une v.a. gaussienne.
(ii) Montrer que (Y, W ) n’est pas un vecteur gaussien.

Exercice 5
 
4 2 3
Soit (X, Y, Z) un vecteur aléatoire de loi N (µ, Σ) avec µ = (0, 2, 1) et Σ =  2 4 2 .
 

3 2 3
(i) Quelles sont les lois de X, de Y , de Z, de −X + 2Z ?
(ii) Le vecteur (X, Y + Z) est-il un vecteur gaussien ? Déterminez sa loi.
Exercice 6
Soit un vecteur aléatoire gaussien X dont les n + 1 composantes Z, X1 , · · · Xn sont des
variables centrées réduites telles que (α étant une constante connue )

ρ (Z, Xi ) = α, 16i6n
2
ρ (Xi , Xj ) = α , 1 6 i 6= j 6 n.

a) On pose
Xi − αZ
Ui = √ , 16i6n
1 − α2
Déterminer la loi du vecteur (Z, U1 , · · · , Un ) et en déduire celle du vecteur (Z, X1 , · · · , Xn ).

Pn S
b) Loi de S = i=1 Xi ? Loi de T = Z
?

Exercice 7
Soit X = (X1 , X2 , X3 ) un vecteur

aléatoire gaussien dont la matrice de variance-covariance
1 0 −1
 0 2 2 
est donnée par :  

−1 2 5
Soit Y=(Y1 , Y2 , Y3 ) le vecteur aléatoire définie par :


 Y1 = X1 + X 3
Y2 = αX1 + 2X2 + βX3
Y3 = −X1 − X2 + X3

avec α et β deux réelles. Le vecteur espérance de Y est µY = (0, 0, 0).


a) Donner la matrice de variance-covariance du vecteur Y .
b) Quelle valeur doit prendre β pour que Y1 et Y2 soient indépendants.
c) Soit Z = (Y1 , Y3 ) un vecteur aléatoire. Déterminer la loi de Z.

Exercice 8
Soit (X, Y ) un vecteur aléatoire de densité f(X,Y ) (x, y) = λ2 e−λy de support D = {(x, y) |
0 6 x 6 y}.
a) Déterminer fY /X=x (y) et fX/Y =y (x).
b) Calculer E(Y | X) et E(X | Y ).
Solutions
Solution Exo 1 :

a) Vérifions que f(X,Y ) est une densité :


f(X,Y ) est une fonction positive. En plus, on peut facilement vérifier que
ZZ
f(X,Y ) (x, y) dx dy = 1.
R2

Alors on déduit que f(X,Y ) est une fonction de densité sur R2 .


b) Calculons les densités de X et de Y :

• On a :
Z Z
fX (x) = f(X,Y ) (x, y) dy = θ2 e−θ(x+y) 1R+∗ (x)1R∗+ (y) dy
R R Z
= θe−θx 1R∗+ (x) θe−θy 1R∗+ (y) dy
ZR
= θe−θx 1R∗+ (x) θe−θy dy
R∗+

= θe−θx 1R∗+ (x)[−e−θy ]+∞


0

= θe−θx 1R∗+ (x)(0 + 1)


= θe−θx 1R∗+ (x).
Donc X suit la loi exponentielle de paramètre θ.
• De la même façon, on montre que :
Z
fY (y) = f(X,Y ) (x, y) dx = θe−θy 1R∗+ (y).
R

Donc Y suit la loi exponentielle de paramètre θ.


c) D’après la question précédente on déduit que
f(X,Y ) (x, y) = θ2 e−θ(x+y) 1R+∗ (x)1R∗+ (y)
= θe−θx 1R∗+ (x) × θe−θy 1R∗+ (y)
= fX (x) × fY (y).
On déduit que X et Y sont des v.a. indépendantes.
d) Calculons la fonction de répartition F(X,Y ) du vecteur aléatoire (X, Y ) : On a
ZZ
F(X,Y ) (x, y) = f(X,Y ) (u, v) du dv
]−∞,x]×]−∞,y]
ZZ
= θ2 e−θ(u+v) du dv
]0,x]×]0,y]
  
= 1 − e−θx 1 − e−θy ,
puisque que f(X,Y ) = 0 dès que u 6 0 ou v 6 0.
On déduit que :
(   
1 − e−θx 1 − e−θy , si x > 0 et y > 0,
F(x,y) (x, y) =
0, sinon.
e) Calculons P(2 ≤ X ≤ 5) et P(1 ≤ Y ≤ 3).

• On a :
Z Z 5
−θy
P(2 ≤ X ≤ 5) = θe dy θe−θx dx
R∗+ 2

= [−e−θy ]+∞
0 [−e
−θx 5
]2
= e−2θ − e−5θ .

• On a :
Z Z 3
P(1 ≤ Y ≤ 3) = θe−θx dx θe−θy dy
R∗+ 1

= [−e−θx ]+∞
0 [−e
−θy 3
]1
−θ −3θ
= e −e .

1
Solution Exo 2 : L’application h(x, y) = (x + y, x − y) est un C -difféomorphisme

de R∗+ × R∗+ dans D = {(u, v) : u > 0, |v| < u}, avec h−1 (u, v) = u+v
2
, u−v
2
. Le jacobien
est !
1 1
(Dh)(x) = det = −2.
1 −1
Donc (U, V ) a pour densité
1 1
f(U,V ) (u, v) = θ2 e−θ(x+y) 1R+∗ ×R+∗ (x, y) = θ2 e−θu 1D (u, v).
2 2

Solution Exo 3 :
Pour montrer l’indépendance, on va montrer que la fonction caractéristique ϕ(X+Y,X−Y )
du vecteur aléatoire (X + Y, X − Y ) est égale au produit des fonctions caractéristiques
des variables aléatoires X + Y et X − Y , i.e. ϕ(X+Y,X−Y ) = ϕX+Y × ϕX−Y .
En effet, on a pour (t1 , t2 ) ∈ R2
 
ϕ(X+Y,X−Y ) (t1 , t2 ) = E ei(t1 +t2 )X+i(t1 −t2 )Y
= ϕX (t1 + t2 ) ϕY (t1 − t2 )
σ 2 (t1 + t2 )2 σ 2 (t1 − t2 )2
!
= exp iµ (t1 + t2 ) − + iµ (t1 − t2 ) −
2 2
  
= exp i(2µ)t1 − σ 2 t21 + t22 .

Déterminons maintenant les lois des variables aléatoires X + Y et X − Y afin d’en déduire
les fonctions caractériqtiques.
On sait que X et Y ont pour loi N (µ, σ 2 ) et en plus ils sont indépendants. Alors
! !
σ 2 t2 σ 2 t2
ϕX+Y (t) = ϕX (t)ϕY (t) = exp itµ − × exp itµ −
2 2
 
= exp i(2µ)t − σ 2 t2 .

Donc X + Y a pour loi PX+Y = N (2µ, 2σ 2 ). De la même façon on montre que la loi de
X − Y est PX−Y = N (0, 2σ 2 ) .
Alors ϕX+Y (t1 ) = exp (i(2µ)t1 − σ 2 t21 ) , et ϕX−Y (t2 ) = exp (−σ 2 t22 ) .
Par conséquent,

ϕ(X+Y,X−Y ) (t1 , t2 ) = ϕX+Y (t1 ) ϕX−Y (t2 ) , ∀ (t1 , t2 ) ∈ R2 .

On déduit donc que X + Y et X − Y sont deux v.a. indépendantes.


Solution Exo 4 :

(i) Afin de montrer que W est une v.a. gaussienne, déterminons soit sa fonction de
répartition ou sa fonction caractéristique.
Fonction de répartition :

FW (t) = P[W ≤ t]
= P[Y Z ≤ t]
 
= P[{Y Z ≤ t} ∩ {Z = 1} ∪ {Z = −1} ]
   
= P[ {Y Z ≤ t} ∩ {Z = 1} ∪ {Y Z ≤ t} ∩ {Z = −1} ]
   
= P[ {Y ≤ t} ∩ {Z = 1} ∪ {−Y ≤ t} ∩ {Z = −1} ]
   
= P[ {Y ≤ t} ∩ {Z = 1} ] + P[ {−Y ≤ t} ∩ {Z = −1} ]
= P(Y ≤ t)P(Z = 1) + P(−Y ≤ t)P(Z = −1)
1 1
= P(Y ≤ t) + P(−Y ≤ t).
2 2
Or on a :

P(−Y ≤ t) = P(Y ≥ −t)


= 1 − P(Y ≤ −t)
1 Z +∞ −y2 1 Z −t −y2
= √ e 2 dy − √ e 2 dy
2π −∞ 2π −∞
1 Z +∞ −y2
= √ e 2 dy
2π −t
1 Z −∞ −u2
= −√ e 2 du en utilisant le changement de variable y = −u
2π t
1 Z t −y2
= √ e 2 dy
2π −∞
= P(Y ≤ t).

On peut aussi conclure directement à partir de la deuxième ligne car on a FY (t) =


1 − FY (−t) = 1 − P(Y ≤ −t) puisque Y est une gaussienne centrée réduite.
Par conséquent on déduit que
1 1
FW (t) = P(Y ≤ t) + P(−Y ≤ t)
2 2
= P(Y ≤ t)
= FY (t).

Alors W est bien une v.a. gaussienne.


Fonction caractéristique :
En effet, on a :

ϕW (t) = E[eitW ]
= E[eitY Z ]
= E[eitY Z 1{Z=1}∪{Z=−1} ]
 
= E[eitY Z 1{Z=1} + 1{Z=−1} − 1{Z=1}∩{Z=−1} ]
= E[eitY Z 1{Z=1} + eitY Z 1{Z=−1} ]
= E[eitY ]E[1{Z=1} ] + E[e−itY ]E[1{Z=−1} ] car Y et Z sont indépendants
= ϕY (t)P(Z = 1) + ϕY (−t)P(Z = −1)
= ϕY (t),
t2
car ϕY (t) = ϕY (−t) = e− 2 . On a aussi utilisé le fait que E[1{Z=1} ] = P(Z = 1) et
E[1{Z=−1} ] = P(Z = −1).
Donc on déduit que W est une v.a. gaussienne.
(ii) Si le vecteur aléatoire (Y, W ) est un vecteur gaussien alors, par définition, chacune
des combinaisons linéaires αY + βW , pour (α, β) ∈ R2 , doit suivre une loi normale.
En particulier Y +W doit suivre une loi normale et alors nécessairement P[Y +W =
0] = 0. Or, si nous calculons cette probabilité :

P[Y + W = 0] = P[Y + Y Z = 0]
= P[Y (1 + Z) = 0]
= P[Y = 0 ou 1 + Z = 0]
= P[Y = 0] + P[Z = −1] − P[Y = 0 et Z = −1]
= P[Y = 0] + P[Z = −1] − P[Y = 0]P[Z = −1]
= 1/2
6= 0

Donc, on déduit que le vecteur aléatoire (Y, W ) n’est pas un vecteur gaussien.
Solution Exo 5 :

(i) Le vecteur aléatoire (X, Y, Z) est un vecteur gaussien donc, par définition, chacune
des combinaisons linéaires αX +βY +γZ, pour (α, β, γ) ∈ R3 , suit une loi normale.
En choisissant (α, β, γ) = (1, 0, 0), nous obtenons que la variable aléatoire X suit
une loi normale. L’espérance de X est donnée par la première composante de
µ1 = 0 et sa variance par le coefficient Σ1,1 = 1. Ainsi X suit une loi normale
N (0, 4). De la même manière Y et Z suivent une loi normale N (2, 4) et N (1, 3).
Pour (α, β, γ) = (−1, 0, 2), nous déduisons que −X + 2Z suit une loi normale.
Calculons son espérance : E(−X + 2Z) = −E(X) + 2E(Z) = 2. Pour la variance,
Var(−X + 2Z) = Var(−X) + 2 Cov(−X, 2Z) + Var(2Z) = Var(X)

−4 Cov(X, Z) + 4 Var(Z) = 4 − 4 × 3 + 4 × 3 = 4

(ii) Le vecteur V = (X, Y + Z) est gaussien si chacune des combinaisons linéaires


αX + β(Y + Z), pour (α, β) ∈ R2 , suit une loi normale, ce qui est bien le cas
puisque (X, Y, Z) est un vecteur gaussien et que donc, par définition, chacune des
combinaisons linéaires αX + βY + γZ, pour (α, β, γ) ∈ R3 , suit une loi normale.
Calculons l’espérance de V : E(V) = (E(X), E(Y + Z)) = (0, 3). Puis déterminons
sa matrice de variance-covariance Var(V) :
! !
Var(X) Cov(X, Y + Z) 4 5
Var(V) = = .
Cov(Y + Z, X) Var(Y + Z) 5 11

Solution Exo 6 :

a) Le vecteur aléatoire (Z, U1 , · · · , Un ) étant une transformation linéaire du vecteur


gaussien X, est un vecteur gaussien, centré. Pour déterminer sa loi, il suffit de
déterminer la matrice de covariances. Pour 1 6 i 6 n,
Var (Xi ) + α2 Var(Z) − 2α Cov (Xi , Z)
Var (Ui ) = =1
1 − α2
et
Cov (Z, Xi ) − α Var(Z)
Cov (Z, Ui ) = √ =0
1 − α2
Si 1 6 i 6= j 6 n
Cov (Xi , Xj ) + α2 Var(Z) − α Cov (Xi , Z) − α Cov (Xj , Z)
Cov (Ui , Uj ) = =0
1 − α2
Donc (Z, U1 , · · · , Un ) suit la loi gaussienne N (0, Id), où Id désigne la matrice
(n + 1) × (n + 1) identitique. Autrement dit, Z, U1 , · · · , Un sont des variables
indépendantes suivant la même loi gaussienne centrée réduite.
Le vecteur aléatoire (Z, X1 , · · · , Xn ) étant une transformation linéaire du vecteur
gaussien (Z, U1 , · · · , Un ) , est donc aussi un vecteur gaussien. On a (en écrivant

β := 1 − α2
 
  1 0 0 ··· 0    
Z Z Z
α β 0 ··· 0
 
 

X1    U1  
U1 
α 0 β ··· 0
    
.. = .. := A· ..
     
 

.
  .. .. .. . . ..  .
 
.

. . . . .
      
Xn  
Un Un
α 0 0 ··· β
 
Z

 X1 

Donc la matrice de covariances de  ..  est
.
 
 
Xn
 
1 0 0 ··· 0  

 α β 0 ··· 0 
 1 α α ··· α
 0 β 0 ··· 0 
 
 α 0 β ··· 0   
D := AAt =  0 0 β ··· 0 

 .. .. .. . . 
. . . .
 
 
 .. .. ... . .. 
 . . . . . 

 ..  

 .  0 0 0 ··· β
α 0 0 ··· β
 
1 α α ··· α
α 1 α2 · · · α2 
 

α α2 1 · · · α2 
 
= 
 
 .. .. .. .. .. 

 . . . . .  
α α α2
2
··· 1
Autrement dit, le vecteur aléatoire (Z, X1 , · · · , Xn ) suit la loi gaussienne N (0, D).

b) Par définition,
√ n
X
S = nαZ + 1 − α2 Ui
i=1

qui suit la loi gaussienne N (0, n2 α2 + n (1 − α2 )). D’autre part,

n−1/2 ni=1 Ui
P
S q
T = = nα + n (1 − α2 )
Z Z
q
La variable T a donc la même loi que nα+ n (1 − α2 )C, où C désigne une variable
aléatoire suivant la loi de Cauchy standard. La densité de T vaut
q
1 n (1 − α2 )
fT (x) = , x∈R
π n (1 − α2 ) + (x − nα)2

Solution Exo 7 :

a) Donnons la matrice de variance-covariance du vecteur Y . Notons cette dernière


ΣY .
On a 
 Y1 = X1 + X 3

Y2 = αX1 + 2X2 + βX3
Y3 = −X1 − X2 + X3

 
1 0 1
Donc Y = AX où A= α

2 β .
−1 −1 1
Par conséquent, on a
ΣY = AΣX At ,
où ΣX est la matrice de covariance de X.
En faisant le calcul on obtient :
 
4 4 + 4β 2
ΣY =  4 + 4β

c(α, β) −2α + 4β 
,
2 −2α + 4β 6

avec c(α, β) = 8 + 8β − 2αβ + α2 + 5β 2 = (β − α)2 + (2β + 2)2 + 4.


b) Puisque Y1 et Y2 sont des combinaisons linéaires des composantes du vecteur aléatoire X
qui est un vecteur gaussien (toute combinaison linéaire de ses composantes est gaussienne),
alors Y1 et Y2 sont gaussiens.
Donc Y1 et Y2 sont indépendants ssi Cov(Y1 , Y2 ) = 0.
On a
Cov(Y1 , Y2 ) = 0 ⇐⇒ 4 + 4β = 0 ⇐⇒ β = −1.
c) De la même façon, on peut montrer que Y3 est gaussien et en plus le vecteur aléatoire
Z = (Y1 , Y3 ) est gaussien.
Déterminons maintenant les paramètres de cette loi.
En effet, on a le vecteur espérance est E(Z) = (E(Y1 ), E(Y3 )) = (0, 0) et la matrice de
covariance est !
4 2
ΣZ = .
2 6
Donc la loi de Z est N (E(Z), ΣZ ).
Solution Exo 8 :

a) On a f(X,Y ) (x, y) = λ2 e−λy de support D = {(x, y) | 0 6 x 6 y}. Alors on déduit


Z +∞
fX (x) = λ2 e−λy dy = λe−λx et fY (y) = λ2 ye−λy
x

Calculons fY /X=x (y) et fX/Y =y (x) :


On a :
f(X,Y ) (x, y)
fY /X=x (y) = ,
fX (x)
et
f(X,Y ) (x, y)
fX/Y =y (x) = .
fY (y)
Donc on obtient
∀x ≥ 0, fY /X=x (y) = λe−λ(y−x) 1[x,+∞[ (y),
et
1
∀y > 0, fX/Y =y (x) = 1]0,y] (x),
y
qui est la densité de la v.a. uniforme sur ]0, y].
b) • Calculons E(Y | X).
Déteminons tout d’abord l’espérance de Y conditionnée par X = x, E(Y | X =
x).
En effet, étant donné la densité conditionnelle fY /X=x (y) = λe−λ(y−x) 1[x,+∞[ (y)
on a Z Z +∞
E(Y | X = x) = yfY /X=x (y)dy = λe−λ(y−x) dy.
x
Il suffit d’utiliser une intégration par parties pour trouver que
1
E(Y | X = x) = x + .
λ
Ce qui implique que :
1
E(Y | X) = X + .
λ
• Déterminons maintenant E(X | Y ).
De la même façon, étant donné la densité conditionnelle fX/Y =y (x) = y1 1]0,y] (x),
l’espérance de X conditionnée par Y = y est égale à
Z Z y
1 x2 y
E(X | Y = y) = xfX/Y =y (x)dx = x dx = [ ]y0 = .
0 y 2y 2
Par conséquent, on déduit que :
Y
E(X | Y ) = .
2

Vous aimerez peut-être aussi