Vous êtes sur la page 1sur 7

INSA

Signaux aléatoires
Travaux dirigés 1
Durée : 1 h 15

Exercice 1 :
Soit x une variable aléatoire dont la densité de probabilité est f (α). Calculer la densité de probabilité
de :

- y = ex

- y = |x|

Exercice 2 :
x est une variable aléatoire dont les valeurs sont uniformément réparties entre 0 et 1.

1 - Calculer E[x] et E[x2 ].

2 - y est une variable aléatoire indépendante de x et ayant même loi de probabilité. On pose
z = x + y. Trouver la densité de probabilité de z. Calculer E[z] et E[z 2 ].

3 - Calculer le coefficient de corrélation de x et z.

Exercice 3 :
x1 et x2 sont deux variables aléatoires Gaussiennes (moyenne m1 , m2 , écart type σ1 , σ2 ) et ρ leur
coefficient de corrélation.

1 - Exprimer en fonction de ces paramètres, la fonction densité de probabilité conjointe et la fonction


densité de probabilité conditionnelle px1 /x2 .

2 - y1 = (x1 − m1 ) cos θ + (x2 − m2 ) sin θ ; y2 = −(x1 − m1 ) sin θ + (x2 − m2 ) cos θ. Pour quelles
valeurs de θ, les variables aléatoires sont-elles indépendantes ?

Exercice 4 :
π π
Soit θ une variable aléatoire uniformément distribuée sur ] − [. Donner la fonction densité de
2 2
probabilité px (α) de la variable aléatoire x = tan θ.
Exercice 5 :
Soit x une v.a. dont la distribution est poissonienne. Déterminer la moyenne et la variance de x.

1
INSA

Signaux aléatoires
Travaux dirigés 1 : correction
Durée : 1 h 15

Exercice 1 :
Soit la v.a. y = ex . On calcule sa fonction de répartition Fy (β).

Fy (β) = P [y ≤ β] = P [ex ≤ β]

- Cas 1 β ≤ 0 : Fy (β) = P [ex ≤ β] = 0

- Cas 2 β > 0 : Fy (β) = P [ex ≤ β] = P [x ≤ log(β)] = Fx (log(β))


On obtient donc pour la densité de probabilité fy (β) :
d d 1
fy (β) = Fy (β) = Fx (log(β)) = f (log(β))
dβ dβ β
En résumé :

β ≤ 0 fy (β) = 0
β > 0 fy (β) = f (log(β))

Soit la v.a. y = |x|. La méthode est identique. La fonction de répartition Fy (β) = P [|x| ≤ β]
- Cas 1 β < 0 : Fy (β) = P [|x| ≤ β] = 0

- Cas 2 β ≥ 0 : Fy (β) = P [|x| ≤ β] = P [−β ≤ x ≤ β] = P [x ≤ β] − P [x ≤ −β] = Fx (β) − Fx (−β).


On obtient alors :

β < 0 fy (β) = 0
β ≥ 0 fy (β) = f (β) + f (−β)

Exercice 2 :
1- x est une variable aléatoire uniformément répartie entre 0 et 1 donc fx (α) = 1 pour 0 ≤ α ≤ 1.
On obtient donc,
 ∞  1
1
E[x] = αfx (α)dα = αdα =
−∞ 0 2
 ∞  1
2 1
E[x2 ] = α fx (α)dα = α2 dα =
−∞ 0 3

2- On applique une méthode directe par la fonction de répartition. Fz (α) = P [z ≤ α] = P [x+y ≤ α]

3
α2
- Premier cas α < 1 : Fz (α) = P [x + y ≤ α] =
2
y

α 0000000
1111111
1111111
0000000
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
α 1 x

(2 − α)2
- Deuxième cas 1 ≤ α ≤ 2 : Fz (α) = P [x + y ≤ α] = 1 −
2
y

α
1 1111111111111
0000000000000
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
2−α
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
1 α x

- Troisième cas α < 0 ou α > 2 :



0 pour α < 0
Fz (α) = P [x + y ≤ α] =
1 pour α > 2

dFz (α)
On obtient donc la densité de probabilité fz (α) =


 α pour 0≤α<1
fz (α) = 2 − α pour 1≤α<2

0 ailleurs

fz(α)

1 2 α

 ∞  1  2
2
E[z] = αfz (α)dα = α dα + α(1 − α)dα = 1
−∞ 0 1

 ∞  1  2
2 2 3 7
E[z ] = α fz (α)dα = α dα + α2 (2 − α)dα =
−∞ 0 1 6

4
3- Coefficient de corrélation entre x et z :
cov(x, z)
ρ=
σx σz

On a σz2 = var(z) = var(x + y) = var(x) + var(y) = 2var(x) donc σx σz = 2var(x). De même,
cov(x, z) = E[(x − E[x])(z − E[z])] = E[(x − E[x])(x + y − E[x] − E[y])]

= E[x2 ] − E[x]2
d’où le coefficient de covariance :
E[x2 ] − E[x]2 var(x) 1
ρ= √ =√ =√
2var(x) 2var(x) 2

Exercice 3 :
Soient x1 et x2 deux v.a. conjointement gaussiennes
 
x1
1- Le vecteur x = est un vecteur gaussien de densité de probabilité :
x2

 −1 1
1/2
− [α − mx ] Px−1 [α − mx ]
px (α) = px1 ,x2 (α1 , α2 ) = (2π)det(Px ) e 2

On a :
   
mx1 σ12 ρσ1 σ2
mx = Px =
mx2 ρσ1 σ2 σ22
On calcule alors :
det(Px ) = σ12 σ22 (1 − ρ2 )
 1 −ρ 
 σ12 (1 − ρ2 ) (1 − ρ2 )σ1 σ2 
Px−1 = −ρ 1 
(1 − ρ2 )σ1 σ2 σ22 (1 − ρ2 )
Soit,
1  −1
1 − [α − mx ] Px [α − mx ]
px1 ,x2 (α1 , α2 ) =  e 2
2πσ1 σ2 (1 − ρ2 )
On sait que :
px1 ,x2 (α1 , α2 )
px1 /x2 =
px2 (α2 )
avec
(α2 − m2 )2
1 −
px2 (α2 ) =  e 2σ 2
2πσ2 2

On obtient alors :
1 (α2 − m2 )2
1 − [α − mx ] Px−1 [α − mx ] +
px1 /x1 =  e 2 2σ2
2π(1 − ρ2 )σ1

5
2- Soient
y1 = (x1 − m1 ) cos θ + (x2 − m2 ) sin θ

y2 = −(x1 − m1 ) sin θ + (x2 − m2 ) cos θ

y1 et y2 sont des combinaisons linéaires de v.a. gaussiennes et par conséquent sont donc gaussi-
ennes.
E[y1 ] = (E[x1 ] − m1 ) cos θ + (E[x2 ] − m2 ) sin θ = 0

E[y2 ] = −(E[x1 ] − m1 ) sin θ + (E[x2 ] − m2 ) cos θ = 0

Pour tester leur indépendance, on calcule E[y1 y2 ].

E[y1 y2 ] = (σ22 − σ12 ) cos θ sin θ + ρσ1 σ2 (cos2 θ − sin2 θ)

sin 2θ
= (σ22 − σ12 ) + ρσ1 σ2 cos 2θ
2
Si
2ρσ1 σ2
tan 2θ =
(σ12 − σ22 )

alors E[y1 y2 ] = 0 et il y aura indépendance.

Exercice 4 :
Soit θ une v.a. uniformément répartie sur ] − π/2 , π/2[. On calcule la fonction de répartition de
x = tan θ.

Fx (α) = P [x = tan θ ≤ α] = P [θ ≤ atanα]

puisque tan est une fonction monotone croissante sur ] − π/2 , π/2[. θ est uniformément répartie sur
] − π/2 , π/2[ donc :
π
µ+ 2
Fθ (µ) = = P [θ ≤ µ]
π
Soit,
π
atanα + 2
Fx (α) = P [θ ≤ atanα] =
π
donc, comme

dFx (α) 1
px (α) == =
dα π(1 + α2 )

6
on obtient la loi de Cauchy.

0.35

px(α) 1/π
0.3

0.25

0.2

0.15

0.1

0.05

α
0
−20 −15 −10 −5 0 5 10 15 20

Exercice 5 :
La moyenne de x :

 ∞
 k ∞

−a a −a ak−1
E[x] = kP [x = k] = ke = ae
k! (k − 1)!
k=−∞ k=0 k=1

 an
= ae−a = ae−a ea = a
n!
n=0

La variance de x :

 ∞
 ak
E[x2 ] = k 2 P [x = k] = k 2 e−a
k!
k=−∞ k=0

 ak−1
= ae−a [(k − 1) + 1]
(k − 1)!
k=1
 ∞ ∞

 (k − 1)ak−1  ak−1
= ae−a +
(k − 1)! (k − 1)!
k=1 k=1
 ∞

 ak−2
= ae−a a + ea = ae−a (aea + ea ) = a2 + a
(k − 2)!
k=2

σx2 = E[x2 ] − E 2 [x] = a2 + a − a2 = a

Vous aimerez peut-être aussi