Vous êtes sur la page 1sur 2

RICM 1 module probabilité FICHE 9 RICM 1 module probabilité FICHE 9

Séance 9 : Variables aléatoires vectorielles Ind´


ependance
Comme dans le cas des v.a discrètes nous avons
Variables al´
eatoires vectorielles
D´efinition 3 (Ind´ependance)
Soit X = (X1 , ..., Xn ) un vecteur al´ eatoire dans Rn . Comme dans le cas d’une v.a. on Soit X = (X1 , ..., Xn ) un vecteur aléatoire, composé de variables aléatoires réelles (scalaires),
définit la fonction de repartition jointe de Z en tout point x = (x1 , ..., xn ) ∈ Rn : i.e. chaque Xi est à valeurs dans R. Les v.a. X1 , ..., Xn sont indépendantes si et seulement si
pour tous x = (x1 , · · · , xn )
FX (x) = P(X1 6 x1 , X2 6 x2 , · · · , Xn 6 xn ).
P(X1 6 x1 , ..., Xn 6 xn ) = P(X1 6 x1 )...P(Xn 6 xn )
Dans la suite on suppose que la fonction de repartition jointe possède la densit´
e jointe :
ou bien
∂ n FX (x)
fX (x) = . fX (x) = fX1 (x1 )...fXn (xn )
∂x1 ... ∂xn
De manière plus générale, si on note A1 , · · · , An des intervalles de R, on a Si, de plus, les densités fX1 , ..., fXn sont les mêmes, on dit que les v.a. X1 , ..., Xn sont
Z indépendantes et identiquement distribuées (i.i.d.).
P(X ∈ A1 × · · · × An ) = fX (x)dx. Cette definition s’étend sans peine à une suite infinie de v.a..
A1 ×···×An

Proposition 1

efinition 1 (Loi marginale)
Soit X et Y à valeurs dans R. Soit g et h deux fonctions continues, telles que g(X) et h(Y )
On appelle lois marginales du vecteur X = (X1 , ..., Xn ) les lois des coordonnées du vecteur
soient aussi des variables aléatoires.
X. La loi de Xk est la k-ième marginale de X.
Si X et Y sont indépendantes, alors les variables aléatoires g(X) et h(Y ) sont aussi
Lorsque X admet une densité fX (x1 , · · · , xn ), on a indépendantes. Si de plus Eg(X) et Eh(Y ) existent, on a
Z Eg(X)h(Y ) = Eg(X)Eh(Y ).
fXk (xk ) = fX (x1 , · · · , xn )dx1 · · · dxk−1 dxk+1 · · · dxn .
Rn−1 Proposition 2

efinition 2 (Esp´erance et covariance) Soit X1 , ..., Xn des v.a. indépendantes, alors
On appelle espérance de la variable vectorielle X le vecteur V ar(X1 + ... + Xn ) = V ar(X1 ) + ... + V ar(Xn ).
def
EX = (EX1 , · · · , EXn ). Remarque : on avait déjà (sans propriété d’indépendance) E(X1 + ... + Xn ) = EX1 + ... + EXn
par linéarité de l’opérateur E.
On appelle matrice de covariance la matrice
Proposition 3
ΣX = E (X − EX)t (X − EX) ,
 
Soit X1 , ..., Xn des v.a. indépendantes, alors
X
(avec t l’opérateur de transposition). On note σi,j ses coefficients ; ΣX = diag(σ12 , · · · , σn2 ).
X
σi,j = E [(Xi − EXi )(Xj − EXj )] . Attention, la réciproque est fausse ; une matrice de covariance diagonale n’entraine pas
l’indépendance des variables.
On remarque que la matrice ΣX est symétrique σi,j X X
= σj,i positive, c’est à dire que pour tout
vecteur u, ut ΣX u > 0. De plus, les éléments diagonaux sont les variances des coordonnées de D´
efinition 4 (Convolution)
X
X σi,i
def
= V arXi = σi2 . Soit X et Y deux variables aléatoires réelles indépendantes de densités respectives fX et fY .
La variable aléatoire Z = X + Y admet la densité
Z
fZ (z) = fX (x)fY (z − x)dx.
R

fZ est appellée la densité convolée de fX et fY . On la note fZ = fX ∗ fY .

UJF Polytech 2004 1/ 4 UJF Polytech 2004 2/ 4


RICM 1 module probabilité FICHE 9 RICM 1 module probabilité FICHE 9
Par exemple si X suit une loi exponentielle de paramètre λ et Y une loi exponentielle de pa- eelles positives Soit X variable aléatoire à valeur dans R+ . En posant z = it on a
Variables r´
ramètre µ alors Z = X + Y aura pour densité Z +∞
Z Z z ΦX (it) = Ee−tX = LX (t) = e−tX fX (x)dx, pour t > 0.
0
fZ (z) = λe−λx 11x>0 µe−µ(z−x) 11z−x>0 dx, = λµe(µ−λ)x e−µz ;
R 0 L est appellée la transformée de Laplace de la variable X.
 (µ−λ)x z
e λµ −λz λµ −µz On trouvera dans la feuille de résumé des lois usuelles les principales fonctions caractéristiques.
= λµe−µz = e + e , si λ 6= µ et z > 0;
µ−λ 0 µ−λ λ−µ On généralise les fonctions caractéristiques aux vecteurs aléatoires,
= λ2 ze−λz , si λ = µ et z > 0; .

efinition 6 (Fonction caract´ eristique d’un vecteur)
Pour X = (X1 , · · · , Xn ) et t = (t1 , · · · , tn )
Fonction caract´
eristique ΦX (t) = Eei<t,X> , où < t, x > est le produit scalaire de t et x;
P

D´efinition 5 = Eei k tk xk .
On appelle fonction caractéristique d’une variable aléatoire réelle X et on la note ΦX (z) l’ex-
pression Fonction caractéristiques et convolution
Z
Proposition 4 (Ind´ ependance et fonction caract´ eristique)
ΦX (z) = EeizX = eizx fX (x)dx.
R Les variables aléatoires X1 , · · · , Xn sont indépendantes si et seulement si
n
La fonction caractéristique apparaı̂t comme la la transformée de Fourier de la fonction f X (à un Y
Φ(X1 ,··· ,Xn ) (t1 , · · · , tn ) = ΦXk (tk ).
coefficient près). Comme la transformation de Fourier est inversible, on a
k=1
1
Z
fX (x) = e−izx ΦX (z)dz. Cela découle directement de l’écriture de la fonction caractéristique et de la formule d’inversion.
2π R
Proposition 5 (Convolution et fonction caract´ eristique)
Donc la fonction caractéristique “caractérise” bien la densité fX .
Si X et Y sont des variables aléatoires indépendantes alors

Propriétés ΦX+Y (t) = ΦX (t)ΦY (t).


1. ΦX (0) = 1 et limz→±∞ ΦX (z) = 0. Par exemple, soit X ∼ P(λ) et Y ∼ P(µ) indépendantes, alors X + Y ∼ P(λ + µ). En effet
2. ΦX est une fonction bornée uniformement continue. la fonction génératrice de X (resp. Y ) est GX (x) = eλ(x−1) (resp GY (x) = eµ(x−1) ). Donc la
3. Pour tout réels a, b, on a fonction génératrice de X + Y ,

ΦaX+b (t) = eitb ΦX (at). GX+Y (x) = GX (x)GY (x) = eλ(x−1) eµ(x−1) = e(λ+µ)(x−1) .
4. Par dérivation successive en 0 on obtient, s’ils existent, les moments de X Je reconnais dans GX+Y la fonction génératrice d’une loi P(λ + µ), par unicité de la fonction
caractéristique X + Y suit une loi P(λ + µ).
Φ(n) (0) = Ein X n .
Il est clair que la manipulation de fonctions complexes de variables réelles est délicat. Dans les GX+Y (x) = GX (x)GY (x) = eλ(x−1) eµ(x−1)
situations pratiques, on simplifie la fonction en préservant ses propriétés : = e(λ+µ)(x−1) .
Variables discrètes positives Soit X variable aléatoire à valeur dans N. En posant z = Soit X1 (resp. X2 ) de loi N (µ1 , σ12 ) (resp. N (µ2 , σ22 ), X1 et X2 indépendantes. La fonction
−i log x on a caractéristique de X1 + X2 est
+∞
X 1 2 2 1 2 2
ΦX (−i log x) = ExX = GX (x) = xn P(X = n), pour x ∈ [0, 1]. ΦX1 +X2 (t) = ΦX1 (t)ΦX2 (t) = eiµ1 t− 2 σ1 t eiµ2 t− 2 σ2 t
n=0 i(µ1 +µ2 )t− 12 (σ12 +σ22 )t2
= e .
où GX est la fonction génératrice associée à la variable X (voir fiche 5). Il est clair que
manipuler la série génératrice est plus familier que la manipulation de Φ X . On reconnait la fonction caractéristique d’une loi N (µ1 + µ2 , σ12 + σ22 ).

UJF Polytech 2004 3/ 4 UJF Polytech 2004 4/ 4

Vous aimerez peut-être aussi