Académique Documents
Professionnel Documents
Culture Documents
Proposition 1
D´
efinition 1 (Loi marginale)
Soit X et Y à valeurs dans R. Soit g et h deux fonctions continues, telles que g(X) et h(Y )
On appelle lois marginales du vecteur X = (X1 , ..., Xn ) les lois des coordonnées du vecteur
soient aussi des variables aléatoires.
X. La loi de Xk est la k-ième marginale de X.
Si X et Y sont indépendantes, alors les variables aléatoires g(X) et h(Y ) sont aussi
Lorsque X admet une densité fX (x1 , · · · , xn ), on a indépendantes. Si de plus Eg(X) et Eh(Y ) existent, on a
Z Eg(X)h(Y ) = Eg(X)Eh(Y ).
fXk (xk ) = fX (x1 , · · · , xn )dx1 · · · dxk−1 dxk+1 · · · dxn .
Rn−1 Proposition 2
D´
efinition 2 (Esp´erance et covariance) Soit X1 , ..., Xn des v.a. indépendantes, alors
On appelle espérance de la variable vectorielle X le vecteur V ar(X1 + ... + Xn ) = V ar(X1 ) + ... + V ar(Xn ).
def
EX = (EX1 , · · · , EXn ). Remarque : on avait déjà (sans propriété d’indépendance) E(X1 + ... + Xn ) = EX1 + ... + EXn
par linéarité de l’opérateur E.
On appelle matrice de covariance la matrice
Proposition 3
ΣX = E (X − EX)t (X − EX) ,
Soit X1 , ..., Xn des v.a. indépendantes, alors
X
(avec t l’opérateur de transposition). On note σi,j ses coefficients ; ΣX = diag(σ12 , · · · , σn2 ).
X
σi,j = E [(Xi − EXi )(Xj − EXj )] . Attention, la réciproque est fausse ; une matrice de covariance diagonale n’entraine pas
l’indépendance des variables.
On remarque que la matrice ΣX est symétrique σi,j X X
= σj,i positive, c’est à dire que pour tout
vecteur u, ut ΣX u > 0. De plus, les éléments diagonaux sont les variances des coordonnées de D´
efinition 4 (Convolution)
X
X σi,i
def
= V arXi = σi2 . Soit X et Y deux variables aléatoires réelles indépendantes de densités respectives fX et fY .
La variable aléatoire Z = X + Y admet la densité
Z
fZ (z) = fX (x)fY (z − x)dx.
R
D´efinition 5 = Eei k tk xk .
On appelle fonction caractéristique d’une variable aléatoire réelle X et on la note ΦX (z) l’ex-
pression Fonction caractéristiques et convolution
Z
Proposition 4 (Ind´ ependance et fonction caract´ eristique)
ΦX (z) = EeizX = eizx fX (x)dx.
R Les variables aléatoires X1 , · · · , Xn sont indépendantes si et seulement si
n
La fonction caractéristique apparaı̂t comme la la transformée de Fourier de la fonction f X (à un Y
Φ(X1 ,··· ,Xn ) (t1 , · · · , tn ) = ΦXk (tk ).
coefficient près). Comme la transformation de Fourier est inversible, on a
k=1
1
Z
fX (x) = e−izx ΦX (z)dz. Cela découle directement de l’écriture de la fonction caractéristique et de la formule d’inversion.
2π R
Proposition 5 (Convolution et fonction caract´ eristique)
Donc la fonction caractéristique “caractérise” bien la densité fX .
Si X et Y sont des variables aléatoires indépendantes alors
ΦaX+b (t) = eitb ΦX (at). GX+Y (x) = GX (x)GY (x) = eλ(x−1) eµ(x−1) = e(λ+µ)(x−1) .
4. Par dérivation successive en 0 on obtient, s’ils existent, les moments de X Je reconnais dans GX+Y la fonction génératrice d’une loi P(λ + µ), par unicité de la fonction
caractéristique X + Y suit une loi P(λ + µ).
Φ(n) (0) = Ein X n .
Il est clair que la manipulation de fonctions complexes de variables réelles est délicat. Dans les GX+Y (x) = GX (x)GY (x) = eλ(x−1) eµ(x−1)
situations pratiques, on simplifie la fonction en préservant ses propriétés : = e(λ+µ)(x−1) .
Variables discrètes positives Soit X variable aléatoire à valeur dans N. En posant z = Soit X1 (resp. X2 ) de loi N (µ1 , σ12 ) (resp. N (µ2 , σ22 ), X1 et X2 indépendantes. La fonction
−i log x on a caractéristique de X1 + X2 est
+∞
X 1 2 2 1 2 2
ΦX (−i log x) = ExX = GX (x) = xn P(X = n), pour x ∈ [0, 1]. ΦX1 +X2 (t) = ΦX1 (t)ΦX2 (t) = eiµ1 t− 2 σ1 t eiµ2 t− 2 σ2 t
n=0 i(µ1 +µ2 )t− 12 (σ12 +σ22 )t2
= e .
où GX est la fonction génératrice associée à la variable X (voir fiche 5). Il est clair que
manipuler la série génératrice est plus familier que la manipulation de Φ X . On reconnait la fonction caractéristique d’une loi N (µ1 + µ2 , σ12 + σ22 ).