Vous êtes sur la page 1sur 71

Cours 4 : Couple de variables aléatoires et

moments conditionnels

Feriel Bouhadjera
feriel.bouhadjera@lecnam.net

CNAM, Paris

STA103
Calcul de probabilités
2022–2023
Plan
Lois d’un couple de variables aléatoires
Loi jointe
Fonction de répartition jointe
Lois marginales
Lois conditionnelles
Indépendance
Exemple 1 (cas discret)
Correction 1 (cas discret)
Exemple 2 (cas continu)
Correction 2 (cas continu)
Moments d’une distribution
Fonction caractéristique
Formule de Transfert
Produit de convolution
Moments conditionnels
Espérance conditionnelle
Variance conditionnelle
Extension à des vecteurs aléatoires
Lois jointes
Moments
Petite introduction

▶ L’étude des variables aléatoires à une dimension ne permet pas de


résoudre tous les problèmes faisant appel à la théorie statistique.

▶ Les événements étudiés peuvent être liés à plusieurs variables


simultanément, d’où la nécessité de définir des lois de probabilité
jointes, marginales, conditionnelles ainsi que toutes les
caractéristiques s’y rapportant.
Lois associées à un couple (X ,Y )

On étudie dans ce cours la distribution d’un couple de variables aléatoires


(v.a.) à valeurs dans des ensembles finis ou dénombrables.

Nous allons distinguer deux cas selon la nature de la variable :

▶ Cas discret (Exemple : le nombre d’enfants et le nombre de pièces du


logement d’un ménage)
▶ Cas continu (Exemple : le poids et la taille d’un individu)

(on exclut le cas mixte)

Nous pouvons voir un couple de v.a. comme un ensemble Ω de valeurs de R2


auquel on associe une mesure de probabilité.
Cas discret
Loi jointe
Cas discret

On suppose que le couple (X ,Y ) prend des valeurs (xi ,yj ) en nombre fini ou
dénombrable.

Loi jointe : La loi du couple (X ,Y ) notée par pij est donnée

pij = P ({X = xi } ∩ {Y = yj }) = P (X = xi ,Y = yj )

Propritétés : Pour tout i = 1, · · · ,p et j = 1, · · · ,q, on a :

0 ≤ P (X = xi ,Y = yj ) ≤ 1

Ces probabilités vérifient la relation :


p q
X X
pij = 1
i=1 j=1
Fonction de répartition jointe
Cas discret

On appelle fonction de répartition jointe du couple (X ,Y ), que l’on note


FXY , la fonction définie sur R2 par :

FXY (x,y ) = P (X ≤ x,Y ≤ y )


Lois marginales
Cas discret

Les lois de probabilités de X et Y pris séparément. D’après le théorème des


probabilités totales, on a :

▶ La loi marginale de X
q
X
P(X = xi ) = pij = pi·
j=1

▶ La loi marginale de Y
p
X
P(Y = yj ) = pij = p·j
i=1

Les quantités pi· et p·j constituent les marges du tableau de contingence et


vérifient les relations :
q p
X X
p·j = pi· = 1
j=1 i=1
Loi jointe
Cas discret

Les valeurs prisent par X et Y étant en nombre fini, la loi jointe se met sous
forme d’un tableau de contingence.

y1 yj yq
x1 p11 p1j p1q p1·

xi pi1 pij piq pi·

xp pp1 ppj ppq pp·


p·1 p·j p·q 1

Les probabilités pij figurant dans le tableau de contingence définissent la loi


du couple et toutes les lois associées.
Lois conditionnelles
Cas discret

Loi conditionnelle de X sachant Y = yj : (la valeur de la variable Y est


connue)
P ({X = xi } ∩ {Y = yj }) pij
P(X = xi |Y = yj ) = =
P(Y = yj ) p·j

Loi conditionnelle de Y sachant X = xi : (la valeur de la variable X est


connue)
P ({X = xi } ∩ {Y = yj }) pij
P(Y = yj |X = xi ) = =
P(X = xi ) pi·
Lois conditionnelles
Cas discret

Quelques remarques utiles :

▶ Ces lois sont parfaitement définies si les quantités P(Y = yj ) et


P(X = xi ) sont ̸= 0.

▶ Si on connît les lois conditionnelles, on peut inversement, en déduire la


loi du couple.

▶ Grâce à la formule de Bayes, on peut exprimer une loi conditionnelle en


fonction de l’autre. Ainsi par exemple :
P(Y = yj |X = xi )P(X = xi )
P(X = xi |Y = yi ) = Pp
i=1 P(Y = yj |X = xi )P(X = xi )
Indépendance
Cas discret

Soient X et Y deux v.a. indépendantes. Alors, pour toutes fonction fX et fY


mesurables telles que les espérances ci-dessous existent :

E[fX (x)fY (y )] = E[fX (x)] E[fY (y ))]

et

P(X = xi ,Y = yj ) = P(X = xi )P(Y = yj ) idem pij = pi· p·j

Par conséquent,
P(X = xi |Y = yj ) = P(X = xi )
et
P(Y = yj |X = xi ) = P(Y = yj )
i.e. la probabilité de réalisation de l’événement (X = xi ) ne dépend pas de la
réalisation de l’événement (Y = yj ) (idem pour l’événement (Y = yj )).
Exemple 1 (cas discret)

Soit X et Y deux v.a. telles que : X (Ω) = {0,1} et Y (Ω) = {2,4,6}.

P(X = ·,Y = ·) y1 = 2 y2 = 4 y3 = 6
x1 = 0 0.1 0.2 0.3
x2 = 1 0.1 0.1 0.2

1. Vérifier qu’il s’agit bien d’une loi de probabilité.


2. Calculer les lois marginales.
3. Calculer la loi conditionnelle de Y |X = 0
4. Calculer l’espérance de cette loi (i.e. E[Y |X = 0])
Correction 1 (cas discret)

1. Il s’agit bien d’une loi de probabilité car :


2 X
X 3
P(X = xi ,Y = yj ) = P(X = x1 ,Y = y1 ) + · · · + P(X = x2 ,Y = y3 )
i=1 j=1

= 0.1 + · · · + 0.2 = 1

De plus, pour i = 1,2 et j = 1,2,3, on a :

0 ≤ P(X = xi ,Y = yj ) ≤ 1

2. Les lois marginales :


P(X = ·,Y = ·) y1 = 2 y2 = 4 y3 = 6 P(X = ·)
x1 = 0 0.1 0.2 0.3 0.6
x2 = 1 0.1 0.1 0.2 0.4
P(Y = ·) 0.2 0.3 0.5 1
Correction 1 (cas discret)

3. La loi conditionnelle de Y sachant X = 0:


P(Y = y1 ,X = 0) 0.1 1
Pour j = 1 P(Y = y1 |X = 0) = = =
P(X = 0) 0.6 6

P(Y = y2 ,X = 0) 0.2 2 1
Pour j = 2 P(Y = y2 |X = 0) = = = =
P(X = 0) 0.6 6 3
P(Y = y3 ,X = 0) 0.3 3 1
Pour j = 3 P(Y = y3 |X = 0) = = = =
P(X = 0) 0.6 6 2
Cas continu
Densité d’un couple de variables aléatoires
Cas continu

Densité jointe : Soit le couple de v.a. (X ,Y ) continues admettant comme


densité de probabilité jointe fXY pour (x,y ) ∈ [a,b] × [c,d].
Z bZ d
fXY (x,y ) = fXY (x,y )dxdy
a c

Propritétés : Pour tout (x,y ) ∈ R2 , on a :

fXY (x,y ) ≥ 0

et Z Z
fXY (x,y )dxdy = 1
R R
Fonction de répartition
Cas continu

On appelle fonction de répartition jointe du couple (X ,Y ), que l’on note


FXY , la fonction définie sur R2 dans [0,1] par :

Z y Z x
FXY (x,y ) = fXY (t,v )dtdv
−∞ −∞

Entre la densité fXY et la fonction de répartition FXY , il existe la relation


suivante :

d 2 FXY (x,y )
fXY (x,y ) =
dx dy
Densités et répartitions marginales
Cas continu

▶ Les densités marginales des v.a. X et Y sont définies pour (x,y ) ∈ R2


par :

Z
fX (x) = fXY (x,y )dy
R

et Z
fY (y ) = fXY (x,y )dx
R

▶ Les fonctions de répartitions marginales des v.a. X et Y sont définies


par :

Z x
FX (x) = fXY (t,v )dv
−∞

et Z y
FY (y ) = fXY (t,v )dt
−∞
Densités conditionnelles
Cas continu

Densité conditionnelle de X sachant Y = y :


fXY (x,y )
fX |Y =y (x) =
fY (y )

Densité conditionnelle de Y sachant X = x :


fXY (x,y )
fY |X =x (y ) =
fX (x)
Indépendance
Cas continu

Soient X et Y deux v.a. indépendantes. Alors, pour toutes fonction h et g


mesurables telles que les espérances ci-dessous existent :

E[h(X )g(Y )] = E[h(X )]E[g(Y )]

et
fXY (x,y ) = fX (x)fY (y ) et FXY (x,y ) = FX (x)FY (y )

Par conséquent,
fX |Y =y (x) = fX (x)
et
fY |X =x (y ) = fY (y )
Exemple 2 (cas continu)

Soit la fonction définie par :

fXY (x,y ) = (k − x)y 1[0,1]×[0,1] (x,y )

avec k ∈ R.

1. Trouver la valeur de k pour que fXY soit une densité de probabilité.


2. Calculer les lois marginales de X et Y .
3. Calculer la densité conditionnelle de Y |X = x.
4. Les v.a. X et Y sont-elles indépendantes?
Correction 2 (cas continu)

▶ La valeur de k est :
Z 1Z 1 Z 1 Z 1
fXY (x,y )dxdy = (k − x)ydxdy
0 0 0 0
Z 1 Z 1  Z 1 
= k ydy − xdx ydy
0 0 0
1  2 1  2 1
y2

x y
= k −
2 0 2 0 2 0
    
1 1 1
= k −
2 2 2
2k − 1
= =1
4
D’où
5
k=
2
Correction 2 (cas continu)

▶ La loi marginale de X :
Z 1
fX (x) = fXY (x,y )dy
0
Z 1 

5
= − x ydy
0 2
 Z 1
5
= −x ydy
2 0
   2 1
5 y
= −x
2 2 0
 
1 5
= −x
2 2
x
= 5−
2
D’où  x
fX (x) = 5 − 1[0,1] (x)
2
Correction 2 (cas continu)
▶ La loi marginale de Y :
Z 1
fY (y ) = fXY (x,y )dx
0
Z 1  
5
= − x ydx
0 2
Z 1 
5
= y − x dx
0 2
Z 1 Z 1 
5
= y dx − xdx
0 2 0
 1  2 1 !
5 x
= y x −
2 0 2 0
   
5 1
= y −
2 2
= 2y

D’où
fY (y ) = 2y 1[0,1] (y )
Correction 2 (cas continu)

▶ La densité conditionnelle de Y |X = x :

fXY (x,y )
fY |X (y |x) =
fX (x)
5

2
− x y 1[0,1]×[0,1] (x,y )
=
5 − x2 1[0,1] (x)


(5 − 2x)y
= 1[0,1]×[0,1] (x,y )
(10 − x)
Correction 2 (cas continu)

▶ X et Y sont-elles indépendantes :

fXY (x,y ) = fX (x)fY (y )


 x
= 2 5− y 1[0,1]×[0,1] (x,y )
2
= (10 − x) y 1[0,1]×[0,1] (x,y )
 
5
̸= − x y 1[0,1]×[0,1] (x,y )
2

Par conséquent, les v.a. X et Y ne sont pas indépendantes.


Moments d’une distribution
Cas continu

Le moment d’ordre p par rapport à la variable X et d’ordre q par rapport à la


variable Y est l’espérance mathématique mpq de la v.a. X p Y q .

Il est défini, sous réserve de l’existence de l’intégrale et en désignant par D le


domaine de définition des v.a. X et Y , par :

Z Z
mpq = x p y q fXY (x,y )dxdy
D
Moments d’une distribution
Cas continu

Cas particuliers :

▶ On peut déduire les moments de la distributions marginales de X et Y :


▶ mp0 = E[X ] distribution marginale en X
▶ m0q = E[Y ] distribution marginale en Y

▶ Les moments centrés, d’ordre p et q sont les moments notés µpq des
v.a. centrées (X − E[X ]) et (Y − E[Y ]).

▶ Les moments centrés d’ordre 2 sont :


Z
µ20 = V (X ) = (X − E[X ])2 fX (x)dx
DX
Z
µ02 = V (Y ) = (Y − E[Y ])2 fY (y )dy
DY
Z
µ11 = cov (X ,Y ) = (X − E[X ])(Y − E[Y ])fXY (x,y )dxdy
D
Propriétés des moments centrés d’ordre 2

▶ La covariance peut être positive, négative ou nulle.

▶ On montre facilement que :

cov (X ,Y ) = E[XY ] − E[X ]E[Y ]

▶ Si c1 et c2 sont deux réels alors :

cov (c1 X ,c2 Y ) = c1 c2 cov (X ,Y )

et
V (c1 X + c2 Y ) = c1 V (X ) + c2 V (Y ) + 2c1 c2 cov (X ,Y )
Matrice de variances-covariances

On groupe les moments centrés d’une distribution en une matrice Σ, carrée,


symétrique, appelée matrice de variances-covariances, qui se présente
sous la forme suivante :

 
µ20 µ11
Σ=
µ11 µ02
ou  
V (X ) cov (X ,Y )
Σ=
cov (X ,Y ) V (Y )

La covariance entre X et Y peut aussi s’écrire en terme de


cov (X ,Y ) = ρσX σY avec σX et σY représentent les écarts-type des v.a. X et
Y respectivement.
Covariance de 2 v.a. indépendantes

▶ Si les v.a. X et Y sont indépendantes, leurs covariance est évidement


nulle. Par conséquent, le coefficient de corrélation est nul aussi.

▶ Si la covariance de 2 v.a. est nulle, ces v.a. ne sont pas nécessairement


indépendantes.
Exemple

Soit la v.a. X prenant les valeurs {−2, − 1,1,2} avec les probabilités 1/4. On
considère la v. Y = X 2 ; Y prend donc les valeurs {1,4} avec les probabilités
1/2.

E[X ] = 0
E[Y ] = 5/2
E[XY ] = 0

donc cov (X ,Y ) = 0 et pourtant les v. X et Y ne sont pas indépendantes.


Fonction caractéristique d’un couple de v.a.

Soit le couple de v.a. (X ,Y ). La fonction caractéristique du couple est définie


par : h i
ϕXY (t,v ) = E ei(tX +vY )

Dans le cas où les v.a. X et Y sont indépendantes, on a pour tout (t,v ) ∈ R2

ϕXY (t,v ) = ϕX (t)ϕY (v )


Formule de Transfert

On se donne une fonction positive f définie et intégrable sur R2 telle que :


Z Z
fXY (x,y )dxdy = 1
R R

Soit (X ,Y ) un couple de v.a. réelles qui admet fXY comme densité de


probabilité jointe. Soit ψ une fonction usuelle réelle définie sur R × R telle
que : Z Z
|ψXY (x,y )|fXY (x,y )dxdy < +∞
R R
Formule de Transfert

Cas continu : L’espérance de ψXY est alors définie et elle vaut :


Z Z
E [ψXY ] = ψXY (x,y )fXY (x,y )dxdy
R R

Cas discret : L’espérance de ψXY est alors définie et elle vaut :


X X
E [ψXY ] = ψXY (w,w ′ )fXY (w,w ′ )
w∈Ω w ′ ∈Ω′
Formule de Transfert

La formule de transfert implique notamment que, si les variances de X et Y


sont bien définies et finies, on a :

Z Z
E[XY ] = xyfXY (x,y )dxdy
R R

et Z Z
cov (X ,Y ) = (x − E[X ])(y − E[Y ])fXY (x,y )dxdy
R R
Produit de convolution

Soit (X ,Y ) un couple de v.a. réelles qui admet fXY comme densité de


probabilité jointe. On se propose de déterminer la densité de la somme
S = X + Y . Pour tout réel s, soit D(s) la partie de R × R définie par (x,y )
appartient à D(s) si et seulement si x + y ≤ s. On a alors :
Z Z
P(X + Y ≤ s) = fXY (x,y )dxdy
D(s)

On effectue le changement de variable suivant :

(x,y ) ⇝ (u = x + y ,y )

On obtient Z s
P(S ≤ s) = Φ(u)du
−∞
avec Z
Φ(u) = fXY (u − y ,y )dy
R

Ce qui signifie que Φ(· · · ) est la densité de probabilité de la somme S.


Produit de convolution

Le cas "le plus important" est le cas où les v.a. X et Y sont indépendantes et
admettent fX et fY comme densité de probabilité respectives. Dans ce cas, on
a:
fXY (x,y ) = fX (x)fY (y )
et la valeur en s de la densité de probabilité Φ de la somme X + Y est :
Z
Φ(s) = fX (s − y )fY (y )dy
R

Par symétrie, on a aussi :


Z
Φ(s) = fX (x)fY (s − x)dx
R

On dit que Φ est le produit de convolution de fX et fY .


Exemple

Soit D l’exemple des couples (x,y ) de réels qui satisfont aux quatre
inégalités suivantes :

x +y ≤ 1
x −y ≤ 1
−x + y ≤ 1
−x − y ≤ 1

(Je vous conseille de commencer par dessiner le domaine D).

Soit fXY la fonction définie sur R × R par :



0 si (x,y ) n‘appartient pas àD
fXY (x,y ) =
K si (x,y ) appartient pas àD

où K est une constante.


Exemple

Soit (X ,Y ) le couple de v.a. réelle qui admet fXY comme densité de


probabilité.

1. Déterminer les densités marginales de X et Y .

2. Calculer la matrice de covariance de X et Y : autrement dit calculer les


variances de X et Y et la covariance de X et Y .

3. On pose S = X + Y et W = X − Y . Quelle est la matrice de covariance


du couple (V ,W )?
Correction

Le domaine D est le carré dont les quatre sommets ont pour coordonnées
respectives (1,1), (1, − 1), (−1,1) et (−1, − 1). On doit avoir :
Z Z Z
fXY (x,y )dxdy = K dxdy
R R D

L’intégrale
√ double ici est égale à l’aire du carré D soit 2. (longueur chaque
coté = 2)
1
2K = 1 =⇒ K =
2

1. Calcul de la densité marginale de X . (Par symétrie fXY est paire. De plus,


elle est nulle pour x > 1. Enfin, pour 0 < x < 1, on a :)

1 1−x
Z
1 1
fX (x) = dy = [y ]1−x
x−1 = (−2x + 2) = −x + 1
2 x−1 2 2
Correction
1. Calcul de la densité marginale de Y . Pour 0 < y < 1, on a :
1 1−y
Z
1 1
fY (y ) = dx = [x]1−y = (−2y + 2) = −y + 1
2 y −1 2 y −1 2

2. Calcul de la variance de X :
E[X ] = 0 et E[Y ] = 0
Le densité est paire donc l’espérance de X et Y est nulle. On a aussi :
Z 1
1 1 2
Z
E[X 2 ] = x 2 fX (x)dx = x (−x + 1)dx
0 2 0
Z 1
1 1 2
Z
1
= − x 3 dx + x dx
2 0 2 0
 1  1
1 x4 1 x3
= − +
2 4 0 2 3 0
   
1 1 1 1 1
= − + =
2 4 2 3 6
Correction

V (X ) = E[X 2 ]
1
=
6
La covariance est nulle (par symétrie), car on intègre une fonction impaire.
▶ Calcul de la matrice de variance covariance :

V (S) = V (X + Y )
= V (X ) + V (Y ) + 2cov (X ,Y )
1
=
3
et

V (W ) = V (X − Y )
= V (X ) + V (−Y ) − 2cov (X ,Y )
1
=
3
Correction

De la bilinéarité, on a :

cov (S,W ) = cov (X + Y ,X − Y )


= cov (X ,X ) + cov (Y ,X ) − cov (X ,Y ) − cov (Y ,Y )
= V (X ) − V (Y )
= 0
Exemple

Soit D l’ensemble des couple (x,y ) tels que x + y ≤ 1, x ≥ 0 et y ≥ 0.

Soit (X ,Y ) un couple de v.a. réelles dont la densité de probabilité vaut :



K |xy | si (x,y ) appartient pas àD
fXY (x,y ) =
0 si (x,y ) n‘appartient pas àD

où |xy | désigne la valeur absolue du produit xy et K une constante.

1. Déterminer la matrice des covariances de ce couple (X ,Y ).


2. Est-ce que X et Y sont indépendantes?
3. Déterminer la densité marginale de X .
Correction

1. Par symétrie E[X ] = E[Y ] = 0 et E[XY ] = 0. Par conséquent,


cov (X ,Y ) = 0. De plus, V (X ) = V (Y ). Nous allons donc calculer les
variances de X :
Z Z
V (X ) = E[X 2 ] = K |xy |x 2 dxdy
D
Z ” Z 1−y 
= 4 1 x 3 dx ydy
0 0
Z 1
= Ky (1 − y )4 dy
0
Z 1
= − Kyd(1 − y )5 /5
0
Z 1
= | − Ky (1 − y )5 /y |10 + K (1 − y )5 dy /5
0
K 1
= =
30 5
alors K = 6.
Correction

2. Les variables X et Y ne sont pas indépendantes.

3. Calcul de la densité marginale de X :


Z 1−x
fX (x) = 2 K |xy |dy
0

= K (1 − x)2 x

On doit avoir :
Z 1
fX (x)dx = 1
−1
Z 1
2 fX (x)dx = 1
0
Z 1
2 K (1 − x)2 xdx = 1
0
Z 1
−2K xd(1 − x)3 /3 = 1
0
Correction

3. On intègre par parties,


Z 1
−2K |x(1 − x)3 /3|10 + 2K /3 (1 − x)3 dx = 1
0
K /6 = 1

Donc, K = 6 et fX (x) = 6|x|(1 − |x|)2 1|x|≤1 .


Corrélation

On définit deux mesures de liaison entre 2 v.a.

▶ Le coefficient de corrélation linéaire qui est une mesure de dépendance


symétrique :
cov (X ,Y )
ρ=
σX σY
ce dernier est compris entre [0,1]. Dans le cas où, ρ = −(+)1 alors

|cov (X ,Y )| = σX σY

Il existe alors une relation linéaire entre les 2 v.a. X et Y . Soit c une
constante, alors
(Y − E[Y ]) = c (X − E[X ])

Remarque : Un coefficient de corrélation ρ nul exclut toute relation linéaire


entre X et Y mais ne signifie pas que les v. sont indépendantes.
Corrélation

▶ Le rapport de corrélation qui est une mesure de liaison non-symétrique :

V [E[Y |X ]]
ηy2|x =
V (Y )

Le théorème de la variance totale (qu’on va voir dans la prochaine


partie) entraîne que le rapport de corrélation est compris entre 0 et 1.

Remarque : Si V [E[Y |X ]] = V (Y ) alors ηy2|x = 1.


Plan
Lois d’un couple de variables aléatoires
Loi jointe
Fonction de répartition jointe
Lois marginales
Lois conditionnelles
Indépendance
Exemple 1 (cas discret)
Correction 1 (cas discret)
Exemple 2 (cas continu)
Correction 2 (cas continu)
Moments d’une distribution
Fonction caractéristique
Formule de Transfert
Produit de convolution
Moments conditionnels
Espérance conditionnelle
Variance conditionnelle
Extension à des vecteurs aléatoires
Lois jointes
Moments
Espérance conditionnelle

Soit xi une valeur prise par la variable X . L’espérance conditionnelle de la


variable Y sachant X = xi est l’espérance de Y par rapport à sa loi
conditionnelle 1 :
q
X
E[Y |X = xi ] = yi P(Y = yi |X = xi )
j=1

Cette fonction de x est appelée fonction de régression de Y en X , est


l’ensemble des moyennes conditionnelles de Y sachant X :

E[Y |X = x] = m(x)

1. On l’appelle également le théorème de l’espérance totale


Espérance conditionnelle
Propriétés

▶ La linéarité. Si c1 et c2 sont des constantes :

E[(c1 Y1 + c2 Y2 )|X = x] = c1 E[Y1 |X = x] + c2 E[Y2 |X = x]

▶ L’espérance de l’espérance conditionnelle :

E[E[Y |X = x]] = E[Y ]


Variance conditionnelle

Par définition 2 :
h i
V [Y |X = x] = E (Y − E[Y |X = x])2 |X = x

2. On l’appelle également le théorème de la variance totale


Espérance et Variance conditionnelles

On démontre, soit grâce aux propriétés de l’espérance et de la variance, soit


géométriquement, le résultat suivant :

V (Y ) = E[V [Y |X ]] + V [E[Y |X ]]

On définit de le même façon l’espérance conditionnelle de X sachant Y = y .

Les théorèmes de l’espérance et la variance conditionnelle sont très utiles


pour calculer l’espérance et la variance d’une loi compliquée dont les lois
conditionnelles sont simples.
Exemple

On suppose que le nombre d’accidents de la circulation au cours d’un


week-end suit une loi de Poisson de paramètre λ et que le nombre de
blessés par accident suit également une loi de poisson de paramètre µ.

Soit Xi la v.a. "nombre de blessés dans l’accident n°i". La loi de Xi ⇝ P(λ).


Soit N la v.a. représentant le nombre d’accidents, la loi de N ⇝ P(µ).
Soit S la v.a. représentant le nombre total de blessés :

S = X1 + · · · + XN

S est donc égale à la somme d’un nombre aléatoire de v.a. indépendantes


suivant la même loi de Poisson 3

3. On suppose que les accidents se produisent indépendamment les uns des autres, ce qui n’est
pas vrai en réalité.
Exemple

La loi de S est donc une loi de Poisson P(θ) avec θ = nµ s’il y a eu n


accidents. La loi de probabilité conditionnelle de S|N = n est la loi de
Poisson :
e−nµ (nµ)s
P(S = s|N = n) =
s!

et la loi de S est donc :

+∞ −λ n −nµ +∞
X e λ e (nµ)s e−λ µs X e−nµ λn ns
P(S = s) = =
n! s! s! n!
n=1 n=1

On ne peut pas donner une expression mathématique simple à ce résultat.


Exemple

Cependant, en utilisant les théorèmes de l’espérance et de la variance


totales, on calcule l’espérance de la variable S. On sait que :

E[S] = E[E[S|N = n]] et E[S|N = n] = nµ

d’où
E[S|N = n] = Nµ
alors
E[S] = E[Nµ] = µE[N] = µλ
Exemple

On calcule la variance de la variable S. On sait que :

V [S] = E[V [S|N]] + V [E[S|N]]

D’une part, on sait que E[S|N] = Nµ et V [S|N] = Nµ

E[V [S|N]] = E[Nµ] = µE[N] = µλ

et
V [E[S|N]] = V [Nµ] = µ2 V [N] = µ2 λ
Par conséquent,
V [S] = µλ + µ2 λ = µλ(1 + µ)
4

4. Pour tous les calculs, on a utilisé les propriétés de la loi de Poisson.


Moments conditionnels
Cas continu

Les résultats qui suivent supposent que l’espérance E[Y ] est finie. On
démontre alors que E[Y |X = x] existe et est égale à :

Z
E[Y |X = x] = y m(y |x)dy
R

La courbe définie par l’ensemble des couples {x,E[Y |X = x]} est la courbe
de régression de la v.a. Y en la v.a. X .

Remarque : Les formules de l’espérance totale et la variance totale


démontrées pour les v.a.d. s’appliquent aux v.a.c.
Exemple

Soit (X ,Y ) un couple de v.a. continues défini sur le domaine D :

0≤ X ≤1
0≤ Y ≤1
0≤ X +Y ≤1

et de densité fXY (x,y ) = 2. Loi du couple


2 si (x,y ) appartient pas àD
fXY (x,y ) =
0 si (x,y ) n‘appartient pas àD
Exemple
La loi marginale et moment de la v. X :
▶ La densité : Z 1−x
fX (x) = 2 dy = 2(1 − x)
0

▶ La fonction de répartition :
Z x
FX (x) = 2 (1 − x)dx = 2x − x 2
0

▶ L’espérance de X
Z 1
E[X ] = 2 x(1 − x)dx = 1/3
0

▶ Moment d’ordre 2
Z 1
E[X 2 ] = 2 x 2 (1 − x)dx = 1/6
0

▶ La variance de X

V [X ] = E[X 2 ] − E2 [X ] = 1/6 − 1/9 = 1/18


Exemple
La loi marginale et moment de la v. Y :
▶ La densité : Z 1−y
fY (y ) = 2 dx = 2(1 − y )
0

▶ La fonction de répartition :
Z y
FY (y ) = 2 (1 − y )dy = 2y − y 2
0

▶ L’espérance de Y
Z 1
E[Y ] = 2 y (1 − y )dy = 1/3
0

▶ Moment d’ordre 2
Z 1
E[Y 2 ] = 2 y 2 (1 − y )dy = 1/6
0

▶ La variance de Y

V [Y ] = E[Y 2 ] − E2 [Y ] = 1/6 − 1/9 = 1/18


Exemple

La loi de Y |X en moments conditionnels :

fXY (x,y ) = fY |X (y |x)f (x)

avec
1
fY |X (y |x) =
1−x

▶ L’espérance conditionnelle
Z 1−x
y 1−x
E[Y |X ] = dy =
0 1−x 2
▶ La variance conditionnelle
Z 1−x 2
y2 (1 − x)2

1−x
V [Y |X ] = dy − =
0 1−x 2 12
▶ Les résultats sont analogues pour la loi de X |Y et les moments
conditionnels.
Exemple

On peut procéder à une vérification des valeurs de l’espérance et la variance


en passant par le théorème de l’espérance et de la variance totales.
 
1−x 1 − E[X ] 1 − 1/3 1
E[E[Y |X ]] = E = = =
2 2 2 3
et  
1−x 1
V [Y ] = V [E[Y |X ]]] + E[V [Y |X ]] = V + E[(1 − x)2 ]
2 12
alors  
1 1 1 2 1 1
V [Y ] = × + 1− + =
4 18 12 3 6 18
Exemple

▶ Le coefficient de corrélation linéaire :


cov (X ,Y )
ρ=
σX σY
On commence par calculer la covariance :
Z 1 Z 1−x
1 1
cov (X ,Y ) = E[XY ] − E[X ]E[Y ] = 2 xdx ydy − =−
0 0 9 36
D’où
1
ρ=−
2
▶ Rapport de corrélation de Y en X :

V [E[Y |X ]] 1/72 1
ηY2 |X = = =
V [Y ] 1/18 4
Plan
Lois d’un couple de variables aléatoires
Loi jointe
Fonction de répartition jointe
Lois marginales
Lois conditionnelles
Indépendance
Exemple 1 (cas discret)
Correction 1 (cas discret)
Exemple 2 (cas continu)
Correction 2 (cas continu)
Moments d’une distribution
Fonction caractéristique
Formule de Transfert
Produit de convolution
Moments conditionnels
Espérance conditionnelle
Variance conditionnelle
Extension à des vecteurs aléatoires
Lois jointes
Moments
Définitions et lois jointes
Soit X = (X1 , · · · ,Xp ) un vecteur aléatoire.

▶ La fonction de répartition du vecteur X est une application F de Rp dans


[0,1] définie par :

F (x1 , · · · ,xp ) = P ({X1 ≤ x1 } ∩ · · · ∩ {Xp ≤ xp })

▶ On appelle densité de probabilité du vecteur X est définie pour tout


domaine D de Rp par :
Z
P((X1 , · · · ,Xp ) ∈ D) = f (x1 , · · · ,xp )dx1 · · · dxp
(x1 ,··· ,xp )∈D

▶ Entre la densité et la fonction de répartition, il existe la relation suivante :

d p F (x1 , · · · ,xp )
f (x1 , · · · ,xp ) =
dx1 · · · dxp
que l’on démontre facilement dans le cas où p = 2.
Moments

Espérance mathématique : Sous la condition d’existence des espérances


E[Xi ], on a :
 
E[X1 ]
E[X ] = 
 .. 
. 
E[Xp ]
Matrice de variance-covariance : est une matrice carrée notée Σ de
dimension p × p, symétrique ayant pour terme général :

σik = E[(Xi − E[Xi ])(Xk − E[Xk ])]

La matrice s’écrit 5 :

Σ = E[(X − E[X ])T (X − E[X ])]

les éléments de la diagonale sont les variances V (Xi ) = σx2i


des v.a. Xi et les termes non-diagonaux sont les covariances
cov (Xi ,Xk ) = ρik σxi σxk .

5. Le T signifie la transposée.
La matrice de variance covariance
La forme matricielle de Σ :
σx21 ρ1p σx1 σxp
 
 ρ21 σx2 σx1 σx22 ρ2p σx2 σxp 
Σ=
 
.. 
 . 
ρp1 σxp σx1 σx2p

Cas particulier (loi normale à deux dimensions). La matrice de variance


covariance est la matrice :
σx21
 
ρσx1 σx2
Σ=
ρσx2 σx1 σx22
Le déterminant de la matrice Σ est :
det(Σ) = |Σ| = σx21 σx22 (1 − ρ2 )
D’où, la densité du vecteur X est donnée par :
" 2
1 1 x1 − m1
exp −
2(1 − ρ2 )
p
2πσx1 σx2 1 − ρ2 σ x1
 2 #!
(x1 − m1 )(x2 − m2 ) x2 − m2
−2ρ +
σx1 σx2 σx2

Vous aimerez peut-être aussi