Académique Documents
Professionnel Documents
Culture Documents
moments conditionnels
Feriel Bouhadjera
feriel.bouhadjera@lecnam.net
CNAM, Paris
STA103
Calcul de probabilités
2022–2023
Plan
Lois d’un couple de variables aléatoires
Loi jointe
Fonction de répartition jointe
Lois marginales
Lois conditionnelles
Indépendance
Exemple 1 (cas discret)
Correction 1 (cas discret)
Exemple 2 (cas continu)
Correction 2 (cas continu)
Moments d’une distribution
Fonction caractéristique
Formule de Transfert
Produit de convolution
Moments conditionnels
Espérance conditionnelle
Variance conditionnelle
Extension à des vecteurs aléatoires
Lois jointes
Moments
Petite introduction
On suppose que le couple (X ,Y ) prend des valeurs (xi ,yj ) en nombre fini ou
dénombrable.
pij = P ({X = xi } ∩ {Y = yj }) = P (X = xi ,Y = yj )
0 ≤ P (X = xi ,Y = yj ) ≤ 1
▶ La loi marginale de X
q
X
P(X = xi ) = pij = pi·
j=1
▶ La loi marginale de Y
p
X
P(Y = yj ) = pij = p·j
i=1
Les valeurs prisent par X et Y étant en nombre fini, la loi jointe se met sous
forme d’un tableau de contingence.
y1 yj yq
x1 p11 p1j p1q p1·
et
Par conséquent,
P(X = xi |Y = yj ) = P(X = xi )
et
P(Y = yj |X = xi ) = P(Y = yj )
i.e. la probabilité de réalisation de l’événement (X = xi ) ne dépend pas de la
réalisation de l’événement (Y = yj ) (idem pour l’événement (Y = yj )).
Exemple 1 (cas discret)
P(X = ·,Y = ·) y1 = 2 y2 = 4 y3 = 6
x1 = 0 0.1 0.2 0.3
x2 = 1 0.1 0.1 0.2
= 0.1 + · · · + 0.2 = 1
0 ≤ P(X = xi ,Y = yj ) ≤ 1
P(Y = y2 ,X = 0) 0.2 2 1
Pour j = 2 P(Y = y2 |X = 0) = = = =
P(X = 0) 0.6 6 3
P(Y = y3 ,X = 0) 0.3 3 1
Pour j = 3 P(Y = y3 |X = 0) = = = =
P(X = 0) 0.6 6 2
Cas continu
Densité d’un couple de variables aléatoires
Cas continu
fXY (x,y ) ≥ 0
et Z Z
fXY (x,y )dxdy = 1
R R
Fonction de répartition
Cas continu
Z y Z x
FXY (x,y ) = fXY (t,v )dtdv
−∞ −∞
d 2 FXY (x,y )
fXY (x,y ) =
dx dy
Densités et répartitions marginales
Cas continu
Z
fX (x) = fXY (x,y )dy
R
et Z
fY (y ) = fXY (x,y )dx
R
Z x
FX (x) = fXY (t,v )dv
−∞
et Z y
FY (y ) = fXY (t,v )dt
−∞
Densités conditionnelles
Cas continu
et
fXY (x,y ) = fX (x)fY (y ) et FXY (x,y ) = FX (x)FY (y )
Par conséquent,
fX |Y =y (x) = fX (x)
et
fY |X =x (y ) = fY (y )
Exemple 2 (cas continu)
avec k ∈ R.
▶ La valeur de k est :
Z 1Z 1 Z 1 Z 1
fXY (x,y )dxdy = (k − x)ydxdy
0 0 0 0
Z 1 Z 1 Z 1
= k ydy − xdx ydy
0 0 0
1 2 1 2 1
y2
x y
= k −
2 0 2 0 2 0
1 1 1
= k −
2 2 2
2k − 1
= =1
4
D’où
5
k=
2
Correction 2 (cas continu)
▶ La loi marginale de X :
Z 1
fX (x) = fXY (x,y )dy
0
Z 1
5
= − x ydy
0 2
Z 1
5
= −x ydy
2 0
2 1
5 y
= −x
2 2 0
1 5
= −x
2 2
x
= 5−
2
D’où x
fX (x) = 5 − 1[0,1] (x)
2
Correction 2 (cas continu)
▶ La loi marginale de Y :
Z 1
fY (y ) = fXY (x,y )dx
0
Z 1
5
= − x ydx
0 2
Z 1
5
= y − x dx
0 2
Z 1 Z 1
5
= y dx − xdx
0 2 0
1 2 1 !
5 x
= y x −
2 0 2 0
5 1
= y −
2 2
= 2y
D’où
fY (y ) = 2y 1[0,1] (y )
Correction 2 (cas continu)
▶ La densité conditionnelle de Y |X = x :
fXY (x,y )
fY |X (y |x) =
fX (x)
5
2
− x y 1[0,1]×[0,1] (x,y )
=
5 − x2 1[0,1] (x)
(5 − 2x)y
= 1[0,1]×[0,1] (x,y )
(10 − x)
Correction 2 (cas continu)
▶ X et Y sont-elles indépendantes :
Z Z
mpq = x p y q fXY (x,y )dxdy
D
Moments d’une distribution
Cas continu
Cas particuliers :
▶ Les moments centrés, d’ordre p et q sont les moments notés µpq des
v.a. centrées (X − E[X ]) et (Y − E[Y ]).
et
V (c1 X + c2 Y ) = c1 V (X ) + c2 V (Y ) + 2c1 c2 cov (X ,Y )
Matrice de variances-covariances
µ20 µ11
Σ=
µ11 µ02
ou
V (X ) cov (X ,Y )
Σ=
cov (X ,Y ) V (Y )
Soit la v.a. X prenant les valeurs {−2, − 1,1,2} avec les probabilités 1/4. On
considère la v. Y = X 2 ; Y prend donc les valeurs {1,4} avec les probabilités
1/2.
E[X ] = 0
E[Y ] = 5/2
E[XY ] = 0
Z Z
E[XY ] = xyfXY (x,y )dxdy
R R
et Z Z
cov (X ,Y ) = (x − E[X ])(y − E[Y ])fXY (x,y )dxdy
R R
Produit de convolution
(x,y ) ⇝ (u = x + y ,y )
On obtient Z s
P(S ≤ s) = Φ(u)du
−∞
avec Z
Φ(u) = fXY (u − y ,y )dy
R
Le cas "le plus important" est le cas où les v.a. X et Y sont indépendantes et
admettent fX et fY comme densité de probabilité respectives. Dans ce cas, on
a:
fXY (x,y ) = fX (x)fY (y )
et la valeur en s de la densité de probabilité Φ de la somme X + Y est :
Z
Φ(s) = fX (s − y )fY (y )dy
R
Soit D l’exemple des couples (x,y ) de réels qui satisfont aux quatre
inégalités suivantes :
x +y ≤ 1
x −y ≤ 1
−x + y ≤ 1
−x − y ≤ 1
Le domaine D est le carré dont les quatre sommets ont pour coordonnées
respectives (1,1), (1, − 1), (−1,1) et (−1, − 1). On doit avoir :
Z Z Z
fXY (x,y )dxdy = K dxdy
R R D
L’intégrale
√ double ici est égale à l’aire du carré D soit 2. (longueur chaque
coté = 2)
1
2K = 1 =⇒ K =
2
1 1−x
Z
1 1
fX (x) = dy = [y ]1−x
x−1 = (−2x + 2) = −x + 1
2 x−1 2 2
Correction
1. Calcul de la densité marginale de Y . Pour 0 < y < 1, on a :
1 1−y
Z
1 1
fY (y ) = dx = [x]1−y = (−2y + 2) = −y + 1
2 y −1 2 y −1 2
2. Calcul de la variance de X :
E[X ] = 0 et E[Y ] = 0
Le densité est paire donc l’espérance de X et Y est nulle. On a aussi :
Z 1
1 1 2
Z
E[X 2 ] = x 2 fX (x)dx = x (−x + 1)dx
0 2 0
Z 1
1 1 2
Z
1
= − x 3 dx + x dx
2 0 2 0
1 1
1 x4 1 x3
= − +
2 4 0 2 3 0
1 1 1 1 1
= − + =
2 4 2 3 6
Correction
V (X ) = E[X 2 ]
1
=
6
La covariance est nulle (par symétrie), car on intègre une fonction impaire.
▶ Calcul de la matrice de variance covariance :
V (S) = V (X + Y )
= V (X ) + V (Y ) + 2cov (X ,Y )
1
=
3
et
V (W ) = V (X − Y )
= V (X ) + V (−Y ) − 2cov (X ,Y )
1
=
3
Correction
De la bilinéarité, on a :
= K (1 − x)2 x
On doit avoir :
Z 1
fX (x)dx = 1
−1
Z 1
2 fX (x)dx = 1
0
Z 1
2 K (1 − x)2 xdx = 1
0
Z 1
−2K xd(1 − x)3 /3 = 1
0
Correction
|cov (X ,Y )| = σX σY
Il existe alors une relation linéaire entre les 2 v.a. X et Y . Soit c une
constante, alors
(Y − E[Y ]) = c (X − E[X ])
V [E[Y |X ]]
ηy2|x =
V (Y )
E[Y |X = x] = m(x)
Par définition 2 :
h i
V [Y |X = x] = E (Y − E[Y |X = x])2 |X = x
V (Y ) = E[V [Y |X ]] + V [E[Y |X ]]
S = X1 + · · · + XN
3. On suppose que les accidents se produisent indépendamment les uns des autres, ce qui n’est
pas vrai en réalité.
Exemple
+∞ −λ n −nµ +∞
X e λ e (nµ)s e−λ µs X e−nµ λn ns
P(S = s) = =
n! s! s! n!
n=1 n=1
d’où
E[S|N = n] = Nµ
alors
E[S] = E[Nµ] = µE[N] = µλ
Exemple
et
V [E[S|N]] = V [Nµ] = µ2 V [N] = µ2 λ
Par conséquent,
V [S] = µλ + µ2 λ = µλ(1 + µ)
4
Les résultats qui suivent supposent que l’espérance E[Y ] est finie. On
démontre alors que E[Y |X = x] existe et est égale à :
Z
E[Y |X = x] = y m(y |x)dy
R
La courbe définie par l’ensemble des couples {x,E[Y |X = x]} est la courbe
de régression de la v.a. Y en la v.a. X .
0≤ X ≤1
0≤ Y ≤1
0≤ X +Y ≤1
2 si (x,y ) appartient pas àD
fXY (x,y ) =
0 si (x,y ) n‘appartient pas àD
Exemple
La loi marginale et moment de la v. X :
▶ La densité : Z 1−x
fX (x) = 2 dy = 2(1 − x)
0
▶ La fonction de répartition :
Z x
FX (x) = 2 (1 − x)dx = 2x − x 2
0
▶ L’espérance de X
Z 1
E[X ] = 2 x(1 − x)dx = 1/3
0
▶ Moment d’ordre 2
Z 1
E[X 2 ] = 2 x 2 (1 − x)dx = 1/6
0
▶ La variance de X
▶ La fonction de répartition :
Z y
FY (y ) = 2 (1 − y )dy = 2y − y 2
0
▶ L’espérance de Y
Z 1
E[Y ] = 2 y (1 − y )dy = 1/3
0
▶ Moment d’ordre 2
Z 1
E[Y 2 ] = 2 y 2 (1 − y )dy = 1/6
0
▶ La variance de Y
avec
1
fY |X (y |x) =
1−x
▶ L’espérance conditionnelle
Z 1−x
y 1−x
E[Y |X ] = dy =
0 1−x 2
▶ La variance conditionnelle
Z 1−x 2
y2 (1 − x)2
1−x
V [Y |X ] = dy − =
0 1−x 2 12
▶ Les résultats sont analogues pour la loi de X |Y et les moments
conditionnels.
Exemple
V [E[Y |X ]] 1/72 1
ηY2 |X = = =
V [Y ] 1/18 4
Plan
Lois d’un couple de variables aléatoires
Loi jointe
Fonction de répartition jointe
Lois marginales
Lois conditionnelles
Indépendance
Exemple 1 (cas discret)
Correction 1 (cas discret)
Exemple 2 (cas continu)
Correction 2 (cas continu)
Moments d’une distribution
Fonction caractéristique
Formule de Transfert
Produit de convolution
Moments conditionnels
Espérance conditionnelle
Variance conditionnelle
Extension à des vecteurs aléatoires
Lois jointes
Moments
Définitions et lois jointes
Soit X = (X1 , · · · ,Xp ) un vecteur aléatoire.
d p F (x1 , · · · ,xp )
f (x1 , · · · ,xp ) =
dx1 · · · dxp
que l’on démontre facilement dans le cas où p = 2.
Moments
La matrice s’écrit 5 :
5. Le T signifie la transposée.
La matrice de variance covariance
La forme matricielle de Σ :
σx21 ρ1p σx1 σxp
ρ21 σx2 σx1 σx22 ρ2p σx2 σxp
Σ=
..
.
ρp1 σxp σx1 σx2p