Vous êtes sur la page 1sur 37

Ecole des Hautes Etudes Comerciales

Support de cours

Module : Probabilités 3

2 ème année Classes Préparatoires

Préparé par : Dr. Asma ALLOUAT

Maître de conférence B
Intoduction générale

e module de Probabiltés 3 s’inscrit dans la continuité des modules de Probabilités 1 et 2

L ayant pour objectif d’étudier et de modéliser les phénomènes aléatoires et leurs


propriétés ; et constitue un préalable au module de statistique mathématique qui étudie
les caractéristiques d’une population à partir d’un échantillion aléatoire.

Objectifs du module:

Le module vise à compléter les notions sur les variables aléatoires acquises en probabilités 2 en les
généralisant, d’abord, au cas de couples de variables aléatoires puis au cas mutidimensionnel, ainsi
qu’à introduire les principales notions nécessaires pour entamer la dernière phase du cours de
« Statistique et probabilités », à savoir la statistque mathématique

A l’issu de ce module, l’étudiant doit:

- Etre en mesure de déterminer la loi de probabilité d’un couple de variables aléatoires


- Maitriser les notions de lois marginales et de lois conditionnelles
- Cerner les notions d’espérance et de variance dans le cas multidimensionnel,
- Connaître les distributions multidimensionnelles usuelles
- Connaître la convolution de deux lois,
- Maitriser l’utilisation des différents tables statistiques,
- Savoir déterminer la loi d’une fonction de variables aléatoires,
- Comprendre les principaux concepts de convergence,
- Savoir appliquer les théorèmes fondamentaux de la loi des grands nombres et le théorème
central limite.

Pré-requis :

Connaitre les notions de Statistique descriptive et de Probabilités 1 et 2


Connaitre les bases du calcul intégral et du calcul matriciel

1
Public cible

Le module s’adresse aux étudiants en deuxième année de classes préparatoires.

Contenu du module

Le module est articulé autour des trois (03) chapitres suivants :

Chapitre I : Couple aléatoire et distribution conjointe


Chapitre II : Distributions de fonctions de variables aléatoires
Chapitre III : Comportements asymptotiques et convergences

Références bibliographiques

Pour faciliter son apprentissage, l’étudiant peut consulter les références bibliographiques
suivantes:

1. HURLIN Christophe et MIGNON Valérie, Statistiques et probabilités en économie de


gestion, Dunod, Paris, 2015.
2. KHALDI Khaled, Méthodes statistiques et probabilités, édition Casbah, Alger,
2000.LECOURTE Jean-Pierre, Statistique et probabilités en économie de gestion, Dunod,
Paris, 2016.
3. PILLER Alain, Probabilités pour économistes, Maxima, Paris, 2000.
4. SAPOTA Gilbert, Probabilités, Analyse des données et Statistique, technip, Paris, 2006.
5. VERLANT Bernard & SAINT-PIERRE Geneviève, Statistiques et Probabilités, Berti, Alger,
2008.

2
Chapitre I
Couple aléatoire
et distribution conjointe

n peut, dans certaines expériences aléatoires, s’intéresser à plus d’un évènement,

O et donc, être amené à manipuler plus d’une variable aléatoire.


A titre d’exemple, à un individu d’une population donnée, on peut associer son revenu,
le nombre de personne à sa charge et sa consommation, ce qui nous amène à étudier trois variables
aléatoires pouvant être groupées dans un vecteur aléatoire.
Dans ce chapitre, on s’intéressera d’abord au cas bidimensionnel d’un couple de variables
aléatoires, puis à la généralisation des principaux résultats au cas multidimensionnel.

3
I- Couples aléatoires : Distributions conjointes, marginales et conditionnelles

Considérons deux variables aléatoires X et Y respectivement définies sur X (Ω) et Y (Ω).


On peut alors définir le couple de variables aléatoires (X,Y) de la façon suivante :
De sorte que les réalisations du couple (X,Y) appartiennent à l’univers des réalisations
𝑋(Ω) × Y(Ω)

Il est possible de définir trois types de distribution :


– la distribution conjointe (ou jointe) ;
– la distribution marginale ;
– la distribution conditionnelle.

1. Loi (ou distribution) conjointe d’un couple

On distingue les couples de variables aléatoires discrètes des couples de variables aléatoires
continues.

1.1. Loi conjointe (ou fonction de masse) d’un couple de variables aléatoires discrètes

Définition
Soit (X,Y) un couple de variables aléatoires discrètes. La loi conjointe du couple (X,Y) est
l’application qui associe à toute réalisation (x, y) ∊ X(Ω)×Y(Ω) la probabilité jointe notée
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦), telle que pour tout ensemble E ⊂ X(Ω) × Y (Ω) :

P((𝑋, 𝑌) ∊ E) = ∑ ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
(𝑥,𝑦)∊ E

𝑷(𝑿 = 𝒙, 𝒀 = 𝒚) est la probabilité jointe d’observer à la fois X = x et Y= y, elle est notée


également 𝑃({𝑋 = 𝑥} ∩ { 𝑌 = 𝑦})

Propriétés :
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) ≥ 0

∑ ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 1
𝑥 𝑦

4
Exemple1 :
On tire successivement 2 jetons sans remise d’urne contenant 3 jetons numérotés de 1 à 3.
X : la variable aléatoire qui associe le numéro du premier jeton tiré.
Y : la variable aléatoire qui associe le numéro du deuxième jeton tiré.
X(Ω) = {1,2,3}
Y(Ω) = {1,2,3}
X(Ω) × Y(Ω) = {(1,2), (1,3), (2,1), (2,3), (3,1), (3,2)}

Déterminons la loi du couple (X,Y)


y
1 2 3 ∑
x
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
∑ 1/3 1/3 1/3 1

On remarque que :
∀ (𝑥,y) ∊ 𝑋(Ω) × Y(Ω), 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) ≥ 0
∑ ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 1
𝑥 𝑦

Donc, il s’agit bien d’une loi de probabilité jointe (ou conjointe).

Exemple2 :
On tire 2 nombres au hasard dans {-1, 1}, on note :
X : la variable aléatoire qui associe la somme des nombres obtenus.
Y : la variable aléatoire qui associe le produit des nombres obtenus
X(Ω) = {-2, 0, 2}
Y(Ω) = {-1, 1}

Premier nombre Second nombre X Y


-1 -1 -2 1
-1 1 0 -1
1 -1 0 -1
1 1 2 1

X(Ω) × Y(Ω) = {(-2,1), (0,-1), (2,1)}

5
Déterminons la loi du couple (X,Y)
y -1 1 ∑
x
-2 0 1/4 1/4
0 1/2 0 1/2
2 0 1/4 1/4
∑ 1/2 1/2 1

On remarque que :
∀ (𝑥,y) ∊ 𝑋(Ω) × Y(Ω), 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) ≥ 0
∑ ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 1
𝑥 𝑦

Donc, il s’agit bien d’une loi de probabilité jointe (ou conjointe).

1.2. Loi conjointe d’un couple de variables aléatoires continues


Dans le cas d’un couple de variables aléatoires continues, on peut définir la densité jointe du
couple (X,Y) comme suit :

Définition
Soit (X,Y) un couple de variables aléatoires continues définies sur le support X(Ω)×Y(Ω) ⊆ R2.
La fonction de densité conjointe du couple (X,Y) est la fonction positive ou nulle, notée 𝒇𝑿,𝒀 (𝒙, 𝒚)
définie sur X(Ω)×Y(Ω), intégrable et telle que pour tout ensemble E ⊂ X(Ω) ×Y (Ω) :

P((𝑋, 𝑌) ∊ E) = ∬ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


E

Cas particulier :
Si E = { (x,y) ∊ R 2 : a ≤ x ≤b, c ≤ y ≤ d }, on parle dans ce cas de rectangle, et on a :
𝑏 𝑑
P((𝑋, 𝑌) ∊ E) = P(𝑎 ≤ 𝑥 ≤ 𝑏 , 𝑐 ≤ 𝑦 ≤ 𝑑) = ∫ ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑦𝑑𝑥
𝑎 𝑐

Propriétés :
𝒇𝑿,𝒀 (𝒙, 𝒚) ≥ 0
+∞ +∞
∫ ∫ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒙𝒅𝒚 = 𝟏
−∞ −∞

6
Exemple 1 :
Soit la fonction donnée par :
−𝒙−𝟐𝒚
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐𝒆 𝒔𝒊 𝒙 ≥ 𝟎, 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏
Vérifions qu’il s’agit d’une fonction de probabilité conjointe :

On a :
𝒇𝑿,𝒀 (𝒙, 𝒚) ≥ 0

+∞ +∞ +∞ +∞
∫ ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 = ∫ ∫ 2𝑒−𝑥−2𝑦 𝑑𝑥𝑑𝑦
−∞ −∞ 0 0
+∞
= 2∫ 𝑒−2𝑦 [−𝑒−𝑥 ]+∞
0 𝑑𝑦
0
+∞
= 2∫ 𝑒−2𝑦 𝑑𝑦
0
−1 −2𝑦 +∞
= 2[ 𝑒 ] =1
2 0

Donc 𝒇𝑿,𝒀 (𝒙, 𝒚) est bien une densité de probabilité conjointe

Exemple 2 :
Soit la fonction donnée par :
𝟏
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟎 𝒔𝒊𝒏𝒐𝒏
Vérifions qu’il s’agit d’une fonction de probabilité conjointe :

On a :
𝒇𝑿,𝒀 (𝒙, 𝒚) ≥ 0

+∞ +∞ 2 1
1
∫ ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 = ∫ ∫ 𝑑𝑥𝑑𝑦
−∞ −∞ 0 0 2
2
1 1
= ∫ [ 𝑥] 𝑑𝑦
0 2 0
2
1 1 2
= ∫ 𝑑𝑦 = [ 𝑦] = 1
0 2 2 0

Donc 𝒇𝑿,𝒀 (𝒙, 𝒚) est bien une densité de probabilité conjointe

7
2. Les distributions marginales

Les distributions marginales sont déterminées à partir des lois conjointes comme suit :

2.1. Cas d’un couple de variables discrètes

Définition :
Soit (X,Y) un couple de variables aléatoires discrètes définies sur le support X(Ω) × Y(Ω) et ayant
pour fonction de masse jointe l’application P(X = x, Y = y)
On appelle lois de probabilité marginales ou fonctions de masse marginales de X et de Y, les
applications respectivement définies par :
𝐏(𝑿 = 𝒙) = ∑𝒚 𝑷(𝑿 = 𝒙, 𝒀 = 𝒚) 𝐏(𝒀 = 𝒚) = ∑𝒙 𝑷(𝑿 = 𝒙, 𝒀 = 𝒚)

Reprenons les exemples précédents et déterminons les lois marginales :

Exemple1 :
y 1 2 3 P(X= x) = ∑𝑦
x
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
P(Y= y) = ∑𝑥 1/3 1/3 1/3 1

Loi marginale de X
x 1 2 3 ∑
P(X= x) 1/3 1/3 1/3 1

Loi marginale de Y
y 1 2 3 ∑
P(Y= y) 1/3 1/3 1/3 1

Exemple2 :
y -1 1 P(X= x) = ∑𝑦
x
-2 0 1/4 1/4
0 1/2 0 1/2
2 0 1/4 1/4
P(Y= y) = ∑𝑥 1/2 1/2 1

8
Loi marginale de X
x -2 0 2 ∑
P(X= x) 1/4 1/2 1/4 1

Loi marginale de Y
y -1 1 ∑
P(Y= y) 1/2 1/2 1

2.2. Cas d’un couple de variables continues

Définition :
Soit (X,Y) un couple de variables aléatoires continues défini sur le support X(Ω) × Y(Ω) ⊆ R2
et ayant pour densité conjointe la fonction𝒇𝑿,𝒀 (𝒙, 𝒚) .
Les fonctions de densité marginales des variables X et Y, notées 𝒇𝑿 (𝒙) et 𝒇𝒀 (𝒚)sont définies par :
+∞ +∞
𝒇𝑿 (𝒙) = ∫−∞ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒚 𝒇𝒀 (𝒚) = ∫−∞ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒙

Reprenons les exemples précédents et déterminons les fonctions de densité marginales.

Exemple1 :
Soit la fonction de densité conjointe donnée par :

−𝒙−𝟐𝒚
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐𝒆 𝒔𝒊 𝒙 ≥ 𝟎, 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏

Déterminons les densités de probabilité marginales :

Densité marginale de X :
+∞
𝑓𝑋 (𝑥) = ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑦
−∞

+∞
−1
=∫ 2𝑒 −𝑥−2𝑦 𝑑𝑦 = 2𝑒 −𝑥 ( 2 ) [𝑒 −2𝑦 ]+∞
0 = 𝑒 −𝑥
0
𝒆−𝒙 𝒔𝒊 𝒙 ≥ 𝟎
𝒇𝑿 (𝒙) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

9
Densité marginale de Y :
+∞
𝑓𝑌 (𝑦) = ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑥
−∞
+∞
=∫ 2𝑒 −𝑥−2𝑦 𝑑𝑥 = 2𝑒 −2𝑦 (−1)[𝑒 −𝑦 ]+∞
0 = 2𝑒 −2𝑦
0

−𝟐𝒚
𝒇𝒀 (𝒚) = { 𝟐𝒆 𝒔𝒊 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏

Exemple 2 :
Soit la fonction de densité conjointe donnée par :
𝟏
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟎 𝒔𝒊𝒏𝒐𝒏

Les densités de probabilité marginales sont déterminées comme suit :

Densité marginale de X :
+∞ 2
1 1 2
𝑓𝑋 (𝑥) = ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑦 = ∫ 𝑑𝑦 = [ 𝑦] = 1
−∞ 0 2 2 0

𝟏 𝟎≤𝒙≤𝟏
𝒇𝑿 (𝒙) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

Densité marginale de Y :
+∞ 1
1 1 1 1
𝑓𝑌 (𝑦) = ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑥 = ∫ 𝑑𝑥 = [ 𝑥] =
−∞ 0 2 2 0 2

𝟏/𝟐 𝒔𝒊 𝟎 ≤ 𝒚 ≤ 𝟐
𝒇𝒀 (𝒚) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

10
3. Les distributions conditionnelles

Les distributions conditionnelles sont déterminées comme suit :

3.1. Cas d’un couple de variables discrètes

Définition :
Soit (X,Y) un couple de variables aléatoires discrètes défini sur le support X(Ω) × Y(Ω) et ayant
pour fonction de masse jointe l’application P(X = x, Y = y) et pour fonctions de masse marginales
de X et de Y respectivement P(X = x) et P(Y = y).

La loi conditionnelle de X sachant Y= y définie pour tout y ∊ Y (Ω) tel que P(Y = y) ≠0 est
l’application qui associe à tout x ∊ X (Ω) la probabilité :
𝐏(𝑿 = 𝒙 , 𝒀 = 𝒚)
𝐏(𝑿 = 𝒙 \ 𝒀 = 𝒚) =
𝐏(𝒀 = 𝒚)

La loi conditionnelle de Y sachant X= x définie pour tout x ∊ X (Ω) tel que P(X = x) ≠0 est
l’application qui associe à tout y ∊ Y (Ω) la probabilité :
𝐏(𝑿 = 𝒙 , 𝒀 = 𝒚)
𝐏(𝒀 = 𝒚 \ 𝑿 = 𝒙) =
𝐏(𝑿 = 𝒙)

Exemple :
Reprenons l’exemple précédent de l’urne contenant 3 jetons et déterminons les lois
conditionnelles de X sachant Y=3 et de Y sachant X=2

y 1 2 3 P(X= x) = ∑𝑦
x
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
P(Y= y) = ∑𝑥 1/3 1/3 1/3 1

Loi conditionnelle de X sachant Y=3

𝐏(𝑿 = 𝟏 , 𝒀 = 𝟑) 𝟏/𝟔 𝟏
𝐏(𝑿 = 𝟏 \ 𝒀 = 𝟑) = = =
𝐏(𝒀 = 𝟑) 𝟏/𝟑 𝟐

11
𝐏(𝑿 = 𝟐 , 𝒀 = 𝟑) 𝟏/𝟔 𝟏
𝐏(𝑿 = 𝟐\ 𝒀 = 𝟑) = = =
𝐏(𝒀 = 𝟑) 𝟏/𝟑 𝟐

𝐏(𝑿 = 𝟑 , 𝒀 = 𝟑) 𝟎
𝐏(𝑿 = 𝟑 \ 𝒀 = 𝟑) = = =𝟎
𝐏(𝒀 = 𝟑) 𝟏/𝟑

x 1 2 3 ∑
P(X= x\ Y=3) 1/2 1/2 0 1

Loi conditionnelle de Y sachant X=2

𝐏(𝑿 = 𝟐 , 𝒀 = 𝟏) 𝟏/𝟔 𝟏
𝐏(𝒀 = 𝟏 \ 𝑿 = 𝟐) = = =
𝐏(𝑿 = 𝟐) 𝟏/𝟑 𝟐

𝐏(𝑿 = 𝟐 , 𝒀 = 𝟐) 𝟎
𝐏(𝒀 = 𝟐 \ 𝑿 = 𝟐) = = =𝟎
𝐏(𝑿 = 𝟐) 𝟏/𝟑

𝐏(𝑿 = 𝟐 , 𝒀 = 𝟑) 𝟏/𝟔 𝟏
𝐏(𝒀 = 𝟑 \ 𝑿 = 𝟐) = = =
𝐏(𝑿 = 𝟐) 𝟏/𝟑 𝟐

y 1 2 3 ∑
P(Y= y \ X=2 1/2 0 1/2 1
)
3.2. Cas d’un couple de variables continues

Définition :
Soit (X,Y) un couple de variables aléatoires continues défini sur le support X(Ω) × Y(Ω) ⊆ R2
et ayant pour densité conjointe la fonction𝒇𝑿,𝒀 (𝒙, 𝒚) et pour fonctions de densité marginales
𝒇𝑿 (𝒙) et 𝒇𝒀 (𝒚).
La fonction de densité conditionnelle de X sachant Y= y définie pour tout y ∊ Y (Ω), tel que
𝒇𝒀 (𝒚) > 0 est donnée par :
𝒇𝑿,𝒀 (𝒙, 𝒚)
𝒇𝑿\𝒀 (𝒙\𝒚) =
𝒇𝒀 (𝒚)
La fonction de densité conditionnelle de Y sachant X= x définie pour tout x ∊ X (Ω), tel que
𝒇𝑿 (𝒙) > 0 est donnée par :
𝒇𝑿,𝒀 (𝒙, 𝒚)
𝒇𝒀\𝑿 (𝒚\𝒙) =
𝒇𝑿 (𝒙)

12
Exemple:
On reprend la fonction de densité conjointe donnée par :
−𝒙−𝟐𝒚
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐𝒆 𝒔𝒊 𝒙 ≥ 𝟎, 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏
Déterminons les fonctions de densité conditionnelles :

Densité conditionnelle de X sachant Y= y :


𝒇𝑿,𝒀 (𝒙, 𝒚) 𝟐𝒆−𝒙−𝟐𝒚
𝒇𝑿\𝒀 (𝒙\𝒚) = = = 𝑒−𝑥
𝒇𝒀 (𝒚) 2𝑒−2𝑦

𝒆−𝒙 𝒔𝒊 𝒙 ≥ 𝟎
𝒇𝑿\𝒀 (𝒙\𝒚) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

Densité marginale de Y sachant X= x:


𝒇𝑿,𝒀 (𝒙, 𝒚) 𝟐𝒆−𝒙−𝟐𝒚
𝒇𝒀\𝑿 (𝒚\𝒙) = = −𝑥 = 2𝑒−2𝑦
𝒇𝑿 (𝒙) 𝑒
−𝟐𝒚
𝒇𝒀\𝑿 (𝒚\𝒙) = {𝟐𝒆 𝒔𝒊 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏

NB : On remarque ici que 𝒇𝑿\𝒀 (𝒙\𝒚) = 𝒇𝑿 (𝒙) et que 𝒇𝒀\𝑿 (𝒚\𝒙) = 𝒇𝒀 (𝒚) ; il s’agit d’un cas
particulier où les deux variables X et Y sont indépendantes.
On revient sur cette notion d’indépendance dans la section III.

4. Espérance et variance conditionnelles

4.1. Cas de variables aléatoires discrètes

Définition :
Soient 𝑋 et 𝑌 deux variables aléatoires discrètes et soit la fonction de masse conditionnelle
(𝑌=𝑦|𝑋=𝑥)
L’espérance conditionnelle de la variable aléatoire X sachant Y=y est donnée par :
E[𝑋|𝑌 = y] = ∑ 𝑥. 𝑃(𝑋 = 𝑥|𝑌 = 𝑦)
𝑥
La variance conditionnelle de la variable aléatoire X sachant Y=y est donnée par :

V[X|Y=y]= E[X 2|Y=y] – (E[X|Y=y])2

13
avec: E[𝑋 2 |𝑌 = y] = ∑ 𝑥 2 . 𝑃(𝑋 = 𝑥|𝑌 = 𝑦)
𝑥
Exemple :
Reprenons l’exemple précédent de l’urne contenant 3 jetons.
Nous avons déjà déterminé les lois conditionnelles de X sachant Y=3 et de Y sachant X=2

Calculons E[X|Y=3] et V[X|Y=3]

Loi conditionnelle de X sachant Y=3

X 1 2 3 ∑
P(X= x| Y=3) 1/2 1/2 0 1

Espérance conditionnelle de X sachant Y=3


3
1 1
E[𝑋|𝑌 = 3] = ∑ 𝑥. 𝑃(𝑋 = 𝑥|𝑌 = 3) = 1 ( ) + 2 ( ) = 1,5
2 2
𝑥=1

Variance conditionnelle de X sachant Y=3

V[X|Y=3]= E[X 2|Y=3] – (E[X|Y=3])2


3
2
1 1
E[𝑋 2 |𝑌 = 3] = ∑ 𝑥 . 𝑃(𝑋 = 𝑥|𝑌 = 3) = 1 ( ) + 4 ( ) = 2,5
2 2
𝑥=1

V[X|Y=3] = 2,5 – (1,5)2 = 0,25

4.2. Cas de variables aléatoires continues

Définition :
Soient 𝑋 et 𝑌 deux variables aléatoires continues et soit la fonction de densité conditionnelle
𝒇𝑿|𝒀 (𝒙|𝒚)
L’espérance conditionnelle de la variable aléatoire X sachant Y=y est donnée par :
+∞
E[𝑋|𝑌 = y] = ∫ 𝑥 𝑓𝑋|𝑌 (𝑥|𝑦) d𝑥
−∞
La variance conditionnelle de la variable aléatoire X sachant Y=y est donnée par :

V[X|Y = y]= E[X 2|Y = y] – (E[X|Y = y])2

14
+∞
2 |𝑌
avec: E[𝑋 = y] = ∫ 𝑥 2 𝑓𝑋|𝑌 (𝑥|𝑦) d𝑥
−∞

Définition : Théorème de l’espérance totale


Pour toutes variables aléatoires continues 𝑋 et 𝑌, on a : 𝐄[𝐗] = 𝐄 [𝐄[𝑿|𝒀]]

𝐄[𝑿] = ∫ 𝒙𝒇𝑿 (𝒙) 𝒅𝒙 = ∫ 𝒙 ∫ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒚 𝒅𝒙 = ∫ 𝒙 ∫ 𝒇𝑿|𝒀 (𝒙|𝒚)𝒇𝒀 (𝒚) 𝒅𝒚 𝒅𝒙


𝑫𝑿 𝑫𝑿 𝑫𝒀 𝑫𝑿 𝑫𝒀

= ∫ ∫ 𝒙 𝒇𝑿|𝒀 (𝒙|𝒚)𝒇𝒀 (𝒚) 𝒅𝒚 𝒅𝒙 = ∫ 𝒇𝒀 (𝒚) ∫ 𝒙 𝒇𝑿|𝒀 (𝒙|𝒚) 𝒅𝒙 𝒅𝒚


𝑫𝑿 𝑫𝒀 𝑫𝒀 𝑫𝑿

= ∫ 𝒇𝒀 (𝒚)𝐄[𝑿|𝒀] 𝒅𝒚
𝑫𝒀

II- Fonction de répartition et calcul de probabilités

1. La fonction de répartition

1.1. Cas d’un couple de variables discrètes

Définition :
Soit (X,Y) un couple de variables aléatoires discrètes défini sur le support X(Ω) × Y(Ω) et ayant
pour fonction de masse jointe l’application P(X = x, Y = y).
La fonction de répartition conjointe est définie sur ℝ × ℝ comme suit:
𝑥 y

𝐹𝑋,𝑌 (𝑥, 𝑦) = P(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦) = ∑ ∑ 𝑃(𝑋 = 𝑡, 𝑌 = 𝑠)


𝑡=−∞ 𝑠=−∞

1.2. Cas d’un couple de variables continues

Définition :

Soit (X,Y) un couple de variables aléatoires continues défini sur le support X(Ω) × Y(Ω) ⊆ R2
et ayant pour densité conjointe la fonction𝒇𝑿,𝒀 (𝒙, 𝒚)
La fonction de répartition conjointe est définie sur ℝ × ℝ comme suit:
𝑥 𝑦

𝐹𝑋,𝑌 (𝑥, 𝑦) = P(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦) = ∫ ∫ 𝑓𝑋,𝑌 (𝑡, 𝑠) 𝑑𝑠 𝑑𝑡


−∞ −∞

15
Propriétés de la fonction de répartition conjointe :

Soit la fonction de répartition conjointe 𝐹𝑋,𝑌 (𝑥, 𝑦) définie sur ℝ × ℝ :

• La densité conjointe est alors donnée par :


𝜕 2 𝐹𝑋,𝑌 (𝑥, 𝑦)
𝑓𝑋,𝑌 (𝑥, 𝑦) =
𝜕𝑥𝜕𝑦
• lim lim 𝐹𝑋,𝑌 (𝑥, 𝑦) = 0
𝑥→−∞ 𝑦→−∞

• lim lim 𝐹𝑋,𝑌 (𝑥, 𝑦) = 1


𝑥→+∞ 𝑦→+∞

• lim 𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑌 (𝑦)


𝑥→+∞

• lim 𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑋 (𝑥)


𝑦→+∞

• 𝑃(𝑎 < 𝑋 ≤ 𝑏, 𝑐 < 𝑌 ≤ 𝑑) = 𝐹𝑋,𝑌 (𝑏, 𝑑) − 𝐹𝑋,𝑌 (𝑏, 𝑐)− 𝐹𝑋,𝑌 (𝑎, 𝑑)+ 𝐹𝑋,𝑌 (𝑎, 𝑐)

• 𝑃(𝑋 > 𝑎, 𝑌 > 𝑏) = 1 − 𝐹𝑋 (𝑎) − 𝐹𝑌 (𝑏) + 𝐹𝑋,𝑌 (𝑎, 𝑏)

Exemple 1 :

Soient X et Y deux variables aléatoires discrètes indépendantes où :


X ~ H(3, 2, 1/3) et X ~ B(1/4)
Déterminons la fonction de répartition conjointe du couple (X,Y)

 Les lois marginales sont données par :

x 0 1 ∑
𝑃(𝑋 = 𝑥) 1/3 2/3 1

y 0 1 ∑
𝑃(𝑌 = 𝑦) 3/4 1/4 1

 La loi du couple (X,Y)


y 0 1 ∑
x
0 1/4 1/12 1/3
1 1/2 1/6 2/3
∑ 3/4 1/4 1

16
 La fonction de répartition :

 Si x <0, y <0 :

𝐹𝑋,𝑌 (𝑥, 𝑦) = 0

 Si 0 ≤ x <1, 0 ≤ y <1 :

1
𝐹𝑋,𝑌 (𝑥, 𝑦) =
4

 Si 0 ≤ x <1, y ≥1 :

1 1 1
𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑋 (0) = + =
4 12 3

 Si x ≥1 , 0 ≤ y <1:

1 1 3
𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑌 (0) = + =
4 2 4

 Si x ≥1 , y ≥1 :

1 1 1 1
𝐹𝑋,𝑌 (𝑥, 𝑦) = + + + =1
4 2 12 6

𝟎 𝒔𝒊 𝒙 < 𝟎, 𝒚 < 𝟎
𝟏/𝟒 𝒔𝒊 𝟎 ≤ 𝒙 < 𝟏, 𝟎 ≤ 𝒚 < 𝟏
𝑭𝑿,𝒀 (𝒙, 𝒚) = 𝟏/𝟑 𝒔𝒊 𝟎 ≤ 𝒙 < 𝟏, 𝒚 ≥ 𝟏
𝟑/𝟒 𝒔𝒊 𝒙 ≥ 𝟏, 𝟎 ≤ 𝒚 < 𝟏
{ 𝟏 𝒔𝒊 𝒙 ≥ 𝟏, 𝒚 ≥ 𝟏

Exemple 2
Reprenons l’exemple de la fonction de densité conjointe donnée par :

−𝒙−𝟐𝒚
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐𝒆 𝒔𝒊 𝒙 ≥ 𝟎, 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏
 Si x <0 ou y <0
𝑥 𝑦

𝐹𝑋,𝑌 (𝑥, 𝑦) = ∫ ∫ 0 𝑑𝑠 𝑑𝑡 = 0
−∞ −∞

17
 Si x ≥ 0, y ≥ 0
0 0 𝑥 𝑦 𝑥
−𝑡−2𝑠 −𝑡
−1 −2𝑠 𝑦
𝐹𝑋,𝑌 (𝑥, 𝑦) = ∫ ∫ 0 𝑑𝑠 𝑑𝑡 + ∫ ∫ 2𝑒 𝑑𝑠 𝑑𝑡 = 2 ∫ 𝑒 [ 𝑒 ] 𝑑𝑡
2 0
−∞ −∞ 0 0 0
𝑥

= − ∫ 𝑒 −𝑡 (𝑒 −2𝑦 − 1) 𝑑𝑡 = −(𝑒 −2𝑦 − 1)[− 𝑒 −𝑡 ]0𝑥 = (𝑒 −2𝑦 − 1)(𝑒 −𝑥 − 1)


0
−𝑥−2𝑦
= 𝑒 − 𝑒 −2𝑦 − 𝑒 −𝑥 + 1

𝟎 𝒔𝒊 𝒙 < 𝟎 𝒐𝒖 𝒚 < 𝟎
𝑭𝑿,𝒀 (𝒙, 𝒚) = {
𝒆−𝒙−𝟐𝒚 − 𝒆−𝟐𝒚 − 𝒆−𝒙 + 𝟏 𝒔𝒊 𝒙 ≥ 𝟎, 𝒚 ≥ 𝟎

Exemple 3
𝟏
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟎 𝒔𝒊𝒏𝒐𝒏

Déterminons la fonction de répartition conjointe

 Si x <0, y <0
𝑥 𝑦

𝐹𝑋,𝑌 (𝑥, 𝑦) = ∫ ∫ 0 𝑑𝑠 𝑑𝑡 = 0
−∞ −∞

 Si 0 ≤ x ≤ 1, 0 ≤ y ≤ 2
0 0 𝑥 𝑦 𝑥 𝑥
1 1 𝑦 1 1 𝑥
1
𝐹𝑋,𝑌 (𝑥, 𝑦) = ∫ ∫ 0 𝑑𝑠 𝑑𝑡 + ∫ ∫ 𝑑𝑠 𝑑𝑡 = ∫ [ 𝑠] 𝑑𝑡 = ∫ 𝑦 𝑑𝑡 = [ 𝑦 𝑡] = 𝑥𝑦
2 2 0 2 2 0 2
−∞ −∞ 0 0 0 0

 Si 0 ≤ x ≤ 1, y > 2

𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑋,𝑌 (𝑥, 2) = 𝐹𝑋 (𝑥) = 𝑥

 Si x > 1, 0 ≤ y ≤ 2
1
𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑋,𝑌 (1, 𝑦) = 𝐹𝑌 (𝑦) = 𝑦
2

18
 Si x > 1, y > 2

𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑋,𝑌 (1,2) = 1

𝟎 𝒔𝒊 𝒙 < 𝟎, 𝒚 < 𝟎
𝟏
𝒙𝒚 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟐
𝑭𝑿,𝒀 (𝒙, 𝒚) = 𝒙 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝒚 > 𝟐
𝟏
𝒚 𝒔𝒊 𝒙 > 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟐
{𝟏 𝒔𝒊 𝒙 > 𝟏, 𝒚 > 𝟐

2. Calcul de probabilités

2.1. Cas d’un couple de variables discrètes

Le calcul de probabilités peut se faire à partir de la loi de probabilité ou en utilisant les propriétés
de la fonction de répartition.

Exemple 1:
Reprenons l’exemple précédent de l’urne contenant 3 jetons et calculons les probabilités
suivantes :
(0 < 𝑋 ≤ 2, 𝑌 <3) ; (2 ≤ 𝑋 ≤ 3, 𝑌 ≥ 3) et 𝑃(𝑋 ≥ 3, 𝑌 ≥ 3)

y 1 2 3 P(X= x) = ∑𝑦
x
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
P(Y= y) = ∑𝑥 1/3 1/3 1/3 1

(0 < 𝑋 ≤ 2, 𝑌 < 3) = 1/6 +1/6 = 1/3


(2 ≤ 𝑋 ≤ 3, 𝑌 ≥ 3) = 1/6
(𝑋 ≥ 3, 𝑌 ≥ 3) = 0

19
Exemple 2 :
Reprenons l’exemple précédant, où la loi du couple (X,Y) est donnée par :

y 0 1 ∑
x
0 1/4 1/12 1/3

1 1/2 1/6 2/3

∑ 3/4 1/4 1

Calculons les probabilités suivantes en utilisant les propriétés de la fonction de répartition :


(0 < 𝑋 ≤ 1, 0 < 𝑌 ≤ 1) et (𝑋 > 0, 𝑌 > 0)

(0 < 𝑋 ≤ 1, 0 < 𝑌 ≤ 1) = 𝐹𝑋,𝑌 (1,1) − 𝐹𝑋,𝑌 (1,0)− 𝐹𝑋,𝑌 (0,1)+ 𝐹𝑋,𝑌 (0,0)
= 1 – 3/4 – 1/3 + 1/4
= 1/6

(𝑋 > 0, 𝑌 > 0) = 1 − 𝑭𝑿 (𝟎) − 𝑭𝒀 (𝟎) + 𝐹𝑋,𝑌 (0,0)


= 1 – 1/3 – 3/4 + 1/4
= 1/6

2.2. Cas d’un couple de variables continues

Le calcul de probabilités peut être effectué en utilisant les propriétés de la fonction de répartition
jointe ou à travers la définition même de la fonction de densité jointe :

P((𝑋, 𝑌) ∊ E) = ∬ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


E

Dans le cas particulier où E est un rectangle, c'est-à-dire : E = { (x,y) ∊ R 2 : a ≤ x ≤b, c ≤ y ≤ d } ,


comme mentionné déjà on a :
𝑏 𝑑
P((𝑋, 𝑌) ∊ E) = P(𝑎 ≤ 𝑥 ≤ 𝑏 , 𝑐 ≤ 𝑦 ≤ 𝑑) = ∫ ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑦𝑑𝑥
𝑎 𝑐
Sinon, il faut prendre en considération la forme de l’ensemble E, comme on le verra dans
l’exemple suivant.

20
Exemple :
𝟏
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟎 𝒔𝒊𝒏𝒐𝒏

1- E est un rectangle
𝟏
• Calculons 𝐏 (𝟎 ≤ 𝒙 ≤ 𝟏 , 𝟎 ≤ 𝒚 ≤ 𝟐)
1 1 1 1
1 1
1 2 1 2 1 21 1 2 1
P (0 ≤ 𝑥 ≤ 1 , 0 ≤ 𝑦 ≤ ) = ∫ ∫ 𝑑𝑥𝑑𝑦 = ∫ [ 𝑥] 𝑑𝑦 = ∫ 𝑑𝑦 = [ 𝑦] =
2 0 0 2 0 2 0 0 2 2 0 4

On peut également effectuer ce calcul en utilisant les propriétés de la fonction de répartition


conjointe qu’on a déterminée précédemment :

0 𝑠𝑖 𝑥 < 0, 𝑦 < 0
1
𝑥𝑦 𝑠𝑖 0 ≤ 𝑥 ≤ 1, 0 ≤ 𝑦 ≤ 2
2
𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝑥 𝑠𝑖 0 ≤ 𝑥 ≤ 1, 𝑦 > 2
1
𝑦 𝑠𝑖 𝑥 > 1, 0 ≤ 𝑦 ≤ 2
2
{1 𝑠𝑖 𝑥 > 1, 𝑦 > 2

1 1 1
P (0 ≤ 𝑥 ≤ 1 , 0 ≤ 𝑦 ≤ ) = 𝐹𝑋,𝑌 (1 , ) − 𝐹𝑋,𝑌 (1 , 0) − 𝐹𝑋,𝑌 (0 , ) + 𝐹𝑋,𝑌 (0 , 0)
2 2 2
1 1 1 1 1 1 1
= (1) ( ) − (1)(0) − (0) ( ) + (0)(0) =
2 2 2 2 2 2 4

2- E n’est pas un rectangle

• Calculons 𝐏(𝑿 < 𝑌)

𝐏(𝑿 < 𝑌) = P((𝑋, 𝑌) ∊ E) = ∬ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


E
E={ (x,y) ∊ℝ : 0 ≤ x ≤1, 0 ≤ y ≤ 2, x < y }
2

On doit déterminer les bornes d’intégration :

21
On a : 0 ≤ x ≤1 et x < y
Mais comme y peut être supérieur à 1 ( car 0 ≤ y ≤ 2)
La borne supérieure de x va correspondre au Min (1,y)

On remarque que la valeur y =1 partage le domaine d’intégration en deux :


si y < 1 : Min (1,y) = y
si 1< y < 2 : Min (1,y) = 1

Donc :
1 𝑦2 1
𝟏 𝟏
P(𝑋 < 𝑌) = ∫ ∫ 𝑑𝑥𝑑𝑦 + ∫ ∫ 𝑑𝑥𝑑𝑦
0 0 𝟐 1 0 𝟐
1
1 𝑦 2
1 1
= ∫ [ 𝑥] 𝑑𝑦 + ∫ [ 𝑥] 𝑑𝑦
0 2 0 1 2 0
1 2
1 1
= ∫ ( 𝑦) 𝑑𝑦 + ∫ 𝑑𝑦
0 2 1 2
1 2
1 2
1 1 1 3
= [ 𝑦 ] + [ 𝑦] = + 1 − =
4 0 2 1 4 2 4

• Calculons 𝐏(𝑿 > 𝒀)

P(𝑋 > 𝑌) = P((𝑋, 𝑌) ∊ E) = ∬ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


E
E ={ (x,y) ∊ℝ : 0 ≤ x ≤1, 0 ≤ y ≤ 2, x > y }
2

Pour déterminer les bornes d’intégration, on a : 0 ≤ x ≤1 et x > y


Comme y est supérieur à 0 (0 ≤ y ≤ 2) , la borne inférieure de x (Max (0, y) ) va correspondre
directement à y , et donc par rapport à x, on intègre de y à 1
Pour la borne supérieure de y, il faut prendre en considération que y < x, et comme on a 0 ≤ x ≤1 ,
alors la borne supérieure de y est 1.

Donc :
1 1
1
P(𝑋 > 𝑌) = ∫ ∫ 𝑑𝑥𝑑𝑦
0 𝑦 2

22
1
1 1 1
1 1
= ∫ [ 𝑥] 𝑑𝑦 = ∫ − 𝑦 𝑑𝑦
0 2 𝑦 0 2 2
1 1 21 1 1 1
=[ 𝑦− 𝑦 ] = − =
2 4 0 2 4 4

• Calculons 𝐏(𝑿 + 𝒀 < 𝟏)

P(𝑿 + 𝒀 < 1) = P((𝑋, 𝑌) ∊ E) = ∬ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


E
E ={ (x,y) ∊ℝ : 0 ≤ x ≤1, 0 ≤ y ≤ 2, x < 1– y }
2

On doit déterminer les bornes d’intégration :

On a : 0 ≤ x ≤1 et x < 1– y
Comme 0 ≤ y ≤ 2, et donc : 1– y ≤ 1 , la borne supérieure de x (Min (1, 1– y) ) va correspondre
directement à 1:

Pour la borne supérieure de y, il faut prendre en considération que y <1– x, et comme on a 0 ≤ x


≤1 (et donc 1– x ≤ 1), alors y <1– x ≤ 1 et la borne supérieure de y est 1– y.

Donc :
1 1– 𝑦
𝟏
𝐏(𝑿 + 𝒀 < 1) = ∫ ∫ 𝑑𝑥𝑑𝑦
0 0 𝟐
1 1−𝑦
1 1
1 1−𝑦 1
1 1
=∫ ∫ 𝑑𝑥𝑑𝑦 = ∫ [ 𝑥] 𝑑𝑦 = ∫ − 𝑦 𝑑𝑦
0 0 2 0 2 0 0 2 2
1 1 21 1 1 1
=[ 𝑦− 𝑦 ] = − =
2 4 0 2 4 4

• Calculons 𝐏(𝑿 + 𝒀 > 𝟏)

P(𝑿 + 𝒀 > 1) = P((𝑋, 𝑌) ∊ E) = ∬ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


E
E ={ (x,y) ∊ℝ : 0 ≤ x ≤1, 0 ≤ y ≤ 2, x > 1– y }
2

23
Pour déterminer les bornes d’intégration, on a :

0 ≤ x ≤1 et x > 1– y
Mais comme 1– y peut être inférieur à 0 (puisque 0 ≤ y ≤ 2)
La borne inférieure de x va correspondre au Max (0, 1– y)
En résolvant l’équation 1– y = 0, on trouve que la valeur y =1 partage le domaine d’intégration en
deux:

si y < 1 : Max (0, 1– y) = 1– y


si 1< y < 2 : Max (0, 1– y) = 0

Donc :
1 1 1 2 1
1 1
1 1 2
1 1
P(𝑋 + 𝑌 > 1) = ∫ ∫ 𝑑𝑥𝑑𝑦 + ∫ ∫ 𝑑𝑥𝑑𝑦 = ∫ [ 𝑥] 𝑑𝑦 + ∫ [ 𝑥] 𝑑𝑦
0 1−𝑦 2 1 0 2 0 2 1−𝑦 1 2 0
1
1 1 1 2
1 1 21 1 2 1 1 3
= ∫ ( − + 𝑦) 𝑑𝑦 + ∫ 𝑑𝑦 = [ 𝑦 ] + [ 𝑦] = + 1 − =
0 2 2 2 1 2 4 0 2 1 4 2 4

III. Indépendance et corrélation entre variables aléatoires


1. Indépendance :

1.1. Cas d’un couple de variables discrètes

Définition :
Soit (X,Y) un couple de variables aléatoires discrètes défini sur le support X(Ω) × Y(Ω) et ayant
pour fonction de masse jointe l’application P(X = x, Y = y) et pour fonctions de masse marginales
de X et de Y respectivement P(X = x) et P(Y = y).

La variables aléatoires X et Y sont indépendantes si :


∀ (𝑥,y) ∊ 𝑋(Ω) × Y(Ω) : P(X = x) . P(Y = y) = P(X = x, Y = y)

Propriété:

 Si X et Y sont indépendantes, alors :


𝐏(𝑿 = 𝒙 \𝒀 = 𝒚) = 𝐏(𝒀 = 𝒚) et 𝐏(𝒀 = 𝒚 \𝑿 = 𝒙) = 𝐏(𝑿 = 𝒙)

24
Exemple :
Reprenons l’exemple précédent de l’urne contenant 3 jetons et vérifions l’indépendance de X et Y

y 1 2 3 P(X= x) = ∑𝑦
x
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
P(Y= y) = ∑𝑥 1/3 1/3 1/3 1

Prenons le couple (2,3)


On a : P(𝑋 = 2 , 𝑌 = 3) = 1/6
Alors que:
1 1 1 1
P( 𝑋 = 2). P(Y = 3) = . = ≠
3 3 9 6

Donc X et Y ne sont pas indépendantes.

1.2. Cas d’un couple de variables continues

Définition :
Soit (X,Y) un couple de variables aléatoires continues défini sur le support X(Ω) × Y(Ω) ⊆ R2
et ayant pour densité conjointe la fonction𝒇𝑿,𝒀 (𝒙, 𝒚) et pour fonctions de densité marginales
𝒇𝑿 (𝒙) et 𝒇𝒀 (𝒚).

La variables aléatoires X et Y sont indépendantes si :


∀ (𝑥,y) ∊ 𝑋(Ω) × Y(Ω) : 𝒇𝑿 (𝒙) . 𝒇𝒀 (𝒚) = 𝒇𝑿,𝒀 (𝒙, 𝒚)

Propriétés:

 Pour que X et Y soient indépendantes, le domaine de définition X(Ω) × Y(Ω) du couple


(X,Y) doit être un rectangle (X(Ω) × Y(Ω) = { (x,y) ∊ R 2 : a ≤ x ≤b, c ≤ y ≤ d })

 Si X et Y sont indépendantes, alors : 𝑓𝑋\𝑌 (𝑥\𝑦) = 𝑓𝑋 (𝑥) et 𝑓𝑌\𝑋 (𝑦\𝑥) = 𝑓𝑌 (𝑦)

25
Exemple:

On reprend la fonction de densité conjointe donnée par :

−𝒙−𝟐𝒚
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐𝒆 𝒔𝒊 𝒙 ≥ 𝟎, 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏
On a :
𝑓𝑋 (𝑥). 𝑓𝑌 (𝑦) = 𝑒 −𝑥 . 2𝑒 −2𝑦 = 2𝑒 −𝑥−2𝑦

X et Y sont bien indépendantes comme on l’a mentionné plus haut (puisque 𝑓𝑋\𝑌 (𝑥\𝑦) = 𝑓𝑋 (𝑥)
et 𝑓𝑌\𝑋 (𝑦\𝑥) = 𝑓𝑌 (𝑦) )

2. Covariance et coefficient de corrélation linéaire

2.1. Espérance d’une fonction

2.1.1. Cas d’un couples de variables discrètes

Définition :
Soient 𝑋 et 𝑌 deux variables aléatoires discrètes définies par la fonction de masse conjointe
(𝑋=𝑥,=𝑦).
L’espérance de la fonction ℎ(𝑋,𝑌) est donnée par :

E[ℎ(𝑋, 𝑌)] = ∑ ∑ ℎ(𝑥, 𝑦)P(X = x, Y = y)


𝑥 𝑦

Exemple :
Reprenons la distribution conjointe de l’exemple de l’urne contenant 3 jetons :

y 1 2 3 P(X= x) = ∑𝑦
x
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
P(Y= y) = ∑𝑥 1/3 1/3 1/3 1

26
Calculons E[XY] et E[ XY2 ]:

E[XY] = (1).(1).(0)+ (1).(2).(1/6)+ (1).(3).(1/6) + (2).(1).(1/6)+ (2).(2).(0)+ (2).(3).(1/6)+


(3).(1).(1/6)+ (3).(2).(1/6)+ (3).(3).(0) = 22/6

E[ XY2 ]= (1).(1).(0)+ (1).(4).(1/6)+ (1).(9).(1/6) + (2).(1).(1/6)+ (2).(4).(0)+ (2).(9).(1/6)+


(3).(1).(1/6)+ (3).(4).(1/6)+ (3).(9).(0) = 8

2.1.2. Cas d’un couples de variables continues

Définition :
Soient 𝑋 et 𝑌 deux variables aléatoires continues définies par la fonction de densité conjointe
𝒇𝑿,𝒀 (𝒙, 𝒚).
L’espérance de la fonction ℎ(𝑋,𝑌) est donnée par :

+∞ +∞

E[ℎ(𝑋, 𝑌)] = ∫ ∫ ℎ(𝑥, 𝑦) 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


−∞ −∞

Exemple :
Reprenons l’exemple de la fonction de densité conjointe donnée par :
𝟏
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟎 𝒔𝒊𝒏𝒐𝒏

Calculons E[XY] et E[ XY2 ]:


2
1 1
1 2 1
1 2 1 2 1 1 2 1 1 2 2
E[𝑋𝑌] = ∫ ∫ 𝑥. 𝑦. 𝑑𝑥𝑑𝑦 = ∫ 𝑦 ∫ 𝑥 𝑑𝑥𝑑𝑦 = ∫ 𝑦 [ 𝑥 ] 𝑑𝑦 = ∫ 𝑦 𝑑𝑦 = [ 𝑦 ]
0 0 2 2 0 0 2 0 2 0 4 0 4 2 0
1
=
2

2]
2
11
2
1 2 2 1 1 2 2 1 2 1
E[𝑋𝑌 = ∫ ∫ 𝑥𝑦 . 𝑑𝑥𝑑𝑦 = ∫ 𝑦 ∫ 𝑥 𝑑𝑥𝑑𝑦 = ∫ 𝑦 [ 𝑥 ] 𝑑𝑦
0 0 2 2 0 0 2 0 2 0
2
1 2 2 1 1 8
= ∫ 𝑦 𝑑𝑦 = [ 𝑦 3 ] =
4 0 4 3 0 12

27
2.2. Covariance

Définition :
La covariance entre deux variables aléatoires 𝑋 et 𝑌 est donnée par :

𝐶𝑜𝑣 (𝑋,𝑌) = 𝐸[(𝑋−𝐸[𝑋])(𝑌−𝐸[𝑌])]

L’expression générale de la covariance peut être développée, et réécrite sous la forme suivante:

𝐶𝑜𝑣 (𝑋,Y) = [𝑋.Y] – 𝐸[𝑋]𝐸[𝑌]

En effet:

𝐶𝑜𝑣(𝑋,𝑌) = 𝐸[(𝑋−𝐸[𝑋])(𝑌−𝐸[𝑌])]
= 𝐸 [𝑋.Y – 𝑋.[Y] – 𝐸[𝑋].𝑌+ 𝐸[𝑋].𝐸[𝑌] ]
= [𝑋.Y] – 𝐸 [𝑋.[Y]] – 𝐸 [𝐸[𝑋].𝑌 ]+ 𝐸 [𝐸[𝑋].𝐸[𝑌]]
= 𝐸[𝑋.Y] – 𝐸[Y]𝐸[𝑋] – 𝐸[𝑋]𝐸[𝑌]+ 𝐸[𝑋].𝐸[𝑌]
= [𝑋.Y] – [𝑋][𝑌]

Propriétés de la covariance

• 𝐶𝑜𝑣 (𝑋, 𝑋) = 𝑉(𝑋)


• 𝐶𝑜𝑣(𝑋,𝑌) = 𝐶𝑜𝑣(𝑌,𝑋)
• 𝐶𝑜𝑣(𝑎𝑋+𝑏𝑌+𝑐, 𝑑𝑍+𝑒) = 𝐶𝑜𝑣(𝑎𝑋+𝑏𝑌, 𝑑𝑍) = 𝑎𝑑𝐶𝑜𝑣(𝑋, 𝑍)+𝑏𝑑𝐶𝑜𝑣(𝑌, 𝑍)

• 𝑉(𝑋+𝑌)= 𝐸[(𝑋+𝑌)2]−(𝐸[𝑋+𝑌])2
= [ 2+2XY +𝑌 2]−(𝐸[𝑋]+𝐸[𝑌])2
= 𝐸[ 𝑋2]+2 𝐸[XY ]+ 𝐸[𝑌 2]−(𝐸[𝑋])2 − (2𝐸[𝑋].𝐸[𝑌])2 − (𝐸[𝑌])2
= 𝐸[ 𝑋2] −(𝐸[𝑋])2 + 𝐸[𝑌 2] − (𝐸[𝑌])2+2 𝐸[XY ]− 2(𝐸[𝑋])2 (𝐸[𝑌])2
=(𝑋)+𝑉(𝑌)+2𝐶𝑜𝑣(𝑋,𝑌)

E[X 𝑌] = E[X]. E[Y]


• Si 𝑋 et 𝑌 sont indépendantes ⟹ 𝐶(𝑋,𝑌)=0 ⟹ {
V(X + Y) = V(X) + V(Y)

28
Exemple1 :

Reprenons la distribution conjointe de l’exemple de l’urne contenant 3 jetons :

y 1 2 3 P(X= x) = ∑𝑦
x
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
P(Y= y) = ∑𝑥 1/3 1/3 1/3 1

Calculons Cov (X,Y)

𝐶𝑜𝑣 (𝑋,) = [𝑋.Y] – 𝐸[𝑋]𝐸[𝑌]

On a déjà calculé E[XY] = 22/6


[𝑋]=1/3 +2/3 +3/3 = 2
[𝑌]= [𝑋]=2 (𝑋et 𝑌 ont la même distribution)

Donc : 𝐶𝑜𝑣 (𝑋,) = 22/6 – 2 . 2 = –1/3


On remarque que la covariance est négative, ce qui signifie qu’il existe une relation inverse entre
la variable X et la variable Y.
En effet, dans cet exemple, si le premier jeton tiré est 1(X =1), le second sera forcément sera
forcément supérieur à 1(Y>1) et si X augmente à 3, Y va baisser à 1 ou à 2

Exemple2 :

Reprenons l’exemple de la fonction de densité conjointe donnée par :


𝟏
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐 𝒔𝒊 𝟎 ≤ 𝒙 ≤ 𝟏, 𝟎 ≤ 𝒚 ≤ 𝟐
𝟎 𝒔𝒊𝒏𝒐𝒏

Calculons Cov (X,Y)

𝐶𝑜𝑣 (𝑋,Y) = [𝑋.Y] – 𝐸[𝑋]𝐸[𝑌]

On a déjà calculé E[XY] = 1/2

29
On a également déterminé les densités marginales de X et de Y :

𝟏 𝟎≤𝒙≤𝟏
𝒇𝑿 (𝒙) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

𝟏/𝟐 𝒔𝒊 𝟎 ≤ 𝒚 ≤ 𝟐
𝒇𝒀 (𝒚) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

[𝑋]=1/2 ( On remarque que X suit une loi uniforme sur [0,1])


[𝑌]= 1 ( On remarque aussi que Y suit une loi uniforme sur [0,2])

Donc : 𝐶𝑜𝑣 (𝑋,) = 1/2 – 1 . 1/2 = 0

Exemple3 :

Reprenons l’exemple de la fonction de densité conjointe donnée par :

−𝒙−𝟐𝒚
𝒇𝑿,𝒀 (𝒙, 𝒚) = {𝟐𝒆 𝒔𝒊 𝒙 ≥ 𝟎, 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏

Calculons Cov (X,Y)

𝐶𝑜𝑣 (𝑋,) = [𝑋.Y] – 𝐸[𝑋]𝐸[𝑌]

On a déjà déterminé les densités marginales de X et de Y :

𝒆−𝒙 𝒔𝒊 𝒙 ≥ 𝟎
𝒇𝑿 (𝒙) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

−𝟐𝒚
𝒇𝒀 (𝒚) = { 𝟐𝒆 𝒔𝒊 𝒚 ≥ 𝟎
𝟎 𝒔𝒊𝒏𝒐𝒏

𝑋 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑒𝑥𝑝𝑜𝑛𝑒𝑛𝑡𝑖𝑒𝑙𝑙𝑒 𝑑𝑒 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝜆 = 1, 𝑑𝑜𝑛𝑐: E[𝑋] = 1


1
𝑌 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑒𝑥𝑝𝑜𝑛𝑒𝑛𝑡𝑖𝑒𝑙𝑙𝑒 𝑑𝑒 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝜆 = 2, 𝑑𝑜𝑛𝑐: E[𝑌] =
2

+∞ +∞ +∞ +∞ +∞
−𝑥−2𝑦 −2𝑦 −𝑥
E[𝑋𝑌] = ∫ ∫ 𝑥. 𝑦. 2𝑒 𝑑𝑥𝑑𝑦 = ∫ 2𝑦𝑒 ∫ 𝑥𝑒 𝑑𝑥𝑑𝑦 = ∫ 2𝑦𝑒 −2𝑦 𝑑𝑦 = 1/2
0 0 0 0 0

30
Donc : Cov (X,Y) = 1/2 – (1)(1/2) = 0
Commentaire : on a montré précédemment que X et Y sont indépendantes, et donc : Cov (X,Y) est
forcément égale à zéro.

2.3. Coefficient de corrélation linéaire

Définition :

Le coefficient de corrélation entre les deux variables aléatoires 𝑋 et 𝑌 est défini par :
Cov(𝑋, 𝑌)
𝜌 = Cor(𝑋, 𝑌) =
𝜎𝑋 𝜎𝑌
Avec :
𝜎𝑋 = √V(𝑋)
𝜎𝑌 = √V(𝑌)

Propriétés:

• 𝐶𝑜𝑟(𝑋,𝑌)=𝐶𝑜𝑟(𝑌,𝑋)

Cov(𝑋,𝑋) 𝑉(𝑋)
• 𝜌 = Cor(𝑋, 𝑌) = = 𝑉(𝑋) = 1
𝜎𝑋 𝜎𝑋

• −1 ≤ 𝐶(𝑋,𝑌) ≤ 1

• Si 𝑋 et 𝑌 sont indépendantes ⟹ 𝐶𝑜r(𝑋, 𝑌)=0

• Si 𝜌=1 ou 𝜌=−1, ⟹ 𝑌=𝑎𝑋+𝑏, 𝑎≠0 (Relation linéaire entre X et Y)

Exemple :

Soit la fonction de densité conjointe donnée par :

𝟏 𝒔𝒊 𝟎 < 𝒙 < 1, 𝒙 < 𝒚 < 𝑥 + 1


𝒇𝑿,𝒀 (𝒙, 𝒚) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

31
1/- Densités marginales

 Densité marginale de X :
𝑥+1 𝑥+1
𝑓𝑋 (𝑥) = ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑦 = ∫ 1 𝑑𝑦 = [𝑦]𝑥𝑥+1 = 1
𝑥 𝑥
𝟏 𝒔𝒊 𝟎 < 𝒙 < 1
𝒇𝑿 (𝒙) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

 Densité marginale de Y :

Domaine d’intégration
𝟎<𝒙<1
𝒙>0 𝒙<1
{𝒙 < 𝒚 ⟹{ 𝒆𝒕 {
𝒙>𝒚−𝟏 𝒙<𝒚
𝒙+𝟏>𝑦

Pour le domaine de Y, on a :
𝟎<𝒙<1
{ ⟹ 𝟎<𝒚<2
𝒙< 𝒚< 𝑥+1

Donc, le domaine d’intégration par rapport à x peut être divisé en deux :


*𝑺𝒊 𝟎 < 𝒚 < 1: 𝑀𝑎𝑥 (𝟎, 𝒚 − 𝟏) = 𝟎 𝒆𝒕 𝑴𝒊𝒏 (𝟏, 𝒚) = 𝒚
𝑦 𝑦
𝑦
𝑓𝑌 (𝑦) = ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑥 = ∫ 1 𝑑𝑥 = [𝑥]0 = 𝑦
0 0

*𝑺𝒊 𝟏 < 𝒚 < 2: 𝑴𝒂𝒙 (𝟎, 𝒚 − 𝟏) = 𝒚 − 𝟏 𝒆𝒕 𝑴𝒊𝒏 (𝟏, 𝒚) = 𝟏


1 1
𝑓𝑌 (𝑦) = ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦) 𝑑𝑥 = ∫ 1 𝑑𝑥 = [𝑥]1𝑦−1 = 2 − 𝑦
𝑦−1 𝑦−1

𝒚 𝒔𝒊 𝟎 < 𝒚 < 1
𝒇𝒀 (𝒚) = { 𝟐 − 𝒚 𝒔𝒊 𝟏 < 𝒚 < 2
𝟎 𝒔𝒊𝒏𝒐𝒏

2/- La fonction de densité conditionnelle de Y sachant X= x

𝒇𝑿,𝒀 (𝒙, 𝒚) 𝟏
𝒇𝒀|𝑿 (𝒚|𝒙) = =
𝒇𝑿 (𝒙) 𝟏

32
𝟏 𝒔𝒊 𝒙 < 𝒚 < 𝑥 + 1
𝒇𝒀|𝑿 (𝒚|𝒙) = {
𝟎 𝒔𝒊𝒏𝒐𝒏

3/- Calculons : 𝐄[𝒀|𝑿 = 𝒙]

𝒙+𝟏 𝒙+𝟏
𝟏 𝟐 𝒙+𝟏 𝟏 𝟐
𝐄[𝒀|𝑿 = 𝒙] = ∫ 𝒚 . 𝒇𝒀|𝑿 (𝒚|𝒙)𝒅𝒚 = ∫ 𝒚 . 𝒅𝒚 = [𝒚 ]𝒙 = (𝒙 + 𝟐𝒙 + 𝟏 − 𝒙𝟐 )
𝒙 𝒙 𝟐 𝟐

𝟐𝒙 + 𝟏
=
𝟐

Comme on constate que X\Y suit une loi uniforme sur [x, x +1], on peut aussi déduire,
directement, que :
𝟐𝒙 + 𝟏
𝐄[𝒀|𝑿 = 𝒙] =
𝟐

4/- Calculons : 𝐄[𝒀]

𝟐 𝟏 𝟐 𝟏 𝟐
𝟏 𝟏 𝟏 𝟖 𝟏
𝐄[𝒀] = ∫ 𝒚 . 𝒇𝒀 (𝒚)𝒅𝒚 = ∫ 𝒚𝟐 𝒅𝒚 + ∫ 𝒚 (𝟐 − 𝒚)𝒅𝒚 = [ 𝒚𝟑 ] + [𝒚𝟐 − 𝒚𝟑 ] = + 𝟒 − − 𝟏 +
𝟎 𝟎 𝟏 𝟑 𝟎 𝟑 𝟏 𝟑 𝟑 𝟑
=𝟏

On peut également calculer 𝐄[𝒀] en appliquant le théorème de l’espérance totale :

𝟐𝑿 + 𝟏 𝟏 𝟏 𝟏
𝐄[𝒀] = 𝐄[𝐄[𝒀|𝑿 = 𝒙]] = 𝐄 [ ] = 𝐄[𝑿] + 𝐄 [ ] = + = 𝟏
𝟐 𝟐 𝟐 𝟐

𝟏
𝐄[𝑿] = car 𝑿 suit une loi uniforme sur [𝟎, 𝟏]
𝟐

5/-Calculons : 𝐕[𝒀|𝑿 = 𝒙]

V[Y| X = x]= E[Y 2| X = x] – (E[Y| X = x])2


𝒙+𝟏 𝒙+𝟏
𝟐 𝟐
𝟏 𝟑 𝒙+𝟏
𝐄[𝒀 |𝑿 = 𝒙] = ∫ 𝒚 . 𝒇𝒀|𝑿 (𝒚|𝒙)𝒅𝒚 = ∫ 𝒚𝟐 . 𝒅𝒚 = [𝒚 ]𝒙
𝒙 𝒙 𝟑
𝟏 𝟑 𝟑𝒙𝟐 + 𝟑𝒙 + 𝟏
= (𝒙 + 𝟑𝒙𝟐 + 𝟑𝒙 + 𝟏 − 𝒙𝟑 ) =
𝟑 𝟑

33
𝟑𝒙𝟐 + 𝟑𝒙 + 𝟏 𝟒𝒙𝟐 + 𝟒𝒙 + 𝟏 𝟏
V[𝑌| 𝑋 = 𝑥] = − =
𝟑 𝟒 𝟏𝟐

Comme X\Y suit une loi uniforme sur [x, x +1], on peut aussi directement déduire que :
𝟏
𝐄[𝒀|𝑿 = 𝒙] =
𝟏𝟐

6/- Calculons 𝐶𝑜𝑣 (𝑋,Y)

𝐶𝑜𝑣 (𝑋,Y) = 𝐸[𝑋.Y] – 𝐸[𝑋]𝐸[𝑌]

On a déjà déterminé [𝑋] et [𝑌] :


𝟏
𝐄[𝐗] =
𝟐

E[𝑌]= 1

1 𝑥+1 1
1 2 𝑥+1 1 1
E[𝑋𝑌] = ∫ ∫ 𝑥. 𝑦 𝑑𝑦𝑑𝑥 = ∫ 𝑥 [ 𝑦 ] 𝑑𝑥 = ∫ 𝑥 (𝑥 2 + 2𝑥 + 1 − 𝑥 2 )𝑑𝑥
0 𝑥 0 2 𝑥 2 0

1 2 3 1 2 1 7
= [ 𝑥 + 𝑥 ] =
2 3 2 0 12

On peut également calculer 𝐄[𝑿𝒀] en appliquant le théorème de l’espérance totale :

𝟐𝑿 + 𝟏 𝟏 𝟏 𝟏 𝟕
𝐄[𝑿𝒀] = 𝐄[𝐄[𝑿𝒀|𝑿 = 𝒙]] = 𝐄 [𝑿 ( )] = 𝐄[𝑿𝟐 ] + 𝐄[𝑿] = + =
𝟐 𝟐 𝟑 𝟒 𝟏𝟐

𝟏 𝟏 𝟏 𝟏
𝐄[𝑿𝟐 ] = car 𝑿 suit une loi uniforme sur [𝟎, 𝟏], 𝐄[𝑿𝟐 ] = 𝐕[𝑿] + (𝐄[𝑿])𝟐 = + =
𝟑 𝟏𝟐 𝟒 𝟑

Donc :
𝟕 𝟏 𝟏
𝐂𝐨𝐯 (𝑿, 𝒀) = – ( ) (𝟏) = = 𝟎, 𝟎𝟖𝟑
𝟏𝟐 𝟐 𝟏𝟐

34
7/- Calculons 𝐶𝑜r (𝑋,Y)

Cov(𝑋, 𝑌)
𝜌 = Cor(𝑋, 𝑌) =
𝜎𝑋 𝜎𝑌
1
V[𝑋] = = 0,083
12
𝟏
𝜎𝑋 = √ = 0,29
𝟏𝟐

V[Y]= E[Y 2] – (E[Y])2 avec :

2 𝟏 𝟐 𝟏 𝟐
𝟏 𝟐 𝟏 𝟏𝟒
E[𝑌 2 ] = ∫ 𝑦 2 𝑓𝑌 (𝑦) d𝑦 = ∫ 𝒚𝟑 𝒅𝒚 + ∫ 𝑦 2 (𝟐 − 𝒚)𝒅𝒚 = [ 𝒚𝟒 ] + [ 𝒚𝟑 − 𝒚𝟒 ] =
0 𝟎 𝟏 𝟒 𝟎 𝟑 𝟒 𝟏 𝟏𝟐

𝟏𝟒 𝟐
V[𝑌] = − 𝟏𝟐 =
𝟏𝟐 𝟏𝟐

𝟐
𝜎𝑌 = √ = 0,41
𝟏𝟐

𝐂𝐨𝐯(𝑿, 𝒀) 𝟎, 𝟎𝟖𝟑
𝝆 = 𝐂𝐨𝐫(𝑿, 𝒀) = = = 𝟎, 𝟕
𝝈𝑿 𝝈𝒀 𝟎, 𝟐𝟗 × 𝟎, 𝟒𝟏

35
36

Vous aimerez peut-être aussi