Vous êtes sur la page 1sur 16

Chapitre 1 Conditionnement

1-1 Rappels de probabilités conditionnelles


1-1-1 Evènements – Probabilité
Soit Ω l’ensemble des résultats possibles d’une expérience aléatoire. Un élément de Ω est
appelé “ réalisation “. Un ensemble 𝐴 ⊂ Ω est appelé “évènement“ . Si w ∈ Ω , le singleton {𝑤} est
un évènement élémentaire , Ω est l’évènement certain, ∅ est l’évènement impossible.
- Si 𝐴 et 𝐵 sont deux évènements, 𝐴̅ est l’évènement contraire.
- Deux évènements 𝐴 et 𝐵 sont incompatibles ou disjoints si et seulement si 𝐴⋂𝐵 = ∅ .
- Une suite (𝐴𝑖 )1≤𝑖≤𝑛 est un système complet d’évènements si ∀𝑖 ≠ 𝑗 , 𝐴𝑖 ∩ 𝐴𝑗 = ∅ et
⋃𝑛𝑖=1 𝐴𝑖 = Ω
Un sous ensemble ℱ de Ω est appelé tribu ou 𝜎- algèbre sur Ω si
i- ∅ et Ω ∈ ℱ
ii- Si 𝐴 ∈ ℱ alors 𝐴̅ ∈ ℱ
iii- Si (𝐴𝑖 )𝑖≥1 est une suite d’évènements de ℱ alors ⋃∞
𝑖=1 𝐴𝑖 ∈ ℱ

Définition 1 Probabilité
On appelle probabilité sur (Ω, ℱ ) une application 𝑃 de ℱ dans [0,1] vérifiant les deux propriétés
suivantes :
i- 𝑃 ( Ω) = 1
ii- Pour toute suite (𝐴𝑖 )𝑖≥1 d’évènements de ℱ deux à deux incompatibles on a

∞ ∞

𝑃 (⋃ 𝐴𝑖 ) = ∑ 𝐴𝑖
𝑖=1 𝑖=1

Le triplet (Ω, ℱ, 𝑃) est appelé espace de probabilité .


Propriétés :
i- 𝑃(∅) = 0
ii- 𝑃(𝐴̅) = 1 − 𝑃(𝐴)
iii- 𝑃(𝐴⋃𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
iv- Si 𝐴 et 𝐵 sont incompatibles , alors 𝑃(𝐴⋃𝐵) = 𝑃 (𝐴) + 𝑃(𝐵)
v- Pour toute famille 𝐴1 , 𝐴2 , … , 𝐴𝑛 d’évènements deux à deux incompatibles
𝑃(𝐴1 ⋃𝐴2 ∪ … ∪ 𝐴𝑛 ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ 𝑃(𝐴𝑛 )

Définition 2 Equiprobabilité et probabilité uniforme


SoitΩ un ensemble fini. On dit qu’il y a équiprobabilité lorsque les probabilités de tous les
évènements élémentaires sont égales. Dans ce cas, 𝑃 est la probabilité uniforme. S’il y a
équiprobabilité, pour tout évènement 𝐴 , on a

1
𝐶𝑎𝑟𝑑 𝐴 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃 (𝐴 ) = =
𝐶𝑎𝑟𝑑 Ω 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠

1-1-2 Probabilités conditionnelles


Soient 𝐴 et 𝐵 deux évènements tel que 𝑃(𝐵) > 0. La probabilité conditionnelle de 𝐴 sachant 𝐵
est
𝑃 (𝐴 ∩ 𝐵 )
𝑃 (𝐴|𝐵) =
𝑃(𝐵)
Propriétés pour trois évènements 𝐴 ,𝐵 et 𝐶, on a
i- 𝑃(𝐵̅/𝐴) = 1 − 𝑃(𝐵|𝐴)
ii- 𝑃(𝐴 ∪ 𝐵|𝐶 ) = 𝑃 (𝐴|𝐶 ) + 𝑃(𝐵|𝐶 ) − 𝑃(𝐴 ∩ 𝐵|𝐶 )
iii- Si 𝐴 et 𝐵 sont incompatibles alors 𝑃(𝐴 ∪ 𝐵|𝐶 ) = 𝑃 (𝐴|𝐶 ) + 𝑃(𝐵|𝐶 )

Formule des probabilités composées :

Soient 𝐴1 , . . , 𝐴𝑛 des évènements tel que 𝑃(𝐴1 ∩. .∩ 𝐴𝑛 ) ≠ 0 on a

𝑃(𝐴1 ∩ … ∩ 𝐴𝑛 ) = 𝑃(𝐴1 )𝑃(𝐴2 /𝐴1 )𝑃(𝐴3 |𝐴1 ∩ 𝐴2 ) … 𝑃(𝐴𝑛 |𝐴1 ∩ 𝐴2 . . 𝐴𝑛−1 ).


Formule des probabilités totales : Soient 𝐵1 , . . , 𝐵𝑛 un système complet d’évènements de
probabilités toutes non nulles. Pour tout évènement 𝐴 on a
𝑛

𝑃(𝐴) = ∑ 𝑃(𝐵𝑖 )𝑃(𝐴|𝐵𝑖 )


𝑖=1

Formule de Bayes : Soient 𝐵1 , . . , 𝐵𝑛 un système complet d’évènements de probabilités toutes non


nulles. Pour tout évènement 𝐴 tel que 𝑃 (𝐴) > 0 , On a
𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 )
𝑃 (𝐵𝑖 |𝐴 ) =
𝑃 (𝐴 )
Exemple 1 : Trois lignes de fabrication 𝐴,𝐵,𝐶 fabriquent des vis pour respectivement 30%, 30%
,40% de la production. La ligne A fabrique 10% de vis défectueuses, la ligne 𝐵 9% et la ligne 𝐶
seulement 6%. On prend une vis au hasard dans la population.

Soient les évènements : 𝑉 : la vis choisie est défectueuse


𝑉𝐴 : la vis vienne de la ligne A
𝑉𝐵 : la vis vienne de la ligne B
𝑉𝐶 : la vis vienne de la ligne C
La probabilité que la vis choisie est défectueuse est 𝑃 (𝑉 )

𝑃 (𝑉 ) = 𝑃(𝑉𝐴 )𝑃(𝑉 |𝑉𝐴 ) + 𝑃(𝑉𝐵 )𝑃(𝑉|𝑉𝐵 ) + 𝑃(𝑉𝐶 )𝑃(𝑉|𝑉𝐶 )


= 0.3 × 0.1 + 0.3 × 0.09 + 0.4 × 0.06 = 0.081
Si la vis choisie est défectueuse, la probabilité qu’elle vienne de la ligne 𝐴 est
2
𝑃(𝑉𝐴 )𝑃(𝑉|𝑉𝐴 ) 0.3 × 0.1
𝑃(𝑉𝐴 |V) = = = 0.37
𝑃(𝑉) 0.081
1-1-3 Indépendance
Deux évènements 𝐴 et 𝐵 sont indépendants si et seulement si 𝑃 (𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵)

Des évènements 𝐴1 , . . 𝐴𝑛 sont mutuellement indépendants si 𝑃(𝐴1 ∩ 𝐴2 ∩. .∩ 𝐴𝑛 ) =


𝑃(𝐴1 )𝑃(𝐴2 ). . 𝑃(𝐴𝑛 )
Si 𝐴1 , . . 𝐴𝑛 sont mutuellement indépendants, alors ils sont indépendants deux à deux, la
réciproque est fausse.
1-2- Variables aléatoires

Définition 3 Soit(Ω, ℱ, 𝑃) un espace de probabilité .On appelle variable aléatoire réelle (v.a.r)
toute application de Ω dans ℝ telle que pour tout intervalle 𝐼 deℝ, 𝑋 −1 (𝐼 )est un évènement de
ℱ.
On appelle loi de probabilité de 𝑋, notée 𝑃𝑋 , l’application qui a toute partie 𝐴 de ℝ associe
𝑃𝑋 (𝐴) = 𝑃(𝑋 ∈ 𝐴) = 𝑃({𝑤 ∈ Ω: X(𝑤) ∈ 𝐴})
La fonction de répartition d’une variable aléatoire réelle 𝑋 est la fonction 𝐹𝑋 de ℝ dans [0,1]
définie par

𝐹𝑋 (𝑥) = 𝑃(𝑋 ≤ 𝑥 )

Propriétés :
i- lim 𝐹𝑋 (𝑥 ) = 0 , lim 𝐹𝑋 (𝑥 ) = 1
𝑥⟶−∞ 𝑥⟶+∞
ii- La fonction 𝐹𝑋 est croissante et continue à droite
iii- Pour tous réels 𝑎 et 𝑏, 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎)

1-2-1 Variable aléatoire discrète

Définition 4 Une variable aléatoire 𝑋 à valeurs dans un ensemble 𝑋 (Ω) discret est appelée
variable aléatoire discrète. Dans ce cas, la loi de 𝑋 est déterminée par

∀𝑥 ∈ 𝑋 (Ω) , 𝑃𝑋 (𝑥 ) = 𝑃 (𝑋 = 𝑥 ) avec 𝑃 (𝑋 = 𝑥 ) ≥ 0 et ∑𝑥∈𝑋(Ω) 𝑃(𝑋 = 𝑥 )= 1

La fonction de répartition de 𝑋 est définie par 𝐹𝑋 (𝑥) = ∑𝑘≤𝑥 𝑃 (𝑋 = 𝑘 )

3
1-2-2 Variable aléatoire continue
Définition 5 Une variable aléatoire réelle 𝑋 est dite continue si 𝑋(Ω) est un intervalle ou réunion
d’intervalle de ℝ. 𝑋 est dite absolument continue si de plus il existe une fonction 𝑓𝑋 appelée
densité, définie sur ℝ telle que :
i- 𝑓𝑋 (𝑥 ) ≥ 0 pour tout 𝑥 ∈ ℝ
ii- 𝑓𝑋 (𝑥) est continue sur ℝ sauf peut être sur un nombre fini de points
+∞ +∞
iii- ∫−∞ 𝑓𝑋 (𝑥 )𝑑𝑥 converge et∫−∞ 𝑓𝑋 (𝑥)𝑑𝑥 = 1
𝑥
iv- 𝐹𝑋 (𝑥) = ∫−∞ 𝑓𝑋 (𝑡)𝑑𝑡

La fonction 𝐹𝑋 est continue, elle est dérivable aux points de continuité de 𝑓𝑋 avec 𝑓𝑋 (𝑥 ) = 𝐹𝑋′ (𝑥).

Propriétés

i- Pour tout 𝑎 ∈ ℝ , 𝑃 (𝑋 = 𝑎) = 0
𝑏
ii-Pour tous réels 𝑎 et 𝑏 tels que 𝑎 < 𝑏 on a 𝑃 (𝑎 < 𝑋 < 𝑏) = 𝑃 (𝑎 ≤ 𝑋 ≤ 𝑏) = ∫𝑎 𝑓𝑋 (𝑡) 𝑑𝑡

1-2-3 Moments des variables aléatoires


1- Espérance mathématique

On appelle espérance mathématique de la variable aléatoire 𝑋 la valeur, si elle existe


𝐸 (𝑋) = ∑𝑥∈𝑋(Ω) 𝑥 𝑃 (𝑋 = 𝑥 ) si 𝑋 est discrète
+∞
𝐸 (𝑋) = ∫−∞ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 si 𝑋 es continue

2- Moments
Le moment d’ordre (𝑟 ≥ 1) de 𝑋 est la quantité (si elle existe)

𝐸 (𝑋 𝑟 ) = ∑𝑥∈𝑋(Ω) 𝑥 𝑟 𝑃(𝑋 = 𝑥 ) si 𝑋 est discrète


+∞
𝐸 (𝑋 𝑟 ) = ∫−∞ 𝑥 𝑟 𝑓𝑋 (𝑥 )𝑑𝑥 si 𝑋 est continue

Le moment centré d’ordre (𝑟 ≥ 1) est


𝑟
𝐸(𝑋 − 𝐸 (𝑋)) = ∑𝑥∈𝑋(Ω)(𝑥 − 𝐸(𝑋))𝑟 𝑃(𝑋 = 𝑥 ) si 𝑋 est discrète
𝑟 +∞ 𝑟
𝐸(𝑋 − 𝐸 (𝑋)) = ∫−∞ (𝑥 − 𝐸 (𝑋)) 𝑓𝑋 (𝑥)𝑑𝑥 si 𝑋 est continue

3- Variance et écart-type
La variance de 𝑋 est la valeur (si elle existe ) notée 𝑉𝑎𝑟(𝑋) définie par
2
Var(𝑋) = 𝐸(𝑋 − 𝐸 (𝑋)) = 𝐸 (𝑋 2 ) − 𝐸 2 (𝑋)

L’écart-type , notée 𝜎𝑋 est la racine carrée de la variance de 𝑋


4
Propriétés
i- Pour tout 𝛼, 𝛽 ∈ ℝ , 𝐸 [𝛼𝑋 + 𝛽 ] = 𝛼𝐸 (𝑋) + 𝛽
ii- Pour tout 𝑎, 𝑏 ∈ ℝ , 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋)

1-2-4 Quelques lois usuelles

Dans les tableaux ci- après sont présentées les propriétés de quelques lois discrètes et continues
1- Lois discrètes

Lois de𝑋 𝑃(𝑋 = 𝑘) Esperance Variance


Bernoulli 𝔅(𝑝) 𝑝 si 𝑘 = 1,1 − 𝑝 si 𝑘 = 0 , 𝑝 𝑝(1-𝑝)

Binomiale 𝔅(𝑛, 𝑝) 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 ,𝑘 ∈ 𝑛𝑝 𝑛𝑝(1 − 𝑝)


{0, . . 𝑛},

Poisson 𝒫(𝜆) 𝜆𝑘 λ λ
𝑒 −𝜆 , 𝑘 ∈ ℕ , 𝜆 > 0
𝑘!

Géométrique Ǥ (𝑝) (1 − 𝑝 )𝑘 𝑝 , 𝑘 ∈ ℕ 1−𝑝 1−𝑝


𝑝 𝑝2
Géométrique Ǥ*(𝑝) (1 − 𝑝)𝑘−1 𝑝 , 𝑘 ∈ ℕ∗ 1 1−𝑝
2- 𝑝 𝑝2

Lois Continues

Lois Densité Esperance Variance

Uniforme 1 𝑎+𝑏 (𝑎 − 𝑏 )2
U ([]) 𝑓(𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 2 12
0 𝑠𝑖𝑛𝑜𝑛
Exponentielle −𝜆𝑥 1 1
𝑓(𝑥) = { 𝜆 𝑒 𝑠𝑖 𝑥 ≥ 0
ℰ(𝜆) 0 𝑠𝑖 𝑥 < 0 𝜆 𝜆2
(𝑥−𝑚) 2
Normale 1 − m 𝜎2
𝑓(𝑥) = 𝑒 2𝜎2 ,𝑥 ∈ ℝ
N(𝜎 2 ) 𝜎√2𝜋
,
Gamma 𝜆𝑎 𝑎−1 −𝜆𝑥 𝑎 𝑎
𝑓 (𝑥 ) = 𝑥 𝑒 , 𝑥 > 0, 𝑎 > 0, 𝜆 𝜆2
Γ(𝜆, 𝑎) Γ(𝑎 )
𝜆>0

bêta 1 𝑎 𝑎𝑏
𝑓 (𝑥 ) = 𝑥 𝑎−1 (1 − 𝑥 )𝑏−1 , 𝑎+𝑏
Β(𝑎, 𝑏) Β(𝑎, 𝑏) (𝑎 + 𝑏 + 1)(𝑎 + 𝑏)2
0<𝑥<1

5
+∞
Fonction Gamma : Γ(𝑥 ) = ∫0 𝑥 𝑎−1 𝑒 −𝑥 𝑑𝑥, 𝑥 >0,
1
Γ(𝑎 ) = (𝑎 − 1 ) Γ(𝑎 − 1 ) ∀𝑎 > 0, Γ(𝑛) = (𝑛 − 1)! ∀𝑛 ∈ ℕ∗ , Γ (2) = √𝜋 , Γ(1 ) = 1
Γ(𝑎)Γ(𝑏)
Fonction bêta : Β(𝑎, 𝑏) = , 𝑎>0 , 𝑏>0
Γ(𝑎+𝑏)

1-2-5 Fonctions génératrices


Définition 6 On appelle fonction génératrice de la variable aléatoire discrète 𝑋 à valeurs dans
ℕ, la série entière

𝑋)
𝐺𝑋 (𝑠) = 𝐸 (𝑠 = ∑ 𝑠 𝑘 𝑃(𝑋 = 𝑘) , 𝑠 ∈ [−1,1]
𝑘=0

Théorème 1 Soit 𝑋 à valeurs dans ℕ , alors 𝑋 admet une espérance si et seulement si 𝐺𝑋′ = 𝐸 (𝑋)
𝑋 admet une variance si et seulement si 𝐺𝑋 est deux fois dérivables en 1.
2
𝑉𝑎𝑟(𝑋) = 𝐺𝑋′′ (1) + 𝐺𝑋′ (1) − (𝐺𝑋′ (1))

- Si 𝑋 et 𝑌 ont la même fonction génératrice, elles ont même loi.


- Si 𝑋 et 𝑌 sont deux v.a indépendantes, 𝐺𝑋+𝑌 (𝑠) = 𝐺𝑋 (𝑠)𝐺𝑌 (𝑠)

Exemple 2 Soit 𝑋 une variable aléatoire de loi binomiale 𝔅(𝑛, 𝑝). On a


𝑛 𝑛
𝑛
𝐺𝑋 (𝑠) = ∑ 𝑠 𝑘 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 = ∑ 𝐶𝑛𝑘 (𝑝𝑠)𝑘 (1 − 𝑝)𝑛−𝑘 = (𝑝𝑠 + (1 − 𝑝))
𝑘=0 𝑘=0
𝑛−1
D’où 𝐺𝑋′ (𝑠) = 𝑛𝑝(𝑝𝑠 + (1 − 𝑝)) donc 𝐸 (𝑋) = 𝐺𝑋′ (1) = 𝑛𝑝, par ailleurs
𝑛−2
𝐺𝑋′′ (𝑠) = 𝑛(𝑛 − 1)𝑝2 (𝑝𝑠 + (1 − 𝑝)) donc 𝐺𝑋′′ (1) = 𝑛(𝑛 − 1)𝑝2

D’où 𝑉𝑎𝑟(𝑋) = 𝑛(𝑛 − 1)𝑝2 + 𝑛𝑝 − (𝑛𝑝)2 = −𝑛𝑝2 + 𝑛𝑝 = 𝑛𝑝(1 − 𝑝)

Définition7 La fonction génératrice des moments de la variable aléatoire 𝑋 est définie par
𝑀𝑋 (𝑡) = 𝐸 (𝑒 𝑡𝑋 )
Le moment d’ordre 𝑟 de 𝑋 est donnée par :
(𝑟) (𝑟)
𝐸 [𝑋 𝑟 ] = 𝑀𝑋 (0) où 𝑀𝑋 (0) est la dérivée d’ordre 𝑟 de 𝑀𝑋

Exemple 3 Soit 𝑋 une variable aléatoire de loi Γ(𝜆, 𝑎). On a

6
+∞ +∞
𝜆𝑎 𝑎−1 −𝜆𝑥 𝜆𝑎
𝑀𝑋 (𝑡) = ∫ 𝑒 𝑡𝑥 𝑥 𝑒 𝑑𝑥 = ∫ 𝑥 𝑎−1 𝑒 −𝑥(𝜆−𝑡) 𝑑𝑥
Γ(𝑎 ) Γ(𝑎 )
0 0

En posant 𝑦 = 𝑥(𝜆 − 𝑡) , on obtient


+∞ +∞
𝜆𝑎 𝑦 𝑎−1 1 −𝑦
𝜆 𝑎 1
𝑀𝑋 (𝑡) = ∫ ( ) 𝑒 𝑑𝑦 = ( ) ∫ 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦
Γ(𝑎 ) 𝜆−𝑡 𝜆−𝑡 𝜆 − 𝑡 Γ(𝑎 )
0 0

+∞ 𝜆 𝑎
Comme ∫0 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦 = Γ(𝑎) on obtient 𝑀𝑋 (𝑡) = (𝜆−𝑡 ) pour 𝑡 < 𝜆

Calculons maintenant 𝐸 (𝑋) et 𝑉𝑎𝑟(𝑋) en utilisant les premières dérivées de 𝑀𝑋 (𝑡)


𝜆 𝑎−1 𝜆 𝒂
On a 𝑀𝑋′ (𝑡) = 𝑎 (𝜆−𝑡 ) (𝜆−𝑡)2
donc 𝐸 (𝑋) = 𝑀𝑋′ (0) = 𝝀

𝜆 𝑎−2 𝜆2 𝜆 𝑎−1 2𝜆 𝑎(𝑎−1) 2𝑎


et 𝑀𝑋′′ (𝑡) = 𝑎(𝑎 − 1) (𝜆−𝑡 ) (𝜆−𝑡) 4
+ 𝑎 (𝜆−𝑡 ) (𝜆−𝑡) 3
donc 𝑀𝑋′′ (0) = + 𝜆2
𝜆2

2 𝑎
Finalement 𝑉𝑎𝑟(𝑋) = 𝑀𝑋′′ (0) − (𝑀𝑋′ (0)) = 𝜆2

1-3 Couples aléatoires


1-3-1- Couple de variables aléatoires discrètes
La loi d’un couple de v.a discrètes (𝑋, 𝑌) est définie par l’ensemble des valeurs possibles
(𝑋, 𝑌)(Ω) = {(𝑥, 𝑦), 𝑥 ∈ 𝑋(Ω), 𝑦 ∈ 𝑌(Ω)} et par les probabilités associées :

𝑃𝑋,𝑌 (𝑥, 𝑦) = 𝑃 (𝑋 = 𝑥, 𝑌 = 𝑦)avec ∑𝑥∈𝑋(Ω) ∑𝑦∈𝑌(Ω) 𝑃𝑋,𝑌 (𝑥, 𝑦) = 1

1- Lois marginales

Les lois marginales sont les lois de chacune des variables du couple (𝑋, 𝑌). Elles sont définies par

𝑃(𝑋 = 𝑥 ) = ∑𝑦∈𝑌(Ω) 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦 ) et 𝑃(𝑌 = 𝑦) = ∑𝑥∈𝑋(Ω) 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦 )

Les variables aléatoires 𝑋 et 𝑌 sont indépendantes si et seulement si


∀ (𝑥, 𝑦) ∈ 𝑋 (Ω) × 𝑌 (Ω) , 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥 )𝑃(𝑌 = 𝑦)
2- Moments associés à un couple discret
Soit ℎ : ℝ2 ⟶ ℝ une application continue, elle définie une v.a réelle. L’espérance
mathématique de ℎ(𝑋, 𝑌) est définie par

𝐸(ℎ (𝑋, 𝑌)) = ∑ ∑ ℎ(𝑥, 𝑦)𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)


𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)

Dans le cas oùℎ(𝑋, 𝑌) = (𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌)) on définit la covariance de 𝑋 et 𝑌 par

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 ((𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌))) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌)


7

𝐸 (𝑋𝑌) = ∑ ∑ 𝑥𝑦 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)

La variance et la covariance sont reliées par l’égalité :


𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝐶𝑂𝑉 (𝑋, 𝑌)
Propriétés
i- 𝐶𝑜𝑣(𝑋, 𝑋) = 𝑉𝑎𝑟(𝑋) et 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑌, 𝑋)
ii- Si 𝑋 et 𝑌 sont indépendantes alors 𝐶𝑜𝑣(𝑋, 𝑌) = 0. La réciproque est fausse.
iii- Si 𝑋 et 𝑌 sont indépendantes alors 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

3- Somme de deux variables aléatoires discrètes


Soient 𝑋 et 𝑌 des variables aléatoiresdiscrètes.La loi de 𝑆 = 𝑋 + 𝑌 est définie par

∀𝑠 ∈ (𝑋 + 𝑌)(Ω) , 𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑠 − 𝑥 )


𝑠=𝑥+𝑦 𝑥∈𝑋(Ω)

Si 𝑋 et 𝑌 sont indépendantes alors

𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥)𝑃(𝑌 = 𝑠 − 𝑥 )


𝑥∈𝑋(Ω)

Exemple 4 Soit 𝑋 et 𝑌 deux v.a indépendantes, de lois respectives 𝒫(𝜆1 ) et 𝒫(𝜆2 ). On a


𝒔

𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥)𝑃(𝑌 = 𝑠 − 𝑥 )


𝒙=𝟎
𝒔 𝑠
𝜆1𝑥 𝜆𝑠−𝑥
2 𝑒 −(𝜆1 +𝜆2 )
𝑃 (𝑋 + 𝑌 = 𝑠) = ∑ 𝑒 −𝜆1 𝑒 −𝜆2 = ∑ 𝐶𝑠𝑥 𝜆1𝑥 𝜆𝑠−𝑥
2
𝑥! (𝑠 − 𝑥 )! 𝑠!
𝒙=𝟎 𝑥=0

𝑒 −(𝜆1 +𝜆2)
En utilisant la formule du binôme, on trouve𝑃(𝑋 + 𝑌 = 𝑠) = (𝜆1 + 𝜆2 )𝑠 , 𝑠 ≥ 0
𝑠!

D’où 𝑋 + 𝑌 ↪ 𝒫(𝜆1 + 𝜆2 ). Ce résultat se généralise à la somme de n lois de Poisson


indépendantes.

1-3-2 Couple de variables aléatoires continues

Si 𝑋et 𝑌sont deux v.a réelles continues, La loi du couple(𝑋, 𝑌) est déterminée par sa fonction de
répartition𝐹𝑋,𝑌 . Si cette fonction est deux fois dérivables par rapport aux deux variables, alors la
loi de (𝑋, 𝑌) est dite absolument continue, de densité 𝑓𝑋,𝑌 définie par :

8
𝜕 2 𝐹 (𝑥, 𝑦)
𝑓 (𝑥, 𝑦) =
𝜕𝑥𝜕𝑦
𝑥 𝑦
et 𝐹(𝑥, 𝑦) = ∫−∞ ∫−∞ 𝑓 (𝑢, 𝑣) 𝑑𝑢𝑑𝑣
+∞ +∞
Vérifiant : pour tout (𝑥, 𝑦) ∈ ℝ2 𝑓 (𝑥, 𝑦) ≥ 0 et∫−∞ ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1

1- Lois marginales
Les densités marginales de 𝑋 𝑒𝑡 𝑌 sont définies par
+∞ +∞
𝑓𝑋 (𝑥 ) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦 et 𝑓𝑌 (𝑦) = ∫−∞ 𝑓 (𝑥, 𝑦)𝑑𝑥

Deux variables aléatoires absolument continues 𝑋 𝑒𝑡 𝑌 sont indépendantes si et seulement si :


∀(𝑥, 𝑦) ∈ ℝ2 , 𝑓(𝑥, 𝑦 ) = 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑦)

2- Moments associés à un couple continu


Soit ℎ : ℝ2 ⟶ ℝ une application continue , l’espérance mathématique de ℎ(𝑋, 𝑌) est définie
par
+∞ +∞

𝐸(ℎ(𝑋, 𝑌)) = ∫ ∫ ℎ(𝑥, 𝑦)𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


−∞ −∞

La covariance de 𝑋 et 𝑌 est définie par

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 ((𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌))) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌)


+∞ +∞
Où ; 𝐸 (𝑋𝑌) = ∫−∞ ∫−∞ 𝑥𝑦𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦

Les propriétés de la variance et de la covariance sont identiques au cas discret

3- Somme de deux variables aléatoires continues

Soit (𝑋, 𝑌) un couple de v .a absolument continues. La variable 𝑍 = 𝑋 + 𝑌 est une v.a


absolument continue de densité
+∞
𝑔𝑍 (𝑧) = ∫ 𝑓 (𝑥, 𝑧 − 𝑥 ) 𝑑𝑥
−∞

Si 𝑋 et 𝑌 sont indépendantes alors


+∞
𝑔𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑧 − 𝑥 ) 𝑑𝑥
−∞

La fonction 𝑔𝑍 est appelée le produit de convolution de 𝑓𝑋 et 𝑓𝑌

9
Exemple 5 Soit 𝑋 et 𝑌 deux v.a indépendantes de même loi exponentielle de paramètre 𝜆

Le support de la v.a 𝑍 = 𝑋 + 𝑌 est ℝ+ , soit 𝑧 ≥ 0 . La densité de 𝑍 est


2 −𝜆𝑧
𝑔𝑍 (𝑧) = ∫0 𝑓𝑋 (𝑥) 𝑓𝑌 (𝑧 − 𝑥 )𝑑𝑥 = 𝜆2 ∫0 𝑒 −𝜆𝑥 𝑒 −𝜆(𝑧−𝑥) 𝑑𝑥 = 𝜆2 ∫0 𝑒 −𝜆𝑧 𝑑𝑥={𝜆 𝑧𝑒 𝑠𝑖 𝑧 > 0
𝑧 𝑧 𝑧
0 𝑠𝑖𝑛𝑜𝑛
D’où 𝑋 + 𝑌 ↪ Γ(2, 𝜆) . Ce résultat se généralise à la somme de n variables aléatoires
exponentielles indépendantes .

1-4- Conditionnement
1- 4-1 Lois conditionnelles

Définition 8 Soit (𝑋, 𝑌) un couple de variables aléatoires discrètes, et soit 𝑥 ∈ 𝑋(Ω) tel que
𝑃(𝑋 = 𝑥 ) ≠ 0 . La loi conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est définie par :
𝑃 (𝑋 = 𝑥, 𝑌 = 𝑦)
𝑃(𝑌 = 𝑦/𝑋 = 𝑥 ) =
𝑃 (𝑋 = 𝑥 )

Définition 9 Soit (𝑋, 𝑌) un couple de v.a absolument continues . Pour tout 𝑥 ∈ ℝ tel
( )
que 𝑓𝑋 𝑥 ≠ 0, la loi conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est donnée par
𝑓(𝑥, 𝑦)
𝑓𝑌|𝑋 (𝑦|𝑥 ) = 𝑓(𝑦|𝑥) =
𝑓𝑋 (𝑥)

1-4-2 Espérances conditionnelles

1- Cas discret

Soit (𝑋, 𝑌) un couple aléatoire discret. L’espérance conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est


définie par

∀𝑥 ∈ 𝑋 (Ω) , 𝐸 (𝑌|𝑋 = 𝑥 ) = ∑ 𝑦 𝑃(𝑌 = 𝑦⁄𝑋 = 𝑥 )


𝑦∈𝑌(Ω)

Théorème 2 (Théorème de l’espérance totale )

Soit 𝑋 et 𝑌 deux v.a.r. discrètes définies sur le même espace telle que 𝐸 (|𝑌|) < ∞. Alors la v.a.r.
discrète 𝐸 (𝑌|𝑋) admet une espérance et

𝐸(𝐸 (𝑌|𝑋)) = ∑ 𝐸 (𝑌|𝑋 = 𝑥 ) 𝑃(𝑋 = 𝑥 ) = 𝐸 (𝑌)


𝑥∈𝑋(Ω)

10
Exemple 6 Soit(𝑋, 𝑌) un couple de variables aléatoires dont la loi est définie par le tableau
suivant

𝑋∖𝑌 0 1 Loi de 𝑋
0 2/7 2/7 4/7
1 2/7 1/7 3/7
Loi de 𝑌 4/7 3/7 1
.
2
Les v.a 𝑋 et 𝑌 ne sont pas indépendantes puisque par exemple, 𝑃(𝑋 = 0, 𝑌 = 1) = 7 alors
12 2
que 𝑃 (𝑋 = 0)𝑃(𝑌 = 1) = 49 ≠ 7

On a
4 3 3 4 3 3
𝐸 (𝑋) = ∑1𝑥=0 𝑥𝑃(𝑋 = 𝑥 ) = 0 × 7 + 1 × 7 = 7 𝑒𝑡 𝐸 (𝑌) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦) = 0 × 7 + 1 × 7 = 7,
1 1
2 2 2 1
𝐸 (𝑋𝑌) = ∑ ∑ 𝑥𝑦𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = (0 × × 0) + (0 × × 1) + (1 × × 0) + (1 × × 1)
7 7 7 7
𝑥=0 𝑦=0
1
=
7
1 9 2
D’où 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌) = − 49 = − 49
7

𝑃(𝑋=0 , 𝑌=𝑦)
La probabilité conditionnelle de 𝑌 sachant 𝑋 = 0 est 𝑃(𝑌 = 𝑦|𝑋 = 0) = ce qui
𝑃(𝑋=0)
conduit au tableau suivant :

𝑦 0 1
𝑃(𝑌 = 𝑦|𝑋 = 0) 2/7 2/7
= 1/2 = 1/2
4/7 4/7

1 1 1
On calcule 𝐸 (𝑌|𝑋 = 0) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦|𝑋 = 0) = 0 × 2 + 1 × 2 = 2
𝑃(𝑋=1, 𝑌=𝑦)
De la même manière on calcule 𝑃 (𝑌 = 𝑦|𝑋 = 1) =
𝑃(𝑋=1)

𝑦 0 1
𝑃(𝑌 = 𝑦|𝑋 = 1) 2/7 1/7
= 2/3 = 1/3
3/7 3/7

1
on obtient 𝐸 (𝑌|𝑋 = 1) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦|𝑋 = 1) = 3 et on en déduit la loi de 𝐸 (𝑌|𝑋)

𝐸 (𝑌|𝑋) 𝐸 (𝑌|𝑋 = 0) =1/2 𝐸 (𝑌|𝑋 = 1) =1/3


𝑃(𝑋 = 𝑥 ) 4/7 3/7

1 4 1 3 3
et puis 𝐸(𝐸 (𝑌|𝑋)) = 2 × 7 + 3 × 7 = 7 = 𝐸 (𝑌)

11
2- Cas absolument continu
Soit (𝑋, 𝑌) un couple aléatoire absolument continu. L’espérance conditionnelle de Y sachant X =
x est définie par
+∞

𝐸 (𝑌|𝑋 = 𝑥 ) = ∫ 𝑦 𝑓(𝑦|𝑥)𝑑𝑦
−∞

Théoreme3 Soit 𝑋 et 𝑌 deux v.a.r. absolument continues définies sur le même espace telles que
𝐸 (|𝑌|) < ∞. Alors la v.a.r. continue 𝐸 (𝑌|𝑋) admet une espérance et

+∞

𝐸(𝐸 (𝑌|𝑋)) = ∫ 𝐸 (𝑌|𝑋 = 𝑥 ) 𝑓𝑋 (𝑥 )𝑑𝑥 = 𝐸 (𝑌)


−∞

Exemple 7 Soit un couple aléatoire (𝑋, 𝑌) de densité


𝑒 −𝑥−𝑦 𝑠𝑖 𝑥 > 0 , 𝑦 > 0
𝑓 (𝑥, 𝑦) = {
0 𝑠𝑖𝑛𝑜𝑛
Densités marginales de 𝑋 et de 𝑌 :
+∞ +∞
𝑓(𝑥 ) = ∫0 𝑓(𝑥, 𝑦)𝑑𝑦 = ∫0 𝑒 −𝑥−𝑦 𝑑𝑦 = 𝑒 −𝑥 si 𝑥 > 0 et nulle ailleurs
+∞ ∞
𝑓(𝑦) = ∫0 𝑓 (𝑥, 𝑦)𝑑𝑥 = ∫0 𝑒 −𝑥−𝑦 𝑑𝑥 = 𝑒 −𝑦 si 𝑦 > 0 et nulle ailleurs

Les v.a 𝑋 et 𝑌 sont indépendantes puisque 𝑓 (𝑥, 𝑦) = 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑦). On a


+∞ +∞
𝐸 (𝑋) = ∫0 𝑥𝑓𝑋 (𝑥 )𝑑𝑥 = ∫0 𝑥𝑒 −𝑥 𝑑𝑥 = 1 ,
+∞ +∞
𝐸 (𝑌) = ∫0 𝑦𝑓𝑌 (𝑦)𝑑𝑦 = ∫0 𝑦𝑒 −𝑦 𝑑𝑦 = 1 et
+∞ +∞ +∞ +∞

𝐸 (𝑋𝑌) = ∫ ∫ 𝑥𝑦 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ 𝑥𝑒 −𝑥 (∫ 𝑦𝑒 −𝑦 𝑑𝑦)𝑑𝑥 = 1


0 0 0 0

On obtient 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)(𝑌) = 0


L’espérance conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est

+∞ +∞ +∞
𝑓 (𝑥, 𝑦)
𝐸 (𝑌|𝑋 = 𝑥 ) = ∫ 𝑦𝑓(𝑦|𝑥 )𝑑𝑦 = ∫ 𝑦 𝑑𝑦 = ∫ 𝑦 𝑒 −𝑦 𝑑𝑦 = 1
𝑓𝑋 (𝑥 )
0 0 0

12
3- Propriétés des espérances conditionnelles
Soit (𝑋, 𝑌) un couple aléatoire. Soit 𝜙 , 𝜑 deux fonctions de ℝ dans ℝ et soit ℎ une fonction de
ℝ2 dans ℝ. Sous réserve d’intégrabilité des variables aléatoires, on a les propriétés suivantes :
i- Si 𝑋 et 𝑌 sont indépendantes, alors 𝐸 (𝜑(𝑌)|𝑋) = 𝐸 (𝜑(𝑌)). En particulier, 𝐸 (𝑌|𝑋) = 𝐸 (𝑌).
ii- On a 𝐸 (𝜑 (𝑋)|𝑋) = 𝜑(𝑋). En particulier on a 𝐸 (𝑋|𝑋) = 𝑋
∀𝑎 ∈ ℝ, ∀𝑏 ∈ ℝ,
𝐸 (𝑎𝜑(𝑋) + 𝑏𝜙 (𝑌) |𝑋) = 𝑎𝐸 (𝜑(𝑋)|𝑋) + 𝑏𝐸 (𝜙(𝑌)|𝑋) = 𝑎𝜑(𝑋) + 𝑏𝐸 (𝜙(𝑌)|𝑋)
𝐸 (ℎ(𝑋, 𝑌)|𝑋 = 𝑥 ) = 𝐸 (ℎ(𝑥, 𝑌)|𝑋 = 𝑥 )

𝐸(𝜑(𝑌)) = 𝐸 (𝐸 (𝜑(𝑌))|𝑋)

1-4-3 Variances conditionnelles

Soit (𝑋, 𝑌) un couple aléatoire .la variance conditionnelle de Y sachant X = x est donnée par
𝑉𝑎𝑟(𝑌|𝑋 = 𝑥) = 𝐸 (𝑌 2 |𝑋 = 𝑥 ) − 𝐸 2 (𝑌|𝑋 = 𝑥)
Notons que 𝑉𝑎𝑟(𝑌|𝑋) est une variable aléatoire donc on peut calculer son espérance et on a

𝑉𝑎𝑟(𝑌) = 𝐸 (𝑉𝑎𝑟(𝑌|𝑋)) + 𝑉𝑎𝑟(𝐸 (𝑌|𝑋))

13
14
15

Vous aimerez peut-être aussi