Vous êtes sur la page 1sur 95

Chapitre 5 : Variables

Aléatoires et Lois
Usuelles
1ère année Licence Nationale Sciences de Gestion

Support de cours

Année Universitaire: 2022-2023


Au niveau de ce chapitre nous allons étudier dans une
première section les variables aléatoires discrètes,
dans la deuxième section on présentera les lois
usuelles discrètes. Dans la troisième section, on
étudiera les variables aléatoires continues et les lois
usuelles continues.
Section 1: Variables
Aléatoires Discrètes
◼ 1.1. Présentation
Définition 1: Soit (Ω,P) un espace probabilisé, on appelle
variable aléatoire (v.a) toute application définie sur Ω et qui
a valeur dans ℝ:
𝑋∶𝛺→ℝ
𝜔 ↦ 𝑋(𝜔)
Une v.a X est dite discrète si X(𝛺) = {𝑥1, 𝑥2. . . 𝑥k}, c'est à
dire que X(𝛺) est dénombrable.
Exemple 1: Jet successif de deux Dés: 𝜴 = {(𝒊, 𝒋), 𝒊 =
𝟏, 𝟐. . 𝟔 𝒆𝒕 𝒋 = 𝟏, 𝟐. . 𝟔}
𝑋∶ 𝛺 → ℝ
(𝑖, 𝑗) ↦ 𝑖 + 𝑗
est une v.a discrète avec 𝑋(𝛺) = {2,3, . . .12}
Exemple 2: Une urne contient des boules blanches et des
boules noires. Si on fait un tirage au hasard d'une boule,
𝛀 = {𝐁, 𝐍} , l'application: 𝐗 ∶ 𝛀 → ℝ définie par:
𝑋(𝐁) = 𝟏 et 𝑋(𝐍) = 𝟎 est une v.a discrète avec
𝑋(𝛀) = {𝟎, 𝟏}.
Théorème 1: Si 𝜴 = {𝝎𝟏, 𝝎𝟐. . . 𝝎𝒏} est un espace
fondamental associé à une expérience aléatoire et 𝑿 une v.a
définie sur Ω tq 𝑿(𝜴) = {𝒙𝟏, 𝒙𝟐, . . . 𝒙𝒌}, k ≤ n, la suite
d'événements 𝑨𝟏, 𝑨𝟐, . . . 𝑨𝒌 définies par 𝑨𝒊 = {𝝎 ∈
𝜴/𝑿(𝝎) = 𝒙𝒊} forme un système complet d'événement,
c'est à dire une partition de 𝜴.
Application 1 : On reprend l’exemple: Jet successif de deux Dés:
𝜴 = {(𝒊, 𝒋), 𝒊 = 𝟏, 𝟐. . 𝟔 𝒆𝒕 𝒋 = 𝟏, 𝟐. . 𝟔}
𝑋∶𝛺→ℝ
(𝑖, 𝑗) ↦ 𝑖 + 𝑗
est une v.a discrète avec X(𝛺) = {2,3, . . .12}

𝑨𝟏 = {𝝎 ∈ 𝜴/𝑿(𝝎) = 𝒙𝟏 } = {(𝐢, 𝐣)/𝐢 + 𝐣 = 𝟐}


= {(𝟏, 𝟏)}
𝑨𝟐 = {𝝎 ∈ 𝜴/𝑿(𝝎) = 𝒙𝟐 } = {(𝒊, 𝒋)/𝒊 + 𝒋 = 𝟑}
= { 𝟐, 𝟏 ; (𝟏, 𝟐)}

𝑨𝟏𝟏 = {𝝎 ∈ 𝜴/𝑿(𝝎) = 𝒙𝟏𝟏 } = {(𝒊, 𝒋)/𝒊 + 𝒋 = 𝟏𝟐}
= {(𝟔, 𝟔)}
𝟏𝟏
On vérifie bien que ራ 𝑨𝒊 = 𝜴
𝒊=𝟏
◼ 1.2. Loi de Probabilité
Définition 2: On appelle loi de probabilité de la v.a. discrète 𝑿
l'application:
𝑃x ∶ X(𝛺) → [0,1]
𝑥i ↦ P[𝑋 = 𝑥i ]
Proposition: σ𝑘𝑖=1 𝑃[𝑋 = 𝑥𝑖 ] = 1
𝑘 𝑘 𝑘

෍ 𝑃[𝑋 = 𝑥𝑖 ] = ෍ 𝑃[𝐴𝑖 ] = 𝑃 ራ 𝐴𝑖 =𝑃 𝛺 =1
𝑖=1 𝑖=1 𝑖=1
Application 2 : On prend le même exemple : Jet successif de deux
Dés: 𝜴 = {(𝒊, 𝒋), 𝒊 = 𝟏, 𝟐,... 𝟔 𝒆𝒕 𝒋 = 𝟏, 𝟐, ... 𝟔}:
𝑋∶ 𝛺 → ℝ
(𝑖, 𝑗) ↦ 𝑖 + 𝑗
est une v.a discrète avec 𝑿(𝛺) = {𝟐, 𝟑, . . . 𝟏𝟐}

𝑃[𝑋 = 2] = 𝑃[{(𝑖, 𝑗) ∈ 𝛺 𝑡𝑞 (𝑖 + 𝑗) = 2}] = 𝑃[{(1,1)}]


1 1 1
𝑃 𝑋=2 = × = 2
6 6 6
𝑃 𝑋 = 3 = 𝑃 𝑖, 𝑗 ∈ 𝛺 𝑡𝑞 𝑖 + 𝑗 = 3
1 1 2
𝑃[𝑋 = 3] = 𝑃 1,2 ; 2,1 = 2+ 2= 2
6 6 6
Application 2 : On considère le même exemple : Jet successif de
deux Dés: 𝜴 = {(𝒊, 𝒋), 𝒊 = 𝟏, 𝟐,... 𝟔 𝒆𝒕 𝒋 = 𝟏, 𝟐, ... 𝟔}:
𝑋∶ 𝛺 → ℝ
(𝑖, 𝑗) ↦ 𝑖 + 𝑗
est une v.a discrète avec 𝑿(𝛺) = {𝟐, 𝟑, . . . 𝟏𝟐}
𝑃[𝑋 = 4] = 𝑃[{(𝑖, 𝑗) ∈ 𝛺 𝑡𝑞 (𝑖 + 𝑗) = 4}]
𝑃 𝑋 = 4 = 𝑃[{ 1, 3 ; 3, 1 ; (2, 2)}]
1 1 1 3
𝑃 𝑋=4 = 2+ 2+ 2= 2
6 6 6 6

𝑃 𝑋 = 12 = 𝑃 𝑖, 𝑗 ∈ 𝛺 𝑡𝑞 𝑖 + 𝑗 = 12
1
𝑃[𝑋 = 12] = 𝑃 6, 6 = 2
6
Remarques
1. Une loi de probabilité est totalement définie si on
donne P[X= 𝑥i ] ∀𝑥i ∈ 𝑋(𝛺)
2. Toute application 𝑓 positive définie sur un
ensemble dénombrable à valeur dans ℝ et qui vérifie
Σ 𝑓 (𝑥i ) = 1 peut être considérée comme une loi de
probabilité.
Exemple 3 : On considère la v.a. X qui prend ses
valeurs dans {0, 1, 2, 3, 4}, l'application 𝑓 définie
𝑥 𝑥 4−𝑥
par: 𝑓 𝑥 = 𝐶4 0,3 0,7 est une loi de
probabilité.
◼ 1.3. Fonction de Répartition
Définition 3: On appelle fonction de répartition ou
fonction cumulative de la v.a 𝑿, la fonction F définie par :

𝐹 ∶ ℝ → [0, 1]
𝑥 ↦ 𝑃[𝑋 ≤ 𝑥]
Remarque: Si X est une v.a discrète tq 𝑋(𝛺) =
{𝑥1, 𝑥2, … 𝑥k}, alors ∀𝑥 ∈ ℝ

𝐹(𝑋) = ෍ 𝑃[𝑋 = 𝑥𝑖 ]
𝑥𝑖 ≤𝑥
Propriétés de la Fonction de Répartition

1) 𝑭 𝑿 ∈ [𝟎 , 𝟏 ]
2) lim 𝑭 𝑿 = 𝟏 et lim 𝑭 𝑿 = 𝟎
+∞ −∞

3) Une fonction de répartition est


toujours croissante : si 𝑥 ≤ 𝑦 ⇔
𝐹 𝑋 ≤ 𝐹(𝑌)
4) 𝑷 𝑿 > 𝒙 = 𝟏 − 𝑷 𝑿 ≤ 𝒙 = 𝟏 −
𝑭(𝑿)
5) 𝑷 𝒂 < 𝑿 ≤ 𝒃 = 𝑭 𝒃 − 𝑭 𝒂
◼ 1.4. Moments d’une Variable Aléatoire
Discrète
◼ 1.4.1. Espérance
Définition 4: L'espérance mathématique d'une v.a discrète
X est la somme de ses valeurs possibles pondérées par leurs
probabilités:

𝐸 𝑋 = ෍ 𝑥𝑖 𝑃[𝑋 = 𝑥𝑖 ]
𝑥𝑖 ∈𝑋(Ω)

Définition 5: Une V.A X est dite centrée si et seulement


si E(𝑋) = 0
Propriétés de l’Espérance

1) Si 𝒂 est une constante alors 𝐸 𝑎 = 𝑎

2) Pour tout ℎ une application de ℝ →



𝐸 ℎ 𝑋 = σ𝑥𝑖 ∈Ω ℎ 𝑥𝑖 𝑃[𝑋 = 𝑥𝑖 ]

3) 𝐸 𝑎 𝑋 = 𝑎 𝐸(𝑋)

4) 𝐸 𝑋 + 𝑏 = 𝐸 𝑋 + 𝑏
Propriétés de l’Espérance

5) L’espérance est un opérateur


linéaire : Pour toute suite de v.a , 𝑋𝑖 =
1,2 … 𝑛 définies sur le même espace
de probabilité
𝑛 𝑛

𝐸 ෍ 𝑎𝑖 𝑋𝑖 = ෍ 𝑎𝑖 𝐸(𝑋𝑖 )
𝑖=1 𝑖=1

6) Si 𝑌 = 𝑋 − 𝐸 𝑋 ⟹ 𝐸 𝑌 = 0
◼ 1.4.2. Variance et Ecart type
Définition 6: La variance d'une v.a X est l'espérance
des carrés des écarts à l'espérance de X. L'écart type
est la racine carré de la variance:
2
𝑉𝑎𝑟 𝑋 = 𝐸 𝑋−𝐸 𝑋

𝜎𝑋 = 𝑉𝑎𝑟(𝑋)

Définition 7: Une V.A X est dite réduite si et


seulement si Var(𝑋) = 1
Propriétés de la Variance
𝟐 𝟐
1) 𝑽𝒂𝒓 𝑿 = 𝑬 𝑿 − 𝑬 𝑿
Démonstration:
2
𝑉𝑎𝑟 𝑋 = 𝐸 𝑋−𝐸 𝑋
2 2
=𝐸 𝑋 + 𝐸 𝑋 − 2𝑋𝐸 𝑋
2 2
=𝐸 𝑋 + 𝐸 𝑋 − 𝐸 2𝑋𝐸 𝑋
2 2
=𝐸 𝑋 + 𝐸 𝑋 − 2𝐸 𝑋 𝐸 𝑋
2 2
=𝐸 𝑋 − 𝐸 𝑋
Propriétés de la Variance

2) 𝑽𝒂𝒓 𝒂 𝑿 = 𝒂𝟐 𝑽𝒂𝒓(𝑿)
Démonstration:
2
𝑉𝑎𝑟 𝑎 𝑋 = 𝐸 𝑎𝑋−𝐸 𝑎𝑋
2 2 2
=𝐸 𝑎 𝑋 + 𝐸 𝑎𝑋 − 2𝑎𝑋𝐸 𝑎𝑋
2 2 2 2
=𝑎 𝐸 𝑋 +𝑎 𝐸 𝑋 − 𝐸 2𝑎2 𝑋𝐸 𝑋
2
= 𝑎2 𝐸 𝑋 2 + 𝑎2 𝐸 𝑋 − 2𝑎2 𝐸 𝑋 𝐸 𝑋
2
= 𝑎2 𝐸 𝑋 2 − 𝑎2 𝐸 𝑋
2
= 𝑎2 𝐸 𝑋 2 − 𝐸 𝑋 = 𝑎2 𝑉𝑎𝑟(𝑋)
Propriétés de la Variance

3) 𝑽𝒂𝒓 𝑿 + 𝒂 = 𝑽𝒂𝒓(𝑿)
Démonstration:
2
𝑉𝑎𝑟 𝑋 + 𝑎 = 𝐸 (𝑋 + 𝑎) − 𝐸 𝑋 + 𝑎
= 𝐸 (𝑋 + 𝑎 − 𝐸 𝑋 − 𝑎)2
2 2
=𝐸 𝑋−𝐸 𝑋 = 𝐸 𝑋2 − 𝐸 𝑋
= 𝑉𝑎𝑟(𝑋)
Application 3 : Soit X une v.a discrète définie sur 𝑿(𝜴) =
{𝟏, 𝟐, 𝟑, 𝟒} tq
𝑥𝑖
∀ 𝑥𝑖 ∈ 𝑋 𝛺 : 𝑃[𝑋 = 𝑥𝑖 ] = , et soient les v.a: 𝑌 = 𝑋 3 , 𝑍 =
10
2𝑋, 𝑊 = 3𝑋 + 5
Calculez 𝑬(𝑿), 𝑬(𝒀), 𝑬(𝒁), 𝑬(𝑾), 𝑽𝒂𝒓(𝑿), 𝑽𝒂𝒓(𝒁) , 𝑽𝒂𝒓(𝑾)
Réponse: 𝐸 𝑋 = ෍ 𝑥 𝑃[𝑋 = 𝑥 ]
𝑖 𝑖
𝑥𝑖 ∈𝑋(Ω)
𝐸 𝑋 = 1× 𝑃 𝑋 = 1 + 2× 𝑃 𝑋 = 2
+(3 × 𝑃 𝑋 = 3 ) + (4 × 𝑃 𝑋 = 4 )
1 2 3 4
𝐸 𝑋 = 1× + 2× + 3 × + 4 ×
10 10 10 10
1 4 9 16 30
𝐸 𝑋 = + + + = =3
10 10 10 10 10
Application 3
Soit X une v.a discrète définie sur 𝑿(𝜴) = {𝟏, 𝟐, 𝟑, 𝟒} tq
𝑥𝑖
∀ 𝑥𝑖 ∈ 𝑋 𝛺 : 𝑃[𝑋 = 𝑥𝑖 ] = , et soient les v.a: 𝑌 = 𝑋 3 , 𝑍 =
10
2𝑋, 𝑊 = 3𝑋 + 5
Calculez 𝑬(𝑿), 𝑬(𝒀), 𝑬(𝒁), 𝑬(𝑾), 𝑽𝒂𝒓(𝑿), 𝑽𝒂𝒓(𝒁) , 𝑽𝒂𝒓(𝑾)
Réponse: 𝐸 𝑌 = ෍ 𝑦 𝑃[𝑌 = 𝑦 ]
𝑖 𝑖
𝑦𝑖 ∈𝑋(Ω)
𝐸 𝑌 = 1× 𝑃 𝑌 = 1 + 2× 𝑃 𝑌 = 2
+(3 × 𝑃 𝑌 = 3 ) + (4 × 𝑃 𝑌 = 4 )
13 23 33 43
𝐸 𝑌 = 1× + 2× + 3 × + 4 ×
10 10 10 10
1 16 81 256 354
𝐸 𝑌 = + + + = = 35,4
10 10 10 10 10
Application 3
Soit X une v.a discrète définie sur 𝑿(𝜴) = {𝟏, 𝟐, 𝟑, 𝟒} tq
𝑥𝑖
∀ 𝑥𝑖 ∈ 𝑋 𝛺 : 𝑃[𝑋 = 𝑥𝑖 ] = , et soient les v.a: 𝑌 = 𝑋 3 , 𝑍 =
10
2𝑋, 𝑊 = 3𝑋 + 5
Calculez 𝑬(𝑿), 𝑬(𝒀), 𝑬(𝒁), 𝑬(𝑾), 𝑽𝒂𝒓(𝑿), 𝑽𝒂𝒓(𝒁) , 𝑽𝒂𝒓(𝑾)
Réponse:
𝐸 𝑍 = 𝐸 2𝑋 = 2 𝐸 𝑋 = 6

𝐸 𝑊 = 𝐸 3𝑋 + 5 = 3 𝐸 𝑋 + 5 = 9 + 5 = 14

𝑉𝑎𝑟 (𝑋) = 𝐸(𝑋²) − (𝐸(𝑋))²

𝐸 𝑋2 = ෍ 𝑥𝑖2 𝑃 𝑋 = 𝑥𝑖
𝑥𝑖 ∈𝑋 Ω
Application 3
Soit X une v.a discrète définie sur 𝑿(𝜴) = {𝟏, 𝟐, 𝟑, 𝟒} tq
𝑥𝑖
∀ 𝑥𝑖 ∈ 𝑋 𝛺 : 𝑃[𝑋 = 𝑥𝑖 ] = , et soient les v.a: 𝑌 = 𝑋 3 , 𝑍 =
10
2𝑋, 𝑊 = 3𝑋 + 5
Calculez 𝑬(𝑿), 𝑬(𝒀), 𝑬(𝒁), 𝑬(𝑾), 𝑽𝒂𝒓(𝑿), 𝑽𝒂𝒓(𝒁) , 𝑽𝒂𝒓(𝑾)
Réponse:
𝐸 𝑋2 = ෍ 𝑥𝑖2 𝑃 𝑋 = 𝑥𝑖
𝑥𝑖 ∈𝑋 Ω

𝐸 𝑋 2 = 12 P[X = 1] + 22 P[X = 2] + 32 P[X


= 3] + 42 P[X = 4]
2 2
1 2
2 2
3 2
4
𝐸 𝑋 =1 × +2 × +3 × +4 ×
10 10 10 10
2
1 2 3 4
𝐸 𝑋 =1× +4× +9 × + 16 ×
10 10 10 10
Application 3
Soit X une v.a discrète définie sur 𝑿(𝜴) = {𝟏, 𝟐, 𝟑, 𝟒} tq
𝑥𝑖
∀ 𝑥𝑖 ∈ 𝑋 𝛺 : 𝑃[𝑋 = 𝑥𝑖 ] = , et soient les v.a: 𝑌 = 𝑋 3 , 𝑍 =
10
2𝑋, 𝑊 = 3𝑋 + 5
Calculez 𝑬(𝑿), 𝑬(𝒀), 𝑬(𝒁), 𝑬(𝑾), 𝑽𝒂𝒓(𝑿), 𝑽𝒂𝒓(𝒁) , 𝑽𝒂𝒓(𝑾)
Réponse:
2
1 8 27 64 100
𝐸 𝑋 = + + + = = 10
10 10 10 10 10
𝑉𝑎𝑟 (𝑋) = 𝐸(𝑋²) − (𝐸(𝑋))² = 10 − (3)² = 1

𝑉𝑎𝑟 (𝑍) = 𝑉𝑎𝑟(2𝑋) = 4 𝑉𝑎𝑟(𝑋) = 4

𝑉𝑎𝑟 (𝑊) = 𝑉𝑎𝑟(3𝑋 + 5) = 9 𝑉𝑎𝑟(𝑋) = 9


◼ 1.4.3. Moments Non Centrés et Moments Centrés
Définition 8: On appelle moment non centré d'ordre 𝑟
d'une v.a 𝑋 le nombre:

𝜇𝑟 = 𝐸 𝑋 𝑟
Définition 9: On appelle moment centré d'ordre 𝑟 d'une
v.a 𝑋 le nombre:
𝑟
𝑀𝑟 = 𝐸 𝑋−𝐸 𝑋

Remarque: 𝑬(𝑿) = 𝝁₁ ; 𝑽𝒂𝒓(𝑿) = 𝑴₂


Application 4 : On considère un dé cubique truqué dont les faces
sont numérotées de 1 à 6 et on note X la variable aléatoire donnée
par le numéro de la face du dessus. On suppose que le dé est truqué
de sorte que la probabilité d’obtenir une face est proportionnelle au
numéro inscrit sur cette face.
1. Déterminez la loi de X, calculez son espérance.
Réponse: X prend ses valeurs dans {1,2, ….,6}
On suppose que la probabilité d’obtenir une face est proportionnelle
au numéro inscrit sur cette face.
𝑃 𝑋 = 𝑘 = 𝑘 𝑎 avec 𝑎 ∈ 𝑅
Puisque PX est une loi de probabilité, donc, on a : 6
σ6𝑘=1 𝑃(𝑋 = 𝑘) = 1 donc σ6𝑘=1 𝑘 𝑎 = 1 donc 𝑎 ෍ 𝑘 = 1
𝑘=1
(Somme d’une suite arithmétique de 1er terme et de raison 1 et
nombre de termes 6)
Application 4
On considère un dé cubique truqué dont les faces sont numérotées de
1 à 6 et on note X la variable aléatoire donnée par le numéro de la
face du dessus. On suppose que le dé est truqué de sorte que la
probabilité d’obtenir une face est proportionnelle au numéro inscrit
sur cette face.
1. Déterminez la loi de X, calculez son espérance.
Réponse:
6
𝑛𝑏𝑟𝑒 𝑑𝑒 𝑡𝑒𝑟𝑚𝑒𝑠 (1𝑒𝑟 𝑡𝑒𝑟𝑚𝑒 + 𝐷𝑒𝑟𝑛𝑖𝑒𝑟 𝑡𝑒𝑟𝑚𝑒)
෍𝑘 =
2
𝑘=1
6
6 × (1 + 6)
෍𝑘 =
2
𝑘=1
6 ×7 1
Donc 𝑎 × =1 donc 𝑎 =
2 21
Application 4
On considère un dé cubique truqué dont les faces sont numérotées de 1 à 6
et on note X la variable aléatoire donnée par le numéro de la face du
dessus. On suppose que le dé est truqué de sorte que la probabilité
d’obtenir une face est proportionnelle au numéro inscrit sur cette face.
1. Déterminez la loi de X, calculez son espérance.
1
Réponse: 𝑃 𝑋 = 𝑘 = 𝑘 𝑎 = 𝑘 On a donc la loi de X :
21
𝒌 1 2 3 4 5 6
𝟏 𝟐 𝟑 𝟒 𝟓 𝟔
𝑷(𝑿 = 𝒌)
𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏
𝟔
𝟏 𝟐 𝟑 𝟒
𝑬 𝑿 = ෍ 𝒌 𝑷(𝑿 = 𝒌) = 𝟏 × + 𝟐× + 𝟑× + 𝟒×
𝒌=𝟏
𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏
𝟓 𝟔 𝟗𝟏
+ 𝟓× + 𝟔× = = 𝟒, 𝟑𝟑
𝟐𝟏 𝟐𝟏 𝟐𝟏
Application 4
On considère un dé cubique truqué dont les faces sont numérotées de 1 à 6
et on note X la variable aléatoire donnée par le numéro de la face du
dessus. On suppose que le dé est truqué de sorte que la probabilité
d’obtenir une face est proportionnelle au numéro inscrit sur cette face.
2. Déterminez la fonction de répartition de X.
Réponse: Fonction de répartition de X: 𝑭 𝒌 = 𝑷(𝑿 ≤ 𝒌)

𝒌 1 2 3 4 5 6
𝟏 𝟐 𝟑 𝟒 𝟓 𝟔
𝑷(𝑿 = 𝒌)
𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏
𝟏 𝟑 𝟔 𝟏𝟎 𝟏𝟓
𝑷(𝑿 ≤ 𝒌) 𝟏
𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏
Application 4
On considère un dé cubique truqué dont les faces sont numérotées de 1 à 6 et on
note X la variable aléatoire donnée par le numéro de la face du dessus. On
suppose que le dé est truqué de sorte que la probabilité d’obtenir une face est
proportionnelle au numéro inscrit sur cette face.
1
3. On pose 𝑌 = . Déterminez la loi de Y, et son espérance.
𝑋
Réponse:
𝟏 𝟏 1 1 1 1 1
𝒀= donc 𝐤′ = Y prend donc ses valeurs dans 1, , , , ,
𝑿 𝒌 2 3 4 5 6
𝟏 𝟏 𝟏 𝟏 𝟏
𝒌′ 𝟏
𝟐 𝟑 𝟒 𝟓 𝟔
𝟏 𝟐 𝟑 𝟒 𝟓 𝟔
𝑷(𝒀 = 𝒌′)
𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏 𝟐𝟏
𝟔 𝟏 𝟏 𝟐 𝟏 𝟑 𝟏 𝟒
𝑬 𝒀 = ෍ 𝒌′ 𝑷(𝒀 = 𝒌′) = 𝟏 × 𝟐𝟏 + 𝟐 × 𝟐𝟏 + 𝟑 × 𝟐𝟏 + 𝟒 × 𝟐𝟏
𝒌′=𝟏 𝟏 𝟓 𝟏 𝟔 𝟔 𝟐
+ × + × = = = 𝟎, 𝟐𝟖𝟔
𝟓 𝟐𝟏 𝟔 𝟐𝟏 𝟐𝟏 𝟕
Section 2: Lois Discrètes
Usuelles
◼ 2.1. Loi Uniforme Discrète
Définition 1: Une v.a 𝑿 suit la loi uniforme discrète si et
seulement si:
𝑿(𝜴) = {𝟏, 𝟐, . . . , 𝒏}
ቐ 1
𝑃[𝑋 = 𝑘] = ∀ 𝑘 ∈ 𝑋(𝛺)
𝑛
Théorème 1: Si X suit la loi uniforme discrète

𝒏+𝟏 𝒏𝟐 − 𝟏
𝑬 𝑿 = 𝑽𝒂𝒓 𝑿 =
𝟐 𝟏𝟐
Démonstration:
𝒏 𝒏
𝟏 𝟏 (𝒏 + 𝟏)
𝑬 𝑿 = ෍𝒌 = ෍𝒌 =
𝒏 𝒏 𝟐
𝒊=𝟏 𝒊=𝟏
𝒏
𝒏(𝒏 + 𝟏)
𝒑𝒖𝒊𝒔𝒒𝒖𝒆 ෍ 𝒌 =
𝒊=𝟏 𝟐
𝒏 𝒏
𝟐
𝟏 𝟐
𝟏 𝟐
(𝒏 + 𝟏)(𝟐𝒏 + 𝟏)
𝑬 𝑿 = ෍ 𝒌 × = ෍𝒌 =
𝒏 𝒏 𝟔
𝒊=𝟏 𝒊=𝟏
𝒏
𝒏(𝒏 + 𝟏)(𝟐𝒏 + 𝟏)
𝟐
𝒑𝒖𝒊𝒔𝒒𝒖𝒆 ෍ 𝒌 =
𝒊=𝟏 𝟔
𝟐 𝟐
𝑽𝒂𝒓 𝑿 = 𝑬 𝑿 − 𝑬 𝑿
𝟐
𝒏 + 𝟏 𝟐𝒏 + 𝟏 𝒏+𝟏 𝒏𝟐 − 𝟏
= − =
𝟔 𝟐 𝟏𝟐
Application 5 : Une boite contient 5 jetons portant le numéro 1, 5
jetons portant le numéro 2 et 5 jetons portant le numéro 3. On tire
au hasard un jeton dans la boite et on note X le numéro du jeton tiré.
Quelle est la loi de probabilité de X ?
Réponse: On a 3 éventualités qui sont 1, 2 et 3. On a :
𝟓 𝟏
𝑷 𝑿=𝟏 = =
𝟏𝟓 𝟑
𝟓 𝟏
𝑷 𝑿=𝟐 = =
𝟏𝟓 𝟑
𝟓 𝟏
𝑷 𝑿=𝟑 = =
𝟏𝟓 𝟑
𝟏
Donc toutes les probabilités sont égales à
𝟑

Donc la loi de probabilité de X est la loi uniforme discrète.


◼ 2.2. Loi de Bernoulli 𝓑(𝒑)
Définition 2: Si 𝑬 est une expérience aléatoire tq 𝜴 =
{𝑬𝟏 , 𝑬𝟐 }, 𝑷(𝑬𝟏 ) = 𝒑 et 𝑷(𝑬𝟐 ) = (𝟏 − 𝒑), la v.a 𝑿
définie sur (𝓟, 𝜴) par 𝑿(𝑬𝟏 ) = 𝟏 et 𝑿(𝑬𝟐 ) = 𝟎 suit une
loi de Bernoulli de paramètre 𝒑 et on note: 𝑿 ↝ 𝓑(𝒑)
En d'autres termes, une v.a 𝑋 suit une loi de Bernoulli de
paramètre 𝑝 si :
✓ 𝑋(𝛺) = {0, 1}

𝑃 𝑋=1 =𝑝
✓ቊ ⇔ ∀𝑘 ∈ 𝑋 𝛺 :
𝑃 𝑋 =0 =1−𝑝

𝑃[𝑋 = 𝑘] = 𝑝𝑘 (1 − 𝑝)1−𝑘
Exemple 1:
1
1) E: Jeux de pile ou face; 𝛺 = {𝑃, 𝐹}; 𝑝 = 𝑋(𝑃) =;
2
1, 𝑋(𝐹) = 0
2) E: Tirage d'une boule dans une urne qui contient 5 boules
5
blanches et 4 boules noires, 𝛺 = {𝐵, 𝑁} ; 𝑝 = ;
9
𝑋(𝐵) = 1; 𝑋(𝑁) = 0
Théorème 2 : Si 𝑋 ↝ ℬ(𝑝) alors ces moments non
centrés et centrés sont respectivement:

𝐸 𝑋 =𝑝 𝑉𝑎𝑟 𝑋 = 𝑝 (1 − 𝑝)
Application 6 : Un jeu de loterie consiste à un unique tirage au sort
d’une seule boule dans une urne. Cette urne contient 4 boules
blanches et 6 boules noirs. Soit la v.a. X « avoir une boule blanche »
pour gagner une somme d’argent de 100 DT.
Quelle est la loi de probabilité de X ?
Réponse: On a 2 éventualités
𝟒
Gain : avoir une boule blanche: = 𝟎, 𝟒
𝑿 𝟏𝟎
𝟔
Perte : avoir une boule noir : = 𝟎, 𝟔
𝟏𝟎
Donc nous avons deux résultats complémentaires: succès et
échec
Donc la loi de probabilité de X est la loi de Bernoulli.
◼ 2.3. Loi Binomiale 𝓑(𝒏 ; 𝒑)
Définition 3: Une v.a X suit une loi binomiale de
paramètres (𝒏 ; 𝒑) et on note 𝑿 ↝ 𝓑 (𝒏 ; 𝒑) si 𝑿(𝜴) =
{𝟎, 𝟏, 𝟐. . . 𝒏}, et ∀𝒌 ∈ 𝑿(𝜴)

𝒌 𝒌 𝒏−𝒌
𝑷𝑿 = 𝒌 = 𝑪𝒏 𝒑 (𝟏 − 𝒑)
Cette loi est utilisée chaque fois qu'on veut déterminer la
probabilité qu'un événement 𝐴 se réalise 𝑘 fois lors de n
répétitions indépendantes d'une expérience aléatoire 𝐸, avec
la probabilité 𝑝 de réalisation de 𝐴 reste constante au cours
des 𝑛 répétitions.
Remarques:
1. On vérifie bien que la somme des probabilités est égale à
1, en effet:
σ𝑛𝑘=0 𝑃[𝑋 = 𝑘] = σ𝑛𝑘=0 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 =
𝑝 + 1 − 𝑝 = 1 (d’après la formule de binôme de
Newton)
2. 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 est le terme général de la formule de
binôme de Newton, d'où la nomination loi binomiale.
3. Si 𝑝 = 0,5 la loi binomiale est symétrique, c’est-à-dire
𝑃 𝑋 = 𝑘 = 𝑃[𝑋 = 𝑛 − 𝑘]
Exemple 2:
On considère 𝑛 tirages avec remise (tirage
bernoullien) dans une population dont la
proportion des individus ayant une modalité M
est 𝑝.
La v.a X définie par 𝑋 = nombre d'individus
parmi qui possèdent la modalité 𝑴 est une loi
binomiale 𝓑 (𝒏 ; 𝒑)
Propriétés
𝑛
σ
1. 𝑿 ↝ 𝓑 (𝒏 ; 𝒑) ⟺ 𝑋 = 𝑖=1 𝑋𝑖 où 𝑋𝑖 Identiquement
et Indépendamment Distribuées 𝓑 (𝒑) qu’on note :
𝐼𝐼𝐷 𝓑(𝒑)
2. 𝑿 ↝ 𝓑 (𝒏 ; 𝒑) alors
𝐸 𝑋 =𝑛𝑝 𝑉𝑎𝑟 𝑋 = 𝑛 𝑝 (1 − 𝑝)
3. L'ensemble des lois binomiales est stable par addition
indépendante : Si 𝑋 et 𝑌 sont deux v.a indépendantes qui
suivent respectivement ℬ(𝑛 ; 𝑝) et ℬ(𝑚 ; 𝑝), alors la v.a
définie par :
𝒁 = 𝑿 + 𝒀 ↝ 𝓑(𝒏 + 𝒎 ; 𝒑)
Application 7 : Dans une entreprise, une machine produit des
pièces dont les dimensions très précises doivent être respectées. On
prélève dans cette production, successivement et avec remise n pièces
et on note X la v.a. représentant le nombre de pièces défectueuses.
Après un premier réglage, on constate une proportion de 30% de
pièces défectueuses.
Pour n = 5 :
1. Quelle est la loi de probabilité de la v.a. X ? Calculer son
espérance et son écart type.
2. Quelle est la probabilité que deux pièces soient défectueuses ?
3. Quelle est la probabilité qu’il n’y ait pas plus d’une pièce
défectueuse ?
Application 7
1. Quelle est la loi de probabilité de la v.a. X ? Calculer son
espérance et son écart type.
Pièce défectueuse: 𝟎, 𝟑
On a
Pièce non défectueuse: 𝟏 − 𝟎, 𝟑 = 𝟎, 𝟕
𝒏 = 𝟓 : on répète cette expérience aléatoire 𝒏 fois IID
Donc X suit la loi Binomiale de paramètre 𝒏 = 𝟓 et 𝒑 =
𝟎, 𝟑 et on note : 𝑿 ↝ 𝑩 𝟓 ; 𝟎, 𝟑
𝑃 𝑿 = 𝑘 = 𝐶𝑛𝑘 𝑝𝑘 1 − 𝑝 𝑛−𝑘
= 𝐶𝟓𝑘 𝟎, 𝟑𝑘 1 − 𝟎, 𝟑 𝟓−𝑘

Espérance: 𝑬 𝑿 = 𝒏 𝒑 = 𝟓 × 𝟎, 𝟑 = 𝟏, 𝟓
Ecart-type : 𝜎𝐗 = 𝑉(𝐗) = 𝒏 𝒑 (𝟏 − 𝒑) =
𝟓 × 𝟎, 𝟑 × (𝟏 − 𝟎, 𝟑) = 𝟏, 𝟎𝟓 = 𝟏, 𝟎𝟐𝟓
Application 7
2. Quelle est la probabilité que deux pièces soient défectueuses ?

𝑃 𝑿 = 𝟐 = 𝐶𝟓𝟐 𝟎, 𝟑𝟐 1 − 𝟎, 𝟑 𝟓−𝟐

𝑃 𝑿 = 𝟐 = 𝐶𝟓𝟐 𝟎, 𝟑𝟐 𝟎, 𝟕𝟑 = 𝟎, 𝟑𝟎𝟗

3. Quelle est la probabilité qu’il n’y ait pas plus d’une pièce
défectueuse ?
𝑃 𝑿 ≤ 𝟏 = 𝑷 𝑿 = 𝟎 + 𝑷(𝑿 = 𝟏)
𝑃 𝑿 ≤ 𝟏 = 𝐶𝟓𝟎 𝟎, 𝟑𝟎 1 − 𝟎, 𝟑 𝟓−𝟎 + 𝐶𝟓𝟏 𝟎, 𝟑𝟏 1 − 𝟎, 𝟑 𝟓−𝟏

𝑃 𝑿 ≤ 𝟏 = 𝐶𝟓𝟎 𝟎, 𝟑𝟎 𝟎, 𝟕𝟓 + 𝐶𝟓𝟏 𝟎, 𝟑𝟏 𝟎, 𝟕𝟒

𝑃 𝑿 ≤ 𝟏 = 𝟎, 𝟏𝟔𝟖 + 𝟎, 𝟑𝟔 = 𝟎, 𝟓𝟐𝟖
◼ 2.4. Loi de Poisson
◼ 2.4.1. Présentation et définition
La loi de Poisson est considérée comme la loi la plus importante et la plus
générale des lois discrètes.
Cette loi n'est pas adaptée à un modèle probabiliste particulier, elle est
valable pour la modélisation d'un grand nombre de phénomènes.
Cette loi est généralement utilisée lorsque on s'intéresse au nombre de
réalisations d'un événement très rare sur un grand nombre d'observations,
par exemple le nombre de pièces défectueuses dans un lot très important.
Ainsi, la loi de Poisson peut remplacer une loi binomiale ℬ(𝑛 ; 𝑝) si
l'échantillon n est important et la proportion p est faible.
C'est pourquoi la loi de Poison est souvent appelée loi des petits nombres
ou la loi des événements rares.
La loi de Poisson permet de décrire le nombre de
réalisations, sur un intervalle de temps T, d'un
événement E dont la probabilité de réalisation
✓ Par unité de temps est p ;
✓ Par unité de temps est indépendante du nombre
des réalisations antérieurs ;
✓ Plus qu'une fois par unité de temps tend vers zéro.
Exemple 3:

o Appels téléphoniques sur une ligne.

o Arrivées de clients à un comptoir.

o Nombre de réservations sur un vol à destination le Caire.


Définition 4: Une v.a X suit une loi Poisson de paramètres 𝝀 et on
note 𝑋 ↝ 𝑃(𝜆) 𝒔𝒊 𝑿(𝛺) = 𝐼𝑁 𝒆𝒕 ∀𝑘 ∈ 𝑋(𝛺) :

𝝀𝒌 −𝝀
𝑷𝑿 = 𝒌 = 𝒆
𝒌!
Remarque: On vérifie bien que la somme des probabilités est égale à 1,
en effet:
+∞ +∞ +∞
𝑘 𝑘
𝜆 −𝜆 𝜆
෍ 𝑃[𝑥 = 𝑘] = ෍ 𝑒 = 𝑒 −𝜆 ෍ = 𝑒 −𝜆 𝑒 𝜆
𝑘! 𝑘!
𝑘=0 𝑘=0 𝑘=0
(Développement limité de la fonction exponentielle)
Théorème 4: L'ensemble des lois de Poisson est
stable par addition indépendante: Si X et Y sont deux
v.a indépendantes qui suivent respectivement les lois
𝓟 (𝛌𝟏) et 𝓟 (𝛌𝟐) alors la v.a 𝐙 = 𝐗 + 𝐘 ↝ P(𝛌𝟏 +
𝛌𝟐 )
◼ 2.4.2. Caractéristiques
Théorème 5: Si v.a 𝑿 ↝ 𝓟 (𝝀) alors:

𝑬 𝑿 = 𝑽𝒂𝒓 𝑿 = 𝝀
Application 8 : Dans un guichet d’assurance, le nombre moyen de
clients qui arrivent pendant 15 minutes est égal à 3. Déterminez les
probabilités suivantes :
1. La probabilité d’avoir plus de 2 clients pendant 15 minutes.
Réponse: 𝜆𝑥 𝑒 −𝜆
𝑋 ↝Ρ 𝜆 ∶ 𝑃 𝑋=𝑥 =
𝑥!
X : nombre de clients qui arrivent pendant 15 minutes
𝑋 ↝ Ρ 3 : 𝜆 = 3 car t = 15 minutes
3𝑥 𝑒 −3
𝑋 ↝Ρ 3 ∶ 𝑃 𝑋=𝑥 =
𝑥!
𝑃 𝑋 >2 =1−𝑃 𝑋 ≤2
=1− 𝑃 𝑋 =0 +𝑃 𝑋 =1 +𝑃 𝑋 =2
30 𝑒 −3 31 𝑒 −3 32 𝑒 −3
=1− + + = 0,577
0! 1! 2!
Application 8
Dans un guichet d’assurance, le nombre moyen de clients qui arrivent
pendant 15 minutes est égal à 3. Déterminez les probabilités
suivantes :
2. La probabilité d’avoir au moins 1 client pendant 10 minutes.
Réponse: X : nombre de clients qui arrivent pendant 10 minutes
𝜆 = 3 avec t = 15 minutes lorsque t = 10 minutes : 𝜆 =?
Donc 𝜆 = 2 car t = 10 minutes
2𝑥 𝑒 −2
𝑋 ↝Ρ 2 ∶ 𝑃 𝑋=𝑥 =
𝑥!
𝑃 𝑋 ≥1 =1−𝑃 𝑋 <1 =1−𝑃 𝑋 =0
20 𝑒 −2
=1−
0!
= 0,865
Application 8
Dans un guichet d’assurance, le nombre moyen de clients qui arrivent
pendant 15 minutes est égal à 3. Déterminez les probabilités
suivantes :
3. La probabilité d’avoir au plus 3 clients pendant 30 minutes.
Réponse: X : nombre de clients qui arrivent pendant 30 minutes
𝜆 = 3 avec t = 15 minutes lorsque t = 30 minutes : 𝜆 =?
Donc 𝜆 = 6 car t = 30 minutes
6𝑥 𝑒 −6
𝑋 ↝Ρ 6 ∶ 𝑃 𝑋=𝑥 =
𝑥!
𝑃 𝑋 ≤ 3 = 𝑃 𝑋 = 0 + 𝑃 𝑋 = 1 + 𝑃 𝑋 = 2 + 𝑃[𝑋 = 3]
60 𝑒 −6 61 𝑒 −6 62 𝑒 −6 63 𝑒 −6
= + + +
0! 1! 2! 3!
= 0,151
Approximation de la loi Binomiale par la loi de
Poisson

Théorème 6: Si une v.a 𝑿 ↝ ℬ (𝒏 ; 𝒑) tel


que 𝒏 ⟶ +∞ et 𝑝 faible de façon que
𝒏 𝒑 tend vers une constante 𝝀, alors 𝑿 ⟶
𝓟 (𝝀)

En pratique, on remplace la loi Binomiale par


une loi de Poisson dès que 𝑛 > 30 et 𝑛 𝑝 <
5 ou bien dès que 𝑛 > 50 et 𝑝 < 0,1.
Application 9 : On suppose que le pourcentage de
gauchers est de 1%. Soit X la v.a. prenant comme valeurs
le nombre de gauchers dans un échantillon de 200 personnes
choisies au hasard.
1. Quelle est la loi de probabilité de la v.a. X ?
2. Par quelle loi peut-on approximer la loi de probabilité de
la v.a. X ?
3. Quelle est la probabilité pour qu’il y ait plus de 4
gauchers dans l’échantillon ?
Application 9
1. Quelle est la loi de probabilité de la v.a. X
Un gaucher: 𝟎, 𝟎𝟏
On a Un non gaucher: 𝟏 − 𝟎, 𝟎𝟏 = 𝟎, 𝟗𝟗
on répète cette expérience aléatoire 𝒏 fois IID
Donc X suit la loi Binomiale de paramètre 𝒏 = 𝟐𝟎𝟎 et 𝒑 =
𝟎, 𝟎𝟏 et on note : 𝑿 ↝ 𝑩 𝟐𝟎𝟎 ; 𝟎, 𝟎𝟏
2. Par quelle loi peut-on approximer la loi de probabilité de la v.a. X
?
On a 𝒏 = 𝟐𝟎𝟎 > 𝟓𝟎 et 𝒑 = 𝟎, 𝟎𝟏 < 𝟎, 𝟏
Alors, on peut approximer la loi de probabilité de la v.a. X
par la loi de Poisson de paramètre
𝝀 = 𝒏 𝒑 = 𝟐𝟎𝟎 × 𝟎, 𝟎𝟏 = 𝟐
Application 9
3. Quelle est la probabilité pour qu’il y ait plus de 4 gauchers dans
l’échantillon ? 2𝑥 𝑒 −2
𝑋 ↝𝓟 2 ∶ 𝑃 𝑋=𝑥 =
𝑥!
𝑃 𝑋 >4 =1−𝑃 𝑋 ≤4
=1− 𝑃 𝑋 =0 +𝑃 𝑋 =1 +𝑃 𝑋 =2 +𝑃 𝑋 =3 +𝑃 𝑋 =4
20 𝑒 −2 21 𝑒 −2 22 𝑒 −2 23 𝑒 −2 24 𝑒 −2
=1− + + + +
0! 1! 2! 3! 4!
8 𝑒 −2 16 𝑒 −2
= 1 − 𝑒 −2 + 2 𝑒 −2 + 2 𝑒 −2 + +
6 24
8 𝑒 −2 4 𝑒 −2
= 1 − 𝑒 −2 + 2 𝑒 −2 + 2 𝑒 −2 + +
6 6
= 1 − 𝑒 −2 + 2 𝑒 −2 + 2 𝑒 −2 + 2 𝑒 −2
= 1 − 0,947 = 0,053 = 5,3%
Section 3: Variables
Aléatoires et Lois
Continues Usuelles
◼ 3.1. Variable Aléatoire Continue
◼ 3.1.1. Définition et Propriétés
Définition 1: Une variable aléatoire 𝑿 est continue
si et seulement si l'ensemble de ses valeurs possibles
est un intervalle ou union d'intervalle de ℝ.
Propriétés fondamentales:
1)Une v.a 𝑋 continue et caractérisée par une fonction
de répartition continue et dérivable sur tout ℝ.
2)Si X est une v.a continue, alors la probabilité
attachée à un point est nul.
Définition 2: Probabilité Attachée à un intervalle : on appelle
probabilité de la v.a X sur l’intervalle [𝒂, 𝒃] et on note 𝑷𝑿
[a, 𝒃] la quantité :

𝑷𝑿 𝒂, 𝒃 = 𝑷 𝒂 ≤ 𝑿 ≤ 𝒃 = 𝑭 𝒃 − 𝑭(𝒂)
Où F est la fonction de répartition de la variable X.
Définition 3 : Densité de probabilité moyenne sur [a, b]: La
densité de probabilité linéaire moyenne d'une v.a 𝑋 sur
[𝑎, 𝑏] qu’on note 𝚫𝐗[𝐚, 𝐛] est la probabilité moyenne de 𝑋
sur l'intervalle [𝑎, 𝑏] qui est donnée par:
𝑷𝑿 [𝒂, 𝒃] 𝑭 𝒃 − 𝑭(𝒂)
∆𝑿 𝒂, 𝒃 = =
𝒃−𝒂 𝒃−𝒂
Définition 4: Densité de Probabilité en un point = Densité de
distribution de Probabilité: la densité de distribution de
probabilité (d.d.p) de la v.a 𝑋 au point 𝑥 noté 𝑓(𝑥), est la
valeur limite de densité de probabilité moyenne sur [𝑥, 𝑥 +
𝑑𝑥]

𝒇 𝒙 = 𝐥𝐢𝐦 ∆𝑿 [ 𝒙 , 𝒙 + 𝒅𝒙]
𝒅𝒙 ⟶𝟎

𝒇 𝒙 est une probabilité par unité de longueur au voisinage


de 𝑥 et non pas 𝑃[𝑋 = 𝑥]
Propriétés

1) 𝐟 𝐱 = 𝐅′(𝐗)

2) 𝐟 𝐱 ≥ 0

+∞
3)‫׬‬−∞ 𝒇 𝒙 𝒅𝒙 = 𝟏

𝒃
4)‫𝒇 𝒂׬‬ 𝒙 𝒅𝒙 = 𝑭 𝒃 − 𝑭(𝒂)
Propriétés

𝒙
5) 𝐅 𝐗 = ‫׬‬−∞ 𝒇 𝒕 𝒅𝒕

6) Toute fonction positive dont l'intégral


sur ℝ est égal à 1 est une d. d. p c’est-
à-dire :
𝑓 𝑥 est une d. d. p si et seulement si :
𝑓 𝑥 ≥0
ቐ +∞
‫׬‬−∞ 𝑓 𝑥 𝑑𝑥 = 1
Représentation graphique:
❖La représentation graphique d’une d. d. p est
un polygone de fréquence lié à un histogramme
dont les amplitudes des intervalles tendent vers
zéro.
La d. d. p est une fonction définie sur ℝ dans
l'intervalle [0,1] dont l'intégrale sur ℝ est égale à
1.
Ainsi tout graphique qui vérifie ces conditions peut
être considéré comme une représentation d'une d. d.
p, exemple:

Figure 1
𝑥
Etant donné que 𝐹 𝑋 = ‫׬‬−∞ 𝑓 𝑡 𝑑𝑡 la zone
hachurée sur la courbe est 𝐹(𝑥0 )
❖Une fonction de répartition est aussi une fonction définie
sur ℝ dans l'intervalle [0,1], mais elle est croissante et
vérifie:
lim 𝐹(𝑋) = 0
𝑥→ −∞
lim 𝐹(𝑋) = 1
𝑥→ +∞
Ainsi sa représentation graphique est toujours de la forme:

Figure 2
▪3.1.2. Caractéristiques d’uneVariable Aléatoire Continue

+∞
1) Espérance : 𝐸 𝑋 = ‫׬‬−∞ 𝑥 𝑓 𝑥 𝑑𝑥

2)Variance :
2
𝑉𝑎𝑟 𝑋 = 𝐸 𝑋 − 𝐸 𝑋
2 2
=𝐸 𝑋 − 𝐸 𝑋
2 +∞
Avec 𝐸 𝑋 = ‫׬‬−∞ 𝑥 2 𝑓 𝑥 𝑑𝑥

3) Moment non centré d'ordre 𝑟 : 𝐸 𝑋 𝑟 =


+∞ 𝑟
‫׬‬−∞ 𝑥 𝑓 𝑥 𝑑𝑥
▪3.1.2. Caractéristiques d’uneVariable Aléatoire Continue

4) Moment centré d’ordre 𝑟 : 𝐸൫𝑋 −


𝑟 +∞ 𝑟
𝐸 𝑋 ൯ = ‫׬‬−∞ 𝑥 − 𝐸 𝑋 𝑓 𝑥 𝑑𝑥

5) Mode : si 𝑓 𝑥 est continue, dérivable


alors le mode 𝑀𝑜 de X est tel que :
𝑓′ 𝑀𝑜 = 0 et 𝑓′′ 𝑀𝑜 ≤ 0

6) Les propriétés de l'espérance, de la variance


et de la covariance que nous avons établi pour
les v.a discrètes restent valables pour les v.a
continues.
Application 10: Loi Exponentielle : Soit une v.a continue dont la
d.d.p est:
𝜃 𝑒 (−𝜃 𝑥) 𝑠𝑖 𝑥 ≥ 0 avec 𝜃 > 0
𝑓 𝑥 =ቊ
0 𝑠𝑖 𝑥 < 0
1. Vérifiez que 𝑓 𝑥 est une d. d. p
2. Calculez E(X), Var(X) et F(X)
Réponse:
𝒇 𝒙 ≥𝟎
1. 𝒇 𝒙 est une d. d. p si et seulement si : ቐ +∞
‫׬‬−∞ 𝒇 𝒙 𝒅𝒙 = 𝟏
𝒇 𝒙 ≥ 𝟎 car la fonction exponentielle est positive
+∞ +∞
+∞
න 𝒇 𝒙 𝒅𝒙 = න 𝜽 𝒆(−𝜽 𝒙) 𝒅𝒙 = −𝒆(−𝜽 𝒙) 𝟎
−∞ 𝟎
= −𝒆−∞ − −𝒆−𝜽𝟎 =𝟎+𝟏=𝟏
Application 10
𝜃 𝑒 (−𝜃 𝑥) 𝑠𝑖 𝑥 ≥ 0 avec 𝜃 > 0
𝑓 𝑥 =ቊ
0 𝑠𝑖 𝑥 < 0
2. Espérance: +∞
+∞
𝑬 𝑿 = න 𝒙 𝒇 𝒙 𝒅𝒙 = න 𝒙 𝜽 𝒆(−𝜽 𝒙) 𝒅𝒙
𝟎
−∞
On applique une intégration par partie :
𝑼=𝒙 → 𝑼′ = 𝟏
On pose : ቊ
𝑽 = −𝒆(−𝜽 𝒙) → 𝑽′ = 𝜽 𝒆(−𝜽 𝒙)
+∞ +∞

𝑬 𝑿 =න 𝒙 𝜽 𝒆 −𝜽 𝒙 𝒅𝒙 = −𝒙 𝒆 −𝜽 𝒙 +∞− න −𝒆 −𝜽 𝒙
𝒅𝒙
𝟎
𝟎
𝟎

+∞ −𝜽𝒙 𝟏 +∞ 𝟏
(−𝜽𝒙)
Donc 𝑬 𝑿 = ‫𝒆 𝟎׬‬ 𝒅𝒙 = − 𝒆 =
𝜽 𝟎 𝜽
Application 10
(−𝜃 𝑥)
𝑓 𝑥 =ቊ 𝜃 𝑒 𝑠𝑖 𝑥 ≥ 0 avec 𝜃 > 0
0 𝑠𝑖 𝑥 < 0
𝟐
Variance : 𝑽𝒂𝒓 𝑿 = 𝑬 𝑿𝟐 − 𝑬 𝑿
+∞ +∞

𝑬 𝑿𝟐 = න 𝒙𝟐 𝒇 𝒙 𝒅𝒙 = න 𝒙𝟐 𝜽 𝒆(−𝜽 𝒙) 𝒅𝒙
−∞ 𝟎
On applique une intégration par partie :
𝟐
On pose : ቊ 𝑼 = 𝒙 → 𝑼′ = 𝟐𝒙
𝑽 = −𝒆(−𝜽 𝒙) → 𝑽′ = 𝜽 𝒆(−𝜽 𝒙)
+∞ +∞
+∞
𝑬 𝑿𝟐 = න 𝒙𝟐 𝜽 𝒆(−𝜽 𝒙) 𝒅𝒙 = 𝟐
−𝒙 𝒆 −𝜽 𝒙
𝟎
− න −𝟐𝒙 𝒆 −𝜽 𝒙 𝒅𝒙
𝟎 𝟎
+∞ 𝑬(𝑿) 𝟐
Donc 𝑬 𝑿𝟐 = 𝟐 ‫𝒙 𝟎׬‬ 𝒆 −𝜽 𝒙 𝒅𝒙 = 𝟐 =
𝜽 𝜽𝟐
𝟐
𝟐 𝟐 𝟏 𝟏
𝑽𝒂𝒓 𝑿 = 𝑬 𝑿𝟐 − 𝑬 𝑿 = 𝟐− = 𝟐
𝜽 𝜽 𝜽
Application 10
(−𝜃 𝑥)
𝑓 𝑥 =ቊ 𝜃 𝑒 𝑠𝑖 𝑥 ≥ 0 avec 𝜃 > 0
0 𝑠𝑖 𝑥 < 0
𝒙
Fonction de Répartition: 𝑭 𝑿 = න 𝒇 𝒕 𝒅𝒕
−∞

𝒙 𝒙
𝒙
𝑭 𝑿 = න 𝒇 𝒕 𝒅𝒕 = න 𝜽 𝒆(−𝜽 𝒕) 𝒅𝒕 = − 𝒆 −𝜽 𝒕
𝟎 = −𝒆 −𝜽 𝒙 − −𝒆 −𝜽 𝟎
−∞ 𝟎

𝑭 𝑿 = − 𝒆 −𝜽 𝒙 + 𝒆 −𝜽 𝟎
= −𝒆 −𝜽 𝒙
+𝟏=𝟏− 𝒆 −𝜽 𝒙

Alors pour une loi exponentielle:

−𝜽 𝒙
𝑭 𝑿 = ቊ𝟏 − 𝒆 𝒔𝒊 𝒙 ≥ 𝟎
𝟎 𝒔𝒊 𝒙 < 𝟎
◼ 3.2.Lois Continues Usuelles
◼ 3.2.1. Loi Uniforme Continue: Loi
Rectangulaire
Définition 5: Une v.a 𝑋 définie sur un espace de
probabilité suit la loi uniforme sur l'intervalle [𝑎, 𝑏] et on
note 𝑿 ↝ 𝑼[𝒂, 𝒃] si et seulement si:

𝟏
𝒇 𝒙 = ቐ𝒃 − 𝒂 𝒔𝒊 𝒙 ∈ [𝒂, 𝒃]
𝟎 𝒔𝒊𝒏𝒐𝒏
La représentation graphique de cette densité de probabilité est
comme suit:

𝒇(𝒙)

𝟏
𝒃−𝒂

𝒂 𝒃

Figure 3
Propriétés: Si 𝑋 ↝ 𝑈[𝑎, 𝑏]

𝒃𝒓+𝟏 −𝒂𝒓+𝟏
1) 𝑬 𝑿𝒓 =
𝒃−𝒂 (𝒓+𝟏)

𝒂+𝒃
2) 𝑬 𝑿 =
𝟐

𝒃−𝒂 𝟐
3) 𝑽𝒂𝒓 𝑿 =
𝟏𝟐

𝟎 𝒔𝒊 𝒙 ≤ 𝒂
(𝒙−𝒂)
4) 𝑭 𝑿 = ൞ 𝒔𝒊 𝒙 ∈ [𝒂, 𝒃]
𝒃−𝒂
𝟏 𝒔𝒊 𝒙 > 𝒃
La représentation graphique de la fonction de
répartition d'une loi uniforme continue sur [a, b]
est alors comme suit:
𝑭(𝑿)

𝒂 𝒃
Figure 4
◼ 3.2.2. Loi Normale: La Loi de Gausse
Une variable aléatoire continue suit la loi normale si ses
valeurs sont fonctions de plusieurs facteurs indépendants.
Ceci est le cas pour la majorité des variables économiques et
socio-économiques, d'où l'importance de cette loi dans le
domaine d'inférence statistique.
En effet les lois normales et notamment la loi normale
centrée réduite, sont les fondements de plusieurs
développements statistiques.
On commence ce paragraphe par introduire la loi normale
centrée réduite et on présentera ensuite la loi normale
généralisée.
◼ 3.2.2.1. Loi Normale Centrée et Réduite
◼ 3.2.2.1.1. Définition
Une variable aléatoire continue est dite normale centrée
réduite, et on note 𝑍 ↝ 𝑁(𝟎 ; 𝟏) si et seulement si sa d.
d. p (densité de probabilité) est donnée par :

𝟏 𝟏 𝟐
− 𝒛
𝒇 𝒛 = 𝒆 𝟐 ∀𝒛 ∈ ℝ
𝟐𝝅
◼ 3.2.2.1.2. Propriétés
1) La loi normale centrée réduite est symétrique par rapport
à l'origine: 𝒇 𝒛 = 𝒇( −𝒛)
2) Si on note par 𝚿 (𝑧) la fonction de répartition de la loi
normale 𝑁(0 ; 1), alors:
𝜳(𝒛) = 𝟏 − 𝜳(−𝒛)
3) Si 𝑧𝛼 est le fractile d’ordre 𝛼 de 𝑁(0; 1) alors:
𝒛𝜶 = −𝒛𝟏−𝜶
4) 𝑍 ↝ 𝑁(0; 1) alors :
𝑬 𝒁 = 𝟎 et 𝑽𝒂𝒓(𝒁) = 𝟏
Remarques:
1. 𝑷[|𝒁| < 𝒛] = 𝟏 − 𝟐𝜳(−𝒛) = 𝟐𝜳(𝒛) − 𝟏

𝑷 𝒁 <𝒛 =𝟐𝑷 𝒁<𝒛 −𝟏

2. 𝑷[|𝒁| < 𝒛] = 𝟏 − 𝟐𝜳(−𝒛) = 𝟐𝜳(𝒛) − 𝟏

𝑷 𝒁 > 𝒛 = 𝟐 𝟏 − 𝑷(𝒁 < 𝒛)


◼ 3.2.2.1.3. Table des fractiles de la Loi
𝑵(𝟎; 𝟏)
La table de la fonction de répartition de la loi 𝑁(0; 1) nous
permet de déterminer ses fractiles. Cette table fournit les
fractiles d'ordres 𝛼 > 50%. Les fractiles d'ordres inférieurs à
50% sont déterminés par complémentarité à partir de l'égalité:
𝑧𝛼 = − 𝑧1−𝛼
La forme de la table de la fonction de répartition de loi 𝑁(0; 1)
est tel que les fractiles sont données par les titres des lignes et
des colonnes et les probabilités sont à l'intérieur du tableau.
L'intersection de la ième ligne et la jème colonne est égale à 𝛹(𝑧)
où u est la somme des "titres" de la ième ligne et la jème colonne.
Table de la Loi Normale Centrée Réduite
Application 11: on considère une variable aléatoire 𝒁 qui suit la loi
normale centrée et réduite 𝑍 ↝ 𝑁(0 ; 1)
1) Déterminez
𝑃[𝑍 < 1,29] = 0,9015
𝑃 𝑍 < −0,38 = 1 − 𝑃 𝑍 < 0,38
= 1 − 0,6480 = 0,3520
𝑃 𝑍 > −0,93 = 1 − 𝑃 𝑍 < −0,93
= 1 − 1 − 𝑃 𝑍 < 0,93
= 𝑃 𝑍 < 0,93 = 0,8238
𝑃 𝑍 > 0,93 = 2 1 − 𝑃 𝑍 < 0,93
= 2 1 − 0,8238 = 0,3524
𝑃 𝑍 < 0,93 = 2 𝑃 𝑍 < 0,93 − 1
= 2 × 0,8238 − 1 = 0,6476
Application 11
On considère une variable aléatoire 𝒁 qui suit la loi normale centrée
et réduite 𝑍 ↝ 𝑁(0 ; 1)
2) Déterminez 𝑧 tel que :
𝑃[𝑍 < 𝑧] = 0,5 ⇒ 𝑑′ 𝑎𝑝𝑟è𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑧 = 0
𝑃[𝑍 < 𝑧] = 0,7852 ⇒ 𝑧 = 0,79
𝑃 𝑍 < 𝑧 = 0,3594 ⇔ 0,3594 < 0,5 ⇔ 𝑧 𝑒𝑠𝑡 𝑛é𝑔𝑎𝑡𝑖𝑣𝑒

1 − 𝑃 𝑍 < −𝑧 = 0,3594

𝑑𝑜𝑛𝑐 𝑃 𝑍 < −𝑧 = 1 − 0,3594 = 0,6406

⇔ −𝑧 = 0,36 ⇔ 𝑧 = −0,36
◼ 3.2.2.1.4. Représentation Graphique
La d. d. p d’une loi 𝑁(0 ; 1) est
1 1 2
− 𝑢
𝑓 𝑢 = 𝑒 2
2𝜋
On peut facilement démontrer que:
lim 𝑓 𝑢 = lim 𝑓 𝑢 = 0
+∞ −∞
𝑓′ 𝑢 = 0 ⟺ 𝑢 = 0
ቊ ⟺ max 𝑓 𝑢 = 𝑓(0)
𝑓′′ 𝑢 < 0
La représentation graphique de cette fonction est alors:

Figure 5
◼ 3.2.2.2. Loi Normale Généralisée
◼ 3.2.2.2.1. Définition
Une variable aléatoire X est une loi normale de paramètres 𝑚 et 𝜎 2 ,
on note 𝑋 ↝ 𝑁(𝑚 ; 𝜎 2 ) si elle est une transformation linéaire
d'une loi normale centrée réduite de la forme :

𝑿= 𝝈𝒁+𝒎
◼ 3.2.2.2.2. Densité de probabilité
Si 𝑋 ↝ 𝑁(𝑚 ; 𝜎 2 ) alors sa d. d. p est donnée par :
𝟏 𝒙−𝒎 𝟐
𝟏 −
𝟐 𝝈𝟐
𝒇 𝒙 = 𝒆
𝟐 𝝅 𝝈𝟐
◼ 3.2.2.2.3. Propriétés
1) Si 𝑋 ↝ 𝑁(𝑚 ; 𝜎 2 ) alors

𝑬 𝑿 = 𝒎 𝑽𝒂𝒓 𝑿 = 𝝈 𝟐

2) L'ensemble des lois normales est stable par l'addition indépendante


: Si 𝑋1 et 𝑋2 deux v.a indépendantes tel que 𝑋1 ↝ 𝑁 𝑚1 ; 𝜎12 et
𝑋2 ↝ 𝑁 𝑚2 ; 𝜎22 alors :
𝑋1 + 𝑋2 ↝ 𝑁 𝑚1 + 𝑚2 ; 𝜎12 + 𝜎22

3) Toute combinaison linéaire des lois normales indépendantes est


une loi normale : 𝑋𝑖 ↝ 𝑁 𝑚𝑖 ; 𝜎𝑖2 𝑎𝑣𝑒𝑐 𝑖 = 1, 2 … . . 𝑛
𝑛 : v.a indépendantes 𝑎𝑖 , 𝑖 = 1,2. . 𝑛 des constantes réelles alors :
σ𝑛𝑖=1 𝑎𝑖 𝑋𝑖 ↝ 𝑁 σ𝑛𝑖=1 𝑎𝑖 𝑚𝑖 ; σ𝑛𝑖=1 𝑎𝑖2 𝜎𝑖2
◼ 3.2.2.2.4. Représentation Graphique
La densité d'une loi 𝑁(𝑚 ; 𝜎 2 ) vérifie :
lim 𝑓 𝑥 = lim 𝑓 𝑥 = 0
+∞ −∞
𝑓′ 𝑥 = 0 ⟺ 𝑥 = 𝑚
ቊ ⟺ max 𝑓 𝑥
𝑓′′ 𝑥 < 0
=𝑓 𝑚
2
⟺ 𝑚𝑜𝑑𝑒 𝑁 𝑚 ; 𝜎 = 𝑚
La représentation graphique de la d. d. p d’une loi 𝑁(𝑚 ; 𝜎2) est
alors comme suit:

Figure 6
◼ 3.2.2.2.5. Fractiles d’une loi 𝑵 𝒎 ; 𝝈𝟐
Pour déterminer les fractiles d'une loi 𝑁(𝒎 ; 𝝈𝟐), on
utilise la table de la loi 𝑵(𝟎; 𝟏) et la relation établie :

𝑥−𝑚
𝐹 𝑥 = 𝛹
𝜎

𝟐
𝑿 ↝𝑵 𝒎; 𝝈
𝑋−𝑚
On pose Z = ↝ 𝑵 𝟎 ;𝟏
𝜎
Application 12: On considère la v.a 𝑋 tel que 𝑋 ↝ 𝑁(5 ; 4)
1. Déterminez
𝑿−𝒎 𝟓−𝟓
𝑷𝑿 < 𝟓 = 𝑷 < = 𝑷 𝒁 < 𝟎 = 𝟎, 𝟓
𝝈 𝟐
𝑿−𝒎 𝟓, 𝟕 − 𝟓
𝑷 𝑿 < 𝟓, 𝟕 = 𝑷 <
𝝈 𝟐
= 𝑷 𝒁 < 𝟎, 𝟑𝟓 = 𝟎, 𝟔𝟑𝟔𝟖
𝑷 𝑿 > 𝟐, 𝟗𝟒 = 𝟏 − 𝑷 𝑿 < 𝟐, 𝟗𝟒
𝑿−𝒎 𝟐, 𝟗𝟒 − 𝟓
= 𝟏 − 𝑷 <
𝝈 𝟐
= 𝟏 − 𝑷 𝒁 < −𝟏, 𝟎𝟑 = 𝟏 − 𝟏 − 𝑷 𝒁 < 𝟏, 𝟎𝟑
= 𝑷 𝒁 < 𝟏, 𝟎𝟑 = 𝟎, 𝟖𝟒𝟖𝟓
Application 12
On considère la v.a 𝑋 tel que 𝑋 ↝ 𝑁(5 ; 4)
2. Déterminez 𝑥 tel que :
𝑿−𝒎 𝒙−𝟓
𝑷 𝑿 < 𝒙 = 𝟎, 𝟓 ⇔ 𝑷 < = 𝟎, 𝟓
𝝈 𝟐
𝒙−𝟓
⇔𝑷 𝒁< = 𝟎, 𝟓 Or d’après la table de la loi normale
𝟐
𝒙−𝟓
𝑷 𝒁 < 𝟎 = 𝟎, 𝟓 ⇔ = 𝟎 𝒅𝒐𝒏𝒄 𝒙 = 𝟓
𝟐
𝑿−𝒎 𝒙−𝟓
𝑷 𝑿 < 𝒙 = 𝟎, 𝟕𝟖𝟓𝟐 ⇔ 𝑷 < = 𝟎, 𝟕𝟖𝟓𝟐
𝝈 𝟐
𝒙−𝟓
⇔ = 𝟎, 𝟕𝟗
𝟐
𝒅𝒐𝒏𝒄 𝒙 = 𝟎, 𝟕𝟗 × 𝟐 + 𝟓 ⇔ 𝒙 = 𝟔, 𝟓𝟖
Approximation de la loi Binomiale par la Loi
Normale

Théorème 1: Soit 𝑋 ↝ 𝐵(𝑛 ; 𝑝), si 𝑛 → +∞ et 𝑝 ≈


0, 5 alors 𝑋 converge vers une loi Normale:
𝑁(𝑛 𝑝 ; 𝑛 𝑝 𝑞).

En pratique, une valeur de 𝑝 très différente de 0,5 peut être


composée par une grande valeur de 𝑛, et on remplace une
loi binomiale par une loi normale dès que 𝑛 > 30 et 𝑛 𝑝 >
10.
Approximation de la loi de Poisson par la loi
Normale

Théorème 2: Soit 𝑋 ↝ 𝑃(𝜆), si 𝜆 → +∞ alors 𝑋


converge vers une loi Normale: 𝑁( 𝜆 ; 𝜆).

En pratique on considère l'approximation dès que 𝜆 > 15.

Vous aimerez peut-être aussi