Vous êtes sur la page 1sur 14

Université Mohamed Premier – Oujda

Faculté des Sciences Juridiques Economiques et Sociales


Filière Sciences Economiques et Gestion
Semestre 2

Année universitaire
2020-2021

Chapitre2 : Variables aléatoires discrètes et continues

Partie 2 : Variables aléatoires continues


Présenté par le professeur Driss Driouchi

Plan de la deuxième partie du chapitre2

Introduction........................................................................................................................................2
1. Loi de probabilité d’une variable aléatoire continue ....................................................................2
2. Espérance et variance d’une variable aléatoire continue .............................................................6
3. Lois continues usuelles ................................................................................................................9
a. Loi uniforme ............................................................................................................................9
b. Loi exponentielle .....................................................................................................................9
c. Loi normale ........................................................................................................................... 10
d. Tabulation de la loi normale (quantile d’ordre 𝜶) .................................................................. 12
e. Théorème d’addition de v.a. normales ....................................... Error! Bookmark not defined.

1
Introduction
Dans beaucoup de situations d’observations de phénomènes aléatoires, les v.a. étudiées peuvent
prendre des valeurs dans des intervalles continus de ℝ , par exemples, le prix d’un bien ou la
rémunération d’un salarié ou la durée de vie d’un produit. On peut citer beaucoup d’exemples où la
v.a. est censée obtenir des valeurs dans un ensemble infini non dénombrable.
Dans cette deuxième partie du chapitre 2, on va définir la loi de probabilité d’une v.a. continue, elle
est donnée sous forme d’une fonction dite densité de probabilité, mais on peut la définir, comme dans
le cas discret, par la fonction de répartition. On donnera ensuite les caractéristiques de la v.a., à savoir
l’espérance mathématique, la variance et l’écart-type. A la différence du cas discret où on utilisait des
sommes, ici pour le cas continu, on doit remplacer une somme par une intégrale.
On enchainera ensuite avec les lois continues usuelles les plus utilisées.

Définition :
On dit qu’une v.a. 𝑋 est continue si l’ensemble 𝑋() contient au moins un intervalle de ℝ .
Exemples :
 Le poids d’un produit, sa taille ou son volume : poids d’un cylindre métallique, ses dimensions ;
poids d’un pot de confiture ; volume d’une bouteille de un litre de lait…
 Le prêt immobilier accordé à un client ou l’indemnisation d’une compagnie d’assurance ou le
chiffre d’affaires d’un magasin en une journée sont des v.a. continues.
 Le temps de réponse pour un SAV. Le temps alloué à la fabrication d’un produit. Le temps de
réponse à un traitement médicamenteux. Le temps en général est considéré comme une variable
continue.
 Le prix d’un bien ou d’une action boursière. Le coût de séjour d’un patient dans un hôpital.
 L’âge d’un client, son salaire et sa capacité de remboursement sont des v.a. continues.

1. Loi de probabilité d’une variable aléatoire continue


Déterminer la loi de probabilité d’une v.a. continue revient à déterminer sa densité de probabilité. Les
v.a. continues peuvent prendre un nombre infini non dénombrable de valeurs. A l’opposé des v.a.
discrètes, les probabilités de la forme 𝑃(𝑋 = 𝑥) sont nulles pour tout 𝑥 ∈ ℝ :
𝑃 (𝑋 = 𝑥) = 0, ∀𝑥 ∈ ℝ

Définition de la densité de probabilité :


Soit 𝑋 une v.a. continue. On appelle densité de probabilité de 𝑋, la fonction 𝑓 définie sur ℝ, telle que
pour tout intervalle [𝑎, 𝑏] de ℝ :
𝑏
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = ∫ 𝑓 (𝑥) 𝑑𝑥
𝑎

Remarque :
On a la même probabilité pour des intervalles fermé ou ouvert ou semi-ouvert :

𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑎 < 𝑋 < 𝑏) = 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃(𝑎 ≤ 𝑋 < 𝑏)

2
Propriétés :
Soit 𝑋 une v.a. continue de densité de probabilité 𝑓. Alors, on a :

1. 𝑓 (𝑥) ≥ 0 ∀ 𝑥 ∈ ℝ
2. 𝑓 est continue presque partout, c.à.d. continue sauf sur un ensemble dénombrable de points.
3. On vérifie toujours que
+∞
∫ 𝑓 (𝑥) 𝑑𝑥 = 1
−∞

Remarque :
Pour montrer qu’une fonction est une densité de probabilité, il suffit de vérifier les trois conditions ci-
dessus.

Exemple1 :
Soit 𝑋 la v.a. de densité de probabilité 𝑓 définie sur ℝ par :
3𝑥 (2 − 𝑥)
𝑠𝑖 𝑥 ∈ [0, 2]
𝑓 (𝑥 ) = { 4

0 𝑠𝑖 𝑥 ∉ [0, 2]

On vérifie bien les trois conditions : 𝑓 est positive continue sur ℝ et on a,


2 2
3𝑥 (2 − 𝑥) 3 𝑥3 3 8
∫ 𝑓 (𝑥) 𝑑𝑥 = ∫ 𝑑𝑥 = [𝑥 2 − ] = (4 − ) = 1
0 4 4 3 0 4 3

Si on veut calculer la probabilité que 0.5 < 𝑋 < 1.5 , il suffit d’utiliser la définition ci-dessus.

1.5 1.5
3𝑥 (2 − 𝑥) 3 𝑥3 3 3.375 0.125
𝑃 (0.5 < 𝑋 < 1.5) = ∫ 𝑑𝑥 = [𝑥 2 − ] = (2.25 − − 0.25 + )
0.5 4 4 3 0.5 4 3 3

= 0.6875 = 68.75%

Notons que les valeurs 0.5 et 1.5 sont dans l’intervalle [0, 2], si on veut calculer 𝑃(0.5 < 𝑋 < 3) on
sait bien que les valeurs qui nous intéresse sont dans [0, 2], ailleurs c’est des valeurs pour lesquelles
la densité 𝑓 s’annule et on peut écrire :
2
3𝑥 (2 − 𝑥)
𝑃 (0.5 < 𝑋 < 3) = 𝑃 (0.5 < 𝑋 < 2) = ∫ 𝑑𝑥 = 0.84375 = 84.375%
0.5 4
Graphe de la densité 𝒇 :

3
L’aire délimité par la courbe de 𝑓 et l’axe 𝑦 = 0 correspond à l’intégrale calculée et qui est par
définition la probabilité demandée. Par exemple, 𝑃 (0.5 < 𝑋 < 1.5) est l’aire délimité par la courbe de
𝑓, l’axe 𝑦 = 0 et les deux axes 𝑥 = 0.5 et 𝑥 = 1.5.

𝑃(0.5 < 𝑋 < 1.5)

Exemple2 :
Soit 𝑋 la v.a. de densité de probabilité 𝑓 définie sur ℝ par :
2 𝑒 −2𝑥 𝑠𝑖 𝑥 ≥ 0
𝑓 (𝑥) = {
0 𝑠𝑖 𝑥 < 0

On vérifie que 𝑓 est positive sur ℝ, continue sauf au point 𝑥 = 0, en plus on a :


+∞
−2𝑥
1 −2𝑥 +∞
∫ 𝑓(𝑥) 𝑑𝑥 = ∫ 2𝑒 𝑑𝑥 = 2 [− 𝑒 ] = (−𝑒 −∞ + 𝑒 0 ) = 1
0 2 0

Calculons 𝑃(0.4 < 𝑋 < 0.6), 𝑃(𝑋 < 0.6) et 𝑃(𝑋 > 0.4) ; pour cela il suffit d’utiliser la définition ci-
dessus.
0.6
𝑃 (0.4 < 𝑋 < 0.6) = ∫ 2 𝑒 −2𝑥 𝑑𝑥 = [−𝑒 −2𝑥 ]0.6
0.4 = (−𝑒
−1.2
+ 𝑒 −0.8 ) = 0.1481 = 14.81%
0.4

0.6
𝑃 (𝑋 < 0.6) = ∫ 2 𝑒 −2𝑥 𝑑𝑥 = [−𝑒 −2𝑥 ]0.6
0 = (−𝑒
−1.2
+ 𝑒 0 ) = 0.6988 = 69.88%
0

+∞
𝑃 (𝑋 > 0.4) = ∫ 2 𝑒 −2𝑥 𝑑𝑥 = [−𝑒 −2𝑥 ]+∞
0.4 = (−𝑒
−∞
+ 𝑒 −0.8 ) = 𝑒 −0.8 = 0.4493 = 44.93%
0.4

Graphe de la densité 𝒇 :

Définition de la fonction de répartition :

4
Soit 𝑋 une v.a. continue. On appelle fonction de répartition de 𝑋, la fonction 𝐹 définie pour tout 𝑥 ∈
ℝ par
𝑥
𝐹 (𝑥) = 𝑃 (𝑋 ≤ 𝑥) = ∫ 𝑓(𝑦) 𝑑𝑦
−∞

Exemple1 :
Reprenons l’exemple1
0 𝑠𝑖 𝑥<0
𝑥 𝑥
3𝑦(2 − 𝑦)
𝐹 (𝑥) = ∫ 𝑓 (𝑦) 𝑑𝑦 = { ∫ 𝑑𝑦 𝑠𝑖 𝑥 ∈ [0, 2]
−∞ 0 4
1 𝑠𝑖 𝑥>2

0 𝑠𝑖 𝑥<0
𝑥
3 2 𝑦3
= [𝑦 − ] 𝑠𝑖 𝑥 ∈ [0, 2]
4 3 0
{ 1 𝑠𝑖 𝑥>2
0 𝑠𝑖 𝑥<0
3𝑥 2 𝑥
={ (1 − ) 𝑠𝑖 𝑥 ∈ [0, 2]
4 3
1 𝑠𝑖 𝑥>2

On peut calculer maintenant plus facilement les probabilités de la forme : 𝑃(𝑋 < 𝑥) ou 𝑃 (𝑋 > 𝑥) :

3(0.5)2 0.5
𝑃 (𝑋 < 0.5) = 𝐹 (0.5) = (1 − ) = 0.15625 = 15.625%
4 3

𝑃 (𝑋 > 0.5) = 1 − 𝑃(𝑋 ≤ 0.5) = 1 − 0.15625 = 0.84375 = 84.375%

Exemple2 :
On reprend l’exemple2 :
0 𝑠𝑖 𝑥<0
𝑥
𝐹 (𝑥) = ∫ 𝑓 (𝑦) 𝑑𝑦 = { 𝑥
−∞ ∫ 2 𝑒 −2𝑦 𝑑𝑦 𝑠𝑖 𝑥≥0
0

0 𝑠𝑖 𝑥<0
={
[− 𝑒 −2𝑦 ]0𝑥 𝑠𝑖 𝑥≥0

0 𝑠𝑖 𝑥<0
={
1 − 𝑒 −2𝑥 𝑠𝑖 𝑥≥0

On retrouve les calculs de 𝑃 (𝑋 < 0.6) = 0.6988 et 𝑃 (𝑋 > 0.4) = 0.4493.

5
Propriété :
Soit 𝑋 une v.a. continue de fonction de répartition 𝐹. Alors on a :
▪ 𝐹 est une fonction continue sur ℝ
▪ 𝐹 est à valeurs dans [0, 1], et on a :
𝑙𝑖𝑚 𝐹(𝑥) = 0 , 𝑙𝑖𝑚 𝐹(𝑥) = 1
𝑥→−∞ 𝑥→+∞

▪ 𝐹 est une fonction croissante, et on a pour tous 𝑎, 𝑏 dans ℝ avec 𝑎 < 𝑏

𝐹(𝑏) − 𝐹(𝑎 ) = 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏)

Exemples :
Dans l’exemple1, on a : 𝑃(0.5 < 𝑋 < 1.5) = 𝐹 (1.5) − 𝐹 (0.5) = 0.84375 − 0.15625 = 0.6875.
Dans l’exemple2, on a : 𝑃(0.4 < 𝑋 < 0.6) = 𝐹 (0.6) − 𝐹 (0.4) = 0.6988 − 0.5507 = 0.1481.

Proposition :
Soit 𝑋 une v.a. continue de densité 𝑓 et de fonction de répartition 𝐹. Alors, ∀𝑥 ∈ ℝ, on a :
𝐹 ′ (𝑥) = 𝑓(𝑥)

Exemple :
Soit 𝑋 la v.a. de fonction de répartition suivante :
0 𝑠𝑖 𝑥<0
𝑥3
𝐹 (𝑥) = { 𝑠𝑖 𝑥 ∈ [0, 3]
27
1 𝑠𝑖 𝑥>3

La densité de probabilité 𝑓 de la v.a. 𝑋 sera :

𝑥2
𝑠𝑖 𝑥 ∈ [0, 3]
𝑓 (𝑥) = 𝐹 ′ (𝑥) = { 9
0 𝑠𝑖 𝑥 ∉ [0, 3]

2. Espérance et variance d’une variable aléatoire continue


Définition de l’espérance :
Soit 𝑋 une v.a. continue de densité de probabilité 𝑓 . On appelle espérance de 𝑋, notée 𝐸(𝑋), le
nombre réel, s’il existe, défini par
+∞
𝐸(𝑋) = ∫ 𝑥 𝑓(𝑥)𝑑𝑥
−∞

Remarque :
On parlera d’espérance ou d’espérance mathématique, elle correspond à la valeur qu’on espère
retrouver, en moyenne, si on observe les valeurs de 𝑋.

6
Exemple1 :
On reprend l’exemple1.
+∞ 2 2
3𝑥 2 (2 − 𝑥) 3 2𝑥 3 𝑥 4 3 16 16
𝐸(𝑋) = ∫ 𝑥 𝑓(𝑥)𝑑𝑥 = ∫ 𝑑𝑥 = [ − ] = ( − ) = 1.
−∞ 0 4 4 3 4 0 4 3 4

𝐸(𝑋) = 1.

Exemple2 :
On reprend l’exemple2.
+∞ +∞
𝐸(𝑋) = ∫ 𝑥 𝑓(𝑥)𝑑𝑥 = ∫ 2 𝑥 𝑒 −2𝑥 𝑑𝑥 .
−∞ 0

On utilise l’intégration par partie :


+∞ +∞
1 −2𝑥 +∞ 1 1
∫ 2𝑥𝑒 −2𝑥
𝑑𝑥 = [−𝑥 𝑒 −2𝑥 ]+∞
0 +∫ 𝑒 −2𝑥
𝑑𝑥 = 0 + [− 𝑒 ] = − (0 − 𝑒 0 ) = .
0 0 2 0 2 2
1
𝐸(𝑋) = .
2

Théorème :
Soit 𝑋 une v.a. continue de densité de probabilité 𝑓. Soit ℎ une fonction définie sur 𝑋() à valeurs
réelles. Alors, l’espérance de ℎ(𝑋), si elle existe, est donnée par
+∞
𝐸(ℎ(𝑋)) = ∫ ℎ(𝑥) 𝑓 (𝑥)𝑑𝑥
−∞

Remarque :
En statistique, on peut confondre l’espérance 𝐸(𝑋) à la constante universelle 𝜇 qui est par définition
la moyenne calculée sur toute la population de l’étude statistique. Par exemple si on veut étudier l’âge
de la population des clients qui s’intéresse à un produit, on va définir la v.a. 𝑋 : âge d’un client, son
espérance 𝐸(𝑋) coïncide avec la moyenne 𝜇 calculée sur tous les clients de la population, la
connaissance de 𝜇 ne sera possible que si on effectue un recensement de toute la population, ce qui
n’est pas faisable en général, puisque cette population n’est pas totalement accessible.

Définition du moment d’ordre 𝒌 :


On appelle moment d’ordre 𝑘 ∈ ℕ de 𝑋, l’espérance de 𝑋 𝑘 :
+∞
𝐸(𝑋 𝑘 ) = ∫ 𝑥 𝑘 𝑓(𝑥)𝑑𝑥
−∞

Définition de la variance :
Soit 𝑋 une v.a. continue de densité de probabilité 𝑓 . On appelle variance de 𝑋 , notée 𝑉𝑎𝑟(𝑋) ,
l’espérance si elle existe, de (𝑋 − 𝐸(𝑋))2
+∞
𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝐸(𝑋))2 ] = ∫ (𝑥 − 𝐸(𝑋))2 𝑓 (𝑥) 𝑑𝑥
−∞

Définition de l’écart-type :
On appelle écart-type de 𝑋, notée 𝜎(𝑋), la racine carrée de la variance :

𝜎(𝑋) = √𝑉𝑎𝑟(𝑋)

7
Remarques :
1. La variance n’est autre que le moment centrée d’ordre 2.
2. Pour toute v.a. continue 𝑋 d’espérance 𝐸(𝑋) et d’écart-type 𝜎(𝑋), on peut définir une v.a. centré
𝑌 = 𝑋 − 𝐸(𝑋) et on aura : 𝐸 (𝑌) = 0. De même on peut définir une autre v.a. centrée réduite 𝑍 :
𝑋 − 𝐸(𝑋)
𝑍= et on aura ∶ 𝐸(𝑍) = 0, 𝑉𝑎𝑟(𝑍) = 1
𝜎(𝑋)
3. Les propriétés de l’espérance et de la variance reste les mêmes que le cas discret :
▪ Pour tous 𝑎, 𝑏 ∈ ℝ, on a :
𝐸(𝑎𝑋 + 𝑏) = 𝑎 𝐸 (𝑋) + 𝑏
𝑉𝑎𝑟(𝑎 𝑋 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋)
▪ Formule de Koenig
𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝐸(𝑋))2 ] = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2

Exemple1 :
On reprend l’exemple1. On veut calculer 𝑉𝑎𝑟(𝑋), pour cela on utilise la formule de Koenig :
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − [𝐸(𝑋)]2 = 𝐸(𝑋 2 ) − 1

+∞ 2 2
3𝑥 3 (2 − 𝑥) 3 2𝑥 4 𝑥 5 3 32 32 6
𝐸(𝑋 2 ) = ∫ 2
𝑥 𝑓 (𝑥)𝑑𝑥 = ∫ 𝑑𝑥 = [ − ] = ( − )= .
−∞ 0 4 4 4 5 0 4 4 5 5
6 1
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − 1 = −1= .
5 5

L’écart-type sera : 𝜎(𝑋) = √1⁄5 = 0.447.

Exemple2 :
On reprend l’exemple2.
1
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − [𝐸(𝑋)]2 = 𝐸(𝑋 2 ) −
4
+∞ +∞
𝐸(𝑋 2 ) = ∫ 𝑥 2 𝑓 (𝑥)𝑑𝑥 = ∫ 2 𝑥 2 𝑒 −2𝑥 𝑑𝑥
−∞ 0

Par l’intégration par partie on aura :


+∞ +∞
1 1
∫ 2 𝑥 2 𝑒 −2𝑥 𝑑𝑥 = [−𝑥 2 𝑒 −2𝑥 ]+∞
0 +∫ 2𝑥 𝑒 −2𝑥 𝑑𝑥 = 0 + =
0 0 2 2

1 1 1
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − [𝐸(𝑋)]2 = − = .
2 4 4

1
𝜎(𝑋) = √1⁄4 = = 0.5 .
2

8
3. Lois continues usuelles
Dans cette section, on donnera quelques lois universelles qui sont utilisées en pratique pour modéliser
certaines situations de phénomènes aléatoires rencontrées dans les études statistiques.

a. Loi uniforme
Soit la v.a. 𝑋 qui prend ses valeurs dans l’intervalle [𝑎, 𝑏], la loi uniforme stipule que pour des
intervalles dans [𝑎, 𝑏] de même amplitude, on aura la même probabilité partout.

𝑎 𝑏

Définition :
On dit que la v.a. 𝑋 suit une loi uniforme sur l’intervalle [𝑎, 𝑏] si sa densité est
1
𝑠𝑖 𝑥 ∈ [𝑎, 𝑏]
𝑓(𝑥) = {𝑏 − 𝑎
0 𝑠𝑖𝑛𝑜𝑛
On note 𝑿~𝓤(𝒂, 𝒃)

Proposition : Soit 𝑋~𝒰(𝑎, 𝑏), on a :


𝑎+𝑏 (𝑏 − 𝑎)2
𝐸(𝑋) = 𝑒𝑡 𝑉𝑎𝑟(𝑋) =
2 12

Remarque :
Cette loi modélise la loi d’une v.a. qui prend au hasard ses valeurs dans un intervalle continue de ℝ.
Elle est utilisée aussi dans la création sur ordinateur d’autres v.a. de lois connues, on parle de
simulation informatique de lois de probabilité.

b. Loi exponentielle
Définition :
Une v.a. 𝑋 est dite de loi exponentielle de parametre 𝜆 (𝜆 > 0) si sa densité est

𝜆 𝑒 −𝜆𝑥 𝑠𝑖 𝑥 ≥ 0
𝑓 (𝑥) = {
0 𝑠𝑖𝑛𝑜𝑛

On note 𝑿~𝓔(𝛌) ou 𝑬𝒙𝒑(𝝀)

9
Proposition : Soit 𝑋~𝐸𝑥𝑝(𝜆), on a :
1 1
𝐸 (𝑋) = 𝑒𝑡 𝑉𝑎𝑟(𝑋 ) =
𝜆 𝜆2

Remarque :
La loi exponentielle modélise les phénomènes liés au temps, par exemple, temps d’attente devant une
caissière dans un supermarché. Le domaine du contrôle et de la fiabilité modélise, avec cette loi, les
durées de vie des produits ou composants, par exemple, la durée de vie d’une batterie ou tout autre
composant électronique introduit dans un Smartphone ou un ordinateur.

c. Loi normale

L'expression mathématique de cette distribution de probabilité fut d'abord publiée par Abraham
DeMoivre en 1733. D'autres théoriciens sont également associés à cette fameuse loi
soit Laplace (1667-1754) et Friedreich Gauss(1777-1855). On parle de la loi "Normale", "Gaussienne"
ou de "Laplace-Gauss" lorsque l'on a à faire à une variable aléatoire continue dépendant d'un grand
nombre de causes indépendantes dont les effets s'additionnent et dont aucune n'est prépondérante
(Condition de Borel). Ainsi la taille d'un individu dépend de plusieurs facteurs, l'économie d'un pays....
Elle jouit d'une importance fondamentale puisqu'un grand nombre de méthodes statistiques repose
sur cette loi. Les applications pratiques associées à cette loi sont très nombreuses (tests,
Intervalles de confiance....), elle a des applications en économie, gestion, météorologie, médecine,
physique, biologie, etc.

Définition :
Une v.a. 𝑋 suit une loi normale de paramètre (𝜇, 𝜎) (avec 𝜎 > 0) si sa densité est

1 1 𝑥−𝜇 2
𝑓 (𝑥) = 𝑒− 2 (𝜎
)
, 𝑝𝑜𝑢𝑟 𝑥 ∈ ℝ
𝜎√2𝜋

On note 𝑿~𝓝(𝝁, 𝝈)

Proposition : Soit 𝑋~𝒩(𝜇, 𝜎), on a :


𝐸 (𝑋) = 𝜇 𝑒𝑡 𝑉𝑎𝑟(𝑋) = 𝜎 2

Remarque :
On remarquera que la densité de la loi normale est symétrique par rapport à 𝜇 :
𝑓(𝑥 − 𝜇) = 𝑓(𝑥 + 𝜇) ∀𝑥 ∈ ℝ
L’espérance 𝐸(𝑋) coïncide avec l’axe de symétrie 𝑥 = 𝜇. En général, pour toute densité symétrique
par rapport à un axe 𝑥 = 𝑎, si on cherche à calculer 𝐸(𝑋), il se trouve qu’elle est égal à 𝑎 :
𝐸(𝑋) = 𝑎

Sa distribution est donnée par :

10
Définition de la loi normale standard (ou dite aussi centrée réduite):
Une v.a. 𝑋 est de loi normale standard si ses paramètres sont 𝜇 = 0 (centrée)et 𝜎 = 1,(réduite) sa
densité sera
1 𝑥2

𝑓(𝑥) = 𝑒 2, 𝑝𝑜𝑢𝑟 𝑥 ∈ ℝ
√2𝜋
et on note 𝑿~𝓝(𝟎, 𝟏)

11
Remarque :
En pratique, pour toute v.a. 𝑋 de loi normale, 𝑋~𝒩(𝜇, 𝜎), on associe la v.a. normale standard
𝑋−𝜇
𝑍=
𝜎
Alors 𝑍~𝒩(0, 1).

d. Tabulation de la loi normale (quantile d’ordre 𝜶)


La loi normale standard est donnée dans une tabulation disponible, c’est elle qui est utilisée pour toute
autre loi normale. Soit 𝑍~𝒩(0, 1) et 𝜙 la fonction de répartition de 𝑍 :
𝜙(𝑧) = 𝑃(𝑍 ≤ 𝑧) = 𝛼
Dans la lecture de la table de loi 𝒩(0, 1), si on connait 𝑧 ∈ ℝ on cherchera la probabilité 𝛼 ∈ [0, 1].
Puisque la tabulation est faite pour seulement 𝑧 ≥ 0, alors si 𝑧 est positive on lit directement 𝛼, sinon
c.à.d. que 𝑧 < 0 alors on utilise la formule
𝜙(𝑧) = 1 − 𝜙(−𝑧)
(Vient du fait que la densité est symétrique).
Une autre propriété en découle de la symétrie de cette loi est :
P(IZI≤z)=P(-z≤Z≤z)= 𝜙(𝑧) − 𝜙 (−𝑧)= 𝜙(𝑧) − (1 − 𝜙 (𝑧)) = 2𝜙 (𝑧) − 1

De la même manière on peut pour une probabilité 𝛼 déterminer le nombre 𝑧 qui lui correspond.
Dorénavant on note 𝑧𝛼 le nombre qui vérifie 𝜙(𝑧) = 𝛼 et on le nommera quantile d’ordre 𝜶. On
résume :
▪ Si 𝑧𝛼 ≥ 0 on détermine le 𝛼 qui lui correspond.
▪ Si 𝑧𝛼 < 0 on détermine le 𝛽 qui correspond à – 𝑧𝛼 et on pose 𝛼 = 1 − 𝛽.
▪ Si 𝛼 ≥ 0.5 on détermine 𝑧𝛼 qui lui correspond.
▪ Si 𝛼 < 0.5 on détermine 𝑧1−𝛼 puis on pose 𝑧𝛼 = −𝑧1−𝛼 .

Exemples :
Cherchons les probabilités associées aux quantiles suivants −1.56, −0.46, 0.64, 2.22.
▪ −1.56 = 𝑧1−0.9406 = 𝑧0.0594 (lecture sur la table : 1.56 = 𝑧0.9406 ).
▪ −0.46 = 𝑧1−0.6772 = 𝑧0.3228 (lecture sur la table : 0.46 = 𝑧0.6772 ).
▪ 0.64 = 𝑧0.7389 (lecture direct sur la table).
▪ 2.22 = 𝑧0.9868 (lecture direct sur la table).

Cherchons les quantiles suivants 𝑧0.01 , 𝑧5% , 𝑧0.95 et 𝑧97.5% .


▪ Indirectement mais en utilisant la table de la loi, on a :
𝑧0.01 = −𝑧1−0.01 = −𝑧0.99 ≈ −𝑧0.9901 = −2.33 et 𝑧5% = −𝑧1−5% = −𝑧95% ≈ −𝑧95.05% = −1.65
▪ Directement sur la table de loi normale 𝒩(0, 1), on a :
𝑧0.95 ≈ 𝑧0.9505 = 1.65 et 𝑧97.5% = 𝑧0.975 = 1.96 .

12
Vue d’une table normale standard 𝓝(𝟎, 𝟏)

Fonction de répartition de la loi normale 𝓝(𝟎, 𝟏)


Exemple : 𝑃 (𝑋 ≤ 1.56) = 0.9406

𝑋−5
Considérons maintenant une v.a. 𝑋~𝒩(5, 2) , la v.a. 𝑍 = 2
~𝒩(0, 1) . Calculons quelques
probabilités :
𝑋−5 4−5
𝑃 (𝑋 < 4) = 𝑃 ( < ) = 𝑃 (𝑍 < −0.5) = 1 − 𝜙(0.5) = 1 − 0.6915 = 0.3085 .
2 2
5.5 − 5
𝑃 (𝑋 > 5.5) = 1 − 𝑃(𝑋 ≤ 5.5) = 1 − 𝑃 (𝑍 ≤ ) = 1 − 𝑃 (𝑍 < 0.25) = 1 − 0.5987
2
= 0.4013 .
𝑃 (4 < 𝑋 < 5.5) = 𝑃 (𝑋 < 5.5) − 𝑃(𝑋 ≤ 4) = 0.5987 − 0.3085 = 0.2902 = 29.02% .
2−5 6−5
𝑃 (2 < 𝑋 < 6) = 𝑃 ( <𝑍< ) = 𝑃 (−1.5 < 𝑍 < 0.5) = 𝜙(0.5) − 𝜙(−1.5)
2 2
= 𝜙(0.5) + 𝜙(1.5) − 1 = 0.6915 + 0.9332 − 1 = 0.6247 = 62.47% .

Pour la même loi 𝒩(5, 2) on cherchera les valeurs 𝑥 et 𝑦 tel que :

13
𝑃 (𝑋 ≤ 𝑥) = 0.8554 et 𝑃 (𝑋 ≥ 𝑦) = 87.9%
𝑥−5 𝑥−5
𝑃 (𝑋 ≤ 𝑥) = 𝑃 (𝑍 < ) = 0.8554  = 1.06  𝑥 = 1.06 ∗ 2 + 5 = 7.12 .
2 2
𝑦−5 𝑦−5 5−𝑦
𝑃 (𝑋 ≥ 𝑦) = 1 − 𝑃 (𝑍 < ) = 1−𝜙( ) = 𝜙( ) = 87.9% = 0.879
2 2 2
5−𝑦
 = 1.17  𝑦 = 5 − 1.17 ∗ 2 = 2.66 .
2

Maintenant on veut établir la loi de la somme de deux v.a. de lois normales, pour cela on a besoin de
définir la notion d’indépendance de v.a. continues.

14

Vous aimerez peut-être aussi