Vous êtes sur la page 1sur 9

𝑪𝒉𝒂𝒑𝒊𝒕𝒓𝒆 𝟏

𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒂𝒍𝒆𝒔 𝒍𝒐𝒊𝒔 𝒅’𝒊𝒏𝒅𝒖𝒄𝒕𝒊𝒐𝒏 𝒔𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆

Certaines situations expérimentales donnent des distributions de probabilité spécifiques. En économie,


les distributions utilisées sont simplement des modèles des phénomènes observés. La distribution
normale est la distribution de base en économétrie, mais les économistes en utilisent beaucoup
d’autres.

1. Loi normale ou loi de Gauss-Laplace


1.1. Définition de la loi normale
On dit qu’une variable aléatoire réelle (v.a.r.) continue X suit une loi normale (ou loi de Gauss-Laplace)
de paramètres 𝜇 et 𝜎 si sa densité de probabilité 𝑓 est donnée par la fonction :
1 1 𝑥−𝜇 2
𝑓(𝑥) = 𝑒 −2 ( 𝜎
)
, 𝑥∈ℝ
𝜎√2𝜋
𝜇 et 𝜎 sont des paramètres de la loi Normale
On note 𝑋 → 𝑁(𝜇, 𝜎)
On a
𝐸(𝑋) = 𝜇, 𝑉(𝑋) = 𝜎 2 , 𝑒𝑡 𝜎(𝑋) = 𝜎

La courbe représentative de la normale 𝑁(𝜇, 𝜎) est une courbe en forme de cloche et symétrique par
rapport à la droite d’équation (x= 𝜇)

1.2. Loi normale centrée réduite


Si X suit une loi normale N( 𝜇, 𝜎) on a
𝑥
1 1 𝑡−𝜇 2
𝐹(𝑥) = 𝑃(𝑋 𝑥) = ∫
− ( )
𝑒 2 𝜎 𝑑𝑡 (1)
𝜎√2𝜋
−∞
Il est très fastidieux de déterminer la primitive de l’intégrale (1).
Pour calculer les probabilités avec une loi normale N( 𝜇, 𝜎), on effectue systématiquement le
changement de variable suivant :
𝑋−𝜇
𝑇=
𝜎
La variable auxiliaire T (écart centré réduit) suit une loi normale de moyenne 0 et d’écart type 1, appelée
loi normale centrée réduite.
On note 𝑻 → 𝑵(0,1),
La densité de probabilité de la loi normale centrée et réduite est donnée par la fonction de densité :
1 1 2
𝑓(𝑡) = 𝑒 −2 𝑡 , 𝑡∈ℝ
√2𝜋
Remarque
La courbe représentant la loi normale centrée et réduite 𝑵(0,1) est une courbe en cloche et symétrique
par rapport à l’axe des ordonnées.

1
a) Table de la fonction intégrale de la loi normale centrée réduite
La loi normale centrée et réduite est tabulée. La table de la fonction intégrale de la loi normale centrée
réduite donne la probabilité
La fonction de répartition de la loi normale centrée et réduite est :
𝑡
1 1 2
Π(𝑡) = ℙ(𝑇 < 𝑡) = ∫ 𝑒 −2 𝑥 𝑑𝑥
𝜎√2𝜋
−∞

Pour lire la valeur de ℙ(𝑇 < 𝑡), on décompose t comme suit : 𝑡 = 𝑡𝐿 + 𝑡𝑐


ℙ(𝑇 < 𝑡) = ℙ(𝑇 < 𝑡𝐿 + 𝑡𝑐 )
𝑡𝑐 = 0,0𝑐

𝑡𝐿 = 𝑎, 𝑏 → ℙ(𝑇 < 𝑡)

Illustration
Soit X une variable qui suit une loi normale de moyenne 8000 et d’écart-type 250.
Déterminer 𝑃(𝑋 < 8400)

Corrigé
On pose
𝑋 − 8000
𝑇=
250
La variable T suit une loi normale N(0, 1), alors on a :
8400 − 8000
𝑃(𝑋 < 8400) = 𝑃 (𝑇 < )
250
𝑃(𝑋 < 8400) = 𝑃(𝑇 < 1,6)
𝑃(𝑋 < 8400) = 𝑃(𝑇 < 1,6 + 0,00)
ℙ(𝑇 < 𝑡) = ℙ(𝑇 < 𝑡𝐿 + 𝑡𝑐 )
𝑡𝑐 = 0,00

𝑡𝐿 = 1,6 → ℙ(𝑇 < 1,6) = 0,9452

Remarque : En raison de la symétrie de loi normale


Π(−𝑡) = ℙ(𝑇 < −𝑡) = ℙ(𝑇 > 𝑡)
Π(−𝑡) = 1 − ℙ(𝑇 < 𝑡)
Π(−𝑡) = 1 − Π(𝑡)
Illustration

2
Reprenons la variable aléatoire X qui suit une loi normale de moyenne 8000 et d’écart-type 250.
Déterminer 𝑃(𝑋 < 7385)
Corrigé
7385 − 8000
𝑃(𝑋 < 7385) = 𝑃 (𝑇 < )
250
𝑃(𝑋 < 7385) = 𝑃(𝑇 < −2,46)
𝑃(𝑋 < 7385) = 1 − 𝑃(𝑇 < 2,46)
ℙ(𝑋 < 7385) = 1 − 0,9931
𝑡𝑐 = 0,06

𝑡𝐿 = 2,4 → ℙ(𝑇 < 2,46) = 0,9931

ℙ(𝑋 < 7385) = 0,0069

b) Table de l’écart réduit


Cette table permet de trouver la valeur de t pour 𝛼 ∈ ]0, 1[ telle que 𝑃(−𝑡 ≤ 𝑁(0,1) ≤ 𝑡) = 1 − 𝛼
ℙ(−𝑡 < 𝑇 < 𝑡) = 1 − 𝛼

Pour lire la valeur de t, on décompose 𝛼 comme suit 𝛼 = 𝛼𝐿 + 𝛼𝑐


𝛼𝑐 = 0,0𝑐

𝛼𝐿 = 𝑎, 𝑏 → 𝑡

1.3 Somme de deux lois normales indépendantes


Soient

𝑿𝟏 → 𝑵(𝝁𝟏 , 𝝈𝟏 ) et 𝑿𝟐 → 𝑵(𝝁𝟐 , 𝝈𝟐 ) sont des variables aléatoires normales indépendantes, alors on

obtient la propriété d’additivité :

𝑿𝟏 + 𝑿𝟐 → 𝑵 (𝝁𝟏 + 𝝁𝟐 , √𝝈𝟐𝟏 + 𝝈𝟐𝟐 )


Ce résultat se généralise immédiatement à la somme de 𝒏 variables aléatoires normales
indépendantes.
Soient 𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏 n variables aléatoires qui suivent une loi normale : 𝑿𝒊 → 𝑵(𝝁𝒊 , 𝝈𝒊 )

Alors la variable 𝑺𝒏 = 𝑿𝟏 + 𝑿𝟐 + ⋯ + 𝑿𝒏 suit une loi normale

On a
𝑬(𝑺𝒏 ) = 𝝁𝟏 + 𝝁𝟐 + ⋯ + 𝝁𝒏

3
𝑽𝒂𝒓(𝑺𝒏 ) = 𝝈𝟐𝟏 + 𝝈𝟐𝟐 + ⋯ + 𝝈𝟐𝒏

1.3. Théorème central limite


Soit 𝑋1 , 𝑋2 , … , 𝑋𝑛 une suite de variables aléatoires indépendantes suivant une même loi, d’espérance
finie 𝜇 et de variance finie 𝜎 2 . On suppose que
𝐸(𝑋𝑖 ) = 𝜇 𝑒𝑡 𝑉𝑎𝑟(𝑋𝑖 ) = 𝜎 2 , ∀1 ≤ 𝑖 ≤ 𝑛
Soit
𝑆𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
Alors, si n augmente indéfiniment, la variable aléatoire somme 𝑆𝑛 suit sensiblement une loi normale
de moyenne 𝑛𝜇 et de variance 𝑛𝜎 2 et ceci quelles que soient les lois de probabilités des
variables aléatoires 𝑋𝑖 . Par suite la variable auxiliaire
𝑆𝑛 − 𝑛𝜇
𝑇=
𝜎 √𝑛
Suit une loi normale centrée réduite
En pratique, cette approximation est valable pour 𝑛 > 30.

2. Fonction gamma
2.1. Définition
Une variable aléatoire X suit une loi gamma de paramètre a, (a > 0) si sa densité de probabilité
est donnée par :
1 𝑎−1 −𝑥
𝑓(𝑥) = 𝑥 𝑒 ,𝑥 > 0
Γ(𝑎)
On résume cette loi par la notation  (a ) avec
+∞

Γ(𝑎) = ∫ 𝑥 𝑎−1 𝑒 −𝑥 𝑑𝑥
0

La distribution gamma est utilisée dans différentes configurations : distribution de revenu, fonctions
de production, …

2.2. Propriétés de Γ (a )
(i) Γ(a  1 )  aΓ ( a )
(ii) Γ(n )  (n  1)! , n  IN *
1 
(iii) Γ   
2

3. Lois dérivées de la loi normale


3.1. Loi du Khi-Deux
3.1.1. Définition
On considère n variables aléatoires 𝑋1 , 𝑋2 , … , 𝑋𝑛 indépendantes suivant toutes la loi normale centrée et
réduite

4
𝑋1 → 𝑁(0, 1)
𝑋2 → 𝑁(0, 1)

𝑋𝑛 → 𝑁(0, 1)
Posons 𝑌 = 𝑋12 + 𝑋22 + …+ 𝑋𝑛2
La variable 𝑌 = 𝑋12 + 𝑋22 + … + 𝑋𝑛2 suit une loi du Khi-Deux à 𝑛 degrés de liberté.
On note
𝑌 ⟶ 𝜒𝑛2
3.1.2 Fonction de densité
Si 𝑌 ⟶ 𝜒𝑛2 sa fonction de densité est donnée par :
1 𝑛 1
n 𝑦 2−1 𝑒 −2𝑦 𝑠𝑖 𝑦 > 0
𝑛
𝑓(𝑦) = 22 Γ (2)

{0 𝑠𝑖 𝑦 ≤ 0

3.1.3 Valeurs caractéristiques


𝐸(𝑌) = 𝑛 𝑒𝑡 𝑉𝑎𝑟(𝑌) = 2𝑛
3.1.4. Domaine d’intervention
La loi du Khi-Deux intervient dans les problèmes suivants :
- estimation et de tests relatifs à une variance ;
- tests d’indépendance ;
- test d’adéquation ;
- tests de normalité et les tests d’hétéroscédasticité en économétrie
- etc.

3.1.5. Table de la loi de Khi-Deux


La distribution du Khi-Deux ne dépendant que d’un seul paramètre n, le nombre de degré de liberté.

, la table que l’on trouvera en annexe est à double entrée n et  . Elle donne pour n inférieur ou

égal à 30, la valeur du 2 ayant la probabilité  d’être dépassée.

5

P 2n  2   
Si les valeurs de n et  sont données alors on lit 2 sur la table du Khi-Deux.

3.1.6. Approximation de Fisher


Soit Y une variable aléatoire admettant une loi du Khi-Deux à n degrés de liberté. Si n  30 , la variable

aléatoire 2Y  2 n 1 suit approximativement une loi normale centrée réduite.


Proba 

Degré de liberté

n 2

3.2. Loi de Student


3.2.1. Définition

Soient X et Y deux variables aléatoires indépendantes de lois respectives N(0,1) et 2 (n ) .


X  N (0,1)
Y   2 ( n)
On appelle loi de Student à 𝑛 degrés de liberté la loi suivie par le rapport :
𝑋
𝑇𝑛 =
√𝑌
𝑛

Cette loi est notée : Tn .

La densité de probabilité de la loi de Student de degré n est donnée par :


𝑛+1 𝑛+1
2 − 2
Γ( ) 𝑥
𝑓(𝑥) = 2
𝑛 (1 + 𝑛 ) , 𝑥𝜖ℝ
√𝑛 𝜋 Γ ( 2 )
Remarque
La loi de Student a la même allure que la loi normale mais avec des queues plus fines. Cette
loi est symétrique par rapport à l’axe des ordonnées, son espérance mathématique est nulle.
Les statisticiens ont inventé cette loi pour construire des intervalles de confiance sur la moyenne
lorsque l’écart type  de la population est inconnu. (Intervalle de confiance d’une moyenne,

3.2.2. Valeurs caractéristiques

6
 n
n  2 si n  2


E (Tn)  0 (symétrie) et Var(Tn )  

 si n  2


7
3.2.3. Domaine d’intervention
La loi de Student est souvent utilisée en inférence statistique dans les problèmes d’estimation et de test
d’hypothèses portant sur la moyenne d’une population normalement répartie de variance inconnue si
l’échantillon est de faible taille (n<30).

3.2.4. Table de la loi de Student


La loi de Student 𝑇𝑛 est tabulée, la table donne, en fonction du nombre de degrés de liberté 𝑛 et la
probabilité 𝛼 , la valeur 𝑡𝛼 pour que 𝑇𝑛 égale ou dépasse, en valeur absolue 𝑡𝛼
𝑃(−𝑡𝛼 ≤ 𝑇𝑛 ≤ +𝑡𝛼 ) = 1 − 𝛼

Probabilité 𝛼
ddl

𝑛 → 𝑡𝛼

3.2.5. Comportement asymptotique

La loi de Student tend asymptotiquement vers la loi normale centrée réduite N(0,1) pour de grandes

valeurs de n, (𝑛 > 30).


𝑇𝑛 ⟶ 𝑁(0, 1) 𝑞𝑢𝑎𝑛𝑑 𝑛 > 30
Remarque
Loi de Student à 1 degré de liberté. Pour 𝑛 = 1, la loi de Student est confondue avec celle de Cauchy.
La densité de la loi de Cauchy est :
1
𝑓(𝑥) = , 𝑥𝜖ℝ
𝜋(1 + 𝑥 2 )
La loi de Cauchy ne possède aucun moment, à fortiori, ni espérance, ni variance.

3.3. Loi de Fisher –Snedecor


3.3.1. Définition
Soient X et Y deux variables indépendantes suivant respectivement les lois 𝜒𝑛2 et 𝜒2𝑚.
𝑋 ⟶ 𝜒𝑛2 et 𝑌 ⟶ 𝜒𝑚
2

La variable 𝐹𝑛,𝑚 = (𝑋/𝑛)/(𝑌/𝑚) suit une loi de Fisher-Snedecor à 𝑛 et 𝑚 degrés de liberté.

- Le nombre 𝑛 est appelé nombre de degrés de liberté du numérateur


- Le nombre 𝑚 est appelé nombre de degrés de liberté du dénominateur.

3.3.2. Fonction de densité


La densité de la loi de Fisher est donnée par :
 n m
   n  m  n 2 m 2 n
1
  2  x2
 , x0
n  m n m
f (x)     
2  2   m  nx  2



 0 , x 0

8
3.3.3. Valeurs caractéristiques

Une loi de Fisher est telle que


𝑚 2𝑚2 (𝑛 + 𝑚 − 2)
𝐸(𝐹𝑛,𝑚 ) = (𝑚 > 2) 𝑒𝑡 𝑉𝑎𝑟(𝐹𝑛,𝑚 ) = (𝑚 > 4)
𝑚−2 𝑛(𝑚 − 2)2 (𝑚 − 4)

3.3.4. Table de la loi de Fisher-Snedecor


Cette table que l’on trouvera en annexe est à triple entrée (𝛼, 𝑛, 𝑚). Elle donne la probabilité 𝛼 pour que
𝐹𝑛,𝑚 égale ou dépasse une valeur donnée 𝐹𝛼 .
𝑃(𝐹𝑛,𝑚 > 𝐹𝛼 ) = 𝛼
Si les valeurs de 𝑛, 𝑚 et 𝛼 sont données alors on lit 𝐹𝛼 sur la table de Fisher.

Vous aimerez peut-être aussi