Vous êtes sur la page 1sur 18

U.S.T.H.B.

2023/2024
Faculté de Mathématiques M1 Big Data, CPSI

Chapitre 1 : Partie 2 : Lois usuelles

Objectif du chapitre : présenter les principales lois de probabilités pouvant être retenues
dans la modélisation statistique :

1. Cas discret : loi uniforme discrète, loi de Bernoulli, loi binômiale, loi géométrique, loi de
Poisson.

2. Cas continu : loi uniforme continue, loi exponentielle, loi normale, loi Gamma, loi de Khi-
deux, loi de Student, Loi de Fisher. Loi de Fisher-Snédecor, loi Weibull, loi Gamma, loi Béta,
loi Log-normale, loi de Cauchy.

Dans toute la suite nous considérons un espace de probabilité (Ω, A, P).

1 Lois usuelles discrètes


1.1 Loi uniforme discrète
Définition 1. On dit que la variable aléatoire X suit une loi uniforme sur {x1 , ..., xn } si : les n
valeurs discrètes x1 , ..., xn de la variable X ont chacune la même probabilité d’apparition c.à.d.
1
X(Ω) = {x1 , ..., xn } et P(X = x1 ) = ... = P(X = xn ) =
n
Notation : X U{x1 ,...,xn } .
n n
1
P P
Vérifions que c’est bien une loi de probabilité : P(X = xi ) = n
= 1.
i=1 i=1
Espérance et variance

Calcul de l’espérance :
n n
1
P P
E(X) = xi P(X = xi ) = n
xi = x̄ (moyenne arithmétique).
i=1 i=1

Calcul de la variance :
n n n
1 1
E(X 2 ) = x2i P(X = xi ) = x2i ⇒ var(X) = x2i − x̄2 .
P P P
n n
i=1 i=1 i=1

Résumé :

1
X U{x1 ,...,xn } ⇔ X(Ω) = {x1 , ..., xn } , ∀xi ∈ X(Ω) P(X = xi ) = ,
n

... ...
Page 1
n
1X 2
E(X) = x̄, var(X) = xi − x̄2 .
n i=1

Exemple : Une urne contient n boules numérotées de 1 à n. On tire une boule au hasard, et on
note X la variable aléatoire égale au chiffre obtenu. Quelle est la loi de X ?

Solution
X(Ω) = {1, ..., n} , et P(X = k) = n1 , ∀k ∈ X(Ω) ⇒ X suit une loi uniforme sur {1, ..., n} (ce que
l’on note par X U{1,...,n} ). Dans ce cas, on a :
2
n2 − 1

n(n + 1) n+1 n(n + 1)(2n + 1) n+1
E(X) = = et var(X) = − =
2n 2 6n 2 12

1.2 Loi de Bernoulli


Définition 2. On dit que la v.a X suit une loi de Bernoulli de parametre p, si X(Ω) = {0, 1} avec
(
P(X = 0) = 1 − p échec
P(X = 1) = p succès

On note X B(p)

• Fonction de répartition :

 0 si x < 0


F (x) = P(X ≤ x) = q si 0 ≤ x < 1


 1 si x ≥ 1

• Espérance :

X
E(X) = kP(X = k) = 0 × (1 − p) + 1 × p
k∈X(Ω)
= p

• Variance :
var(X) = E(X 2 ) − E2 (X). Donc on doit d’abord calculer E(X 2 ) :
X
E(X 2 ) = k 2 P(X = k) = 02 × (1 − p) + 12 × p = p,
k∈X(Ω)

donc
var(X) = p − p2 = p(1 − p) = pq

... ...
Page 2
Résumé :


 X(Ω) = {0, 1} ,

 ∀k ∈ X(Ω) P(X = k) = pk (1 − p)1−k ,

X B(p) ⇔


 E(X) = p,

var(X) = p(1 − p) .

Exemples :

1. Le résultat d’un lancer de pièce : Si je fais Pile, je gagne et si je fais Face je perd. On peut
considérer la v. a. X égale à 1 si j’obtiens Pile et égale à 0 si j’obtiens Face. Ainsi
(
1 si on obtient Pile
X=
0 si on obtient Face

Donc X est une variable aléatoire de Bernoulli de paramètre p = 1/2 si la pièce est bien
équilibrée. On a alors

X B(1/2), E(X) = p = 1/2, var(X) = p(1 − p) = 1/4

2. Une question posée dans un questionnaire, avec deux réponses possibles (par exemple " oui
" ou " non " codées respectivement 1 et 0), est une variable aléatoire de Bernoulli.

1.3 loi Binômiale


On effectue successivement n fois la même expérience de Bernoulli dans les mêmes conditions
d’une maniere indépendantes et on note par X la v.a qui compte le nombre de succès obtenus. On
dit que la variable X ainsi definie suit une loi binômiale de paramètres n et p.

Notation : X B(n, p).

• On a X(Ω) = {0, 1, 2, ..., n}.

• La loi de probabilité d’une v.a. binômiale

X B(n, p) ⇔ ∀k ∈ {0, 1, ..., n} , P(X = k) = Cnk pk (1 − p)n−k EspranceSoit


n
P
Xi B(p), On peut donc écrire X sous la forme d’une somme X = X1 +X2 +...+Xn = Xi .
i=1
D’après les propriétés de l’espérance on a :
n
! n n
X X X
E(X) = E Xi = E(Xi ) = p = np
i=1 i=1 i=1

... ...
Page 3
• Variance
Xn n
X
var(X) = var( Xi ) = var(Xi ) = np(1 − p) car les Xi sont indépendantes
i=1 i=1

Résumé :


 X(Ω) = {0, 1, ..., n} ,

 ∀k ∈ X(Ω) P(X = k) = C k pk (1 − p)n−k ,

n
X B(n, p) ⇔,


 E(X) = np,

var(X) = np(1 − p)

Exemple :
On jette un dé bien équilibré 5 fois de suite et soit X la v.a. qui compte le nombre de fois
qu’on a obtenu le nombre 1. Quelle est la loi de X ?
Solution : soit Xi la v.a. de Bernoulli telle que, pour i = 1, 2, 3, 4, 5
(
1 si on obtient 1 au i-ème lancer
Xi =
0 sinon
n
1
P
Alors pour i = 1, ..., 5 on a p = P(Xi = 1) = 6
donc Xi B(1/6) et X = Xi donc
i=1

X B(5, 1/6)
1 5
Pour k ∈ {0, 1, ..., 5} , P(X = k) = C5k ( )k ( )5−k ,
6 6
5
E(X) = ,
6
25
var(X) =
36

1.4 Loi géométrique

On réalise une suite d’expériences indépendantes, ayant chacune une probabilité p de donner
un succès, on réalise cette série d’épreuves indépendantes jusqu’à avoir un premier succès.

Définition 3. La variable aléatoire X qui compte le nombre d’expérience nécessaire à l’ob-


tention du premier succès dans une succession d’expériences de Bernoulli de paramètre p,
indépendantes, est appelée variable géomètrique de paramètres p.

Notation :X G(p).
Loi de probabilité :
Soit X la variable aléatoire qui compte le nombre de réalisations nécessaires pour l’obtention

... ...
Page 4
de ce premier succès alors X(Ω) = {1, 2, ..., ...}. En effet si on obtient le premier succès à la
première expérience alors X = 1, si on obtient le premier succès à la deuxième expérience
alors X = 2 etc...

Théorème 1.
X G(p) ⇔ ∀k ≥ 1, P(X = k) = (1 − p)k−1 p.

Remarque 1. A la difference de loi de Binomiale le nombre d’épreuves n’est pas fixé a


l’avance

Espérance et variance

– Espérance :
X X X
E(X) = kP(X = k) = k(1 − p)k−1 p = p k(1 − p)k−1 .
k≥1 k≥1 k≥1

Nous allons calculer cette somme comme une série entière.

X X d
k(1 − x)k−1 = − (1 − x)k
k≥1 k≥1
dx
d X
= − (1 − x)k
dx k≥1
d X
= − (1 − x)k+1
dx k≥0
( )
d X
= − (1 − x) (1 − x)k
dx k≥0
 
d 1
= − (1 − x) ( car |x|<1)
dx 1 − (1 − x)
 
d 1
= − (1 − x)
dx x
1
=
x2
d’où,
1 1
E(X) = p × 2
= .
p p

... ...
Page 5
– Variance :Remarquons que

E(X(X − 1)) = E(X 2 ) − E(X) ⇒ var(X) = E(X(X − 1)) + E(X) − E2 (X).

Donc on calcule d’abord


X X X
E(X(X−1))) = k(k−1)P(X = k) = k(k−1)(1−p)k−1 p = p k(k−1)(1−p)k−1 .
k≥1 k≥1 k≥1

Comme précédemment, nous allons calculer cette somme comme une série entière.

X X
k(k − 1)(1 − x)k−1 = (1 − x) k(k − 1)(1 − x)k−2
k≥1 k≥2
X d2
= (1 − x) 2
(1 − x)k
k≥2
dx
d2 X
= (1 − x) 2
(1 − x)k
dx k≥2
( )
d2 X
= (1 − x) 2 (1 − x)k+2
dx k≥0
2
 
d 2 1
= (1 − x) 2 (1 − x) ( car |x|<1)
dx 1 − (1 − x)
d2
 
21
= (1 − x) 2 (1 − x)
dx x
2(1 − x)
=
x3
2(1−p) 2(1−p) 1 1
E(X(X − 1)) = p × p3
, d’où, var(X) = p2
+ p
− p2

1−p
var(X) =
p2

Résumé :

X(Ω) = N∗ ,




∀k ∈ X(Ω) P(X = k) = p(1 − p)k−1 ,





X G(p) ⇔ 1
E(X) = ,


 p
1−p



 var(X) =
 .
p2

Exemple
Une urne contient des boules blanches et des boules noires, la proportion de boules blanches
est p, (p ∈]0, 1[). On fait une suite de tirages indépendants avec remise jusqu’à obtention

... ...
Page 6
de la première boule blanche. Soit X la variable aléatoire qui compte le nombre de tirages
nécessaires. Donner la loi de X.

Solution :
Posons Ai = "On tire une boule blanche au i-ème tirage". Le tirage d’une boule blanche est
considéré comme un succès. Comme il y a remise donc les événements Ai sont indépendants
et de même loi de Bernoulli. De plus, P(Ai ) = p, ∀i ≥ 1. La variable X suit donc une loi
géométrique de paramètre p : X G(p). Donc

∀k ≥ 1, P(X = k) = p(1 − p)k−1

1.5 Loi de Poisson

Définition 4. Une variable aléatoire X suit une loi de poisson de paramètre λ > 0 , si c’est
une variable à valeurs entières (X(Ω) = N), et de loi de probabilité :

λk
P(X = k) = e−λ , ∀k ∈ N
k!

Cette loi est aussi appelée loi des événements rares (voir loi de poisson ).
Notation :X P(λ).
Espérance et variance

Calcul de l’espérance :
X
E(X) = kP(X = k)
k≥0
X λk
= e−λ k
k≥0
k!
X λk X λk
= e−λ k = e−λ
k≥1
k! k≥1
(k − 1)!
X λl+1 X λl
−λ −λ
= e = λe (en posant l = k − 1)
l≥0
l! l≥0
l!
= λe−λ eλ = λ

d’où
E(X) = λ

... ...
Page 7
Calcul de la variance
X
E(X(X − 1)) = k(k − 1)P(X = k)
k≥0
X λk
= e−λ k(k − 1)
k≥0
k!
X λk X λk
= e−λ k(k − 1) = e−λ
k≥2
k! k≥2
(k − 2)!
X λl+2 X λl
= e−λ = λ2 e−λ (en posant l = k − 2)
l≥0
l! l≥0
l!
2 −λ λ 2
= λe e =λ
D’où,
var(X) = E(X(X − 1)) − E(X) (E(X) − 1) = λ2 − λ(λ − 1) = λ
var(X) = λ

Résumé :

λk
X P(λ) ⇔ X(Ω) = N, ∀k ∈ X(Ω) P(X = k) = e−λ ,
k!
E(X) = λ, var(X) = λ.

Exemple : Une machine utilisée dans une chaîne de production tombe en panne en moyenne
2 fois par mois. Soit X le nombre de pannes par mois. En supposant que X suit une loi de
Poisson, quelle est la probabilité que dans un mois donné la machine

1. Ne tombe pas en panne ?

2. Tombe en panne au moins deux fois ?

Solution :
Comme X, le nombre de panne, suit une loi de Poisson il faut donc trouver le paramètre
λ. Or on sait que pour la loi de Poisson, E(X) = λ. On sait aussi que le nombre moyen de
panne, c’est à dire E(X) est égal à 2. Donc λ = 2.
k
1. On cherche P(X = 0). Or P(X = k) = e−λ λk! , ∀k ∈ N. Donc
20
P(X = 0) = e−2 = e−2 (on rappelle que 0! = 1)
0!
2. On cherche P(X ≥ 2)
P(X ≥ 2) = 1 − P(X < 2) = 1 − P(X ≤ 1)
= 1 − (P(X = 0) + P(X = 1))
= 1 − 3e−2

... ...
Page 8
2 Lois usuelles continues

2.1 loi uniforme continue

Définition 5. Une v.a. X suit une loi uniforme continue si sa densité est constante sur un
intervalle fini [a, b] , et est de la forme :
1

 si x ∈ [a, b]
f (x) = b−a
0 sinon

Fonction de répartition : On a par définition d’une densité


Zx
F (x) = f (t)dt, ∀x ∈ R.
−∞

Rx
– Si x < a alors F (x) = 0dt = 0
−∞

Ra Rx 1 x−a
– Si a ≤ x < b alors F (x) = 0dt + b−a
dt = b−a
−∞ a

Ra Rb 1
Rx
– Si x ≥ b alors F (x) = 0dt + b−a
dt + 0dt = 1
−∞ a b

D’où 

 0 si x < a

x−a
F (x) = si x ∈ [a, b[

 b−a

1 si x ≥ b

... ...
Page 9
Notation :X U[a,b]

Espérance et Variance

Calcul de l’espérance :

Z+∞ Zb b
x x2 b+a
E(X) = xf (x)dx = dx = =
b−a 2(b − a) a 2
−∞ a

b+a
E(X) =
2
Calcul de la variance :
Nous devons d’abord calculer E(X 2 ). On a

Z+∞ Zb b
2 2 x2 x3 b2 + ab + a2
E(X ) = x f (x)dx = dx = =
b−a 3(b − a) a 3
−∞ a

b2 +ab+a2 b+a 2 (b−a)2



d’où var(X) = E(X 2 ) − E2 (X) = 3
− 2
= 12
.

(b − a)2
var(X) =
12

Résumé :

1
X U[a,b] ⇔ f (x) = I[a,b] ,
b−a
b+a (b − a)2
E(X) = , var(X) = .
2 12

... ...
Page 10
2.2 loi exponentielle

Définition 6. Soit X une v. a. absolument continue. On dit que X suit la loi exponentielle
de paramètre θ > 0 , si sa fonction densité s’écrit :
(
θe−θx si x ≥ 0
f (x) =
0 sinon

Fonction de répartition :

Zx
F (x) = f (t)dt, ∀x ∈ R.
−∞

Rx
– Si x ≤ 0 alors F (x) = 0dt = 0
−∞

R0 Rx x
– Si x > 0 alors F (x) = 0dt + θe−θt dt = − e−θt 0
= 1 − e−θx
−∞ 0

D’où (
0 si x < 0
F (x) = −θx
1−e si x ≥ 0
Remarque 2. La loi exponentielle (où la v. a. X qui suit une loi exponentielle) est sou-
vent utilisée pour représenter une durée de vie (durée de vie d’un matériel donné, durée de
chômage, durée d’hospitalisation etc...).

Notation :X E(θ)

Espérance et Variance

Calcul de l’espérance :
+∞ +∞
xe−θx dx, on fait une intégration par partie et on obtient :
R R
E(X) = xf (x)dx = θ
−∞ 0
+∞ +∞
+∞
xe−θx dx = − xθ e−θx 0 1
e−θx dx = 1
⇒ E(X) = 1θ .
R R
+ θ θ2
0 0

1
E(X) =
θ
Calcul de la variance :
+∞
R 2 +∞
R 2 −θx
E(X 2 ) = x f (x)dx = θ x e dx, on fait une intégration par partie et on obtient :
−∞ 0

Z+∞
+∞ 2 2
E(X 2 ) = −x2 e−θx 0 +2 xe−θx dx = E(X) = 2
θ θ
0

... ...
Page 11
On en déduit que
1
var(X) =
θ2

2.3 Loi normale ou de Laplace-Gauss

Définition 7. Soit X une v. a. absolument continue, on dit que X suit la loi normale de
paramètre m et σ 2 , si sa fonction densité s’écrit :
1 (x−m)2
f (x) = √ e− 2σ2 , m ∈ R, σ > 0.
2πσ

Graphe de la densité normale de paramètres m et σ 2

Notation :X N (m, σ 2 )

Espérance et Variance

Calcul de l’espérance :
+∞
R
E(X) = xf (x)dx. Remarquons que
−∞
 
0 1 x − m − (x−m) 2
f (x) = √ − e 2σ 2

2πσ σ2
 
1 x −
(x−m)2 m −
(x−m)2
= − 2 √ e 2σ2 − √ e 2σ2
σ 2πσ 2πσ
1
= − 2 {xf (x) − mf (x)}
σ
 +∞ 
Z+∞ Z Z+∞
0 1  
⇒ f (x)dx = − 2 xf (x)dx − mf (x)dx
σ  
−∞ −∞ −∞

... ...
Page 12
 

 


 +∞
Z 

+∞ 1  
⇒ f (x)|−∞ = − 2 E(X) − m f (x)dx
| {z } σ  

0 
 −∞ 
 | {z } 
1

E(X) = m
Calcul de la variance :
Nous allons calculer le moment d’ordre 2 c’est à dire E(X 2 ). Pour cela nous allons faire le
changement de variable u = x−m
σ
:

Z+∞ Z+∞ 2
x (x−m)2
E(X 2 ) = x2 f (x)dx = √ e− 2σ2 dx
2πσ
−∞ −∞
Z+∞
1  u2
= √ u2 σ 2 + 2mσu + m2 e− 2 σdu
2πσ
−∞
Z+∞ Z+∞ Z+∞ 2
σ2 u2 2mσ u2 1 u
= √ u2 e− 2 du + √ ue− 2 du +m 2
√ e− 2 du
2π 2π 2π
−∞ −∞ −∞
| {z } | {z }
0 car fct paire sur un intervalle symétrique 1 d’après l’équation (??)
Z+∞
σ2 u2
= √ u2 e− 2 du + m2

−∞

Une intégration par partie donne


Z+∞ 2
σ 2 u − u2 +∞ σ2 u
2
E(X ) = − √ e 2 |−∞ + √ e− 2 du +m2
2π 2π
| {z } −∞
0 | {z }
σ 2 d’après (??)
2 2
= σ +m

⇒ var(X) = E(X 2 ) − E2 (X) = σ 2

Remarque 3. Les paramètres m et σ 2 de la loi normale représente l’esperance et la variance


de X.

Loi normale centrée réduite (loi normale standard)


Soit la v. a. U définie par U = X−m
σ
. Sa densité de probabilité est telle que

X −m
FU (u) = P(U ≤ u) = P( ≤ u) = P(X ≤ σu + m) = FX (σu + m)
σ
1 u2
⇒ fU (u) = σfX (σu + m) = √ e− 2 ⇒ U N (0, 1)

... ...
Page 13
Définition 8. Soit X une v.a. de loi normale N (m, σ 2 ). La variable aléatoire centrée réduite
U = X−mσ
admet pour loi la loi normale N (0, 1), appelée loi normale centrée réduite ou
u 2
loi normale standard. Sa fonction densité est donnée par ϕ(u) = √1 e− 2 . Sa fonction de

Rx − u2
répartition, notée Φ(.) est donnée par Φ(x) = √12π e 2 du.
−∞

La fonction Φ(x) n’est pas exprimable au moyen d’une fonction usuelle. Les valeurs de Φ(x)
sont fournies dans les tables statistiques (table de la loi normale standard) pour x ≥ 0. Pour
x < 0, on utilise le fait que ϕ est une fonction paire, ϕ(u) = ϕ(−u) , c’est-à-dire que la loi
est symétrique par rapport au centre de distribution 0,

Remarque 4. 1. Pour x fixé dans R, la valeur Φ(x) est l’aire de la courbe ϕ(u) comprise
entre −∞ et x.
+∞ (x−m)2
√ 1 e−
R
2. Comme 2πσ
2σ 2 dx = 1, alors l’aire comprise entre −∞ et +∞ est égal à 1.
−∞
Comme la courbe est symétrique par rapport à 0 alors

Z0 Z+∞
1 (x−m)2 1 (x−m)2
√ e− 2σ2 dx = √ e− 2σ2 dx = 0.5
2πσ 2πσ
−∞ 0

3. Les valeurs de Φ(x), (x > 0) sont directement lues dans une table de valeurs appelée
table de la loi normale standard.

4. Pour x < 0, et du fait de la symetrie on obtient P(U ≤ −x) = P(U > x) = 1−P(U ≤ x),
c’est-à-dire
Φ(−x) = 1 − Φ(x)

5. Si X N (m, σ 2 ) alors F (x) = P(X ≤ x) = P( X−m


σ
≤ x−m
σ
) = P(U ≤ x−m
σ
) = Φ( x−m
σ
)

Exemple
Soit X une variable qui suit une loi normale de paramètre 3 et 9 (X N (3, 9)). Calculer
FX (6), P(2 < X ≤ 4), P(X > 0), et P(|X − 3| > 6).

Solution : Comme X N (3, 9)) alors m = 3 et σ 2 = 9 = 32 .

– FX (6) = Φ( 6−3
3
) = Φ(1) = 0.8413, (lecture sur la Table)


4−3 2−3
P(2 < X ≤ 4) = P(X ≤ 4) − P(X ≤ 2) = FX (4) − FX (2) = Φ( ) − Φ( )
3 σ
= Φ(0.33) − Φ(−0.33) = Φ(0.33) − (1 − Φ(0.33)) = 2Φ(0.33) − 1
= 2 × 0.6293 − 1 = 0.2586

... ...
Page 14

0−3
P(X > 0) = 1 − P(X ≤ 0) = 1 − FX (0) = 1 − Φ( )
3
= 1 − Φ(−1) = 1 − (1 − Φ(1)) = Φ(1) = 0.8413

P(|X − 3| > 6) = 1 − P(|X − 3| ≤ 6) = 1 − P(−6 ≤ X − 3 ≤ 6)


6 X −3 6
= 1 − P(− ≤ ≤ ) = 1 − P(−2 ≤ U ≤ 2) = 1 − (Φ(2) − Φ(−2))
3 3 3
= 1 − Φ(2) + (1 − Φ(2)) = 2 (1 − Φ(2))
= 2(1 − 0.9772) = 0.0456

2.4 Loi Gamma

Une v.a X suit une loi Gamma de parametres α > 0 et β > 0 si sa densité de probabilité est
définie par :  α
 β e−βx xα−1

si x ≥ 0
f (x) = Γ(α)

 0 si x < 0
ou bien
β α −βx α−1
f (x) = e x 1[0,+∞[
Γ(α)
R∞
oú Γ est la fonction Gamma d’Euler : Γ(α) = 0 e−t tα−1 dt.
On note X γ(α, β).

Remarque 5. si α = 1 c’est-à-dire γ(1, β)) on trouve la loi exponentielle de paramètre


λ = 1.

Espérance et Variance

L’espérance mathématique d’une v. a X qui suit une loi Gamma de paramètre α > 0 et
β > 0 est :

α
E(X) =
β
En effet, par une integration par partie, puis un changement de variable en posant βx = t
on a : Z ∞
βα α
E(X) = e−βx xα dx =
Γ(α) 0 β

Sa variance est :
α
var(X) =
β2

... ...
Page 15
Propriétés de la fonction Γ(α)

1. Si α = n ∈ N, Γ(n) = (n − 1)!
en effet :Γ(n) = (n − 1)Γ(n − 1) = (n − 1)(n − 2)Γ(n − 2) = ... = (n − 1)!Γ(1)
R∞
2. Γ(n + 1) = nΓ(n) = (n)!Γ(1) = 1, en effet, Γ(1) = 0 e−t dt = 1

4. Γ( 12 ) =
3. π

Lemme
Soient X1 , X2 , ..., Xn n variables aléatoires indépendantes et identiquements distribuées
(i.i.d) (de même loi exponentielle) de paramètre λ > 0 donc la loi de la somme X1 + X2 +
... + Xn est la loi γ(n, λ)

Théorème 2. Soient X et Y deux v. a. indépendantes suivant resoectivememt une loi γ(p, θ)


et une loi γ(q, θ) alors la variable X + Y suit une loi

γ(p + q, θ)

2.5 Loi du Khi-deux

Soit X une variable aléatoire distribuée suivant une loi normale centrée réduite, c’est-à-dire
X ∼ N (0, 1). Son carré Y = X 2 est une variable aléatoire dont la loi s’appelle distribution
du Khi-deux à 1 degré de liberté (abrégé en d.d.l.) et on la note Y ∼ χ21 .
Propriétés
Si X1 et X2 suivent indépendamment des lois du χ2 à n1 et n2 degrés de liberté, alors leur
somme X = X1 + X2 suit une loi du χ2 à n1 + n2 degrés de liberté, notée χ2(n1 +n2 ) .



 X1 ∼ N (0, 1)
 X2 ∼ N (0, 1)
 Xn

.. ⇒ Z = Xi2 ∼ χ2n loi du khi-deux à n degré de liberté




 . i=1
 X ∼ N (0, 1)

n

Remarque 6. La loi de khi-deux est tabulée, elle n’est pas symétrique.

Espérance et Variance :

1. L’espérance mathématique d’une v.a X qui suit une loi de khi-deux à n degrés de
liberté est E(X) = n

2. Sa variance est : V ar(X) = 2n

... ...
Page 16
La densité une v.a X suit une loi du khi-deux à n degrés de liberté si sa densité de probabilité
est définie par :

1 x n

 n
n
e− 2 x 2 −1 si x ≥ 0
f (x) = 2 2 Γ( 2 )

 0 si x < 0

On note X ∼ χ2n ou bien X ∼ χ2 (n).


Si n2 = α et 12 = β, on retrouve la loi Gamma.

• γ( n2 , 12 ) = χ2n

• γ( 2n , 1 ) = χ22n
2 2

2.6 Loi de Student

Soit X une variable aléatoire normale centrée réduite N (0, 1) et Y une variable indépendante
de X, qui suit une distribution de χ2 (n) à n d.d.l. La distribution de la variable alétoire
T = √XY est appelée distribution de student à n d.d.l, et on note T ∼ stn = tn . Cette
n
distribution est symétrique autour de 0, et elle est tabulée.
Espérance et Variance :

1. L’espérance mathématique d’une v.a X qui suit une loi de Student à n degrés de liberté
est E(X) = 0, n > 1 (symétrique)
n
2. Sa variance est : V ar(X) = n−2
, n>2

La densité  n+1
Γ n+1 2 − 2
 
2 x
f (t) = √  1+ x∈R
πn Γ n2 n

2.7 Loi de Fisher-Snédecor

Soit X1 et X2 deux variables aléatoires suivent indépendamment des lois de χ2 à n1 et n2


X1
n1
d.d.l. la distribution de la variable aléatoire F = X2 est appelée distribution de Fisher à n1
n2
et n2 d.d.l. et on note X ∼ F (n1 ; n2 )
Espérance et Variance :

1. L’espérance mathématique d’une v.a X qui suit une loi de Fisher F (n1 ; n2 ) à n1 et n2
degrés de liberté est E(X) = n2n−2
2
, n2 > 2
2n22 (n1 +n2 −2)
2. Sa variance est : V ar(X) = (n1 −2)2 n2 −4)
, n2 > 4

... ...
Page 17
La densité  n21 n1
n1 +n2

−1

Γ n1 x 2
f (x) = n1
2 n2
  n1 +n x≥0
Γ 2
Γ 2
n2 
n1 2
2

1+ n2
x
où Γ est la fonction gamma

... ...
Page 18

Vous aimerez peut-être aussi