Vous êtes sur la page 1sur 17

Chapitre 6

Lois de Probabilités Théoriques

De nombreuses situations pratiques en statistique, s’apparentent à certains compor-


tements de variables aléatoires qui sont régies par des lois théoriques. On va voir ici
quelques-unes d’entre elles.

6.1 Lois Discrètes



Ce sont des lois caractérisées par une liste (xi , pi )i∈I⊂N telle que pi ≥ 0 et pi = 1.
i∈I

6.1.1 Loi Uniforme



n
1
On a, = 1. D’où,
i=1 n

Définition 6.1.1. — On dit que la variable aléatoire X a une distribution uniforme


sur n points x1 , . . . , xn si sa distribution est donnée par :

1
pi := P(X = xi ) = ∀i ∈ {1, 2, . . . , n}
n
Notation. X ∼ U(x1 , . . . , xn ) et on lit X suit la loi uniforme sur {x1 , . . . , xn }

Théorème 6.1.1. — Soit X une variable aléatoire réelle telle que X ∼ U(1,. . .,n). On
a alors :
n+1
a) E(X) =
2
n2 − 1
b) V ar(X) =
12
Preuve : n
1∑ 1 n(n + 1) n+1
a) E(X) = i= . =
n i=1 n 2 2
( )2
1 ∑n
n+1 1 n(n + 1)(2n + 1) (n + 1)2 (n + 1)(n − 1)
b) V ar(X) = i −
2
= . − = 
n i=1 2 n 6 4 12

1
2 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES

Exemple 6.1.1. On choisit au hasard une boule d’une urne contenant n boules nu-
mérotés 1, 2, . . . , n.
Soit X le numéro de la boule choisie. Il est claire que X ∼ U (1, . . . , n).
C’est le sens à donner à la locution "au hasard".

6.1.2 Loi Binomiale


D’après la formule du Binôme de Newton, on a :


n
1 = (p + (1 − p))n = Cnk .pk .(1 − p)n−k
k=0

D’où

Définition 6.1.2. — On appelle distribution binomiale de paramètres n ∈ N∗ et


p ∈ [0, 1], la distribution d’une variable aléatoire réelle X qui prend toutes les valeurs
entières k ∈ {0, 1, . . . , n}, avec :

pk := P(X = k) = Cnk .pk .(1 − p)n−k ∀k ∈ {0, 1, . . . , n}

Notation.
• X ∼ B(n, p) et on lit X suit la loi binomiale de paramètres n et p.
• 1 − p est souvent noté q.

Remarque. Si n = 1, la loi binomiale est appelée aussi de Bernoulli de paramètre p,


notée tout simplement B(p).

Théorème 6.1.2. — Soit X une variable aléatoire réelle telle que X ∼ B(n, p). On a
alors :
a) M oyenne : E(X) = np
b) V ariance : V ar(X) = npq avec q := 1 − p
n−k p
c) Relation de récurrence : p0 = q n et pk+1 = pk . .
k+1 q
d) M ode : le ou les entiers appartenant à [np − q, np + p]
e) (n − X) ∼ B(n, q)

Preuve :

n ∑
n
n!
a) E(X) = i.Cni .pi .(1 − p)n−i = i. .pi .(1 − p)n−i
i=0 i=1 i!(n − i)!

n
(n − 1)!
= np .pi−1 .(1 − p)(n−1)−(i−1)
i=1 (i − 1)! [(n − 1) − (i − 1)]!

n−1
= np j
Cn−1 .pj .(1 − p)n−1−j = np. (p + (1 − p))n−1
j=0
= np
6.1. LOIS DISCRÈTES 3

( ) ∑
n
b) V ar(X) = E (X − X)2 = E ((X − np)2 ) = (i − np)2 Cni pi (1 − p)n−i
i=0
n [
∑ ]
= i(i − 1) + i(1 − 2np) + n p Cni pi (1 − p)n−i
2 2

i=0

n ∑
n
= i(i − 1)Cni pi (1 − p)(n−i) + (1 − 2np) iCni pi (1 − p)(n−i)
i=0 i=0

n
+n2 p2 Cni pi (1 − p)(n−i)
i=0

n
n!
= i(i − 1) pi (1 − p)(n−i) + (1 − 2np)E(X) + n2 p2
i=2 i!(n − i)!

n−2
= n(n − 1)p2 j
Cn−2 pj (1 − p)n−2−j + (1 − 2np)np + n2 p2
j=0
= n(n − 1)p + np − n2 p2
2

= np(1 − p)
c) Evidente
d) (Admise)
e) n − X (Ω) = {0, 1, . . . , n} et ∀k ∈ {0, 1, . . . , n} on a :
( )
P (n − X) = k) = P(X = n − k) = Cnn−k pn−k (1 − p)n−(n−k) = Cnk q k (1 − q)n−k 
1
Remarque. On notera que la loi binomiale n’est symétrique que si p = et que dans
2
n Ck C n−k
ce cas, le centre de symétrie est puisque pk = nn = nn = pn−k .
2 2 2
Théorème 6.1.3. — (Condition de Validité)
Si un événement A a la probabilité p d’apparaître au cours d’une expérience aléa-
toire, alors la variable aléatoire réelle X donnant le nombre d’apparitions de l’événe-
ment A au cours de n expériences indépendantes, suit la loi binomiale de paramètres
n et p.
Preuve :
Il est évident que X prend bien les entiers 0, 1, . . ., n.
Un résultat possible avec k succès (=A) à la suite des n épreuves est
A
| A A{z
. . . . . . A} Ā
| Ā Ā{z
. . . . . . Ā}
k succès n−k échecs

dont la probabilité est, par l’hypothèse d’indépendance, le produit pk q n−k . Or, le nombre
de tels résultats est le nombre Cnk des différents choix possibles pour placer les k succès
dans les n places disponibles. Ainsi la probabilité d’avoir k succès A est bien Cnk pk q n−k 
Exemple 6.1.2. Lors d’un tirage avec remise, le nombre de succès suit la loi
binomiale de paramètre n = nombre de tirages effectués et p = la probabilité d’avoir un
succès lors d’un seul tirage.
Exemple 6.1.3. On reçoit un Dh toutes les fois qu’on obtient un as lors de 15 lan-
cers d’un dé. On a ainsi une épreuve (= lancer du dé) qu’on répète 15 fois de façon
1
indépendante, dont la probabilité du succès (= avoir un as) est .
6
4 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES

Donc, la variable aléatoire réelle X, donnant le gain (= nombre de succès) lors des
1
15 lancers, suit la loi binomiale B(15, ).
6
Par conséquent, le gain moyen (= gain espéré) est 2.5 Dh et le gain le plus probable
est 2 Dh.

6.1.3 Loi de Poisson



+∞
λk ∑ λk e−λ
+∞
Pour λ ∈ R+∗ on a : eλ = ⇐⇒ = 1. D’où,
k=0 k! k=0 k!

Définition 6.1.3. — On appelle loi de Poisson de paramètre λ ∈ R+∗ , la distribution


d’une variable aléatoire réelle X qui prend tous les entiers naturels, avec :

e−λ λk
pk = P(X = k) = ∀k ∈ N
k!
Notation. X ∼ P(λ) et on lit X suit la loi de Poisson de paramètre λ.

Théorème 6.1.4. — Soit X une variable aléatoire réelle telle que X ∼ P(λ). On a
alors :
a) M oyenne : E(X) = λ
b) V ariance : V ar(X) = λ
λ
c) Relation de récurrence : p0 = e−λ et pk+1 = pk .
k+1
d) M ode : le ou les entiers appartenant à [λ − 1, λ]

Preuve :

+∞
λk ∑ λk−1
+∞ ∑ λk
1 +∞
a) En dérivant eλ = par rapport à λ, on obtient eλ = k = k
k=0 k! k=0 k! λ k=0 k!
∑ λk
+∞
D’où on tire : λ = e−λ k = E(X)
k=0 k!
∑ λk
+∞
λ
b) En dérivant deux fois e = par rapport à λ, on obtient
k=0 k!

+∞
λk−1 ∑
1 +∞ λk
eλ = k(k − 1) = 2 k(k − 1)
k=0 k! λ k=0 k!
∑ λ
+∞ k ∑ λ
+∞ k
On tire alors : λ2 = e−λ k 2 − e−λ k = E(X 2 ) − E(X) = E(X 2 ) − λ
k=0 k! k=0 k!
D’où, V ar(X) = E(X 2 ) − (E(X))2 = λ2 + λ − λ2 = λ

λk+1 λk λ λ
c) pk+1 = e−λ = e−λ = pk .
(k + 1)! k!(k + 1) k+1
d) Admise 

Remarque. Il convient de remarquer que la loi de Poisson est la seule loi discrète,
à avoir l’espérance égale à la variance.
6.1. LOIS DISCRÈTES 5

Théorème 6.1.5. — Quand n est très grand (→ +∞) et p très petit (→ 0) avec
np = λ une constante finie, la loi binomiale B(n, p) est équivalente à la loi de Poisson
P(λ).
En pratique, l’équivalence est vraie dès que n ≥ 50 et p < 0.1.

Preuve :
Admise 

Remarque. On rencontre donc la loi de Poisson dans le cas des faibles probabilités.
Par exemple :
– nombre de pièces défectueuses contenues dans un échantillon important prélevé
dans un lot où la proportion de pièces défectueuses est faible.
– nombre d’appels téléphoniques sur une ligne pendant une période donnée.
– Nombre de périodes où se présentent 0, 1, 2...clients dans une fil d’attente...

Exemple 6.1.4. On suppose que dans un livre de 500 pages, il y a 300 fautes distribuées
au hasard. Quelle est la probabilité qu’une page donnée contienne exactement 2 fautes ?
1
Soit X = nombre de fautes, et on cherche P(X = 2). Or X ∼ B(300, ), donc :
500

P(X = 2) = C300
2
(0.002)2 (0.998)298 ≃ 0.098792

1
Mais, comme n = 300 > 50 et p = < 0.1, on a B(300, 0.002) ≃ P(0.6).
500
Donc,
e−0.6 (0.6)2
P(X = 2) = ≃ 0.098786
2!
On note la bonne qualité de l’approximation.

6.1.4 Loi Géométrique



+∞
1
Pour p ∈]0, 1[, on a : (1 − p)k−1 p = p. = 1. D’où,
k=1 1 − (1 − p)

Définition 6.1.4. — On appelle loi géométrique de paramètre p ∈]0, 1[, la distri-


bution d’une variable aléatoire réelle X qui prend tous les entiers naturels non nuls,
avec :
pk = P(X = k) = (1 − p)k−1 p ∀k ∈ N∗

Notation. X ∼ G(p) et on lit X suit la loi géométrique de paramètre p.

Théorème 6.1.6. Lorsqu’on répète de façon indépendante une expérience aléatoire à


deux issues donnant le succès avec une probabilité p, alors la variable aléatoire réelle X
donnant le nombre d’expériences qu’il faut pour arriver au premier succès, suit la loi
géométrique de paramètre p.
6 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES

Preuve :
Il est évident que X prend bien sur tous les entiers naturels non nuls.
La seule possibilité donnant le premier succès S après k expériences est

EE
| . .{z. . . . E} S
k−1 échecs E

dont la probabilité est, par l’hypothèse d’indépendance, le produit qq . . . . . . q p = q k−1 p 


| {z }
k−1 f ois

Théorème 6.1.7. — Soit X une variable aléatoire réelle telle que X ∼ G(p). On a
alors :
1
a) M oyenne : E(X) =
p
q
b) V ariance : V ar(X) = 2
p
c) F (k) := P(X 6 k) = 1 − q k ∀k ∈ N∗

Preuve : ( ) ( )

+∞ ∑
+∞ ∑
d +∞ d 1 1 1
a) E(X) = kpq k−1
=p kq k−1
=p qk = p =p =
k=1 k=1 dq k=0 dq 1−q (1 − q)2 p
b) On a,
(+∞ )

+∞
d2 ∑
+∞ ∑
E(X(X − 1)) = k(k − 1)pq k−1= pq k(k − 1)q k−2 = pq 2 qk
k=2 ( ) k=2 dq k=0
2
d 1 2 2q
= pq 2 = pq = 2
dq 1 − q (1 − q) 3 p
L’égalité V ar(X) = E(X(X − 1)) + E(X) − (E(X))2 donne alors :
( )2
2q 1 1 2q + p − 1 q
V ar(X) = 2 + − = 2
= 2
p p p p p

+∞
1
c) 1 − F (k) = P(X > k) = q i−1 p = pq k . = qk
i=k+1 1−q

Exemple 6.1.5. On suppose que la proportion de tubes de verre défectueux est 5%. On
considère X le nombre de tubes de verre à contrôler jusqu’à l’appartion du premier tube
défectueux. La loi de X est donc G(0.05). Par suite, la probabilité de vérifier plus de 10
tubes avant l’apparition du premier tube défectueux est :

P(X > 10) = 1 − F (10) = (1 − 0.05)10 = 0.5987

Théorème 6.1.8. — La loi géométrique est une loi sans mémoire, c’est-à-dire :

P(X = a + b|X > a) = P(X = b) ∀a ∈ N ∀b ∈ N∗


6.1. LOIS DISCRÈTES 7

Preuve :
P(X = a + b|X > a) = P(X > a + b − 1|X > a) − P(X > a + b|X > a)
P(X > a + b − 1) P(X > a + b)
= −
P(X > a) P(X > a)
(1 − p) a+b−1
(1 − p)a+b
= −
(1 − p) a (1 − p)a
= (1 − p) − (1 − p)b
b−1

= p(1 − p)b−1
= P(X = b)
Théorème 6.1.9. — La loi géométrique vérifie aussi :
P(X ≤ a + b|X > a) = P(X ≤ b) ∀a ∈ N ∀b ∈ N∗

Preuve :
P(a < X ≤ a + b)
P(X ≤ a + b|X > a) =
P(X > a)
1 − q a+b − 1 + q a
=
qa
= 1−q b

= P(X ≤ b)
Théorème 6.1.10. — La loi géométrique vérifie aussi :
P(X < a + b|X > a) = P(X < b) ∀a ∈ N ∀b ∈ N∗
Preuve :
P(X < a + b|X > a) = P(X ≤ a + b|X > a) − P(X = a + b|X > a)
= P(X ≤ b) − P(X = b)
= P(X < b)
Théorème 6.1.11. — La loi géométrique vérifie aussi :
P(X > a + b|X > a) = P(X > b) ∀a ∈ N ∀b ∈ N∗
Preuve :

P(X > a + b|X > a) = 1 − P(X ≤ a + b|X > a)


= 1 − P(X ≤ b)
= P(X > b)
Théorème 6.1.12. — La loi géométrique vérifie aussi :
P(X ≥ a + b|X > a) = P(X ≥ b) ∀a ∈ N ∀b ∈ N∗
Preuve :
P(X ≥ a + b|X > a) = P(X = a + b|X > a) + P(X > a + b|X > a)
= P(X = b) + P(X > b)
= P(X ≥ b)
Remarque. La loi géométrique est la seule loi discrète qui possède la propriété d’être
sans mémoire.
8 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES

6.2 lois Continues



On rappelle qu’une loi continue est déterminée par une fonction f positive telle que
+∞
f (x)dx = 1.
−∞

6.2.1 Loi Uniforme


∫ b 1
Notons que pour a < b on a : = 1. D’où,
a b−a
Définition 6.2.1. — On dit que la variable aléatoire réelle X a une distribution uni-
forme sur l’intervalle [a, b] si sa densité
 est définie sur R par :

 1

 si x ∈ [a, b]
b−a
f (x) =



 0 si x ∈
/ [a, b]

Notation. X ∼ U([a, b]) et on lit X suit la loi uniforme sur [a, b].

Remarques.
• La définition est analogue sur chacun des intervalles [a, b[, ]a, b] et ]a, b[.
• La loi traduit la locution "au hasard" dans le cas continu.

Théorème 6.2.1. — Soit X une variable aléatoire réelle telle que X ∼ U ([a, b]). Alors,
X −a
Y := ∼ U ([0, 1])
b−a
Preuve :
x−a
On a Y = g(X) avec g une bijection de [a, b] dans [0, 1] qui à x associe g(x) = et
b−a
−1
dont la réciproque est g (y) = (b − a)y + a. Alors,

( ) d ( )
−1 −1
fY (y) = fX g (y) g (y) = fX (b − a)y + a (b − a) = 1[0,1] (y)
dy

qui est bien la densité de la loi U([0, 1]) 

Théorème 6.2.2. — Soit X une variable aléatoire réelle telle que X ∼ U([a, b]). On
a alors :
bm+1 − am+1 b+a
a) M oment : E(X m ) = , en particulier E(X) =
(b − a)(m + 1) 2
(b − a)2
b) V ariance : V ar(X) =
12 

 0 si x < a





 x−a
c) F onction de répartition : F (x) = si x ∈ [a, b]

b − a






1 si x>b
6.2. LOIS CONTINUES 9

Preuve : [ ]b
∫ b 1 1 xm+1 bm+1 − am+1
a) E(X ) =
m
x . m
dx = =
a b−a b − a m + 1 a (b − a)(m + 1)
( )2
b3 − a 3 b+a (b − a)2
b) V ar(X) = E(X ) − E (X) =
2 2
− =
(b − a)3 2 12
c)
– Si x < a alors f (x) = 0 , ∫donc F (x) = 0
x 1 1 1
– Si x ∈ [a, b] alors F (x) = dt = .[t]xa = .(x − a)
a b−a b − a b − a
∫ b
1
– Si x ≥ b alors F (x) = dt = 1 
a b−a

Remarque. On note que la loi uniforme sur [a, b] est symétrique par rapport à sa
moyenne qui est donc aussi sa médiane.
Exemple 6.2.1. Le temps X (exprimé en heures), indiqué par les aiguilles d’une horloge
à ressort, suit la loi U([0, 12]). Par suite, la probabilité que l’heure indiquée soit entre
1
1h et 3h est P(1 < X < 3) = F (3) − F (1) = .
6

6.2.2 Loi Exponentielle


Rappel

: On appelle fonction Gamma la fonction notée Γ et définie sur R+∗ par :
+∞
Γ(p) = e−t tp−1 dt. Elle possède, entre autres, les propriétés suivantes :
0
• Γ(p) = (p − 1)Γ(p −√1) ∀p ∈ R+∗ et par suite Γ(n) = (n − 1)! ∀n ∈ N∗
• Γ(1) = 1 et Γ( 12 ) = π
∫ +∞
• Γ(p) = λp e−λx xp−1 dx ∀λ ∈ R+∗
0
∫ +∞
On a donc λ e−λx dx = Γ(1) = 1. D’où
0

Définition 6.2.2. — On appelle loi exponentielle de paramètres λ ∈ R+∗ , la distri-


bution continue d’une variable aléatoire réelle de densité f définie sur R par :
 −λx

λe si x ≥ 0
f (x) = 

0 si x < 0
Notation. X ∼ E(λ) et on lit X suit la loi exponentielle de paramètre λ.
Théorème 6.2.3. — Soit X une variable aléatoire telle que X ∼ E(λ). Alors on a :
n! 1
a) Moment : E(X n ) = n , en particulier E(X) =
λ λ
1
b) Variance : V ar(X) = 2
λ
c) Mode : M o(X) = 0  −λx
1 − e
 si x ≥ 0
d) Fonction de répartition : F (x) =


0 si x < 0
10 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES

Preuve :∫
+∞ 1 ∫ +∞ n+1 −λx n 1 n!
a) E(X n ) = xn λe−λx dx =
n
λ e x dx = n .Γ(n + 1) = n
0 λ 0 λ λ
( )2
2 1 1
b) V ar(X) = E(X 2 ) − E2 (X) = 2 − = 2
λ λ λ
c) C’est évident que f atteint son maximum en x = 0
d)
– Si x < 0 f (x) = 0, donc
∫ F (x) = 0
x [ ]x
– Si x ≥ 0 alors F (x) = λe−λt dt = −e−λt = 1 − e−λx 
0 0

Théorème 6.2.4. — La loi exponentielle est une loi sans mémoire, c’est-à-dire :

P(X > a + b|X > b) = P(X > a) ∀a, b > 0

Preuve :

P(X > a + b) e−λ(a+b)


P(X > a + b|X > b) = = = e−λa = P(X > a) 
P(X > b) e−λb

Remarque. La loi exponentielle et la loi de Poisson sont étroitement liées. On a en


particulier :

Théorème 6.2.5. — Si un événement se réalise selon une loi de Poisson de paramètre


λ, alors le temps entre deux réalisations consécutives de l’événement considéré est
distribué selon la loi exponentielle de paramètre λ.

Preuve :
Admise 

Exemple 6.2.2. Supposons que les arrivées à un guichet par minute suivent une loi
de Poisson de paramètre 0.4, alors le temps entre deux arrivées consécutives suit la loi
exponentielle E(0.4).
1
Par conséquent, la durée moyenne entre deux arrivées consécutives est : = 2.5mn.
0.4
Remarques. En fiabilité :
• Il est souvent admis qu’une durée de vie ou une durée de bon fonctionnement ou
l’instant de défaillance suit une loi exponentielle.
• 1 − F (x) := P(X > x) est appelée fiabilité notée R(x) et vaut e−λx pour x ≥ 0.
Elle permet d’obtenir la probabilité de survie à un instant donnée x et c’est aussi
la probabilité qu’il n’y ait pas de défaillance dans l’intervalle de temps [0, x]
• λ est appelé taux moyen de défaillance.
1
• := τ est appelé la moyenne des temps de bon fonctionnement (=MBTF) ou
λ
temps moyen entre défaillances.
6.2. LOIS CONTINUES 11

6.2.3 Loi Normale (= Loi de Gauss)


On a,
 +∞ 2
∫ ∫ +∞
+∞ ∫ ∫ 2π ∫ +∞ [ ]+∞
z2
− 2 − 21 (x2 +y 2 )
e− 2 r rdr = 2π −e− 2 r
1 2 1 2
 
e dz = e dx = dθ = 2π
0 0 0
−∞ −∞ −∞

∫ +∞ 1 z2
Donc, √ e− 2 dz = 1. D’où,
−∞ 2π

Définition 6.2.3. — On dit que la variable aléatoire réelle Z suit la loi normale
standard (ou normale centrée réduite) si sa densité est donnée par :

1 z2
f (z) = √ e− 2

Remarque. La représentation graphique dans un repère cartésien de la densité de la


loi normale standard est appelée courbe de Gauss ou plus couramment courbe en cloche.
Notons qu’elle est symétrique par rapport à l’axe des ordonnées et admet l’axe des
abscisses comme asymptote horizontale.

Définition 6.2.4. — On dit que la variable aléatoire réelle X suit la loi normale de
X −µ
paramètres µ ∈ R et σ 2 ∈ R+∗ si la variable aléatoire réelle Z := suit la loi
σ
normale standard.

Notation. X ∼ N (µ, σ 2 ). La loi normale standard est alors notée N (0, 1) .


12 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES

Théorème 6.2.6. — Soit X une variable aléatoire réelle suivant la loi normale de
paramètres µ ∈ R et σ 2 ∈ R+∗ . Sa densité f définie sur R est :

1 −(x − µ)2
f (x) = √ exp( )
σ 2π 2σ 2

dont le graphe est une courbe en cloche, symétrique par rapport à la verticale x = µ.

Preuve :
On a X = σZ + µ := g(Z) avec g une bijection de R dans R qui à z associe g(z) =
x−µ
σz+µ = x et dont la réciproque est g −1 (x) = . Alors, de la formule de changement
σ
de variables, on a :
( )
( ) d x−µ 1 1
1 x−µ 2
fX (x) = fZ −1 −1
g (x) g (x) = fZ = √ e− 2 ( σ ) 
dx σ σ σ 2π

Remarque. Notons que la valeur zX de ZX , appelé aussi cote, est sans dimension
quelque soit X. Elle permettra donc de comparer des valeurs appartenant à des distri-
butions normales différentes.

Exemple 6.2.3. L’étudiant A (resp. B) de la filière GE (resp. GM) a obtenu 10.5 (resp.
10) au module Statistique dont les notes suivent dans sa promotion la loi N (10, 9) (resp.
10.5 − 10 2 10 − 9 3
N (9, 16)). On a alors, zA = = et zB = = . On conclut donc,
3 12 4 12
que malgré une note brute inférieure à celle de Mr. A, l’étudiant B s’est mieux classé
par rapport à son groupe que A.

Remarque. En raison de l’importance de la fonction de répartition de la loi normale


standard, on la note π. Ainsi, on a : ∀a ∈ R
∫ a
π(a) = f (t)dt
−∞

qui représente l’aire coloriée ci-dessous :


6.2. LOIS CONTINUES 13

Théorème 6.2.7. — La fonction de répartition π de la loi normale standard vérifie :


a) π(z) = P(Z ≤ z) = P(Z < z)
b) π(−z) = 1 − π(z)
Preuve :
a) C’est évident puisque la loi, étant continue, ne charge pas un point isolé.
∫ −z 1 t2 1 ∫ z − u2 1 ∫ +∞ − u2
b) π(−z)= √ e− 2 dt = − √ e 2 du = √ e 2 du = 1 − π(z) 
−∞ 2π u=−t 2π +∞ 2π z

Remarque. Pour éviter le calcul des intégrales, les valeurs de π(z) ont été tabulées
pour tout z ∈ [0, 4[. Et comme l’axe des abscisses est asymptote à la courbe en cloche,
on peut supposer que π(z) ≃ 1 ∀z ≥ 4. Ainsi, en utilisant la propriété du Théorème
précédent, π(z) est déterminable pour tout z ∈ R.
Exemple 6.2.4. Soit L ∼ N (24, 9)
• Calculons P(L > 30)
30 − 24
P(L > 30) = P(Z > ) = P(Z > 2) = 1 − π(2) = 0.0228
3
• Calculons P(L > 21)
21 − 24
P(L ≥ 21) = P(Z ≥ ) = P(Z ≥ −1) = 1 − P(Z < −1) = π(1) = 0.8413
3
• Calculons P(18 < L ≤ 31.5)
P(18 < L ≤ 31.5) = P(−2 < Z ≤ 2.5) = π(2.5) − 1 + π(2) = 0.957
Remarque. Si la valeur n’apparaît pas dans la table, on fait l’interpolation linéaire
entre celles qui y apparaîssent.
Remarque. On dispose aussi d’une table donnant, pour différentes valeurs de α ∈]0, 1[,
le quantile zα d’ordre α de la loi normale standard.
Exemple 6.2.5. Soit L ∼ N (24, 9)
• Cherchons a tel que P(L < a) = 0.32
a − 24 a − 24
0.32 = P(L < a) = P(Z < ) ⇐⇒ = z0.32 = −0.4677 ⇐⇒ a = 22.5969 ≃ 22.60
3 3
• Cherchons b tel que P(L ≥ b) = 0.22
b − 24 b − 24 b − 24
On a, 0.22 = P(L ≥ b) = P(Z ≥ ) = 1 − π( ) ⇐⇒ π( ) = 0.78
3 3 3
b − 24
Donc, = z0.78 = 0.7722 ⇐⇒ b = 26.3166 ≃ 26.32
3
Théorème 6.2.8. — Soit X une variable aléatoire réelle telle que X ∼ N (µ, σ 2 ).
Alors, on a :
a) Moyenne : E(X) = µ (= premier paramètre)
b) Variance : V ar(X) = σ 2 (= deuxième paramètre)
c) Médiane : M e(X) = µ (c-à-d P(X ≤ µ) = P(X ≥ µ) = 0.5)
d) Mode : M o(X) = µ
14 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES

Preuve :
1 ∫ +∞ − z2
a) E(X) = E(σZ + µ) = σE(Z) + µ = σ √ ze 2 dz = σ.0 + µ = µ
2π −∞
b)
2 ∫ +∞ 2 − z2
V ar(X) = V ar(σZ + µ) = σ 2 V ar(Z) = σ 2 √ z e 2 dz
2π 0
2 ∫ +∞ √ 2 3 1 1 1 √
=2 σ2 √ 2ue−u du = σ 2 √ Γ( ) = σ 2 √ Γ( ) = σ 2 √ π = σ2
u=z /2 2π 0 π 2 π 2 π
c) Evidente puisque la densité est symétrique par rapport à la droite x = µ.

d) La densité atteint bien son maximum en x = µ 


Remarque. On note que la loi normale est entièrement définie par la connaissance de
sa moyenne et de son écart-type.
Théorème 6.2.9. — Soit X une variable aléatoire réelle telle que X ∼ N (µ, σ 2 ). Alors

aX + b ∼ N (aµ + b, a2 σ 2 ) ∀a, b ∈ R

Preuve :
Soit Y = aX + b := g(X) avec g une bijection de R dans R qui à x associe g(x) = ax + b
y−b
et dont la réciproque est g −1 (y) = . Alors,
a

d ( ) 1
−1 −1
faX+b (y) = fX (g (y)) g (y) = fX y−b
dy a
|a|

1 2 1 1 1 y−(aµ+b) 2
√ e− 2 ( |a|σ )
y−b
√ e− 2σ2 ( a −µ)
1
= =
σ 2π |a| (|a|σ) 2π
qui est bien la densité de la loi N (aµ + b, a2 σ 2 ) 

Théorème 6.2.10. (Condition de validité) — Si X est la résultante d’un très grand


nombre de causes indépendantes à effets additifs, chacune de ces causes ayant un
effet négligeable devant l’ensemble, alors X est distribuée suivant une loi normale.
Preuve :
Admise 
Remarque. Ce sont des conditions que l’on retrouve souvent en pratique, ce qui ex-
plique le rôle prépondérant de la loi normale dans toutes les disciplines.
Théorème 6.2.11. (de Moivre-Laplace) — Si n est grand (n → +∞) et p n’est
voisin ni de 0 ni de 1, alors la loi binomiale B(n, p) peut être approchée par la loi
normale N (np, npq).
Preuve :
Admise 
6.2. LOIS CONTINUES 15

Remarques.
• En pratique, l’approximation est bonne dès que n ≥ 30, np > 5 et nq > 5.
• En approximant une loi binomiale discrète par une loi normale continue, il faut
pour le calcul des probabilités, faire la correction de continuité, c’est-à-dire :
Pbinomiale (X = a) ≃ Pnormale (a − 1
2
≤ X < a + 12 )
Pbinomiale (X ≤ a) ≃ Pnormale (X < a + 21 )
Pbinomiale (X ≥ a) ≃ Pnormale (≥ a − 12 )
Pbinomiale (X > a) ≃ Pnormale (X ≥ a + 21 )
Pbinomiale (X < a) ≃ Pnormale (X < a − 12 )
Pbinomiale (a ≤ X ≤ b) ≃ Pnormale (a − 1
2
≤ X < b + 21 )
Pbinomiale (a ≤ X < b) ≃ Pnormale (a − 1
2
≤ X < b − 12 )
etc. . .

Exemple 6.2.6. Dans une série de 400 parties de pile ou face, cherchons la probabilité
pour que pile sorte au moins 220 fois.
On a une expérience (= jouer une partie) qui se répète 400 fois de façon indépen-
dante, dont la probabilité du succès (= pile sort) est 0.5. Ainsi, le nombre d’apparitions
de pile suit la loi binomiale B(400, 0.5).
Comme n > 30 et np = nq = 200 > 5, on a B(400, 0.5) ≃ N (200, 102 ).
D’où, P(X ≥ 220) ≃ Pnor (X ≥ 219.5) = P(Z ≥ 1.95) = 1 − π(1.95) = 0.0256.

Théorème 6.2.12. (Approximation de Poisson) — La loi de Poisson de paramètre λ


assez grand peut être approchée par la loi normale N (λ, λ).

Preuve :
Admise 

Remarques.
• En pratique, l’approximation est bonne dès que λ ≥ 7.
• Ne pas oublier de faire la correction de continuité, lors des calculs des probabilités
par l’approximation normale.

♢♢♢
Index

Loi
binomiale, 2
de Bernoulli, 2
de Gauss, 11
de Poisson, 4
exponentielle, 9
géométrique, 5
normale , 11
normale centrée réduite, 11
normale standard, 11
uniforme continue, 8
uniforme discrète, 1

Théorème
de Moivre-Laplace, 14

16
Table des matières

6 Lois de Probabilités Théoriques 1


6.1 Lois Discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
6.1.1 Loi Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
6.1.2 Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
6.1.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
6.1.4 Loi Géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . 5
6.2 lois Continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
6.2.1 Loi Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
6.2.2 Loi Exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . 9
6.2.3 Loi Normale (= Loi de Gauss) . . . . . . . . . . . . . . . . . . . 11

17

Vous aimerez peut-être aussi