Académique Documents
Professionnel Documents
Culture Documents
1
pi := P(X = xi ) = ∀i ∈ {1, 2, . . . , n}
n
Notation. X ∼ U(x1 , . . . , xn ) et on lit X suit la loi uniforme sur {x1 , . . . , xn }
Théorème 6.1.1. — Soit X une variable aléatoire réelle telle que X ∼ U(1,. . .,n). On
a alors :
n+1
a) E(X) =
2
n2 − 1
b) V ar(X) =
12
Preuve : n
1∑ 1 n(n + 1) n+1
a) E(X) = i= . =
n i=1 n 2 2
( )2
1 ∑n
n+1 1 n(n + 1)(2n + 1) (n + 1)2 (n + 1)(n − 1)
b) V ar(X) = i −
2
= . − =
n i=1 2 n 6 4 12
1
2 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES
Exemple 6.1.1. On choisit au hasard une boule d’une urne contenant n boules nu-
mérotés 1, 2, . . . , n.
Soit X le numéro de la boule choisie. Il est claire que X ∼ U (1, . . . , n).
C’est le sens à donner à la locution "au hasard".
∑
n
1 = (p + (1 − p))n = Cnk .pk .(1 − p)n−k
k=0
D’où
Notation.
• X ∼ B(n, p) et on lit X suit la loi binomiale de paramètres n et p.
• 1 − p est souvent noté q.
Théorème 6.1.2. — Soit X une variable aléatoire réelle telle que X ∼ B(n, p). On a
alors :
a) M oyenne : E(X) = np
b) V ariance : V ar(X) = npq avec q := 1 − p
n−k p
c) Relation de récurrence : p0 = q n et pk+1 = pk . .
k+1 q
d) M ode : le ou les entiers appartenant à [np − q, np + p]
e) (n − X) ∼ B(n, q)
Preuve :
∑
n ∑
n
n!
a) E(X) = i.Cni .pi .(1 − p)n−i = i. .pi .(1 − p)n−i
i=0 i=1 i!(n − i)!
∑
n
(n − 1)!
= np .pi−1 .(1 − p)(n−1)−(i−1)
i=1 (i − 1)! [(n − 1) − (i − 1)]!
∑
n−1
= np j
Cn−1 .pj .(1 − p)n−1−j = np. (p + (1 − p))n−1
j=0
= np
6.1. LOIS DISCRÈTES 3
( ) ∑
n
b) V ar(X) = E (X − X)2 = E ((X − np)2 ) = (i − np)2 Cni pi (1 − p)n−i
i=0
n [
∑ ]
= i(i − 1) + i(1 − 2np) + n p Cni pi (1 − p)n−i
2 2
i=0
∑
n ∑
n
= i(i − 1)Cni pi (1 − p)(n−i) + (1 − 2np) iCni pi (1 − p)(n−i)
i=0 i=0
∑
n
+n2 p2 Cni pi (1 − p)(n−i)
i=0
∑
n
n!
= i(i − 1) pi (1 − p)(n−i) + (1 − 2np)E(X) + n2 p2
i=2 i!(n − i)!
∑
n−2
= n(n − 1)p2 j
Cn−2 pj (1 − p)n−2−j + (1 − 2np)np + n2 p2
j=0
= n(n − 1)p + np − n2 p2
2
= np(1 − p)
c) Evidente
d) (Admise)
e) n − X (Ω) = {0, 1, . . . , n} et ∀k ∈ {0, 1, . . . , n} on a :
( )
P (n − X) = k) = P(X = n − k) = Cnn−k pn−k (1 − p)n−(n−k) = Cnk q k (1 − q)n−k
1
Remarque. On notera que la loi binomiale n’est symétrique que si p = et que dans
2
n Ck C n−k
ce cas, le centre de symétrie est puisque pk = nn = nn = pn−k .
2 2 2
Théorème 6.1.3. — (Condition de Validité)
Si un événement A a la probabilité p d’apparaître au cours d’une expérience aléa-
toire, alors la variable aléatoire réelle X donnant le nombre d’apparitions de l’événe-
ment A au cours de n expériences indépendantes, suit la loi binomiale de paramètres
n et p.
Preuve :
Il est évident que X prend bien les entiers 0, 1, . . ., n.
Un résultat possible avec k succès (=A) à la suite des n épreuves est
A
| A A{z
. . . . . . A} Ā
| Ā Ā{z
. . . . . . Ā}
k succès n−k échecs
dont la probabilité est, par l’hypothèse d’indépendance, le produit pk q n−k . Or, le nombre
de tels résultats est le nombre Cnk des différents choix possibles pour placer les k succès
dans les n places disponibles. Ainsi la probabilité d’avoir k succès A est bien Cnk pk q n−k
Exemple 6.1.2. Lors d’un tirage avec remise, le nombre de succès suit la loi
binomiale de paramètre n = nombre de tirages effectués et p = la probabilité d’avoir un
succès lors d’un seul tirage.
Exemple 6.1.3. On reçoit un Dh toutes les fois qu’on obtient un as lors de 15 lan-
cers d’un dé. On a ainsi une épreuve (= lancer du dé) qu’on répète 15 fois de façon
1
indépendante, dont la probabilité du succès (= avoir un as) est .
6
4 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES
Donc, la variable aléatoire réelle X, donnant le gain (= nombre de succès) lors des
1
15 lancers, suit la loi binomiale B(15, ).
6
Par conséquent, le gain moyen (= gain espéré) est 2.5 Dh et le gain le plus probable
est 2 Dh.
e−λ λk
pk = P(X = k) = ∀k ∈ N
k!
Notation. X ∼ P(λ) et on lit X suit la loi de Poisson de paramètre λ.
Théorème 6.1.4. — Soit X une variable aléatoire réelle telle que X ∼ P(λ). On a
alors :
a) M oyenne : E(X) = λ
b) V ariance : V ar(X) = λ
λ
c) Relation de récurrence : p0 = e−λ et pk+1 = pk .
k+1
d) M ode : le ou les entiers appartenant à [λ − 1, λ]
Preuve :
∑
+∞
λk ∑ λk−1
+∞ ∑ λk
1 +∞
a) En dérivant eλ = par rapport à λ, on obtient eλ = k = k
k=0 k! k=0 k! λ k=0 k!
∑ λk
+∞
D’où on tire : λ = e−λ k = E(X)
k=0 k!
∑ λk
+∞
λ
b) En dérivant deux fois e = par rapport à λ, on obtient
k=0 k!
∑
+∞
λk−1 ∑
1 +∞ λk
eλ = k(k − 1) = 2 k(k − 1)
k=0 k! λ k=0 k!
∑ λ
+∞ k ∑ λ
+∞ k
On tire alors : λ2 = e−λ k 2 − e−λ k = E(X 2 ) − E(X) = E(X 2 ) − λ
k=0 k! k=0 k!
D’où, V ar(X) = E(X 2 ) − (E(X))2 = λ2 + λ − λ2 = λ
λk+1 λk λ λ
c) pk+1 = e−λ = e−λ = pk .
(k + 1)! k!(k + 1) k+1
d) Admise
Remarque. Il convient de remarquer que la loi de Poisson est la seule loi discrète,
à avoir l’espérance égale à la variance.
6.1. LOIS DISCRÈTES 5
Théorème 6.1.5. — Quand n est très grand (→ +∞) et p très petit (→ 0) avec
np = λ une constante finie, la loi binomiale B(n, p) est équivalente à la loi de Poisson
P(λ).
En pratique, l’équivalence est vraie dès que n ≥ 50 et p < 0.1.
Preuve :
Admise
Remarque. On rencontre donc la loi de Poisson dans le cas des faibles probabilités.
Par exemple :
– nombre de pièces défectueuses contenues dans un échantillon important prélevé
dans un lot où la proportion de pièces défectueuses est faible.
– nombre d’appels téléphoniques sur une ligne pendant une période donnée.
– Nombre de périodes où se présentent 0, 1, 2...clients dans une fil d’attente...
Exemple 6.1.4. On suppose que dans un livre de 500 pages, il y a 300 fautes distribuées
au hasard. Quelle est la probabilité qu’une page donnée contienne exactement 2 fautes ?
1
Soit X = nombre de fautes, et on cherche P(X = 2). Or X ∼ B(300, ), donc :
500
P(X = 2) = C300
2
(0.002)2 (0.998)298 ≃ 0.098792
1
Mais, comme n = 300 > 50 et p = < 0.1, on a B(300, 0.002) ≃ P(0.6).
500
Donc,
e−0.6 (0.6)2
P(X = 2) = ≃ 0.098786
2!
On note la bonne qualité de l’approximation.
Preuve :
Il est évident que X prend bien sur tous les entiers naturels non nuls.
La seule possibilité donnant le premier succès S après k expériences est
EE
| . .{z. . . . E} S
k−1 échecs E
Théorème 6.1.7. — Soit X une variable aléatoire réelle telle que X ∼ G(p). On a
alors :
1
a) M oyenne : E(X) =
p
q
b) V ariance : V ar(X) = 2
p
c) F (k) := P(X 6 k) = 1 − q k ∀k ∈ N∗
Preuve : ( ) ( )
∑
+∞ ∑
+∞ ∑
d +∞ d 1 1 1
a) E(X) = kpq k−1
=p kq k−1
=p qk = p =p =
k=1 k=1 dq k=0 dq 1−q (1 − q)2 p
b) On a,
(+∞ )
∑
+∞
d2 ∑
+∞ ∑
E(X(X − 1)) = k(k − 1)pq k−1= pq k(k − 1)q k−2 = pq 2 qk
k=2 ( ) k=2 dq k=0
2
d 1 2 2q
= pq 2 = pq = 2
dq 1 − q (1 − q) 3 p
L’égalité V ar(X) = E(X(X − 1)) + E(X) − (E(X))2 donne alors :
( )2
2q 1 1 2q + p − 1 q
V ar(X) = 2 + − = 2
= 2
p p p p p
∑
+∞
1
c) 1 − F (k) = P(X > k) = q i−1 p = pq k . = qk
i=k+1 1−q
Exemple 6.1.5. On suppose que la proportion de tubes de verre défectueux est 5%. On
considère X le nombre de tubes de verre à contrôler jusqu’à l’appartion du premier tube
défectueux. La loi de X est donc G(0.05). Par suite, la probabilité de vérifier plus de 10
tubes avant l’apparition du premier tube défectueux est :
Théorème 6.1.8. — La loi géométrique est une loi sans mémoire, c’est-à-dire :
Preuve :
P(X = a + b|X > a) = P(X > a + b − 1|X > a) − P(X > a + b|X > a)
P(X > a + b − 1) P(X > a + b)
= −
P(X > a) P(X > a)
(1 − p) a+b−1
(1 − p)a+b
= −
(1 − p) a (1 − p)a
= (1 − p) − (1 − p)b
b−1
= p(1 − p)b−1
= P(X = b)
Théorème 6.1.9. — La loi géométrique vérifie aussi :
P(X ≤ a + b|X > a) = P(X ≤ b) ∀a ∈ N ∀b ∈ N∗
Preuve :
P(a < X ≤ a + b)
P(X ≤ a + b|X > a) =
P(X > a)
1 − q a+b − 1 + q a
=
qa
= 1−q b
= P(X ≤ b)
Théorème 6.1.10. — La loi géométrique vérifie aussi :
P(X < a + b|X > a) = P(X < b) ∀a ∈ N ∀b ∈ N∗
Preuve :
P(X < a + b|X > a) = P(X ≤ a + b|X > a) − P(X = a + b|X > a)
= P(X ≤ b) − P(X = b)
= P(X < b)
Théorème 6.1.11. — La loi géométrique vérifie aussi :
P(X > a + b|X > a) = P(X > b) ∀a ∈ N ∀b ∈ N∗
Preuve :
Notation. X ∼ U([a, b]) et on lit X suit la loi uniforme sur [a, b].
Remarques.
• La définition est analogue sur chacun des intervalles [a, b[, ]a, b] et ]a, b[.
• La loi traduit la locution "au hasard" dans le cas continu.
Théorème 6.2.1. — Soit X une variable aléatoire réelle telle que X ∼ U ([a, b]). Alors,
X −a
Y := ∼ U ([0, 1])
b−a
Preuve :
x−a
On a Y = g(X) avec g une bijection de [a, b] dans [0, 1] qui à x associe g(x) = et
b−a
−1
dont la réciproque est g (y) = (b − a)y + a. Alors,
( ) d ( )
−1 −1
fY (y) = fX g (y) g (y) = fX (b − a)y + a (b − a) = 1[0,1] (y)
dy
Théorème 6.2.2. — Soit X une variable aléatoire réelle telle que X ∼ U([a, b]). On
a alors :
bm+1 − am+1 b+a
a) M oment : E(X m ) = , en particulier E(X) =
(b − a)(m + 1) 2
(b − a)2
b) V ariance : V ar(X) =
12
0 si x < a
x−a
c) F onction de répartition : F (x) = si x ∈ [a, b]
b − a
1 si x>b
6.2. LOIS CONTINUES 9
Preuve : [ ]b
∫ b 1 1 xm+1 bm+1 − am+1
a) E(X ) =
m
x . m
dx = =
a b−a b − a m + 1 a (b − a)(m + 1)
( )2
b3 − a 3 b+a (b − a)2
b) V ar(X) = E(X ) − E (X) =
2 2
− =
(b − a)3 2 12
c)
– Si x < a alors f (x) = 0 , ∫donc F (x) = 0
x 1 1 1
– Si x ∈ [a, b] alors F (x) = dt = .[t]xa = .(x − a)
a b−a b − a b − a
∫ b
1
– Si x ≥ b alors F (x) = dt = 1
a b−a
Remarque. On note que la loi uniforme sur [a, b] est symétrique par rapport à sa
moyenne qui est donc aussi sa médiane.
Exemple 6.2.1. Le temps X (exprimé en heures), indiqué par les aiguilles d’une horloge
à ressort, suit la loi U([0, 12]). Par suite, la probabilité que l’heure indiquée soit entre
1
1h et 3h est P(1 < X < 3) = F (3) − F (1) = .
6
Preuve :∫
+∞ 1 ∫ +∞ n+1 −λx n 1 n!
a) E(X n ) = xn λe−λx dx =
n
λ e x dx = n .Γ(n + 1) = n
0 λ 0 λ λ
( )2
2 1 1
b) V ar(X) = E(X 2 ) − E2 (X) = 2 − = 2
λ λ λ
c) C’est évident que f atteint son maximum en x = 0
d)
– Si x < 0 f (x) = 0, donc
∫ F (x) = 0
x [ ]x
– Si x ≥ 0 alors F (x) = λe−λt dt = −e−λt = 1 − e−λx
0 0
Théorème 6.2.4. — La loi exponentielle est une loi sans mémoire, c’est-à-dire :
Preuve :
Preuve :
Admise
Exemple 6.2.2. Supposons que les arrivées à un guichet par minute suivent une loi
de Poisson de paramètre 0.4, alors le temps entre deux arrivées consécutives suit la loi
exponentielle E(0.4).
1
Par conséquent, la durée moyenne entre deux arrivées consécutives est : = 2.5mn.
0.4
Remarques. En fiabilité :
• Il est souvent admis qu’une durée de vie ou une durée de bon fonctionnement ou
l’instant de défaillance suit une loi exponentielle.
• 1 − F (x) := P(X > x) est appelée fiabilité notée R(x) et vaut e−λx pour x ≥ 0.
Elle permet d’obtenir la probabilité de survie à un instant donnée x et c’est aussi
la probabilité qu’il n’y ait pas de défaillance dans l’intervalle de temps [0, x]
• λ est appelé taux moyen de défaillance.
1
• := τ est appelé la moyenne des temps de bon fonctionnement (=MBTF) ou
λ
temps moyen entre défaillances.
6.2. LOIS CONTINUES 11
∫ +∞ 1 z2
Donc, √ e− 2 dz = 1. D’où,
−∞ 2π
Définition 6.2.3. — On dit que la variable aléatoire réelle Z suit la loi normale
standard (ou normale centrée réduite) si sa densité est donnée par :
1 z2
f (z) = √ e− 2
2π
Définition 6.2.4. — On dit que la variable aléatoire réelle X suit la loi normale de
X −µ
paramètres µ ∈ R et σ 2 ∈ R+∗ si la variable aléatoire réelle Z := suit la loi
σ
normale standard.
Théorème 6.2.6. — Soit X une variable aléatoire réelle suivant la loi normale de
paramètres µ ∈ R et σ 2 ∈ R+∗ . Sa densité f définie sur R est :
1 −(x − µ)2
f (x) = √ exp( )
σ 2π 2σ 2
dont le graphe est une courbe en cloche, symétrique par rapport à la verticale x = µ.
Preuve :
On a X = σZ + µ := g(Z) avec g une bijection de R dans R qui à z associe g(z) =
x−µ
σz+µ = x et dont la réciproque est g −1 (x) = . Alors, de la formule de changement
σ
de variables, on a :
( )
( ) d x−µ 1 1
1 x−µ 2
fX (x) = fZ −1 −1
g (x) g (x) = fZ = √ e− 2 ( σ )
dx σ σ σ 2π
Remarque. Notons que la valeur zX de ZX , appelé aussi cote, est sans dimension
quelque soit X. Elle permettra donc de comparer des valeurs appartenant à des distri-
butions normales différentes.
Exemple 6.2.3. L’étudiant A (resp. B) de la filière GE (resp. GM) a obtenu 10.5 (resp.
10) au module Statistique dont les notes suivent dans sa promotion la loi N (10, 9) (resp.
10.5 − 10 2 10 − 9 3
N (9, 16)). On a alors, zA = = et zB = = . On conclut donc,
3 12 4 12
que malgré une note brute inférieure à celle de Mr. A, l’étudiant B s’est mieux classé
par rapport à son groupe que A.
Remarque. Pour éviter le calcul des intégrales, les valeurs de π(z) ont été tabulées
pour tout z ∈ [0, 4[. Et comme l’axe des abscisses est asymptote à la courbe en cloche,
on peut supposer que π(z) ≃ 1 ∀z ≥ 4. Ainsi, en utilisant la propriété du Théorème
précédent, π(z) est déterminable pour tout z ∈ R.
Exemple 6.2.4. Soit L ∼ N (24, 9)
• Calculons P(L > 30)
30 − 24
P(L > 30) = P(Z > ) = P(Z > 2) = 1 − π(2) = 0.0228
3
• Calculons P(L > 21)
21 − 24
P(L ≥ 21) = P(Z ≥ ) = P(Z ≥ −1) = 1 − P(Z < −1) = π(1) = 0.8413
3
• Calculons P(18 < L ≤ 31.5)
P(18 < L ≤ 31.5) = P(−2 < Z ≤ 2.5) = π(2.5) − 1 + π(2) = 0.957
Remarque. Si la valeur n’apparaît pas dans la table, on fait l’interpolation linéaire
entre celles qui y apparaîssent.
Remarque. On dispose aussi d’une table donnant, pour différentes valeurs de α ∈]0, 1[,
le quantile zα d’ordre α de la loi normale standard.
Exemple 6.2.5. Soit L ∼ N (24, 9)
• Cherchons a tel que P(L < a) = 0.32
a − 24 a − 24
0.32 = P(L < a) = P(Z < ) ⇐⇒ = z0.32 = −0.4677 ⇐⇒ a = 22.5969 ≃ 22.60
3 3
• Cherchons b tel que P(L ≥ b) = 0.22
b − 24 b − 24 b − 24
On a, 0.22 = P(L ≥ b) = P(Z ≥ ) = 1 − π( ) ⇐⇒ π( ) = 0.78
3 3 3
b − 24
Donc, = z0.78 = 0.7722 ⇐⇒ b = 26.3166 ≃ 26.32
3
Théorème 6.2.8. — Soit X une variable aléatoire réelle telle que X ∼ N (µ, σ 2 ).
Alors, on a :
a) Moyenne : E(X) = µ (= premier paramètre)
b) Variance : V ar(X) = σ 2 (= deuxième paramètre)
c) Médiane : M e(X) = µ (c-à-d P(X ≤ µ) = P(X ≥ µ) = 0.5)
d) Mode : M o(X) = µ
14 CHAPITRE 6. LOIS DE PROBABILITÉS THÉORIQUES
Preuve :
1 ∫ +∞ − z2
a) E(X) = E(σZ + µ) = σE(Z) + µ = σ √ ze 2 dz = σ.0 + µ = µ
2π −∞
b)
2 ∫ +∞ 2 − z2
V ar(X) = V ar(σZ + µ) = σ 2 V ar(Z) = σ 2 √ z e 2 dz
2π 0
2 ∫ +∞ √ 2 3 1 1 1 √
=2 σ2 √ 2ue−u du = σ 2 √ Γ( ) = σ 2 √ Γ( ) = σ 2 √ π = σ2
u=z /2 2π 0 π 2 π 2 π
c) Evidente puisque la densité est symétrique par rapport à la droite x = µ.
aX + b ∼ N (aµ + b, a2 σ 2 ) ∀a, b ∈ R
Preuve :
Soit Y = aX + b := g(X) avec g une bijection de R dans R qui à x associe g(x) = ax + b
y−b
et dont la réciproque est g −1 (y) = . Alors,
a
d ( ) 1
−1 −1
faX+b (y) = fX (g (y)) g (y) = fX y−b
dy a
|a|
1 2 1 1 1 y−(aµ+b) 2
√ e− 2 ( |a|σ )
y−b
√ e− 2σ2 ( a −µ)
1
= =
σ 2π |a| (|a|σ) 2π
qui est bien la densité de la loi N (aµ + b, a2 σ 2 )
Remarques.
• En pratique, l’approximation est bonne dès que n ≥ 30, np > 5 et nq > 5.
• En approximant une loi binomiale discrète par une loi normale continue, il faut
pour le calcul des probabilités, faire la correction de continuité, c’est-à-dire :
Pbinomiale (X = a) ≃ Pnormale (a − 1
2
≤ X < a + 12 )
Pbinomiale (X ≤ a) ≃ Pnormale (X < a + 21 )
Pbinomiale (X ≥ a) ≃ Pnormale (≥ a − 12 )
Pbinomiale (X > a) ≃ Pnormale (X ≥ a + 21 )
Pbinomiale (X < a) ≃ Pnormale (X < a − 12 )
Pbinomiale (a ≤ X ≤ b) ≃ Pnormale (a − 1
2
≤ X < b + 21 )
Pbinomiale (a ≤ X < b) ≃ Pnormale (a − 1
2
≤ X < b − 12 )
etc. . .
Exemple 6.2.6. Dans une série de 400 parties de pile ou face, cherchons la probabilité
pour que pile sorte au moins 220 fois.
On a une expérience (= jouer une partie) qui se répète 400 fois de façon indépen-
dante, dont la probabilité du succès (= pile sort) est 0.5. Ainsi, le nombre d’apparitions
de pile suit la loi binomiale B(400, 0.5).
Comme n > 30 et np = nq = 200 > 5, on a B(400, 0.5) ≃ N (200, 102 ).
D’où, P(X ≥ 220) ≃ Pnor (X ≥ 219.5) = P(Z ≥ 1.95) = 1 − π(1.95) = 0.0256.
Preuve :
Admise
Remarques.
• En pratique, l’approximation est bonne dès que λ ≥ 7.
• Ne pas oublier de faire la correction de continuité, lors des calculs des probabilités
par l’approximation normale.
♢♢♢
Index
Loi
binomiale, 2
de Bernoulli, 2
de Gauss, 11
de Poisson, 4
exponentielle, 9
géométrique, 5
normale , 11
normale centrée réduite, 11
normale standard, 11
uniforme continue, 8
uniforme discrète, 1
Théorème
de Moivre-Laplace, 14
16
Table des matières
17