Vous êtes sur la page 1sur 39

Institut Supérieur des Arts Multimédia de la Manouba.

Département Informatique.

Probabilités et Statistiques
(2ème année Licence Informatique)

Ce polycopié est en cours de rédaction. N’hésitez pas à transmettre toutes remarques ou à signaler
toutes coquilles ou erreurs à mon adresse électronique : yousri.henchiri@isamm.uma.tn

Yousri Henchiri, MA
Email: yousri.henchiri@isamm.uma.tn
30 octobre 2023
Yousri HENCHIRI Université De La Manouba

Table des matières


1 Lois associées aux variables de comptage (Lois discrètes) 2
1.1 Loi uniforme discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Loi Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Lois associées aux variables de mesurage (Lois continues) 18


2.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 La loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Page 1/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

1 Lois associées aux variables de comptage (Lois discrètes)


Dans ce chapitre nous passons en revue certaines lois discrètes connues.

1.1 Loi uniforme discrète


Une variable aléatoire X suit une loi uniforme discrète si elle prend ses valeurs dans l’ensemble
{1, . . . , n} et que la loi de probabilité (la fonction de masse) de X est donnée
1
pX (k) = P(X = k) , , k = 1, . . . , n.
n
Les événements {X = k} sont donc tous équiprobables sur l’ensemble Ω = {1, . . . , n} et on a
X(Ω) = J1, nK (J1, nK désigne l’ensemble des entiers naturels de 1 à n).

Proposition 1.1. Si X suit une loi uniforme sur l’ensemble {1, . . . , n} alors

E(X) = (n + 1)/2, E(X 2 ) = ((2n + 1)(n + 1))/6 et V ar(X) = (n2 − 1)/12.

Démonstration. Laissée en exercice.

Proposition 1.2. Si X suit une loi uniforme sur l’ensemble {1, . . . , n} alors sa fonction
de répartition, FX , est donnée par

k k  0, si bkc < 1,
k
FX (k) , 1(k ∈ J1, nK) = 1(16k<n) + 1(k>n) = , si 1 6 bkc < n,
n n  n
1, si n 6 bkc.

Démonstration. Laissée en exercice.


P (X = k ) = 0.1666667
P (X = k ) = 0.25

1.0 2.0 3.0 4.0 1 2 3 4 5 6

k k

Figure 1 – La fonction de masse pour la loi uniforme : U{1,...,4} et U{1,...,6} .

Page 2/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

1.0
0.8
P (X = k ) = 0.125

0.6
P (X ≤ k )

0.4
0.2
0.0
1 2 3 4 5 6 7 8 0 2 4 6 8

k k

Figure 2 – La fonction de masse et la fonction de répartition pour la loi uniforme U{1,...,8} .

I Exercice :

Soit la variable aléatoire X le nombre indiqué sur un jeu de dé roulé. Calculer E(X), E(X 2 )
et V ar(X).

1.2 Loi Bernoulli


On considère une seule épreuve donnant lieu à un succès avec probabilité égale à p (pour un
certain 0 6 p 6 1). Posons X la variable aléatoire binaire qui prend la valeur 1 si l’issue de
l’expérience est un succès et 0 sinon. Dans ce cas, on écrit X ∼ Ber(1, p) ou X ∼ Ber(p). La
fonction de masse (La loi de probabilité) de X est donnée par

p, si k = 1,
pX (k) = P(X = k) =
1 − p, si k = 0.
ou
 
1 k 1−k
pX (k) = P(X = k) , p q , p + q = 1, k = 0, 1,
k
1 1!

avec k = k!(1−k)! et X(Ω) = {0, 1}.

Proposition 1.3. Si X suit une loi de Bernoulli de paramètre p alors sa fonction de


répartition, FX , est donnée par

 0, si bkc < 0
FX (k) , (1 − p)1(06k<1) + 1(k>1) = 1 − p si 0 6 bkc < 1
1, si 1 6 bkc.

Page 3/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

0.8

0.7

0.8
0.7

0.7
0.6
0.6

0.6
P (X = k )

P (X = k )

P (X = k )
0.5

0.5

0.5
0.4

0.4
0.4
0.3

0.3
0.2

0.3

0.2
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

k k k

Figure 3 – La fonction de masse pour la loi Bernoulli : Ber(1, 0.2), Ber(1, 0.5) et Ber(1, 0.8).

Démonstration. Laissée en exercice.

Proposition 1.4. Si X suit une loi de Bernoulli de paramètre p alors

E(X) = p, E(X 2 ) = p et V ar(X) = E(X 2 ) − (E(X))2 = p(1 − p).

Démonstration. Laissée en exercice.

Remarque 1.1. Lorsque X = −1 et X = +1 avec P(X = 1) = p et P(X = −1) = 1 − p, on parle


de loi de Rademacher de paramètre p, noté X ∼ R(p).

I Exercice :

On lance un dé une fois. La variable X est le nombre de 6 obtenu. Alors

X ∼ Ber(1, 1/6).

1.3 Loi binomiale


On considère à présent une suite de n épreuves indépendantes, avec probabilité de succès de
chaque épreuve toujours égale à p (pour un certain 0 6 p 6 1 fixe). Posons X la variable aléatoire
comptant le nombre de succès obtenus parmi les n épreuves effectuées. La variable X prend alors
une valeur parmi 0, 1, . . . , n (avec probabilité 1). On écrit X ∼ Bin(n, p) et la fonction de masse
(la distribution de probabilités) de X est donnée par
 
n k n−k
pX (k) = P(X = k) , p q , p + q = 1, k = 0, . . . , n,
k

Page 4/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

n n!

avec k = k!(n−k)! et on a X(Ω) = J0, nK.

Il est clair que X peut être regardé comme la somme de n variables indépendantes de Bernoulli
Yi de même probabilité de succès p.

X = Y1 + Y2 + . . . + Yn .

0.25
0.30

0.30
0.25

0.25
0.20
0.20

0.20
0.15
P (X = k )

P (X = k )

P (X = k )
0.15

0.15
0.10
0.10

0.10
0.05
0.05

0.05
0.00

0.00
0.00

0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10

k k k

Figure 4 – La fonction de masse pour une loi binomiale : Bin(10, 0.2), Bin(10, 0.5) et
Bin(10, 0.8).

Proposition 1.5. Si X suit une loi binomiale sur J0, nK alors sa fonction de répartition,
FX , est donnée par

0, si bkc < 0


 k  
k  
! 
X n  X n j
FX (k) , p (1−p)j n−j
1(06k<n) +1(k>n) = p (1 − p)n−j si 0 6 bkc < n
j  j
j=0
 j=0


1, si bkc > n.

Démonstration. Laissée en exercice.

Proposition 1.6. Si X suit une loi binomiale de paramètres (n, p) alors

E(X) = np et V ar(X) = np(1 − p) = npq.

Page 5/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Démonstration.
n  
X n k
E(X) = k p (1 − p)n−k
k
k=0
n  
X n k
= k p (1 − p)n−k
k
k=1
n      
X n−1 k n−k n n−1
= n p (1 − p) , avec k =n
k−1 k k−1
k=1
n−1
X n − 1 
= n py+1 (1 − p)n−(y+1) , avec y = k − 1
y=0
y
n−1
X 
n−1 y
= np p (1 − p)n−1−y
y=0
y
n−1
X 
n−1 y
= np, avec p (1 − p)n−1−y = 1.
y=0
y

n  
2
X
2 n k
E(X ) = k p (1 − p)n−k
k
k=0
n  
X n k
= k2 p (1 − p)n−k
k
k=1
n      
X n−1 k n n! n−1
= n k p (1 − p)n−k , avec k 2 =k = kn
k−1 k (k − 1)!(n − k)! k−1
k=1
n−1  
X n − 1 y+1
= n (y + 1) p (1 − p)n−(y+1) , avec y = k − 1
y=0
y
n−1   n−1
X n − 1
X n−1 y
= np y p (1 − p)n−1−y + np py (1 − p)n−1−y
y=0
y y=0
y
= np(n − 1)p + np
= n(n − 1)p2 + np.

Alors

V ar(X) = E(X 2 ) − (E(X))2 = n(n − 1)p2 + np − (np)2 = −np2 + np = np(1 − p).

I Exercice :(Tirages avec remise)

Supposons que 100 transactions dans une “population” de N = 100000 transactions sont
erronées.
(a) Quelle est la probabilité que dans un échantillon de n = 30 transactions tirées de cette
population avec remise, on trouve 2 transactions erronées ?
(b) Quelle est la probabilité de trouver au plus 2 transactions erronées ?
(c) Quelle est la probabilités de trouver plus de 2 transactions erronées ?

Page 6/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Solution.

I Exercice :

On sait par expérience qu’une certaine opération chirurgicale a 90% de chances de réussir.
On s’apprête à réaliser l’opération sur 5 patients. Soit X la variable aléatoire égale au
nombre de réussites de l’opération sur les 5 tentatives.
(a) Quel modèle proposez-vous pour X ?
(b) Quelle est la probabilité que l’opération rate les 5 fois ?
(c) Quelle est la probabilité que l’opération rate exactement 3 fois ?
(d) Quelle est la probabilité que l’opération réussisse au moins 3 fois ?

Solution.

I Exercice :

Soit X le nombre de têtes en 50 lancers d’une pièce de monnaie. Trouver E(X), V ar(X)
et P(X 6 10).

Solution.

Page 7/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

I Exercice :

(a) On lance 10 fois de suite une pièce équilibrée et on note X le nombre de Pile obtenus.
On voit que X ∼ Bin(10, 1/2). Le√nombre moyen de Pile est donc naturellement
E(X) = 5 et l’écart-type vaut σX = 2.5.
(b) On lance 90 fois de suite un dé non pipé et on note Y le nombre de 4 obtenus. Dans ce
∼ Bin(90, 1/6). Le nombre moyen de 4 est donc E(Y ) = 15 et l’écart-type vaut
cas Y √
σY = 12.5.

1.4 Loi hypergéométrique


Cette loi est liée aux piges sans remises. On dit que X suit une loi appelée hypergéométrique
si les conditions suivantes sont vérifiées. On a une population de taille N est constituée de N1
éléments appartenant à une certaine classe C et N2 = N − N1 éléments n’appartenant pas à une
certaine classe C. On peut penser à une urne contenant R boules rouges et B = N − R boules
bleues. On pige sans remise un échantillon de n éléments, 1 6 n 6 N . On pose X la variable
comptant le nombre d’éléments de la classe C qui se trouve dans l’échantillon (on appellera X le
nombre de succès). On écrit X ∼ H yperGeo(n; N1 , N ) et sa fonction de masse est donnée par
N1 N −N1
 
k n−k
pX (k) = P(X = k) , N
 , max{0, n − N + N1 } 6 k 6 min{n, N1 },
n

et on a X(Ω) ⊂ J0, nK.


0.20
0.5

0.3

0.15
0.4
P (X = k )

P (X = k )

P (X = k )
0.2

0.10
0.3

0.05
0.1
0.2

0.00
0.0

2.0 2.5 3.0 3.5 4.0 4 5 6 7 8 20 25 30 35

k k k

Figure 5 – La fonction de masse pour loi Hypergéométrique : H yperGeo(4, 8, 10), avec 2 6 k 6


4, H yperGeo(4, 16, 20), avec 4 6 k 6 8, H yperGeo(36, 72, 90), avec 18 6 k 6 36.

Page 8/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Proposition 1.7. Si X suit une loi hypergéométrique de paramètres (n, N1 , N ) et la frac-


tion de succès p = NN1 alors

N1 n−1 N −n
E(X) = n = np et V ar(X) = np(1 − p)(1 − ) = np(1 − p) .
N N −1 N −1

Démonstration.
n N1 N −N1
 
X k n−k
E(X) = k N

k=0 n
n N1 −1 N −N1
 
N1 X k−1 n−k
= n N −1

N n−1
k=1
n−1 N1 −1 N −1−N1 +1
 
N1 X z n−1−z
= n N −1

N z=0 n−1
N1
= n = np.
N
m     
X a b a+b
en utilisant = .
i=0
i m−i m

n N1 N −N1
 
X k n−k
E(X(X − 1)) = k(k − 1) N

k=0 n
n N1 −2 N −N1
 
N1 (N1 − 1) X k−2 n−k
= n(n − 1) N −2
N (N − 1)

k=2 n−2
n−2 N1 −2 N −2−N1 +2
 
N1 (N1 − 1) X z n−2−z
= n(n − 1) N −2
N (N − 1) z=0

n−2
N1 (N1 − 1)
= n(n − 1) .
N (N − 1)

Alors

V ar(X) = E(X 2 ) − (E(X))2 = E(X(X − 1)) + E(X) − (E(X))2


N1 (N1 − 1) N1 N2
= n(n − 1) +n − n2 12
N (N − 1) N N
N1  (N1 − 1) N1 
= n (n − 1) +1−n
N (N − 1) N
N1 (N − N1 )(N − n)
 
= n
N N (N − 1)
N1 N − N1 N − n
= n
N N N −1
N1 N1 N − n
= n (1 − )
N N N −1
N −n
= np(1 − p) .
N −1

Page 9/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

I Exercice :

Un groupe d’étudiants est composé de 18 filles et de 11 garçons. On choisit au hasard dans


ce groupe un échantillon de 5 personnes. Soit X la variable aléatoire égale au nombre de
filles dans cet échantillon.
(a) Quel modèle proposez-vous pour X ?
(b) Donner l’espérance de X.
(c) Calculer la probabilité que l’échantillon ne contienne que des filles.
(d) Calculer la probabilité que l’échantillon contienne au moins une fille.
(e) Calculer la probabilité que l’échantillon contienne exactement 3 filles.

Solution.

+ Remarque 1.2. Si la population totale est très grande (pratiquement infinie), les
résultats des n tirages sont pratiquement indépendants et la probabilité d’obtenir un
"succès" à un certain tirage reste toujours voisine de p. Dans ce cas on peut considé-
rer X comme étant de loi Bin(n, p). Autrement dit, soit X ∼ H yperGeo(n; N1 , N ),
si n/N est petit (on suggère n/N < 0.1) alors X suit approximativement une loi
binomiale Bin(n, p), où p = N1 /N .

I Exercice :

On forme au hasard un comité de 5 étudiants choisis parmi les 5 filles et les 6 garçons d’une
classe. Quelle est la probabilité que 3 membre du comité soient des filles ? Faire le calcul
(a) exact, à l’aide de la loi hypergéométrique.
(b) approximatif, par la loi binomiale.

Solution.

Page 10/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

I Exercice :(Approximation d’une hypergéométrique par une binomiale)

Si X ∼ H yperGeo(n, N1 , N ), on peut approcher les probabilités P(X = k) par la fonction


de probabilité d’une variable X de loi Bin(n, p), où p = N1 /N , à condition que N sont
grand comparé à n. Soit n = 5 et p = 5/12. Calculer P(X = 3) lorsque : a) N = 12, b)
N = 24, c) N = 48, d) N = 72, et comparer ces probabilités à celle calculée au moyen
d’une Bin(5, 5/12).

Solution.
Loi P(X = 3)
H yperGeo(5, 5, 12) 0.26515
H yperGeo(5, 10, 24) 0.25692
H yperGeo(5, 20, 48) 0.25166
H yperGeo(5, 30, 72) 0.24984
Bin(5, 5/12) 0.24615

Dans tous les cas ci-dessus, n = 5 et p = 5/12. Nous voyons que les probabilités hypergéomé-
triques s’approchent de plus en plus de la probabilité binomiale à mesure que N1 et N augmentent,
de telle sorte que le rapport N1 /N = 5/12 reste constant.
0.35

0.35
0.30

0.30
0.25

0.25
0.20

0.20
P (X = k )

P (X = k )
0.15

0.15
0.10

0.10
0.05
0.05

0.00
0.00

0 1 2 3 4 5 0 1 2 3 4 5

k k

Figure 6 – La loi binomiale Bin(5, 5/12) et la loi Hypergéométrique H yperGeo(5, 30, 72).

1.5 Loi de Poisson


La loi de Poisson, comme la loi binomiale, représente le nombre de fois où un certain événement
se produit. Mais l’expérience ne consiste pas à répéter une même épreuve plusieurs fois, elle consiste
plutôt à observer l’apparition d’un certain événement dans un intervalle de temps. La loi de Poisson

Page 11/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

sert dans la modélisation de phénomènes naturels. On trouve, par exemple, la modélisation du


nombre de tremblements de terre dans une certaine région au cours de la prochaine année, ou
encore, le nombre d’accidents automobiles à une intersection dangereuse au cours du prochain
mois. Le paramètre λ représente le nombre moyen d’occurrences du phénomène durant la période
de temps observée (ce nombre peut être obtenu en se basant sur le passé par exemple). Une variable
aléatoire est dite de Poisson (ou suit une loi de Poisson) de paramètre λ > 0 si sa fonction de
masse (de probabilité) est définie par

λk
pX (k) = P(X = k) , exp(−λ), k = 0, 1, . . . , (λ > 0),
k!
et on a X(Ω) = N et on écrit X ∼ Pois(λ).

Proposition 1.8. Si X suit une loi de Poisson de paramètre λ > 0 alors

E(X) = λ et V ar(X) = λ.

0.20
0.4

0.3

0.15
0.3

0.2
P (X = k )

P (X = k )

P (X = k )

0.10
0.2

0.1

0.05
0.1
0.0

0.0

0.00

0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10

k k k

Figure 7 – La fonction de masse pour la lois de Poisson : Pois(0.75), Pois(1) et Pois(4).

Démonstration.

Page 12/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

+∞
X λi
E(X) = i exp(−λ)
i=0
i!
+∞
X λi
= i exp(−λ)
i=1
i!
+∞
X λi−1
= exp(−λ)λ
i=1
(i − 1)!
+∞ j
X λ
= exp(−λ)λ
j=0
j!
= exp(−λ)λ exp(λ) = λ.

+∞
X λi
E(X 2 ) = i2 exp(−λ)
i=0
i!
+∞
X λi
= i2 exp(−λ)
i=1
i!
+∞
X λi−1
= λ i exp(−λ)
i=1
(i − 1)!
+∞
X exp(−λ)λj
= λ (j + 1)
j=0
j!
+∞ +∞
X exp(−λ)λj X exp(−λ)λj 
= λ j + = λ(λ + 1).
j=0
j! j=0
j!

 2
V ar(X) = E(X 2 ) − E(X) = λ(λ + 1) − λ2 = λ.

Proposition 1.9. Si X suit une loi de Poisson de paramètre λ > 0 alors sa fonction de
répartition, FX , est donnée par

k
!  0, si bkc < 0
λj

 k
X j
FX (k) , exp(−λ) 1(k>0) = X λ
j! exp(−λ) si bkc > 0.
 j=0 j!

j=0 

Démonstration. Laissée en exercice.

I Exercice :

Admettons que le nombre d’erreurs par page dans un livre suivre une distribution de Poisson
avec paramètre λ = 1/2. Calculer la probabilité qu’il y ait au moins une erreur sur une
page.

Page 13/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Solution.
Désignons par X le nombre d’erreurs sur une page. On aura
1
P(X > 1) = 1 − P(X = 0) = 1 − exp(− ) ' 0.393.
2

I Exercice :

Á partir de données statistiques, nous savons qu’il y a eu 2490 décès à Tunis en 2006.
Admettons que X, le nombre de décès à Tunis au cours des prochaines 24 heures, suit une
loi de Poisson. Calculer
(a) P(X = 4).
(b) P(X 6 3).

Solution.

Proposition 1.10. (Les lois de Poisson sont stables par sommation)


Soit n variables indépendantes X1 , . . . , Xn suivant des lois de Poisson de paramètres res-
pectifs λ1 , . . . , λn , avec λi > 0, pour tout i = 1, . . . , n, alors la variable Y = X1 + . . . + Xn
suit elle aussi une loi de Poisson, et plus précisément

Y = X1 + . . . + Xn ∼ Pois(λ1 + . . . + λn ).

Sous certaines conditions, la loi de Poisson peut être vue comme une approximation de la loi
binomiale.

Proposition
  1.11. (Lien Binomiale-Poisson)
Soit pn une suite de réels compris entre 0 et 1 telle que lim npn = λ > 0. Pour
n>0 n↑+∞
tout n > 0, soit Xn une variable aléatoire de loi binomiale Bin(n, pn ), alors

λk
∀k ∈ N, P(Xn = k) →n↑+∞ exp(−λ) .
k!

Page 14/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Démonstration. Si X ∼ B(n, p) avec p = nλ , n → +∞.


   
n λ k λ k
P(X = k) = 1−
k n n
n! λk λ λ
= (1 − )n (1 − )−k
k!(n − k)! nk n n
n(n − 1) . . . (n − (k − 1)) λk  λ n 1
= k
1− k
k! n n

λ
1− n
n−(k−1)
λk  λ n nk (1 − n1 )(1 − n2 ) . . . (1 − n ) 1
= 1− k
k! n nk

λ
1− n
 
n−(k−1)
λ k
λ n (1 − n1 )(1 − n2 ) . . . (1 − n )
= 1− k
k! n

1 − nλ
k−1
!
λk  λ n Y (1 − m n)
= 1−
k! n m=0
(1 − nλ )
k−1
!
λk  λ n Y  λ − m
= 1− 1+ .
k! n m=0
n−λ

Maintenant, pour n grand et λ modéré,


k−1
!
 λ n  λ k Y  λ − m
1− ≈ exp(−λ), 1− ≈ 1, (avec k fixe), 1+ ≈ 1,
n n m=0
n−λ

Donc, pour n grand et λ modéré,


λk
P(X = k) ≈ exp(−λ) .
k!

Pour aller vite, lorsque n est grand et le paramètre p est assez petit, on a

Bin(n, pn ) ≈ Pois(λ = npn ).


 
Plus précisément, on dit que Xn converge en loi vers une variable aléatoire de loi de Poisson
n>0
de paramètre λ. À la louche, on considère souvent que l’approximation est acceptable pour n > 50
et np < 5. Pour n = 50 et p = 0.05, la figure suivante donne l’allure des deux lois en question.

I Exercice :(Approximation d’une binomiale par une poisson)

Si X ∼ Bin(n, p), on peut approcher les probabilités P(X = x) par la fonction de pro-
babilité d’une variable X de loi Pois(λ), où λ = np, à condition que n est grand et le
paramètre p est assez petit. Calculer P(X = 4) lorsque : a) n = 10, b) n = 20, c)
n = 25, d) n = 30, e) n = 100, f) n = 200, g) n = 500, h) n = 1000, i)
n = 2000, j) n = 5000 et k) n = 10000, et comparer ces probabilités à celle calculée au
moyen d’une Pois(λ = 2.5).

Solution :

Page 15/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

0.25
0.25

0.20
0.20

0.15
0.15
P (X = k )

P (X = k )

0.10
0.10

0.05
0.05
0.00

0.00

0 2 4 6 8 10 14 0 2 4 6 8 10 14

k k

Figure 8 – Loi binomiale Bin(50, 1/20) et loi de Poisson Pois(2.5).

n p Loi P(X = 4) (dbinom(4,n,p) ou dpois(4,λ))


10 0.25 Bin(10, 0.25) 0.145998
20 0.125 Bin(20, 0.125) 0.139657
25 0.1 Bin(25, 0.1) 0.138415
50 0.05 Bin(50, 0.05) 0.1359752
100 0.025 Bin(100, 0.025) 0.1347798
200 0.0125 Bin(200, 0.0125) 0.1341886
500 0.005 Bin(500, 0.005) 0.133836
1000 0.0025 Bin(1000, 0.0025) 0.1337189
2000 0.00125 Bin(2000, 0.00125) 0.1336604
5000 0.0005 Bin(5000, 0.0005) 0.1336253
10000 0.00025 Bin(10000, 0.00025) 0.1336136
Pois(λ = 2.5) 0.1336019

Dans tous les cas ci-dessus, nous voyons que les probabilités binomiales s’approchent de plus
en plus de la probabilité poisson à mesure que n augmente et p diminue.

Page 16/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

+ Remarque 1.3. Si n est grand mais si p n’est pas très petit (de sorte que typiquement
on n’ait pas np < 5), l’approximation de la loi binomiale par une loi de poisson n’est
plus valide. Néanmoins, on verra en fin de chapitre que le Théorème Centrale Limite
permet alors d’approcher la loi binomiale par une loi normale.

+ Remarque 1.4. Nous retrouvons d’autres lois usuelles (comme : la loi géométrique,
binomiale négative et multinomiale) mais ne seront pas abordées dans ce cours.

Page 17/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

2 Lois associées aux variables de mesurage (Lois continues)


Comme dans le cas discret, il existe un certain nombre de lois classiques pour les variables à
densité. Nous détaillons ici quelques-unes.

2.1 Loi uniforme


La loi uniforme sert à préciser ce qu’on entend par un énoncé du type : "On tire un point au
hasard entre 0 et 1". C’est l’équivalent continu de la loi uniforme vue dans le cas discret. Soient
α et β deux réels, avec −∞ < α < β < +∞. La variable aléatoire X suit une loi uniforme sur
l’intervalle (α, β) si sa densité fX est de la forme
(
1
1 1 β−α , si α < x < β,
fX (x; α, β) , 1(x ∈ (α, β)) = 1(α,β) (x) =
β−α β−α 0, sinon,

alors X prends ses valeurs dans (α, β) (X(Ω) = (α, β)). On écrit X ∼ U nif (α, β). Cette loi est
l’analogue continu de l’équiprobabilité dans le cas où Ω est de cardinalité finie.

Proposition 2.1. Si X suit une loi uniforme sur l’intervalle (α, β) alors

α+β (β − α)2
E(X) = et V ar(X) = .
2 12

Démonstration.

Z +∞ Z β
x
E(X) = xfX (x) dx = dx
−∞ α β−α
β − α2 1
2
=
2 β−α
α+β
= .
2

+∞ β
x2
Z Z
2 2
E(X ) = x f (x) dx =
−∞ α (β − α) dx
β 3 − α3
=
β−α
(β − α)(β 2 + α2 + αβ)
=
3(β − α)
(β + α2 + αβ)
2
= .
3

2
V ar(X) = E(X 2 ) − E(X)
(β − α)2 (β − α)2 (β − α)2
= − = .
3 4 12

Page 18/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Proposition 2.2. Si X suit une loi uniforme sur l’intervalle (α, β) alors sa fonction de
répartition, FX , est donnée par

x − α  0, si x 6 α,
x−α
FX (x; α, β) , 1(x ∈ (α, β)) + 1(x ∈ (β, +∞)) = , si α < x < β,
β−α  β−α
1, si x > β.

Démonstration. Laissée en exercice.


1.0

1.0
0.8

0.8
probabilité commulée
probabilité

0.6

0.6

1/(β - α)
0.4

0.4
0.2

0.2
0.0

0.0

α β α β

Figure 9 – Densité et fonction de répartition de la loi uniforme sur l’intervalle (α, β).

I Exercice :

Soit X une variable uniforme sur l’intervalle (0, 10). Calculer les probabilités
(a) P(X < 3).
(b) P(X > 6).
(c) P(3 < X < 8).

Solution.

Page 19/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

I Exercice :

À partir de 7 heures, les bus passent toutes les 15 minutes à un arrêt donné. Ils passent
donc à 7h00, 7h15, 7h30 et ainsi de suite. Un usager se présente entre 7h00 et 7h30 à cet
arrêt, l’heure exacte de son arrivée étant une variable uniforme sur cette période. Trouver
la probabilité qu’il doive attendre.
(a) moins de 5 minutes,
(b) plus de 10 minutes.

Solution.

2.2 Loi exponentielle


La loi exponentielle est la version en temps continu de la loi géométrique. De fait, elle intervient
souvent dans la modélisation des phénomènes d’attente. Soit λ un réel strictement positif. On dit
que X suit une loi exponentielle de paramètre λ si X admet pour densité

λ exp(−λx), si x > 0,
fX (x; λ) , λ exp(−λx)1(x ∈ [0, +∞[) = λ exp(−λx)1([0,+∞[) (x) =
0, sinon.

On écrit X ∼ E xp((λ)) et X(Ω) = R+ . Une variable exponentielle est donc à valeurs dans
[0, +∞[. Plus λ est grand et plus la variable a des chances de prendre des valeurs proches de 0.

Proposition 2.3. Si X suit une loi exponentielle de paramètre λ alors


1 1
E(X) = et V ar(X) = .
λ λ2

Démonstration.
Z +∞ Z +∞
E(X) = xfX (x) dx = λx exp(−λx) dx
−∞ 0
+∞
Z +∞
= −x exp(−λx) + exp(−λx) dx
0 0
1 1
= 0+ = .
λ λ

Page 20/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

1.0

2.0
0.8

1.5
λ=2
λ = 12
0.6
probabilité

probabilité
λ=1
λ = 0.5

1.0
λ = 0.25
0.4

0.5
0.2
0.0

0.0

0 2 4 6 8 10 0 2 4 6 8 10

x x

Figure 10 – Illustration : plus λ est grand et plus la variable a des chances de prendre des valeurs
proches de 0.

Z +∞ Z +∞
2 2
E(X ) = x fX (x) dx = λx2 exp(−λx) dx
−∞ 0
+∞
Z +∞
= −x2 exp(−λx) + 2x exp(−λx) dx
0 0
2 2
= 0+ E(X) = 2 .
λ λ
Alors

2
V ar(X) = E(X 2 ) − E(X)
2 1 1
= − 2 = 2.
λ2 λ λ

Proposition 2.4. Si X suit une loi exponentielle de λ, alors sa fonction de répartition


FX est

1 − exp(−λx), si x > 0,
FX (x; λ) , 1 − exp(−λx)1(x ∈ [0, +∞)) =
0, sinon.

Page 21/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Démonstration. Laissée en exercice.

Proposition 2.5. Soit X suit une loi exponentielle de λ. Alors,

∀k ∈ R, ∀t > 0, P(X > k + t | X > t) = P(X > k).

De plus, cette propriété caratérise la loi exponentielle.

Démonstration. Laissée en exercice.


Densité et fonction de répartition de la loi exponentielle de paramètre λ = 4 sont représentées
comme suit

1.0
4

0.8
3

fonction de répartition

0.6
densité

0.4
1

0.2
0.0
0

0 2 4 6 8 10 0 2 4 6 8 10

x x

Figure 11 – Densité et fonction de répartition de la loi exponentielle de paramètre λ = 4.

I Exercice :

On suppose que la durée d’une conversation téléphonique, mesurée en minutes, est une
variable exponentielle de paramètre λ = 1/10. Vous arrivez à une cabine téléphonique et
quelqu’un passe juste devant vous avec quelle probabilité devrez-vous attendre :
(a) plus de 10 minutes ?
(b) entre 10 et 20 minutes ?

Solution.

Page 22/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

2.3 La loi Gamma


La loi Gamma est construite en utilisant la fonction gamma, Γ(.), qui elle généralise les factoriels
aux nombres réels non-négatifs. Elle est définie par
Z +∞
Γ(κ) = tκ−1 exp(−t) dt, κ > 0.
0

La fonction gamma satisfait les propriétés suivantes :


• Γ(κ) = (κ − 1)Γ(κ − 1), κ = 1, 2, . . .
• Γ(κ) = (κ − 1)!, κ = 1, 2, . . .

• Γ( 21 ) = π.
On dit que X suit une loi Gamma de deux paramètres (κ > 0 et θ > 0) si sa densité est définie
par
1
fX (x; θ, κ) , xκ−1 exp(−x/θ)1(x ∈ [0, +∞[),
θκ Γ(κ)
avec X(Ω) = R+ et on écrit X ∼ GAM (θ, κ), avec κ est un paramètre de forme et 1/θ est un
paramètre d’intensité. En plus, fX (0; θ, 1) = 1/θ et si κ > 1, on a fX (0; θ, κ) = 0.
1.0
1.5

0.8
0.6
1.0

F (x )
f (x )

θ = 1.4 κ = 0.5
θ = 1.4 κ = 1
θ = 1.4 κ = 2
0.4
0.5

θ = 1.4 κ = 0.5
θ = 1.4 κ = 1
0.2

θ = 1.4 κ = 2
0.0

0.0

0 2 4 6 8 0 2 4 6 8

x x

Figure 12 – Densités et fonctions de répartition de la loi Gamma avec différents paramètres (θ, κ).

Proposition 2.6. Si X suit la loi Gamma de paramètres (θ, κ) alors

E(X) = κ θ et V ar(X) = κ θ2 .

Page 23/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Démonstration.

Z +∞ Z +∞
E(X) = xfX (x; κ, θ) dx = xfX (x) dx
0 0
Z +∞
1
= x xκ−1 exp(−x/θ) dx
0 θκ Γ(κ)
Z +∞
1
= x(κ+1)−1 exp(−x/θ) dx
θκ Γ(κ) 0
+∞
θ1+κ Γ(1 + κ)
Z
1
= x(κ+1)−1 exp(−x/θ) dx
θκ Γ(κ) 0 θ1+κ Γ(1 + κ)
1+κ
θ Γ(1 + κ)
= κ
θ Γ(κ)
κΓ(κ)
= θ
Γ(κ)
= θκ.


Z +∞ Z +∞
E(X 2 ) = x2 fX (x; κ, θ) dx = x2 fX (x) dx
0 0
Z +∞
1
= x2 xκ−1 exp(−x/θ) dx
0 θκ Γ(κ)
Z +∞
1
= x(κ+2)−1 exp(−x/θ) dx
θκ Γ(κ) 0
θ2+κ Γ(2 + κ) +∞
Z
1
= κ 2+κ
x(κ+2)−1 exp(−x/θ) dx
θ Γ(κ) 0 θ Γ(2 + κ)
θ2+κ Γ(2 + κ)
=
θκ Γ(κ)
(κ + 1)κΓ(κ)
= θ2
Γ(κ)
= θ2 (κ + 1)κ.


2
V ar(X) = E(X 2 ) − E(X)
= θ2 (κ + 1)κ − θ2 κ2 = θ2 κ.

+ Remarque 2.1. (Cas particuliers de la distribution Gamma)


(a) (κ = 1, θ = λ1 ) alors on a la distribution exponentielle.
(b) (κ = n/2, θ = 2), n est un entier, alors on a la distribution Khi-deux, avec n
degrés de liberté (cette loi ne sera pas abordée dans ce cours.).
(c) (κ = n, θ), n est un entier, alors on a la distribution Erlang (cette loi ne sera
pas abordée dans ce cours).

Page 24/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Proposition 2.7. Si X ∼ GAM (θ, n), avec n un entier positif, alors la fonction de répar-
tition de X, FX , est donnée par
n−1
X (x/θ)i
FX (x; θ, n) , 1 − exp(−x/θ).
i=0
i!

Démonstration. La fonction de répartition, FX (x; θ, κ), d’une distribution Gamma de paramètres


κ et θ est donnée par
Z x Z x
1
FX (x; θ, κ) = fX (t; θ, κ) dt = κ Γ(κ)
tκ−1 exp(−t/θ) dt.
0 0 θ

Effectuons le changement de variable u = t/θ alors on obtient

FX (x; θ, κ) = FY (x/θ; 1, κ), avec Y = X/θ,

permettant d’évaluer la fonction de répartition d’une distribution GAM (θ, κ) à l’aide d’une dis-
tribution GAM (1, κ). En d’autres termes, si X est distribuée GAM (θ, κ) alors Y = X/θ est
distribuée GAM (1, κ). Si κ = n = entier et θ = 1, on a
Z x
1 n−1
FX (x; 1, n) = t exp(−t) dt
0 Γ(n)

En effectuant une intégration par parties on obtient la relation de récurrence :

FX (x, 1, n) = −xn−1 exp(−x)/Γ(n) + FX (x; 1, n − 1), n > 2,

et pour n = 1 on a
FX (x; 1, 1) = 1 − exp(−x).
et la formule explicite pour FX (x; 1, n) est donnée par
n−1
X xi
FX (x; 1, n) = 1 − exp(−x).
i=0
i!

Proposition 2.8.
(a) Le temps de la sème réalisation Xs d’un processus de Poisson d’intensité λ est une
variable Gamma de paramètres κ = s et θ = 1/λ.
(b) La somme de s variables indépendantes et de distribution exponentielle avec paramètre
λ est une variable de distribution gamma avec paramètres κ = s et θ = 1/λ.

Démonstration. Laissée en exercice.

I Exercice :

Soit κ > 0.
a) Montrer que Γ(κ + 1) = κΓ(κ).
b) En déduire une formule pour Γ( k2 ), où k est un entier positif impair.

Page 25/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Solution.
a) Il suffit d’intégrer par parties en posant u = xκ et dv = exp(−x). On a
Z +∞
Γ(κ + 1) = xκ exp(−x) dx
0
+∞
Z +∞
κ
= x (− exp(−x)) − − exp(−x)κxκ−1 dx
0 0
Z +∞
= 0+κ exp(−x)xκ−1 dx
0
= κΓ(κ).

b) Avant d’aller plus loin,


1 Z +∞
1
Γ = √ exp(−x) dx
2 0 x
Z +∞
1
= exp(−u2 )2u du
0 u
Z +∞
= 2 exp(−u2 ) du
0
Z +∞
= exp(−u2 ) du (par symétrie)
−∞

= π.

Ensuite, on pose k = 2n + 1 où n ∈ Z alors


k 1
Γ = Γ(n + )
2 2
n
√ Y 2i − 1
= π
i=1
2
√ Y n
π
= (2i − 1)
2n i=1
√ Qn Qn
π i=1 (2i − 1) i=1 2i
= Q n
2n i=1 2i

π (2n)!
=
4n√ n!
π (k − 1)!
= (k−1)/2
.
4 ((k − 1)/2)!

I Exercice :

Soit X ∼ GAM (κ, θ). Trouver la densité de Y = c X, où c est une constante positive.

Solution.
Pour tout c > 0, on a que Y = c X est une transformation monotone (croissante) sur le support
de X qui est R+ . On peut alors utiliser le théorème des changement de variables. On a donc
d −1
fY (y) = fX (g −1 (y)) g (y) .
dy

Page 26/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

y
On a g −1 (y) = c et d −1
dy g (y) = 1c . De plus, X ∼ GAM (κ, θ) alors

y 1 y κ−1 y
fX (g −1 (y); κ, θ) = fX ( ; κ, θ) = κ exp(−y/c θ)1( ∈]0, +∞[).
c θ Γ(κ) c c
En substituant ces valeurs dans le théorème, on obtient
1 y κ−1 y 1
fY (y) = exp(−y/c θ)1( ∈]0, +∞[) .
θκ Γ(κ) c c c
1
= y κ−1 exp(−y/c θ)1(y ∈]0, +∞[).
(c θ)κ Γ(κ)
On a alors Y ∼ GAM (κ, c θ).

I Exercice :

Depuis l’ouverture d’une autoroute il y a 20 ans, on a observé 40 accidents mortels. On


suppose que ceux-ci suivent un processus de Poisson. Calculez la probabilité que le temps
d’attente depuis maintenant jusqu’au troisième accident mortel, soit entre 15 et 20 mois.

Solution.
On peut estimer l’intensité du processus à

λ = 40/20 = 2, par an ou 1/6 par mois

Nous avons vu que le temps (mois) d’attente du troisième accident mortel suit une distribution
Gamma de paramètres κ = 3 et θ = 1/(1/6) = 6.

La probabilité cherchée est donc

P(15 6 X 6 20) = FX (20; 6, 3) − FX (15; 6, 3)


= FY (20/6; 6, 3) − FY (15/6; 6, 3) où Y = X/6,
 2 2
X    X  
= 1− (20/6)k exp(−20/6) /k! − 1 − (15/6)k exp(−15/6) /k!
k=0 k=0
2
X 2
X
(15/6)k exp(−15/6) /k! − (20/6)k exp(−20/6) /k!
 
=
k=0 k=0
   
= exp(−15/6) 1 + 15/6 + (1/2!)(15/6)2 − exp(−20/6) 1 + 20/6 + (1/2!)(20/6)2
= 0.5438 − 0.3528
= 0.1910.

2.4 Loi normale


La loi normale centrée réduite est la loi de la variable aléatoire Z, ayant pour densité
1 z2
fZ (z) , √ exp(− ), −∞ < z < +∞.
2π 2
Sa fonction de répartition est notée conventionnellement par ΦZ et elle est donnée par
Z z
1 t2 1 z 
ΦZ (z) , √ exp(− ) dt = 1 + erf √ , −∞ < z < +∞,
−∞ 2π 2 2 2

Page 27/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

où erf est la fonction d’erreur définie par

2
Z u √
erf(u) , √ exp(−t2 ) dt = 2ΦZ ( 2u) − 1.
π 0

1.2
µ=0 σ=1
0.5

µ=0 σ=1

1.0
0.4

0.8
0.3

F (z )
f (z )

0.6
0.2

0.4
0.1

0.2
0.0

0.0

-4 -2 0 2 4 -4 -2 0 2 4

z z

Figure 13 – Densité et fonction de répartition de la loi normale centrée-réduite.

La première affirmation se voit directement par symmétrie de la densité et la second s’obtient


à l’aide de la formule d’intégration par parties. La loi normale centrée réduite se dénote N (0, 1)
et on écrit Z ∼ N (0, 1).

+ Remarque 2.2. Si Z suit une loi normale centrée et réduite alors


? fZ (z) = fZ (−z), −∞ < z < +∞.
(1) (2)
? fZ (z) = −zfZ (z) et fZ (z) = (z 2 − 1)fZ (z), −∞ < z < +∞.
? fZ (z) admet un unique maximum en z = 0 et deux points d’inflexion en z ± 1.
(1) √ 
? fZ (z) → 0 et fZ (z) = −z/ 2π exp z 2 /2 → 0 pour z ± ∞.

Proposition 2.9. Si Z suit une loi normale centrée et réduite alors

E(Z) = 0 et V ar(Z) = 1.

Page 28/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Démonstration.

Z +∞
E(Z) = zfZ (z) dz
−∞
Z +∞
(1) (1) z z2
= − fZ (z) dz où fZ (z) , − √ exp(− ),
−∞ 2π 2
+∞
= −fZ (z) = 0.
−∞

Z +∞
2
E(Z ) = z 2 fZ (z) dz
−∞
Z +∞  
(2)
= fZ (z) + fZ (z) dz
−∞
Z +∞
(1) +∞
= fZ (z) −∞
+ fZ (z) dz
−∞
= 0 + 1 = 1,

et
V ar(X) = E(X 2 ) − (E(X))2 = 1 − 0 = 1.

Tous les calculs de probabilités et la détermination de percentiles de toutes les distributions


gaussiennes utilisent la fonction ΦZ (z). Cette fonction a été évaluée numériquement et une table
est fournie à la fin de ce chapitre. La table donne les valeurs de ΦZ (z) entre 0.00 et 3.49. Pour les
valeurs négatives de z on utilise la relation

ΦZ (−z) = 1 − ΦZ (z).

Il y a aussi des approximations de la fonction ΦZ (z) et la fonction inverse Φ−1


Z (p) telles que
!−1
 
2
ΦZ (z) ≈ 1 + exp − 1.5976z 1 + 0.04417z

et
!
2.30753 + 0.27061 α  1/2
Φ−1
Z (p) ≈ α− , où α = − 2 ln(1 − p) , 0.5 6 p < 1.
1 + 0.99229 α + 0.04481 α2

et
Φ−1 −1
Z (p) = −ΦZ (1 − p), 0 < p 6 0.5.
La précision de ces approximations est excellente, l’erreur est de ±0.0001 pour la fonction
ΦZ (z) et ±0.003 pour la fonction inverse Φ−1
Z (p).

I Exercice :

Soit la variable aléatoire Z distribuée suivant une loi normale de paramètres (0, 1). Calculer :
(a) P(0 6 Z 6 1).
(b) P(−2 6 Z 6 1).
(c) P(|Z| 6 1).

Page 29/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Solution.
(a)
P(0 6 Z 6 1) = ΦZ (1) − ΦZ (0)
= 0.8413 − 0.5 = 0.3413.
(b)
P(−2 6 Z 6 1) = ΦZ (1) − ΦZ (−2)
= ΦZ (1) − (1 − ΦZ (2))
= ΦZ (1) + ΦZ (2) − 1
= 0.8413 + 0.4772 − 1 = 0.8185.
(c)
P(|Z| 6 1) = P(−1 6 Z 6 1)
= ΦZ (1) − ΦZ (−1)
= ΦZ (1) − (1 − ΦZ (1))
= 2ΦZ (1) − 1
= 2 × 0.8413 − 1 = 0.6826.

 Percentiles d’une distribution N (0, 1)

Le percentile zγ d’ordre γ d’une distribution N (0, 1) est donnée par


P(Z 6 zγ ) = ΦZ (zγ ) = γ et zγ = Φ−1
Z (γ).

Les percentiles les plus utilisés sont :


2 Les quartiles : γ = 25, 50, 75.
2 Les déciles : γ = 10, 20, 30, . . . , 80, 90.
2 Les centiles : γ = 1, 2, 3, . . . , 98, 99.

Le tableau suivant donne une liste des percentiles d’une distribution N (0, 1) pour certaines
valeurs particulières de γ.

γ 0.50 0.75 0.90 0.95 0.975 0.99 0.995 0.999 0.9995 0.99995 0.999995
zγ 0 0.675 1.282 1.645 1.960 2.326 2.576 3.090 3.291 3.891 4.417

Si 0 < γ < 0.50, alors zγ < 0 et par la symétrie de la distribution gaussienne on a :


zγ = −z1−γ , ΦZ (−z1−γ ) = γ et Φ−1
Z (γ) = −z1−γ .

I Exercice :

À titre d’exemple, pour γ = 0.95, on a zγ , z0.95 = 1.645. Par la suite, on a

ΦZ (−1.645) = 1 − ΦZ (1.645) = 1 − 0.95 = 0.05 et ceci donne z0.05 = −z1−0.05 .

On a aussi
P(z0.05 < Z < z0.95 ) = 0.95 − 0.05 = 0.9.
ou
P(−z1−0.05 < Z < z1−0.05 ) = 0.9.

Page 30/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Afin de décentrer la loi et d’obtenir une variance σ 2 > 0 quelconque, on pose


X −µ
Z= ou encore X = σZ + µ.
σ
De cette façon, la variable aléatoire X est d’espérance µ (paramètre de localisation) et de
variance σ 2 > 0 (paramètre d’échelle). À travers un chagement de variables, on obtient

1  (x − µ)2 
fX (x; µ, σ) , √ exp − , −∞ < x < +∞,
σ 2π 2σ 2

et on écrit X ∼ N (µ, σ 2 ).

Proposition 2.10. Si X suit une loi normale de paramètres (µ, σ 2 ) alors

E(X) = µ et V ar(X) = σ 2 .

Démonstration.
!
+∞
1  x − µ 2
Z
1
E(X) = x√ exp − dx
−∞ 2πσ 2 σ
Z +∞ 
= µ + σz fZ (z) dz, avec z = (x − µ)/σ,
−∞
Z +∞ Z +∞
= µ fZ (z) dz + σ zfZ (z) dz
−∞ −∞
= µ × 1 + σ × 0 = µ.
!
+∞
1  x − µ 2
Z
2 2 1
E(X ) = x √ exp − dx
−∞ 2πσ 2 σ
Z +∞ 2
= µ + σz fZ (z) dz, avec z = (x − µ)/σ,
−∞
Z +∞ Z +∞ Z +∞
2 2
= µ fZ (z) dz + 2µσ zfZ (z) dz + σ z 2 fZ (z) dz
−∞ −∞ −∞
= µ2 × 1 + 2µσ × 0 + σ 2 × 1 = µ2 + σ 2 ,
et
V ar(X) = E(X 2 ) − (E(X))2 = µ2 + σ 2 − µ2 = σ 2 .

X−µ
Proposition 2.11. Si X suit une loi normale de paramètres (µ, σ 2 ) et Z = σ alors
i) P(a 6 X 6 b) = ΦZ ((b − µ)/σ) − ΦZ ((a − µ)/σ), avec a, b ∈ R.
ii) P(X > b) = 1 − ΦZ ((b − µ)/σ), avec b ∈ R.
iii) P(|X| > b) = 1 − ΦZ ((b − µ)/σ) + ΦZ ((−b − µ)/σ), avec b ∈ R.
iv) Y = a + bX, avec a, b ∈ R, suit une loi normale de paramètres (a + bµ, b2 σ 2 ).
v) Le γ ème percentile d’une variable aléatoire X distribuée suivant une loi normale de
paramètres (µ, σ 2 ), notée xγ , est

xγ = µ + σzγ .

Page 31/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Démonstration. Laissée en exercice.

I Exercice :

Supposons X ∼ N (µ = 100, σ 2 = 64). Calculer P(92 6 X 6 110).

Solution.
X − 100
P(92 6 X 6 110) = ΦZ ((110 − 100/8)) − ΦZ ((92 − 100/8)), avec Z= ,
8
= ΦZ (1.25) − ΦZ (−1)
= ΦZ (1.25) − 1 + ΦZ (1)
= 0.8944 − 1 + 0.8413
= 0.7357.

I Exercice :

Soit X une variable aléatoire de loi N (3, 9). Calculer


a) P(2 < X < 5).
b) P(X > 0).
c) P(|X − 3| > 6).

Solution.
a)
2 − 3 X −3 5 − 3  −1 2
P(2 < X < 5) = P < < =P <Z< , où Z ∼ N (0, 1),
 3 3  3 3 3
2 −1
= ΦZ − ΦZ
3 3
   !
2 1
= ΦZ − 1 − ΦZ
3 3
≈ 0.7486 − (1 − 0.6293)
= 0.7486 − 0.3707 = 0.3779.

b)

X −3 0−3
P(X > 0) = P( > )
3 3
= P(Z > −1)
= 1 − ΦZ (−1)
= ΦZ (1) = 0.8413.

Page 32/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

c)

P(|X − 3| > 6) = 1 − P |X − 3| 6 6

= 1−P −36X 69
 −6 X −3 6
= 1−P 6 6
3 3  3
= 1−P −26Z 62

= 1 − ΦZ (2) − ΦZ (−2)

= 1 − ΦZ (2) − (1 − ΦZ (2))
= 2(1 − ΦZ (2)) = 2(1 − 0.9772) = 0.0456.

I Exercice :

Une compagnie de construction sait par expérience que la durée (en jours) nécessaire pour
compléter un certain type de constrution suit une distribution gaussienne approximative-
ment. Un projet de ce type est proposé et tenant compte de ses ressources humaines, la
compagnie estime à une chance sur 20 la probabilité de compléter le projet en moins de
20 jours et a une chance sur 100 de completer le projet en plus de 50 jours. Déterminer la
moyenne et l’écart-type de la distribution ?

Solution.
Soit X la durée en jours. Suivant l’énoncé, on a X ∼ N (µ, σ 2 ). On a

P(X 6 20) = 0.05 et P(X > 50) = 0.01.


X−µ
Les équations peuvent s’écrire, avec Z = σ ,

ΦZ ((20 − µ)/σ) = 0.05 et 1 − ΦZ ((50 − µ)/σ) = 0.01.

Donc
(20 − µ)/σ = Φ−1
Z (0.05) = z0.05 = −z1−0.05 = −z0.95 = −1.645.

(50 − µ)/σ = Φ−1


Z (0.99) = z0.99 = 2.326.

d’où
µ − 1.645σ = 20 et µ + 2.326σ = 50.
On obtient
µ = 32.427 et σ = 7.555.

I Exercice :

Soit X une variable aléatoire suivant la loi N (0, 1). On pose Y = 2X − 3.


1) Quelle est la loi de Y ?
2) Calculer P(Y < −4).
3) Calculer P(−2 < Y < 3)

Solution.

Page 33/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

!
1) Y une variable aléatoire qui suit la loi N (−3, 4) N ((2 × 0) − 3, 2 × 1) .
2

2)
Y + 3 −1 
P(Y < −4) = P <
2 2
 −1  Y +3
= ΦZ , avec Z = ,
2 2
1
= 1 − ΦZ
2
= 1 − 0.6915 = 0.3085.

3)

Y +3
1 6
P(−2 < Y < 3) = P < <
2 2 2
1 Y +3
= ΦZ (3) − ΦZ avec Z= ,
2 2
= 0.9987 − 0.6915
= 0.3072.

I Exercice :

Soit X la durée de vie en mois d’une batterie et supposons que X ∼ N (60, 36).
a) La fraction de batteries qui tomberont en panne au cours d’une période de garantie de
quatre ans est donnée par
 48 − 60 
P(X 6 48) = ΦZ
6
= ΦZ (−2)
= 1 − ΦZ (2)
= 1 − 0.9772 = 0.0228.

b) Si on veut savoir à quelle période de garantie correspondrait 5% de pannes, alors


x
0.05− 60 
P(X 6 x0.05 ) = ΦZ = 0.05.
6
ceci donne (x0.05 − 60)/6 = −1.645 alors x0.05 = −1.645 × 6 + 60 = 50.13 mois.

 Approximation d’une distribution binomiale par une distribution gaussienne.

Page 34/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Théorème 2.1. (Théorème central limite (TCL))


Soient X1 , X2 , . . . une suite de variables aléatoires indépendantes et identiquement distri-
buées d’espérance commune µ et de variance commune σ 2 > 0. Alors la distribution de
Sn − nµ
Zn = √ ,
σ n
n
X
avec Sn = Xk , tend vers la distribution normale lorsque n tend vers +∞, ce qui veut
k=1
dire que Z z
1
P(Zn 6 z) → √ E(−x2 /2) dx, (n ↑ +∞).
2π −∞

Démonstration. Laissée en exercice.

On a vu qu’une variable binomiale X de paramètres (n, p) pouvait s’exprimer à l’aide d’une


somme
Xn
X= Yi ,
i=1

où les variables Yi sont indépendantes à valeurs 0 ou 1 et on p = P(Yi = 1). En appliquant le


théorème central-limite à ce cas particulier avec µ = p et σ 2 = p(1 − p),

X suit approximativement la distribution N (np, np(1 − p))

ou encore si min(np, n(1 − p)) > 5 alors


!
a − 0.5 − np X − np b + 0.5 − np
P(a 6 X 6 b) = P p 6p 6 p
np(1 − p) np(1 − p) np(1 − p)
! !
b + 0.5 − np a − 0.5 − np
' ΦZ p − ΦZ p , 0 < a 6 b < n.
np(1 − p) np(1 − p)

La dernière formule contient un terme ±0.5 appelé correction pour la continuité donnant une
approximation plus précise.

I Exercice :

Un dé non-truqué est lancé 6000 fois et on note à chaque fois si le résultat ’1’ est observé.
Calculez la probabilité que le résultat ’1’ soit observé entre 950 et 1030 dois inclusivement.

Solution. Soit X le nombre de fois que le ’1’ est observé après 6000 essais. On sait que X suit
une distribution binomiale de paramètres n = 6000 et p = 1/6. La probabilité cherchée est
1030   k  6000−k
X 6000 1 5
P(950 6 X 6 1030) = .
k 6 6
k=950

L’évaluation de cette somme est laborieuse et exige une grande précision dans le calculs. On peut
l’évaluer en utilisant une approximation par une distribution gaussienne de paramètres (µ, σ) avec

µ = np = 6000 × 1/6 = 1000.

Page 35/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

σ 2 = np(1 − p) = 6000 × 1/6 × 5/6 = 833.33 = 28.872 .


d’où
P(950 6 X 6 1030) = ΦZ ((1030 + 0.5 − 1000)/28.87) − ΦZ ((950 − 0.5 − 1000)/28.87)
= ΦZ (1.06) − ΦZ (−1.75)
= 0.8554 − 0.0401
= 0.8153.

I Exercice :

Montrer que
n
X nk 1
lim exp(−n) = .
n↑+∞ k! 2
k=0

Solution. On note que


n
X nk
lim exp(−n) = P(Sn 6 n),
n↑+∞ k!
k=0
où Sn = X1 +. . .+Xn et X1 , . . . , Xn sont indépendantes et de loi commune Poisson de paramaètre
λ = 1. Ainsi,
Sn − n
P(Sn 6 n) = P( √ 6 0)
n
→ P(Z 6 0), (n ↑ +∞), avec Z ∼ N (0, 1),
1
= .
2

I Exercice :

On lance 10 dés équilibrés. On cherche la probabilité que la somme des dix résultats soit
compris entre 30 et 40.

Solution. Notons par


Xi : le résultat obtenu par le ième dé, i = 1, . . . , 10,
et posons
10
X
S= Xi : la somme des résultats.
i=1
On a
 29.5 − 10 × 3.5 S − 10 × 3.5 40.5 − 10 × 3.5 
P(29.5 6 S 6 40.5) = P q 6 q 6 q
35×10 35×10 35×10
12 12 12
 −5.5 5.5 
' P 6Z6
5.40061 5.40061
= ΦZ (1.0184) − ΦZ (−1.0184)
= 2ΦZ (1.0184) − 1
≈ 2 × 0.8461 − 1 = 0.6922..

Page 36/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

+ Remarque 2.3. Nous retrouvons d’autres lois usuelles (la loi beta, Cauchy, Wei-
bull, Logistic, Pareto, Gumbel, Laplace ou double exponentielle) mais ne seront pas
abordées dans ce cours.

Page 37/38 30 octobre 2023


Yousri HENCHIRI Université De La Manouba

Table : Gaussienne centrée-réduite.


Fonction de répartition de la loi normale standard
Z z
1
ΦZ (z) = √ exp(−t2 /2) dt et ΦZ (−z) = 1 − ΦZ (z).
−∞ 2π

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1. 1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1. 2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1. 3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1. 4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1. 5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1. 6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1. 7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1. 8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1. 9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.8788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.991 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.9 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

Page 38/38 30 octobre 2023

Vous aimerez peut-être aussi