Vous êtes sur la page 1sur 37

Probabilités et Statistiques

Chapitre 4: Quelques lois de


probabilité
Hamzah Bakhti
API – S4 2023/24
Plan
Chapitre 4: Quelques lois de probabilité

1. Introduction

2. Lois de probabilité discrètes

3. Lois de probabilité continues

2/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Plan
Chapitre 4: Quelques lois de probabilité

1. Introduction

2. Lois de probabilité discrètes

3. Lois de probabilité continues

3/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Lois de probabilité
Introduction

La plupart des lois de probabilité discrètes et continues reposent sur des


hypothèses élémentaires liées à des phénomènes du monde réel.
Ce chapitre portera sur les lois de probabilité suivantes :
• Lois de probabilité discrètes :
— Loi de Bernoulli
— Loi binomiale
— Loi de Poisson
• Lois de probabilité continues :
— Loi normale
— Loi exponentielle
— Loi de Cauchy

4/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Plan
Chapitre 4: Quelques lois de probabilité

1. Introduction

2. Lois de probabilité discrètes

3. Lois de probabilité continues

5/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Bernoulli
Lois de probabilité discrètes

De nombreux problèmes font intervenir une expérience composée de n épreuves


ou essais consécutifs.
Dans le cas qui nous intéresse, chacune de ces épreuves ne peut déboucher que
sur un succès ’S’ ou un échec ’E’.

6/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Bernoulli
Lois de probabilité discrètes

Fonction de masse de la loi de Bernoulli


La variable aléatoire X représentant le nombre de succès lors d’une épreuve de
Bernoulli peut prendre les valeurs 0 ou 1.
On dit alors que X est distribuée selon une loi de Bernoulli de paramètre p, où p
est la probabilité de succès.
La fonction de masse de X est donnée par :

1 − p si x = 0

p(x) = p si x = 1
sinon.

0

7/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Bernoulli
Lois de probabilité discrètes

8/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Bernoulli
Lois de probabilité discrètes

L’espérance et la variance d’une loi de Bernoulli


La loi de Bernoulli a une moyenne théorique de :

E(X) = 0 · (1 − p) + 1 · p = p

et une variance de :

V (X) = [02 · (1 − p) + 12 · p] − p2 = p(1 − p)

9/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi binomiale
Lois de probabilité discrètes

Pour la loi binomiale, on s’intéresse au nombre de succès qu’on peut obtenir


lorsqu’un nombre fixé d’épreuves de Bernoulli indépendantes sont effectuées.
Exemple
Soit une expérience constituée de l’évaluation de trois pièces d’acier choisies au
hasard dans la production.
On veut étudier le nombre de pièces défectueuses dans cet échantillon.
Il s’agit donc de trois épreuves de Bernoulli indépendantes ayant chacune une
probabilité de succès p, où un succès est une pièce défectueuse.

10/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi binomiale
Lois de probabilité discrètes

11/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi binomiale
Lois de probabilité discrètes

Exemple
La variable aléatoire X correspond au nombre de pièces défectueuses obtenues
en trois épreuves et se traduit par X = Xl + X2 + X3 , où Xj est le nombre de
succès lors de la y-ième épreuve.
Elle présente ainsi la distribution ci-dessous.
x p(x)
0 P {EEE} = (1 − p) · (1 − p) · (1 − p) = (1 − p)3
1 P {EES} + P {ESE} + P {SEE} = 3p(1 − p)2
2 P {ESS} + P {SES} + P {SSE} = 3p2 (1 − p)
3 P {SSS} = p3

12/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi binomiale
Lois de probabilité discrètes

Fonction de masse de la loi binomiale


La variable aléatoire X représentant le nombre de succès obtenus en réalisant n
épreuves de Bernoulli indépendantes, ayant chacune une probabilité de succès p,
est dite de loi binomiale de paramètres n et p.
Sa fonction de masse p(x) est définie par
 !
n
px (1 − p)n−x si x = 0, 1, 2, . . . , n


p(x) = x
sinon.

0

En abrégé, on écrit X ∼ Binomiale(n, p).

13/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi binomiale
Lois de probabilité discrètes

14/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi binomiale
Lois de probabilité discrètes

L’espérance et la variance de la loi binomiale


Une façon simple de déterminer la moyenne et la variance consiste à considérer
X comme la somme de n variables aléatoires indépendantes de Bernoulli ayant
chacune une moyenne p et une variance p(1 − p), de sorte que
X = X1 + X2 + · · · + Xn . On a alors :

E(X) = p + p + · · · + p = np

et :

V (X) = p(1 − p) + p(1 − p) + · · · + p(1 − p) = np(1 − p).

15/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Poisson
Lois de probabilité discrètes

La loi de Poisson est l’une des lois de probabilité discrètes les plus utiles.
Cette loi intervient souvent lorsqu’on s’intéresse au nombre de fois qu’un certain
type d’événements se réalise dans un intervalle de temps.
Fonction de masse de la loi de Poisson
On dit qu’une variable aléatoire X est distribuée selon une loi de Poisson de
paramètre c > 0 si sa fonction de masse est donnée par :
( x −c
c e
x!
si x = 0, 1, 2, . . .
p(x) =
0 sinon.

Le paramètre c désigne le nombre moyen de réalisations du type d’événement


étudié dans l’intervalle de temps considéré ou dans l’espace considéré.
En abrégé, on écrit X ∼ Poisson(c).

16/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Poisson
Lois de probabilité discrètes

17/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Poisson
Lois de probabilité discrètes

L’espérance et la variance de la loi de Poisson


La loi de Poisson possède une propriété particulière : sa moyenne et sa variance
sont toujours égales.
Soit X une variable aléatoire distribuée selon une loi de Poisson de paramètre
c > 0. Alors :
∞ ∞
X xe−c cx X e−c cx
E(X) = =
x=0
x! (x − 1)!
x=1
 2
−c
c c
= ce 1+ + + ...
1! 2!
= ce−c · ec
= c.

18/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Poisson
Lois de probabilité discrètes

L’espérance et la variance de la loi de Poisson


De la même façon :
∞ ∞
X x(x − 1) · e−c cx 2 −c
X cx−2
E(X(X − 1)) = =c e = c2 ,
x=0
x! x=2
(x − 2)!

d’où :
V (X) = E(X 2 ) − [E(X)]2 = c.

19/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Poisson
Lois de probabilité discrètes

Théorème (L’additivité de la loi de Poisson)


Si X1 , X2 , . . . , Xk sont des variables aléatoires indépendantes distribuées selon
une loi de Poisson de paramètre ci , où i = 1, 2, . . . , k, et si
Y = X1 + X2 + · · · + Xk , alors Y obéit à une loi de Poisson de paramètre

c = c1 + c2 + · · · + ck .

Remarque
La somme de variables aléatoires indépendantes distribuées chacune selon une
loi de Poisson obéit elle-même à une loi de Poisson.

20/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Plan
Chapitre 4: Quelques lois de probabilité

1. Introduction

2. Lois de probabilité discrètes

3. Lois de probabilité continues

21/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi normale
Lois de probabilité continues

La loi normale constitue à plusieurs égards la pierre angulaire de la statistique. Elle


est caractérisée par deux paramètres : sa moyenne µ et sa variance σ 2 .
Fonction de densité de la loi normale
On dit qu’une variable aléatoire X obéit à une loi normale de moyenne µ (où
−∞ < µ < ∞) et de variance σ 2 > 0 lorsqu’elle présente la fonction de
densité :
1 2
f (x) = √ e−(1/2){(x−µ)/σ} , −∞ < x < ∞.
σ 2π
En abrégé, on écrit X ∼ N (µ, σ 2 ).

22/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi normale
Lois de probabilité continues

23/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi normale
Lois de probabilité continues

Fonction de répartition de la loi normale


La fonction de répartition d’une variable aléatoire normale est définie par :
Z x
1 2
F (x) = P (X ≤ x) = √ e−(1/2)[(t−µ)/σ] dt.
−∞ σ 2π

On ne peut évaluer cette intégrale qu’en recourant à des méthodes numériques,


et on doit alors en déterminer la valeur pour chaque couple (µ, σ 2 ).

24/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi normale
Lois de probabilité continues

L’espérance et la variance d’une loi normale


On s’attend bien sûr à trouver les valeurs µ et σ 2 , puisque c’est ainsi que nous avons défini ces paramètres.
En effet, puisque : Z ∞
x −(1/2)[(x−µ)/σ]2
E(X) = √ e dx,
−∞ σ 2π
en posant z = (x − µ)/σ et en utilisant la méthode d’intégration par parties, on obtient :
Z ∞
1 −z 2 /2
E(X) = √ (µ + σz)e dz
−∞ 2π
Z ∞ Z ∞
1 −z 2 /2 1 −z 2 /2
=µ √ e dz + σ √ ze dz.
−∞ 2π −∞ 2π

25/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi normale
Lois de probabilité continues

L’espérance et la variance d’une loi normale


Or, comme la première fonction à intégrer n’est autre que la fonction de densité
d’une variable normale de paramètres µ = 0 et σ 2 = 1, la première intégrale a
une valeur de 1. La valeur de la deuxième intégrale est par ailleurs nulle, puisque :
Z ∞
1 2 1 2 ∞
√ ze−z /2 dz = − √ e−z /2 = 0.
−∞ 2π 2π −∞

Par conséquent :

E(X) = µ[1] + σ[0]


E(X) = µ.

Il s’agit là d’un résultat logique étant donné la symétrie de la densité.


26/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques
Loi normale
Lois de probabilité continues

L’espérance et la variance d’une loi normale


Pour déterminer la variance, il faut évaluer :
Z ∞
1 2
V (X) = E (X − µ)2 = (x − µ)2 √ e−(1/2)[(x−µ)/σ] dx.
 
−∞ σ 2π
Or, en posant z = (x − µ)/σ, on obtient :
Z ∞ Z ∞
1 2 z 2 −z2 /2
V (X) = σ 2 z 2 √ e−z /2 dz = σ 2 √ e dz
−∞ 2π −∞ 2π
 

−z 2 /2 Z ∞
2  −ze 1 −z 2 /2
=σ √ + √ e dz  = σ 2 [0 + 1],
2π −∞
−∞ 2π

de sorte que :
V (X) = σ 2 .

27/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi exponentielle
Lois de probabilité continues

Fonction de densité de la loi exponentielle


Une variable aléatoire continue X est dite de loi exponentielle de paramètre λ si
sa fonction de densité est de la forme :
(
λe−λx si x > 0
f (x) =
0 sinon,

où le paramètre λ est un nombre réel positif.


En abrégé, on écrit X ∼ Exp(λ).

28/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi exponentielle
Lois de probabilité continues

29/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi exponentielle
Lois de probabilité continues

Fonction de répartition de la loi exponentielle


On obtient la fonction de répartition d’une variable exponentielle en intégrant la
fonction de densité, d’où :
(
0 si x < 0
F (x) = R x −λt
0
λe dt = 1 − e −λx
si x ≥ 0.

30/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi exponentielle
Lois de probabilité continues

31/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi exponentielle
Lois de probabilité continues

L’espérance et la variance de la loi binomiale


La moyenne de la loi exponentielle est donnée par :
Z ∞ Z ∞
−λx −λx ∞
E(X) = xλe dx = − xe 0
+ e−λx dx = 1/λ.
0 0

La variance est définie par :


Z ∞
V (X) = x2 λe−λx dx − (1/λ)2
0 Z ∞ 
2 −λx ∞ −λx
= −x e 0
+2 xe dx − (1/λ)2 = 1/λ2 .
0

La loi exponentielle a un écart-type de 1/λ, une valeur égale à sa moyenne.


32/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques
Loi exponentielle
Lois de probabilité continues

Propriété (L’absence de mémoire de la loi exponentielle)


La loi exponentielle présente une propriété intéressante qui la distingue des
autres lois de probabilité continues, son absence de mémoire. En effet, pour tout
x > 0, et s > 0 :
P (X > x + s)
P (X > x + s | X > x) =
P (X > x)
−λ(x+s)
e
= = e−λs ,
e−λx
de sorte que :
P (X > x + s | X > x) = P (X > s).

33/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Cauchy
Lois de probabilité continues

Fonction de densité de la loi de Cauchy


Une variable aléatoire X suit une loi de Cauchy si sa densité dépendant des deux
paramètres x0 et a > 0 est définie par :
1
f (x) = h 2 i
πa 1 + x−x
a
0

La fonction ainsi définie s’appelle une lorentzienne.


En abrégé, on écrit X ∼ Cauchy(x0 , a).

34/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Cauchy
Lois de probabilité continues

35/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Cauchy
Lois de probabilité continues

Fonction de répartition de la loi de Cauchy


La fonction de répartition est :
x − x0
 
1 1
F (x) = + arctan .
2 π a

36/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques


Loi de Cauchy
Lois de probabilité continues

L’espérance et la variance de la loi de Cauchy


La loi de Cauchy n’admet ni espérance ni variance. Et il en va de même pour tout
moment d’ordre supérieur.
En effet, x 7→ πa (x−x0x)2 +a2 n’est pas intégrable au sens de Lebesgue, car
x
(x−x0 )2 +a2
∼ 1
x
(à l’infini) d’où la divergence de l’intégrale : l’espérance
n’existe pas.
Cependant, x0 , qui en est la médiane, est souvent considéré comme la moyenne
de la loi de Cauchy, car :
Z R
a x
lim dx = x0
R→+∞ −R π (x − x0 )2 + a2

37/37 | Chapitre 4: Quelques lois de probabilité Hamzah Bakhti | Probabilités et Statistiques

Vous aimerez peut-être aussi