Vous êtes sur la page 1sur 13

1

Université de Sousse
Institut Superieur des Science Appliquées et de

-
Technologie de Sousse

T hi
???????

SA ud
PROBABILITÉS
IS hfo
-COURS ET EXERCICES CORRIGÉS-

Préparé par:

Kamel Mahfoudhi
Maître assistant en mathématique appliquées
a
M
K.

???????
Year University: 2022-2023
2

K.
M
a
IS hfo
SA ud
T hi
-
3

-
T hi
Chapter 1

Lois discrètes usuelles

SA ud
On dispose d’un phénomène aléatoire que l’on veut comprendre. Ce phénomène est à priori
complexe et on ne peut calculer directement les probabilités de ses éventualités.
Par exemple, si on veut comprendre la dépense annuelle des ménages d’une population pour les
loisirs; et on veut calculer la probabilité qu’ils dépensent une somme bien déterminée par an.
IS hfo
On dispose donc d’une population pour laquelle le modèle est destiné, d’un individu et d’un
caractère étudié que l’on représente par une variable aléatoire X.

• Pour avoir une premìère idée du phénomène représenté par une variable aléatoire X, on
peut faire plusieurs observations de X.

• Il y a quelques lois de probabilité ou lois théoriques qui décrivent assez bien un grand
nombre de phénomènes aléatoires. On veut représenter le phénomène aléatoire par une loi
de probabilité théorique. Avec cette modélisation on peut calculer la probabilité de tout
événement associé au phénomène aléatoire.
a
Dans ce chapitre, on va décrire et étudier quelques lois de probabilité discrètes souvent
utiles en pratique.

• Après le choix d’un modèle théorique se pose la question suivante: peut-on quantifier
M

l’approximation du phénomène aléatoire par le modèle théorique.

On va commencer par introduire la notion de fonction génératrice.

1.1 Fonction génératrice.


Définition 1.1.1. Soit X une variable aléatoire à valeurs entières positives (X(Ω) ⊂ N). On
K.

appelle fonction génératrice de X la fonction définie sur [−1, 1] par ;


X
∀|x| ≤ 1, gX (x) = P(X = k)xk .
k∈N

Remarque 1.1.1. • Le rayon de convergence de la série entière de définition est au moins


égal à 1 puisque la série converge pour x = 1 :
X
gX (1) = P(X = k) = 1.
k∈N
4 1. Lois discrètes usuelles

• La connaissance de la fonction génératrice de X entraîne celle de la loi de X: P(X = k)


est le coefficient de xk dans le développement en série entière de gX (x).

-
Proposition 1.1.1. Soit X et Y deux variables aléatoires à valeurs entières positives. Si X et
Y sont indépendantes, alors la fonction génératrice de la somme X + Y vérifie:

T hi
∀x, gX+Y (x) = gX (x) gY (x).
La réciproque est fausse.
[ k
X
Proof. Pour k ∈ N, on a: P(× + Y = k) = P( ((X = i) ∩ (Y = j))) = P(X = i)P(Y =
i+j=k i=0

SA ud
k − i), car les variables aléatoires X et Y sont indépendantes et prennent des valeurs entières
positives.
Les séries utilisées étant sommables:
∞ X
X k ∞ X
X ∞
gX+Y (x) = ( P(X = i)P(Y = k − i))xk = ( P(X = i)P(Y = k − i)xk )
k=0 i=0 i=0 k=i
X∞ ∞
X X∞ ∞
X
= P(X = i)xi P(Y = k − i)xk−i = P(X = i)si P(Y = j)xj
IS hfo i=0
= gX (x)gY (x).
k=i i=0 j=0

Remarque 1.1.2. D’une manière générale, pour X1 , X2 , . . . , Xn n variables aléatoires à valeurs


entières positives. On a:
n
Y
X1 , X2 , . . . , Xn sont mutuellement indépendantes ⇒ gΣni=1 X1 (s) = gX1 (s).
i=1

Proposition 1.1.2. Soit X une variable aléatoire à valeurs entières positives. Alors on a:
∀m ∈ N,
a

(m)
X
gX (1) = k(k − 1) . . . (k − m + 1)P(X = k) = E(X(X − 1) . . . (X − m + 1)).
k=m
M

En particulier
0 00 0 0
E(X) = gX (1) et V(X) = gX (1) + gX (1) − gX (1)2 .

X
Proof. Le rayon de convergence de la série de définition de gX (x) = P(× = k)xk est
k=0
supérieur ou égal à 1 : on peut donc dériver terme à terme sur l’intervalle ] − 1, 1[ et l’égalité
obtenue sera encore valable pour x = 1 si la série converge. Or:
K.


(m)
X
gX (x) = P(X = k)k(k − 1) . . . (k − m + 1)xk−m .
k=m

X
0
Pour m = 1 on obtient: gX (1) = kP(X = k) = E(X).
k=1
X∞
00
Pour m = 2 on obtient: gX (1) = k(k − 1)P(X = k) = E(X(X − 1)) = E(X 2 ) − E(X).
k=2

Dans la suite, on va étudier quelques lois de probabilité discrètes classiques.


1.2. Schéma de Bernoulli. 5

1.2 Schéma de Bernoulli.

-
Toute épreuve n’ayant que 2 résultats possibles peut-être considérée comme une situation d’alternative.
En d’autres termes, les 2 résultats possibles sont complémentaires l’une de l’autre. Il s’agit d’une
situation fréquente dans la pratique dès que l’on cherche à mettre en évidence un caractère par-

T hi
ticulier au sein d’une population: tout individu de cette population peut être décrit selon une
alternative: soit il présente ce caractère, soit il ne le présente pas.
On définit ainsi une v.a X dites de Bernoulli par le tableau suivant:
valeurs de X 0 1
proba 1−p p

SA ud
Définition 1.2.1. On considère une expérience aléatoire qui a 2 résultats possibles: le succès
S, de probabilité
 p et l’Échec E de probabilité (1 − p). La v.a définie par:
1 si succès
X: est une v.a de Bernoulli.
0 si échec
Propriétés 1.2.1. • Une v.a de Bernoulli est de mode 1 si p > q = 1 − p et de mode 0 si
p<q
• Une v.a de Bernoulli est de médiane 1 si p > q = 1 − p (⇒ q < 1/2) et de mode 0 si p < q
IS hfo
(⇒ q > 1/2).
• Une v.a de Bernoulli est d’espérance E(X) = p et de variance V(X) = p(1 − p).
Remarque 1.2.1. La v.a de Bernoulli est une v.a indicatrice : elle indique la réalisation éventuelle
de l’événement de probabilité p. Le schéma de Bernoulli est le plus simple des modèles proba-
bilistes.

1.3 Loi Binomial.


a
Définition 1.3.1. Soit n un entier. On réalise n fois successivement et d’une manìère indépen-
dante une expérience aléatoire qui a 2 résultats possibles, S (succès) de probabilité p et E (échec)
de probabilité q = 1 − p. Soit X le nombre de succès obtenus. On dit que X suit la loi d’une v.a
binomiale de paramètres n et p. On note X ,→ B(n, p).
M

Remarque 1.3.1. On peut également définir la v.a binomiale comme une somme de variables
aléatoires de Bernoulli.
Propriété 1.3.1. Soit X une v.a telle que X ,→ B(n, p). Loi de probabilité de X est définie
par: X(Ω) = {0, . . . , n} et P(X = k) = Cnk pk (1 − p)n−k , ∀k ∈ X(Ω).
Ici n désigne le nombre d’épreuves, k le nombre de S (succès) et p la probabilité du succès.
K.

Il s’agit bien d’une loi de probabilité. En effet:


n
X
P(X = k) = (p + q)n = 1.
k=0

Propriété 1.3.2. Soit X une v.a telle que X ,→ B(n, p). La fonction génératrice gX de X est
définie sur R par:
∀x ∈ R, gX (x) = (px + q)n .
n
X
Proof. On a: gX (x) = (Cnk pk q n−k )xk = (px + q)n .
k=0
6 1. Lois discrètes usuelles

Propriété 1.3.3. Soit X une v.a telle que X ,→ B(n, p). L’espérance E(X) = np et la variance
V(X) = np(1 − p).

-
Proof. Pour tout x réel on a:

T hi
0 00
gX (x) = np(px + q)n−1 et gX (x) = n(n − 1)p2 (px + q)n−2 .

Donc
0
E(X) = gX (1) = np
00 0 0
V(X) = gX (1) + gX (1) − gX (1)2 = n(n − 1)p2 + np − (np)2 = np(1 − p).

SA ud
Propriété 1.3.4. Soient X1 ,→ B(n1 , p) et X2 ,→ B(n2 , p) deux variables aléatoires indépen-
dantes, alors X1 + X2 ,→ B(n1 + n2 , p)
Proof. Pour tout x réel on a:

gX+Y (x) = gX (x)gY (x) = (px + q)n1 (px + q)n2 = (px + q)n1 +n2 .

On peut aussi remarquer que si l’on répète l’expérience (n1 +n2 ) fois d’une manière indépendante.
IS hfo
Remarque 1.3.2. On va voir ultérieurement, dans certains cas, On peut approximer B(n, p) par
une autre loi.

Exemples 1.3.1. 1. Une machine à embouteiller peut tomber en panne. La probabilité


d’une panne à chaque emploi est de 0,01. La machine doit être utilisée 100 fois. Soit X
le nombre de pannes obtenues après 100 utilisations. On a X ,→ B(100, 0, 01). Soient
0
par exemples P(X = 0) = C100 (0, 01)0 0, 99100 = 0, 366, P(X = 1) = C100
1
0, 010, 9999 =
99
100 × 0, 01 × 0, 99 = 0, 377, P(X ≥ 4) = 1 − (. . .) = 0, 061.
On estime le coût d’une réparation à 500 dinars. Soit la v.a Y représentant la dépense
pour les réparations après 100 utilisations. On a Y = 500X qui est d’espérance E(Y ) =
a
500E(X) = 500 × 100 × 0, 01 = 500 et de variance V(Y ) = 5002 V(X) = 5002 0, 99 = 247500.

2. Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans virus. Par
M

commodité les scions sont rangés par paquets de 2. Un paquet est dit sain si les 2 scions
le sont. La probabilité d’ avoir un paquet sain est p = 0.95 × 0.95 = 0.9025.
Soit X le nombre de paquets sains sur un lot de 10. On a X ,→ B(10, p).
Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont sains. La probabilité
qu’un lot soit accepté est P(X ≥ 9) = P(X = 9) + P(X = 10) = 0.7361.

Remarque 1.3.3. Le schéma binomial correspond au processus de tirage d’un échantillon aléa-
K.

toire avec remise :

• N1 : nombre d’individus ayant la propriété S

• N2 : nombre d’individus ayant pas la propriété S

• N = N1 + N2 : nombre total d’individus

On fait n tirages avec remise. Soit X = nombre d’individus ayant la propriété S.


N1
Alors X ,→ B(n, p) avec p = .
N
1.4. Loi hypergéométrique. 7

1.4 Loi hypergéométrique.

-
En pratique lorsque l’on tire un échantillon de taille n parmi une population de taille N , le bon
sens veut que l’on ne prenne pas 2 fois le même individu. Cela signifie que le tirage se fait sans
remise. Les variables aléatoires de Bernoulli associées aux différents éléments de l’échantillon et

T hi
indicatrices de la présence ou absence d’un caractère donné, sont alors dépendantes. Le schéma
binomiale n’est plus adapté.
Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non indépendantes.

Définition 1.4.1. Si dans une population de taille N ,on a 2 types d’individus N1 individus type
N1 N2
1 en proportion p = et N2 individus type 2 en proportion q = 1 − p =

SA ud
N N
On fait n tirages sans remise dans la population et on désigne par X le nombre d’individus de
type 1 dans l’échantillon. La v.a X obéit au schéma hypergéométrique de paramètres N, n et p
et on note XX ,→ H(N, n, p).
Ainsi, X = Xi , avec Xi des variables aléatoires de Bernoulli non indépendantes.
i

Propriétés 1.4.1. Soit X une v.a telleque X ,→ H(N, n, p). Alors, la loi de probabilité de X
IS hfo n < N2
est définie par: X(Ω) = {0, . . . , n} si
n < N1
k n−k
CN 1
× CN
et P(X = k) = n
2
, ∀k ∈ X(Ω).
CN
Le fait que
k n−k
X CN
1
× CN2
n =1
CN
k

se déduit directement de l’identité (1 + z)N1 (1 + z)N2 = (1 + z)N , en calculant le coefficient de z n


dans les deux membres. On appelle de même variable aléatoire hypergéométrique une variable
a
aléatoire dont la loi de probabilité est hypergéométrique.
Propriétés 1.4.2. Soit X une v.a telle que X ,→ H(N, n, p). Alors, l’espérance E(X) = np et
N −n
la variance V(X) = np(1 − p) .
M

N −1
Proof. Le calcul direct à partir de la définition est assez pénible; il est plus intéressant
d’utiliser une méthode indirecte.
Xn
On note que X = Xi , où Xi prend 1 si on obtient un individu de type 1 au iième tirage et
i=1
0 sinon. Pour tout i la variable aléatoire Xi suit la loi de Bernoulli, c’est-à-dire la loi binomiale
N1
K.

B(1, p) avec p = . On a:
N
N1 N2
∀i ∈ [[1, n]], E(Xi ) = p et V(Xi ) = pq =
N2
et donc
n
X N1
E(X) = E(Xi ) = np = n .
i=1
N

Les variables aléatoires Xi ne sont pas indépendantes puisque les tirages ont lieu sans remise. La
variable aléatoire Xj Xk suit la loi de Bernoulli dont la probabilité de succès, et donc l’espérance
8 1. Lois discrètes usuelles

mathématique, est
N1 N1 − 1

-
P(Xj Xk = 1) = P((Xj = 1) ∩ (Xk = 1)) = P(Xj = 1)P(Xk = 1|Xj = 1) = .
N N −1

T hi
D’où
N1 (N1 − 1) N1 −N1 N2
Cov(Xj , Xk ) = − ( )2 = 2
N (N − 1) N N (N − 1)
et
n
X X
V(X) = V(Xi ) + 2 Cov(Xj , Xk )

SA ud
i=1 1≤j<k≤n
N1 N2 n(n − 1) −N1 N2 nN1 N2 (N − n)
= n +2 =
N2 2 N 2 (N − 1) N 2 (N − 1)
N1 N2 N − n N −n
= n = npq .
N N N −1 N −1
Remarque 1.4.1. Il n’est peut-être pas évident que chaque variable Xi suit la loi binomiale
B(1, p); on le vérifie pour X2 :
IS hfo P(X2 = 1) = P((X2 = 1) ∩ ((X1 = 0) ∪ (X1 = 1)))
= P(X1 = 0)P(X2 = 1|X1 = 0) + P(X1 = 1)P(X2 = 1|X1 = 1)

=
N2 N1
N N −1
+
N1 N1 − 1
N N −1
=
N1
N
.

la loi hypergéométrique est voisine de la loi binomiale; la seule différence est que la répétition
des événements n’est de manière indépendante. On constate que l’espérance mathématique ne
N −n
se modifie pas mais la variance diminue ( ≤ 1). Soit le résultat suivant:
N −1
a
Théorème 1.4.1. Lorsque la taille N de population de est assez grande (N → +∞) et lorsque
les paramètres n et p sont fixes, la loi hypergéométrique H(N, n, p) peut-être approximer par la
loi binomiale B(n, p).
M

Proof. Soit X une v.a telle que X ,→ H(N, n, p).


Pour k ∈ X(Ω), on :

(N p)!(N q)! n!(N − n)!


P(X = k) =
k!(N p − k)!(n − k)!(N q − n + k)! N!

(N p)k (N q)n−k n! n!
∼ ∼ pk q n−k = Cnk pk q n−k .
K.

k!(n − k)!N n k!(n − k)!


D’où le résultat.
n
Remarque 1.4.2. Dans la pratique, on utilise l’approximation dès que < 0.1
N
Exemples 1.4.1. 1. 2 femmes et 3 hommes se présentent à un guichet. On choisit au hasard 2
2
différentes personnes pour une enquête. Soit X le nombre de femmes. On a X ,→ H(5, 2, ).
5
La probabilité de choisir une femme au moins er P(X ≥ 1) = P(X = 1) + P(X = 2) =
C21 C31 C 2C 0 7
2 + 2 23 = = 0.7
C5 C5 10
1.5. Loi géométrique et loi de Pascal. 9

3 4
L’espérance mathématique E(X) = np = 2X = = 0.8 et la variance V(X) =
5 5
N −n 2 3 3 9

-
npq =2× × × = = 0.36
N −1 5 5 4 25

T hi
2. On choisit au hasard 10 étudiants de prépa pour un entretien: 304 étudiants sont inscrits
en 1re année et 233 en 2me . Soit X le nombre d’étudiants de 1re année parmi les 10. On
a X ,→ H(537, 10, 304
537 ).
5 5
C304 C233
La probabilité d’avoir 5 étudiants de 1 année est P(X = 5) = 10 ' 0.227
C537

SA ud
304 N −n
L’espérance mathématique E(X) = np = 10× = 5.661, la variance V(X) = npq =
537 N −1
304 233 527 p
10 × × × ' 2.415 et l’écart-type σ(X) = V(X) = 1.554.
537 537 536
n 10 304 304
Comme = < 0, 1, on peut approximer H(537, 10, ) par B(10, ). Dans ce
N 537 537 537
5 304 5 233 5 √
cas P(X = 5) = C10 ( ) ( ) ' 0.225 et σ(X) = npq = 1.567.
537 537

1.5
IS hfo
Loi géométrique et loi de Pascal.
On dispose toujours d’un épreuve de Bernoulli qui a 2 résultats possibles: un événement de de
probabilité p et l’autre de probabilité q = 1 − p. Mais cette fois, on ne connaît pas le nombre
d’épreuves.

Définition 1.5.1. On dit q’une v.a X suit la loi géométrique de paramètre p et on note X ,→
G(p), si elle est égale au nombre d’épreuves de Bernoulli indépendantes qu’il faut réaliser pour
a
obtenir pour la 1ère re fois l’événement de probabilité p.

Propriétés 1.5.1. Soit X une v.a telle que X ,→ G(p). Alors


M

• Loi de probabilité de X est définie par: X(Ω) = N∗ (l’ensemble des valeurs est infini
dénombrable)
et P(X = k) = q k−1 p, ∀k ∈ X(Ω).

• La fonction de répartition est définie par: ∀x ∈ R, on note nx la partie entière de x


K.

– Si nx ≤ 0, alors FX (x) = 0.
n n−1
X X 1 − qn
– Si nx > 0, alors FX (x) = P((X ≤ n) = q k−i p = p qk = p = 1 − qn .
1−q
k=1 K=0

Proposition 1.5.1. La fonction génératrice de la loi géométrique G(p) est définie sur ] − 1q , 1q [
par:
1 px
∀|x| < , gX (x) = .
q 1 − qx
10 1. Lois discrètes usuelles

Proof. Pour tout réel x tel que |x| < 1q ,

-

X
gX (x) = (q k−1 p)xk
k=1

T hi

X ∞
X
= px (qx)k−1 = px (qx)k
k=1 k=0
px
= .
1−q

Proposition 1.5.2. Soit X une v.a telle que X ,→ G(p). Alors X admet une espérance mathé-

SA ud
matique E(X) et une variance V(X) et
1 q
E(X) = , V(X) = .
p p2
Proof. On a
0 p 00 2pq
gX (s) = et gX (s) = .
(1 − qs)2 (1 − qs)3

et
IS hfo
D’où

00
V(X) = gX 0
(1) + gX
0
E(X) = gX (1) =

0
(1) − (gX (1))2 =
p
(1 − q)2
=

2pq
1
p

1 1 q
+ − 2 = 2.
(1 − q)3 p p p
Définition 1.5.2. On dit q’une v.a X suit la loi de Pascal et on note X ,→ G(k, p), si elle est
égale au nombre d’épreuves de Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la
k èm fois l’événement de probabilité p.
a
Remarque 1.5.1. La loi de Pascal est la généralisation de la loi géométrique lorsque l’on
s’intéresse à l’obtention pour la k ìème fois de l’événement de probabilité p
Propriétés 1.5.2. Soit X une v.a telle que X ,→ G(k, p). Alors
M

k−1 k−1 j−k


• Loi de probabilité de X est définie par: X(Ω) = {k, . . . , ∞} et P(X = j) = Cj−1 p q p, ∀j ≥
k.
k k(1 − p)
• L’espérance E(X) = et la variance V(X) = .
p p2
Remarque 1.5.2. Il y a une ressemblance avec la loi binomiale. La différence majeur est que le
nombre de répétitions de l’épreuve élémentaire de Bernoulli n’est pas connu.
K.

Remarque 1.5.3 (Remarque de modélisation). La probabilité de l’événement qui nous intéresse


est toujours p, elle est constante au cours du temps. Cette propriété de stationnarité n’est pas
systématique dans les situations réelles que l’on doit modéliser.
Exemple 1.5.1. Supposons que 5 % des pièces en sortie d’une chaîne de production soient
défectueuses. On souhaite connaître la probabilité qu’un échantillon de 20 pièces issu de cette
chaîne ne contienne aucune pièce défectueuse. La modélisation de base est le schéma de Bernoulli
avec p = 0, 05. On peut faire l’hypothèse de l’indépendance des épreuves de Bernoulli (grande
taille de la population). Soit la v.a X égale au nombre de défectueux après la réalisation de 20
épreuves de Bernoulli. On a X ,→ B(20, 0, 05) et P(X = 0) = 0, 9520 = 0.3585.
1.6. Loi de Poisson. 11

On garde la modélisation des pièces par les aléas de Bernoulli. On fait l’hypothèse d’indépendance
(grande nombre de pièces). Mais le nombre de pièces n’est plus donné. Soit la v.a X égale au

-
nombre de pièces observées jusqu’à l’obtention d’une pièce défectueuse. On a Y ,→ G(0, 05) et

X 1 − 0, 95∞ 0, 05
P(Y ≥ 21) = 0, 95k−1 0, 05 = 0, 9520 × 0, 05 = 0, 9520 = 0.3585.

T hi
1 − 0, 95 0, 05
k=21

1.6 Loi de Poisson.


Définition 1.6.1. On dit q’une v.a X suit la loi de Poisson de paramètre m et on note X ,→

SA ud
mk −m
P(m), si eX(Ω) = N et P(X = k) = e , ∀k ∈ N.
k!
On est dans la situation X(Ω) infini dénombrable.
On peut maintenant poser la loi de Poisson comme modèle d’une épreuve aléatoire :
Théorème 1.6.1 (Théorème d’approximation). On suppose que, pour tout n, la variable aléa-
toire Xn suit une loi binomiale B(n, pn ) et que lorsque n est assez grande (n → +∞), le produit
npn tend vers une constante m > 0, alors X peut être approximer par la loi de Poisson P(m)
k
(c’est à dire Cnk pkn (1 − pn )n−k ∼ e−m mk! ).
IS hfo
Proof. On pose: un = npn ; par hypothèse, on a: limn→∞ un = m.
un k
n−k
1 n!
1 − unn

Donc Cnk pkn (1 − pn )n−k = k! (n−k)! n .
Comme:
n!
Qk−1
• (n−k)! = nk i=1 (1 − ni ) ∼ nk ;

• ( unn )k ∼ ( m k
n) ;
un n−k un
• lim ln((1 − ) ) = (n − k) ln(1 − ) = −m.
n n
a
n→∞
k
Alors: Cnk pkn (1 − pn )n−k tend vers e−m mk! lors que n → ∞.
Remarques 1.6.1. • Puisque npn tend vers une limite finie, pn tend vers zéro lorsque n
M

tend vers 1’infini; l’approximation de Poisson de B(n, p) est valable pour les petites valeurs
de p. En pratique elle donne des résultats convenables lorsque p < 0.1 et n > 50. Sinon il
vaut mieux utiliser l’approximation normale que l’on verra ultérieurement.
• Lorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve de Bernoulli
et si l’on répète un grand nombre de fois cette épreuve (n) le nombre total de réalisations
de l’événement considéré suit à peu près une loi de Poisson de paramètre m = np. Plus p
est petit, meilleure est l’approximation. Pour cette raison la loi de Poisson a été appelée
K.

loi des phénomènes rares.


Proposition 1.6.1. Soit X une v.a telle que X ,→ P(m). La fonction génératrice de X est
définie sur R par:
∀x ∈ R, gX (x) = em(x−1) .
P∞ yk y
Proof. On sait que ∀y ∈ R, k=0 k! = e . Donc, pour un réel x, on a:

X (mx)k
gX (x) = e−m = e−m emx = em(x−1) .
k!
k=0
12 1. Lois discrètes usuelles

Proposition 1.6.2. Soit X une v.a telle que X ,→ P(m). Alors X admet une espérance
mathématique E(X) et une variance V(X) et

-
E(X) = V(X) = m.

T hi
0 00
Proof. On a : gX (x) = mem(x−1) et gX (x) = m2 em(x−1) .
0 00 0 0
D’où, E(X) = gX (1) = m et V(X) = gX (1) + gX (1) − (gX (1))2 = m2 + m − m2 = m.
On peut vérifier autrement. Soit
X mk X mk−1
E(X) = k e−m = e−m m =m
k! (k − 1)!

SA ud
k≥0 k≥1

et
X mk −m X mk −m X mk −m
V(X) = k2 e − m2 = k(k − 1) e + k e − m2
k! k! k!
k≥0 K≥1 k≥1
X mk−2 X mk−1
= m2 e−m + m e−m − m2 = m
(k − 2)! (k − 1)!
k≥2 k≥1
IS hfo
Proposition 1.6.3 (Somme de variables aléatoires de Poisson). Soient X1 et X2 sont 2 variables
de Poisson P(m1 ) et P(m2 ) indépendantes alors la v.a X1 +X2 suit la loi de Poisson P(m1 +m2 ).
Ceci est vrai pour une somme finie quelconque de variables aléatoires de Poisson indépendantes.

Proof. Pour un réel x, on a:

gX1 +X2 (x) = gX1 (x)gX2 (x) = em1 (s−1) em2 (s−1) = e(m1 +m2 )(s−1) .

D’où le résultat.
Autrement, pour un entier positif k, on a:
a
" k
#
[
P(X1 + X2 = k) = P {X1 = i} ∩ {X2 = k − i}
M

i=0
X
= P(X1 = i).P(X2 = k − i) (car X1 et X2 sont indépendantes)
i=0
K
X mi 1 −m1 mk−i
= e 2
e−m2
i=0
i! (k − i)!
K
e−(m1 +m2 )
K.

X
= Cki mi1 mk−i
2
i=0
k!
(m1 + m2 )k −(m1 +m2 )
= e .
k!
Exemples 1.6.1. 1. Lors d’un sondage portant sur un grand nombre de personnes, on sait
que 2% des personnes interrogées acceptent de ne pas rester anonymes. Sachant que l’un
des sondeurs a interrogé 250 personnes (en les choisissant de manìère indépendante). Soit
X le nombre de personnes ne souhaitant pas rester anonymes.
On a: X ,→ B(250, 0, 02) ∼ P(5).
1.6. Loi de Poisson. 13

50
La probabilité que ces 250 personnes souhaitent rester anonymes est P(X = 0) = e−5 =
0!
e−5 = 0.0067.

-
La probabilité que 3 personnes acceptent de ne pas rester anonymes est P(X = 3) =
53

T hi
e−5 = 0.14.
3!
plus de 10 personnes acceptent de ne pas rester anonymes est P(X ≥ 10) = 1 − P(X <
10) = 1 − P(X ≤ 9).
2. Dans un hôpital parisien, il arrive en moyenne 1.25 personnes à la minute aux urgences
entre 9 h et 12 h. Soit X le nombre de personnes observées à la minute à l’ entrée de ce

SA ud
service. On admet X ∼ P(m) avec m = 1.25. On a:
La probabilités qu’en 1 minute il arrive 2 personnes est P(X = 2) = 0.2238.
La probabilités qu’en 1 minute il arrive au plus 4 personnes est P(X ≤ 4) = 0.9909.
La probabilités qu’en 1 minute il arrive au moins 3 personnes est P(X ≥ 3) = 1 − P(X ≤
2) = 1 − 0.8685 = 0.1315.

IS hfo
a
M
K.

Vous aimerez peut-être aussi