Académique Documents
Professionnel Documents
Culture Documents
Université de Sousse
Institut Superieur des Science Appliquées et de
-
Technologie de Sousse
T hi
???????
SA ud
PROBABILITÉS
IS hfo
-COURS ET EXERCICES CORRIGÉS-
Préparé par:
Kamel Mahfoudhi
Maître assistant en mathématique appliquées
a
M
K.
???????
Year University: 2022-2023
2
K.
M
a
IS hfo
SA ud
T hi
-
3
-
T hi
Chapter 1
SA ud
On dispose d’un phénomène aléatoire que l’on veut comprendre. Ce phénomène est à priori
complexe et on ne peut calculer directement les probabilités de ses éventualités.
Par exemple, si on veut comprendre la dépense annuelle des ménages d’une population pour les
loisirs; et on veut calculer la probabilité qu’ils dépensent une somme bien déterminée par an.
IS hfo
On dispose donc d’une population pour laquelle le modèle est destiné, d’un individu et d’un
caractère étudié que l’on représente par une variable aléatoire X.
• Pour avoir une premìère idée du phénomène représenté par une variable aléatoire X, on
peut faire plusieurs observations de X.
• Il y a quelques lois de probabilité ou lois théoriques qui décrivent assez bien un grand
nombre de phénomènes aléatoires. On veut représenter le phénomène aléatoire par une loi
de probabilité théorique. Avec cette modélisation on peut calculer la probabilité de tout
événement associé au phénomène aléatoire.
a
Dans ce chapitre, on va décrire et étudier quelques lois de probabilité discrètes souvent
utiles en pratique.
• Après le choix d’un modèle théorique se pose la question suivante: peut-on quantifier
M
-
Proposition 1.1.1. Soit X et Y deux variables aléatoires à valeurs entières positives. Si X et
Y sont indépendantes, alors la fonction génératrice de la somme X + Y vérifie:
T hi
∀x, gX+Y (x) = gX (x) gY (x).
La réciproque est fausse.
[ k
X
Proof. Pour k ∈ N, on a: P(× + Y = k) = P( ((X = i) ∩ (Y = j))) = P(X = i)P(Y =
i+j=k i=0
SA ud
k − i), car les variables aléatoires X et Y sont indépendantes et prennent des valeurs entières
positives.
Les séries utilisées étant sommables:
∞ X
X k ∞ X
X ∞
gX+Y (x) = ( P(X = i)P(Y = k − i))xk = ( P(X = i)P(Y = k − i)xk )
k=0 i=0 i=0 k=i
X∞ ∞
X X∞ ∞
X
= P(X = i)xi P(Y = k − i)xk−i = P(X = i)si P(Y = j)xj
IS hfo i=0
= gX (x)gY (x).
k=i i=0 j=0
Proposition 1.1.2. Soit X une variable aléatoire à valeurs entières positives. Alors on a:
∀m ∈ N,
a
∞
(m)
X
gX (1) = k(k − 1) . . . (k − m + 1)P(X = k) = E(X(X − 1) . . . (X − m + 1)).
k=m
M
En particulier
0 00 0 0
E(X) = gX (1) et V(X) = gX (1) + gX (1) − gX (1)2 .
∞
X
Proof. Le rayon de convergence de la série de définition de gX (x) = P(× = k)xk est
k=0
supérieur ou égal à 1 : on peut donc dériver terme à terme sur l’intervalle ] − 1, 1[ et l’égalité
obtenue sera encore valable pour x = 1 si la série converge. Or:
K.
∞
(m)
X
gX (x) = P(X = k)k(k − 1) . . . (k − m + 1)xk−m .
k=m
∞
X
0
Pour m = 1 on obtient: gX (1) = kP(X = k) = E(X).
k=1
X∞
00
Pour m = 2 on obtient: gX (1) = k(k − 1)P(X = k) = E(X(X − 1)) = E(X 2 ) − E(X).
k=2
-
Toute épreuve n’ayant que 2 résultats possibles peut-être considérée comme une situation d’alternative.
En d’autres termes, les 2 résultats possibles sont complémentaires l’une de l’autre. Il s’agit d’une
situation fréquente dans la pratique dès que l’on cherche à mettre en évidence un caractère par-
T hi
ticulier au sein d’une population: tout individu de cette population peut être décrit selon une
alternative: soit il présente ce caractère, soit il ne le présente pas.
On définit ainsi une v.a X dites de Bernoulli par le tableau suivant:
valeurs de X 0 1
proba 1−p p
SA ud
Définition 1.2.1. On considère une expérience aléatoire qui a 2 résultats possibles: le succès
S, de probabilité
p et l’Échec E de probabilité (1 − p). La v.a définie par:
1 si succès
X: est une v.a de Bernoulli.
0 si échec
Propriétés 1.2.1. • Une v.a de Bernoulli est de mode 1 si p > q = 1 − p et de mode 0 si
p<q
• Une v.a de Bernoulli est de médiane 1 si p > q = 1 − p (⇒ q < 1/2) et de mode 0 si p < q
IS hfo
(⇒ q > 1/2).
• Une v.a de Bernoulli est d’espérance E(X) = p et de variance V(X) = p(1 − p).
Remarque 1.2.1. La v.a de Bernoulli est une v.a indicatrice : elle indique la réalisation éventuelle
de l’événement de probabilité p. Le schéma de Bernoulli est le plus simple des modèles proba-
bilistes.
Remarque 1.3.1. On peut également définir la v.a binomiale comme une somme de variables
aléatoires de Bernoulli.
Propriété 1.3.1. Soit X une v.a telle que X ,→ B(n, p). Loi de probabilité de X est définie
par: X(Ω) = {0, . . . , n} et P(X = k) = Cnk pk (1 − p)n−k , ∀k ∈ X(Ω).
Ici n désigne le nombre d’épreuves, k le nombre de S (succès) et p la probabilité du succès.
K.
Propriété 1.3.2. Soit X une v.a telle que X ,→ B(n, p). La fonction génératrice gX de X est
définie sur R par:
∀x ∈ R, gX (x) = (px + q)n .
n
X
Proof. On a: gX (x) = (Cnk pk q n−k )xk = (px + q)n .
k=0
6 1. Lois discrètes usuelles
Propriété 1.3.3. Soit X une v.a telle que X ,→ B(n, p). L’espérance E(X) = np et la variance
V(X) = np(1 − p).
-
Proof. Pour tout x réel on a:
T hi
0 00
gX (x) = np(px + q)n−1 et gX (x) = n(n − 1)p2 (px + q)n−2 .
Donc
0
E(X) = gX (1) = np
00 0 0
V(X) = gX (1) + gX (1) − gX (1)2 = n(n − 1)p2 + np − (np)2 = np(1 − p).
SA ud
Propriété 1.3.4. Soient X1 ,→ B(n1 , p) et X2 ,→ B(n2 , p) deux variables aléatoires indépen-
dantes, alors X1 + X2 ,→ B(n1 + n2 , p)
Proof. Pour tout x réel on a:
gX+Y (x) = gX (x)gY (x) = (px + q)n1 (px + q)n2 = (px + q)n1 +n2 .
On peut aussi remarquer que si l’on répète l’expérience (n1 +n2 ) fois d’une manière indépendante.
IS hfo
Remarque 1.3.2. On va voir ultérieurement, dans certains cas, On peut approximer B(n, p) par
une autre loi.
2. Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans virus. Par
M
commodité les scions sont rangés par paquets de 2. Un paquet est dit sain si les 2 scions
le sont. La probabilité d’ avoir un paquet sain est p = 0.95 × 0.95 = 0.9025.
Soit X le nombre de paquets sains sur un lot de 10. On a X ,→ B(10, p).
Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont sains. La probabilité
qu’un lot soit accepté est P(X ≥ 9) = P(X = 9) + P(X = 10) = 0.7361.
Remarque 1.3.3. Le schéma binomial correspond au processus de tirage d’un échantillon aléa-
K.
-
En pratique lorsque l’on tire un échantillon de taille n parmi une population de taille N , le bon
sens veut que l’on ne prenne pas 2 fois le même individu. Cela signifie que le tirage se fait sans
remise. Les variables aléatoires de Bernoulli associées aux différents éléments de l’échantillon et
T hi
indicatrices de la présence ou absence d’un caractère donné, sont alors dépendantes. Le schéma
binomiale n’est plus adapté.
Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non indépendantes.
Définition 1.4.1. Si dans une population de taille N ,on a 2 types d’individus N1 individus type
N1 N2
1 en proportion p = et N2 individus type 2 en proportion q = 1 − p =
SA ud
N N
On fait n tirages sans remise dans la population et on désigne par X le nombre d’individus de
type 1 dans l’échantillon. La v.a X obéit au schéma hypergéométrique de paramètres N, n et p
et on note XX ,→ H(N, n, p).
Ainsi, X = Xi , avec Xi des variables aléatoires de Bernoulli non indépendantes.
i
Propriétés 1.4.1. Soit X une v.a telleque X ,→ H(N, n, p). Alors, la loi de probabilité de X
IS hfo n < N2
est définie par: X(Ω) = {0, . . . , n} si
n < N1
k n−k
CN 1
× CN
et P(X = k) = n
2
, ∀k ∈ X(Ω).
CN
Le fait que
k n−k
X CN
1
× CN2
n =1
CN
k
N −1
Proof. Le calcul direct à partir de la définition est assez pénible; il est plus intéressant
d’utiliser une méthode indirecte.
Xn
On note que X = Xi , où Xi prend 1 si on obtient un individu de type 1 au iième tirage et
i=1
0 sinon. Pour tout i la variable aléatoire Xi suit la loi de Bernoulli, c’est-à-dire la loi binomiale
N1
K.
B(1, p) avec p = . On a:
N
N1 N2
∀i ∈ [[1, n]], E(Xi ) = p et V(Xi ) = pq =
N2
et donc
n
X N1
E(X) = E(Xi ) = np = n .
i=1
N
Les variables aléatoires Xi ne sont pas indépendantes puisque les tirages ont lieu sans remise. La
variable aléatoire Xj Xk suit la loi de Bernoulli dont la probabilité de succès, et donc l’espérance
8 1. Lois discrètes usuelles
mathématique, est
N1 N1 − 1
-
P(Xj Xk = 1) = P((Xj = 1) ∩ (Xk = 1)) = P(Xj = 1)P(Xk = 1|Xj = 1) = .
N N −1
T hi
D’où
N1 (N1 − 1) N1 −N1 N2
Cov(Xj , Xk ) = − ( )2 = 2
N (N − 1) N N (N − 1)
et
n
X X
V(X) = V(Xi ) + 2 Cov(Xj , Xk )
SA ud
i=1 1≤j<k≤n
N1 N2 n(n − 1) −N1 N2 nN1 N2 (N − n)
= n +2 =
N2 2 N 2 (N − 1) N 2 (N − 1)
N1 N2 N − n N −n
= n = npq .
N N N −1 N −1
Remarque 1.4.1. Il n’est peut-être pas évident que chaque variable Xi suit la loi binomiale
B(1, p); on le vérifie pour X2 :
IS hfo P(X2 = 1) = P((X2 = 1) ∩ ((X1 = 0) ∪ (X1 = 1)))
= P(X1 = 0)P(X2 = 1|X1 = 0) + P(X1 = 1)P(X2 = 1|X1 = 1)
=
N2 N1
N N −1
+
N1 N1 − 1
N N −1
=
N1
N
.
la loi hypergéométrique est voisine de la loi binomiale; la seule différence est que la répétition
des événements n’est de manière indépendante. On constate que l’espérance mathématique ne
N −n
se modifie pas mais la variance diminue ( ≤ 1). Soit le résultat suivant:
N −1
a
Théorème 1.4.1. Lorsque la taille N de population de est assez grande (N → +∞) et lorsque
les paramètres n et p sont fixes, la loi hypergéométrique H(N, n, p) peut-être approximer par la
loi binomiale B(n, p).
M
(N p)k (N q)n−k n! n!
∼ ∼ pk q n−k = Cnk pk q n−k .
K.
3 4
L’espérance mathématique E(X) = np = 2X = = 0.8 et la variance V(X) =
5 5
N −n 2 3 3 9
-
npq =2× × × = = 0.36
N −1 5 5 4 25
T hi
2. On choisit au hasard 10 étudiants de prépa pour un entretien: 304 étudiants sont inscrits
en 1re année et 233 en 2me . Soit X le nombre d’étudiants de 1re année parmi les 10. On
a X ,→ H(537, 10, 304
537 ).
5 5
C304 C233
La probabilité d’avoir 5 étudiants de 1 année est P(X = 5) = 10 ' 0.227
C537
SA ud
304 N −n
L’espérance mathématique E(X) = np = 10× = 5.661, la variance V(X) = npq =
537 N −1
304 233 527 p
10 × × × ' 2.415 et l’écart-type σ(X) = V(X) = 1.554.
537 537 536
n 10 304 304
Comme = < 0, 1, on peut approximer H(537, 10, ) par B(10, ). Dans ce
N 537 537 537
5 304 5 233 5 √
cas P(X = 5) = C10 ( ) ( ) ' 0.225 et σ(X) = npq = 1.567.
537 537
1.5
IS hfo
Loi géométrique et loi de Pascal.
On dispose toujours d’un épreuve de Bernoulli qui a 2 résultats possibles: un événement de de
probabilité p et l’autre de probabilité q = 1 − p. Mais cette fois, on ne connaît pas le nombre
d’épreuves.
Définition 1.5.1. On dit q’une v.a X suit la loi géométrique de paramètre p et on note X ,→
G(p), si elle est égale au nombre d’épreuves de Bernoulli indépendantes qu’il faut réaliser pour
a
obtenir pour la 1ère re fois l’événement de probabilité p.
• Loi de probabilité de X est définie par: X(Ω) = N∗ (l’ensemble des valeurs est infini
dénombrable)
et P(X = k) = q k−1 p, ∀k ∈ X(Ω).
– Si nx ≤ 0, alors FX (x) = 0.
n n−1
X X 1 − qn
– Si nx > 0, alors FX (x) = P((X ≤ n) = q k−i p = p qk = p = 1 − qn .
1−q
k=1 K=0
Proposition 1.5.1. La fonction génératrice de la loi géométrique G(p) est définie sur ] − 1q , 1q [
par:
1 px
∀|x| < , gX (x) = .
q 1 − qx
10 1. Lois discrètes usuelles
-
∞
X
gX (x) = (q k−1 p)xk
k=1
T hi
∞
X ∞
X
= px (qx)k−1 = px (qx)k
k=1 k=0
px
= .
1−q
Proposition 1.5.2. Soit X une v.a telle que X ,→ G(p). Alors X admet une espérance mathé-
SA ud
matique E(X) et une variance V(X) et
1 q
E(X) = , V(X) = .
p p2
Proof. On a
0 p 00 2pq
gX (s) = et gX (s) = .
(1 − qs)2 (1 − qs)3
et
IS hfo
D’où
00
V(X) = gX 0
(1) + gX
0
E(X) = gX (1) =
0
(1) − (gX (1))2 =
p
(1 − q)2
=
2pq
1
p
1 1 q
+ − 2 = 2.
(1 − q)3 p p p
Définition 1.5.2. On dit q’une v.a X suit la loi de Pascal et on note X ,→ G(k, p), si elle est
égale au nombre d’épreuves de Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la
k èm fois l’événement de probabilité p.
a
Remarque 1.5.1. La loi de Pascal est la généralisation de la loi géométrique lorsque l’on
s’intéresse à l’obtention pour la k ìème fois de l’événement de probabilité p
Propriétés 1.5.2. Soit X une v.a telle que X ,→ G(k, p). Alors
M
On garde la modélisation des pièces par les aléas de Bernoulli. On fait l’hypothèse d’indépendance
(grande nombre de pièces). Mais le nombre de pièces n’est plus donné. Soit la v.a X égale au
-
nombre de pièces observées jusqu’à l’obtention d’une pièce défectueuse. On a Y ,→ G(0, 05) et
∞
X 1 − 0, 95∞ 0, 05
P(Y ≥ 21) = 0, 95k−1 0, 05 = 0, 9520 × 0, 05 = 0, 9520 = 0.3585.
T hi
1 − 0, 95 0, 05
k=21
SA ud
mk −m
P(m), si eX(Ω) = N et P(X = k) = e , ∀k ∈ N.
k!
On est dans la situation X(Ω) infini dénombrable.
On peut maintenant poser la loi de Poisson comme modèle d’une épreuve aléatoire :
Théorème 1.6.1 (Théorème d’approximation). On suppose que, pour tout n, la variable aléa-
toire Xn suit une loi binomiale B(n, pn ) et que lorsque n est assez grande (n → +∞), le produit
npn tend vers une constante m > 0, alors X peut être approximer par la loi de Poisson P(m)
k
(c’est à dire Cnk pkn (1 − pn )n−k ∼ e−m mk! ).
IS hfo
Proof. On pose: un = npn ; par hypothèse, on a: limn→∞ un = m.
un k
n−k
1 n!
1 − unn
Donc Cnk pkn (1 − pn )n−k = k! (n−k)! n .
Comme:
n!
Qk−1
• (n−k)! = nk i=1 (1 − ni ) ∼ nk ;
• ( unn )k ∼ ( m k
n) ;
un n−k un
• lim ln((1 − ) ) = (n − k) ln(1 − ) = −m.
n n
a
n→∞
k
Alors: Cnk pkn (1 − pn )n−k tend vers e−m mk! lors que n → ∞.
Remarques 1.6.1. • Puisque npn tend vers une limite finie, pn tend vers zéro lorsque n
M
tend vers 1’infini; l’approximation de Poisson de B(n, p) est valable pour les petites valeurs
de p. En pratique elle donne des résultats convenables lorsque p < 0.1 et n > 50. Sinon il
vaut mieux utiliser l’approximation normale que l’on verra ultérieurement.
• Lorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve de Bernoulli
et si l’on répète un grand nombre de fois cette épreuve (n) le nombre total de réalisations
de l’événement considéré suit à peu près une loi de Poisson de paramètre m = np. Plus p
est petit, meilleure est l’approximation. Pour cette raison la loi de Poisson a été appelée
K.
Proposition 1.6.2. Soit X une v.a telle que X ,→ P(m). Alors X admet une espérance
mathématique E(X) et une variance V(X) et
-
E(X) = V(X) = m.
T hi
0 00
Proof. On a : gX (x) = mem(x−1) et gX (x) = m2 em(x−1) .
0 00 0 0
D’où, E(X) = gX (1) = m et V(X) = gX (1) + gX (1) − (gX (1))2 = m2 + m − m2 = m.
On peut vérifier autrement. Soit
X mk X mk−1
E(X) = k e−m = e−m m =m
k! (k − 1)!
SA ud
k≥0 k≥1
et
X mk −m X mk −m X mk −m
V(X) = k2 e − m2 = k(k − 1) e + k e − m2
k! k! k!
k≥0 K≥1 k≥1
X mk−2 X mk−1
= m2 e−m + m e−m − m2 = m
(k − 2)! (k − 1)!
k≥2 k≥1
IS hfo
Proposition 1.6.3 (Somme de variables aléatoires de Poisson). Soient X1 et X2 sont 2 variables
de Poisson P(m1 ) et P(m2 ) indépendantes alors la v.a X1 +X2 suit la loi de Poisson P(m1 +m2 ).
Ceci est vrai pour une somme finie quelconque de variables aléatoires de Poisson indépendantes.
gX1 +X2 (x) = gX1 (x)gX2 (x) = em1 (s−1) em2 (s−1) = e(m1 +m2 )(s−1) .
D’où le résultat.
Autrement, pour un entier positif k, on a:
a
" k
#
[
P(X1 + X2 = k) = P {X1 = i} ∩ {X2 = k − i}
M
i=0
X
= P(X1 = i).P(X2 = k − i) (car X1 et X2 sont indépendantes)
i=0
K
X mi 1 −m1 mk−i
= e 2
e−m2
i=0
i! (k − i)!
K
e−(m1 +m2 )
K.
X
= Cki mi1 mk−i
2
i=0
k!
(m1 + m2 )k −(m1 +m2 )
= e .
k!
Exemples 1.6.1. 1. Lors d’un sondage portant sur un grand nombre de personnes, on sait
que 2% des personnes interrogées acceptent de ne pas rester anonymes. Sachant que l’un
des sondeurs a interrogé 250 personnes (en les choisissant de manìère indépendante). Soit
X le nombre de personnes ne souhaitant pas rester anonymes.
On a: X ,→ B(250, 0, 02) ∼ P(5).
1.6. Loi de Poisson. 13
50
La probabilité que ces 250 personnes souhaitent rester anonymes est P(X = 0) = e−5 =
0!
e−5 = 0.0067.
-
La probabilité que 3 personnes acceptent de ne pas rester anonymes est P(X = 3) =
53
T hi
e−5 = 0.14.
3!
plus de 10 personnes acceptent de ne pas rester anonymes est P(X ≥ 10) = 1 − P(X <
10) = 1 − P(X ≤ 9).
2. Dans un hôpital parisien, il arrive en moyenne 1.25 personnes à la minute aux urgences
entre 9 h et 12 h. Soit X le nombre de personnes observées à la minute à l’ entrée de ce
SA ud
service. On admet X ∼ P(m) avec m = 1.25. On a:
La probabilités qu’en 1 minute il arrive 2 personnes est P(X = 2) = 0.2238.
La probabilités qu’en 1 minute il arrive au plus 4 personnes est P(X ≤ 4) = 0.9909.
La probabilités qu’en 1 minute il arrive au moins 3 personnes est P(X ≥ 3) = 1 − P(X ≤
2) = 1 − 0.8685 = 0.1315.
IS hfo
a
M
K.