Vous êtes sur la page 1sur 39

Université d’Abomey-Calavi (UAC)

FACULTE DES SCIENCES ET


TECHNIQUES (FAST)

Année Académique : 2019-2020

MIA (Première Année)

Introduction à la modélisation
stochastique

Freedath DJIBRIL MOUSSA


Par :

&
A. Ganiou D. ATINDEHOU
Table des matières

1 Dénombrement 1
1.1 Rappels et compléments sur la théorie des ensembles . . . . . . . . . . . . 1
1.2 p-listes d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Arrangements, permutations . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Combinaisons, coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . 8

2 Notion de probabilité 11
2.1 Mesure de propobabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Notion de probabilité : espace probabilisé fini . . . . . . . . . . . . . . . . 13
2.3 Une autre façon de définir la probabilité . . . . . . . . . . . . . . . . . . . 14
2.4 Probabilité uniforme ou équiprobabilité . . . . . . . . . . . . . . . . . . . . 15
2.5 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6 Indépendance d’évènements . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Variables aléatoires réelles discrètes 21


3.1 Variables aléatoires discrètes réelles . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Indépendante de deux variables aléatoires réelles . . . . . . . . . . . . . . . 24
3.3 Moments d’une variable aléatoire discrète réelle . . . . . . . . . . . . . . . 24
3.4 Fonction d’une variable aléatoire réelle discrète . . . . . . . . . . . . . . . . 26
3.5 Inégalités de Markov et de Bienaymé-Tchebychev . . . . . . . . . . . . . . 26
3.6 Covariance de deux variables . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Lois discrètes usuelles 29


4.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.4 Lois voisines de la loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . 31
4.5 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Chapitre Premier

Dénombrement

Le but dans ce chapitre est de dénombrer, c’est à dire de compter les différentes façons
dont on peut ranger des objets dans des circonstances déterminées.

1.1 Rappels et compléments sur la théorie des en-


sembles
1.1.1 Ensembles des parties d’un ensemble, opérations
Définition 1.1 Soit un ensemble E. On appelle ensemble des parties de E, noté P(E),
l’ensemble dont les éléments sont des parties (ou sous-ensembles) de E.
∅ et E sont des éléments de P(E).

Opérations sur les parties d’un ensemble


Soient E un ensemble et A et B deux éléments de P(E). On a les opérations suivantes :
- le complémentaire de A : A = {x ∈ E, x ∈
/ A}
- la réunion de A et B : A ∪ B = {x ∈ E, x ∈ A ou x ∈ B}
- l’intersection de A et B : A ∩ B = {x ∈ E, x ∈ A et x ∈ B}
- la différence de A et B : A\B = {x ∈ E, x ∈ A et x ∈
/ B}

Définition 1.2 Une famille finie de parties (Ai ), i ∈ [1; n] d’un ensemble E est une
partition de E si :
1. ∀i ∈ [1; n], Ai 6= ∅ ;
2. E = ∪ni=1 Ai ;
3. Ai ∩ Aj = ∅ pour tout i 6= j.

Proposition 1.1 Pour A, B, C des parties d’un ensemble E, on a :


- A∪B =B∪A
- (A ∪ B) ∪ C = A ∪ (B ∪ C)

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Image réciproque 2

- A∩B =B∩A
- (A ∩ B) ∩ C = A ∩ (B ∩ C)
- (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C).
- (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C).
- (A) = A
- (A ∪ B) = A ∩ B
- (A ∩ B) = A ∪ B
- si A ⊂ B, alors B ⊂ A et A ∩ B = A.
Ces résultats s’étendent à des réunions et des intersections finies.

1.1.2 Image directe


Définition 1.3 Soient deux ensembles E et F , f une application définie de E dans F . A
chaque élément x de E on associe donc un élément y de F ; on note y = f (x). L’application
f permet de définir une application notée toujours f définie de P(E) dans P(F ) de la
manière suivante : pour tout A ∈ P(E),

f (A) = ∪x∈A f (x).

Proposition 1.2 Soient A et B deux éléments quelconques de P(E). On a :


- f (A) = ∅ ⇐⇒ A = ∅ ;
- A ⊂ B =⇒ f (A) ⊂ f (B) ;
- f (A ∪ B) = f (A) ∪ f (B) ;
- f (A ∩ B) ⊂ f (A) ∩ f (B) ;
Ces résultats s’étendent à des réunions et des intersections finies.

1.1.3 Image réciproque


Définition 1.4 Soient deux ensembles E et F , f une application définie de E dans F .
Pour chaque V ⊂ F , on appelle image réciproque de V par f , l’ensemble noté f −1 (V )
défini par : f −1 (V ) = {x ∈ E, f (x) ∈ V }.

Proposition 1.3 Soient f une application de E dans F , A une partie de E, V et W deux


parties de F . On a :
- V ⊂ W =⇒ f −1 (V ) ⊂ f −1 (W ) ;
- f −1 (V ∪ W ) = f −1 (V ) ∪ f −1 (W ) ;
- f −1 (V ∩ W ) = f −1 (V ) ∩ f −1 (W ) ;
- f −1 (V ) = f −1 (V ).
- A ⊂ f −1 (f (A)) ;
- f (f −1 (V )) ⊂ V .

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Propriétés des cardinaux 3

1.1.4 Ensemble fini


Définition 1.5 Un ensemble E est dit fini s’il est vide, ou s’il existe un entier naturel non
nul n tel que les ensembles [1; n] et E sont en bijection. Si E 6= ∅, l’entier naturel n est
appelé cardinal de E et noté card(E) = n. Par convention, card(∅) = 0.

Définition 1.6 On dit que deux ensembles non vides E et F ont le même cardinal si il
existe une bijection entre E et F .

Proposition 1.4 Si deux ensembles finis non vides E et F ont le même cardinal, alors il
existe une bijection entre E et F .

Preuve. Si E et F ont le même cardinal, alors il existe une bijection ϕ de E sur [1; n] et
une bijection ψ de [1; n] sur F . Alors ψ ◦ ϕ est une bijection de E sur F .
Dénombrer un ensemble fini non vide E, c’est déterminer son cardinal, c’est-à-dire le
nombre de ses éléments. Trois conditions doivent être remplies pour que le dénombrement
de E soit correct :
1. il ne faut compter que des éléments de E ;
2. il ne faut pas en oublier ;
3. il ne faut pas compter certains éléments de E plusieurs fois.

1.1.5 Propriétés des cardinaux


Théorème 1.1 (Théorème de dénombrement) Soit E un ensemble fini. Si F est un
ensemble tel qu’il existe une bijection de E sur F , alors F est un ensemble fini et

card(E) = card(F ).

Preuve. Soit n le cardinal de E, il existe donc une bijection de ϕ de [1; n] sur E. S’il
existe une bijection ψ de E sur F , alors l’application ψ ◦ ϕ est une bijection de [1; n] sur
F.
Ainsi, pour déterminer le cardinal d’un ensemble fini E, il suffit de le décrire en établis-
sant une bijection entre l’ensemble E et un ensemble bien connu.

Théorème 1.2 (Principe d’addition)


Soient E et F deux ensembles finis disjoints. Alors E ∪ F est un ensemble fini et

card(E ∪ F ) = card(E) + card(F ).

Preuve. Posons n = card(E) et m = card(F ). Il suffit de trouver une bijection entre


[1; n + m] et E ∪ F . Soient ϕ une bijection de [1; n] sur E et ψ une bijection de [1; m] sur

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Propriétés des cardinaux 4

F.
Définissons l’application γ entre [1; n + m] et E ∪ F par :

γ : [1; n + m] −→ E ∪ F 
ϕ(k) si 1 ≤ k ≤ n
k 7−→ γ(k) =
ψ(k − n) si n + 1 ≤ k ≤ n + m

L’application γ est surjective, puisque γ([1; n]) = E et γ([n + 1; n + m]) = F . Donc


E ∪ F = γ([1; n]) ∪ γ([m + 1; n + m]) = γ([1; n + m]) (car γ est une application). De
plus, elle est injective. En effet, si deux entiers k et k 0 vérifient γ(k) = γ(k 0 ), alors ou bien
γ(k) ∈ E, auquel cas ϕ−1 (γ(k)) = ϕ−1 (γ(k 0 )) implique k = k 0 ; ou bien γ(k) ∈ F et on
trouve aussi k = k 0 en appliquant ψ −1 .
Le résultat précédent se généralise par récurrence à l’union disjointe de plusieurs en-
sembles finis.

Corollaire 1.1 Soient A1 , A2 ,... et Ap p ensembles finis disjoints deux à deux, où p est
un entier naturel au moins égal à 2. Alors A1 ∪ A2 ∪ ... ∪ Ap est un ensemble fini et
p
card(A1 ∪ A2 ∪ ... ∪ Ap ) = card(Ak ).
X

k=1

En particulier, si A1 , A2 ,..., Ap est une partition d’un ensemble E, on a :


p
card(E) = card(Ak ).
X

k=1

Le principe d’addition permet de dénombrer les possibilités pour des situations correspon-
dant à des disjonctions de cas. Supposons qu’on distingue p cas qui sont mutuellement
exclusifs et que tous les cas possibles sont pris en compte. Soit nk le nombre de possibilités
dans le k–ième cas. Alors d’après le principe d’addition, on a :

Nombre total de possibilités = n1 + n2 + ... + nk .

Le principe d’addition permet de démontrer plusieurs propriétés utiles du cardinal.

Théorème 1.3 Soit E un ensemble fini. Toute partie A de E est finie et

card(A) ≤ card(E).

Si card(A) = card(E), alors A = E.

Preuve. Faisons un raisonnement par récurrence sur n = card(E).


1. Si n = 0 alors E est vide et son cardinal est 0 ; si n = 1 c’est-à-dire que E = {x},
alors soit A = ∅ ou bien A = {x}. Le théorème est donc vrai dans ces deux cas.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Propriétés des cardinaux 5

2. Au rang n ≤ 1, supposons que le théorème s’applique aux ensembles de cardinal n.


Démontrons qu’il s’applique également pour un ensemble E de cardinal n + 1. Soit
à présent A un sous-ensemble de E et x un élément de E. Posons :

A1 = A ∩ {x} et A2 = A \{x}.

Il est clair que A1 et A2 sont deux ensembles disjoints et que A = A1 ∪A2 . L’ensemble
A1 est un sous-ensemble de {x} ; donc card(A1 ) ≤ card({x}) = 1. D’autre part,
A2 ⊂ E\{x} qui est de cardinal n. Donc A2 est fini et son cardinal est au plus
n par hypothèse de récurrence. Par suite A est un ensemble fini et son cardinal
est au plus n + 1. Si de plus card(A) = card(E) = n + 1, alors nécessairement,
card(A1 ) = 1 et card(A2 ) = n. Par application de l’hypothèse de récurrence aux
rangs 1 et n, A1 = {x} et A2 = E \{x}. Donc A = A1 ∪ A2 = E.

Proposition 1.5 Si A et B sont deux parties d’un ensemble fini E, on a :


1. card(A\B) = card(A) − card(A ∩ B).
2. card(A) = card(E) − card(A).
3. card(A ∪ B) = card(A) + card(B) − card(A ∩ B).

Preuve. Il suffit d’écrire les ensembles dont on cherche le cardinal sous forme de réunion
disjointes d’ensembles et d’appliquer le principe d’addition. On a :

A = (A\B) ∪ (A ∩ B) avec (A\B) et (A ∩ B) disjoints,

E = A ∪ A avec A et A disjoints, et
A ∪ B = A ∪ (B\A) avec A et (B\A) disjoints.

Exemple 1.1 Une station de radio diffuse une même émission à 15h et à 16h dans une
même journée. D’après un sondage mené sur l’intérêt que les auditeurs de la radio portent
à l’émission, on estime qu’il y a 21400 auditeurs à 15h et 24800 à 16h. Déterminer dans
chacun des cas suivant le nombre d’auditeurs ayant suivi cette émission au bout d’une
journée.
1er cas : les personnes qui écoutent la radio à 15h ne l’écoutent pas à 16h.
2ème cas : 4600 personnes écoutent la radio à 15h et à 16h.

Exemple 1.2 Dans un groupe de 25 personnes, 10 jouent au basket-ball, 17 jouent au


football et 8 pratiquent ces deux sports. Déterminer le nombre de personnes :
1. qui jouent seulement au football.
2. qui jouent seulement au basket-ball.
3. qui ne pratiquent aucun de ces deux sports.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Propriétés des cardinaux 6

Exemple 1.3 Dans une classe de 40 élèves, il y a 16 filles parmi lesquelles 12 apprennent
l’anglais et 6 apprennent l’arabe ; 26 élèves suivent les cours d’anglais, 17 suivent les cours
d’arabe, 7 suivent les deux cours ; 2 garçons ne suivent aucun de ces deux cours.
1. Déterminer le nombre de filles de cette classe qui suivent les deux cours de langue.
2. Déterminer le nombre de filles qui ne suivent aucune de ces deux matières.

On s’intéresse maintenant au cardinal d’ensembles qui sont produits d’ensembles finis.

Définition 1.7 Soient E et F deux ensembles non vides. Le produit cartésien de E par F
est l’ensemble de tous les couples (x, y) tels que x ∈ E et y ∈ F .

E × F = {(x, y) ; x ∈ E et y ∈ F }

Théorème 1.4 (Principe de la multiplication)


Si E et F sont deux ensembles finis, alors E × F est un ensemble fini et

card(E × F ) = (card(E)) . (card(F ))

Preuve. On a E × F = ∪x∈E ({x} × F ) où les ensembles {x} × F dans cette réunion sont
deux à deux disjoints. D’après le principe d’addition card(E × F ) = x∈E card({x} × F ).
P

L’application

ϕ : {x} × F −→ F
(x, y) 7−→ y
est une bijection. Donc card({x} × F ) = card(F ) et

card(E × F ) = card({x} × F ) = card(F ) = (card(E)) . (card(F ))


X X

x∈E x∈E

Cette propriété se généralise au produit d’un nombre fini d’ensemble fini comme suit :

Corollaire 1.2 Si (Ei )i=1,...,n est une famille d’ensembles finis, alors Ei est un en-
Qn
i=1
semble fini et
n n
!
Ei = card (Ei ) .
Y Y
card
i=1 i=1

En particulier, si E est un ensemble fini,


 
card E k = (card(E))k

pour tout entier naturel non nul k.


Le principe de multiplication est utile pour déterminer le nombre de possibilités pour
des situations correspondant à une succession d’étapes. Soit p le nombre d’étapes et nk ,
k = 1, ..., p le nombre de possibilités à chaque étape, on a le principe de multiplication

Nombre total de possibilités = n1 × n2 × ... × np .

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Arrangements, permutations 7

1.2 p-listes d’un ensemble


Définition 1.8 On appelle p-liste ou p-uplet d’un ensemble E à n éléments, tout élément
de E p i.e toute suite de p éléments de E.
L’ordre des éléments de la p-liste est important : deux p-listes contenant les mêmes
éléments dans des ordres différents sont différentes. Une p-liste peut contenir plusieurs fois
le même élément.
Exemple 1.4 Soit E = {a, b, c, d, e}.
1. (a, a, b) et (e, c, d) sont des 3-listes d’éléments de E.
2. (a, a, b) et (a, b, a) sont des 3-listes différents.
Proposition 1.6 Soit E et F deux ensembles finis. Alors
1. Le nombre de p-listes de l’ensemble E est (card(E))p
2. Le nombre d’applications de E dans F est (card(F ))card(E) .
Proposition 1.7 Soit E un ensemble fini de cardinal n. Le nombre de sous-ensembles
(parties) de E est card (P(E)) = 2n .
Preuve. La donnée d’une partie A de E équivaut à la donnée de l’application f de E
dans {0, 1} définie par : 
1 si x ∈ A
f (x) =
0 sinon

Il y a donc autant de parties de E que d’applications de E dans {0, 1}.

1.3 Arrangements, permutations


Définition 1.9 Soit E un ensemble fini de cardinal n.
1. Un arrangement de p (p ≤ n) éléments de E est une p-liste d’éléments distincts de
E.
2. Une permutation de E est un arrangement des n éléments de E.
Exemple 1.5 Soit E = {a, b, c, d, e}.
1. (a, b, c), (a, c, b) et (d, b, e) sont des arrangements de 3 éléments de E.
2. (a, b, c, d, e) et (b, a, c, d, e) sont des permutations de E.
Proposition 1.8 Soit E un ensemble fini de cardinal n.
1. Le nombre d’arrangements de p éléments de E, noté Apn est :
n!
Apn = n(n−1)(n−2)...(n−p+1) = où n! = 1×2×...×(n−1)×n.
(n − p)!
2. A0n = 1.
3. A1n = n
4. Apn = 0 si p ≥ n.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Combinaisons, coefficients binomiaux 8

1.4 Combinaisons, coefficients binomiaux


Définition 1.10 Soient E un ensemble fini de cardinal n, p ≤ n un entier.
1. On appelle combinaison de p éléments de E, toute partie à p éléments de E.
 
2. On appelle coefficient binomial Cnp ou n
p
le nombre de combinaison de p éléments
de E.
Une combinaison étant une partie de E, tous ses éléments sont distincts. L’ordre des
éléments dans une combinaison est sans importance ; c’est la la différence entre une com-
binaison et un arrangement.

Exemple 1.6 Soit E = {a, b, c, d, e}.


{a, b, c} et {e, c, d} sont des combinaisons de 3 éléments de E.

Proposition 1.9 Soient E un ensemble fini de cardinal n > 0 et p ≤ n un entier. Le


nombre de sous-ensembles de E contenant p éléments est
Apn n!
Cnp = =
p! p!(n − p)!
Preuve.
1. Si p = 0, d’une part, Cn0 est le nombre de parties de E contenant 0 élément. Il n’y
en a qu’un seul : ∅. Donc Cn0 = 1. D’autre part 0!(n−0)!
n!
= 1.
2. Si p 6= 0, pour toute combinaison de p éléments, on peut former p! arrangements de
ces p éléments par permutation. Donc le nombre de d’arrangements de p éléments
est p! fois le nombre de combinaison.
D’où le résultat.
Proposition 1.10 Soit (n, p) ∈ N2 . On a :
1. Cn0 = Cnn = 1.
2. Cn1 = Cnn−1 = n.
3. Cnp = Cnn−p .
4. pCnp = nCn−1
p−1

5. Cn+1
p+1
= Cnp+1 + Cnp (Formule de Pascal).

Preuve. Exercice
Exemple 1.7 Un sac contient 26 jetons représentant les 26 lettres de l’alphabet français,
dont 20 consonnes et 6 voyelles.
1. On tire simultanément 5 jetons du sac. Déterminer
(a) le nombre total de tirages possibles.
(b) le nombre de tirages distincts :
i. contenant exactement 2 voyelles.
ii. contenant au moins une voyelle.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Combinaisons, coefficients binomiaux 9

2. On tire successivement 5 jetons avec remise. Déterminer le nombre de tirage dis-


tincts :
(a) contenant exactement 2 voyelles.
(b) contenant au moins une voyelle.
(c) contenant au moins deux lettres identiques.
3. Même question si le tirage est sans remise.

Théorème 1.5 (Formule du Binôme de Newton)


Soient a et b deux nombres complexes et n ∈ N, on a :
n n
(a + b)n = Cnp ap bn−p = Cnp an−p bp .
X X

p=0 p=0

Preuve. Exercice.
Pour a = b = 1, on a d’après la formule du binôme de Newton :
n
2n = Cnp
X

p=0

D’où
n
Nombre de parties de E = (Nombre de parties à p élémentsde E
X

p=0
n
= Cnp
X

p=0
= 2n .

Proposition 1.11 (Formule de Vandermonde)


Soient a et b deux entiers naturels et n un entier naturel compris entre 0 et a + b. On
a: n
Cap Cbn−p = Ca+b
n
X
.
p=0

Preuve. Soit E un ensemble fini de cardinal a + b et A un sous-ensemble A de E


de cardinal a. Son complémentaire A contient donc b éléments. On sait que le nombre
de combinaisons de E d’ordre n d’éléments de E est Ca+b n
. C’est également le nombre de
sous-ensembles de E à n éléments. Pour obtenir un tel sous-ensemble, il suffit de considérer
un sous-ensemble de A de cardinal p et un sous-ensemble de A de cardinal (n − p) pour
k fixé pris entre 0 et n. Le nombre de sous-ensembles de E de cardinal n ainsi obtenus
est : Cap Cbn−p . En appliquant le principe d’addition (pour toutes les valeurs de p), on a le
résultat.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Combinaisons, coefficients binomiaux 10

Exercices
Exercice 1.1 1. Combien y a-t-il d’anagrammes du mot ANGELOT ?
2. Combien y a-t-il d’anagrammes du mot INSTITUT ?

1. Démontrer que, pour tout (n, p) ∈ N, Ckp = Cn+1


p+1
.
Pn
Exercice 1.2 k=p

2. Retrouver cette égalité par un dénombrement : compter les sous-ensembles à p + 1


éléments de [1; n + 1] d’après leur plus grand élément.
3. Retrouver que k= n(n+1)
(on pourra considérer le cas p = 1).
Pn
k=1 2
4. Calculer k(k − 1) et Retrouver k2.
Pn Pn
k=1 k=1

Exercice 1.3 On veut distribuer 7 prospectus dans 10 boı̂tes aux lettres nominatives. De
combien de façons peut-on le faire si :
1. on met au plus un prospectus par boı̂te et les prospectus sont identiques ?
2. on met au plus un prospectus par boı̂te et les prospectus sont tous différents ?
3. on met un nombre quelconque de prospectus par boı̂te et les prospectus sont tous
différents ?
4. on met un nombre quelconque de prospectus par boı̂te et les prospectus sont iden-
tiques ?

Exercice 1.4 Soient (n, p) ∈ N 2 , n et p non nuls. Soit Sp,n le nombre de surjections d’un
ensemble à p éléments sur un ensemble à n éléments, c’est-à-dire le nombre de surjections
de [1; p] sur [1; n].
1. Combien y a-t-il d’applications de [1; p] dans [1; n].
2. Calculer Sp,n dans le cas où p < n puis p = n et enfin n = 2.
3. Montrer que Sp,n = n(Sp−1,n−1 + Sp−1,n ). On choisira une image pour p et on dis-
tinguera selon que p ait la même qu’un autre élément de [1; p] ou non.
4. Montrer que np = Cnk Sp,k .
Pn
k=0

Exercice 1.5 1. De combien de façons différentes peut-on choisir p entiers (x1 , x2 , ..., xp )
dans [1; n] de façon à ce que x1 < x2 < ... < xp ?
2. De combien de façons différentes peut-on choisir p entiers (x1 , x2 , ..., xp ) dans [1; n]
de façon à ce que x1 ≤ x2 ≤ ... ≤ xp ?

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Chapitre Deux

Notion de probabilité

2.1 Mesure de propobabilité


2.1.1 Tribu
Définition 2.1 Soit Ω un ensemble non vide. On appelle tribu sur Ω, une famille F de
parties de Ω vérifiant :
- ∅ ∈ F;
- ∀ A ∈ F, A ∈ F ;
- ∀ (An )n∈N ⊂ F =⇒ ∪n∈N An ∈ F.

Exemple 2.1
- F0 = {∅, Ω}.
- F1 = P(Ω).
- Pour toute partie non vide A de Ω, F = {∅, A, A, Ω}.

Proposition 2.1 Soit F une tribu sur un ensemble Ω. On a :


- F est stable par réunion finie.
- F est stable par intersection dénombrable ou finie.
- si A et B sont des éléments de F, A\B et A4B sont aussi des éléments de F.

Preuve. Exercice

Définition 2.2 On appelle espace probabilisable, un couple (Ω, F) , où Ω est un ensemble
non vide et F une tribu de parties de Ω.

Le plus souvent, on prend pour espace probabilisable (Ω, P(Ω)).

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Evènements 12

2.1.2 Notion d’expérience aléatoire


Définition 2.3 On appelle expérience aléatoire, toute épreuve dont l’issue est due au ha-
sard mais dont on connaı̂t tous les résultats possibles.

Exemple 2.2 Une pièce de monnaie comporte deux faces ”tête” que l’on notera T et
”franc”F . On sait que l’ensemble de tous les résultats possibles au terme d’un lancer de
cette pièce est Ω = {T, F }. Mais avant l’opération de lancer de la pièce, on ne peut pas
dire avec certitude une issue. On a donc une expérience aléatoire.

Exemple 2.3 On considère un dé cubique dont les faces sont numérotées de 1 à 6. On jette
ce dé et on observe après immobilisation le chiffre apparu à sa face supérieure. L’ensemble
de tous les résultats possibles au terme d’un lancer de ce dé est Ω = [1; 6 ]. Mais avant
l’opération de lancer de la pièce, on ne peut pas dire avec certitude une issue. On a donc
une expérience aléatoire.

2.1.3 Evènements
Définition 2.4 Soit une expérience aléatoire représentée par un univers Ω. Les évènements
aléatoires sont des sous-ensembles de Ω. L’ensemble des évènements est une tribu de parties
de Ω.

Les opérations ensemblistes correspondant à des propriétés logiques, les termes du lan-
gage probabiliste (le langage ”courant”) se retrouvent en langage ensembliste (langage
”formel”).

Langage probabiliste Langage ensembliste


Un résultat de l’expérience w, élément de Ω
Évènement élémentaire singleton {w} avec w ∈ Ω
Évènement A partie de Ω
Évènement certain Ω
Évènement impossible ∅
Évènement contraire à A A
Évènement A ou B A∪B
Évènement A et B A∩B
A et B sont incompatibles A∩B =∅

L’équivalent probabiliste d’une partition de l’univers est un système complet d’évènements.

Définition 2.5 (Système complet d’évènements)


Soit Ω l’univers d’une expérience aléatoire. On appelle système complet d’évènements,
la donnée de n évènements A1 , A2 , ..., An avec n ∈ N∗ tels que :
- pour tout i ∈ [1; n], Ai = ∅ ;

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Notion de probabilité : espace probabilisé fini 13

- pour tout (i, j) ∈ [1; n]2 , Ai ∩ Aj 6= ∅ ;


- ∪ni=1 Ai = Ω.

La première condition est parfois omise. On précise dans ce cas, selon les circonstances,
”système complet d’évènements non vides”. Dans tout ce cours, ce sera toujours le cas.
Utiliser un système complet d’évènements revient à raisonner par disjonction des cas.
On découpe l’univers en plusieurs évènements, un et un seul d’entre eux étant réalisé à
chaque expérience. Le plus simple des systèmes complets d’évènements est A et A avec A
un évènement distinct de Ω et du ∅ : C’est le raisonnement binaire ; ”la boule est blanche”
ou ”la boule n’est pas blanche”.

2.2 Notion de probabilité : espace probabilisé fini


Définition 2.6 (Axiomes des probabilités finies)
On appelle probabilité définie sur un espace probabilisable (Ω, F) , toute application p
définie de F dans [0, 1] qui vérifie les propriétés suivantes :
1. p(Ω) = 1 ;
2. Si A et B deux évènements incompatibles c’est-à-dire A ∩ B = ∅, on a :

p(A ∪ B) = p(A) + p(B).

Le triplet (Ω, F, p) est appelé espace probabilisé. Pour tout évènement A, le réel p(A) est
appelé probabilité de l’évènemnt A.

Proposition 2.2 (Propriétés d’une probabilité finie)


Soit (Ω, F, p) un espace probabilisé fini, A et B deux évènements de Ω. On a :
1. p(A) = 1 − p(A).
2. p(∅) = 0.
3. p(A\B) = p(A) − p(A ∩ B).
4. Si A ⊂ B, alors on a : p(A) ≤ p(B).
5. p(A ∪ B) = p(A) + p(B) − p(A ∩ B).

Preuve.
1. Remarquer que Ω = A ∪ A et A ∩ A = ∅.
2. Remarquer que ∅ est le complémentaire de Ω.
3. Remarquer que A = (A\B) ∪ (A ∩ B).
4. Remarquer que B = (B\A) ∪ A.
5. Remarquer que A ∪ B = A ∪ (B\A).

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Une autre façon de définir la probabilité 14

Remarque 2.1 Soit (Ω, F, p) un espace probalisé et A un évènement.


- Si p(A) = 0, alors A est dit négligeable (cela n’implique pas nécessairement A = ∅).
- Si p(A) = 1, alors A est dit presque-sûr (cela n’implique pas nécessairement A = Ω).

Proposition 2.3 Si A1 , A2 , ..., An sont n évènements deux à deux disjoints d’un espace
probabilisé (Ω, F, p), alors :
n
p(∪ni=1 Ai ) = p(Ai ).
X

i=1

Preuve. Il suffit de mener un raisonnement par récurrence par rapport à n.

Corollaire 2.1 Si A1 , A2 , ..., An est un système complet d’évènements d’un espace proba-
bilisé (Ω, F, p), alors :
p(∪ni=1 Ai ) = 1.

Preuve. Il suffit de remarquer que les Ai sont disjoints deux à deux et leur réunion est
Ω.

2.3 Une autre façon de définir la probabilité


On a le théorème suivant qui permet de définir une probabilité sur un espace probabi-
lisable (Ω, F) avec Ω fini.

Théorème 2.1 (Germe de probabilité-cas fini)


Une probabilité sur un ensemble fini est entièrement caractérisée par sa valeur sur
les évènements élémentaires. Plus précisément, soit Ω un ensemble fini. On note Ω =
{wi }1≤i≤n . Soit (pi )1≤i≤n une suite de réels positifs de somme 1. Alors, il existe une unique
probabilité sur Ω telle que.
∀i ∈ [1; n], p ({wi }) = pi .

Preuve. Soit A un évènement quelconque. Si A est vide, alors p(A) = 0. Sinon, on peut
alors l’écrire sous la forme A = {wi1 , wi2 , ..., wir } où i1 , i2 , ..., ir sont des indices compris
entre 1 et n. Comme A est l’union disjointe des singletons {wik }, alors
r r
p(A) = p ({wik }) =
X X
pik .
k=1 k=1

Donc l’unicité de p si elle existe.


Montrons à présent que p ainsi définie est une probabilité.
1. n n
p(Ω) = p ({wi }) = pi = 1.
X X

i=1 k=1

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Probabilité uniforme ou équiprobabilité 15

2. Soit A et B deux évènements disjoints non vide, notés

A = {wi1 , wi2 , ..., wir } et B = {wj1 , wj2 , ..., wjs }.

Il est clair que


A ∪ B = {wi1 , wi2 , ..., wir , wj1 , wj2 , ..., wjs },
et donc r s
p(A ∪ B) = p ({wik }) + p ({wjk }) = p(A) + p(B).
X X

k=1 k=1

D’où p est bien une probabilité.

Exemple 2.4 (Loi binomiale)


Soit Ω = [1; n] et p ∈]0, 1[. Posons pour tout k ∈ [1; n], pk = Cnk pk (1 − p)n−k .
1. Montrer que les pk définissent une probabilité sur (Ω, P(Ω)).

2.4 Probabilité uniforme ou équiprobabilité


Définition 2.7 On dit qu’il y a équiprobabilité, lorsque les probabilités de tous les évènements
élémentaires sont égales. On dit que la probabilité est uniforme sur l’espace probabilisable
(Ω, P(Ω)).

Proposition 2.4 S’il y a équiprobabilité, pour tout évènement A , on a :

card(A) nombre de cas favorables


p(A) = = .
card(Ω) nombre de cas possibles

Exemple 2.5 On jette un dé cubique dont les faces sont numérotées de 1 à 6 et on lit
après immobilisation le chiffre apparu à sa face supérieure.
1. Sachant que le dé est parfaitement équilibré, quelle est la probabilité d’obtenir un
chiffre pair ?
2. Sachant que le dé est truqué de sorte que chaque face ait une probabilité d’apparution
proportionnelle au numéro qu’elle porte, quelle est la probabilité d’obtenir un numéro
pair ?

Exemple 2.6 Une urne contient 9 boules numérotées de 1 à 9 . On tire simultanément


deux boules de cette urne ; sachant que les boules sont indiscernables au toucher, quelle est
la probabilité d’obtenir deux boules portant des numéros de même parité ?

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Probabilité conditionnelle 16

2.5 Probabilité conditionnelle


Théorème 2.2 Soit (Ω, P(Ω)) un espace probabilisé fini et A un évènement de probabilité
non nulle. Pour tout évènement B, on pose

p(A ∩ B)
pA (B) = .
p(A)
pA (B) est une probabilité sur l’espace probabilisable (Ω, P(Ω)), appelée probabilité condi-
tionnelle relative à A ou bien probabilité sachant A. pA (B) se note également p(B|A).

Exemple 2.7 Une urne contient 2 boules rouges et 3 vertes indiscernables au toucher. On
tire successivement et sans remise 2 boules de l’urne.
Quelle est la probabilité d’obtenir au second tirage une boule verte sachant que la
première boule tirée est rouge ?

Exemple 2.8 Dans un lot de 100 produits, 20 ont le défaut A, 10 ont le défaut B et 3 ont
les deux défauts. On choisit un produit au hasard dans le lot. On constate qu’il a le défaut
B ; quelle est alors la probabilité qu’il possède aussi le défaut A ?

La formule de définition de la probabilité conditionnelle peut aussi s’écrire, si p(A) > 0,

p(A ∩ B) = p(A)p(B|A) = p(B)p(A|B) :


Cette dernière relation est appelée formule des probabilités composées et se généralise
par récurrence :
Proposition 2.5 Soit (Ω, P(Ω)) un espace probabilisé et (Ak )k=1,...,n une suite d’évènements
tels que
p(A1 ∩ A2 ∩ ... ∩ An−1 ) 6= 0.
Alors

p(A1 ∩A2 ∩...∩An ) = p(A1 )∗p(A2 |A1 )∗...∗p(An−1 |A1 ∩A2 ∩...∩An−2 )∗p(An |A1 ∩A2 ∩...∩An−1 )

Cette formule permet de calculer la probabilité d’un évènement qui est le résultat d’une
succession d’étapes qui ne sont pas nécessairement indépendantes. Les évènements A1 , .., An
représentent les différentes étapes de l’expérience.

Exemple 2.9 10 femmes et 15 hommes descendent au hasard d’un bus. Quelle est la pro-
babilité que les 3 premières personnes qui descendent sont des hommes et la 4ème personne
une femme ?

Résultats : Soit Ai , i = 1, ..., 4 l’évènement : la ”ième personne qui descend du bus est
un homme” et B l’évènement” les 3 premières personnes qui descendent du bus sont des
hommes et la 4ème personne une femme”. On a :

B = A1 ∩ A2 ∩ A3 ∩ A4

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Indépendance de deux évènements 17

Donc

p(B) = p(A1 ∩ A2 ∩ A3 ∩ A4 )
= p(A1 ) ∗ p(A2 |A1 ) ∗ p(A3 |A1 ∩ A2 ) ∗ p(A4 |A1 ∩ A2 ∩ A3 )

- Lorsqu’une personne descend au hasard du bus en premier, il y a équiprobabilité,


donc p(A1 ) = 10+15
10
= 52 .
- Si un homme est descendu en premier du bus, il reste 24 personnes dont 9 hommes
dans le bus. Donc la probabilité que la 2ème personne qui descend soit un homme
sachant que la 1ère est également un homme est : p(A2 |A1 ) = 24
9
.
- Ensuite, il reste 23 personnes dans le bus dont 8 hommes. La probabilité que la
3ème personne qui descend du bus soit un homme sachant que les deux premières
le sont est : p(A3 |A1 ∩ A2 ) = 23
8
.
- Il reste dans le bus 22 personnes dont 15 femmes. La probabilité que la 4ème per-
sonne qui descend du bus soit une femme sachant que les trois premières sont des
hommes est : p(A4 |A1 ∩ A2 ∩ A3 ) = 22
15
.

D’où p(B) = 2
5
∗ 9
24
∗ 8
23
∗ 15
22
.

Proposition 2.6 (Formule de Bayes)


Soit (Ω, P(Ω), p) un espace probabilisé et, A et B deux évènements de probabilités non
nulle. On a :

p(B)
p(B|A) = p(A|B).
p(A)

2.6 Indépendance d’évènements


2.6.1 Indépendance de deux évènements
Définition 2.8 Soit A et B deux évènements d’un même espace probabilisé (Ω, P(Ω), p).
A et B sont indépendants pour la probabilité p si :

p(A ∩ B) = p(A) × p(B).

Proposition 2.7
- Si p(A) 6= 0, alors A et B indépendants pour la probabilité p si et seulement si

pA (B) = p(B).

- Si p(B) 6= 0, alors A et B indépendants pour la probabilité p si et seulement si

pB (A) = p(A).

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Indépendance de n évènements 18

Ce qui traduit le fait que la réalisation de l’évènement A n’a aucune influence sur celle de
B à priori et réciproquement.

Exemple 2.10 Soit Ω = [1; 6], p1 et p2 deux probabilités définies sur (Ω, P(Ω)) par :

k 1 2 3 4 5 6
p1 ({k}) 1
6
1
6
1
3
1
9
1
9
1
9
p2 ({k}) 1
6
1
6
1
6
1
6
1
6
1
6

Considérons les évènements : A = {1, 2} et B = {2, 3}.


1. Les évènements A et B sont-ils indépendants pour la probabilité p1 ?
2. Les évènements A et B sont-ils indépendants pour la probabilité p2 ?

Proposition 2.8 Si A et B sont deux événements indépendants alors A et B le sont aussi.

Preuve. Exercice

2.6.2 Indépendance de n évènements


Définition 2.9
- n évènements A1 , A2 , .., An d’un espace probabilisé (Ω, P(Ω), p) sont deux à deux
indépendants si pour tous i et j distincts dans [1; n], on a :

p(Ai ∩ Aj ) = p(Ai ) × p(Aj ).

- n évènements A1 , A2 , .., An d’un espace probabilisé (Ω, P(Ω), p) sont mutuellement


indépendants si pour tout ensemble I d’indices choisis dans [1; n], on a :

p(∩i∈I Ai ) = p(Ai ).
Y

i∈I

Remarque 2.2 n évènements mutuellement indépendants sont deux à deux indépendants.


Mais n évènements peuvent être deux à deux indépendans sans être mutuellement indépendants.

En effet,

Exemple 2.11 On lance deux fois un dé cubique parfaitement équilibré. On considère les
évènements suivants :
- A1 : ”le premier nombre obtenu est pair”.
- A2 : ”le deuxième nombre obtenu est impair”.
- A2 : ”la somme des deux nombres obtenus paire”.
1. Les évènements A1 , A2 et A3 sont-ils deux à deux indépendants ?
2. Les évènements A1 , A2 et A3 sont-ils mutuellement indépendants ?

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Indépendance d’évènements 20

Exercices
Exercice 2.1. Soit l’univers Ω = J1; 2nK. Peut-on trouver deux réels a et b tels que

∀k ∈ Ω p({k}) = ak + b

définisse une probabilité et que p (J1; nK) = 14 ?

Exercice 2.2. Les fonctions suivantes, définies sur les singletons, se prolongent-elles
en une probabilité sur (Ω, P(Ω)) ?
1. Ω = J1; nK, p({k}) = C k (−1)k 2n−k ;
2. Ω = J1; 2nK, p({k}) = n1 |1 − nk |.

Exercice 2.3. Soit A et B deux évènements tels que P (A) = 1/4, P (B) = 2/3 et
P (A ∩ B) = 1/8. Calculer les probabilités de E :" au moins l’un de ces évènements se
produit " et F : " un seul de ces évènements se produit".

Exercice 2.4. On suppose qu’à chaque naissance, une famille a la même chance d’avoir
une fille ou un garçon et on s’intéresse à la répartition par sexe des enfants parmi les
familles à n (n ≥ 2) enfants.
1. Construire l’univers et l’espace probabilisé associés à cette expérience aléatoire.
2. Quelle est la probabilité de l’évènement A "il y a des enfants des deux sexes dans
la famille" ?
3. Quelle est la probabilité de l’évènement B "il y a au plus une fille dans la famille" ?
4. Définir l’évènement A ∩ B et déterminer sa probabilité.
5. Montrer que les évènements A et B sont indépendants si et seulement si n est
solution de l’équation 2n−1 = n + 1.

Exercice 2.5. Une urne contient des boules numérotées de 1 à n.


1. On en tire k simultanément. Quelle est la probabilité de tirer la boule numéro i
(avec k et i éléments de J1; nK) ?
2. On tire k boules successivement et sans remise.
(a) Quelle est la probabilité de tirer la boule i à un rang r donné (avec 1 ≤ r ≤ k) ?
(b) Quelle est la probabilité de tirer la boule numéro i (avec 1 ≤ i ≤ n) ?

Exercice 2.6. Soit n ∈ N∗ . Soit les urnes Uk contenant k boules blanches et n−k boules
noires, pour k ∈ J0; nK.
1. On tire une boule dans une urne choisie au hasard. Quelle est la probabilité de
tirer une boule blanche ?
2. On tire une boule dans une urne choisie au hasard. Celle-ci est blanche. Quelle
est la probabilité d’avoir tiré cette boule dans l’urne Uk , k ∈ J0; nK ?
3. On tire successivement et avec remise deux boules dans une urne choisie au hasard.
Quelle est la probabilité d’obtenir deux boules blanches ?

Introduction à la modélisation probabiliste F. Djibril Moussa ©MIA1-FAST-UAC-2018-2019


Indépendance d’évènements 21

4. On tire successivement et sans remise deux boules dans une urne choisie au hasard.
Quelle est la probabilité d’obtenir deux boules blanches ?

Exercice 2.7. Une usine possède trois machines A, B, C pour produire deux composants
électroniques différents. Ces machines fournissent respectivement 45%, 30% et 25% de
la production de ces deux composants.
La machine A est uniquement utilisée pour la production du composant de type 1 ; le
composant produit est de bonne qualité dans 97% des cas. La machine B produit les deux
composants avec un taux déchec de 5%. La machine C produit les deux composants en
égale proportion ; pour le composant de type 2 elle est optimisée, ayant une probabilité
de réussite de 100% ; pour le composant de type 1, 2 pièces sur 25 sont de mauvaise
qualité.
1. Quel pourcentage de la production est de mauvaise qualité ?
2. Si une pièce (de n’importe quel type) est de mauvaise qualité, quelle est la proba-
bilité quelle ait été produite par la machine A ?

Introduction à la modélisation probabiliste F. Djibril Moussa ©MIA1-FAST-UAC-2018-2019


Chapitre Trois

Variables aléatoires réelles discrètes

3.1 Variables aléatoires discrètes réelles


3.1.1 Définition et Opérations
Définition 3.1 Soit (Ω, P(Ω)) un espace probabilisable. On appelle variable aléatoire réelle
(v.a.r.) définie sur (Ω, P(Ω)) toute application (mesurable) :

X : (Ω, P(Ω), p) −→ (R, P(R)) .

L’ensemble X(Ω) est appelé ensemble fondamental ou support de la variable aléatoire


réelle X.

Remarque 3.1 Lorsque X(Ω) est un sous ensemble dénombrable de R, alors toute appli-
cation X définie de Ω dans R est une variable aléatoire discrète réelle.

Proposition 3.1 Soit X et Y deux variables aléatoires discrètes réelles définies sur un
espace probabilisable (Ω, P(Ω)) et λ ∈ R. Alors, X + Y , λX, XY , sup(X, Y ), inf(X, Y )
sont des variables aléatoires discrètes réelles sur (Ω, P(Ω)).

Preuve. Exercice

Exemple 3.1 On lance un dé cubique dont les faces sont numérotées de 1 à 6. On appelle
X le numéro obtenu et Y son complémentaire à 6 (c’est-à-dire 6 − X).
Déterminer les v.a.r. X + Y , X − 12 Y , sup(X, Y ).

3.1.2 Evènements associés et Notations


Définition 3.2 Soit X une v.a.r. discrète définie sur un espace probabilisé (Ω, F, p).
- Soit x un réel. L’événement (X = x), encore noté X ∈ {x}, est le pré-image de {x}
par X c’est-à-dire l’ensemble

X −1 ({x} = {w ∈ Ω; X(w) = x}.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Fonction de répartition 22

- Pour tout intervalle I, l’événement (X ∈ I), encore noté X −1 (I) est l’ensemble

X −1 (I) = {w ∈ Ω; X(w) ∈ I}

(Comprendre par X ∈ I qu’il s’agit ici de l’ensemble discrète des valeurs possibles
que X peut prendre dans l’intervalle I).
- Soit a et b deux réels. L’événement (a < X ≤ b) encore noté X ∈]a, b] est l’ensemble

X −1 (]a, b]) = {w ∈ Ω; X(w) ∈]a, b]}.

- Soit x un réel. L’événement (X ≤ x) (événement associé à l’ensemble discret des


valeurs inférieures à x que X peut prendre) encore noté (X ∈]−∞, x]) est l’ensemble

X −1 (] − ∞, x]) = {w ∈ Ω; X(w) ∈] − ∞, x]}.

D’une manière générale, on a :

Théorème 3.1 Soit X une variable aléatoire réelle sur un espace probabilisé fini (Ω, P(Ω), p).
Pour toute partie A de R, l’ensemble X −1 (A) est un évènement.

Preuve.
X −1 (A) = {w ∈ Ω; X(w) ∈ A} est un sous-ensemble de Ω donc un évènement.

3.1.3 Loi de probabilité


Définition 3.3 Soit X une v.a.r. discrète définie sur l’espace probabilisé (Ω, P(Ω), p) telle
que X(Ω) = {x1 , x2 , ..., xn } avec x1 < x2 < ... < xn .
On appelle distribution ou loi de probabilité de X l’ensemble des couples (xi , pi )1≤i≤n
où xi ∈ X(Ω) et pi = p(X = xi ).

Exemple 3.2 Soit Ω = {w1 , w2 , w3 , w4 , w5 } un ensemble fini. On définit sur l’espace proba-
bilisable (Ω, P(Ω)) la probabilité uniforme. Considérons la v.a.r. X définie sur (Ω, P(Ω), p)
par X(w1 ) = X(w5 ) = 0, X(w2 ) = X(w4 ) = 1 et X(w3 ) = 2.
Déterminer la loi de probabilité de la v.a.r. X.

3.1.4 Fonction de répartition


Définition 3.4 On appelle fonction de répartition de la v.a.r. X, l’application F définie
sur R, à valeurs dans [0, 1], par :

F : R −→ [0, 1]
x 7−→ F (x) = p(X < x).
où p(X < x) = p(X < xi ) représente la probabilité de toutes les réalisations strictement
X

x<xi

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Fonction de répartition 23

inférieures au réel x.
Si X(Ω) = {x1 , x2 , ..., xn } avec x1 < x2 < ... < xn , alors la fonction F est définie par :

∀ x ∈] − ∞, x1 ], F (x) = p(X < x) = 0


∀ x ∈]x1 , x2 ], F (x) = p(X < x) = p(X = x1 )
∀ x ∈]x2 , x3 ], F (x) = p(X < x) = p(X = x1 ) + p(X = x2 )
. ...
. ...
j
∀ x ∈]xj , xj+1 ], F (x) = p(X < x) = p(X = xi )
X

i=1
∀ x ∈]xn , +∞[, F (x) = p(X < x) = 1

Exemple 3.3 Dans l’exemple précédent, déterminer et représenter graphiquement la fonc-


tion de répartition de la v.a.r.X.

Proposition 3.2
1. La fonction de répartition d’une variable aléatoire discrète réelle X est croissante
et continue à gauche en chacun de ses points de discontinuité. En tout point de
discontinuité x0 ,

F (x0 + 0) − F (x0 ) = p(X = x0 ) = pX (x0 ).

2. On a :
lim F (x) = 0 et lim F (x) = 1.
x→−∞ x→+∞

3. La fonction de répartition caractérise la loi : si deux variables aléatoires ont la même


fonction de répartition, alors elles ont la même loi.

Exemple 3.4 Une urne contient quatre boules indiscernables au toucher numérotées de 1
à 4. On tire successivement avec remise deux boules de cette urne. On note X1 le numéro
de la première boule tirée et par X2 celui de la deuxième boule tirée. On désigne par
Y = sup(X1 , X2 ) le plus grand des deux numéros tirés et leur différence par Z = X2 − X1 .
1. Déterminer la loi de probabilité puis la fonction de répartition de la v.a.r. Y .
2. Déterminer la loi de probabilité puis la fonction de répartition de la v.a.r. Z.

Proposition 3.3 Soit F une fonction définie sur R à valeurs dans [0, 1] vérifiant les pro-
priétés suivantes :
1. F est croissante ;
2.
lim F (x) = 0 et lim F (x) = 1.
x→−∞ x→+∞

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Moments d’ordre k avec k ∈ N∗ 24

3. F est continue à gauche en chacun de ses points de continuité.


Alors F est la fonction de répartition d’une variable aléatoire réelle X. La loi de probabilité
de X est :

∀ j ∈ {1, 2, ..., n − 1}, p(X = xj ) = F (xj+1 ) − F (xj ) et p(X = xn ) = 1 − F (xn ).

Exemple 3.5 Montrer que la fonction F , définie par :

0 si x ≤ 1




2


si 1 < x ≤ 2



6


F (x) =
5
si 2 < x ≤ 4


6






1 si x > 1,

est une fonction de répartition d’une v.a.r dont on déterminera la loi de probabilité.

3.2 Indépendante de deux variables aléatoires réelles


Définition 3.5 Soit X et Y deux v.a.r. définies sur un espace probabilisé fini (Ω, P(Ω), p).
On dit que X et Y sont indépendantes pour la probabilité p si pour tout (x, y) ∈ X(Ω)×Y (Ω)
les événements (X = x) et (Y = y) sont indépendants. En d’autres termes, si les v.a.rX
et Y sont indépendantes alors pour tout x ∈ X(Ω) et tout y ∈ Y (Ω) alors

p [(X = x) ∩ (Y = y)] = pX (x) ∗ pY (y) = p(X = x) ∗ p(Y = y).

Exemple 3.6 En reprenant l’exemple précédent, montrer que les variables X1 et X2 sont
indépendantes et que, les variables Y et Z ne le sont pas.

3.3 Moments d’une variable aléatoire discrète réelle


3.3.1 Moments d’ordre k avec k ∈ N∗
Définition 3.6 Soit X une v.a.r. discrète finie de loi de probabilité {(xi , pi ); 1 ≤ i ≤ n}
et k un entier naturel non nul. On appelle moment d’ordre k de X, le nombre réel noté
mk (X) défini par :
n
mk (X) = pi (xi )k
X

i=1

Exemple 3.7 Déterminer le moment d’ordre 3 de la v.a.r.X de loi de probabilité :

xi −2 −1 0 1
pi = p(X = xi ) 16 1
3
1
3
1
6

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Variance et écart-type d’une v.a.r. 25

3.3.2 Espérance mathématique


L’espérance mathématique d’une variable aléatoire X ne dépend que de la loi de X et
indique la valeur moyenne autour de laquelle X prend ses valeurs.
Définition 3.7 L’espérance mathématique ou la moyenne d’une v.a.r. discrète X est
égale au moment d’ordre 1 de X qu’on note souvent E(X) :
n
E(X) = m1 (X) =
X
p i xi
i=1

Proposition 3.4 Soit X et Y deux v.a.r. sur un espace probabilisé (Ω, P(Ω), p), α et β
deux nombres réels.
- E(α) = α
- E(αX + β) = αE(X) + β
- E(αX + βY ) = αE(X) + βE(Y )
En particulier, si X et Y sont indépendants alors E(XY ) = E(X)E(Y ).

3.3.3 Moments centrés d’ordre k avec k ∈ N∗


Définition 3.8 Soit X une v.a.r. de loi de probabilité {(xi , pi ); 1 ≤ i ≤ n} et E(X) sa
moyenne. On associe à X une nouvelle variable X − E(X) appelé variable aléatoire
réelle centré.
Soit k un entier naturel non nul. Le moment d’ordre k de X − E(X), la v.a.r. centrée
associée à X, est appelée moment centré d’ordre k de X ; c’est le nombre réel noté
µk (X) défini par :
n h i
µk (X) = pi (xi − E(X))k = E (X − E(X))k
X

i=1

Exemple 3.8 Déterminer le moment centré d’ordre 1 de la v.a.r.X de loi de probabilité :


xi −2 −1 0 1
pi = p(X = xi ) 16 1
3
1
3
1
6

3.3.4 Variance et écart-type d’une v.a.r.


La variance permet de mesurer la dispersion des valeurs de X autour de son espérance
mathématique.
Définition 3.9
- La variance d’une v.a.r.X est le nombre réel positif ou nul égal au moment centré
d’ordre 2 de X et souvent notée V (X) :
n h i
V (X) = pi (xi − E(X))2 = E (X − E(X))2 .
X

i=1

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Inégalités de Markov et de Bienaymé-Tchebychev 26

- L’écart-type de X, noté σ(X) ou σX , est donné par la racine carrée de la variance


de X : q
σ(X) = V (X).
Proposition 3.5 Soit X une v.a.r. définie sur un espace probabilisé (Ω, P(Ω), p), α et β
deux nombres réels.
- V (α) = 0,
- V (X) = E(X 2 ) − (E(X))2 où pour tout entier naturel non nul k, E(X k ) = mk (X)
- V (αX + β) = α2 V (X),
- σ(αX + β) = |α|σ(X).
Définition 3.10 Pour toute variable aléatoire X, on appelle variable centrée réduite la
variable aléatoire
X − E(X)
Y = .
σ(X)
Alors, on a : E(Y ) = 0 et V (Y ) = 1.

3.4 Fonction d’une variable aléatoire réelle discrète


Proposition 3.6 Soit X une v.a.r discrète sur un espace probabilisé fini (Ω, P(Ω), p) et
g une application de X(Ω) dans R. Alors g ◦ X est une variable aléatoire discrète notée
g(X). L’ensemble des valeurs possibles de g(X) est Im(g) et sa loi de probabilité est :
∀ y ∈ Im(g), p (g(X) = y) = px∈g−1 ({y}) (X = x).
Théorème 3.2 Soit X une v.a.r discrète sur un espace probabilisé fini (Ω, P(Ω), p), de loi
{(xi , pi )/1 ≤ i ≤ n} et g une application de X(Ω) dans R. Alors l’espérance de la variable
aléatoire Y = g(X) est :
n
E (g(X)) = g(xi )p(X = xi ).
X

i=1

3.5 Inégalités de Markov et de Bienaymé-Tchebychev


Proposition 3.7 (Inégalité de Markov)
Soit X une v.a.r définie sur un espace probabilisé fini (Ω, P(Ω), p), à valeurs positives.
Alors, pour tout réel a > 0 :
E(X)
p (X ≥ a) ≤ .
a
Proposition 3.8 (Inégalité de Bienaymé-Tchebychev)
Soit X une v.a.r définie sur un espace probabilisé fini (Ω, P(Ω), p). Alors, pour tout réel
a strictement positif, on a :
V (X)
p (|X − E(X)| ≥ a) ≤ .
a2
Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020
Covariance de deux variables 27

Exemple 3.9 Si l’on sait seulement que la pluviométrie annuelle dans une zone A du
bénin vaut en moyenne 800mm avec un écart type de 100mm. Quelle est la probabilité
minimale qu’il pleuve entre 600 et 1000mm une année ?

3.6 Covariance de deux variables


Définition 3.11 Soit X et Y deux variables aléatoires discrètes réelles sur un espace
probabilisé fini (Ω, P(Ω), p). On appelle covariance de X et Y noté Cov(X, Y ) et donnée
par :
Cov(X, Y ) = E [(X − E(X)) (Y − E(Y ))] = E(XY ) − E(X)E(Y ).

Proposition 3.9 Soit X, Y , Z trois variables aléatoires réelles discrètes sur un même
espace probabilisé (Ω, P(Ω), p) et a, b des réels. On a :
1. V (aX + bY ) = a2 V (X) + b2 V (Y ) + 2abCov(X, Y ) ;
2. Cov(X, X) = V (X) ;
3. Cov(X, Y ) = Cov(Y, X) (symétrie) ;
4. Cov(aX + bY, Z) = aCov(X, Z) + bCov(Y, Z) (linéarité à gauche)
5. si X et Y sont indépendantes alors cov(X, Y ) = 0.

Exercices
Exercice 3.1.
On considère quatre lettres et quatre enveloppes correspondantes. On met au hasard
les quatre lettres dans les enveloppes et on désigne par X la variable aléatoire égale au
nombre de lettres qui atteindront leur destinataire.
1. Décrire un univers adapté à cette expérience.
2. Déterminer X(Ω) puis la loi de X et son espérance mathématique.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Covariance de deux variables 27

Exercice 3.2. Soit n ∈ N∗ . On définit les réels (pi )1≤i≤2n−1 par


∀i ∈ J1; nK, pi = λi et ∀i ∈ Jn + 1; 2n − 1K, pi = λ(2n − i)
où λ est un nombre réel fixé.
1. Pour quelle valeur de λ ces réels définissent-ils la loi d’une variable aléatoire X à
valeurs dans J1; 2n − 1K ? On suppose désormais que λ est égal à cette valeur.
2. Démontrer que X et 2n − X ont la même loi. En déduire E(X).
3. Calculer directement E(X 2 ) et en déduire V (X).
Exercice 3.3. Soit un espace probabilisé fini (Ω, T, P ). On appelle indicatrice d’un évè-
nement A la variable aléatoire 1A définie par
(
1 si ω ∈ A
∀ω ∈ Ω 1A (ω) =
0 sinon.
1. Démontrer que si A et B sont deux évènements
(a) 1A = 1 − 1A ;
(b) 1A∩B = 1A × 1B ;
(c) 1A∪B = 1A + 1B − 1A × 1B ;
(d) E(1A ) = P (A) ;
(e) V ar(1A ) = P (A)(1 − P (A)).
2. Soit (Ak )1≤k≤n une famille de n évènements.
P
(a) Que représente la variable aléatoire nk=1 1Ak ?
(b) Quel est le nombre moyen d’évènements réalisés ?
3. Parmi les 2n personnes formant n couples, m personnes décèdent.
(a) En moyenne combien de couples ont survécu ?
(b) Déterminer l’écart-type du nombre de couples ayant survécu.
Exercice 3.4. Un livre contient k erreurs typographiques. Lors de la relecture une erreur
a la probabilité p de ne pas être détecté par un lecteur attentif (et il y a indépendance
entre la détection des différentes erreurs).
1. Calculer le nombre moyen d’erreurs non détectées.
2. Calculer ensuite cette espérance si le texte est soumis à N relectures (attentives !)
indépendantes successives. Qu’en est-il si les relectures sont simultanées ?
Exercice 3.5. Soit X une variable aléatoire discrète de support J0; nK.
Pn
1. Démontrer que E(X) = P (X ≥ k).
k=1
n 
Pn P
2. Démontrer que E(X ) = E(X) + 2
2
P (X ≥ i) .
k=2 i=k
3. On suppose que ∀k ∈ J0; nK, P (X = k) = λpk , avec λ > 0 et p ∈]0, 1[.
(a) Déterminer λ en fonction de n et p.
(b) Calculer E(X) et E(X 2 ).
(c) En déduire lim E(X) et lim V (X).
n→+∞ n→+∞

Introduction à la modélisation probabiliste F. Djibril Moussa ©MIA1-FAST-UAC-2018-2019


Chapitre Quatre

Lois discrètes usuelles

Pour trouver un modèle décrivant un ensemble de données, il est nécessaire de connaı̂tre


parfaitement les lois statistiques les plus utilisées. Le choix d’une loi est lié :
- à la nature du phénomène étudié afin de choisir entre loi discrète et loi continue,
- à la forme de la distribution (histogramme),
- à la connaissance et à l’interprétation des principales caractéristiques de l’ensemble
de données : espérance, médiane, variance, écart-type, etc.,
- au nombre de paramètres des lois, une loi dépendant de plusieurs paramètres peut
s’adapter plus facilement à une distribution.

4.1 Loi uniforme


Définition 4.1 La loi uniforme sur [1; n] est la loi de probabilité d’une variable aléatoire
X prenant chaque valeur de l’ensemble {1, 2, ..., n} avec la même probabilité :
1
P (X = k) = , pour tout entier k compris entre 1 et n.
n
Plus généralement, soit Ω un ensemble fini de cardinal n. La loi de probabilité équidistribuée
ou uniforme sur Ω est la loi définie sur Ω par la probabilité :
1
P ({ω}) = , pour tout élément ω de Ω.
n
Pour toute partie finie A de Ω, on a :
card(A)
P (A) = .
card(Ω)

Remarque 4.1 On note X U(n) pour signifier que la v.a.r X suit une loi uniforme
sur [1; n].

Proposition 4.1 Soit X une v.a.r qui suit la loi uniforme sur [1; n]. Alors,

n+1 n2 − 1
E(X) = et V (X) =
2 12
Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020
Loi binomiale 30

Exemple 4.1
1. On lance un dé parfaitement équilibré, on note X le numéro obtenu après stabilisa-
tion. Alors X U(6).
2. On effectue un tirage dans une urne contenant n boules numérotées de 1 à n. On
note X le numéro de la boule tirée. Alors, X U(n).

4.2 Loi de Bernoulli


4.2.1 Epreuve de Bernoulli
On appelle épreuve de Bernoulli, toute épreuve ayant deux issues possibles l’une
d’elles étant appelée ”succès” de probabilité p et l’autre ”échec” de probabilité q = 1 − p.
Le réel p est appelée probabilité de succès.

Exemple 4.2 Une urne contient a boules rouges et b boules vertes.On tire au hasard une
boule de cette urne et on suppose que l’on réalise le succès lorsqu’une boule verte est tirée
et l’échec lorsqu’une boule rouge est tirée. Il s’agit d’une épreuve de Bernoulli.

4.2.2 Loi de Bernoulli


À toute épreuve de Bernoulli, on associée une variable aléatoire réelle X prenant la
valeur 1 pour le succès et la valeur 0 pour l’échec, avec les probabilités respectives p et
1 − p = q. Cette variable est appelée variable de Bernoulli et on note X B(1, p). La loi
de probabilité d’une variable de Bernoulli est définie par :

P (X = 1) = p et P (X = 0) = 1 − p = q.

Proposition 4.2 Soit X une v.a.r qui suit la loi de Bernoulli de paramètre p (X B(1, p)).
Alors,
E(X) = p et V (X) = p(1 − p).

Exemple 4.3 Déterminer la loi de la v.a.r X valant 0 si on tire une boule rouge et 1 si on
tire une boule verte de l’épreuve de Bernoulli de l’exemple précédent ainsi que sa moyenne
et sa variance.

4.3 Loi binomiale


On répète n fois une épreuve de Bernoulli, les répétitions étant indépendantes. La
variable aléatoire X qui représente le nombre de succès obtenus, peut prendre les valeurs
0, 1, 2, ..., n, et suit une loi binomiale de paramètres n et p, où p est la probabilité de
succès de l’épreuve de Bernoulli. On note X B(n, p).

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Loi géométrique 31

Proposition 4.3
1. Soit X une v.a.r qui suit la loi de binomiale de paramètres n et p (X B(n, p)).
Alors,
pour tout k ∈ {0, 1, 2, ..., n}, P (X = k) = Cnk pk (1 − p)n−k .
De plus,
E(X) = np et V (X) = np(1 − p).

2. Si X B(n1 , p) et X B(n2 , p) sont deux v.a.r indépendantes, alors la v.a.r

(X1 + X2 ) B(n1 + n2 , p).

Exemple 4.4
1. Un quadrimoteur est un avion possédant quatre moteurs identiques. Ces moteurs
tombent en panne avec probabilité p. Un tel avion peut terminer son vol si la moitié
de ses moteurs fonctionnent. On note X la variable aléatoire qui compte le nombre
de moteurs tombés en panne. Quelle est la probabilité que le quadrimoteur tombe en
panne ? On sait que X B(4, p).
2. On lance 5 pièces équilibrés et on note X le nombre de piles obtenus. Alors, X
B(5, 21 ).
3. On lance n dés et on note X le nombre de 1 obtenus. Alors, X B(4, 61 ).

4.4 Lois voisines de la loi binomiale


4.4.1 Loi géométrique
On effectue de façon répétée une même épreuve de Bernoulli, jusqu’à obtenir un succès,
les répétitions étant indépendantes. Soit X la variable aléatoire égale au nombre d’épreuves
de Bernoulli nécessaires pour obtenir le premier succès. Les valeurs possibles de X sont les
entiers naturels non nuls. On a donc X(Ω) = N ∗ = {1, 2, ..., n, ...}. On dit que X suit la
loi géométrique de paramètre p et on note X GN ∗ (p).

Définition 4.2 Soit p ∈]0; 1[ donné.


On dit qu’une v.a.r. X suit la loi géométrique de paramètre p (notée GN ∗ (p)), lorsque
X prend les valeurs n ∈ N∗ avec les probabilités

P (X = n) = p(1 − p)n−1 .

Proposition 4.4 Soit X une v.a.r qui suit la loi géométrique de paramètre p (X
GN ∗ (p)) avec 0 < p < 1. Alors,
1 1−p
E(X) = et V (X) = .
p p2

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Loi hypergéométrique 32

Exemple 4.5 Considérons un dé cubique parfaitement équilibré dont les faces sont numérotées
de 1 à 6. Soit X la v.a.r. égale au nombre de jets nécessaires pour obtenir pour la première
fois 6.
1. Quelles sont les valeurs possibles de X ?
2. Déterminer la probabilité pour que l’on obtienne 6 pour la première fois au 6ème
jet.
3. Calculer l’espérance mathématique et l’écart type de X.

4.4.2 Loi de Pascal


On peut généraliser la loi géométrique sur N ∗ : le nombre de répétitions d’une expérience
de Bernoulli nécessaires pour observer n succès est une variable aléatoire X qui suit une
loi de Pascal de paramètres n et p (notée Pa (n, p)). Cette loi est la somme des n lois
géométriques indépendantes.

Définition 4.3 Soit p ∈]0; 1[ donné.


On dit qu’une v.a.r. X suit la loi de Pascal de paramètres n et p (X Pa (n, p)),
lorsque X prend les valeurs k ∈ {n, n + 1, ...} avec les probabilités

P (X = k) = Ck−1 p (1 − p)k−n .
n−1 n

Proposition 4.5 Soit X une v.a.r. suivant la loi de Pascal de paramètres n et p (X


Pa (n, p)) avec 0 < p < 1. Alors,

n n(1 − p)
E(X) = et V (X) = .
p p2

Exemple 4.6 Considérons un dé cubique parfaitement équilibré dont les faces sont numérotées
de 1 à 6. Soit X la v.a.r. égale au nombre de jets nécessaires pour obtenir quatre fois 6.
1. Quelles sont les valeurs possibles de X ?
2. Déterminer la probabilité pour que l’on obtienne quatre fois 6 au cours des dix pre-
miers jets.
3. Calculer l’espérance mathématique et l’écart type de X.

4.5 Loi hypergéométrique


4.5.1 Loi hypergéométrique
On effectue n tirages successifs sans remise dans une urne contenant N objets dont
N1 (N1 6= 0) objets a. La variable aléatoire X qui à ces n tirages associe le nombre k d’objets
a tirés, suit la loi hypergéométrique de paramètres (N, n, N1 ), notée H(N, n, N1 ).

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Loi de Poisson 33

Définition 4.4 Soit N , n et N1 des entiers naturels tels que n ≤ N et N1 ≤ N . On dit


qu’une variable aléatoire X suit la loi hypergéométrique H(N, n, N1 ), lorsque X prend les
valeurs entières k comprises entre max(0, n − N + N1 ) et min(n, N1 ) avec le probabilités :

C k C n−k

 N1 N −N1 si k ∈ [max(0, n − N + N1 ); min(n, N1 )]


P (X = k) =  CNn
0 sinon

Proposition 4.6 Soit X une v.a.r qui suit la loi hypergéométrique de paramètres (N, n, N1 )
(X H(N, n, N1 )). Alors,

N −n N1
E(X) = np et V (X) = np(1 − p) où p = .
N −1 N

Le réel N −n
N −1
est le facteur d’exhaustivité.

Exemple 4.7 Dans une P M E sont employés 6 ouvriers et 5 employés. Le P DG sou-


haitant prendre l’avis du personnel interroge 7 personnes choisies au hasard parmi ces 11
personnes. Soit X la variable aléatoire égale au nombre d’ouvriers interrogés.
1. Quelle sont les valeurs possibles de X ?
2. Quelle est la probabilité d’interroger 4 ouvriers ?

4.5.2 Approximation d’une loi hypergéométrique par une loi bi-


nomiale
Si N est assez grand ou si n est assez petit par rapport à N alors le facteur d’exhaustivité
N −n
N −1
tend vers 1 et V (X) = np(1 − p) N −n
N −1
tend vers np(1 − p). On admettra que la variable
aléatoire X de loi hypergéométrique H(N, n, N1 ), suit approximativement la loi binomiale
B(n, p).
NB : En pratique, l’approximation peut se faire lorsque Nn < 0, 1.

4.6 Loi de Poisson


4.6.1 Loi de Poisson
Définition 4.5 Soit λ un réel strictement positif donné.
Une variable aléatoire réelle X suit la loi de Poisson de paramètre λ (X P(λ)) si
elle peut prendre toutes les valeurs entières k avec la probabilité :

λk −λ
P (X = k) = e .
k!
Proposition 4.7

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Approximation d’une loi binomiale par une loi de Poisson 34

1. Soit X une v.a.r qui suit la loi de Poisson de paramètre λ (X P(λ)). Alors,

E(X) = V (X) = λ.

2. Si X P(λ1 ) et X P(λ2 ) sont deux v.a.r indépendantes, alors la v.a.r

(X1 + X2 ) P(λ1 + λ2 ).

Exemple 4.8 Un magasin spécialisé reçoit en moyenne 4 clients par jour, le nombre de
clients étant distribué selon une loi de Poisson. Calculer la probabilité que le magasin soit
visité le mercredi par :
1. aucun client ;
2. 5 clients ;
3. au moins 6 clients.

4.6.2 Approximation d’une loi binomiale par une loi de Poisson


La loi binomiale B(n, p) peut-être approchée par la loi de Poisson P(λ), (avec λ = np)
si les trois conditions suivantes sont réalisées :
1. n est grand. En pratique on prend n ≥ 30.
2. p est petit. En pratique, on prend p ≤ 0, 1.
3. np n’est pas trop grand. En pratique, on prend np ≤ 15.

Exercices
Exercice 4.1.
Une entreprise fabrique et commercialise des produits de consommation courante en
très grand nombre. Il y a une probabilité constante égale à 0, 1 qu’un article choisi au
hasard dans la production ne satisfasse pas aux normes imposées.
1. On prélève au hasard 10 articles. Calculer la probabilité qu’il y ait au moins un
article non conforme parmi ces dix articles.
2. On prélève au hasard 50 articles. Soit X 1 le nombre d’articles non conformes parmi
ces 50 articles :
(a) Indiquer la loi suivie par X1 (on justifiera avec soin le résultat).
(b) Montrer que cette loi peut être approchée par une loi que l’on précisera.
(c) A l’aide de cette loi, calculer la probabilité qu’il y ait au plus 5 articles non
conformes parmi les 50 articles.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Approximation d’une loi binomiale par une loi de Poisson 35

Exercice 4.2.
On désigne par X la variable aléatoire qui représente le nombre de boules blanches
obtenues après trois tirages sans remise dans une urne qui contient deux boules noires et
huit boules blanches. Déterminer sa loi de probabilité puis calculer E(X) et V (X).

Exercice 4.3.
Une petite imprimerie vend des cartes de visite par paquets de 100. Il arrive parfois
qu’une carte échappe à l’impression. On note X le nombre de cartes toutes blanches dans
un paquet. On suppose que X suit une loi de Poisson de paramètre 1, 5.
1. Jean a commandé un paquet. Quelle est la probabilité qu’il y trouve :
(a) zéro carte blanche ?
(b) une seule carte blanche ?
(c) plus de deux cartes banches ?
2. Quels sont l’espérance et l’écart-type de X ?
3. Quelle est la valeur la plus probable de X ?
4. Seuls les paquets contenant plus de 4 cartes blanches font parfois l’objet d’une
réclamation. En moyenne, 10% de ces paquets sont rapportés chez l’imprimeur. Sur
10.000 paquets vendus, combien, en moyenne, seront rapportés ?
5. Jeanne a commandé 5 paquets de 100 cartes de visite. Quelle est la probabilité
qu’elle ait exactement 8 cartes blanches ?

Exercice 4.4.
On lance une pièce de monnaie supposée équilibrée n (n ∈ N∗ ) fois de suite.
1. Déterminer l’espérance et la variance de la variable aléatoire représentant le fréquence
de Face obtenus.
2. A l’aide de l’inégalité de Bienaymé-Tchebychev, trouver une condition suffisante sur
l’entier n pour que la fréquence de Face obtenus soit strictement comprise entre 0, 4
et 0, 6 avec une probabilité supérieure ou égale à 0, 95.

Exercice 4.5.
Dans une population de N individus, dont N1 sont d’un type T , on effectue des tirages
successifs et sans remise (un individu à la fois) jusqu’à obtenir n (n ∈ [1, N1 ]) individus
du type T . Soit Z le nombre de tirages effectués. Pour tout k dans [n, N ], on note :
Ak l’évènement :”on obtient un individu du type T au k − ème tirage” ;
Ak−1 l’évènement :”on obtient n − 1 individus du type T aux k − 1 premiers tirages”
(n ≥ 2) ;
Xk−1 le nombre d’individus du type T obtenus aux k − 1 premiers tirages” (n ≥ 2).

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Approximation d’une loi binomiale par une loi de Poisson 36

1. Déterminer la loi de probabilité de Xk−1 , E(Xk−1 ) et V ar(Xk−1 ).


2. Exprimer l’évènement Bk1 en fonction de Xk1 et en déduire P (Bk1 ).
3. Déterminer P (Ak |Bk1 ).
 n−1 N −n  
Ck−1 CN 1−k
4. En déduire que la loi de probabilité de Z est : k, N , k ∈ [n, N ] .
CN 1

5. Déterminer CN −k .
n−1 N1 −n
PN
k=n Ck−1

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020


Bibliographie

1. Probabilités, 70 exercices corrigés avec résumé de cours, Maurice Gaulthier, Vuibert,


collection les sciences en fac.
2. Probabilités pour la prépa, Paul Pichaureau, Impri’vert ; 2013.
3. Probabilités pour Scientiques et ingénieurs, Patrick BOGAERT, Édition de Boeck.
4. Probabilités, (Mathématiques pour l’informatique) François BRODEAU et Guy RO-
MIER, Édition Armand Colin..
5. Probabilités, Analyse des données et Statistiques, Gilbert SAPORTA, Édition Tech-
nip ; 1990.

Introduction à la modélisation stochastique Freedath MOUSSA & Ganiou ATINDEHOU ©MIA1-FAST-UAC-2019-2020

Vous aimerez peut-être aussi