Vous êtes sur la page 1sur 44

Cours de Probabilités

L1/IFRI
2018-2019

Jonas Doumate & Carlos Ogouyandjou


Institut de Formation et de Recherche en Informatique (IFRI)
Université d’Abomey-Calavi (UAC)

12 janvier 2019
Table des matières

1 Eléments de théorie des ensembles et d’analyse combinatoire 4


1.1 Généralités et opérations sur les ensembles . . . . . . . . . . . . . . . . . . 4
1.1.1 Notion sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Applications entre ensembles . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Produit cartésien d’ensembles . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Cardinal d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Dénombrements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Espaces probabilisés, conditionnement et indépendance 13


2.1 Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Espace probabilisable ou mesurable . . . . . . . . . . . . . . . . . . 13
2.1.2 Mesure de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.3 Notion d’expérience aléatoire et langage probabiliste . . . . . . . . 16
2.2 Probabilité uniforme sur un ensemble fini . . . . . . . . . . . . . . . . . . . 17
2.3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Evènements indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3 Variables aléatoires réelles et caractéristiques 21


3.1 Variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Loi d’une variable aléatoire et quelques caractéristiques utiles . . . . . . . 22
3.2.1 Variable aléatoire réelle discrète . . . . . . . . . . . . . . . . . . . . 23
3.2.2 Variable aléatoire réelle admettant une densité . . . . . . . . . . . . 26
3.2.3 Quelques inégalités utiles . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.4 Formule de transfert et application au calcul de densité . . . . . . . 29
3.3 Fonction génératrice et fonction caractéristique . . . . . . . . . . . . . . . . 30
3.3.1 Fonction génératrice des moments . . . . . . . . . . . . . . . . . . . 30
3.3.2 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . 31

4 Quelques lois classiques usuelles 33


4.1 Lois discrètes d’usage courant . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.2 Loi uniforme sur un ensemble fini de réels . . . . . . . . . . . . . . 33
4.1.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.4 Loi géometrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2
4.1.5 Loi de Pascal ou loi binomiale négative . . . . . . . . . . . . . . . . 36
4.1.6 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.7 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.1.8 Approximation de lois classiques discrètes . . . . . . . . . . . . . . 38
4.2 Lois continues d’usage courant . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1 Loi uniforme sur un intervalle borné . . . . . . . . . . . . . . . . . . 38
4.2.2 Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.3 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.4 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.5 Approximation de lois classiques continues . . . . . . . . . . . . . . 44

3
Chapitre 1

Eléments de théorie des ensembles et


d’analyse combinatoire

1.1 Généralités et opérations sur les ensembles


1.1.1 Notion sur les ensembles
Définition 1.1 (Ensemble). Un ensemble est intuitivement une collection d’objets véri-
fiant une certaine propriété. Étant donnés un ensemble E et un élément x, on écrit x ∈ E
si x est un élément de E. Il existe un unique ensemble ne contenant aucun élement qui
est noté ∅ et appelé ensemble vide.
Définition 1.2 (Partie d’un ensemble). On dit que A est une partie (ou un sous-
ensemble) d’un ensemble E si tout élément de A est aussi un élément de E c’est-à-dire

∀x ∈ A, x ∈ E.

On note A ⊂ E et on appelle P(E), l’ensemble des parties de E (on dit aussi des sous
ensembles de E) et on peut écrire

P(E) = {A/ A ⊂ E}.

Naturellement, ∅ et E sont des éléments de P(E).


Définition 1.3. Soient A et B deux éléments de P(E).
1. Complémentaire : {A c
E = E − A = E\A = Ā = A = {x ∈ E/ x ∈
/ A}.
2. Différence symétrique : A∆B = (A\B) ∪ (B\A).
3. Réunion : A ∪ B = {x ∈ E/ x ∈ A ou x ∈ B}.
4. Intersection : A ∩ B = {x ∈ E/ x ∈ A et x ∈ B}.
5. Soient I un ensemble quelconque d’indices (fini ou non) et (Ei )i∈I une famille de
parties de E.
(a) On définit :
[ \
Ei = {x/ ∃i ∈ I, x ∈ Ei } et Ei = {x/ ∀i ∈ I, x ∈ Ei }.
i∈I i∈I

4
(b) On dit que (Ei )i∈I est une partition de E si :
Ej = ∅ pour tous (i, j) ∈ I 2 avec i 6= j.
[ \
E= Ei et Ei (1.1)
i∈I

Proposition 1.1. Soient A, B et C trois éléments quelconques de P(E). On a les pro-


prités suivantes :
1. La commutativité de la réunion : A ∪ B = B ∪ A ;
2. L’associativité de la réunion : (A ∪ B) ∪ C = A ∪ (B ∪ C) ;
3. La commutativité de l’intersection : A ∩ B = B ∩ A ;
4. L’associativité de l’intersection : (A ∩ B) ∩ C = A ∩ (B ∩ C) ;
5. La distributivité de la réunion par rapport à l’intersection : (A ∪ B)∩C = (A ∩ C)∪
(B ∩ C) ;
6. La distributivité de l’intersection par rapport à la réunion : (A ∩ B)∪C = (A ∪ C)∩
(B ∪ C) ;
 
7. Ā = A ;
8. (A ∪ B) = Ā ∩ B̄ ;
9. (A ∩ B) = Ā ∪ B̄ ;
10. Si A ⊂ B, alors on a :
B̄ ⊂ Ā, A ∪ B = B et A ∩ B = A.
Les résultats précédents s’étendent à des réunions et des intersections finies.
Proposition 1.2. Soient I un ensemble quelconque d’indices (fini ou non) et (Ei )i∈I une
famille de parties de E.
1. L’intersection et l’union sont distributives l’une par rapport à l’autre : Pour toute
partie F de l’ensemble E, on a
! !
[ [ \ \
F∩ Ei = (Ei ∩ F ) et F∪ Ei = (Ei ∪ F ).
i∈I i∈I i∈I i∈I

2. Le passage au complémentaire échange réunions et intersections à travers les for-


mules suivantes :
!c !c
Eic Eic .
\ [ [ \
Ei = et Ei = (1.2)
i∈I i∈I i∈I i∈I

1.1.2 Applications entre ensembles


Définition 1.4. Soient deux ensembles E et F , f une application définie de E dans F.
À chaque élément x de E on associe donc un élément y de F ; on note y = f (x).
1. L’application f permet de définir une application notée toujours f définie de P(E)
dans P(F ) de la manière suivante : pour tout A ∈ P(E),
[
f (A) = {f (x)}.
x∈A

5
2. On dit que f est injective si tout élément de F est l’image d’au plus un élément de
E.
3. On dit que f est surjective si tout élément de F est l’image d’au moins un élément
de E.
4. On dit que f est bijective si elle est injective et surjective.
5. L’ensemble des applications de E dans F est noté F E ou F(E, F ).
6. À tout ensemble A ⊂ E, on définit la fonction caractéristique ou fonction indica-
trice, notée 1A ou χA , explicitant l’appartenance ou non de tout élément de E au
sous-ensemble A de la manière suivante :
1A : E → ( R
1 si x∈A (1.3)
x 7→
0 si x∈
/ A.

On note que l’ensemble des parties de E est en bijection avec l’ensemble des appli-
cations de E dans {0, 1} et une bijection naturelle est donnée par :

ψ : P(E) → {0, 1}E


A 7→ ψ(A) := 1A

Proposition 1.3. Soient A et B deux éléments quelconques de P(E). On a :


1. f (A) = ∅ ⇐⇒ A = ∅;
2. A ⊂ B =⇒ f (A) ⊂ f (B);
3. f (A ∪ B) = f (A) ∪ f (B);
4. f (A ∩ B) ⊂ f (A) ∩ f (B);
5. f (Ā) ⊂ f (A).
Certains des résultats s’étendent à des réunions et des intersections finies 1 .
6. 1Ac = 1 − 1A
7. 1A∩B = min{1A , 1B } = 1A × 1B
8. 1A∪B = max{1A , 1B } = 1A + 1B − 1A × 1B
9. 1A∆B = 1A + 1B − 2(1A × 1B )
Définition 1.5. Soient deux ensembles E et F , f une application définie de E dans F.
Pour chaque V ⊂ F , on appelle image réciproque de V par f , l’ensemble noté f −1 (V )
défini par :
f −1 (V ) = {x ∈ E/ f (x) ∈ V } . (1.4)
Proposition 1.4. Soient f une application de E dans F, A une partie de E, et soient
V , W deux parties de F. On a :
1. V ⊂ W =⇒ f −1 (V ) ⊂ f −1 (W );
2. f −1 (V ∪ W ) = f −1 (V ) ∪ f −1 (W );
3. f −1 (V ∩ W ) = f −1 (V ) ∩ f −1 (W );
1. Par exemple, si A1 , A2 , . . . , An sont des parties de E alors 1∩n A = 1A i
Qn
i=1 i i=1

6
4. f −1 (V̄ ) = f −1 (V );
5. A ⊂ f −1 (f (A)) ;
6. f (f −1 (V )) ⊂ V.
7. Si (Vi )i∈I est une famille d’éléments de F , on a toujours :
!
−1
f −1 (Vi )
[ [
(a) f Vi =
i∈I i∈I
!
(b) f −1 f −1 (Vi )
\ \
Vi =
i∈I i∈I

1.2 Ensembles finis


1.2.1 Produit cartésien d’ensembles
Définition 1.6.
1. Soient E et F deux ensembles non vides. On définit le produit cartésien de deux
ensembles E et F noté E × F par :

E × F := {(x, y)/ x ∈ E et y ∈ F }. (1.5)

En particulier, si E = F alors le produit cartésien E × E est simplement noté E 2


et peut être utilisé pour représenter les applications d’un ensemble à deux éléments
dans E.
2. Plus généralement, si E1 , E2 , . . . , En sont des ensembles on peut définir le produit
cartésien de ces ensembles comme

E1 × E2 · · · × En := {(x1 , x2 , . . . , xn )/ xi ∈ Ei pour tout i ∈ J1, nK} . (1.6)

En particulier, E n est l’ensemble des n-uplets 2 ou listes de longueur n d’éléments


de E et peut représenter l’ensemble de toutes les applications d’un ensemble à n
éléments 3 dans E.

1.2.2 Cardinal d’un ensemble


Définition 1.7.
1. Un ensemble E est dit fini s’il est vide, ou s’il existe un entier naturel non nul n
et une bijection de J1; nK sur E.
2. Si E 6= ∅, l’entier naturel n est appelé cardinal de E. On note card E = n. Par
convention, card ∅ = 0.

Définition 1.8. On dira que deux ensembles non vides E et F ont le même cardinal si
et seulement si il existe une bijection entre E et F .
2. Dans un n-uplet, il peut y avoir des répétitions.
3. Par exemple, l’ensemble des applications de {1, . . . , n} dans E.

7
Nous allons supposé les ensembles non vides pour éviter de nous retrouver dans des
situations de logiques un peu délicates.
Proposition 1.5. Si deux ensembles finis non vides E et F ont le même cardinal, alors
il existe une bijection entre E et F .
Démonstration. Si E et F ont le même cardinal, disons n, alors il existe une bijection ϕ
de E sur J1; nK et une bijection ψ de J1; nK sur F . Alors ψ ◦ ϕ est une bijection de E sur
F.
Remarque 1.1. Dénombrer un ensemble fini non vide E, c’est déterminer le card E,
c’est-à-dire le nombre de ses éléments. Trois conditions doivent être remplies pour que le
dénombrement de E soit correct :
1. il ne faut compter que les éléments de E ;
2. il ne faut pas en oublier ;
3. il ne faut pas compter certains éléments de E plusieurs fois.
Néanmoins, si par une méthode chaque élément de E est compté k fois, card E est le
quotient par k du nombre obtenu par cette méthode.
Théorème 1.1 (Théorème de dénombrement). Soient E un ensemble fini. Si F est un
ensemble tel qu’il existe une bijection de E sur F , alors F est un ensemble fini et
card E = card F.
Démonstration. Désignons par ϕ la bijection E sur F . Si n est le cardinal de l’ensemble
fini E, il existe donc une bijection ψ de J1; nK sur E. L’application ϕ ◦ ψ est une bijection
de J1; nK sur F .
Corollaire 1.1. Pour déterminer le cardinal d’un ensemble fini E, il suffit de le décrire
en établissant une bijection entre l’ensemble E et un ensemble bien connu.
Théorème 1.2 (Principe d’addition). Soient E et F deux ensembles finis disjoints. Alors,
E ∪ F est un ensemble fini et
card (E ∪ F ) = card E + card F.
Démonstration. Posons n = card E et m = card F . Soient ϕ une bijection de J1; nK sur
E et ψ une bijection de J1; mK sur F .
Définissons l’application γ entre J1; n + mK et E ∪ F par :
γ : J1; n + mK −→ ( E∪F
ϕ(k) si 1 ≤ k ≤ n
k 7−→ γ(k) =
ψ(k − n) si n + 1 ≤ k ≤ n + m
L’application γ est surjective, puisque
γ (J1; nK) = E et γ (Jn + 1; n + mK) = F.
Donc
E ∪ F = γ (J1; nK) ∪ γ (J1 + n; n + mK) ⊂ γ (J1; n + mK) .
De plus, elle est injective. En effet, si deux entiers k et k 0 vérifient γ(k) = γ(k 0 ), alors ou
bien γ(k) ∈ E, auquel cas ϕ−1 (γ(k)) = ϕ−1 (γ(k 0 )) implique k = k 0 ; ou bien γ(k) ∈ F et
on trouve aussi k = k 0 en appliquant ψ −1 .

8
Le résultat suivant se généralise par récurrence à l’union disjointe de plusieurs en-
sembles finis.

Corollaire 1.2. Soient E1 , E2 , · · · , Ep des ensembles finis disjoints deux à deux, où p est
un entier naturel au moins égal à 2. Alors E1 ∪ E2 ∪ · · · ∪ Ep est un ensemble fini et
p
X
card (E1 ∪ E2 ∪ · · · ∪ Ep ) = card (Ek ). (1.7)
k=1

En particulier, si A1 , A2 , · · · , Ap est une partition d’un ensemble E, on a :


p
X
card (E) = card (Ak ). (1.8)
k=1

Le principe d’addition permet de démontrer plusieurs propriétés utiles du cardinal.

Théorème 1.3. Soient E un ensemble fini. Toute partie A de E est finie et

card A ≤ card E.

Démonstration. Faisons un raisonnement par récurrence sur n =card E ;


1. Si n = 0 alors A est vide et son cardinal est 0 ; si n = 1 c’est-à-dire que E = {x},
alors soit A = ∅ ou bien A = {x}. Le théorème est donc vrai dans ces deux cas.
2. Au rang n ≥ 1, supposons que le théorème s’applique aux ensembles de cardinal
n. Démontrons qu’il s’applique également pour un ensemble E de cardinal n + 1.
Soit à présent A un sous-ensemble de E et x un élément de E. Posons :

A1 = A ∩ {x} et A2 = A \ {x}.

Il est clair que A1 et A2 sont deux ensembles disjoints et que A = A1 ∪ A2 . L’en-


semble A1 est un sous-ensemble de {x} ; donc card A1 ≤ card {x} = 1. D’autre
part, A2 ⊂ E \ {x} qui est de cardinal au n. Donc A2 est fini et son cardinal est
au plus n par hypothèse de récurrence. Par suite A est un ensemble fini et son
cardinal est au plus n + 1.

Proposition 1.6. Si A et B sont deux parties d’un ensemble fini E, on a 4 :


1. Si A et B sont disjoints, on a Card (A ∪ B) = Card A + Card B.
2. Card (A − B) = Card A − Card (A ∩ B).
3. Card (Ā) = Card E − Card A.
4. Card (A ∪ B) = Card A + Card B − Card (A ∩ B).
4.
— S’il existe une injection de A dans B alors card A ≤ card B.
— S’il existe une surjection de A sur B alors card A ≥ card B.
— S’il existe une bijection A et B alors card A = card B.

9
Proposition 1.7. Soient E et F deux ensembles finis.
1. E × F est un ensemble fini et

card (E × F ) = (card E) · (card F ) . (1.9)

La généralisation à plusieurs ensembles est directe 5 .


1A (x).
X
2. Si A ⊂ E alors card A =
x∈E

3. card F(E, F ) = (card F )card E et card P(E) = 2card E .

Exercice 1.1. Montrer que si A et B sont deux parties d’un ensemble fini E, on a :

1 − 1A∪B = (1 − 1A )(1 − 1B )

et en déduire que 6

card (A ∪ B) = card A + card B − card (A ∩ B). (1.11)

1.3 Dénombrements
Définition 1.9 (p-liste d’éléments d’un ensemble). On appelle p-liste d’un ensemble
E à n éléments, tout élément de E p , c’est-à-dire toute suite de p éléments de E. Le nombre
de p-listes de l’ensemble E est np .

Remarque 1.2.
— L’ordre des éléments de la p-liste est important ; c’est-à-dire : deux p-listes conte-
nant les mêmes éléments dans des ordres différents sont différentes.
— Une p-liste peut contenir plusieurs fois le même élément.
— Une p-liste est aussi appelée p-uplet.

Exemple 1.1. Soit E = {a, b, c, d, e} .


— (a, b, b) et (e, c, d) sont des 3-listes d’éléments de E.
— (e, c, d) et (c, e, d) sont des 3-listes différentes.
Qn
5. Si (Ei )i=1,···,n est une famille d’ensembles finis, alors i=1 Ei est un ensemble fini et

n
! n
Y Y
card Ei = (card Ei ) .
i=1 i=1

En particulier, si E est un ensemble fini,


k
card E k = (card E)


pour tout entier naturel non nul k.


6. Une généralisation de la formule (1.11) est donnée par :
n
X X
card (A1 ∪ · · · ∪ An ) = (−1)k−1 card (Ai1 ∩ · · · ∩ Aik ). (1.10)
k=1 1≤i1 <···<ik ≤n

10
Définition 1.10 (p-liste d’éléments distincts d’un ensemble ou arrangement).
1. Une p-liste d’éléments distincts d’un ensemble fini E est aussi appelée arrangement
de p éléments de E.
2. Si Card E = n, une n-liste d’éléments distincts de E est une permutation de E.
Proposition 1.8. Soit E un ensemble fini de cardinal n. On note Apn le nombre de p-listes
d’éléments distincts de E. On a :
n!
Apn = n(n − 1)(n − 2) · · · (n − p + 1) = (1.12)
(n − p)!
où n! est le produit de tous les entiers naturels non nuls au plus égaux à n. On a
n
Y
n! = k (1.13)
k=1

et par convention 0! = 1.
Exercice 1.2. Soient A et B deux ensembles finis avec card A = p et card B = n.
1. Montrer que le cardinal de l’ensemble I des applications injectives de A vers B
est : (
n(n − 1) · · · (n − p + 1) si p ≤ n
card I =
0 si p > n
2. En déduire le nombre de bijection 7 de A vers A.
Définition 1.11 (Combinaison). Le nombre !de sous-ensemble à p éléments d’un en-
n
semble fini E de cardinal n est noté {pn ou et égal à :
p


 0 si p>n
{pn = n(n − 1) · · · (n − p + 1) n! (1.14)
 = si 0 ≤ p ≤ n.
p! p!(n − p)!

Exercice 1.3. Soit 1 ≤ k ≤ n.


1. Donner une preuve avec calculs de chacune des relations suivantes :
{kn = {n−k
n et {kn = {kn−1 + {k−1
n−1 (triangle de Pascal).

2. En déterminant de deux façons différentes le nombre de manières de former un


comité de k personnes, dont un président, choisies parmi les n membres d’une
association, démontrer l’égalité
k{kn = n{k−1
n−1

et en déduire l’identité n
k{kn = n2n−1 .
X

k=1
Exercice 1.4. On considère le polynôme à une indéterminée P (X) = (1+X)n où n ∈ N∗ .
n
1. Montrer en utilisant la formule du binôme de Newton que (1 + X)n = {kn X k .
X

k=0
n n
2. En déduire les relations 2n = {kn et n2n−1 = k{kn .
X X

k=0 k=0
7. On l’appelle aussi le nombre de permutations de A vers A.

11
1.4 Ensembles dénombrables
Définition 1.12. Un ensemble est dit dénombrable s’il est en bijection avec un sous-
ensemble de l’ensemble des entiers naturels N.

Remarque 1.3. Un ensemble dénombrable est fini ou en bijection avec N.

On a les résultats suivants :

Proposition 1.9.
1. Soient E et F deux ensembles.
(a) S’il existe une injection de E dans F et si F est dénombrable alors E est aussi
dénombrable.
(b) S’il existe une surjection de E dans F et si E est dénombrable alors F est aussi
dénombrable.
2. Si (Ei )i∈I est une famille dénombrable d’ensembles dénombrables alors :
[
(a) l’ensemble Ei est un ensemble dénombrable et
i∈I
Y
(b) l’ensemble Ei est dénombrable si I est fini.
i∈I
3. Les ensembles N, Z et Q sont dénombrables.
4. L’ensemble des nombres réels R et l’ensemble des nombres irrationnels ne sont pas
dénombrables.

12
Chapitre 2

Espaces probabilisés,
conditionnement et indépendance

2.1 Espaces probabilisés


2.1.1 Espace probabilisable ou mesurable
Définition 2.1 (Tribu). Soit Ω un ensemble non vide. Une tribu, ou σ-algèbre, sur Ω
est tout sous-ensemble F de P(Ω) qui contient l’ensemble vide, est stable par passage au
complémentaire et est stable par union dénombrable, i.e.
— ∅∈F
— pour tout A ∈ F, on a Ac ∈ F [
— pour toute famille dénombrable (Ai )i ∈ I d’éléments de F, on a Ai ∈ F.
i∈I

Exemple 2.1. Soit Ω un ensemble quelconque non vide.


1. F0 = {∅, Ω} est une tribu sur Ω appelée tribu grossière.
2. F1 = P(Ω) est une tribu sur Ω appelée tribu discrète.
3. Pour toute partie non vide A de Ω telle que A 6= Ω, F = {∅, A, Ac , Ω} est une tribu
sur Ω.

Remarque 2.1.
— L’ensemble Ω est toujours élément de la tribu 1 .
— Une intersection dénombrable d’éléments de la tribu est aussi un élement de la
tribu.
— Si A et B sont deux éléments d’une tribu alors A\B et A∆B sont aussi des élé-
ments de la tribu.

Proposition 2.1.
1. L’intersection d’une famille quelconque de tribus sur Ω est une tribu sur Ω.
2. La réunion de deux tribus sur Ω n’est pas nécessairement une tribu sur Ω. Par
exemple, considérer Ω = {a, b, c} et F1 = {∅, {a}, {b, c}, Ω} et F2 = {∅, {b}, {a, c}, Ω}.
1. Ceci permet de dire que pour toute tribu F sur Ω, on a toujours {∅, Ω} ⊂ F ⊂ P(Ω).

13
Démonstration. Exercice.
Définition 2.2 (Espace probabilisable). On appelle espace mesurable ou probabilisable,
tout couple (Ω, F) où Ω est un ensemble non vide et F est une tribu sur Ω. Les éléments
de F sont appelés des ensembles mesurables.

2.1.2 Mesure de probabilités


Définition 2.3 (Mesure de probabilité). Soient Ω un ensemble non vide et F une tribu
sur Ω. On appelle probabilité (ou mesure de probabilité) sur (Ω, F), toute application P
de F dans [0, 1] vérifiant 2 :
1. P(Ω) = 1
2. Pour toute suite (An )n∈N∗ d’éléments deux à deux disjoints de F, on a 3 :
 
[ X
P An  = P(An ). (2.1)
n∈N∗ n∈N∗

Le triplet (Ω, F, P) est appelé espace probabilisé et les éléments de F sont ainsi appelés
des évènements.
Exemple 2.2. Soit (Ω, P(Ω)) un espace probabilisable.
1. Masse de Dirac : Soit ω ∈ Ω. L’application définie par

δω : P(Ω) → ( [0, 1]
1 si ω ∈ A (2.2)
A 7→
0 si ω 6∈ A

est une probabilité sur (Ω, P(Ω)) appelée masse de Dirac en ω.


2. Somme pondérée de probabilités : Soient (Pi )i∈J1,nK une suite finie de pro-
babilités sur (Ω, P(Ω)) et (λi )i∈J1,nK une suite finie de nombres réels positifs avec
n
X
λi = 1. Alors l’application définie par
i=1

n
X
P := λi Pi
i=1

est aussi une probabilité sur (Ω, P(Ω)).


3. Probabilité discrète : Soient (ωn )n∈N∗ X une suite d’éléments de Ω et (λn )n∈N∗ une
suite de nombres réels positifs telle que λn = 1. Alors l’application définie par
n∈N∗
X
P := λn δωn
n∈N∗

est une probabilité sur (Ω, P(Ω)) appelée probabilité discrète.


2. Ces propriétés sont dites Axiomes de Kolmogorov.
3. Cette propriété s’appelle la σ-additivité.

14
Proposition 2.2. Soit (Ω, F, P) un espace probabilisé. On a les propriétés suivantes :
1. P(∅) = 0
2. Additivité finie : Soit (Ai )i∈J1,nK une suite finie d’éléments deux à deux disjoints
de F. Alors
n n
!
[ X
P Ai = P(Ai ). (2.3)
i=1 i=1

En conséquence, si A et B sont deux éléments de F alors :

A ∩ B = ∅ =⇒ P(A ∪ B) = P(A) + P(B) (2.4)


P(B\A) = P(B) − P(A ∩ B) (2.5)
A ⊂ B =⇒ P(B\A) = P(B) − P(A) (2.6)
P(Ac ) = 1 − P(A). (2.7)

3. Croissance : Si A et B sont deux éléments de F alors

A ⊂ B =⇒ P(A) ≤ P(B). (2.8)

4. Pour A et B deux éléments de F, on a 4 :

P(A ∪ B) = P(A) + P(B) − P(A ∩ B). (2.10)

5. Sous-additivité : Soit (Ai )i∈J1,nK une suite finie d’éléments de F. Alors


n n
!
[ X
P Ai ≤ P(Ai ). (2.11)
i=1 i=1

En conséquence, si A et B sont deux éléments de F alors :

P(A ∪ B) ≤ P(A) + P(B). (2.12)

6. Sous σ-additivité : Pour toute suite (An )n∈N∗ d’éléments de F, on a :


 
[ X
P An  ≤ P(An ). (2.13)
n∈N∗ n∈N∗

7. Continuité monotone 5 séquentielle : Soit (An )n∈N∗ d’éléments de F.


4. Une version plus générale de cette égalité est donnée par la formule de Poincaré : si (Ai )i∈J1,nK
avec n ≥ 1 est une suite finie d’éléments de F alors on a
n
X X
P(A1 ∪ · · · ∪ An ) = (−1)k−1 P(Ai1 ∩ · · · ∩ Aik ). (2.9)
k=1 1≤i1 <···<ik ≤n

5. La monotonie d’une suite d’ensembles est bien entendu prise au sens de l’inclusion.

15
[
(a) Si la suite (An )n∈N∗ est croissante, en posant B = An , alors la suite (P(An ))n
n∈N
qui est croissante et majorée, converge vers P(B), i.e.

lim P(An ) = P(B). (2.14)


n→+∞

\
(b) Si la suite (An )n∈N∗ est décroissante, en posant C = An , alors la suite
n∈N
(P(An ))n qui est décroissante et minorée, converge vers P(C), i.e.

lim P(An ) = P(C). (2.15)


n→+∞

Démonstration. Exercice.

2.1.3 Notion d’expérience aléatoire et langage probabiliste


Définition 2.4 (Expérience aléatoire). On appelle expérience aléatoire, toute épreuve
dont l’issue est dûe au hasard mais dont on connait tous les résultats possibles.

Exemple 2.3. Une pièce de monnaie comporte deux faces ”tête” que l’on notera T et
”franc” F. On sait que l’ensemble de tous les résultats possibles au terme d’un lancer de
cette pièce est Ω = {T, F }. Mais avant l’opération de lancer de la pièce, on ne peut pas
dire avec certitude une issue. On a donc une expérience aléatoire.

Exemple 2.4. On considère un dé cubique dont les faces sont numérotées de 1 à 6. On


jette ce dé et on observe après immobilisation le chiffre apparu à sa face supérieure. L’en-
semble de tous les résultats possibles au terme d’un lancer de ce dé est Ω = {1, 2, 3, 4, 5, 6}.
Mais avant l’opération de lancer de la pièce, on ne peut pas dire avec certitude une issue.
On a donc une expérience aléatoire.

Soit (Ω, F, P) un espace probabilisé. Nous avons le langage probabiliste suivant :

• L’ensemble Ω est appelé univers des possibles ou espace des épreuves ou encore
espace des états. Il représente l’ensemble de tous les résultast possibles d’une ex-
périence aléatoire.
• Chaque élément de Ω est appelé éventualité et est souvent noté ω.
• Les éléments de F sont appelés des évènements 6 .
• Les singletons {ω} sont appelés des évènements élémentaires.
• L’ensemble vide ∅ est dit évènement impossible et la partie pleine Ω est appelé
évènement certain.
• Si ω est une épreuve et A un évènement, alors on dit que l’évènement A est réalisé
dans l’épreuve ω si et seulemnt si ω ∈ A.
• Pour tout A ∈ F, le nombre P(A) est la probabilité de l’évènement A.
• L’évènement contraire d’un évènement A est l’évènement noté A qui représente le
complémentaire de A dans Ω. C’est donc l’évènement qui est réalisé lorsque A ne
l’est pas et qui ne l’est pas lorsque A l’est.
6. Un évènement est un fait attaché à une expérience aléatoire et susceptible ou non de se produire.

16
• Soient A et B deux évènements d’un phénomène aléatoire ; alors l’évènement
”A et B” est l’évènement qui comporte uniquement les éléments qui assurent à
la fois la réalisation de A et de B. Donc l’évènement ”A et B” peut se représenter
par A ∩ B.
• Deux évènements sont dits incompatibles lorsqu’ils ne peuvent pas être réalisés à
la fois. Donc A et B sont incompatibles 7 lorsque A ∩ B = ∅.
• L’évènement ”A ou B” est réalisé si et seulement si l’un au moins des deux évène-
ments A ou B est réalisé au cours de la même expérience aléatoire. Donc l’évène-
ment ”A ou B” peut se représenter par A ∪ B.
• Un évènement A tel que P(A) = 0 est dit évènement presque impossible.
• Un évènement A tel que P(A) = 1 est dit évènement presque certain.
Remarque 2.2. Les espaces probabilisables les plus simples et couramment utilisés sont
ceux dont la tribu considérée sur Ω est la tribu discrète F = P(Ω).

2.2 Probabilité uniforme sur un ensemble fini


Théorème et Définition 2.1. Soit Ω = {ω1 , ω2 , . . . , ωn } un snsemble et considérons la
n
X
tribu P(Ω) sur Ω. En se donnant n nombres réels positifs p1 , p2 , . . . , pn tels que pi = 1,
i=1
1. l’application
P : P(Ω) → [0, 1]
X (2.16)
A 7→ P(A) = pi
{i∈J1,nK/ωi ∈A}

est une probabilité sur (Ω, P(Ω)).


2. Lorsque les réels pi sont tous égaux (dans ce cas, on dit qu’on est dans la condition
déquiprobabilité), on a p1 = p2 = · · · = pn = n1 et on dit que la probabilité définie
dans (2.16) est une probabilité uniforme et pour tout A ∈ P(Ω),
X card {i ∈ J1, nK/ωi ∈ A} card A
P(A) = pi = = (2.17)
{i∈J1,nK/ωi ∈A}
n card Ω

Remarque 2.3.
— Il y a équiprobabilité, lorsque les probabilités de tous les évènements élémentaires
sont égales.
— S’il y a équiprobabilité, pour tout évènement A, on a :
card A nombre de cas favorables à la réalisation de A
P(A) = = . (2.18)
card Ω nombre de cas possibles
Exercice 2.1.
1. On jette un dé cubique dont les faces sont numérotées de 1 à 6 et on lit après
immobilisation le chiffre apparu à sa face supérieure.
7. Par exemple, les évènements contraires A et A sont incompatibles car A ∩ A = ∅. Mais deux
évènements incompatibles ne sont pas nécessairement contraires.

17
(a) Sachant que le dé est parfaitement équilibré, quelle est la probabilité d’obtenir
un chiffre pair ?
(b) Sachant que le dé est truqué de sorte que chaque face ait une probabilité d’appa-
rution proportionnelle au numéro qu’elle porte, quelle est la probabilité d’obtenir
un numéro pair ?
2. Une urne contient 9 boules numérotées de 1 à 9. On tire simultanément deux boules
de cette urne ; sachant que les boules sont indiscernables au toucher, quelle est la
probabilité d’obtenir deux boules portant des numéros de parité différentes ?

2.3 Probabilités conditionnelles


Théorème et Définition 2.2. Soient (Ω, F, P) un espace probabilisé et A un évènement
vérifiant P(A) > 0. On considère l’application PA définie sur F par :

P(A ∩ B)
∀B ∈ F, PA (B) := . (2.19)
P(A)

Alors PA est une probabilité sur (Ω, F), appelée probabilité conditionnelle relative à
l’évènement A. On note également PA (B) = P(B/A) = P(B|A) et on lit probabilité de
B sachant A.

Démonstration. Exercice.

Remarque 2.4. La probabilité conditionnelle relative à un évènement étant une probabi-


lité, elle jouit de toutes les propriétés d’une mesure de probabilité quelconque.

Proposition 2.3 (Formule des probabilités totales 8 ). Soit (An )n∈I une famille au
plus dénombrable (finie ou non) d’évènements de l’espace probabilisé (Ω, F, P) formant
une partition 9 de Ω avec P(An ) > 0 pour tout n. Alors pour tout B ∈ F, on a :
X
P(B) = P(An ) × P(B/An ). (2.20)
n∈I

Démonstration. Exercice.

Proposition 2.4 (Formule de Bayes). Soit (An )n∈I une famille au plus dénombrable
d’évènements de l’espace probabilisé (Ω, F, P) formant une partition de Ω avec P(An ) > 0
pour tout n. Alors pour tout B ∈ F tel que P(B) > 0 et pour tout n, on a :

P(An ) × P(B/An )
P(An /B) = X . (2.21)
P(Am ) × P(B/Am )
m∈I

Démonstration. Exercice.
8. Encore appelée formule des causes.
9. On dit aussi que la famille (An )n∈I forme un système complet d’évènements.

18
Exercice 2.2. Dans une boutique, on s’intéresse au comportement d’un acheteur potien-
tiel d’un téléviseur et d’un lecteur de DVD. La probabilité pour qu’il achète un téléviseur
est de 0, 6. La probabilité pour qu’il achète un lecteur de DVD quand il a acheté un télé-
viseur est de 0, 4 et la probabilité qu’il achète un lecteur de DVD quand il n’a pas acheté
un téléviseur est de 0, 2. On définit les événements suivants :
T : « le client achète un téléviseur » et L : « le client achète un lecteur de DVD ».
1. Quelle est la probabilité pour qu’il achète un téléviseur et un lecteur de DVD ?
2. Quelle est la probabilité pour qu’il achète un lecteur de DVD ?
3. Le client achète un lecteur de DVD. Quelle est la probabilité qu’il achète un télé-
viseur ?

2.4 Evènements indépendants


Définition 2.5. (Ω, F, P) un espace probabilisé. Deux évènements A et B sont dits indé-
pendants (pour la probabilité P) si :

P(A ∩ B) = P(A) × P(B). (2.22)

Exercice 2.3. (Ω, F, P) un espace probabilisé.


1. Démontrer que si A et B sont deux évènements indépendants 10 (pour la probabilité
P), alors il en est de même pour chacun des pairs d’évènements suivants : « A et
B c », « Ac et B », « Ac et B c ».
2. Que peut-on dire d’un évènement qui est indépendant de lui même ?

Proposition 2.5. Soient (Ω, F, P) un espace probabilisé et A, B deux évènements.


1. Si P(A) 6= 0, on a : A et B indépendants pour la probabilité P si et seulement si

PA (B) = P(B). (2.23)

2. Si P(B) 6= 0, on a : A et B indépendants pour la probabilité P si et seulement si

PB (A) = P(A). (2.24)

Ce qui traduit le fait que la réalisation de l’évènement A n’a aucune influence sur
celle de B à priori et réciproquement.

Remarque 2.5. Deux évènements incompatibles A et B d’un espace probabilisé (Ω, F, P)


qui sont tels que P(A) > 0 et P(B) > 0 ne sont pas indépendants (pour la probabilité P).
En effet,
P(A ∩ B) = P(∅) = 0 mais P(A) × P(B) 6= 0.

Exercice 2.4. Soient Ω = {1, 2, 3, 4, 5, 6}, P1 et P2 deux probabilités définies sur (Ω, P(Ω))
par :
10. Il est à noter que l’indépendance d’évènements est implicitement définit par rapport à une proba-
bilité car deux évènements peuvent être indépendants pour une certaine probabilité définie sur un espace
mesurable sans l’être pour une autre probabilité définie sur le même espace mesurable.

19
k 1 2 3 4 5 6
P1 ({k}) 1/6 1/6 1/3 1/9 1/9 1/9
P2 ({k}) 1/6 1/6 1/6 1/6 1/6 1/6

Considérons les évènements A = {1, 2} et B = {2, 3}.


1. Les évènements A et B sont-ils indépendants pour la probabilité P1 ?
2. Les évènements A et B sont-ils indépendants pour la probabilité P2 ?

Définition 2.6 (Indépendance de n évènements).


1. n évènements A1 , A2 , . . . , An d’un espace probabilisé (Ω, F, P) sont deux à deux
indépendants si pour tous i et j distincts dans {1, 2, . . . , n}, on a :

P(Ai ∩ Aj ) = P(Ai ) × P(Aj ). (2.25)

2. n évènements A1 , A2 , . . . , An d’un espace probabilisé (Ω, F, P) sont mutuellement


indépendants si pour tout ensemble I d’indices choisis dans {1, 2, . . . , n}, on a :
!
\ Y
P Ai = P(Ai ). (2.26)
i∈I i∈I

Remarque 2.6. n évènements mutuellement indépendants sont deux à deux indépen-


dants. Mais n évènements peuvent être deux à deux indépendans sans être mutuellement
indépendants.

Exercice 2.5. On lance deux fois un dé cubique parfaitement équilibré. On considère les
évènements suivants :
A1 : ”le premier nombre obtenu est pair”
A2 : ”le deuxième nombre obtenu est impair”
A3 : ”la somme des deux nombres obtenus est pair”
1. Les évènements A1 , A2 , A3 sont-ils deux à deux indépendants ?
2. Les évènements A1 , A2 , A3 sont-ils mutuellement indépendants ?

20
Chapitre 3

Variables aléatoires réelles et


caractéristiques

Dans tout ce qui suit, on suppose que (Ω, F, P) est un espace probabilisé.

3.1 Variables aléatoires réelles


Définition 3.1 (Variable aléatoire réelle). Une variable aléatoire réelle ou variable
aléatoire (v.a.r. ou v.a.) est toute application X : Ω → R telle que pour tout intervalle I
de R, l’ensemble
X −1 (I) = {ω ∈ Ω/ X(ω) ∈ I} (3.1)
appartient à la tribu F définie sur Ω. L’ensemble X(Ω) est alors appelé espace fondamental
ou univers image de la variable aléatoire 1 .

Remarque 3.1. Lorsque F = P(Ω), alors toute application défine de Ω dans R est une
variable aléatoire.

Proposition 3.1. Soit X :→ R une application et a, b deux réels. Alors les propriétés
suivantes sont équivalentes :
1. X est une variable aléatoire.
2. Pour tout intervalle I de R de la forme I =] − ∞, a], on a X −1 (I) ∈ F.
3. Pour tout intervalle I de R de la forme I =]a, b], on a X −1 (I) ∈ F.
4. Pour tout intervalle I de R de la forme I =]a, b[, on a X −1 (I) ∈ F.
5. Pour tout intervalle I de R de la forme I =] − ∞, a[, on a X −1 (I) ∈ F.
6. Pour tout intervalle I de R de la forme I = [a, +∞[, on a X −1 (I) ∈ F.
7. Pour tout intervalle I de R de la forme I =]a, +∞[, on a X −1 (I) ∈ F.
8. Pour tout intervalle I de R de la forme I =]a, b[, on a X −1 (I) ∈ F.
9. Pour tout intervalle I de R de la forme I = [a, b], on a X −1 (I) ∈ F.
1. Ici, l’ensemble R est muni de la tribu dite borélienne notée B(R), qui est la tribu engendrée par (i.e.
la plus petite au sens de l’inclusion contenant) l’ensemble des ouverts ou des fermés de R et la propriété
(3.1) traduit la mesurabilité de l’application X.

21
Démonstration. Exercice.

Définition et Notation 3.1. Soit X : Ω → R une variable aléatoire réelle. Alors pour
tout A ⊂ R, l’ensemble
{ω ∈ Ω/ X(ω) ∈ A} (3.2)

est appelé évènement lié à la variable aléatoire X et noté {X ∈ A} ou [X ∈ A].

Exemple 3.1. Pour tout A ∈ F, la fonction indicatrice de A est une variable aléatoire
et on a :
1. L’espace fondamental est 1A (Ω) = {0, 1}.
2. On a les évènements suivants : [1A = 1] = A, [1A = 0] = Ac et [1A ∈ R] = Ω.

Proposition 3.2 (Construction de v.a.r.).


1. Soit (Xn )n∈N∗ une suite de variables aléatoires définie sur (Ω, F). Alors les applica-
tions Z := sup Xn (resp. Z := inf Xn ) et T := lim sup Xn (resp. T := lim inf Xn )
n≥1 n≥1 n→+∞ n→+∞
sont des variables aléatoires. En particulier, si pour tout ω ∈ Ω, la suite de réels
(Xn (ω))n converge vers X(ω) alors X est aussi une variable aléatoire.
2. Si Y1 , Y2 ,. . .,Yn sont des v.a.r. sur (Ω, F) et f : Rn → R est une application
continue alors Z := f (Y1 , Y2 , . . . , Yn ) est une variable aléatoire et en particulier,
pour tout λ ∈ R et tous (i, j) ∈ J1, nK2 , les applications λYi , Yi + Yj et Yi × Yj sont
aussi des variables aléatoires.

Démonstration. Exercice.

Corollaire 3.1.
1. Si X : Ω → R est une variable aléatoire réelle et f : R → R une application
continue alors l’application Y : Ω → R définie par Y := f ◦ X est une variable
aléatoire réelle qu’on note Y = f (X).
2. Si X et Y sont deux variables aléatoires sur (Ω, F) et a, b deux réels alors les
applications Z := max(X, Y ), T := min(X, Y ) et aX + bY sont aussi des variables
aléatoires.

3.2 Loi d’une variable aléatoire et quelques caracté-


ristiques utiles
Définition 3.2. Soit X : Ω → R une variable aléatoire réelle. L’application 2 qui à tout
intervalle I de R associe le réel P({X ∈ I}) que nous noterons simplement P(X ∈ I), est
appelée la loi de X et souvent notée pX .
2. L’application pX := P ◦ X −1 définit une probabilité sur (R, B(R)) et est encore appelée probabilité
image de P par X.

22
3.2.1 Variable aléatoire réelle discrète
Définition 3.3 (Variable aléatoire discrète). On dit qu’une v.a.r. X : Ω → R est dis-
crète lorsque son espace fondamental X(Ω) est au plus dénombrable (fini ou dénombrable).
Dans ce cas, on peut écrire X(Ω) = {x1 , x2 , . . . xn , . . .} avec x1 < x2 < · · · < xn < · · · et
la loi de probabilité (ou simplement loi) de X est donnée pour tout I ⊂ R par :
X
pX (I) = P(X ∈ I) = P(X ∈ I ∩ X(Ω)) = P(X = x). (3.3)
x∈I∩X(Ω)

Remarque 3.2.
— Lorsque l’espace fondamental X(Ω) est fini, la variable aléatoire X est dite discrète
et finie. X
— Il est facile de vérifier que P(X = x) = 1.
x∈X(Ω)
— Dans la pratique, la loi de probabilité d’une v.a.r. discrète est la donnée de X(Ω)
et des réels pX ({x}) = P(X = x) i.e les couples (x, P(X = x))x∈X(Ω) .

Exemple 3.2. On lance trois fois de suite, une pièce de monnaie et on désigne par X la
variable aléatoire réelle égale au nombre de "tête" obtenu. La loi de probabilité de X est
donné par :

x 0 1 2 3
pX ({x}) 1/8 3/8 3/8 1/8

Remarque 3.3. Deux variables aléatoires peuvent avoir la même loi sans être égales.

• Fonction de répartition d’une variable aléatoire réelle discrète

Définition 3.4. On appelle fonction de répartition de la v.a.r. discrète X, la fonction


FX définie sur R par :

∀x ∈ R, FX (x) = pX (] − ∞, x]) = P(X ≤ x). (3.4)

On a ainsi, X
∀x ∈ R, FX (x) = P(X = xk ). (3.5)
xk ∈X(Ω)
xk ≤x

Remarque 3.4. x ∈ R 7→ P(X < x) aussi définit aussi la fonction de répartition de la


v.a.r. X.

Théorème 3.1. La fonction de répartition FX d’une v.a.r. discrète X possède les pro-
priétés suivantes 3 .
1. FX à valeurs dans [0, 1] et croissante sur R.
3. Toute fonction définie sur R vérifiant les deux premiers points du théorème peut être considérée
comme fonction de répartition d’une certaine variable aléatoire réelle.

23
2. FX est continue à droite et admet une limite à gauche en tout point. De plus,

lim FX (x) = 0 et lim FX (x) = 1. (3.6)


x→−∞ x→+∞

3. ∀x ∈ R, P(X = x) = FX (x) − F (x− ) = FX (x) − lim+ (x − ε).


ε→0
4. La fonction de répartition d’une v.a.r. caractérise la loi de la variable aléatoire
réelle, i.e. si X et Y sont deux v.a.r. alors, FX = FY si et seulement si, les v.a.r.
X et Y ont la même loi.
5. Si X(Ω) = {x1 , x2 , . . . , xn } avec x1 < x2 < · · · < xn alors la fonction de répartition
FX de X permet de déterminer la loi de probabilité de X : pour tout j ∈ {1, 2, ..., n−
1},
P(X = xj ) = FX (xj+1 ) − FX (xj )
et
P(X = xn ) = 1 − FX (xn ).
Démonstration. Exercice.
Exercice 3.1. Soit X la variable aléatoire définie par X(Ω) = {1, 2, . . . , 12} et pour tout
2x − 1
x ∈ X(Ω), P(X = x) = . Montrer que (x, P(X = x))x∈X(Ω) est bien la loi de
144
probabilité 4 de X puis déterminer la fonction de répartition de X.

• Moments d’une variable aléatoire réelle discrète

Définition 3.5. Soient k ∈ N∗ et X : Ω → R une v.a.r. discrète telle que

|x|k P(X = x) < ∞.


X
(3.8)
x∈X(Ω)

Alors, on définit le moment d’ordre k de la v.a.r. X comme étant le nombre réel

xk P(X = x).
X
mk (X) = (3.9)
x∈X(Ω)

Remarque 3.5. Une v.a.r. discrète et finie admet de moments de n’importe quel ordre
car la condition (3.8) est toujours vérifiée pour tout k ∈ N∗ .
Définition 3.6 (Espérance mathématique). L’espérance mathématique ou moyenne
d’une v.a.r. discrète X est égale au moment d’ordre 1 (lorsqu’il existe) notée E(X) et on
a: X
E(X) = xP(X = x). (3.10)
x∈X(Ω)

4. On pourra utiliser la formules suivante : ∀n ∈ N∗ ,


n
X n(n + 1)
k= . (3.7)
i=1
2

24
Notation 3.1. Le moment d’ordre k ∈ N∗ d’une v.a.r. X lorsqu’il existe peut désormais
se noter E(X k ) en lieu et place de mk (X).
Proposition 3.3. Soient X, Y deux v.a.r. discrètes sur (Ω, F, P) admettant chacune une
espérance mathématique et a, b deux réels.
1. Pour tout α ∈ R, on a E(α) = α.
2. E(aX + bY ) = aE(X) + bE(Y ) et en particulier, E(aX + b) = aE(X) + b.
Remarque 3.6. 5 Lorsqu’une v.a.r. admet une espérance nulle, on dit que la v.a.r. est
centrée.
Définition 3.7 (Variance et écart type). Soit X une v.a.r. discrète admettant un
moment d’ordre 2. Alors on appelle variance de X, le nombre réel positif ou nul noté
V (X) ou V ar(X) et défini par

V ar(X) := E(|X − E(X)|2 ) = (x − E(X))2 P(X = x).


X
(3.11)
x∈X(Ω)

La racine carrée de la variance est appelée écart type de la v.a.r. X et noté σ(X) ou σX .
Remarque 3.7. La variance est ainsi, la moyenne des carrés des écarts de X par rapport
à E(X). Elle mesure le caractère plus ou moins diffus, étalé de la v.a.r. X. Lorsqu’une
v.a.r. admet un écart type égal à 1, on dit que la v.a.r. est réduite.
Proposition 3.4. Soient X une v.a.r. discrète définie sur (Ω, F, P) admettant de variance
et a, b deux réels. Alors
1. V ar(X) = E(X 2 ) − (E(X))2 .
2. V ar(aX + b) = a2 V ar(X).
3. σ(aX + b) = |a|σ(X).
Exercice 3.2. Déterminer l’espérance mathématique et la variance de la v.a.r. définit
dans l’exercice précédent 6 .

• Indépendance de variables aléatoires réelles discrètes

Définition 3.8. Soient X et Y deux variables aléatoires réelles discrètes sur (Ω, F, P).
Elles sont dites indépendantes si et seulement si

∀x ∈ X(Ω) et ∀y ∈ Y (Ω), P((X = x) ∩ (Y = y)) = P(X = x) × P(Y = y). (3.14)


5. Cette remarque et la remarque 3.7 sont valables que la v.a.r. soit discrète ou continue .
6. On pourra utiliser les formules suivantes : ∀n ∈ N∗ ,
n
X n(n + 1)(2n + 1)
k2 = (3.12)
i=1
6
n
X n2 (n + 1)2
k3 = . (3.13)
i=1
4

25
Remarque 3.8. La notion d’indépendance peut se généraliser à une famille quelconque
de variables aléatoires discrètes définies sur le même espace.

Proposition 3.5. Soient X et Y deux v.a.r. discrètes sur (Ω, F, P) admettant chacune
une espérance mathématique. Si X et Y sont indépendantes alors

E(XY ) = E(X) × E(Y ). (3.15)

Démonstration. Exercice.

Proposition 3.6. Soient X et Y deux v.a.r. discrètes sur (Ω, F, P) admettant chacune
une variance. Si X et Y sont indépendantes alors

V ar(X + Y ) = V ar(X) + V ar(Y ). (3.16)

Démonstration. Exercice.

3.2.2 Variable aléatoire réelle admettant une densité


Définition 3.9 (Variable aléatoire absolument continue (ou v.a.r. continue)).
On dit qu’une v.a.r. X : Ω → R admet une densité continue (resp. continue par mor-
ceaux) s’il existe une fonction positive continue (resp. continue par morceaux) fX vérifiant
Z
fX (t) dt = 1 et telle que
R
Z
∀I ⊂ R, pX (I) = P(X ∈ I) = fX (t) dt. (3.17)
I

Remarque 3.9.
1. Il en résulte que pour tout x ∈ R, on a pX ({x}) = 0.
2. Une fonction réelle f est une densité ou densité de probabilité si :
(a) f est continue sur R sauf peut-être en un nombre fini de points,
(b) pour tout x ∈ R, f (x) ≥ 0 et
Z +∞
(c) f (t) dt = 1.
−∞

• Fonction de répartition d’une variable aléatoire réelle continue

Définition 3.10. Soit X une v.a.r. admettant fX pour densité. Alors la fonction de
répartition FX de la v.a.r. X est définie sur R par :
Z x
∀x ∈ R, FX (x) = P(X ≤ x) = P(X ∈] − ∞, x]) = fX (t) dt. (3.18)
−∞

Notons que FX est continue sur R et FX0 (x) = fX (x) en tout point òu FX est dérivable.

Proposition 3.7. Soit X une variable aléatoire réelle admettant une densité notée fX .
On a :

26
1. pour tout a ∈ R, P(X = a) = 0.
2. pour tous réels a et b tels que a < b,

P(a < X < b) = P(a ≤ X < b)


= P(a < X ≤ b)
= P(a ≤ X ≤ b) (3.19)
Z b
= fX (t) dt.
a

3. pour tout réel a, Z a


P(X < a) = P(X ≤ a) = fX (t) dt. (3.20)
−∞

4. pour tout réel b, Z +∞


P(X > b) = P(X ≥ b) = fX (t) dt. (3.21)
b

1 1
Exercice 3.3. On considère la fonction définie sur R par f (x) = . Montrer que
π 1 + x2
la fonction f peut être considérée comme la densité de probabilité d’une certaine variable
aléatoire réelle X et déterminer sa fonction de répartition.

• Moments d’une variable aléatoire à densité

Définition 3.11. Soient k ∈ N∗ et X : Ω → R une v.a.r. admettant une densité fX telle


que Z
|t|k f (t) dt < ∞. (3.22)
R
Alors, on définit le moment d’ordre k de la v.a.r. X comme étant le nombre réel
Z
mk (X) = tk f (t) dt. (3.23)
R

Définition 3.12 (Espérance mathématique). L’espérance mathématique ou moyenne


d’une v.a.r. X admettant une densité fX est égale au moment d’ordre 1 (lorsqu’il existe)
notée E(X) et on a : Z
E(X) = tf (t) dt. (3.24)
R

Définition 3.13 (Variance et écart type). Soit X une v.a.r. de densité fX admettant
un moment d’ordre 2. Alors on appelle variance de X, le nombre réel positif ou nul noté
V (X) ou V ar(X) et défini par
Z
V ar(X) := E(|X − E(X)|2 ) = (t − E(X))2 fX (t) dt. (3.25)
R

La racine carrée de la variance est appelée écart type de la v.a.r. X et noté σ(X) ou σX .
Remarque 3.10.
— Les propriétés établies dans Proposition 3.3 et Proposition 3.4 pour une v.a.r. dis-
crète deumeurent vraies pour une v.a.r. à densité.

27
— Si une v.a.r. (quelle soit discrète ou à densité) n’admet pas d’espérance mathéma-
tique alors elle ne peut admettre de variance.
— A toute variable aléatoire X admettant une espérance mathématique m ∈ R et
un écart type σ > 0, on associe une variable aléatoire centrée réduite définit par
X −m
T := .
σ
Exercice 3.4. Déterminer, lorsqu’elle existe, l’espérance mathématique et la variance de
la v.a.r. définit dans l’exercice précédent.

• Indépendance de variables aléatoires réelles discrètes

Définition 3.14. Soient X et Y deux variables aléatoires réelles à densité définies sur
(Ω, F, P). Elles sont dites indépendantes si et seulement si pour tous x ∈ R et y ∈ R,

P((X ≤ x) ∩ (Y ≤ y)) = P(X ≤ x) × P(Y ≤ y). (3.26)

Remarque 3.11. La notion d’indépendance peut se généraliser à une famille quelconque


de variables aléatoires à densité définies sur le même espace.

Proposition 3.8. Soient X et Y deux v.a.r. à densité sur (Ω, F, P) admettant chacune
une espérance mathématique. Si X et Y sont indépendantes alors

E(XY ) = E(X) × E(Y ). (3.27)

Démonstration. Exercice.

Proposition 3.9. Soient X et Y deux v.a.r. à densité sur (Ω, F, P) admettant chacune
une variance. Si X et Y sont indépendantes alors

V ar(X + Y ) = V ar(X) + V ar(Y ). (3.28)

Démonstration. Exercice.

3.2.3 Quelques inégalités utiles


Théorème 3.2 (Inégalité de Markov). Soit X une variable aléatoire réelle définie sur
l’espace probabilisé (Ω, F, P) admettant un moment d’ordre 1. Alors pour tout λ ∈ R∗+ , on
a:
E (|X|)
P(|X| ≥ λ) ≤ . (3.29)
λ
Plus généralement, pour toute fonction h : R →]0, +∞[ telle que E(h(X)) existe alors
pour tout λ ∈ R∗+ , on a :
E (h(X))
P(h(X) ≥ λ) ≤ . (3.30)
λ
28
Théorème 3.3 (Inégalité de Bienaymé-Tchebychev). Soit X une variable aléa-
toire réelle définie sur l’espace probabilisé (Ω, F, P) admettant un moment d’ordre 2 avec
σ(X) > 0. Alors pour tout λ ∈ R∗+ , on a :

V ar(X)
P(|X − E(X)| ≥ λ) ≤ (3.31)
λ2
ou en version équivalente
1
P(|X − E(X)| ≥ λσ) ≤ (3.32)
λ2

3.2.4 Formule de transfert et application au calcul de densité


Proposition 3.10. Soit X une variable aléatoire définie sur (Ω, F, P).
1. Si X admet pour densité fX alors pour toute fonction φ : R → R continue (ou
Z aléatoire réelle Y := φ(X) admet une espérance
continue par morceaux), la variable
mathématique si et seulement si |φ(x)|fX (x) dx < ∞. Dans ce cas,
R
Z
E(Y ) = E(φ(X)) = φ(x)fX (x) dx. (3.33)
R

2. Si pour toute fonction ψ : R → R continue bornée, on a


Z
E(ψ(X)) = ψ(x)f (x) dx (3.34)
R

alors la variable aléatoire X admet f pour densité de probabilité.


Corollaire 3.2. Soit X une variable aléatoire définie sur (Ω, F, P) à valeurs dans D ⊂ R
qui admet pour densité fX = fX 1D . Supposons que h soit une application bijective et
dérivable de D dans ∆ dont l’application réciproque est aussi dérivable. Alors la v.a.r.
Y := h ◦ X = h(X) a pour densité

fX (h−1 (y))
fY (y) = 1∆ (y). (3.35)
|h0 (h−1 (y))|
Démonstration. En considérant φ : R → R une fonction continue bornée, on a
Z
E(φ(Y )) = E((φ ◦ h)(X)) = φ(h(x))fX (x)1D (x)dx
R

et en faisant le changement de variable x = h−1 (y), on peut écrire


Z
fX (h−1 (y))
E(φ(Y )) = φ(y) 1∆ (y) dy.
R |h0 (h−1 (y))|
Ainsi, d’après le Proposition 3.10, la v.a.r. Y := h ◦ X = h(X) a pour densité

fX (h−1 (y))
fY (y) = 1∆ (y).
|h0 (h−1 (y))|

29
Exemple 3.3. Soit X une v.a.r. qui a pour densité, la fonction
(
1 si x ∈]0, 1[
fX (x) =
0 sinon.

1. On considère la fonction h : ]0, 1[→ R définie pour tout x ∈]0, 1[ par h(x) =
tan π(x − 21 ) et on cherche à déterminer la loi fY de probabilité de la variable
Y = h(X).
1 arctan(y)
Il est facile de vérifier que h est une bijection et ∀y ∈ R, h−1 (y) = + .
2 π
La densité de Y sécrit alors
1
∀y ∈ R, fY (y) = .
π(1 + y 2 )
 
1
2. Intéressons nous à la loi de la variable aléatoire Z = ln X
. Pour cela, considérons
 
1
la fonction h(x) = ln x
avec x ∈]0, 1[. On a bien Z = h(X) et on montre
facilement que la fonction h est une bijection de ]0, 1[ dans R∗+ avec pour tout
z ∈ R∗+ , h−1 (z) = e−z . Par suite, la fonction de densité de probabilité de Z est
alors
fZ (z) = e−z 1R∗+ (z).

3.3 Fonction génératrice et fonction caractéristique


3.3.1 Fonction génératrice des moments
Définition 3.15. Soient X une variable aléatoire réelle définie sur  (Ω, F, P) et t1 , t2
tX
deux nombres réels tels que t1 < 0 < t2 . Si pour tout t ∈ ]t1 , t2 [ ; E e existe alors la
fonction MX définie par :

MX : ]t1 , t2 [ −→ R  
t 7−→ MX (t) = E etX

est appelée fonction génératrice de moments de la variable aléatoire réelle X.


Théorème 3.4. Soit X une variable aléatoire dont la fonction génératrice des moments
MX est définie pour tout t ∈ ]t1 , t2 [ avec t1 < 0 < t2 et a, b deux nombres réels. Alors :
1. Tous les moments de X existent.
2. Pour tout t ∈ ]−s, s[ avec 0 < s < t0 = min (−t1 , t2 ), MX (t) admet un développe-
ment en série entière :
E(X 2 ) 2 E(X k ) k
MX (t) = 1 + E(X)t + t + ··· + t + ··· (3.36)
2! k!
3. Pour tout entier naturel non nul k, on a :
  d
E Xk = MX (0). (3.37)
dtk
30
4. MX+a (t) = eat MX (t).
5. MbX (t) = MX (bt).
a
6. Si b 6= 0 alors M X+a (t) = e b t MX ( bt ).
b

Exercice 3.5. Considérons la v.a.r. X définie sur (Ω, P(Ω), P) par

x −2 −1 0 1 2
pX ({x}) 1/5 1/5 1/5 1/5 1/5

1. Montrer que MX est défini sur R et calculer MX (t) pour tout nombre réel t.
 
2. En déduire E X k pour tout entier naturel non nul k.

Exercice 3.6. Considérons la v.a.r. X de densité de probabilité la fonction f définie par :

f : R −→ R
x 7−→ f (x) = e−x 1]0;+∞[ (x).

1. Montrer que MX est défini pour tout t ∈ ]−∞, 1[ et calculer MX (t).


 
2. En déduire E X k pour tout entier naturel non nul k.

Proposition 3.11. Soient X et Y deux variables aléatoires réelles de fonctions généra-


trice des moments respectives MX et MY définies sur un domaine commun I. Si X et Y
sont indépendantes alors

∀t ∈ I, MX+Y (t) = MX (t) × MY (t). (3.38)

Démonstration. Exercice.

3.3.2 Fonction caractéristique


Définition 3.16. Soit X une variable aléatoire réelle. La fonction caractéristisque ϕX de
la variable aléatoire réelle X est définie 7 par :
 
ϕX (t) = E eitX = E(cos(tX)) + iE(sin(tX)) (3.39)

où i est le nombre imaginaire vérifiant i2 = −1.

Proposition 3.12. Soit ϕX la fonction caratéristique d’une variable aléatoire X.


1. ϕX (0) = 1.
2. |ϕX (t)| ≤ 1 et ϕX (−t) = ϕX (t).
3. ϕX (t) = MX (it).
4. Si Y = aX + b, on a : ϕY (t) = eibt ϕX (at).
7. Contrairement à la fonction génératrice, la fonction caractéristique d’une variable aléatoire existe
toujours.

31
Proposition 3.13 (Formule d’inversion). Si la fonction caratéristique ϕX d’une va-
riable aléatoire X est telle que
Z
|ϕX (t)| dt < +∞
R

alors la loi de probabilité pX de X admet une densité continue fX donnée par :


Z
fX (x) = ϕX (t)e−itx dt. (3.40)
R

Remarque 3.12. Chacune des fonctions génératrice des moments et caractéristique, ca-
ractérise de façon unique la loi de la variable aléatoire qui la définit. Autrement dit, deux
v.a.r. X et Y ont même loi si et seulement si elles ont la même fonction caractéristique.

Proposition 3.14. Soient X et Y deux variables aléatoires réelles de fonctions caracté-


ristiques respectives ϕX et ϕY . Si X et Y sont indépendantes alors

∀t ∈ R, ϕX+Y (t) = ϕX (t) × ϕY (t). (3.41)

Démonstration. Exercice.

32
Chapitre 4

Quelques lois classiques usuelles

4.1 Lois discrètes d’usage courant


Soit X une variable aléatoire réelle définie sur l’espace probabilisé (Ω, P(Ω), P).

4.1.1 Loi de Bernoulli


Définition 4.1 (Epreuve de Bernoulli). On appelle épreuve de Bernoulli, toute épreuve
ayant deux issues l’une d’elles étant appelée « succès » de probabilité p et l’autre « échec »
de probabilité q = 1 − p. Le réel p est appelée probabilité de succès.
Exemple 4.1. Une urne contient des boules dont une proportion p de couleur blanche. On
tire au hasard une boule de cette urne et on suppose que l’on réalise le succès lorsqu’une
boule blanche est tirée et l’échec lorsqu’une boule d’une autre couleur est tirée. Il s’agit
d’une épreuve de Bernoulli.
Définition 4.2. On dit que la variable aléatoire X suit la loi de Bernoulli de paramètre
p ∈ [0, 1] et on note X B(1, p) ou X B(p) lorsque X prend les valeurs 0 et 1 avec
les probabilités :
P(X = 1) = p et P(X = 0) = 1 − p. (4.1)
Théorème 4.1. Supposons que X B(p) où p ∈ [0, 1]. Alors l’espérance mathématique,
la variance et la fonction génératrice des moments de X sont données par :
E(X) = p (4.2)
V ar(X) = p(1 − p) (4.3)
∀t ∈ R, MX (t) = (1 − p) + pet . (4.4)
Démonstration. Exercice.

4.1.2 Loi uniforme sur un ensemble fini de réels


Définition 4.3. On dit que la variable aléatoire X suit la loi uniforme sur l’ensemble
de réels {x1 , x2 , . . . , xn } si la loi de probabilité pX de la v.a.r. X est l’équiprobabilité sur
l’ensemble {x1 , x2 , . . . , xn }, i.e.
1
∀k ∈ J1, nK, pX ({xk }) = P(X = xk ) = . (4.5)
n
33
Exemple 4.2. Si X désigne la v.a.r. égale au nombre obtenu en lançant un dé cubique
parfaitement équilibré dont les faces sont numérotées de 1 à 6, alors X suit la loi uniforme
sur l’ensemble {1, 2, . . . , 6}.

4.1.3 Loi binomiale


Définition 4.4. Lorsqu’on répète n fois dans les mêmes conditions une épreuve de Ber-
noulli, la variable aléatoire X qui à toute suite de n épreuves associe le nombre de succès
peut prendre les valeurs 0, 1, 2, . . . , n. Si p est la probabilité de succès après une épeuve
de Bernoulli, on dit que X obéit à une loi binomiale de paramètres n et p. On note
X B(n, p) et on a :
∀k ∈ J1, nK, P(X = k) = {kn pk (1 − p)n−k . (4.6)
Exemple 4.3. Si on lance n fois un dé cubique parfaitement équilibré dont les faces sont
numérotées de 1 à 6, alors la variable
 aléatoire
 réelle X égale au nombre de 00 600 obtenu
suit la loi binomiale de paramètres n, 61 .
Remarque 4.1. Si X1 et X2 sont deux variables aléatoires indépendantes suivant respec-
tivement les lois binomiales B(n1 , p) et B(n2 , p), alors la variable aléatoire réelle X1 + X2
suit la loi binomiale B(n1 + n2 , p).
Théorème 4.2. Supposons que X B(n, p) où n ∈ N∗ et p ∈ [0, 1]. Alors l’espérance
mathématique, la variance et la fonction génératrice des moments de X sont données par :
E(X) = np (4.7)
V ar(X) = np(1 − p) (4.8)
∀t ∈ R, MX (t) = [(1 − p) + pet ]n . (4.9)
Démonstration. Exercice.

4.1.4 Loi géometrique


Définition 4.5. On dit que la variable aléatoire réelle X suit la loi géométrique de para-
mètre p ∈]0, 1[ et on note X G(p) si elle peut prendre toutes les valeurs entières n ∈ N∗
avec la probabilité :
P(X = n) = p(1 − p)n−1 . (4.10)
Exemple 4.4. On jette une pièce de monnaie avec P({T }) = p et P({F }) = 1 − p. Le
nombre de jets nécessaire pour obtenir 00 T 00 pour la première fois est une variable aléatoire
qui suit la loi géométrique de paramètre p.
Théorème 4.3. Supposons que X G(p) avec 0 < p < 1. Alors l’espérance mathéma-
tique, la variance et la fonction génératrice des moments de X sont données par :
1
E(X) = (4.11)
p
1−p
V ar(X) = (4.12)
p2
pet
∀t ∈] − ∞, − ln(1 − p)[, MX (t) = . (4.13)
1 − (1 − p)et

34
Démonstration. Exercice.

Proposition 4.1. La variable aléatoire réelle X suit la loi géométrique G(p) avec 0 <
p < 1, si et seulement si, pour tous (m, n) ∈ N2 , la relation

P(X > m + n/X > n) = P(X > m) (4.14)

est satisfaite. La condition (4.14) est dite « propriété d’absence de mémoire ».

Démonstration. En supposant que X suit la loi géométrique G(p) avec 0 < p < 1, on a
pour tous (m, n) ∈ N2 :

P((X > m + n) ∩ (X > n)) = P(X > m + n)


+∞
p(1 − p)x−1
X
=
x=m+n+1
+∞
(1 − p)x−1
X
= p
x=m+n+1
+∞
(1 − p)y
X
= p avec le changement de variable y = x − 1
y=m+n
m+n
= (1 − p)
= (1 − p)m (1 − p)n
P(X > m + n) = P(X > m)P(X > n).

Ainsi, la variable aléatoire réelle X vérifie la condition (4.14). Inversement, si X vérifie la


condition d’absence de mémoire, on a pour tous (n, m) ∈ N2 ,

P(X > m + n) = P(X > m)P(X > n). (4.15)

Considérons à présent la fonction ψ : N → R définie pour tout n ∈ N par

ψ(n) = P(X > n).

La relation (4.15) s’écrit alors : pour tous (n, m) ∈ N2

ψ(m + n) = ψ(m)ψ(n) (4.16)

et en posant m = 1 avec une récursivité, on a :

ψ(n + 1) = ψ(n)ψ(1)
= ψ(n − 1)ψ(1)2
= ψ(n − 2)ψ(1)3
..
.
= ψ(n − (n − 1))ψ(1)n
= ψ(1)n+1
ψ(n + 1) = an+1 , en posant a = ψ(1) ∈ R.

35
Par conséquent, ψ(n) = an et si FX désigne la fonction de répartition de X, alors
1 − FX (n) = P(X > n) = ψ(n) = an
et par suite, FX (n) = 1 − an . Puisque lim FX (n) = 1, on conclut que a ∈]0, 1[. En
n→+∞
renotant la constante a = 1 − p pour un certain p ∈]0, 1[, on a
F (n) = 1 − (1 − p)n .
Par ailleurs,
P(X = 1) = P(X ≤ 1) = FX (1) = p
P(X = 2) = FX (2) − FX (1) = p(1 − p)
P(X = 3) = FX (3) − FX (2) = p(1 − p)2
..
.
et de proche en proche, on démontre que P(X = n) = p(1 − p)n−1 d’où le résultat.

4.1.5 Loi de Pascal ou loi binomiale négative


On peut généraliser la loi géométrique en ne s’intéressant plus uniquement au nombre
de répétitions de l’épreuve de Bernouilli qui sont nécessaires pour observer une première
réussite, mais au nombre n de répétitions nécessaires pour observer k réussites (n ≥ k). La
variable aléatoire suit dans ce cas la loi de Pascal ou loi binomiale négative, de paramètres
k et p, ce que l’on note X Pa (k, p).
Définition 4.6. Soient p ∈ ]0, 1[ et k ∈ N∗ donnés. On dit que la v.a.r. X suit la loi
de Pascal de paramètres k et p que l’on note X Pa (k, p) lorsque X prend les valeurs
1
n ∈ {k, k + 1, . . .} avec les probabilités
P(X = n) = {k−1 k
n−1 p (1 − p)
n−k
. (4.18)
Exemple 4.5. On jette une pièce de monnaie parfaitement équibrée avec P(T ) = 12 et
P(F ) = 21 . Si X désigne la variable aléatoire réelle eǵale au nombre de jets nécessaires
pour obtenir le cinquième fois la face 00 T 00 , alors X Pa (5, 12 ) avec X(Ω) = {5, 6, . . .} et
on a :  5 
1 5
 10
1 1 63

P(X = 10) = {49 1− = {49 = .
2 2 2 512
Remarque 4.2. On peut aussi voir la loi de Pascal comme étant la somme de k variables
géométriques indépendantes. Si l’on désigne par Y1 G(p), Y2 G(p), · · · , Yk G(p) les
variables aléatoires géométriques correspondant respectivement au nombre de répétitions
pour obtenir le premier succès, pour obtenir le deuxième succès après avoir obtenu le
premier, . . ., pour obteniur le kième succès après avoir obtenu le (k − 1)ième, alors le
nombre total de répétitions nécessaires pour obtenir ces k succès est donné par la somme
Y1 + Y2 + · · · + Yk .
1. La justification de la loi de probabilité utilise la formule dite binomiale négative suivante :
 k X +∞
1
∀k ∈ N∗ , = {k−1
a−1 x
a−k
, avec |x| < 1. (4.17)
1−x
a=k

36
Théorème 4.4. Supposons que X Pa (k, p) avec p ∈ ]0, 1[ et k ∈ N∗ . Alors l’espérance
mathématique, la variance et la fonction génératrice des moments de X sont données par :

k
E(X) = (4.19)
p
k(1 − p)
V ar(X) = (4.20)
p2
!k
pet
∀t ∈] − ∞, − ln(1 − p)[, MX (t) = . (4.21)
1 − (1 − p)et

Démonstration. Exercice.

4.1.6 Loi hypergéométrique


La loi hypergéométrique est très proche de la loi binomiale en ce sens que contrairement
à la loi binomiale qui traite des tirages avec remise, la loi hypergéométrique correspond à
des tirages sans remise.
— Soit Ω un ensemble à N éléments répartis en deux groupes d’effectifs N1 et N2 .
— On suppose un prélèvement de n objets sans remise dans l’ensemble.
En désignant par X la variable aléatoire réelle qui aux n objets tirés associe le nombre
N1
k d’objets venant des N1 objets et en posant p = , on peut faire les observations
N
suivantes :
≤ k  k ≥
 

 0  0
k ≤ n  k ≤ n

 
⇐⇒  (4.22)


 k ≤ N1 
 k ≤ pN
n − k ≤ N2 k ≥ n − N + N p.
 

Définition 4.7. Soit p ∈]0, 1[ et soient n et N deux entiers naturels tels que n ≤ N et
N p ∈ N. On dit qu’une variable aléatoire réelle suit la loi hypergéométrique de paramètres
N , n et p que l’on note H(N, n, p) si X prend les valeurs entières k comprises entre
max(0, n − N + N p) et min(N p, n) avec les probabilités
n−k
{kN p × {N −N p
P(X = k) = n
. (4.23)
{N

Exercice 4.1.

Théorème 4.5. Supposons que X H(N, n, p). Alors l’espérance mathématique et la


variance de X sont données par :

E(X) = np (4.24)
N −n
V ar(X) = np(n − 1) . (4.25)
N −1

Démonstration. Exercice.

37
4.1.7 Loi de Poisson
Définition 4.8. Soit λ un réel strictement positif donné. On dit que la variable aléatoire
réelle X suit la loi de Poisson de paramètre λ et on note X P(λ) si elle peut prendre
toutes les valeurs entières k ∈ N avec la probabilité :

λk
pX ({k}) = P(X = k) = e−λ . (4.26)
k!
Exemple 4.6. Soit X une variable aléatoire réelle qui suit la loi de Poisson de paramètre
λ = 3. Alors on a :

P(1 ≤ X ≤ 3) = P(X = 1) + P(X = 2) + P(X = 3)


9 27
= 3e−3 + e−3 + e−3
2 2
P(1 ≤ X ≤ 3) = 12e−3 .

Remarque 4.3. Si X1 et X2 sont deux variables aléatoires indépendantes suivant respec-


tivement les lois de Poisson P(λ1 ) et P(λ2 ), alors la variable aléatoire réelle X1 + X2 suit
la loi de Poisson P(λ1 + λ2 ).

Théorème 4.6. Supposons que X P(λ) avec λ > 0. Alors l’espérance mathématique,
la variance et la fonction génératrice des moments de X sont données par :

E(X) = λ (4.27)
V ar(X) = λ (4.28)
t
∀t ∈ R, MX (t) = eλ(e −1) . (4.29)

Démonstration. Exercice.

4.1.8 Approximation de lois classiques discrètes

4.2 Lois continues d’usage courant


Soit X une variable aléatoire réelle définie sur l’espace probabilisé (Ω, P(Ω), P).

4.2.1 Loi uniforme sur un intervalle borné


Définition 4.9. La v.a.r. X suit la loi uniforme sur [a, b] que l’on note X U([a, b])
lorsque X admet pour densité la fonction f définie par :

f: R → R

1

si x ∈ [a, b] (4.30)




b−a
x 7→ f (x) =


0 sinon.

38
Exemple 4.7. Soit X U([0, 1]) et supposons que X = 14 Y 2 où Y est une variable
aléatoire réelle. Alors, la fonction de répartition de Y est donnée pour tout y ∈ [0, 2] par :

FY (y) = P(Y ≤ y)
1 2 1 2
 
= P Y ≤ y
4 4
1 2

= P X≤ y
4
1 2
Z
4
y
= f (x) dx
0
1 2
FY (y) = y .
4
Ainsi, la fonction de densité de probabilité de Y s’écrit :

f: R → R
 y

 si y ∈ [0, 2]

2
y 7→ f (y) =



0 sinon.

Théorème 4.7. Supposons que X U([a, b]) avec a < b. Alors l’espérance mathéma-
tique, la variance et la fonction génératrice des moments de X sont données par :
b+a
E(X) = (4.31)
2
(b − a)2
V ar(X) = (4.32)
12


 1 si t = 0


MX (t) = (4.33)
 ebt − eat

 si t 6= 0.
(b − a)t

Démonstration. Exercice.

4.2.2 Loi Gamma


• Notion sur la fonction gamma
Définition 4.10. La fonction gamma est définie par
Z +∞
Γ(z) = xz−1 e−x dx (4.34)
0

où z > 0. Cette condition assure la convergence 2 de l’intégrale dans (4.34).


La fonction gamma est une généralisation de la notion de factorielle et à cet effet, nous
avons les propriétés suivantes :
2. Bien que l’intégrale ne converge pas pour z < 0, on peut démontrer en utilisant une définition
alternative de la fonction gamma qu’elle est définie pour tous z ∈ R\{0, −1, −2, . . .}.

39
Proposition 4.2.
1. Γ(1) = 1.
2. Pour tout z > 1, on a : Γ(z) = (z − 1)Γ(z − 1). En conséquence, pour tout entier
naturel n,
Γ(n + 1) = n! (4.35)
et Z +∞
xn e−x dx = n! (4.36)
0
 
1 √
3. Γ 2
= π.

Démonstration. Exercice.
• La loi Gamma

Définition 4.11. Soient θ et α deux nombres réels strictement positifs. On dit que la v.a.r.
X suit la loi Gamma de paramètres θ et α que l’on note X G(θ, α) ou X Γ(θ, α)
lorsque X admet pour fonction de densité, la fonction f définie par :

f: R → R
x (4.37)
1
xα−1 e− θ
(
Γ(α)θα
si x ≥ 0
x 7→ f (x) =
0 sinon.

Théorème 4.8. Supposons que X Γ(θ, α) avec θ > 0 et α > 0. Alors l’espérance
mathématique, la variance et la fonction génératrice des moments de X sont données
par :

E(X) = θα (4.38)
V ar(X) = θ2 α (4.39)

1 1
  
∀t ∈ −∞, , MX (t) = . (4.40)
θ 1 − θt
Démonstration. Exercice.

4.2.3 Loi exponentielle


Définition 4.12. Soit θ un réel strictement positif. On dit que la v.a.r. X suit la loi
exponentielle de paramètre θ que l’on note X E(θ) lorsque X admet pour fonction de
densité, la fonction f définie par :

f: R → R
( (4.41)
θe−θx si x ≥ 0
x 7→ f (x) =
0 sinon.

Remarque 4.4. La loi exponentielle de paramètre


 θ > 0 correspond à la loi Gamma de
1 1
paramètres θ et 1 c’est-à-dire E(θ) = Γ θ , 1 .

40
Théorème 4.9. Supposons que X E(θ) avec θ > 0. Alors l’espérance mathématique 3 ,
la variance et la fonction génératrice des moments de X sont données par :
1
E(X) = (4.43)
θ
1
V ar(X) = 2 (4.44)
θ
θ
∀t ∈] − ∞, θ[, MX (t) = . (4.45)
θ−t
Démonstration. Facile à partir de Théoreme 4.8 et Remarque 4.4.

4.2.4 Loi normale


Définition 4.13. On dit que la v.a.r. X suit la loi normale ou loi de Gauss de moyenne
m ∈ R et d’écart-type σ > 0 que l’on note X N (m, σ) lorsque X admet pour fonction
de densité la fonction f définie par :
f: R → R
1 x−m 2
√1 e− 2 ( σ ) .
(4.46)
x 7→ f (x) = σ 2π

Dans ce cas, la v.a.r. X est encore dite variable gaussienne.


Exemple 4.8. En considérant que X N (0, 1), sa fonction de densité est donnée par
la fonction définie sur R par :
1 1 2
f (x) = √ e− 2 x . (4.47)

Remarque 4.5. La somme de lois normales indépendantes suit une loi normale. En
particulier, si X1 et X2 sont deux variables aléatoires réelles indépendantes suivant res-
pectivement les lois normales N (m1 , σ1 ) et N (m2 , 
σ2 ), alors la variable aléatoire réelle
q
X1 + X2 suit la loi normale N m1 + m2 , σ12 + σ22 .

Théorème 4.10. Supposons que X N (m, σ) avec m ∈ R et σ > 0. Alors l’espérance


mathématique, la variance et la fonction génératrice des moments de X sont données par :

E(X) = m (4.48)
V ar(X) = σ 2 (4.49)
1 2 t2
∀t ∈ R, MX (t) = emt+ 2 σ . (4.50)

Démonstration. Exercice.
Théorème 4.11. Si X N (m, σ) avec m ∈ R et σ > 0 alors la variable aléatoire
T = X−mσ
N (0, 1). On dit que T suit la loi normale centrée réduite ou loi normale
standard.
3. Plus généralement, si X E(θ) alors pour tout n ≥ 1, on a :
Z +∞
Γ(n + 1) n!
E(X n ) = θxn e−θx dx = n
= n. (4.42)
0 θ θ

41
Démonstration. Soit FT la fonction de répartition de la variable aléatoire réelle T . On a :

∀t ∈ R, FT (t) = P(T ≤ t) (4.51)


X −m
 
= P ≤t
σ
= P(X ≤ σt + m)
Z σt+m
1 1 x−m 2
= √ e− 2 ( σ ) dx
−∞ σ 2π
Z t
1 − 1 z2 x−m
= √ e 2 dz, avec le changement de variable z = .
−∞ 2π σ

D’où la fonction de densité de T sécrit


1 1 2
∀t ∈ R, fT (t) = √ e− 2 t .

Tous les calculs de probabilités concernant une variable aléatoire de loi N (m, σ)
peuvent se ramener à des calculs sur une variable de loi normale standard. La fonction de
répartition de la loi normale centrée réduite que nous notons Φ est tabulée pour des va-
leurs positives et tout le calcul de probabilités avec une variable aléatoire T de loi N (0, 1)
peut se faire à l’aide de la table de la loi normale standard et des propriétes suivantes :

Rappel 4.1. Soit T une variable aléatoire qui suit la loi normale centrée réduite et Φ sa
fonction de répartition.
1. Pour tout t ∈ R, on a Φ(t) = P(T ≤ t).
2. Pour tout t ∈ R, on a P(T = t) = 0.
3. Pour tous réels t1 et t2 , on a

P(t1 < T < t2 ) = P(t1 ≤ T < t2 )


= P(t1 < T ≤ t2 )
= P(t1 ≤ T ≤ t2 )
= Φ(t2 ) − Φ(t1 ).

Exercice 4.2.
1. Soit X N (0, 1). Quelle est la probabilité que X prenne des valeurs inférieures
ou égales à −1, 72 ?
2. Soit Y N (3, 4). Quelle est la probabilité que Y prenne des valeurs comprises
entre 4 et 8 ?
3. Soit Z N (25, 6). Quelle est la valeur qu’il faut donner à la constante c pour que
P(|Z − 25| < c) = 0, 9544 ?

42
Loi normale centrée réduite : Probabilité de trouver une valeur inférieure à t

u 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09

0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7290 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389

1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767

2,0 0,9772 0,9779 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,99332 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986

Table pour les grandes valeurs de t

u 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8


π (u) 0,99865 0,99904 0,99931 0,99952 0,99966 0,99976 0,999841 0,999892 0,999928

43
4.2.5 Approximation de lois classiques continues

44

Vous aimerez peut-être aussi