Vous êtes sur la page 1sur 32

Université des Sciences et Technologies de Lille

U.F.R. de Mathématiques Pures et Appliquées

M206ICP : Introduction au calcul des


probabilités

Notes de cours par Clément Boulonne

L2 Mathématiques 2007 - 2008


Table des matières

1 Espaces probabilisés 4
1.1 Evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 La probabilité comme fonction d’ensembles . . . . . . . . . . . . . . . . . . . . . 5
1.3 Probabilités classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Propriétés générales des probabilités . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Conditionnement et indépendance 10
2.1 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3 Variables aléatoires 15
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Lois discrètes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.1 Loi de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.2 Loi uniforme sur un ensemble fini de réels . . . . . . . . . . . . . . . . . 18
3.3.3 Lois binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.4 Lois hypergéométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.5 Lois géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.6 Lois de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4.2 Loi pour les variables aléatoires continues . . . . . . . . . . . . . . . . . . 21
3.4.3 Analogie entre variable aléatoire continue et discrète . . . . . . . . . . . 21
3.5 Indépendance des variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.6 Epreuves de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4 Espérance mathématique 25
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.1 Aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.2 Aspect continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.3 Retour à l’aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2
3

4.3 Inégalité de Markov et Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . 30

5 Loi des grands nombres 31


5.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Références

Certaines parties du cours ont été recopiées du polycopié de cours suivant :


1) Ch. Suquet, Introduction au Calcul des Probabilités, 2007-2008
Les cours sont téléchargeables sur le site IPEIS (Intégration, Probabilités Elémentaires et
Initiation à la Statistique) de l’Université Lille 1.

4
Chapitre 1

Espaces probabilisés

1.1 Evenements
Définition 1.1.1. On note Ω un ensemble non vide dont les éléments représentent tous les
résultats possibles ou événements élémentaire d’une expérience alétoire. Ω = {ω}, on dira que
ω, élément de Ω est un événement élémentaire.

Exemple 1.1.1. On lance une pièce symétrique et on regarde à sa tombée sur le sol, la pièce
tombe sur pile ou face. On aura alors :

Ω = {P, F }

On pioche sur un jeu de 52 cartes, une carte. On aura alors :

Ω = {A♣, A♠, A♦, A♥, ..., K♣, K♠, K♦, K♥}

Dans un intervalle [0, 1], on choisit un point au hasard sur le segment :

Ω = {x ∈ [0, 1]}

On peut aussi mesurer une température à n’importe quel point du globe :

Ω = {−273◦ C, ∞}

Définition 1.1.2. F = {A}, A ⊂ Ω et est appelé événement et F est la famille des événements
possibles.

Exemple 1.1.2. Si on jette un dé, l’évément A peut être “obtention d’un chiffre paire” et donc
A = {2, 4, 6} composé de trois événements élémentaires ω1 = 2, ω2 = 4, ω3 = 6.

Définition 1.1.3. On note AC , un événement qui se réalise si A ne se réalise pas. On l’appelle


événement contraie ou complémentaire de A.

Définition 1.1.4. A ∩ B est la réalisation de A et B en même temps.

Définition 1.1.5. A ∪ B est la réalisation de A ou la réalisation de B.

5
6 Chapitre 1. Espaces probabilisés

1.2 La probabilité comme fonction d’ensembles


Propriété 1.2.1. F a les propriétés suivantes :
1. Ω ∈ F
2. A ∈ F ⇒ AC ∈ F
3. F est stable par opérations de réunion et d’intersection sur les suites d’événements. C’est-
à-dire, si (Ak ) est un ensemble d’évenement fini et dénombrable alors :
[ \
Ak ∈ F et Ak ∈ F
k k

Démonstration. On démontre la propriété 3 sur les opérations d’intersection.


!C
AC
\ [
Ak = k ∈ F
k K

Définition 1.2.1. La famille qui vérifie les trois propriétés s’appelle une tribu (ou σ-algébre).
Exemple 1.2.1 (Plus grande et plus petite tribu possible). Soit Ω fixé. F = {∅, Ω} est la plus
petite tribu possible. F = P(Ω) = {A|A ⊂ Ω} est la plus grande tribu possible.
Définition 1.2.2 (Parties de Ω). On appelle parties de Ω et on note P(Ω) :

P(Ω) = {A|A ⊂ Ω}

Exemple 1.2.2. Si Ω = {P, F } alors P(Ω) = {Ω, ∅, {P }, {F }}.


Définition 1.2.3. Si card(Ω) = n alors card(P(Ω)) = 2n .
Définition 1.2.4. Soit Ω un ensemble et F une famille d’événement observables sur Ω. On
appelle P (A) la probabilité d’un événement, c’est-à-dire : P : F → R tel que nnA → P (A) la
fréquence où l’événement est réalisé. Concrétement, P doit vérifié :
1. P (Ω) = 1
2. 0 ≤ P (Ω) ≤ 1, ∀A ∈ F
3. (Ak ), (Ak ∈ F), si Ak ∩ Aj = ∅ (avec k 6= j) alors :
!
[ X
P Ak = P (Ak )
k k

La troisième propriété s’appelle σ-additivité.


Définition 1.2.5. Soit Ω 6= 0, F tribu et P une probabilité alors (Ω, F, P ) est un espace
probabilisé.
Exemple 1.2.3. Ω = {P, F }, F = P(Ω) = {∅, Ω, {F }, {P }}
1. cas symétrique :
1 1
P (∅) = 0, P (Ω) = 1, P (P ) = , P (F ) =
2 2
2. cas non-symétrique :

P (∅) = 0, P (Ω) = 1, P (P ) = p, P (F ) = 1 − p
Chapitre 1. Espaces probabilisés 7

1.3 Probabilités classiques


Proposition 1.3.1. Soit card(Ω) < ∞, P ({ωi }) = P ({ωj }), ∀ωi , ωj ∈ Ω et F = P(Ω). Alors :

card A
P (A) = (Définition classique des probabilités)
card Ω
[
Démonstration. ∃p tel que p = P ({ωi } = P ({ωj }). On a : A = {ω}. D’après la σ-additivité.
ω∈A

X
P (A) = P ({ω}) = p(card A)
ω∈A

et si A = Ω alors P (Ω) = 1 = p(card(Ω)).

Exemple 1.3.1. Les probabilités classiques peuvent être considéré par le lancer d’une pièce
dans le cas symétrique.

Exemple 1.3.2. On effectue une partie de pile ou face en trois coups. Quelle est la probabilité
d’obtenir pile aux premier et troisième lancers ? On peut modéliser cette expérience en prenant
Ω = {P, F }3 et pour famille d’événement observables F = P(Ω) l’ensemble de toutes les parties
de Ω. La pièce étant supposée symétrique, nous n’avous a priori pas de raison de supposer que
l’un des 8 triplets de résultats possibles soit favorisé ou dévaforisé par rapport aux autres. On
choisit donc P de sorte que tous les événements élémentaires aient même probabilité (hypothèse
d’équiprobabilité ou probabilité classique) soit :

1 1
∀ω ∈ Ω, P ({ω}) = = 3
card Ω 2
L’événement B dnt on veut calculer la probabilité s’écrit :

B = {(P, F, P ), (P, P, P )}

D’où :
1 1 1
P (B) = + =
8 8 4
Exemple 1.3.3. Dans une urne, on a mls n boules blanches et n boules noirs indiscernable au
toucher. On a donc n + m boules. On choisit k boules et on veut calculer P (Al ) tel que :

Al = {on a pioché l boules blanches}

Donc :
card(Al )
P (Al ) =
card Ω
On a alors :
k
card(Ω) = Cn+m
et :
l
card(Al ) = Cm × Cnk−l
Donc :
l
Cm × Cnk−l
P (Al ) = k
Cn+m
8 Chapitre 1. Espaces probabilisés

Pour un exemple concret, on peut prendre celui du Loto. n = 6, n + m = 49, l = 6 et k = 6.


1
P (A6 ) = 6
= 7.15112384202e − 08
C49

Pour n = m et k = n, on a :  2
C l C k−l Cnl
P (Al ) = n 2nn = n
Cn C2n
On a : l = 0, ..., n. Soit A0 , ..., An alors :

Ak ∩ Al = ∅, k 6= l
[
Ak k Ω
k

On a aussi : ! n
[ X
1 = P (Ω) = P Al = P (Al )
l l=0

Donc :  2
n Cnl n
n  2
Cnl
X X
n
=1⇒ C2n =
l=0 C2n l=0

Définition 1.3.1. On dit que Ω est un espace discret si card(Ω) < ∞.

Proposition 1.3.2. Soit F = P(Ω) et soit P une probabilité sur F. Il existe une famille
(pk )k≥0 tel que :
1. pk ≥ 0
X
2. pk = 1
k
X
3. ∀A, P (A) = pk
k|ωk ∈A

Démonstration. On a P ({wk }) = pk . La propriété 1 est évidente. On démontre la propriété 3


avant la 2. [
A= {ωk }
k|ωk ∈A
X X
P (A) = P ({ωk }) = pk
k|ωk ∈A k|ωk ∈A

k e−λ
Exemple 1.3.4. Soit Ω = N, pk = λ k!
pour λ > 0, k = 0... On appelle loi de Poisson P(λ)
k e−λ
la probabilité qui vérifie pk = λ k! .

1.4 Propriétés générales des probabilités


Soit P une probabilité :

Propriété 1.4.1. P (AC ) = 1 − P (A), P (A) = 1 − P (AC ).

Propriété 1.4.2. A ⊂ B ⇒ P (A) ≤ P (B)


Chapitre 1. Espaces probabilisés 9

Démonstration. On a : B = A ∪ (B\A). Or A et B\A sont disjoints alors :

P (B) = P (A) + P (B\B) ≥ P (A)

Propriété 1.4.3. Soit A et B deux ensembles alors :

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Démonstration. A ∪ B = A ∪ (B\A) alors :

P (A ∪ B) = P (A) + P (B\A)

et B = (A ∩ B) ∪ B\A
P (B) = P (A ∩ B) + P (B\A)

Propriété 1.4.4. P (A ∪ B) ≤ P (A) + P (B)

Démonstration. Conséquence de la Propriété 1.4.3.

Propriété 1.4.5. Soient (A1 , ..., An ) alors :


n n
!
[ X
P Ak ≤ P (Ak )
k=1 k=1

Démonstration. Par réccurence. Initialisation évidente car c’est la Propriété 1.4.3.


 
n+1 n n
! !
[ [ [
P Ak = P  Ak ∪ Ak+1  ≤ P Ak + P (An+1 )
k=1 k+1 k=1

Remarque. Si (Ak ) infini alors la Propriété 1.4.5. est vérifiée.

Propriété 1.4.6 (Propriété de continuité de P ). a) (An ) croissante (∀n, An ⊂ An+1 ) alors


P (An ) est croissante. On a alors :
!
[
lim P (An ) = P Ak
n→+∞
k

!
\
b) (An ) décroissate (∀n, An+1 ⊂ An ) alors P (An ) converge vars P Ak .
k
10 Chapitre 1. Espaces probabilisés

C
Démonstration. a) ⇒ b) : soit
! (An ) décroissante. Si on prend Bn = An , on a (Bn ) croissante.
!
[ [
Alors P (Bn ) −−−→ P Bk . Mais P (Bn ) = 1 − P (An ). Donc : P (An ) → 1 − P Bk Or :
n→∞
 k k
!C  ! !
C
[ \ \
1−P  Bk  =P (Bk ) =P (AK ) .
k k k

Propriété 1.4.7. La Remarque précédente peut constitué une propriété. On rappelle : soit (Ak )
infini alors :
∞ ∞
!
[ X
P Ak ≤ P (Ak )
k=0 k=1

n
[
Démonstration. Bn = Ak avec (Bn ) croissante. On a :
k=1


!
[
P (Bn ) −−−→ P Bn
n→∞
k=1

et : ∞ ∞
[ [
Bk = Ak
k=1 k=1

alors :
∞ n n
!! !
[ [ X
P (Bn ) → P Ak =P Ak ≤ P (Ak ) ≤ P (An )
k=1 k=1 k=1
Chapitre 2

Conditionnement et indépendance

2.1 Probabilités conditionnelles


2.1.1 Introduction
Comment doit-on modifier la probabilité que l’on attribue à un évenement lorsque l’on
dispose d’une information supplémentaire ? Le concept de probabilité conditionnelle permet de
répondre à cette question.

Exemple 2.1.1. Soit card(Ω) < ∞ alors :

card(A)
P (A) =
card(Ω)

et B une partie de Ω avec B ∩ A 6= ∅. Alors :

card(A ∩ B) P (A ∩ B)
PA (B) = =
card(A) P (A)

Définition 2.1.1. PA : F → R+ alors :

P (A ∩ B)
PA (B) = , B ∈ F, P (A) > 0
P (A)

PA (B) s’appelle la probabilité conditionelle sachant A.

Démonstration. On vérifie que la Définition 2.1.1. est une relation de probabilité.


P (A ∩ Ω) P (A)
1) PA (Ω) = = =1
P (A) P (A)
2) 0 ≤ PA (B) ≤ 1 car P (A ∩ B) ≤ P (A).
3) (Bk ), Bk ∩ Bl = ∅, k 6= l :
!! !
[ [ X
! P A∩ Bk P A ∩ Bk P (A ∩ Bk )
k k k
[ X
PA (Bk ) = = = = PA (Bk )
k P (A) P (A) P (A) k

11
12 Chapitre 2. Conditionnement et indépendance

Exemple 2.1.2. Supposons qu’on a deux urnes. Dans l’urne 1, on a : m boules blanches et n
noires et dans l’urne 2, m boules blanches et n boules noires. On transpose une boule au hasard
(sans regarder sa couleur) de la urne 1 vers la urne 2. Ensuite, on tire au hasard une boule dans
l’urne 2 et on regarde sa couleur.
Soit B = {la deuxième boule tirée est blanche}. On simplifie l’expérience en utilisant :
• A1 = {Première blanche}
• A2 = {Première noire}
alors on a :
m+1 m
PA1 (B) = PA2 (B) =
m+n+1 m+n+1

2.1.2 Propriétés
Proposition 2.1.1 (Conditionnement successifs). Soit B = A1 ∩ A2 ∩ ... ∩ An avec P (Ai ) > 0
alors :
P (B) = P (A1 )PA1 (A2 )PA1 ∩A2 (A3 )...PA1 ∩A2 ∩...∩An−1 (An )

Démonstration.
P (A1 ∩ A2 P (A3 ∩ (A2 ∩ A1 )) P (An ∩ (An−1 ∩ ... ∩ A1 )
P (A1 ) × ... ×
P (A1 ) P (A1 ∩ A2 ) P (An−1 ∩ ... ∩ A1 )

P (A3 ∩ (A2 ∩ A1 )) P (An ∩ (An−1 ∩ ... ∩ A1 )


= P (A1 ∩ A2 ) × ... ×
P (A1 ∩ A2 ) P (An−1 ∩ ... ∩ A1 )
= ... = P (A1 ∩ A2 ∩ ... ∩ An ) = P (B)

Exemple 2.1.3. Soit une urne avec 2n boule avec 2 boules identiques (même couleur) 2 à 2.
On choisit 2 boules à la fois et on répete l’expérience jusqu’à tant qu’il n’y a plus de boules.
Soit B = {chaque sorte de boules donne une paire de même couleur}. On introduite des
événements :
• A1 = {les 2 premières sont de même couleurs}
• A2 = {les 2 boules suivant A1 sont de même couleurs}
• ···
• An = {les 2 boules suivant An−1 sont de même couleurs}
On a alors : B = A1 ∩ ... ∩ An .

P( A1 ) = Cn2 n n−1 1
2n
n−1 P (B) = ... 2
PA1 (A2 ) = C 2 et 2
C2n 2
C2n−1 C2
2n−2 n
n!×2 n!2n 1
.. = 2n(2n−1)(2n−2)...1 = (2n)!
= Q 2k+1
.

Proposition 2.1.2 (Probabilité totale). Soit (Ak ) qui forme une partition de Ω.
1. disjoints
[
2. Ak = Ω
k
Soit B un événement. Alors : X
P (B) = P (Ak )PAk (B)
k
Chapitre 2. Conditionnement et indépendance 13

!
[ [
Démonstration. On a : B = B ∩ Ω = B ∩ Ak = (B ∩ Ak ). Alors :
k k
!
[ X
P (B) = P (B ∩ Ak ) = P (B ∩ Ak )
k k

Exemple 2.1.4 (Retour sur l’Exemple 2.1.2). On a alors :

P (B) = P (A1 )PA1 (B) + P (A2 )PA2 (B)

et :
m n
P (A1 ) = et P (A2 ) =
m+n m+n
Donc :
m m+1 n m
P (B) = × + ×
m+n m+n+1 m+n m+n+1
Exemple 2.1.5. On considère un echequier de 64 cases. On choisit deux cases de l’échequier
et on y place deux fois. On dit que deux fois sont en position d’attaque si ils sont sur la même
diagonale. Soit B = {les deux fous sont en position d’attaque}. On introduit des événements.
• A1 = {le premier fou est à l’extrémité de l’échequier}
• A2 = {le premier fou est à une case de l’extrémité de l’échequier}
• A3 = {le premier fou est à deux cases de l’extrémité de l’échequier}
• A4 = {le premier fou est à trois cases de l’extrémité de l’échequier}
En A1 , le premier fou a 7 possibilités d’être en position d’attaque avec le deuxième fou. En A2 ,
il en a 9. En A3 , il en a 11 et en A4 , 13. On a alors :

28 20 12 4
P (A1 ) = , P (A2 ) = , P (A3 ) = , P (A4 ) =
64 64 64 64

7 9 11 13
PA1 (B) = , PA2 (B) = , PA3 (B) = , PA4 (B) =
63 63 63 63
Alors :
28 7 20 9 12 4 × 13
P (B) = × + × = +
64 63 64 63 64 × 63 64 × 63
Proposition 2.1.3 (Formule de Bayes). Soit A un événement de proabilité non nulle. Si les
événements Hi (1 ≤ i ≤ n) forment une partition de Ω et aucun P (Hi ) n’est nul, on a pour
tout j = 1, ..., n :
PHj (A)P (Hj )
PA (Hj ) = X
n
PHi (A)P (Hi )
i=1

Démonstration. Par définition des probabilités conditionnelles on a :

P (A ∩ Hj ) PHj (A)P (Hj )


PA (Hj ) = =
P (A) P (A)

Et il ne reste plus qu’à dévelpper P (A) en conditionnant par la partition (Hi , 1 ≤ i ≤ n).
14 Chapitre 2. Conditionnement et indépendance

2.2 Indépendance
2.2.1 Indépendance de deux événements
Soit A, B ∈ Ω. On suppose que A est réalisé alors P (B) = PA (B) et P (A) = PB (A). On
aura donc :
P (A ∩ B) = P (A) × P (B)
si P (A) > 0 et P (B) > 0.

Définition 2.2.1. Deux événements A et B sont indépendants si :

P (A ∩ B) = P (A) × P (B)

Exemple 2.2.1. Soit un jeu de 36 cartes. On considère :

A = {♣}

B = {D}
Alors :
9 4
P (A) = P (B) =
36 36
et :
A ∩ B = {D♣}
9×4 36 1
P (A ∩ B) = = 2 =
36 × 36 36 36
Proposition 2.2.1. Si A et B sont indépendants alors AC et B sont indépendants.

Démonstration.
P (AC )P (B) = (1 − P (A))P (B) = P (A) − P (A)P (B)
= P (A) − P (A ∩ B) = P (A ∩ B C )

Conséquence. 1. Si A et B sont indépendants alors A et B C sont indépendants et AC et B C


sont indépendants.
2. On a aussi Ω et A sont indépendants et ∅ et A sont indépendants.

2.2.2 Indépendance mutuelle


Définition 2.2.2 (Fausse définition pour l’indépendance de plusieurs éléments). Soit A1 , ..., An
un ensemble d’événements. On dit que A1 , ..., An sont tous indépendants si Ai , Aj sont indé-
pendants pour i 6= j.

Mais on va voir quette définition n’est pas vraie.


1
Exemple 2.2.2. Soit Ω = {ω1 , ω2 , ω3 , ω4 }, p{ωi } = 4

A1 = {ω1 , ω2 }

A2 = {ω1 , ω3 }
Chapitre 2. Conditionnement et indépendance 15

A3 = {ω1 , ω3 }
On a :
1
P (Ai ) =
2
Mais pour i 6= j, Ai , Aj sont indépendants car :
1 1 1
P (Ai ∩ Aj ) = P {ω1= = = ×
4 2 2
Mais B = A2 ∩ A3 et A1 . On vérifie si oui ou non on a P (B ∩ A1 ) = P (B) ∩ P (A1 ).
1 1
P (B) = P (A1 ) =
4 2
1 1 1
P (B ∩ A1 ) = P {ω1 } = 6= ×
4 4 2
Définition 2.2.3. Soient A1 , ..., An des événements. Ils sont indépendants si :

P (Ai ∩ Aj ) = P (Ai )P (Aj ) i 6= j

P (Ai ∩ Aj ∩ Ak ) = P (Ai )P (Aj )P (Ak ) i 6= j 6= k


·········
n n
!
\ Y
P Ai = P (Ai )
i=1 i=1

Proposition 2.2.2. Soient A1 , ..., An des événements indépendants et T1 , ..., Tk tel que :

Ti ∩ Tj = ∅

T1 ∪ ... ∪ Tk = {1, ..., n}


Supposons que B1 soit une combinaison de Ai avec i ∈ T1 , B2 soit une combinaison de Ai avec
i ∈ T2 ,...,Bk soit une combinaison de Ai , i ∈ Tk alors B1 , B2 , ..., Bk sont indépendants.

Corollaire. On suppose Bj = Aj ou Bj = AC
j . Si A1 , ..., An sont indépendants alors B1 , ..., Bn
sont indépendants.
Chapitre 3

Variables aléatoires

3.1 Généralités
Définition 3.1.1. Soit (Ω, F, P ) est une espace probabilisée. On appelle variable aléatoire
discrète sur (Ω, F, P ) toute application X :
X : Ω → R
ω 7→ X(ω)
vérifiant :
1. {ω | X(ω) ∈ Ω} est une partie au plus dénombrable de R.
2. Pour tout x ∈ X(Ω), A = {ω ∈ Ω, X(ω) = x} fait partie de la famille F d’événements
auxquels on peut attribuer une probabilité sur P .
Un cas simple est que Ω soit fini et dénombrable alors F = P(Ω).
Exemple 3.1.1. On suppose qu’on lance 2 dés en même temps :
Ω = {(i, j), i, j = 1...6}
F = P(Ω)
X(i, j) = i + j. Les valeurs possibles sont {2, ..., 12}. Quelle est la valeur de P {X = k} ?
1 3
P {X = 2} = 36
P {X = 10} = 36
2 2
P {X = 3} = 36
P {X = 11} = 36
3 1
P {X = 4} = 36
P {X = 12} = 36

Définition 3.1.2 (Répartition ou loi). Soit F une fonction :


F (x) = P {X ≤ x}, x ∈ R
On l’appelle fonction de répartition de X avec X =]a, b]
P {X ∈]a, b]} = F (b) − F (a)
Démonstration. Soit A = {X ≤ a}, B = {X ≤ b} et C = {X ∈]a, b[} alors :
A∩C =∅
A∪C =B
P {X ≤ b} = P (A ∪ C) = P (A) + P (C) = P {X ≤ a} + P {X ∈]a, b]}

16
Chapitre 3. Variables aléatoires 17

Propriétés de la fonction de répartition


Propriété 3.1.1. On a : 0 ≤ F (x) ≤ 1.
Propriété 3.1.2. Si x < y alors F (x) ≤ F (y).
Propriété 3.1.3. F est continue à droite.
Propriété 3.1.4. lim F (x) = 0 et lim F (x) = 1
x→−∞ x→+∞

Propriété 3.1.5. P {X ∈]a, b]} = F (b) − F (a)


Démonstration. On vérifie d’abord la croissance de F sur R. Soient s et t deux réels quelconques
tel que s ≤ t. Tout ω vérifiant X(ω) ≤ s vérifie a fortiori X(ω) ≤ t. Cette implication se traduit
par l’inclusion d’événements {X ≤ s} ⊂ {X ≤ t} d’où P (X ≤ s) ≤ P (X ≤ t), autrement dit
F (s) ≤ F (t). Ainsi F est croisate. Il en résulte qu’elle possède une limite à gauche et une limite
à droite en tout point de x de R.
Le reste de la preuve repose sur la propriété de continuité monotone séquentielle de la
probabilité qu’on rappelle :
Rappel. Soit P une probabilité sur l’espace (Ω, F).
(i) Si (An )n≥N∗ est une suite croissante d’événements (c’est-à-dire ∀n ∈ N∗ , An ⊂ An+1 ) alors :
[
lim P (An ) = P (A) où A = An
n→+∞
n∈N∗
.
(ii) Si (Bn )n∈N∗ est une suite décroissante d’événements (c’est-à-dire ∀n ∈ N∗ Bn+1 ⊂ Bn )
alors : \
lim P (Bn ) = P (B) où B = Bn
n→+∞
n∈N∗

Soit x ∈ R fixé. Comme on est assuré de l’existence de la limite à droite de F en ce point,


pour montrer que cette limitevaut F(x) et établir la continuité à droite F en x, il suffit de
1
vérifier que : F (x) = lim F x + . Comme F (x + n1 ) = P (X ≤ x + n1 ), ceci résulte de la
n→+∞ n
propriété (ii) ci dessus appliquée aux événements Bn = {X ≤ x + n1 }, en remarquant que :
\  1

X ≤x+ = {X ≤ x (3.1)
n∈N∗ n
\
En effet, pour tout ω ∈ {X ≤ x}, on a X(ω) ≤ x ≤ x + n1 pour tout n ∈ N∗ et donc ω ∈ Bn
n∈N∗
d’où {X ≤ x} est inclus dans l’intersection des Bn (n ∈ N∗ ). Réciproquement, tout ω de cette
intersection vérifie : ∀n ∈ N∗ , X(ω) ≤ x + n1 . Le passage à la limite quand n tend vers l’infini
conservant l’intersection des Bn (n ∈ N∗ ) est incluse dans {X ∈ x}, ce qui achève la vérification
de (3.1).
Comme F est croissante, elle admet des limites en −∞ et +∞. Si X(Ω) est borné inférieu-
rement 1 , il est clair que F (x) = 0 pour tout x assz petit et donc lim F (x) = 0. Dans le cas
n→−∞
général, on identifie la limite en −∞ (dont on connait l’existence) grâce à une suite particulière :

lim F (n) = lim F (−n) = lim P (X ≤ −n)


x→−∞ n→+∞ n→+∞

1
Attention, dans le cas général x0 n’est pas nécessairement le plus petit élément de X(Ω), on peut très bien
avoir par exemple X(Ω) = Z.
18 Chapitre 3. Variables aléatoires

On utilise à nouveau la propriété (ii) avec Bn = {X ≤ −n} en montrant que :


\
{X ≤ −n} = ∅ (3.2)
n∈N∗

En effet, soit ω un élément de cette intersection. Alors X(ω) ≤ −n pour tout n ∈ N∗ donc
en passant à la limite, X(ω) = −∞ ce qui est impossible puisque X ne prend que des valeurs
finies2 . Donc cette intersection est vide et par (ii), lim P (X ≤ −n) = P (∅) = 0. La preuve
n→+∞
de lim F (x) = 1 est analogue.
x→+∞

3.2 Variables aléatoires discrètes


Définition 3.2.1. X est une variable aléatoire discrète si ∃V = {x1 , x2 , ..., xn }, V ⊂ R tel que
P {X ∈ V } = 1. On a :

1) {X = xk } ∩ {X = xn } = ∅, k 6= n
[
2) {X = xk } = {X ∈ V }
k

Proposition 3.2.1. Soit pk = P {X = xk }, ∀A ⊂ R


X
P {X ∈ A} = pk
k|xk ∈A

Démonstration. On a que :
( ( ))
[
P {X ∈ A} = {{X ∈ A} ∩ {X ∈ V }} = P {X ∈ A} ∩ {X = xk }
k

( )  
[  [  X
=P {X ∈ A} ∩ {X = xk } = P  {X = xk } = pk
k k|xk ∈A k|xk ∈A

Exemple 3.2.1. A = R, {X ∈ A} = Ω. On a alors :


X
1= pk
k

Exemple
X 3.2.2. Soit {xk }k=1,...,n , x1 < x2 < ... < xn , pk = {X = xk }, F (x) = P {X ∈ A} =
pk
k|xk ∈]−∞,x]

2
Ce qui signifie que X(Ω) soit borné...
Chapitre 3. Variables aléatoires 19

3.3 Lois discrètes classiques


3.3.1 Loi de Bernouilli
Définition 3.3.1. La variable aléatoire X suit la loit de Bernoulli de paramètre p (p ∈ [0, 1])
si elle ne prend que deux valeurs 0 et 1 avec :
P (X = 1) = p P (X = 0) = 1 − p = q
On notera X ∼ B(p).
Si A est un événements de probabilité p, son indicatrice définie par :
 
1 si ω ∈ A 1 si A est réalisé
1A (ω) =  =
0 si ω ∈
6 A 0 si A n’est pas réalisé
est une variable aléatoire suivant la loi de Bernouilli de paramètre p. Réciproquement, si X est
un variable aléatoire de Bernouilli, on peut toujours écrire X = 1A en définissant A = {ω ∈
Ω, X(ω) = 1}.

3.3.2 Loi uniforme sur un ensemble fini de réels


Définition 3.3.2. La variable aléatoire X suit la uniforme sur l’ensemble des réels {x1 , ..., xn }
si PX est l’équiprobabilité sur cet ensemble.
Autrement dit, l’ensemble des valeurs possibles de X est X(Ω) = {x1 , ..., xn } et :
1
∀k ∈ {1, ..., n} P (X = xk ) =
n
Par exemple, le nombre de points indiqué par un dé suit la loi uniforme sur {1, 2, 3, 4, 5, 6}.

3.3.3 Lois binomiales


Définition 3.3.3. La variable aléatoire X suit la loi binomiale de paramètres n et p (n ∈ N∗
et p ∈ [0, 1]) si l’ensemble des valeurs possibles est X(Ω) = {0, 1, ..., n} et :
∀k ∈ {0, 1, ..., n} P (X = k) = Cnk pk (1 − p)n−k
20 Chapitre 3. Variables aléatoires

Notation. X ∼ B(n, p)
La forme ci-dessus définit bien une loi de probabilité puisuqe les Cnk pk (1 − p)n−k sont positifs
et :
n
Cnk pk (1 − p)n−k = (p + (1 − p))n = 1n = 1
X

k=0

en appliquant la formule du binôme de Newton (d’où le nom de la loi). La loi binomiale B(n, p)
est la loi du nombre de succès obtenus en une suite de n épreuves répétées indépendantes avec
pour chaque épreuve une probabilité de succès p.
De même, soit A1 , ..., An une famille de n événements mutuellement indépendants ayant
tous même probabilité p et notons Xi la variable de Bernouilli indicatrice de Ai :

1 si ω ∈ Ai
Xi (ω) =
0 si ω ∈ AC
i

Pn
Alors la variable aléatoire Sn = i=1 Xi suit la loi binomiale B(n, p).

3.3.4 Lois hypergéométriques


Alors que la loi binomiale intervient dans les tirages avec remise, la loi hypergéométrique
correspond aux tirages sans remise.

Exemple 3.3.1. Dans une production totale de N objets dont M sont défectueux, on prélève
au hasard un échantillon de n objets (tirage sans remise). Soit X le nombre aléatoire d’objets
défectueux dans l’échantillon. Quelle est sa loi ?

On peut prendre comme espace Ω l’ensemble de tous les échantillons possibles (toutes les
parties à n éléments d’un ensemble de cardinal N ) muni de l’équiprobabilité. Chaque échantillon
a ainsi une probabilité 1/CNn d’être choisi. Les échantillons (événements élémentaires) réalisent
l’événement {X = k} sont ceux qui contiennent k objets défectueux et n − k objets défectueux.
Ceci n’est réalisable que si 0 ≤ k ≤ M et 0 ≤ n−k ≤ N −M . On dénombre ces échantillons. On
les forme en choisissant k objets défectueux dans une sous-population de M et en complétant
par n−k objets non défectueux chosis dans une population de N −M . Il y en a donc CM k
×CNn−k−M .
Finalement : 
CMk
× CNn−k
−M
0 ≤ k ≤ M
P (X = k) = si
CNn 0 ≤ n − k ≤ N − M

Définition 3.3.4. La loi définie par l’équation suivante :



C k × C n−k 0 ≤ k ≤ M
P (X = k) = M n N −M si
CN 0 ≤ n − k ≤ N − M

s’appelle la loi hypergéométrique de paramètres N , M et n. Notation : X ∼ H(N, M, n). Le


paramètre N est l’effectif de la population totale, M celui de la sous-population à laquelle on
s’interesse et n la taille de l’échantillon observé.

Pour une taille d’échantillon n fixée, plus N et M sont grands, moins les tirages sans remise
diffèrent des tirages avec remise. Plus précisement, la loi hypergéométrique converge vers la loi
binomiale au sens suivant :
Chapitre 3. Variables aléatoires 21

Theorème 3.3.1. On suppose que quand N tend vers +∞, M = M (N ) tend vers +∞ en
vérifiant la condition :
M
lim = p avec 0 < p < 1
N →+∞ N

Alors, n restant fixé, la loi hypergéométrique H(N, M, n) converge la loi binomiale B(n, p), ce
qui signifie que si (XN )N ≥1 est une suite de variable aléatoire avec XN ∼ H(N, M, n) et Y est
une variable de loi binomiale B(n, p) alors :

∀k ∈ {0, 1, ..., n} lim P (XN = k) = P (Y = k)


N →+∞

autrement dit :
k
CM × CNn−k
−M
∀k ∈ {0, 1, ..., n} lim n
= Cnk pk (1 − p)n−k
N →+∞ CN

3.3.5 Lois géométriques


Exemple 3.3.2. Une variable aléatoire X suit la loi géométrique de paramètre p ∈]0, 1[, si
X(Ω) = N∗ et :
∀k ∈ N∗ , P (X = k) = (1 − p)k−1 p
Notation. X ∼ G(p)
G(p) est la loi du nombre de tentatives en n épreuves indépendantes.

3.3.6 Lois de Poisson


Définition 3.3.5. On dit que la variable aléatoire discrète X suit la loi de Poisson de paramètre
λ > 0, si l’ensemble des valeurs possibles est X(Ω) = N et :

e−λ λk
∀k ∈ N P (X = k) =
k!
Notation. X ∼ P(λ)

3.4 Variables aléatoires continues


3.4.1 Généralités
Définition 3.4.1. Soit X une variable aléatoire à valeurs dans R et fX une densité de pro-
babilité sur R. On dit que X est une variable aléatoire continue de densité fX si pour tout
intervalle A de R on a : Z
P (X ∈ A) = fX (x)dx
A
La loi de la variable aléatoire X est la loi continue sur R de densité fX .
Pour déterminer la loi d’une variable aléatoire continue, il faut donc calculer sa densité.
De manière équivalente, on déterminer la loi d’une variable continue en donnant la probabilité
qu’elle appartienne à un intervalle I quelconque.
Une variable aléatoire continue X, de densité fX , tombe entre a et b avec une probabilité
égale à : Z b
P (a < X < b) = fX (x)dx
a
22 Chapitre 3. Variables aléatoires

Plus la densité fX est élevée au dessus d’un segment, plus les chances que X a d’atteindre ce
segment sont élevées, ce qui justifie le terme "densité".
On a :
P (X ∈ [a, b]) = P (X ∈ [a, b[) = P (X ∈]a, b[) = P (X ∈]a, b[)

3.4.2 Loi pour les variables aléatoires continues


Loi uniforme
X ∼ U[a, b] alors :
1
fX (x) = 1[a,b]
b−a

Loi gausienne (loi normale)


X ∼ N (a, σ 2 ), a ∈ R2 , σ ≥ 0, si :
!
1 (x − a)2
fX (x) = √ exp −
2πσ 2σ 2

3.4.3 Analogie entre variable aléatoire continue et discrète


Z Z t
F (x) = P {X ≤ x} = P {X ∈] − ∞, x]} = fX (t)dt = fX (t)dt
]−∞,x] −∞
Chapitre 3. Variables aléatoires 23

3.5 Indépendance des variables aléatoires


3.5.1 Introduction
Soient X et Y deux variables aléatoires. On a :

{X ∈ B} {Y ∈ C}

On va dire que X et Y sont indépendants si les événements {X ∈ B} et {Y ∈ C} sont


indépendants.

3.5.2 Généralités
Définition 3.5.1. Soient X1 , ..., Xn variables aléatoires. On dit qu’ils sont indépendants si les
événements {X1 ∈ B1 },...,{Xn ∈ Bn } sont indépendants, ∀B1 , ..., Bn ⊂ R.

Theorème 3.5.1. X1 , ..., Xn variables aléatoires discrètes et {aj } alors :


n
Y
X1 , ..., Xn indépendants ⇔ P {X1 = aj1 , ..., Xn = ajn } = P {Xk = ajk }
k=1

pour chaque j1 , ..., jn .

Démonstration. (⇒) Bk = {ajk } alors {X1 = aj1 },...,{Xn = ajn } sont indépendants. On a
alors :
n
Y
P {X1 = aj1 , ..., Xn = ajn } = P {Xk = ajk }
k=1

(⇐)
Y
P {X1 ∈ B1 , ..., Xn ∈ Bn } = P {Xk ∈ Bk }
On remarquera que :
\
{X1 ∈ B1 , ..., Xn ∈ Bn } = {X1 ∈ aj1 , ..., Xn ∈ ajn }
(∗)

avec (∗) = (j1 , ..., jn ) | ajk ∈ Bk pour k = 1, ..., n.


X
P {X1 ∈ B1 , ..., Xn ∈ Bn } = P {X = aj1 , ..., Xn = ajn }
(∗)
n
XY
= P {Xk = ajk }
k=1
(∗) X
Y
= P {Xk = ajk }
n
Y
= P {Xk ∈ Bk } → indépendants
k=1

car :

P {Ai ∩Aj ∩Ak } = P {Xi ∈ Bi , Xj ∈ Bj , Xk ∈ Bk } = P {X1 ∈ R, ..., Xi−1 ∈ R, Xi ∈ Bi , Xi+1 ∈ R, ..


24 Chapitre 3. Variables aléatoires

3.6 Epreuves de Bernouilli


Définition 3.6.1. Soit k un événement et εk sa variable aléatoire dont les valeurs de εk sont 0
et 1 (de probabilités respectives q = 1 − p et p). On considère la suite (ε1 , ..., εn ) avec ε1 , ..., εn
indépendants. On appelle la suite de n épreuves de Bernouilli l’ensemble des εk , ∀k = 1, ..., n.
Les événements εk suivent la loi de Bernouilli de paramètre p.
Soit νn le nombre de succès de ces n événements alors :
n
X
νn = εk
k=1

Proposition 3.6.1. νn ∼ B(n, p) c’est-à-dire :

pn (k) = P {νn = k} = Cnk pk (1 − p)n−k , ∀k ∈ {1, ..., n}

Démonstration.
X
P {νk = k} = P {ε1 = a1 , ε2 = a2 , ..., εn = an } (N)
(∗)

n
X
avec (∗) = (a1 , ..., an ) | ai = {0, 1} et ai = k.
i=1
\
{νk = k} = {ε1 = a1 , ε2 = a2 , ..., εn = an }
(∗)

P {εk = ak } = pk (1 − p)n−k
Y
P {ε1 = a1 , ..., εn = an } =
(N) = pk (1 − p)n−k card(A)
avec :   

0 n
X 
A= (a 1 , ..., an ) ai
= et ai = k 
 1 i=1

et card(A) = Ckn .
λk −λ
Theorème 3.6.2 (Poisson). Soit pn (k) et p = pn tel que npn → λ. Alors ∀k, pn (k) → k!
e .
Démonstration.
n!
pn (k) = k!(n−k)!
pk (1 − p)n−k
1
= k!
n(n − 1)...(n − k + 1)pk (1 − p)n−k
1 (n−1)...(n−k+1)
= k! nk−1
(np)k (1!− p)n−k
n−1 n−k+1
= 1
k
... (np)k (1 − p)n−k
n n | {z } | {z }
| {z } Bn Cn
An

On alors :
!
n−1n−2 n−k+1 1 2 k−1
  
An = ... = 1− 1− ... 1 − →1
n n n n n n

Bn = (np)k = (npn )k → λk
xn n 1
 
n−k
Cn = (1 − p) = 1+
n (1 + xnn )n
avec xn = npn → −λ → e−λ . D’où la formule.
Chapitre 3. Variables aléatoires 25

Theorème 3.6.3 (Théorème local de Moivre-Laplace). Soit Sn une variable aléatoire qui suit
une loi binomiale de paramètre p alors pour n suffisamment grand la variable :
Sn − np
Zn = √
npq

converge en loi vers une loi normale centrée N (0, 1).


1 1 −x2 /2
pn (x) = √ e nk
npq 2π
c’est-à-dire :
p (k)
n
max − 1 →0
k∈In fn (k)
k−np
avec In = {k | |xnk ≤ C} et xnk = √
npq
.
Chapitre 4

Espérance mathématique

4.1 Généralités
4.1.1 Aspect discret
Définition 4.1.1. Soit X une variable aléatoire vérifiant :
X
|xk |P (X = xk ) < ∞
xk ∈X(Ω)

On appelle espérance mathématique de X le réel EX défini par :


X
EX = xk P (X = xk )
xk ∈X(Ω)

L’espérance de X apparaît ainsi comme le barycentre des valeurs possibles de X pondérées par
leurs probabilités de réalisation.

Propriété 4.1.1. 1) Si X = c alors EX = c


2) Si X > 0 alors EX ≥ 0
3) E(aX) = aEX (Linéarité de l’espérance)

Démonstration du 3). X = aj ⇔ aX = aaj


X X
E(aX) = aaj pj = a aj pj = aEX
j j

4) E(X + Y ) = EX + EY

Démonstration du 4). Soit X = ai , pi = P {X = ai } et Y = bj , qj = P {Y = bj }. Soit :


[
A= (A ∩ {y = bj })
j

On a : X
pi = P {X = ai } = P {X = ai , Y = bj }
j
X
qj = p{Y = bj } = P {X = ai , Y = bj }
i

26
Chapitre 4. Espérance mathématique 27

X X
EX + EY = ai p i + b j aj
i j

  !
X X X X
= ai  P {X = ai , Y = bj }  + bj P {X = ai , Y = bj }
i j j i

XX XX
= ai P {X = ai , Y = bj } + bj P {X = ai , Y = bj }
i j j i

XX
= (ai + bj )P {X = ai , Y = bj } = E(X + Y )
i j

X
Remarque. Si |ai |pi = ∞ alors X n’a pas d’espérance mathématiques.
i

5) X ≥ Y ⇒ EX ≥ EY

Démonstration du 5).

X − Y ≥ 0 ⇒ E(X − Y ) ≥ 0 ⇒ EX − EY = 0

6) |EX| = E|X|

Démonstration du 6).
−|X| ≤ X ≤ |X|

−E|X| ≤ EX ≤ E|X| ⇔ |EX| ≤ E|X|


0, 1 − p
Exemple 4.1.1. 1) X = , Bernouilli :
1, p

EX = 0(1 − p) + p = p

2) X ∼ B(n, p), k = 0, 1, ..., n :


Pn (k) = Cnk pk (1 − p)n−k
n
kCnk pk (1 − p)n−k
X
EX =
k=0

Remarque. Si X suit la même loi que Y alors EX = EY .


Soit νn ∼ B(n, p), E(X) = E(νn ). On a que νn = ε1 + ... + εn :

EX = Eνn = E(ε1 + ... + εn )


n
kCnk pk (1 − p)n−k
X
= Eε1 + ... + Eεn = np =
k=0
28 Chapitre 4. Espérance mathématique

3) Soit X suivant une loi de Poisson, k = 0, 1, 2, ...

λk −λ
P {X = k} = e
k!
On a :
∞ ∞
λk −λ λk
e = e−λ
X X
EX = k k
k=0 k! k=1 k!

λk−1
= λe−λ = λe−λ eλ = λ
X

k=1 (k − 1)!

4.1.2 Aspect continu


Définition 4.1.2. Soit X une variable aléatoire continue de densité p(x) ≥ 0. On a :
Z
P {X ∈ I} = p(x) = 0
I

On note X h = hk si X ∈ [kh, (k + 1)h[. On a alors que :


Z kh+h X Z kh+h
kh{X h = kh} =
X X
E(X h ) = kh p(x)dx = khp(x)dx
k∈Z k∈Z kh k∈Z kh

X Z +∞ Z ∞ X
= 1∆k (x)p(x)dx = 1∆k (x)p(x)dx
k∈Z −∞ −∞ k∈Z

Z ∞ Z ∞
= gh (x)p(x)dx = xp(x)dx
−∞ −∞

Elle existe si : Z ∞
|x|p(x)dx < ∞
−∞

4.1.3 Retour à l’aspect discret


Proposition 4.1.2. X, Y deux variables discrètes et indépendantes. Alors :

E(XY ) = EXEY

Démonstration. Soit X de valeurs ai et de probabilité pi et Y de valeurs bj et de probabilité qj


alors :
X X XX
EXEY = ai p i bj q j = ai b j p i q j
i j i j

XX XX
= ai bj P {X = ai }P {Y = bj } = P {X = ai , Y = bj } = E(XY )
i j i j

Proposition 4.1.3. Soit X de valeurs ai et de probabilité pi . Soit f : R → R tel que pour


Y = f (X), EY existe. Alors :
X
EY = Ef (X) = f (ai )pi
i
Chapitre 4. Espérance mathématique 29

Démonstration. Soit Y de valeurs bj et de probabilités qj :


X
EY = bj P {Y = bj } (∗)
j

On a :
P {Y = bj } = P {f (X) = bj } (∗0 )
On pose :
Tj = {k|f (ak ) = bj }
Alors :
(∗0 ) =
X
pk
k∈Tj

et :    
X X X X X
(∗) = bj  pk  =  f (ak )pk  = f (ai )pi
j k∈Tj j k∈Tj i

Exemple 4.1.2. 1) Si X suit la loi uniforme sur l’ensemble fini {x1 , ..., xn }, EX est égale à la
moyenne arithmétique des xi .
2) Si X suit la loi géométrique de paramétre p > 0 alors :
1
EX =
p

3) Si X suit la loi hypergéométrique H(N, M, n) alors :


M
EX = n
N
Des exemples sont données dans le polycopié de cours.

Exemple 4.1.3. 1) X ∼ U([a, b])


1
p(x) = 1[a,b] (x)
b−a
Z ∞ Z b
1 1 x2 b a + b
 
EX = xp(x)dx = x dx = =
−∞ a b−a b−a 2 a 2
2) X ∼ N (a, σ 2 ) alors EX = a.

4.2 Moments
Définition 4.2.1. Les expressions EX n , E|X|p , E|X − EX|p sont des moments.
• EX n est le moment de X d’ordre n.
• E|X|p est le moment absolu de X d’ordre p.
• E|X − EX|p est le moment absolu centré d’ordre p.

Définition 4.2.2. On appelle variance de X :

Var X = E|X − EX|2


30 Chapitre 4. Espérance mathématique

Propriété 4.2.1. Var X = E(X)2 − (EX)2

Démonstration.

Var X = E|X − EX|2 = E(X 2 − 2XEX + (EX)2 ) = E(X 2 ) − 2EXEX + (EX)2

Exemple 4.2.1.

0 1−p
ε= , Eε = p
1 p

Var ε = E(ε2 ) − p2 = p − p2 = p(1 − p)

Propriété 4.2.2. Var X ≥ 0 et Var X = 0 ⇔ X = c

Propriété 4.2.3. Var(cX) = c2 Var X

Démonstration.

E(cX − E(cX)|2 = E|c − (X − EX)|2 = c2 E|X − EX|2

Propriété 4.2.4. Var(X + a) = Var X

Propriété 4.2.5. X, Y indépendantes alors : Var(X + Y ) = Var X + Var Y

Démonstration. Soit a = EX et b = EY

Var(X + Y ) = Var(X + Y − (a + b)) = Var(X − a + Y − b) (∗)

On note X1 = X − a et Y1 = Y − b.

(∗) = E(X1 + Y1 )2 = EX12 + EY12 + 2E|X1 Y1 |

= EX12 + EY12 = Var X + Var Y

Exemple 4.2.2. X ∼ B(n, p), EX = np


n
|k − np|2 Cnk pk (1 − p)n−k
X
Var X =
k=0

On a que X ∼ νn

Var X = Var(νn ) = Var(ε1 + ... + εn ) = Var ε1 + ... + Var εn = np(1 − p)


Chapitre 4. Espérance mathématique 31

4.3 Inégalité de Markov et Tchebychev


Proposition 4.3.1 (Inégalité de Markov). Soit X ≥ 0, alors ∀t ≥ 0

EX
P {X ≤ t} ≤
t
Démonstration dans le cas discret. Soit X de valeurs ai et de probabilité pi . On a que ai ≥ 0
X X ai 1X EX
P {X ≤ t} = pi ≤ pi ≤ ai p i =
i|ai ≥t i|ai ≥t
t t i t

Proposition 4.3.2 (Inégalité de Tchebychev). Soit X une variable alétaoire tel que EX et
Var X existent alors ∀t ≥ 0 :
Var X
P {|X − EX| ≥ t} =
t2
Démonstration.
EY E|X − EX|2 Var X
P {|X − EX| ≥ t} = P {|X − EX|2 ≥ |{z}
t2 } = = =
| {z }
s
s t2 t2
Y
Chapitre 5

Loi des grands nombres

5.1 Loi des grands nombres


Theorème 5.1.1 (Loi des grands nombres). Soit (Xn ) variables aléatoires de même loi, EXk =
a, Var Xk = σ 2 < ∞. Alors :
Sn P

→a
n
n
X
Notation. Xk = Sn
k=1

P
Définition 5.1.1. Yn −
→ Y si ∀ε > 0 :

P {|Yn − Y | > ε} −−−−→ 0


n→+∞

Démonstration. Soit ε > 0


 
Sn
Sn
  
Sn
 Var n
−a 1
Var Sn 1 1 X n
n2

P − a <ε ≤E −a ≤ = = Var(Xi )

n n ε2 ε2 ε2 n2 i=1

1 nσ 2 σ2 1
= = −−−−→ 0
ε2 n ε2 n n→+∞

Exemple 5.1.1. Soit A de valeurs εi de probabilité p :



1 si A à la i-ème épreuve
εi =
0 si AC à la i-ème épreuve

nA ε1 + ... + εn P
= −
→ Eε1 = p = P (A)
n n

32

Vous aimerez peut-être aussi