Vous êtes sur la page 1sur 16

Chapitre 2 : Variables aléatoires discrètes.

2.0 Introduction :

Soit une expérience aléatoire (e.a) et 𝛀 l’espace fondamental associé.


Celui-ci est formé d’éléments qui peuvent avoir des formes diverses.
Fréquemment, l’objet d’étude est une caractéristique numérique que
possède chacun des éléments de 𝛀. C’est ce que nous appellerons par
la suite variable aléatoire (notée V.A).

2.1 Exemples :

1- On jette une pièce de monnaie 3 fois et on s’intéresse au nombre de


fois que l’on obtient 𝑭.
Ici 𝛀 = {𝑭𝑭𝑭, 𝑭𝑭𝑷, 𝑭𝑷𝑭, 𝑷𝑭𝑭, 𝑭𝑷𝑷, 𝑷𝑭𝑷, 𝑷𝑷𝑭, 𝑷𝑷𝑷}

La caractéristique numérique : nombre de faces.

L’outil mathématique approprié qui peut exprimer cette


caractéristique est la notion d’application :

𝑿∶𝛀⟶ℝ
𝑷𝑷𝑷

𝑭𝑷𝑷
𝑷𝑭𝑷
𝑭𝑷𝑷 0

𝑷𝑭𝑭 1

𝑭𝑷𝑭 2

𝑭𝑭𝑷 3

𝑭𝑭𝑭
1
Remarquons que : 𝑿(𝛀) = {𝟎, 𝟏, 𝟐, 𝟑} ⊂ ℝ.
2- On jette 2 dés et on s’intéresse à la caractéristique numérique : La
somme des nombres apparues. Ici, 𝛀 = {(𝒊, 𝒋)/ 𝟏 ≤ 𝒊, 𝒋 ≤ 𝟔} et
𝑿(𝒊, 𝒋) = 𝒊 + 𝒋. L’ensemble image est 𝑿(𝛀) = {𝟐, 𝟑, 𝟒 … . . , 𝟏𝟐} ⊂ ℝ.

(𝟏, 𝟏)
(𝟏, 𝟐) 2
. 3
.
.
(𝟔, 𝟓) 11
(𝟔, 𝟔) 12

3- Jet d’une pièce de monnaie jusqu’à obtenir « face » pour la première


fois ; on s’intéresse au nombre de jets qu’il a fallu pour obtenir
« face ».

Ici 𝛀 = {𝑭, 𝑷𝑭, 𝑷𝑷𝑭, … . ⏟


𝑷𝑷 … 𝑷 𝑭, … }, donc,
𝒏−𝟏 𝒇𝒐𝒊𝒔
𝑿(𝛀) = {𝟏, 𝟐, 𝟑, … , 𝒏, 𝒏 + 𝟏, … . } = ℕ∗ ⊂ ℝ.

𝑭 1
𝑷𝑭 2
𝑷𝑷𝑭 3
.
.
.

𝑷𝑷 … 𝑷 𝑭 𝒏
(𝒏−𝟏)𝒇𝒐𝒊𝒔
. .
. .
2
Notations :
Dans le but de simplifier l’écriture, pour toute variable aléatoire 𝑿, on
utilisera systématiquement les notations suivantes :

𝑿−𝟏 ({𝒙}) = {𝝎 ∈ 𝛀/𝑿(𝝎) = 𝒙} =: (𝑿 = 𝒙).

𝑿−𝟏 (]−∞, 𝒙]) = {𝝎 ∈ 𝛀/𝑿(𝝎) ≤ 𝒙} =: (𝑿 ≤ 𝒙).

𝑿−𝟏 (]𝒂, 𝒃]) = {𝝎 ∈ 𝛀/ 𝒂 < 𝑋(𝝎) ≤ 𝒃} =: (𝒂 < 𝑿 ≤ 𝒃).

Remarque :
L’étude des variables aléatoires réelles se fera selon la nature de
l’ensemble image 𝑿(𝛀).

- 𝑿(𝛀) est discret. (i.e 𝑿(𝛀) est soit fini ou infini dénombrable.
- 𝑿(𝛀) est continu. (i.e 𝑿(𝛀) est soit ℝ ou un intervalle de ℝ.

A- Etude des variables aléatoires discrètes :

2.2 Définition :
Soit (𝛀, 𝓐, 𝑷) un espace probabilisé, on appelle
variable aléatoire réelle (VAR), toute application : 𝑿 ∶ 𝛀 ⟶ ℝ .

Remarque :

1- Dans le cas discret, 𝑿(𝛀) = {𝒙𝒊 , 𝒊 ∈ 𝑰 ⊂ ℕ} ⊂ ℝ. L’ensemble 𝑰 des


indices peut-être fini ou infini.
2- Ce qui justifie l’appellation : variable aléatoire, est que l’image
𝑿(𝛚) n’est connue qu’une fois l’expérience aléatoire réalisée. Elle
dépend du hasard.

2.3 Définition :
Soit (𝛀, 𝓐, 𝑷) un espace probabilisé, et 𝑿 une
variable aléatoire réelle ; on appelle fonction de probabilité de 𝑿, la
fonction d’ensembles : 𝑷𝑿 définie sur les parties de 𝑿(𝛀), qu’il suffit
de connaitre en chaque point de 𝑿(𝛀).
3
𝑷𝑿 (𝒙𝒊 ) = 𝑷(𝑿 = 𝒙𝒊 )
Remarque : 𝑷𝑿 est bien une probabilité sur 𝑿(𝛀) ⊆ ℝ, et non sur 𝛀. Pour
s’en convaincre, il suffit de remarquer que les ensembles :
(𝑿 = 𝒙𝒊 ), 𝒙𝒊 ∈ 𝑿(𝛀)

forment une partition de 𝛀 et par conséquent,

∑ 𝑷𝑿 (𝒙𝒊 ) = ∑ 𝑷(𝑿 = 𝒙𝒊 ) = 𝑷 ( ⋃ (𝑿 = 𝒙𝒊 )) = 𝑷(𝛀) = 𝟏.


𝒙𝒊 ∈𝑿(𝛀) 𝒙𝒊 ∈𝑿(𝛀) 𝒙𝒊 ∈𝑿 (𝛀)

2.4 Exemples :

1- Reprenons l’exemple du jet d’une pièce de monnaie 3 fois où on


s’intéresse au nombre de faces obtenues. Ici, 𝑿(𝛀) = {𝟎, 𝟏, 𝟐, 𝟑} et donc ;
𝟏
𝑷𝑿 (𝟎) = 𝑷(𝑿 = 𝟎) = 𝑷{𝑷𝑷𝑷} = .
𝟖

𝟏 𝟏 𝟏 𝟑
𝑷𝑿 (𝟏) = 𝑷(𝑿 = 𝟏) = 𝑷{𝑭𝑷𝑷, 𝑷𝑭𝑷, 𝑷𝑷𝑭} = + + = .
𝟖 𝟖 𝟖 𝟖

𝟏 𝟏 𝟏 𝟑
𝑷𝑿 (𝟐) = 𝑷(𝑿 = 𝟐) = 𝑷{𝑭𝑭𝑷, 𝑭𝑷𝑭, 𝑷𝑭𝑭} = + + = .
𝟖 𝟖 𝟖 𝟖

𝟏
𝑷𝑿 (𝟑) = 𝑷(𝑿 = 𝟑) = 𝑷{𝑭𝑭𝑭} = .
𝟖

2- Reprenons l’exemple du jet d’une pièce de monnaie équilibrée


jusqu’à obtenir « face ». Ici, 𝑿(𝛀) = ℕ∗ et donc ; pour tout 𝒏 ∈ ℕ∗ ,
on a :
𝟏 𝟏 𝟏
𝑷𝑿 (𝒏) = 𝑷 {⏟
𝑷𝑷 … . 𝑷 𝑭} = 𝒏−𝟏 . = .
𝟐 𝟐 𝟐𝒏
𝒏−𝟏 𝒇𝒐𝒊𝒔
Il est important de vérifier que 𝑷𝑿 est bien une probabilité ; c’est-
à-dire : ∑ 𝒏∈ℕ∗ 𝑷𝑿 (𝒏) = 𝟏.

En effet :

4
𝟏 𝟏 𝟏 𝟏 𝟏 𝟏 𝟏
∑ 𝑷𝑿 (𝒏) = ∑ = ∑ = = 𝟏, ∑ =
𝟐𝒏 𝟐 𝟐𝟏 − 𝟏
𝟐𝒏−𝟏 𝟐 𝟐𝒏
𝒏≥𝟏 𝒏≥𝟏 𝒏≥𝟏 𝒏≥𝟎
𝟐
𝟏
(car ∈ 𝑫 = ]−𝟏, +𝟏[ = domaine de convergence de la série
𝟐
𝟏
entière : ∑𝒏≥𝟎 𝒙𝒏 . Sur 𝑫, ∑𝒏≥𝟎 𝒙𝒏 = ).
𝟏−𝒙

2.5 Remarque :
En pratique, on est souvent amené à considérer l’application
composée, 𝒀 = 𝒈𝒐𝑿 au lieu de 𝑿. Ce qui est représenté par le
schéma suivant :
𝛀 𝑿 𝑿(𝛀) ⊆ ℝ 𝒈 𝒈(𝑿(𝛀) ) ⊆ ℝ.

Explicitons à présent, 𝑷𝒈𝒐𝑿 . Soit 𝒚 ∈ 𝒈 (𝑿(𝛀) ),

𝑷𝒀 (𝒚) = 𝑷(𝒀 = 𝒚) = 𝑷(𝒈𝒐𝑿 = 𝒚) = 𝑷 (𝑿−𝟏 ( 𝒈−𝟏 (𝒚)))

= ∑ 𝑷(𝑿 = 𝒙𝒊 ) = ∑ 𝑷𝑿 (𝒙𝒊 ).
𝒊∈𝑰/𝒈 (𝒙𝒊 )=𝒚 𝒊∈𝑰/𝒈(𝒙𝒊 )=𝒚
2.6 Exemple :

𝒙𝒊 -1 1 2
𝑷𝑿 (𝒙𝒊 ) 𝟏 𝟏 𝟏
𝟒 𝟐 𝟒

Si 𝒈 (𝒙) = 𝟐𝒙 + 𝟏,

𝒚𝒊 -1 3 5
𝑷𝒀 (𝒚𝒊 ) 𝟏 𝟏 𝟏
𝟒 𝟐 𝟒

Si 𝒈 (𝒙) = 𝒙𝟐 ,

𝒚𝒊 1 4
𝑷𝒀 (𝒚𝒊 ) 𝟑 𝟏
𝟒 𝟐
5
2.7 Définition : Fonction de répartition.

Soit (𝛀, 𝓐, 𝑷) un espace probabilisé, et 𝑿 une variable aléatoire

réelle ; on appelle fonction de répartition de 𝑿, la fonction

définie sur ℝ, par :

𝑭 ∶ ℝ ⟶ [𝟎, 𝟏]
𝒙 ∈ ℝ ⟶ 𝑭(𝒙) ∶= 𝑷(𝑿 ≤ 𝒙)
Remarque :

Noter que dans le cas 𝑿(𝛀) fini :

𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) = ∑ 𝑷𝑿 (𝒙𝒊 )


𝒙𝒊 ≤𝒙

Cette dernière expression rappelle la notion de fréquence cumulée en


Statistique.

2.8 Exemple :

Retour à l’exemple du jet d’une pièce 3 fois.

𝒙𝒊 0 1 2 3
𝑷𝑿 (𝒙𝒊 ) 𝟏 𝟑 𝟑 𝟏
𝟖 𝟖 𝟖 𝟖

Si 𝒙 < 0; 𝐹 (𝒙) = 𝑷(∅) = 𝟎.


𝟏
𝒙 ∈ [𝟎, 𝟏[ ; 𝑭(𝒙) = 𝑷(𝑿 = 𝟎) = .
𝟖
𝟒
𝒙 ∈ [𝟏, 𝟐[ ; 𝑭(𝒙) = 𝑷(𝑿 = 𝟎 ∨ 𝑿 = 𝟏) = .
𝟖

𝟕
𝒙 ∈ [𝟐, 𝟑[ ; 𝑭(𝒙) = 𝑷(𝑿 = 𝟎 ∨ 𝑿 = 𝟏 ∨ 𝑿 = 𝟐) = .
𝟖

𝟖
𝒙 ∈ [𝟑, +∞[ ; 𝑭(𝒙) = 𝑷(𝑿 = 𝟎 ∨ 𝑿 = 𝟏 ∨ 𝑿 = 𝟐 ∨ 𝑿 = 𝟑) = = 𝟏.
𝟖
6
1

𝟕
𝟖

𝟒
𝟖

𝟏
𝟖

0 1 2 3

2.9 Propriétés de la fonction de répartition :

1- 𝑭 est ↑ sur ℝ.
2- 𝑭 est continue à droite.
3- 𝐥𝐢𝐦 𝑭(𝒙) = 𝟎 ; 𝐥𝐢𝐦 𝑭(𝒙) = 𝟏.
𝒙→−∞ 𝒙→+∞
4- 𝑷(𝒂 < 𝑋 ≤ 𝑏) = 𝑭(𝒃) − 𝑭(𝒂).

Preuve
1- Soient 𝒙 et 𝒚 tels que 𝒙 < 𝑦 .
𝒙 < 𝒚 ⟹ (𝑿 ≤ 𝒙) ⊂ (𝑿 ≤ 𝒚) ⟹ 𝑷(𝑿 ≤ 𝒙) ≤ 𝑷(𝑿 ≤ 𝒚) ; d’où,
𝑭(𝒙) ≤ 𝑭(𝒚).
2- Soit 𝒙 et (𝒙𝒏 )𝒏∈ℕ ↓ telle que 𝒙𝒏 > 𝑥 et 𝐥𝐢𝐦 𝒙𝒏 = 𝒙. Si on pose :
𝒏→+∞

𝑨𝒏 = (𝑿 ≤ 𝒙𝒏 ), alors 𝑨𝒏 ⊂ 𝑨𝒏+𝟏 et donc,

𝐥𝐢𝐦 𝑭(𝒙𝒏 ) = 𝐥𝐢𝐦 𝑷(𝑨𝒏 ) = 𝑷 (⋂ 𝑨𝒏 ) = 𝑷(𝑿 ≤ 𝒙) = 𝑭(𝒙).


𝒏→+∞ 𝒏→+∞
𝒏∈ℕ

3- Procéder de la même manière que dans 2, avec 𝑨𝒏 = (𝑿 ≤ −𝒏) et


remarquer que ⋂𝒏∈ℕ ↓ 𝑨𝒏 = ∅. Pour l’autre limite, considérer 𝑨𝒏 =
(𝑿 ≤ 𝒏) et remarquer que ⋃𝒏∈ℕ ↑ 𝑨𝒏 = 𝛀.

4- Du fait que : (𝒂 < 𝑋 ≤ 𝑏) = (𝑿 ≤ 𝒃) ∖ (𝑿 ≤ 𝒂), on a :

𝑷(𝒂 < 𝑋 ≤ 𝑏) = 𝑷(𝑿 ≤ 𝒃) − 𝑷(𝑿 ≤ 𝒂) = 𝑭(𝒃) − 𝑭(𝒂).


7
2.10 Espérance et variance d’une variable aléatoire :

Définition :

Soit (𝛀, 𝓐, 𝑷) un espace probabilisé, et 𝑿 une variable aléatoire


réelle ; on appelle espérance de 𝑿, la quantité :

𝑬(𝑿 ) = ∑ 𝒙𝒊 . 𝑷𝑿 (𝒙𝒊 )
𝒙𝒊 ∈𝑿(𝛀)
Exemples :
1- On considère variable aléatoire 𝑿 dont la probabilité 𝑷𝑿 est
donnée par :
𝒙𝒊 0 1 2 3
𝑷𝑿 (𝒙𝒊 ) 1/8 3/8 3/8 1/8

𝟏 𝟑 𝟑 𝟏 𝟑
𝑬( 𝑿 ) = ∑ 𝒙𝒊 . 𝑷𝑿 (𝒙𝒊 ) = 𝟎. + 𝟏. + 𝟐. + 𝟑. = .
𝟖 𝟖 𝟖 𝟖 𝟐
𝒙𝒊 ∈𝑿(𝛀)
2- On reprend l’exemple du jet d’une pièce jusqu’à obtenir « face » et
pour variable aléatoire le rang d’apparition du « face ».
𝟏
Ici 𝑿(𝛀) = ℕ∗ et 𝑷𝑿 (𝒏) = et donc,
𝟐𝒏
𝟏 𝟏 𝟏 𝒏−𝟏
𝑬(𝑿) = ∑𝒏∈ℕ∗ 𝒏 . 𝑷𝑿 (𝒏) = ∑𝒏∈ℕ∗ 𝒏 = . ∑𝒏∈ℕ∗ 𝒏 ( ) =𝟐
𝟐𝒏 𝟐 𝟐

𝟏 ′ 𝟏
+∞ 𝒏 )′
(∑𝒏=𝟎 ) = ∑+∞ 𝒏−𝟏
(on a utilisé 𝒙 =( 𝒏=𝟏 𝒏. 𝒙 == (𝟏−𝒙)𝟐
; 𝒔𝒊 |𝒙| < 𝟏)
𝟏−𝒙

𝟐
- Variance : 𝑽(𝑿) = 𝑬 [(𝑿 − 𝑬(𝑿)) ] = 𝑬(𝑿𝟐 ) − 𝑬𝟐 (𝑿).
Exemple :
On considère la même variable que dans l’exemple 1 ci-dessus.

𝟐
𝟐) 𝟐( 𝟐
𝟏 𝟐
𝟑 𝟑 𝟐
𝟑 𝟐
𝟏 𝟑
𝑽 (𝑿 ) = 𝑬(𝑿 − 𝑬 𝑿) = 𝟎 . + 𝟏 . + 𝟐 . + 𝟑 . − ( ) =
𝟖 𝟖 𝟖 𝟖 𝟐 𝟒

8
2.11 Remarque : 𝑬(𝑿) et 𝑽(𝑿) peuvent ne pas exister dans le cas
𝑿(𝛀) infini ! On exige que les séries qui sont mises en jeu soient
absolument convergentes. Pour s’en convaincre, on peut
𝟔
considérer 𝑿(𝛀) = ℕ∗ et 𝑷𝑿 (𝒏) = et donc, 𝑬(𝑿) = +∞.
𝝅𝟐 𝒏𝟐
𝟏 𝟏
Dans le cas 𝑿(𝛀) = ℕ∗ et 𝑷𝑿 (𝒏) = où 𝒔 = ∑𝒏∈ℕ∗ ,
𝒔.𝒏𝟑 𝒏𝟑
𝑬(𝑿) existe mais 𝑬(𝑿𝟐 ) n’existe pas donc 𝑽(𝑿) = +∞ !!!

2.12 Lois discrètes usuelles :

A : 𝑿(𝛀) fini :

Définition : (Epreuve de Bernoulli)

On appelle épreuve de Bernoulli toute expérience aléatoire à


deux issues ; l’une de probabilité 𝒑, appelée succès et l’autre de probabilité
𝒒 = 𝟏 − 𝒑 appelée échec. On s’intéresse alors au nombre de succès dans
l’épreuve.

a) Loi de Bernoulli :
Dans l’épreuve de Bernoulli, on considère la variable
aléatoire :
𝑿∶ 𝛀⟶ℝ
𝝎 ∈ 𝛀 ⟶ 𝑿(𝝎) ≔ 𝒏𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒔𝒖𝒄𝒄è𝒔
Ici, 𝛀 = {𝑺, 𝑬} et 𝑿(𝛀) = {𝟎, 𝟏}.

Loi de probabilité :

𝒙𝒊 𝟎 𝟏
𝑷𝑿 (𝒙𝒊 ) 𝒑 𝟏−𝒑 = 𝒒

Calcul de l’espérance et de la variance :

9
𝑷𝑿 (𝟎) = 𝑷(𝑬) = 𝟏 − 𝒑, 𝑷𝑿 (𝟏) = 𝑷(𝑺) = 𝒑.
- 𝑬(𝑿) = 𝟎. 𝑷𝑿 (𝟎) + 𝟏. 𝑷𝑿 (𝟏) = 𝒑.
- 𝑽(𝑿) = 𝑬(𝑿𝟐 ) − 𝑬𝟐 (𝑿) = 𝒑 − 𝒑𝟐 = 𝒑𝒒.

b) Loi binomiale de paramètres 𝒏 et 𝒑 :


On répète l’épreuve de Bernoulli 𝒏 fois et on considère la variable
aléatoire 𝑿 : nombre de succès obtenus.
𝑿∶ 𝛀⟶ℝ
𝝎 ∈ 𝛀 ⟶ 𝑿(𝝎) ≔ 𝒏𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒔𝒖𝒄𝒄è𝒔

Ici, 𝛀 = {𝑺, 𝑬}{𝟏,𝟐,…𝒏} et 𝑿(𝛀) = {𝟎, 𝟏, 𝟐, … , 𝒏}.


A titre d’exemple, voyons ce qui se passe pour, 𝒏 = 𝟑 :

𝛀 = {𝑺𝑺𝑺, 𝑺𝑺𝑬, 𝑺𝑬𝑺, 𝑬𝑺𝑺, 𝑺𝑬𝑬, 𝑬𝑺𝑬, 𝑬𝑬𝑺, 𝑬𝑬𝑬} et 𝑿(𝛀) = {𝟎, 𝟏, 𝟐, 𝟑}

Loi de probabilité :

𝑷𝑿 (𝟎) = 𝑷(𝑬𝑬𝑬) = 𝒒𝟑 = 𝑪𝟎𝟑 𝒑𝟎 𝒒𝟑 ,


𝑷𝑿 (𝟏) = 𝑷(𝑺𝑬𝑬, 𝑬𝑺𝑬, 𝑬𝑬𝑺) = 𝟑𝒑𝒒𝟐 = 𝑪𝟏𝟑 𝒑𝟏 𝒒𝟑−𝟏
𝑷𝑿 (𝟐) = 𝑷(𝑺𝑺𝑬, , 𝑺𝑬𝑺, 𝑬𝑺𝑺) = 𝟑𝒑𝟐 𝒒=𝑪𝟎𝟑 𝒑𝟐 𝒒𝟑−𝟐
𝑷𝑿 (𝟑) = 𝑷(𝑬𝑬𝑬) = 𝒑𝟑 = 𝑪𝟎𝟑 𝒑𝟑 𝒒𝟑−𝟑 .

Loi de probabilité (sur tableau) :

𝒙𝒊 𝟎 𝟏 𝟐 𝟑
𝑷𝑿 (𝒙𝒊 ) 𝒒𝟑 𝟑𝒑𝒒𝟐 𝟑𝒑𝟐 𝒒 𝒑𝟑

Calcul de l’espérance et de la variance :

- 𝑬(𝑿) = ∑𝟑𝒌=𝟎 𝒙𝒊 . 𝑷𝑿 (𝒙𝒊 ) = 𝟎. 𝑷𝑿 (𝟎) + 𝟏. 𝑷𝑿 (𝟏) + 𝟐. 𝑷𝑿 (𝟐) + 𝟑. 𝑷𝑿 (𝟑)


= 𝟎 + 𝟑𝒑𝒒𝟐 + 𝟐. 𝟑𝒑𝟐 𝒒 + 𝟑. 𝒑𝟑 = 𝟑𝒑
- 𝑽(𝑿) = 𝑬(𝑿𝟐 ) − 𝑬𝟐 (𝑿) = 𝒑 − 𝒑𝟐 = 𝟑𝒑𝒒.

10
En général, pour 𝒏 quelconque :

𝑷𝑿 (𝒌) = 𝑪𝒌𝒏 𝒑𝒌 𝒒𝒏−𝒌

Cette loi est bien une loi de probabilité, car :


𝒏

∑ 𝑪𝒌𝒏 𝒑𝒌 𝒒𝒏−𝒌 = (𝒑 + 𝒒)𝒏 = 𝟏.


𝒌=𝟎

Cette expression rappelle la formule du binôme et c’est pour cette


raison qu’on l’appelle loi binomiale.

Calcul de l’espérance et de la variance :

Pour simplifier le calcul des caractéristiques numériques, dans le cas de


la loi binomiale, on remarque que :

𝑿 = ∑𝒏𝒊=𝟏 𝑿𝒊 , chaque 𝑿𝒊 suit la loi de Bernoulli.

On obtient alors :
𝒏 𝒏 𝒏

𝑬(𝑿) = 𝑬 (∑ 𝑿𝒊 ) = ∑ 𝑬(𝑿𝒊 ) = ∑ 𝒑 = 𝒏𝒑.


𝒊=𝟏 𝒊=𝟏 𝒊=𝟏

et puisque les 𝑿𝒊 sont indépendantes, on obtient :

𝒏 𝒏 𝒏

𝑽(𝑿) = 𝑽 (∑ 𝑿𝒊 ) = ∑ 𝑽(𝑿𝒊 ) = ∑ (𝒑𝟐 − 𝒑) = 𝒏(𝒑𝟐 − 𝒑) = 𝒏𝒑𝒒.


𝒊=𝟏 𝒊=𝟏 𝒊=𝟏

Notation :

Si 𝑿 suit la loi binomiale de paramètres 𝒏 et 𝒑, on note : 𝑿 ↪ 𝓑(𝒏, 𝒑) .

c) Loi uniforme :

11
Soit 𝒏 ∈ ℕ∗ , on dit que 𝑿 suit une loi uniforme si sa loi de probabilité 𝑷𝑿
est équiprobable sur 𝑿(𝛀) = {𝟏, 𝟐, … , 𝒏} ; c’est-à-dire :
𝟏 𝟏
∀𝒌 ∈ 𝑿(𝛀), 𝑷𝑿 (𝒌) = = .
𝒄𝒂𝒓𝒅(𝑿 (𝛀)) 𝒏

Calcul de l’espérance :

𝒏 𝒏 𝒏
𝟏 𝟏 𝟏 𝒏 (𝒏 + 𝟏 ) (𝒏 + 𝟏 )
𝑬(𝑿) = ∑ 𝒌𝑷𝑿 (𝒌) = ∑ 𝒌. = ∑𝒌 = . = .
𝒏 𝒏 𝒏 𝟐 𝟐
𝒌=𝟏 𝒌=𝟏 𝒌=𝟏

Calcul de la variance :

𝟐 (𝒏 + 𝟏 )𝟐
𝟐) 𝟐)
𝑽 (𝑿 ) = 𝑬(𝑿 − (𝑬(𝑿)) = 𝑬(𝑿 −
𝟒
𝒏
(𝒏 + 𝟏 )𝟐
𝟐
= ∑ 𝒌 𝑷𝑿 (𝒌) −
𝟒
𝒌=𝟏
𝒏
𝟏 (𝒏 + 𝟏 )𝟐
𝟐
= ∑𝒌 . −
𝒏 𝟒
𝒌=𝟏
𝒏
𝟏 (𝒏 + 𝟏 )𝟐
𝟐
= .∑𝒌 −
𝒏 𝟒
𝒌=𝟏

𝟏 𝒏(𝒏 + 𝟏)(𝟐𝒏 + 𝟏) (𝒏 + 𝟏)𝟐


= . −
𝒏 𝟔 𝟒
(𝒏 + 𝟏) 𝟐𝒏 + 𝟏 𝒏 + 𝟏
( − )
𝟐 𝟑 𝟐
(𝒏 + 𝟏 ) 𝒏 − 𝟏 𝒏 𝟐 − 𝟏
= . = .
𝟐 𝟔 𝟏𝟐
Notation : Si 𝑿 suit la loi uniforme sur 𝑿(𝛀) = {𝟏, 𝟐, … , 𝒏} = ⟦𝟏, 𝒏⟧, on
note : 𝑿 ↪ 𝓤(⟦𝟏, 𝒏⟧ ).
12
d) Loi hypergéométrique :
On dispose d’une urne qui contient 𝑵 boules, 𝒎 sont blanches et 𝑵 − 𝒎
sont noires. On tire sans remise (ou simultanément) 𝒏 boules et on
considère la variable aléatoire 𝑿 = "𝒍𝒆 𝒏𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒃𝒐𝒖𝒍𝒆𝒔 𝒃𝒍𝒂𝒏𝒄𝒉𝒆𝒔"
𝑪𝒌 𝒏−𝒌
𝒎 𝑪𝑵−𝒏
Ici 𝑿(𝛀) = {𝟎, 𝟏, 𝟐, … , 𝒏} et 𝑷𝑿 (𝒌) = .
𝑪𝒏
𝑵

Calcul de l’espérance et de la variance :

On admet que :
𝒏−𝟏 𝒎
𝑬(𝑿) = 𝒏𝒑 et 𝑽(𝑿) = 𝒏𝒑𝒒. (𝟏 − ) ; où 𝒑 = et 𝒒 = 𝟏 − 𝒑.
𝑵−𝟏 𝑵

Notation : Si 𝑿 suit la loi hypergéométrique, on note : 𝑿 ↪ 𝓗 (𝑵, 𝒏, 𝒑).

B- 𝑿(𝛀) est infini dénombrable :


a) Loi géométrique :
On répète une épreuve de Bernoulli jusqu’à obtenir le succès S. On
considère la variable aléatoire 𝑿 = "𝒍𝒆 𝒓𝒂𝒏𝒈 𝒅𝒖 𝒑𝒓𝒆𝒎𝒊𝒆𝒓 𝒔𝒖𝒄𝒄è𝒔"

𝑬𝑬 … 𝑬 𝑺, … } et 𝑿(𝛀) = {𝟏, 𝟐, … 𝒏, … } = ℕ ∗
𝛀 = {𝑺, 𝑬𝑺, 𝑬𝑬𝑺, … , ⏟
(𝒏−𝟏) 𝒇𝒐𝒊𝒔

La loi de probabilité est donnée par : 𝑷𝑿 (𝒌) = (𝟏 − 𝒑)𝒌−𝟏 . 𝒑.

Il s’agit bien d’une probabilité car :


𝒑
∑ 𝑷𝑿 (𝒌) = ∑(𝟏 − 𝒑)𝒌−𝟏 . 𝒑 = 𝒑 ∑(𝟏 − 𝒑)𝒌 = = 𝟏, 𝒄𝒂𝒓 𝟏 − 𝒑 < 1.
𝟏 − (𝟏 − 𝒑)
𝒌≥𝟏 𝒌≥𝟏 𝒌≥𝟎

Calcul de l’espérance et de la variance :

Calcul de l’espérance :

13
𝑬(𝑿) = ∑ 𝒌𝑷𝑿 (𝒌) = ∑ 𝒌(𝟏 − 𝒑)𝒌−𝟏 . 𝒑 = 𝒑 ∑ 𝒌(𝟏 − 𝒑)𝒌−𝟏
𝒌≥𝟏 𝒌≥𝟏 𝒌≥𝟏

𝒑 𝟏
= 𝟐 =
(𝟏 − (𝟏 − 𝒑)) 𝒑

Noter que dans le calcul précédent on utilisé la dérivation terme à terme


+∞ 𝒏
De la série entière ∑𝒏=𝟎 𝒙 sur son domaine de convergence ]– 𝟏, +𝟏[
+∞ ′ +∞

𝟏 𝟏
(∑ 𝒙𝒏 ) = ( ) = ∑ 𝒏. 𝒙𝒏−𝟏 == .
𝟏−𝒙 (𝟏 − 𝒙)𝟐
𝒏=𝟎 𝒏=𝟏

Calcul de la variance :
𝟏
𝑽(𝑿) = 𝑬(𝑿𝟐 ) − 𝑬𝟐 (𝑿) = ∑ 𝒌𝟐 𝑷𝑿 (𝒌) −
𝒑𝟐
𝒌≥𝟏

𝟏
= ∑ 𝒌𝟐 (𝟏 − 𝒑)𝒌−𝟏 . 𝒑 −
𝒑𝟐
𝒌≥𝟏

𝟏
= 𝒑 ∑ 𝒌𝟐 (𝟏 − 𝒑)𝒌−𝟏 . −
𝒑𝟐
𝒌≥𝟏

𝟏
= 𝒑(𝟏 − 𝒑) ∑ 𝒌(𝒌 − 𝟏)(𝟏 − 𝒑)𝒌−𝟐 + 𝒑 ∑ 𝒌(𝟏 − 𝒑) 𝒌−𝟏 − 𝟐
⏟ ⏟𝒌≥𝟏 𝒑
𝒌≥𝟐
𝟏 ′′ 𝟐 𝟏
=( ) = =𝑬(𝑿) =
𝟏−𝒙 𝒙=𝟏−𝒑 ( 𝟑 𝒑
𝟏−(𝟏−𝒑))

𝟐𝒑(𝟏 − 𝒑) 𝟏 𝟏 𝟐𝒑(𝟏 − 𝒑) + 𝒑𝟐 − 𝒑 𝒑 − 𝒑𝟐 𝟏−𝒑


= + − = = =
𝒑𝟑 𝒑 𝒑𝟐 𝒑𝟑 𝒑𝟑 𝒑𝟐
Notation : Si 𝑿 suit la loi géométrique, on note : 𝑿 ↪ 𝓖(𝒑).

14
b) Loi de Poisson :
On dit qu’une variable aléatoire 𝑿 suit une loi de Poisson de paramètre 𝝀 >
0, si :
𝒆 −𝝀 .𝝀𝒌
𝑿(𝛀) = {𝟎, 𝟏, 𝟐, … 𝒏, … } = ℕ et ∀𝒌 ∈ ℕ, 𝑷𝑿 (𝒌) = .
𝒌!

Vérifions que c’est bien une probabilité :


+∞ +∞
𝒆−𝝀 . 𝝀𝒌 −𝝀
𝝀𝒌
∑ =𝒆 ∑ = 𝒆−𝝀 . 𝒆𝝀 = 𝒆𝟎 = 𝟏.
𝒌! 𝒌!
𝒏=𝟎 𝒏=𝟎

𝒙 𝒌
Ici, on a utilisé le fait que : ∀𝒙 ∈ ℝ, ∑+∞
𝒏=𝟎 𝒌! = 𝒆𝒙 .

Calcul de l’espérance :

𝒆−𝝀. 𝝀𝒌 −𝝀
𝝀𝒌−𝟏
𝑬(𝑿) = ∑ 𝒌𝑷𝑿 (𝒌) = ∑ 𝒌 = 𝒆 . 𝝀. ∑ 𝒌.
𝒌! 𝒌!
𝒌≥𝟎 𝒌≥𝟎 𝒌≥𝟏

−𝝀
𝝀𝒌−𝟏
= 𝒆 . 𝝀. ∑
(𝒌 − 𝟏 )!
𝒌≥𝟏

𝝀𝒊
= 𝒆−𝝀. 𝝀. ∑ ,𝒊 = 𝒌− 𝟏
𝒊!
𝒊≥𝟎

= 𝒆−𝝀. 𝝀. 𝒆𝝀 = 𝝀.

Calcul de la variance :

𝑽(𝑿) = 𝑬(𝑿𝟐 ) − 𝑬𝟐 (𝑿) = ∑ 𝒌𝟐 𝑷𝑿 (𝒌) − 𝝀𝟐


𝒌≥𝟎

𝟐
𝝀𝒌
= ∑𝒌 − 𝝀𝟐
𝒌!
𝒌≥𝟎

𝒌
𝝀
= 𝒆−𝝀. ∑ 𝒌 𝟐
− 𝝀𝟐
𝒌!
𝒌≥𝟎

15
−𝝀 𝟐
𝝀𝒌−𝟐 𝝀𝒌
=𝒆 . 𝝀 . ∑ 𝒌( 𝒌 − 𝟏 ) + 𝒆 . ∑ 𝒌 − 𝝀𝟐
−𝝀

⏟ 𝒌! ⏟ 𝒌≥𝟏 𝒌!
𝒌≥𝟐
⏟ =( 𝒆𝒙 )′′
𝒙=𝝀 = 𝒆
𝝀 =𝑬 (𝑿) =𝝀

=𝝀𝟐

= 𝝀.
Notation : Si 𝑿 suit la loi de Poisson, on note : 𝑿 ↪ 𝓟(𝝀).

16

Vous aimerez peut-être aussi