Vous êtes sur la page 1sur 41

Ecole Supérieure d’Industrie Année Académique : 2016-2017

ING STIC A 1 / 41

OUTILS
ALEATOIRES
DE
L’INGENIEUR
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 2 / 41

Table de matière
I. DENOMBREMENT ................................................................................................................................ 6
1. Théorie des ensembles .......................................................................................................................... 6
1.1. Définition ........................................................................................................................................ 6
1.2. Exemples ......................................................................................................................................... 6
1.3. Remarques ...................................................................................................................................... 6
i. En extension ................................................................................................................................... 6
ii. En compréhension ...................................................................................................................... 6
1.4. Opérations sur les ensembles ......................................................................................................... 6
i. Intersection ..................................................................................................................................... 6
ii. La réunion ................................................................................................................................... 7
iii. Inclusion...................................................................................................................................... 7
iv. Remarque .................................................................................................................................... 7
v. Complémentaire d’un ensemble ................................................................................................. 7
vi. Différence symétrique de deux ensembles ................................................................................. 7
1.5. Produit cartésien de deux ensembles ............................................................................................. 8
1.6. Partition d’un ensemble ................................................................................................................. 8
2. Cardinal d’un ensemble (ensemble fini) .............................................................................................. 8
2.1. Définition ........................................................................................................................................ 8
2.2. Propriétés ........................................................................................................................................ 8
3. Dénombrement ...................................................................................................................................... 9
3.1. Arrangement de p éléments de E avec répétition .......................................................................... 9
3.2. Arrangement de p élément de E sans répétition ............................................................................ 9
II. PROBABILITE...................................................................................................................................... 11
1. Espace probabilisé .............................................................................................................................. 11
1.1. Définition ...................................................................................................................................... 11
1.2. Définition ...................................................................................................................................... 12
1.3. Notation......................................................................................................................................... 12
1.4. Langage probabiliste .................................................................................................................... 12
1.5. Equiprobabilité ou probabilité uniforme ..................................................................................... 12
i. Définition ...................................................................................................................................... 12
ii. Dans le cas d’un ensemble E dénombrable et fini .................................................................. 13
2. Probabilité conditionnelle – Indépendance ....................................................................................... 13
2.1. Probabilité conditionnelle ............................................................................................................ 13
i. Définition ...................................................................................................................................... 13
ii. Conséquence ............................................................................................................................. 14
iii. Exemple ..................................................................................................................................... 14
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 3 / 41

2.2. Définition ...................................................................................................................................... 14


2.3. Proposition : probabilité totale..................................................................................................... 14
2.4. Indépendance ................................................................................................................................ 15
i. Définition ...................................................................................................................................... 15
ii. Exemples ................................................................................................................................... 15
2.5. Théorème des probabilités composées ......................................................................................... 15
2.6. Théorème de Bayes ....................................................................................................................... 15
III. FONCTION MESURABLE OU VARIABLE ALEATOIRE ....................................................... 15
1. Généralités .......................................................................................................................................... 15
1.1. Définition ...................................................................................................................................... 15
1.2. Définition ...................................................................................................................................... 16
1.3. Remarque ...................................................................................................................................... 16
2. Mesure image, Loi de probabilité d’une variable aléatoire .............................................................. 16
2.1. Mesure image................................................................................................................................ 16
i. Proposition .................................................................................................................................... 16
2.2. Loi de probabilité d’une variable aléatoire.................................................................................. 16
i. Définition ...................................................................................................................................... 16
ii. Exercice ..................................................................................................................................... 17
2.3. Fonction de répartition d’une variable aléatoire ........................................................................ 17
i. Définition ...................................................................................................................................... 17
ii. Propriétés .................................................................................................................................. 17
iii. Proposition ................................................................................................................................ 18
iv. Exercice ..................................................................................................................................... 18
v. Proposition (égalité de deux lois) ............................................................................................. 18
vi. Définition .................................................................................................................................. 18
3. Variables aléatoires indépendantes .................................................................................................... 18
3.1. Définition ...................................................................................................................................... 18
3.2. Définition ...................................................................................................................................... 18
3.3. Proposition .................................................................................................................................... 19
3.4. Théorème ...................................................................................................................................... 19
4. Convergence presque sûre d’une variable aléatoire ......................................................................... 20
4.1. Définition ...................................................................................................................................... 20
4.2. Définition ...................................................................................................................................... 20
4.3. Définition ...................................................................................................................................... 20
IV. INTEGRATION D’UNE FONCTION ............................................................................................ 20
1. Généralités .......................................................................................................................................... 20
1.1. Définition ...................................................................................................................................... 20
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 4 / 41

1.2. Définition ...................................................................................................................................... 20


1.3. Propriétés ...................................................................................................................................... 21
1.4. Définition ...................................................................................................................................... 21
1.5. Proposition .................................................................................................................................... 21
1.6. Définition ...................................................................................................................................... 22
2. Propriétés ............................................................................................................................................ 22
2.1. Lemme 1(inégalité de Markov) .................................................................................................... 22
2.2. Lemme 2 (Inégalité de Bienaymé Tchebitchev) ......................................................................... 22
2.3. Proposition .................................................................................................................................... 23
V. QUELQUES EXEMPLES DE LOIS DISCRETES ........................................................................... 23
1. La loi Binomiale.................................................................................................................................. 23
1.1. La loi de Bernoulli ........................................................................................................................ 23
i. Définition ...................................................................................................................................... 23
ii. Définition .................................................................................................................................. 24
iii. Etude d’une variable de Bernoulli ........................................................................................... 24
1.2. La loi Binomiale ........................................................................................................................... 25
i. Définition ...................................................................................................................................... 25
ii. Exemple ..................................................................................................................................... 25
iii. Remarque .................................................................................................................................. 26
1.3. Propriétés ...................................................................................................................................... 26
2. La loi uniforme ................................................................................................................................... 26
3. Lois discrètes infinies.......................................................................................................................... 27
3.1. La loi géométrique, la loi de Pascal ou la loi d’attente d’un premier évènement dans un
processus sans mémoire.......................................................................................................................... 27
3.2. La loi de poisson ........................................................................................................................... 27
VI. VARIABLES ALEATOIRES A DENSITE .................................................................................... 27
1. Mesure de densité................................................................................................................................ 27
1.1. Définition ...................................................................................................................................... 27
1.2. Mesure de probabilité ................................................................................................................... 28
i. Définition ...................................................................................................................................... 28
ii. Exemple ..................................................................................................................................... 28
2. Variables aléatoires à densité ............................................................................................................. 28
2.1. Définition ...................................................................................................................................... 28
2.2. Définition ...................................................................................................................................... 29
2.3. Théorème ...................................................................................................................................... 29
2.4. Exemple......................................................................................................................................... 29
2.5. Proposition .................................................................................................................................... 30
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 5 / 41

2.6. Notation......................................................................................................................................... 30
3. Quelques exemples de détermination de fonction de densité ............................................................ 30
3.1. Exemples 1 .................................................................................................................................... 30
3.2. Exemple 2...................................................................................................................................... 31
3.3. Théorème ...................................................................................................................................... 31
3.4. Application .................................................................................................................................... 32
3.5. Remarque ...................................................................................................................................... 32
4. Quelques exemples de variables aléatoires à densité ........................................................................ 32
4.1. La loi uniforme ............................................................................................................................. 32
4.2. La loi exponentielle ...................................................................................................................... 33
4.3. La loi de Gamma .............................................................................................................................. 33
4.5. La loi de Cauchy ........................................................................................................................... 34
4.6. Définition ...................................................................................................................................... 35
4.7. Définition ...................................................................................................................................... 35
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 6 / 41

I. DENOMBREMENT
1. Théorie des ensembles
1.1. Définition
On appelle ensemble, toute collection d’objets, chaque objet est appelé élément de cet
ensemble. Un ensemble est toujours désigné par une lettre majuscule : A, B, C, D,…
1.2. Exemples
On donne

Est un ensemble de figures géométrique. Chaque figure est un élément de l’ensemble A.


Aussi,
ℕ = {0,1,2, … }
Est l’ensemble des entiers naturels de même que ℤ, ℚ, ℝ, 𝔻, ℂ sont des ensembles.

1.3. Remarques
Un ensemble peut être défini soit en extension, soit en compréhension
i. En extension
Définir un ensemble en extension, c’est lister tous ces éléments.
Ex.
𝐸 = {𝑎, 𝑏, 𝑐, 𝑑}

ii. En compréhension
C’est définir un ensemble en compréhension, c’est donner un texte qui décrit les éléments de
cet ensemble.
Ex. E est l’ensemble des entiers naturels inférieurs à 10

1.4. Opérations sur les ensembles


Position du problème
Soit E un ensemble, on note 𝑃(𝐸) l’ensemble des parties de E. Etant donné A et B,
deux éléments de 𝑃(𝐸), construire un élément 𝑐 ∈ 𝑃(𝐸) à partir de A et B, à l’aide d’un ou
plusieurs connecteurs logiques (et, ou, etc.) c’est faire une opération avec les ensembles A et
B.

i. Intersection
Soit A et B (respectivement (𝐴𝑛 )𝑛∈ℕ ) deux éléments (respectivement suite d’éléments)
de 𝑃(𝐸). On appelle intersection de A et B (respectivement de la suite (𝐴𝑛 )𝑛∈ℕ ) et on
note 𝐴 ∩ 𝐵 (respectivement ⋂𝑛∈ℕ 𝐴𝑛 ) l’ensemble 𝐶 ∈ 𝑃(𝐸), des éléments de E qui
appartiennent à la fois à A et à B (respectivement à 𝐴𝑛 ∀𝑛 ∈ ℕ)
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 7 / 41

L’illustration en image de l’intersection est laissée au soin du lecteur.


On a:
𝐴 ∩ 𝐵 = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥 ∈ 𝐴 𝑒𝑡 𝑥 ∈ 𝐵}

ii. La réunion
Soit A et B (respectivement (𝐴𝑛 )𝑛∈ℕ ) deux éléments (respectivement suite d’éléments)
de 𝑃(𝐸). On appelle réunion de A et B (respectivement de la suite (𝐴𝑛 )𝑛∈ℕ ) et on note 𝐴 ∪
𝐵 (respectivement ⋃𝑛∈ℕ 𝐴𝑛 ) l’ensemble 𝐶 ∈ 𝑃(𝐸), des éléments de E qui appartiennent à A
ou à B (respectivement au moins à 𝐴𝑛 ∀𝑛 ∈ ℕ)

L’illustration en image de la réunion est laissée au soin du lecteur.


On a:
𝐴 ∪ 𝐵 = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥 ∈ 𝐴 𝑜𝑢 𝑥 ∈ 𝐵}

iii. Inclusion
Soit A et B des éléments de 𝑃(𝐸). On dit que A est inclus dans B et on note 𝐴 ⊂ 𝐵, si tous les
éléments de A sont aussi les éléments de B.

L’illustration en image de l’inclusion est laissée au soin du lecteur.

𝐴 ⊂ 𝐵 ⟺ ∀𝑥 ∈ 𝐴 ⟹ 𝑥 ∈ 𝐵
Dans ce cas
𝐴∩𝐵 =𝐴

iv. Remarque
L’élément de 𝑃(𝐸) qui n’a aucun élément est appelé ensemble vide noté ∅

v. Complémentaire d’un ensemble


Soit 𝐴 ∈ 𝑃(𝐸). On appelle le complémentaire de A dans E et on note 𝐶𝐸 (𝐸) 𝑜𝑢 𝐸\
𝐴 𝑜𝑢 𝐴̅, l’ensemble C des éléments de E qui n’appartiennent pas à A

L’illustration en image du complémentaire d’un ensemble est laissée au soin du lecteur.

On a:
𝐶 = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥 ∉ 𝐴} = 𝐴̅

vi. Différence symétrique de deux ensembles


Soit A et B des éléments de 𝑃(𝐸). On appelle la différence symétrique de A et B et on
note 𝐴Δ𝐵 où
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 8 / 41

𝐴Δ𝐵 = (𝐴 ∩ 𝐵̅) ∪ (𝐵 ∪ 𝐴̅)


L’illustration en image de la différence symétrique est laissée au soin du lecteur.

On a :
𝐴Δ𝐵 = (𝐴\𝐴 ∩ 𝐵) ∪ (𝐵\𝐴 ∩ 𝐵)

1.5. Produit cartésien de deux ensembles


Soit A et B (respectivement (𝐴𝑛 )𝑛∈ℕ ) deux éléments (respectivement suite d’éléments)
de 𝑃(𝐸). On appelle produit cartésien de A et B (respectivement de la suite (𝐴𝑛 )1≤𝑛≤𝑝 ) et on
𝑝
note 𝐴 ∗ 𝐵 (respectivement ∏𝑛=1 𝐴𝑛 ) l’ensemble des couples (𝑎, 𝑏) (respectivement des p-
uplet ou p-liste (𝑎1 , 𝑎2 , … , 𝑎𝑝 ) ) tels que 𝑎 ∈ 𝐴 𝑒𝑡 𝑏 ∈ 𝐵 (respectivement (𝑎𝑖 ∈ 𝐴𝑖 ∀1 ≤ 𝑖 ≤
𝑝)

Remarque :
𝐴∗𝐵 ≠𝐵∗𝐴
2
Si 𝐴 = 𝐵 alors 𝐴 ∗ 𝐵 = 𝐴
Si 𝐴1 = 𝐴2 = ⋯ = 𝐴𝑝 alors
𝑝

∏ 𝐴𝑖 = 𝐴 𝑝
𝑖=1

1.6. Partition d’un ensemble


Soit E un ensemble. On appelle partition de E, toute suite (𝐴𝑛 )𝑛∈ℕ d’éléments de 𝑃(𝐸) telle
que :
i) 𝐴𝑛 ≠ ∅ ∀𝑛 ∈ ℕ
ii) 𝐴𝑖 ∩ 𝐴𝑗 ≠ ∅ ∀𝑖 ≠ 𝑗, 𝑖, 𝑗 ∈ ℕ
iii) ⋃𝑛 𝐴𝑛 = 𝐸

Remarque
Si 𝐴 𝑒𝑡 𝐵 ∈ 𝑃(𝐸) tel que 𝐴 ∩ 𝐵 = ∅, on dit que A et B sont disjoints.

2. Cardinal d’un ensemble (ensemble fini)


2.1. Définition
Soit E un ensemble fini et 𝐴 ∈ 𝑃(𝐸). On appelle cardinal de A et on note 𝐶𝑎𝑟𝑑(𝐴) ou |𝐴|, le
nombre d’éléments que compte l’ensemble A.
Exemple
𝐸 = {1,2,3,4} ⟹ 𝐶𝑎𝑟𝑑(𝐸) = 4

2.2. Propriétés
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 9 / 41

Soit A et B deux éléments de 𝑃(𝐸). Alors on a :


i) 𝐶𝑎𝑟𝑑(∅) = 0
ii) 𝐶𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝐶𝑎𝑟𝑑(𝐴) + 𝐶𝑎𝑟𝑑(𝐵) − 𝐶𝑎𝑟𝑑(𝐴 ∩ 𝐵)
Si 𝐴 ∩ 𝐵 = ∅ alors
𝐶𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝐶𝑎𝑟𝑑(𝐴) + 𝐶𝑎𝑟𝑑(𝐵)

iii) 𝐶𝑎𝑟𝑑(𝐴̅) = 𝐶𝑎𝑟𝑑(𝐸) − 𝐶𝑎𝑟𝑑(𝐴)


iv) 𝐶𝑎𝑟𝑑(𝐴 ∗ 𝐵) = 𝐶𝑎𝑟𝑑(𝐴) ∗ 𝐶𝑎𝑟𝑑(𝐵)
v) ∀𝑝 ∈ ℕ∗
𝐶𝑎𝑟𝑑(𝐴𝑝 ) = [𝐶𝑎𝑟𝑑(𝐴)]𝑝

vi) Si (𝐴𝑛 )𝑛∈ℕ est une partition de E alors


𝐶𝑎𝑟𝑑(𝐸) = ∑ 𝐶𝑎𝑟𝑑(𝐴𝑛 )
𝑛∈ℕ

3. Dénombrement
Soit E un ensemble fini, à n éléments c’est-à-dire 𝐶𝑎𝑟𝑑(𝐸) = 𝑛

3.1. Arrangement de p éléments de E avec répétition


i) On appelle un arrangement de p éléments de E avec répétition, un élément
de 𝐸 𝑝 c’est-à-dire un p-uplet ou p-liste.
ii) Ainsi le nombre d’arrangement avec répétition de p éléments de E est égal
à 𝐶𝑎𝑟𝑑(𝐸 𝑝 ) = [𝐶𝑎𝑟𝑑(𝐸)]𝑝 = 𝑛𝑝 . C’est aussi le nombre d’applications de p
éléments dans un ensemble à n éléments.
iii) Exemple (tirage avec remise)
Une urne contient n boules numérotées de 1 à n. On tire de l’urne p boules, l’une après
l’autre avec remise. Déterminer le nombre de tirages.

Solution
On pose E l’ensemble des n boules.
Il s’agit de tirer une boule après l’autre, noté le numéro et remettre la boule tiré dans
la urne pour le prochain tirage. Le fait qu’on peut tirer la même boule entraine la répétition.
En conclusion, le nombre de tirage est égal
𝐶𝑎𝑟𝑑(𝐸 𝑝 ) = [𝐶𝑎𝑟𝑑(𝐸)]𝑝 = 𝑛𝑝

3.2. Arrangement de p élément de E sans répétition


i) Un arrangement sans répétition de p éléments de E est un p-liste ou p-uplet sans
répétition d’éléments de E c’est-à-dire (𝑥1 , 𝑥2 , … , 𝑥𝑝 ) ∈ 𝐸 𝑝 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥𝑖 ≠ 𝑥𝑗 ∀𝑖 ≠ 𝑗
ii) Exemple : tirage sans remise de p boules dans les n boules.
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 10 / 41

iii) Nombre d’arrangement sans répétition de p éléments de E.


On a :
(𝑥1 , 𝑥2 , … , 𝑥𝑝 ) ∈ 𝐸 𝑝
On pose 𝐸0 = 𝐸
∀1 ≤ 𝑖 ≤ 𝑝 − 1, 𝐸𝑖 = 𝐸\{𝑥1 , … 𝑥𝑖 }
Alors on obtient que
𝑥𝑖+1 ∈ 𝐸𝑖
D’où
𝑝−1

(𝑥1 , … , 𝑥𝑝 ) ∈ ∏ 𝐸𝑖
𝑖=0
𝑝−1
D’où le nombre d’arrangement sans répétition est égal à 𝐶𝑎𝑟𝑑(∏𝑖=0 𝐸𝑖 )
Or on a :
𝐶𝑎𝑟𝑑(𝐸𝑖 ) = 𝐶𝑎𝑟𝑑(𝐸) − 𝑖
𝑝−1
𝑝−1
𝐶𝑎𝑟𝑑 (∏ 𝐸𝑖 ) = ∏(𝑛 − 1) = 𝑛(𝑛 − 1) … (𝑛 − 𝑝 + 1)
𝑖=0
𝑖=0

𝑝−1
𝑝
𝐶𝑎𝑟𝑑 (∏ 𝐸𝑖 ) = 𝐴𝑛
𝑖=0
Le nombre d’arrangement dans répétition sans répétition de p élément
C’est aussi le nombre d’applications injectives d’un ensemble à p éléments vers un ensemble
à n éléments est égal à
𝑝
𝐴𝑛 = 𝑛(𝑛 − 1) … − (𝑛 − 𝑝 + 1)
Remarque : ici 1 ≤ 𝑝 ≤ 𝑛

iv) Conséquence
Si dans un arrangement sans répétition de p éléments d’un ensemble à n éléments on
prend 𝑝 = 𝑛, on parle de permutation à n éléments. Dans ce cas, le nombre de permutations
est
𝐴𝑛𝑛 = 𝑛! = 𝑛 ∗ (𝑛 − 1) ∗ … ∗ 3 ∗ 2 ∗ 1

v) Nombre de sous-ensembles d’un ensemble fini E, avec 𝐶𝑎𝑟𝑑(𝐸) = 𝑛


Si 𝐶𝑎𝑟𝑑(𝐸) = 𝑛 𝑎𝑙𝑜𝑟𝑠 𝐶𝑎𝑟𝑑(𝑃(𝐸))
Preuve
On a :
∀𝐴 ∈ 𝑃(𝐸), 𝑜𝑛 𝑝𝑜𝑠𝑒
𝜑𝐴 : 𝐸 → {0,1}
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 11 / 41

1 𝑠𝑖 𝑥 ∈ 𝐴
𝑥 ↦ 𝜑𝐴 (𝑥) = {
0 𝑠𝑖𝑛𝑜𝑛
𝜑𝐴 est une application.
On note
𝐹 = {0,1}
𝜑𝐴 ∈ ℱ(𝐸; 𝐹)
Réciproquement, montrons que toute application 𝑓 ∈ ℱ(𝐸, 𝐹) est de cette forme.
Si 𝑓 ∈ ℱ(𝐸, 𝐹), on pose
𝐴 = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑓(𝑥) = 1} ⟹ 𝑓 = 𝜑𝐴

Soit l’application 𝜑 définie dans ℱ(𝐸, 𝐹) par


𝜑: 𝑃(𝐸) → ℱ(𝐸, 𝐹)
𝐴 ↦ 𝜑(𝐴) = 𝜑𝐴
Montrons que 𝜑 est une bijection.
Solution
Application injective car
∀𝐴, 𝐵 ∈ 𝑃(𝐸), 𝑠𝑖 𝜑(𝐴) = 𝜑(𝐵) ⟹ 𝜑𝐴 = 𝜑𝐵 ⟺ 𝐴 = 𝐵
Application surjective (d’après la démonstration précédente)

Conclusion : 𝜑 est une bijection


|𝑃(𝐸)| = |ℱ(𝐸, 𝐹)| = 2𝑛

vi) Sous ensemble à p éléments


Soit 𝐴 ∈ 𝑃(𝐸), alors 𝐴 est un sous ensemble à p éléments si et seulement si 𝐶𝑎𝑟𝑑(𝐴) = 𝑝
Nombre de sous-ensembles à p éléments.
{𝑥1 , … , 𝑥𝑝 } ⊂ 𝐸
(𝑥1 , … , 𝑥𝑝 )
Si on pose N le nombre de sous ensemble à p éléments de E alors, on a :
𝑝
𝑝 𝐴𝑛
(𝑝!). 𝑁𝑝 = 𝐴𝑛 ⟹ 𝑁𝑝 =
(𝑝!)
Et on note
𝑝
𝑝 𝐴𝑛 𝑛!
𝐶𝑛 = =
(𝑝!) 𝑝! (𝑛 − 𝑝)!

II. PROBABILITE
1. Espace probabilisé
1.1. Définition
On appelle espace mesurable ou probabilisable, tout ensemble E muni d’une tribu et on
note (𝐸, 𝑇).
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 12 / 41

1.2. Définition
On appelle mesure de probabilité sur un espace probabilisable et on note P, toute mesure sur
l’espace probabilisable (𝐸, 𝑇) telle que 𝑃(𝐸) = 1

Exemple.
Si E est dénombrable, on a :
𝐸 = ⋃{𝑎}
𝑎∈𝐸
Dans ce cas
𝑃(𝐸) = ∑ 𝑃(𝑎)
𝑎∈𝐸
Et on obtient ainsi une série.

1.3. Notation
Si P est une mesure de probabilité sur (𝐸, 𝑇) alors (𝐸, 𝑇, 𝑃) est appelé espace probabilisé.

Exercice
Montrer que la mesure de Dirac est une mesure de probabilité.

1.4. Langage probabiliste


Soit (𝐸, 𝑇, 𝑃) un espace probabilisé. Alors :
i) E est appelé l’univers des probabilités et ses éléments sont appelés des éventualités
ii) Les éléments de la tribu sont appelés évènements
iii) Un singleton {𝑎} ∈ 𝑇 est appelé évènement élémentaire, l’ensemble vide ∅ est
appelé incertain ou impossible, l’ensemble E est appelé évènement certain.

Exercice.
On donne 𝐸 = {𝑎, 𝑏, 𝑐} et P la probabilité définie par
1 4 2
𝑃 = 𝛿𝑎 + 𝛿𝑏 + 𝛿𝑐
7 7 7
Calculer 𝑃({𝑎, 𝑏}) ; 𝑃({𝑎, 𝑐}), 𝑃({𝑏, 𝑐})

1.5. Equiprobabilité ou probabilité uniforme

i. Définition
Soit (𝐸, 𝑇, 𝑃) un espace probabilisé. On dit que P est une probabilité uniforme ou
équiprobabilité si tous les évènements élémentaires ont la même probabilité.
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 13 / 41

ii. Dans le cas d’un ensemble E dénombrable et fini


Donc
𝐸 = ⋃{𝑎}
𝑎∈𝐸
Calculons la probabilité d’un évènement A.
On a :
𝐴 = ⋃{𝑎}
𝑎∈𝐴
Alors

ℙ(𝐴) = ℙ (𝐸 = ⋃{𝑎})
𝑎∈𝐴

ℙ(𝐴) = ∑ ℙ({𝑎})
𝑎∈𝐴
ℙ(𝐴) = 𝑝 ∗ 𝐶𝑎𝑟𝑑(𝐴)
On a :
1
ℙ(𝐸) = 1 = 𝑝 ∗ 𝐶𝑎𝑟𝑑(𝐸) ⟹ 𝑝 =
𝐶𝑎𝑟𝑑(𝐸)
Donc :
𝐶𝑎𝑟𝑑(𝐴)
ℙ(𝐴) =
𝐶𝑎𝑟𝑑(𝐸)

Remarque
Dans le cas d’une équiprobabilité ou probabilité uniforme, un problème de probabilité
devient un problème de dénombrement.

2. Probabilité conditionnelle – Indépendance


2.1. Probabilité conditionnelle

i. Définition
Soit (𝐸, 𝑇, 𝑃) un espace probabilisé, A et B, deux éléments de T. Alors on a :

 Si ℙ(𝐵) ≠ 0, alors la probabilité conditionnelle de A par rapport à B


notée ℙ(𝐴⁄𝐵) ou ℙ𝐵 (𝐴) est définie par :
ℙ(𝐴 ∩ 𝐵)
ℙ𝐵 (𝐴) =
ℙ(𝐵)

 Si ℙ(𝐵) = 0, alors ℙ𝐵 (𝐴) n’est pas définie.


Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 14 / 41

Exercice : le lancer de dé (probabilité uniforme)


On donne 𝐸 = {1,2,3,4,5,6}, 𝑇 = 𝑃(𝐸) et P la probabilité uniforme définie sur (𝐸, 𝑃(𝐸))
Soit A l’évènement « obtenir un 6 » et B l’évènement « obtenir un nombre pair.
Calculons ℙ𝐵 (𝐴)
Solution
Puisque que nous sommes dans un cas de probabilité uniforme, on a immédiatement :
1 1 1
ℙ(𝐴 ∩ 𝐵) = ∗ =
6 2 12
Par ailleurs, on a :
𝐶𝑎𝑟𝑑(𝐵)
ℙ(𝐵) =
𝐶𝑎𝑟𝑑(𝐴)
3
ℙ(𝐵) =
6
1
ℙ(𝐵) =
2
Ainsi, on a :
1
ℙ𝐵 (𝐴) =
24

ii. Conséquence
Soit (𝐸, 𝑇, 𝑃) un espace probabilisé, 𝐴, 𝐵 ∈ 𝑇 alors :
ℙ(𝐵). ℙ𝐵 (𝐴) = ℙ(𝐴 ∩ 𝐵)

iii. Exemple
L’application ℙ𝐵 définie par :
ℙ𝐵 : 𝑇 → [0,1]
ℙ(𝐴 ∩ 𝐵)
𝐴 ↦ ℙ𝐵 (𝐴) =
ℙ(𝐵)
Est une mesure de probabilité.

2.2. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé. On appelle système complet d’évènement, toute
suite (𝐴𝑛 )𝑛∈ℕ d’évènements deux à deux disjoints c’est-à-dire
𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∀𝑖 ≠ 𝑗, 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝐸 = ⋃ 𝐴𝑛
𝑛∈ℕ
2.3. Proposition : probabilité totale
Soit (𝐸, 𝑇, ℙ) un espace probabilisé, (𝐴𝑛 )𝑛∈ℕ un système complet d’évènements de
probabilité non nulle et B un évènements, alors on a :
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 15 / 41

ℙ(𝐵) = ∑ ℙ(𝐴𝑛 ) . ℙ(𝐵⁄𝐴𝑛 )


𝑛∈ℕ
2.4. Indépendance
i. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé. On dit que deux évènements A et B sont indépendants
si
ℙ(𝐴 ∩ 𝐵) = ℙ(𝐴). ℙ(𝐵)
Autrement dit :
ℙ𝐵 (𝐴) = ℙ(𝐴)
ii. Exemples
On considère un lancer de deux dés simultané.
1) Déterminer l’univers des probabilités
2) ∀𝐴 ∈ 𝑇 = 𝑃(𝐸) Calculer ℙ(𝐴) dans le cas d’une probabilité uniforme.
3) On pose A l’évènement « obtenir une double 6 » et B= « Obtenir un avec le dé 1 » et C
= « Obtenir un 6 avec le dé 2 »
Montrer que B et C sont indépendants.

2.5. Théorème des probabilités composées


Soit (Ω, 𝑃(Ω), ℙ) un espace probabilisé et soit 𝐴1 , … , 𝐴𝑛 des évènements, si ℙ(𝐴1 ) > 0 alors
on a :
𝑛 𝑛 𝑖−1

ℙ (⋂ 𝐴𝑖 ) = ∏ ℙ (𝐴𝑖 ⁄⋂ 𝐴𝑘 ) . ℙ(𝐴1 )
𝑖=1 𝑖=2 𝑘=1

2.6. Théorème de Bayes


Si (Ω𝑖 )1≤𝑖≤𝑛 est un système complet d’évènements de (Ω, 𝑃(Ω), ℙ) et 𝐴 ⊂ Ω tel que ℙ(𝐴) ≠
0, alors pour tout 𝑖 ∈ {1, … , 𝑛}, on a :
ℙ(𝐴⁄Ω𝑖 ). ℙ(Ω𝑖 )
ℙ(Ω𝑖 ⁄𝐴) = 𝑛
∑𝑗=1 ℙ(𝐴⁄Ω𝑗 ) . ℙ(Ω𝑗 )

III. FONCTION MESURABLE OU VARIABLE ALEATOIRE


1. Généralités
1.1. Définition
Soit (𝐸, 𝑇) un espace probabilisable. On appelle variable aléatoire toute fonction X définie
de (𝐸, 𝑇) dans (ℝ, 𝐵(ℝ)) et (𝑇, 𝐵(ℝ)) mesurable c’est-à-dire
∀𝐴 ∈ 𝐵(ℝ), 𝑜𝑛 𝑎: 𝑋 −1 (𝐴) ∈ 𝑇 𝑜ù 𝑋 −1 (𝐴) = {𝜔 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑋(𝜔) ∈ 𝐴}

Exemple
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 16 / 41

Si 𝐴 = [𝛼, +∞[, alors


𝑋 −1 (𝐴) = {𝜔 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑋(𝜔) ≥ 𝛼} = {𝑋 ≥ 𝛼}

Si 𝐵 = [𝛼, 𝛽], alors


𝑋 −1 (𝐵) = {𝜔 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝛼 ≤ 𝑋(𝜔) ≤ 𝛽} = {𝛼 ≤ 𝑋 ≤ 𝛽}

1.2. Définition
Soit (𝐸, 𝑇) 𝑒𝑡 (𝐸, 𝜏) deux espaces probabilisables, alors une fonction X définie de E dans F
est appelée élément aléatoire si elle est (𝑇, 𝜏) −mesurable c’est-à-dire
∀𝐴 ∈ 𝜏, 𝑋 −1 (𝐴) ∈ 𝑇
Lorsque F est un espace vectoriel, on dit que X est une variable aléatoire vectorielle ou
vecteur aléatoire.

1.3. Remarque
La notion de variable aléatoire est fondamentale en calcul des probabilités. C’est en générale
par la connaissance de la variable aléatoire et celle de sa loi de probabilité que se construit le
modèle probabilisé ; l’espace probabilisé (𝐸, 𝑇, ℙ) reste souvent mal connu.

2. Mesure image, Loi de probabilité d’une variable aléatoire


2.1. Mesure image

i. Proposition
Soit (𝐸, 𝑇, 𝜇) un espace mesuré et (𝐹, 𝜏) un espace mesurable, 𝑓 une
application (𝑇, 𝜏) −mesurable de (𝐸, 𝑇, 𝜇) dans (𝐹, 𝜏), alors l’application 𝜇𝑓 définie
de 𝜏 dans ̅̅̅̅
ℝ+ par :
𝜇𝑓 : 𝜏 → ̅̅̅̅
ℝ+
𝐴 ↦ 𝜇𝑓 (𝐴) = 𝜇( 𝑓 −1 (𝐴))
Est une mesure sur 𝜏 appelée mesure image réciproque par 𝒇.

2.2. Loi de probabilité d’une variable aléatoire


i. Définition

Soit (E, 𝑇, ℙ) un espace probabilisé et 𝑋: (E, 𝑇, ℙ) → (ℝ, 𝐵(ℝ)) une variable aléatoire.
On appelle la loi de probabilité de la variable aléatoire X et on note ℙ𝑋 la probabilité image
réciproque par ℙ.

Autrement dit
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 17 / 41

Telle que ∀𝐴 ∈ 𝐵(ℝ) on a :


ℙ𝑋 (𝐴) = ℙ(𝑋 −1 (𝐴))
ℙ𝑋 est une mesure de probabilité sur (ℝ, 𝐵(ℝ))

ii. Exercice
Lancer de deux dés (probabilité uniforme)
Soit X la variable aléatoire qui au lancer associe la somme des nombres obtenues.
1) Déterminer les valeurs prises par X
2) Déterminer la loi de X

2.3. Fonction de répartition d’une variable aléatoire


i. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle.
𝑋: (𝐸, 𝑇, ℙ) → (ℝ, 𝐵(ℝ))
On appelle fonction de répartition de X et on note 𝐹𝑋 la fonction définie par :
𝐹𝑋 : ℝ → [0,1]
𝑡 ↦ 𝐹𝑋 (𝑡) = ℙ𝑋 ( ] − ∞, 𝑡]) = ℙ(𝑋 ≤ 𝑡)

ii. Propriétés
 On sait que 𝐸 = {𝑋 ≤ 𝑡} ∪ {𝑋 > 𝑡}
On a :
ℙ(𝐸) = ℙ(𝑋 ≤ 𝑡) + ℙ(𝑋 > 𝑡) = 1
Donc
ℙ(𝑋 > 𝑡) = 1 − ℙ(𝑋 ≤ 𝑡) ⟹ ℙ(𝑋 > 𝑡) = 1 − 𝐹𝑋 (𝑡)

 ∀ 𝑎, 𝑏 ∈ ℝ, tels que 𝑎 < 𝑏, on a :


ℙ(𝑎 ≤ 𝑋 ≤ 𝑏), ] − ∞, 𝑎] ∪ [𝑎, +∞[
Donc
ℙ(𝑋 ≤ 𝑏) = ℙ(𝑋 ≤ 𝑎) + ℙ(𝑎 < 𝑋 ≤ 𝑏)
ℙ(𝑎 < 𝑋 ≤ 𝑏) = ℙ(𝑋 ≤ 𝑏) − ℙ(𝑋 ≤ 𝑎)
Ainsi
ℙ(𝑎 < 𝑋 ≤ 𝑏) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎)
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 18 / 41

ℙ(𝑎 < 𝑋 ≤ 𝑏) = [𝐹𝑋 (𝑡)]𝑏𝑎


Si 𝐹𝑋 est dérivable donc continue telle que 𝐹𝑋′ (𝑡) = 𝑓(𝑡) alors
𝑏 𝑏
ℙ(𝑎 < 𝑋 ≤ 𝑏) = ∫ 𝑓(𝑡)𝑑𝑡 ⟹ ℙ(𝑋 ≤ 𝑏) = ∫ 𝑓(𝑡)𝑑𝑡
𝑎 −∞
Donc
𝑡
𝐹𝑋 (𝑡) = ∫ 𝑓(𝑡)𝑑𝑡
−∞

iii. Proposition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé, X une variable aléatoire réelle de loi ℙ𝑋 et 𝐹𝑋 croissante
et continue à droite.
De plus, on a :
lim 𝐹𝑋 (𝑡) = 0 𝑒𝑡 lim 𝐹𝑋 (𝑡) = 1
𝑡→−∞ 𝑡→+∞

iv. Exercice
Déterminer la fonction de répartition 𝐹𝑋 de X de l’exercice précédent.

v. Proposition (égalité de deux lois)


Soit (E, 𝑇, ℙ) 𝑒𝑡 (E′, 𝑇′, ℙ′) deux espace probabilisés, X un variable aléatoire sur (E, 𝑇, ℙ) et
Y une variable aléatoire sur (E′, 𝑇′, ℙ′). Alors :ℙ𝑋 = ℙ′𝑌 si et seulement une des deux
conditions suivantes est vérifiée
i) ℙ(𝑋 ≤ 𝑡) = ℙ′ (𝑌 ≤ 𝑡), ∀𝑡 ∈ ℝ
ii) ℙ(𝑠 ≤ 𝑋 ≤ 𝑡) = ℙ′ (𝑠 ≤ 𝑌 ≤ 𝑡), ∀𝑠, 𝑡 ∈ ℝ, 𝑠 < 𝑡

vi. Définition
Soit X et Y deux variables aléatoires définies respectivement sur (𝐸, 𝑇, ℙ) et (𝐸 ′ , 𝑇 ′ , ℙ′ ) deux
espaces probabilisés. On dit que X et Y sont équi-distribuables si elles ont la même loi de
probabilité.

3. Variables aléatoires indépendantes


3.1. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé, X un variable aléatoire sur (𝐸, 𝑇, ℙ), ℙ𝑋 la loi de X
et 𝐹𝑋 sa fonction de répartition.
i. Si 𝑋(𝐸) est dénombrable, alors on dit que X est une variable aléatoire discrète
ii. Si la fonction de répartition de X est continue, alors on dit que la variable aléatoire
X est continue.

3.2. Définition
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 19 / 41

Soit (𝐸, 𝑇, ℙ) un espace probabilisé.


i. Soit 𝑁 > 1 𝑒𝑡 𝑋1 , … , 𝑋𝑁 une famille de variables aléatoires réelles. On dit
que 𝑋1 , … , 𝑋𝑁 sont indépendantes ou que la famille {𝑋1 , … , 𝑋𝑁 } est indépendante si
les tribus engendrées par 𝑋1 , … , 𝑋𝑁 sont indépendantes c’est-à-dire
𝜎(𝑋1 ), … , 𝜎(𝑋𝑁 ) sont indépendantes.
ii. Soit (𝑋𝑛 )𝑛∈ℕ∗ une suite de variables aléatoires réelles. On dit que la suite est
indépendante ou que les variables aléatoires 𝑋1 , … , 𝑋𝑁 , … sont indépendantes si
pour tout 𝑁 > 1 les variables aléatoires 𝑋1 , … , 𝑋𝑁 sont indépendantes.

3.3. Proposition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé. Soit 𝑛 ≥ 1, 𝑚 ≥ 1 et 𝑋1 , … , 𝑋𝑛 𝑒𝑡 𝑌1 , … , 𝑌𝑚 des
variables aléatoires indépendantes. Soit 𝜑 une fonction borélienne de ℝ𝑛 → ℝ et Ψ une
fonction borélienne de ℝ𝑚 → ℝ. Alors les variables
aléatoires 𝜑(𝑋1 , … , 𝑋𝑛 ) 𝑒𝑡 Ψ(𝑌1 , … , 𝑌𝑚 ) sont indépendantes. On peut généraliser cette
propriété en décomposant la famille initiale en plusieurs groupes de variables aléatoires
indépendantes.

Exercice
Si X et Y sont indépendante, montrer que X² et Y sont indépendantes.
Donner quelques exemples

Conséquence
Si X et Y sont deux variables aléatoires indépendantes de lois respectives ℙ𝑋 𝑒𝑡 ℙ𝑌 , alors la
loi du (𝑋, 𝑌) notée ℙ(𝑋,𝑌) est :
ℙ(𝑋,𝑌) = ℙ𝑋 ⊗ ℙ𝑌
Autrement dit
ℙ(𝑋,𝑌) (𝐴 ∗ 𝐵) = ℙ𝑋 (𝐴) ∗ ℙ𝑌 (𝐵)

3.4. Théorème
Soit X et Y deux variables aléatoires réelles définies sur (𝐸, 𝑇, ℙ ). Alors on dit que Y est
mesurable par rapport à la tribu engendrée par X notée 𝜎(𝑋) si et seulement s’il existe une
fonction borélienne 𝑓 de ℝ → ℝ telle que 𝑌 = 𝑓(𝑋)
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 20 / 41

On a :
𝑌 −1 (𝐴) = (𝑓 ∘ 𝑋)−1 (𝐴)
𝑌 −1 (𝐴) = 𝑋 −1 (𝑓(−1 (𝐴)) ∈ 𝑇

4. Convergence presque sûre d’une variable aléatoire


4.1. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé et X et Y deux variables aléatoires. On dit que 𝑋 =
𝑌, presque sûrement et on note 𝑋 = 𝑌, 𝑃. 𝑆 si l’ensemble {𝜔 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑋(𝜔) ≠ 𝑌(𝜔)} est
négligeable. C’est-à-dire
ℙ({𝜔 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑋(𝜔) ≠ 𝑌(𝜔)}) = 0

4.2. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé et (𝑋𝑛 )𝑛∈ℕ∗ une suite de variables aléatoires réelles et X
une variable aléatoire réelle. On dit que 𝑋𝑛 converge presque sûrement vers X et on note 𝑋𝑛
𝑃.𝑆
→ 𝑋 s’il existe une partie A de E négligeable telle que la suite 𝑋𝑛 (𝜔) converge
vers 𝑋(𝜔) ∀𝑤 ∈ 𝐴𝐶

4.3. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé et (𝑋𝑛 )𝑛∈ℕ∗ une suite de variables aléatoires réelles et X
une variable aléatoire réelle. On dit que 𝑋𝑛 converge en probabilité vers X si
∀𝜀 > 0, lim ({𝜔 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 |𝑋(𝜔) − 𝑋𝑛 (𝜔)| ≥ 𝜀}) = 0
𝑥→+∞

IV. INTEGRATION D’UNE FONCTION


1. Généralités
1.1. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle sur Ω. On dit que X est
intégrable ou que 𝑋 ∈ 𝐿1 (Ω, 𝑇, ℙ) si
∫ |𝑋|𝑑𝑃 < +∞
Ω

1.2. Définition
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 21 / 41

Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle telle que 𝑋 ∈
𝐿1 (Ω, 𝑇, ℙ). Alors on appelle espérance mathématique de X et on note 𝐸(𝑋) l’intégrale
définie par :
𝐸(𝑋) = ∫ 𝑋𝑑ℙ
Ω
Si ℙ𝑋 est la loi de X alors on a :
𝐸(𝑋) = ∫ 𝑋𝑑ℙ = ∫ 𝑋(𝜔)𝑑ℙ𝑋 (𝑋(𝜔))
Ω ℝ

𝐸(𝑋) = ∫ 𝑦𝑑ℙ𝑋 (𝑦)



En effet, en posant
𝑦 = 𝑋(𝜔)
On obtient que
𝜔 = 𝑋 −1 (𝑦)
Donc
𝐸(𝑋) = ∫ 𝑋(𝜔)𝑑ℙ(𝑋 −1 (𝑦)) = ∫ 𝑦𝑑ℙ𝑋 (𝑦)
ℝ ℝ

1.3. Propriétés
Si 𝑋 ∈ 𝐿1 (Ω, 𝑇, ℙ) et 𝑌 ∈ 𝐿1 (Ω, 𝑇, ℙ), 𝑎 ∈ ℝ
On a :
i) Pour 𝑋 = 𝑎, 𝐸(𝑎) = 𝑎
ii) 𝐸(𝑎𝑋) = 𝑎𝐸(𝑋)
iii) 𝐸(𝑎𝑋 + 𝑌) = 𝑎𝐸(𝑋) + 𝐸(𝑌)

1.4. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle telle que 𝑋 ∈
𝐿2 (Ω, 𝑇, ℙ). Alors on appelle variance de X et on note 𝑽(𝑿) l’intégrale définie par :
2
𝑉(𝑋) = 𝐸 [(𝑋 − 𝐸(𝑋)) ]

Note : 𝐿2 (Ω, 𝑇, ℙ) signifie de carré intégrale.

1.5. Proposition
Si
𝑋 ∈ 𝐿2 (Ω, 𝑇, ℙ) 𝑎𝑙𝑜𝑟𝑠 𝑉(𝑋) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2

Preuve
Utilisation de la linéarité
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 22 / 41

Soit 𝑋 ∈ 𝐿2 (Ω, 𝑇, ℙ)
On a :
2 2
(𝑋 − 𝐸(𝑋)) = 𝑋 2 − 2𝑋𝐸(𝑋) + (𝐸 (𝑋))
Donc
2 2
𝐸 ((𝑋 − 𝐸(𝑋)) ) = 𝐸 (𝑋 2 − 2𝑋𝐸(𝑋) + (𝐸 (𝑋)) )
2 2
𝐸 ((𝑋 − 𝐸(𝑋)) ) = 𝐸(𝑋 2 ) − 2𝐸(𝑋𝐸(𝑋)) + 𝐸 ((𝐸 (𝑋)) )
2 2
𝐸 ((𝑋 − 𝐸(𝑋)) ) = 𝐸(𝑋 2 ) − 2𝐸(𝑋)𝐸(𝑋) + 𝐸 ((𝐸(𝑋)) . 𝐸(1)) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2

1.6. Définition
Soit 𝑟 ∈ [1, +∞[ et 𝑋 ∈ 𝐿𝑟 (Ω, 𝑇, ℙ) alors on appelle moment d’ordre r de X et on
note 𝐸(|𝑋|𝑟 ), l’espérance mathématique de la variable aléatoire |𝑋|𝑟

2. Propriétés
2.1. Lemme 1(inégalité de Markov)
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle positive sur Ω et 𝜆 ∈
ℝ∗ + . On suppose que 0 < 𝐸(𝑋) < +∞ alors
𝐸(𝑋)
ℙ({𝑋 ≥ 𝜆}) ≤
𝜆

Preuve : on pose 𝐴𝜆 = {𝜔 ∈ Ω 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑋(𝜔) ≥ 𝜆}


Alors on a :
𝑋 ≥ 𝜆 1𝐴𝜆 ⟹ ∫ 𝑋𝑑ℙ ≥ 𝜆 ∫ 1𝐴𝜆 𝑑ℙ
Ω Ω
Donc on obtient
𝐸(𝑋)
𝐸(𝑋) ≥ 𝜆ℙ(𝐴𝜆 ) ⟹ ℙ(𝐴𝜆 ) ≤
𝜆

2.2. Lemme 2 (Inégalité de Bienaymé Tchebitchev)


Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle sur Ω telle que 𝑋 ∈
𝐿1 (Ω, 𝑇, ℙ). On suppose que 0 < 𝑉(𝑋) < +∞ 𝑒𝑡 𝜆 ∈ ℝ∗+ . Alors
𝑉(𝑋)
ℙ({|𝑋 − 𝐸(𝑋)| ≥ 𝜆}) ≤ 2
𝜆

Preuve
On pose
𝑌 = |𝐸 − 𝐸(𝑋)|
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 23 / 41

On a :
2
2 2)
𝐸(𝑌 2 ) 𝐸 ((𝑋 − 𝐸(𝑋)) ) 𝑉(𝑋)
ℙ(𝑌 ≥ 𝜆 ≤ = = 2
𝜆2 𝜆2 𝜆
Or en appliquant le radical et en tenant compte du fait que Y est positif, on déduit
trivialement que :
ℙ(𝑌 2 ≥ 𝜆2 ) = ℙ(𝑌 ≥ 𝜆)
Il vient :
𝑉(𝑋)
ℙ(|𝑋 − 𝐸(𝑋)| ≥ 𝜆) ≤ 2
𝜆

2.3. Proposition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle sur Ω de loi ℙ𝑋 alors :
i) Pour toute fonction
borélienne 𝜑 de ℝ dans ̅̅̅̅
ℝ+ (respectivement 𝜑 de ℝ dans ℝ borélienne et bornée) on
a:
∫ 𝜑 ∘ 𝑋𝑑ℙ = ∫ 𝜑𝑑ℙ𝑋
Ω Ω
En effet, on a :
∫ 𝜑 ∘ 𝑋𝑑ℙ = ∫ 𝜑(𝑋(𝜔))𝑑ℙ(𝜔)
Ω X(Ω)
En posant 𝑦 = 𝑋(𝜔), on obtient
∫ 𝜑 ∘ 𝑋𝑑ℙ = ∫ 𝜑(𝑦)𝑑ℙ𝑋 (𝑦)
Ω ℝ
Note : en fait, quand on fait un changement de variable, la loi ne change pas. Ce qui sort ic
est le Jacobien.

ii) Soit 𝜑 une fonction continue de ℝ dans ℝ alors la fonction 𝑌 = 𝜑 ∘ 𝑋 ∈


𝐿1 (Ω, 𝑇, ℙ) si et seulement si
𝜑 ∈ 𝐿1 (ℝ, 𝐵(ℝ), ℙ𝑋 )
De plus, si 𝜑 ∈ 𝐿1 (ℝ, 𝐵(ℝ), ℙ𝑋 ) alors
∫ 𝜑 ∘ 𝑋𝑑ℙ = ∫ 𝜑(𝑦)𝑑ℙ𝑋
Ω ℝ

V. QUELQUES EXEMPLES DE LOIS DISCRETES


1. La loi Binomiale
1.1. La loi de Bernoulli
i. Définition
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 24 / 41

On appelle épreuve de Bernoulli, toute expérience aléatoire ayant seulement deux


éventualités ou issues appelées respectivement succès et échecs.
Exemple
- Lancer d’une pièce de monnaie
- Les résultats d’un examen en particulier celui du Baccalauréat
- Le concours d’entrée en Ecole d’Ingénieur (« Gbinzin »)

ii. Définition
On appelle variable de Bernoulli, la variable aléatoire X liée à une épreuve de Bernoulli telle
que 𝑋 = 1 si succès et 𝑋 = 0 si échec.

iii. Etude d’une variable de Bernoulli


On lance une pièce de monnaie et on pose X la variable aléatoire qui vaut 1 si succès et 0
sinon.
1) Donner l’ensemble Ω des éventualités
2) On suppose que succès apparait avec la probabilité 𝑝 ∈]0,1[
a. Déterminer les valeurs prises par X
b. Donner la loi de X
c. Calculer 𝐸(𝑋) et 𝑉(𝑋)
Rappel
Pour une loi discrète X sur (Ω, 𝑇, ℙ), on a :
𝐸(𝑋) = ∑ 𝑥𝑖 ℙ(𝑥 = 𝑥𝑖 ) = ∫ 𝑋𝑑ℙ 𝑒𝑡 𝑉(𝑋) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2
𝑥𝑖 ∈𝑋(Ω) Ω

Solution
1) On pose S l’évènement « Succès » et E l’évènement « Echec »
On a immédiatement :
Ω = {𝑆, 𝐸}
2) Probabilité du succès est p
a. On a :
𝑋(Ω) = {0,1}
b. Détermination de la valeur de la probabilité pour chacun des évènements (loi
de X)
On a :
ℙ(𝑋 = 1) = ℙ(𝑆) = 𝑝
ℙ(𝑋 = 0) = ℙ(𝐸) = 1 − 𝑝
c. Calcul
On a :
𝐸(𝑋) = 0 ∗ ℙ(𝑋 = 0) + 1 ∗ ℙ(𝑋 = 1)
Il vient
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 25 / 41

𝐸(𝑋) = 0 + 𝑝 = 𝑝
Par ailleurs,
𝑉(𝑋) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2
On a :
𝐸(𝑋 2 ) = 02 ∗ ℙ(𝑋 = 0) + 12 ∗ ℙ(𝑋 = 1) = 𝑝
Ainsi
𝑉(𝑋) = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝)

1.2. La loi Binomiale


i. Définition
On appelle schéma de Bernoulli de paramètre 𝒏 ∈ ℕ∗ \ {𝟏}, toute expérience aléatoire qui
consiste à répéter n fois, une épreuve de Bernoulli et cela de façon indépendante.

ii. Exemple
On lance n fois une pièce de monnaie. On suppose que succès apparait avec la
probabilité 𝑝 ∈]0,1[. Soit X une variable aléatoire égale au nombre de succès obtenus au
cours de l’expérience.
1) Donner l’ensemble des éventualités
2) Donner les valeurs prises par X
3) Calculer 𝐸(𝑋) et 𝑉(𝑋)
4) Définition
On dit que X suit la loi binomiale de paramètres, n, p et on note
𝑋 ↝ 𝐵(𝑛, 𝑝)
Solution
1) On a :
Ω1 = {𝑆, 𝐸} 𝑒𝑡 𝑑𝑜𝑛𝑐 Ω = Ω1𝑛
2) On a :
𝑋(Ω) = ⟦0, 𝑛⟧
3) Loi de X
On a :
ℙ(𝑋 = 0) = (1 − 𝑝)𝑛
ℙ(𝑋 = 1) = 𝑛𝑝(1 − 𝑝)𝑛−1 𝑐𝑎𝑟 𝑜𝑛 𝑝𝑒𝑢𝑡 𝑎𝑣𝑜𝑖𝑟 𝑝𝑎𝑟𝑚𝑖 𝑙𝑒𝑠 𝑛 𝑙𝑎𝑛𝑐é𝑠, 𝑛 𝑠𝑢𝑐𝑐è𝑠
A l’ordre k, on a :
ℙ(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
Car on peut avoir parmi les n lancés, k succès. La méthode de dénombrement pour avoir le
nombre de façon de choisir k éléments dans n est la combinaison.
Ensuite, effectuons une vérification sachant que la somme de toutes les probabilités doit
donner 1.
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 26 / 41

On a :
𝑛 𝑛

∑ ℙ(𝑋 = 𝑘) = ∑ 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 = (𝑝 + 1 − 𝑝)𝑛 = 1


𝑘=0 𝑘=0
4) On a :
𝐸(𝑋) = ∑ 𝑥𝑖 ℙ(𝑥 = 𝑥𝑖 )
𝑥𝑖 ∈𝑋(Ω)
On pose 1 − 𝑝 = 𝑞
On a :
𝑛

𝐸(𝑋) = ∑ 𝑘𝐶𝑛𝑘 𝑘𝑝𝑘−1 𝑞 𝑛−𝑘


𝑘=0
𝐸(𝑋) = 𝑝[(𝑝 + 𝑞)𝑛 ]′ (𝑑é𝑟𝑖𝑣é𝑒)
𝐸(𝑋) = 𝑝𝑛(𝑝 + 𝑞)𝑛−1
𝐸(𝑋) = 𝑛𝑝
Puis
𝑉(𝑋) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2
𝑉(𝑋) = 𝑛𝑝𝑞 = 𝑛𝑝(1 − 𝑝)

iii. Remarque
 La loi binomiale est aussi appelée la loi du tirage avec remise.
 On reprend l’expérience précédente mais à la ième épreuve, on pose
𝟏 𝒔𝒊 𝒔𝒖𝒄𝒄è𝒔
𝑿𝒊 = { 𝒆𝒕 𝑿 = ∑ 𝑿𝒊
𝟎 𝒔𝒊𝒏𝒐𝒏

1.3. Propriétés
i. La loi de Bernoulli est appelée la loi binomiale de paramètre 1, p et on note 𝑋 ↝
𝐵(1, 𝑛)
ii. Si X et Y sont deux variables aléatoires indépendantes qui suivent respectivement
les lois binomiales de paramètres 𝑛1 , 𝑝 et 𝑛2 , 𝑝 alors
𝑋 + 𝑌 ↝ 𝐵(𝑛1 + 𝑛2 , 𝑝)
Exercice
On tire une boule dans une urne contenant 𝑛1 boules rouges et 𝑛2 boules noires avec remise.
Déterminer le nombre de la variable aléatoires X, le nombre de boules rouges après n tirages.

2. La loi uniforme
Soit X une variable aléatoire définie sur (Ω, 𝑇, ℙ) tel que 𝑋(Ω) ⊂ ℕ et fini. On dit que X suit
la loi uniforme si
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 27 / 41

1
ℙ(𝑋 = 𝑖) = ∀𝑖 ∈ 𝑋(Ω)
𝐶𝑎𝑟𝑑(Ω)

Exercice
Calculer 𝐸(𝑋) 𝑒𝑡 𝑉(𝑋)

3. Lois discrètes infinies


3.1. La loi géométrique, la loi de Pascal ou la loi d’attente d’un premier évènement dans
un processus sans mémoire
Soit l’expérience qui consiste à lancer une pièce de monnaie dans laquelle le succès (pile)
apparait avec la probabilité 𝑝 ∈]0; 1[. On répète l’expérience plusieurs fois de façon
indépendante. Soit X la variable aléatoire au nombre de lancers nécessaire pour que succès
apparaisse pour la première fois. On pose 𝐴𝑖 l’évènement « succès apparait au cours de la i-
ième épreuve ».

1) Calculer ℙ(𝑋 = +∞) succès n’apparait jamais


2) En déduire les valeurs prises par X
3) Calculer la loi X
4) Calculer 𝐸(𝑋) 𝑒𝑡 𝑉(𝑋)

3.2. La loi de poisson


On dit qu’une variable aléatoire X suit la loi de poisson de paramètre 𝜆 > 0 et on note 𝑋 ↝
𝒫(𝜆) sur (Ω, 𝑇, ℙ).
Si 𝑋(Ω) = ℕ telle que
𝜆𝑘 𝑒 −𝜆
ℙ(𝑋 = 𝑘) =
𝑘!
Vérifier que 𝐸(𝑋) = 𝑉(𝑋) = 𝜆

Exercice
Montrer que si 𝑋1 et 𝑋2 sont deux variables aléatoires indépendantes suivant
respectivement 𝒫(𝜆1 ) et 𝒫(𝜆2 ) alors
𝑋1 + 𝑋2 ↝ 𝒫(𝜆1 + 𝜆2 )

VI. VARIABLES ALEATOIRES A DENSITE


1. Mesure de densité
1.1. Définition
Soit (Ω, 𝑇, 𝜇) un espace mesuré et 𝑓 une fonction mesurable positive de Ω dans ℝ+ . Pour
tout 𝐴 ∈ 𝑇, on définit 𝑓1𝐴 par :
∀𝑥 ∈ Ω, 𝑓1𝐴 (𝑥) = 𝑓(𝑥) = 11𝐴 = 𝑓(𝑥) 𝑠𝑖 𝑥 ∈ 𝐴 𝑒𝑡 0 𝑠𝑖𝑛𝑜𝑛
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 28 / 41

Alors 𝑓1𝐴 est mesurable et positive et on a :


∫ 𝑓𝑑𝜇 = ∫ 𝑓1𝐴 𝑑𝑢
𝐴 Ω
On définit ensuite l’application 𝒱 par :
𝒱: 𝑇 → ̅̅̅̅
ℝ+
𝐴 ↦ 𝒱(𝐴) = ∫ 𝑓𝑑𝜇
𝐴
On a :
𝒱(𝐴) = ∫ 𝑓𝑑𝜇 = ∫ 𝑓1𝐴 𝑑𝜇
𝐴 Ω
Montrer que 𝒱 est une mesure sur (Ω, 𝑇) appelée mesure de densité 𝒇 par rapport à 𝝁 et on
note 𝒱 = 𝑓. 𝜇

1.2. Mesure de probabilité


i. Définition
Soit ℙ une probabilité sur (ℝ, 𝐵(ℝ)).
On dit que ℙ est une probabilité à densité par rapport à la mesure de Lebesgue 𝜆, s’il existe
une fonction 𝑓 mesurable positive telle que :
∀𝐴 ∈ 𝐵(ℝ), 𝑜𝑛 𝑎: ℙ(𝐴) = ∫ 𝑓𝑑𝜆 = ∫ 𝑓1𝐴 𝑑𝜆
𝐴 ℝ
Avec
ℙ(ℝ) = ∫ 𝑓1ℝ 𝑑𝜆 = 1 𝑝𝑢𝑖𝑠𝑞𝑢𝑒 1ℝ = 1

ii. Exemple
On donne
1 2)
𝑓(𝑥) = 𝑒 −(𝑥
√𝜋
On a :
+∞
∫ 𝑓(𝑥)𝑑𝑥 = 1
−∞

2. Variables aléatoires à densité


2.1. Définition
Une variable aléatoire X sur (Ω, 𝑇, ℙ) est dite variable aléatoire à densité si sa loi ℙ𝑋 est une
mesure de probabilité à densité par rapport à la mesure de Lebesgue.

Autrement dit : il existe une fonction mesurable positive 𝑓 telle que


Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 29 / 41

∀𝐴 ∈ 𝑇, ℙ𝑋 (𝐴) = ℙ(𝑋 − (𝐴)) = ∫ 𝑓𝑑𝜆


𝐴

2.2. Définition
On dit qu’une variable aléatoire X admet une densité 𝑓 si sa fonction de répartition 𝐹𝑋 est
continue et peut s’écrire sous la forme
𝑡
𝐹𝑋 (𝑡) = ∫ 𝑓(𝑥)𝑑𝑥
−∞
Où 𝑓 est une fonction réelle positive ayant un nombre fini de points de discontinuité,
autrement dit 𝑓 est continue presque sure telle que
+∞
∫ 𝑓(𝑥)𝑑𝑥 = ℙ𝑋 (ℝ) = 1
−∞
Dans ce cas, on dit que X est une variable aléatoire réelle à densité.

Remarque :
Toute fonction 𝑔 telle que 𝑔 = 𝑓 presque sure alors 𝑔 est densité de X.

2.3. Théorème
Une fonction réelle 𝑓 définie sur ℝ est une densité de probabilité si et seulement si
i. 𝑓 est continue sur ℝ sauf en un nombre fini de points
ii. 𝑓(𝑥) ≥ 0 ∀𝑥 ∈ ℝ
iii. On a :
+∞
∫ 𝑓(𝑥)𝑑𝑥 = 1
−∞

2.4. Exemple
Soit
𝑓: ℝ → ℝ
𝜋
cos(𝑥) 𝑠𝑖 𝑥 ∈ [0, ]
𝑓(𝑥) = { 2
0 𝑠𝑖𝑛𝑜𝑛
Montrer que 𝑓 est une fonction de densité sur ℝ

Solution
𝜋
𝑓 est une fonction continue sur ℝ et positive sur [0, ].
2
On a :
𝜋
+∞ 𝜋
2 𝜋
∫ 𝑓(𝑥)1[0,𝜋] (𝑥)𝑑𝑥 = ∫ cos(𝑥) 𝑑𝑥 = [sin(𝑥)]02 = sin ( ) − sin(0) = 1
−∞ 2 0 2
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 30 / 41

Ainsi, il vient que 𝑓 est une fonction de densité sur ℝ


Note. Lorsqu’on a une fonction définie par morceaux comme dans le cas de 𝑓 actuelle, on
ajoute toujours la fonction caractéristique dans l’intégrale.

2.5. Proposition
Soit X une variable aléatoire de fonction de répartition 𝐹𝑋 . Si 𝐹𝑋 est dérivable à dérivée
continue sur ℝ, sauf éventuellement en un nombre fini de points, (c’est-à-dire continue
presque partout) alors X est une variable à densité et toute fonction 𝑔 positive, définie
sur ℝ qui coïncide avec 𝐹𝑋′ en tout point de continuité de 𝐹𝑋′ est une densité de X.

2.6. Notation
Si X est une variable aléatoire réelle admettant une densité 𝑓 et une fonction de
répartition 𝐹𝑋 , alors, ∀𝑎, 𝑏 ∈ ℝ 𝑡𝑒𝑙𝑠 𝑞𝑢𝑒 𝑎 < 𝑏, on a :
i. On a :
𝒃
ℙ(𝒂 < 𝑿 ≤ 𝒃) = ∫ 𝒇(𝒙)𝒅𝒙 = 𝑭𝑿 (𝒃) − 𝑭𝑿 (𝒂)
𝒂
ii. On a :
ℙ(𝑿 = 𝒂) = 𝟎
iii. On a :
ℙ(𝒂 < 𝑿 < 𝒃) = ℙ(𝒂 ≤ 𝑿 < 𝒃) = ℙ(𝒂 ≤ 𝑿 ≤ 𝒃) = ℙ(𝒂 < 𝑿 ≤ 𝒃)
iv. On a :
𝒃
ℙ(𝑿 < 𝒃) = ℙ(𝑿 ≤ 𝒃) = ∫ 𝒇(𝒙)𝒅𝒙 = 𝑭𝑿 (𝒃)
−∞
Note. Peu importe la nature de l’intervalle (ouvert, semi ouvert ou fermé), cela n’a pas
d’importance.

3. Quelques exemples de détermination de fonction de densité


3.1. Exemple 1
Soit X une variable aléatoire réelle de densité 𝑓 et soit 𝑎, 𝑏 ∈ ℝ avec 𝑎 ≠ 0
Déterminer la loi de 𝑌 = 𝑎𝑋 + 𝑏
Solution
On a :
(𝑡 − 𝑏)
𝐹𝑌 (𝑡) = ℙ(𝑌 ≤ 𝑡) = ℙ(𝑎𝑋 + 𝑏 ≤ 𝑡) = ℙ (𝑋 ≤ ) 𝑠𝑖 𝑎 < 0
𝑎
On a :
𝑡−𝑏 𝑡−𝑏 𝑡−𝑏
𝐹𝑌 (𝑡) = ℙ(𝑎𝑋 + 𝑏 ≤ 𝑡) = ℙ (𝑋 ≥ ) = 1 − ℙ (𝑋 ≤ ) = 1 − 𝐹𝑋 ( )
𝑎 𝑎 𝑎
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 31 / 41

Conclusion
𝑡−𝑏
𝐹𝑋 (
) 𝑠𝑖 𝑎 > 0
𝐹𝑌 (𝑡) ={ 𝑎
𝑡−𝑏
1 − 𝐹𝑋 ( ) 𝑠𝑖 𝑎 < 0
𝑎
Alors la densité est :
1 ′ 𝑡−𝑏
𝐹𝑋 ( ) 𝑠𝑖 𝑎 > 0
′ (𝑡)
𝐹𝑌 ={ 𝑎 𝑎
1 𝑡−𝑏
− 𝐹𝑋′ ( ) 𝑠𝑖 𝑎 < 0
𝑎 𝑎

3.2. Exemple 2
Soit X une variable aléatoire réelle de densité 𝑓
Déterminer la loi de 𝑌 = 𝑋 2
Solution
On a :
√𝑡
2
𝐹𝑌 (𝑡) = ℙ(𝑌 ≤ 𝑡) = ℙ(𝑋 ≤ 𝑡) = ℙ(−√𝑡 ≤ 𝑋 ≤ √𝑡) = ∫ 𝑓(𝑥)𝑑𝑥
−√𝑡
= 𝐹𝑋 (√𝑡) − 𝐹𝑋 (−√𝑡)
La densité est alors :
1 1 1
𝐹𝑌′ (𝑡) = 𝐹𝑋′ (√𝑡) + 𝐹𝑋′ (−√𝑡) = (𝐹𝑋′ (√𝑡) + 𝐹𝑋′ (−√𝑡))
2√ 𝑡 2 √𝑡 2 √𝑡
Ainsi
1
𝑔(𝑥) = (𝑓(√𝑥) + 𝑓(−√𝑥)) 𝑠𝑖 𝑥 > 0 𝑒𝑡 𝑔(𝑥) = 0 𝑠𝑖 𝑥 < 0
2√ 𝑥
En notation améliorée, on a :
1
𝑔(𝑥) = (𝑓(√𝑥) + 𝑓(−√𝑥)) 1ℝ+∗ (𝑥)
2 √𝑥
Note Danny. Il faut transformer de la sorte pour effectivement prouver les prérequis dans
le cours de mesure et intégration.

3.3. Théorème
Soit X un variable aléatoire réelle de densité 𝑓. Soit ℎ: ℝ → ℝ un 𝐶 1 diffeomorphisme c’est-
à-dire ℎ est une bijection. ℎ 𝑒𝑡 ℎ−1 sont dérivables et à dérivées continues. Alors, 𝑌 = ℎ ∘
𝑋 est une variable aléatoire réelle de densité
𝑔(𝑦) = 𝑓(ℎ−1 (𝑦))|(ℎ−1 )′ (𝑦)|1ℎ(ℝ) (𝑦)
Où |(ℎ−1 )′ (𝑦)| est le Jacobien de ℎ−1 au point y et
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 32 / 41

1
|(ℎ−1 )′ (𝑦)| =
|(ℎ)′ (𝑥)|
Note Danny. En dimension, on montre qu’elle est différentiable et le Jacobien (déterminant
de la matrice Jacobienne) est non nul, on dit que la fonction réalise localement
un 𝐶 1 diffeomorphisme. Par ailleurs, en dimension 1, pour montrer que la fonction réalise
une bijection, on peut montrer que la dérivée et continue et monotone.

3.4. Application
Soit X une variable aléatoire réelle de densité 𝑓
On pose 𝑌 = 𝑒 𝑋
Déterminer la densité de Y
Solution
On a :
ℎ: ℝ → ℝ∗+
𝑥 ↦ 𝑒𝑥
On a :
𝑌 =ℎ∘𝑋
Et
ℎ−1 : ℝ∗+ → ℝ
𝑦 ↦ ln(𝑦)
On a :
1
(ℎ−1 )′ (𝑦) =
𝑦
1
𝑔(𝑦) = 𝑓(ℎ−1 (𝑦)) | | 1ℝ∗+ (𝑦)
𝑦
1
𝑔(𝑦) = 𝑓(ln(𝑦))1ℝ∗+ (𝑦)
𝑦

𝑥2
1 −
Soit X une variable aléatoire réelle de densité 𝑓(𝑥) = 𝑒 2
√2𝜋
On pose 𝑌 = 𝜎𝑋 + 𝑚 où 𝑚 = 𝐸(𝑥) 𝑒𝑡 𝜎 = √𝑉(𝑥)
Calculer la densité de Y.

3.5. Remarque
Si la fonction ℎ: ℝ → ℝ n’est pas monotone sur tout ℝ, alors on écrit ℝ comme réunion
d’intervalle sur lesquels ℎ est monotone et on applique le théorème sur chaque intervalle.

4. Quelques exemples de variables aléatoires à densité


4.1. La loi uniforme
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 33 / 41

On dit que la variable aléatoire réelle X suit la loi uniforme sur [𝑎, 𝑏] 𝑎𝑣𝑒𝑐 𝑎, 𝑏 ∈ ℝ et on
note 𝑋 ↝ 𝒰([𝑎, 𝑏]), si X a pour densité la fonction 𝑓 définie par :
1
𝑓(𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑥 ∈ [𝑎, 𝑏]
0 𝑠𝑖𝑛𝑜𝑛
Autrement dit
1
𝑓(𝑥) = 1 (𝑥)
𝑏 − 𝑎 [𝑎,𝑏]
Exercice
Calculer 𝐸(𝑋) 𝑒𝑡 𝑉(𝑋).

4.2. La loi exponentielle


Soit 𝛼 ∈ ℝ∗+ . On dit que variable aléatoire X suit la loi exponentielle de
paramètre 𝛼 notée ℰ(𝛼) si la densité de X est la fonction 𝑓 définie par :
𝛼𝑒 −𝛼𝑥 𝑠𝑖 𝑥 ≥ 0
𝑓(𝑥) = {
0 𝑠𝑖𝑛𝑜𝑛
Autrement dit
𝑓(𝑥) = 𝛼𝑒 −𝛼𝑥 1ℝ+ (𝑥)

Exercice
Calculer 𝐸(𝑋) 𝑒𝑡 𝑉(𝑥)

4.3. La loi de Gamma


i. Rappels
On appelle fonction Gamma, la fonction notée Γ et définie sur ℝ∗+ par :
Γ: ℝ∗+ → ℝ
+∞
𝑥 ↦ Γ(𝑥) = ∫ 𝑡 𝑥−1 . 𝑒 −𝑡 𝑑𝑡
0
On montre que Γ(𝑥 + 1) = 𝑥Γ(𝑥) et que ∀𝑛 ∈ ℕ, Γ(𝑛 + 1) = 𝑛 !
De même, on définit la fonction bêta notée β et définie par :
𝛽: ℝ∗+ ∗ ℝ∗+ → ℝ
1
(𝑎, 𝑏) ↦ 𝛽(𝑎, 𝑏) = ∫ 𝑡 𝑎−1 (1 − 𝑡)𝑏−1 𝑑𝑡
0
On montre que
𝛤(𝑏)
𝛽(𝑎, 𝑏) = 𝛤(𝑎).
𝛤(𝑎 + 𝑏)

ii. Définition
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 34 / 41

Soit 𝑏 𝑒𝑡 𝑡 ∈ ℝ∗+ . On dit qu’une variable aléatoire réelle X suit la loi gamma de paramètre b
et t et on note 𝐺(𝑏, 𝑡) si X a pour densité
𝑥
𝑒 −𝑏 . 𝑥 𝑡−1
𝑓(𝑥) = { Γ(𝑡)𝑏𝑡 𝑠𝑖 𝑥 > 0
0 𝑠𝑖𝑛𝑜𝑛

iii. Théorème
Soit X et Y deux variable aléatoire réelle indépendantes suivant respectivement
les 𝐺(𝑏, 𝑡) et 𝐺(𝑏, 𝑠) alors 𝑋 + 𝑌 suit la loi 𝐺(𝑏, 𝑡 + 𝑠)
Plus généralement, si 𝑋1 , … , 𝑋𝑛 est une suite de variables aléatoires réelles indépendantes
telles que ∀𝑘 ∈ {1,2, … , 𝑛} 𝑋𝑘 ↝ 𝐺(𝑏, 𝑡𝑘 ) alors
𝑛 𝑛

𝑆𝑛 = ∑ 𝑋𝑘 ↝ 𝐺 (𝑏, 𝑡 = ∑ 𝑡𝑘 )
𝑘=1 𝑘=1

4.4. La loi normale


i. Définition
On dit qu’une variable aléatoire réelle suit la loi normale ou la loi de Laplace-Gauss de
paramètre 𝑚 et 𝜎(𝜎 > 0) on note
𝑋 ↝ 𝒩(𝑚, 𝜎)
si 𝑋 a pour densité
2
1
(𝑥−𝑚)
(2 )
1 𝜎
𝑓(𝑥) = 𝑒
𝜎√2𝜋
Exercice : Calculer 𝐸(𝑥) et 𝑉(𝑥)

ii. Définition
On dit que 𝑋 suit la loi normale centrée reduite si 𝑋 ↝ 𝒩(0,1)

𝑥−𝑚
Remarque : Si 𝑋 ↝ 𝒩(𝑚, 𝜎) alors 𝑌 = ↝ 𝒩(0,1)
𝜎

iii. Théorème
Soit 𝑋1 , … , 𝑋𝑛 une suite de variables aléatoires réelles indépendantes telle que ∀ 𝑘 ∈
{1,2, … , 𝑛} 𝑋𝑘 ↝ 𝒩(𝑚𝑘 , 𝜎𝑘 ) alors
𝑛 𝑛 𝑛

𝑆𝑛 = ∑ 𝑋𝑘 ↝ 𝒩 (∑ 𝑚𝑘 ; 𝜎 = √∑ 𝜎𝑘2 )
𝑘=1 𝑘=1 𝑘=1

4.5. La loi de Cauchy


Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 35 / 41

On dit que qu’une variable aléatoire suit la loi de Cauchy, si X a pour densité la fonction f
définie par
1 1
𝑓(𝑥) =
𝜋 1 + 𝑥2
Calculer 𝐸(𝑥)

4.6. Définition
Soit 𝑟 ∈ [1, +∞[ et 𝑋 ∈ 𝐿𝑟 (Ω, 𝑇, ℙ) alors on appelle moment d’ordre r de X, l’espérance
mathématique de la variable aléatoire |𝑋|𝑟 et notée 𝐸(|𝑋|𝑟 )

4.7. Définition
Soit 𝑋 une variable aléatoire sur (Ω, 𝑇, ℙ) telle que 𝑋 ∈ 𝐿1 (Ω, 𝑇, ℙ). On appelle fonction
génératrice de X et on note 𝑔𝑋 la fonction définie par :
(𝑠)
𝑔𝑋 = 𝐸(𝑠 𝑋 ) = ∫ 𝑠 𝑋 𝑑𝑃𝑋

Alors on montre que :
𝑔𝑋′ (1) = 𝐸(𝑥) 𝑎𝑣𝑒𝑐 𝐸(𝑋) = ∫ 𝑋𝑑𝑃
Ω
Calculer 𝑔𝑋′′ (1)

VII. VECTEURS ALEATOIRES


1. Définition et exemples
1.1. Définition
Soit 𝑛 ∈ ℕ∗ \{1} et (𝐼1 , … , 𝐼𝑛 ) une suite d’ouverts de ℝ c’est-à-dire 𝐼𝑖 ⊂ ℝ, ∀1 ≤ 𝑖 ≤ 𝑛
On appelle pavé de ℝ𝑛 toute partie B de ℝ𝑛 de la forme
𝐵 = 𝐼1 ∗ 𝐼2 ∗ … ∗ 𝐼𝑛

Remarque : la tribu borélienne de ℝ𝑛 est engendrée par les pavés B de ℝ𝑛

1.2. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et (𝑋𝑖 )1≤𝑖≤𝑛 une suite de variables aléatoires réelles telles
que
𝑋𝑖 : Ω → ℝ
On appelle vecteurs aléatoires sur (Ω, 𝑇, ℙ) toute fonction mesurable X définie par :
𝑋: Ω → ℝ𝑛
𝜔 ↦ 𝑋(𝜔) = (𝑋1 (𝜔), … , 𝑋𝑛 (𝜔))
On parle de vecteur aléatoire de dimension n.

1.3. Exemple
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 36 / 41

On lance deux pièces de monnaie numérotées 1 et 2. On note 𝑋𝑖 la variable aléatoire réelle


qui vaut 1 si succès pour la ième pièce de monnaie. Soit X, la variable aléatoire définie par :
𝑋: Ω → ℝ2
𝜔 ↦ 𝑋(𝜔) = (𝑋1 (𝜔), 𝑋2 (𝜔))

1.4. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X un variable aléatoire vectorielle de dimension 𝑛 ≥
2. Alors on dit que
i) X est discrète si 𝑋𝑖 est discrète ∀1 ≤ 𝑖 ≤ 𝑛
ii) X est continue si 𝑋𝑖 est continue ∀1 ≤ 𝑖 ≤ 𝑛

2. Vecteurs aléatoires discrets


2.1. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et 𝑋 = (𝑋1 , … , 𝑋𝑛 ) un vecteur aléatoire discret. On
appelle la loi de du vecteur X ou la loi conjointe des 𝑋𝑖 1 ≤ 𝑖 ≤ 𝑛, la probabilité image
ℙ𝑋 = ℙ(𝑋1 ,…,𝑋𝑛 ) 𝑑𝑒 ℙ 𝑝𝑎𝑟 𝑋 𝑑é𝑓𝑖𝑛𝑖𝑒 𝑝𝑎𝑟
ℙ𝑋 (𝑎1 , … , 𝑎𝑛 ) = ℙ(𝑋1 = 𝑎1 , … , 𝑋𝑛 = 𝑎𝑛 )
𝑛 𝑛

ℙ𝑋 (𝑎1 , … , 𝑎𝑛 ) = ℙ (⋂{𝑋𝑖 = 𝑎𝑖 }) 𝑜ù (𝑎1 , … , 𝑎𝑛 ) ∈ ∏ 𝑋𝑖 (Ω)


𝑖=1 𝑖=1

2.2. Exemple
On a :
ℙ𝑋 (1,1) = ℙ𝑋 (𝑋1 = 1, 𝑋2 = 1)

2.3. Loi marginale


i) Définition
Soit𝑋 = (𝑋1 , … , 𝑋𝑛 ) un vecteur aléatoire de dimension 𝑛 ≥ 2. Alors les variables
aléatoires 𝑋𝑖 , 1 ≤ 𝑖 ≤ 𝑛, sont appelées les variables marginales. La loi 𝑋𝑖 , 1 ≤ 𝑖 ≤ 𝑛 est
appelée loi marginale de vecteur X et on définit par :
𝑛

ℙ𝑋𝑗 = ∑ ℙ (⋂{𝑋𝑖 = 𝑎𝑖 })
𝑎𝑖 ∈𝑋𝑖 (Ω) 𝑖=1
𝑖≠𝑗

3. Vecteur aléatoire à densité


3.1. Définition
On appelle densité continue de probabilité ou fonction de densité sur ℝ𝑛 , toute
fonction 𝑓 positive et continue sur ℝ𝑛 (sauf en un nombre fini de points) telle que :
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 37 / 41

∫ 𝑓(𝑥1 , … , 𝑥𝑛 ) 𝑑𝑥1 … 𝑑𝑥𝑛 = 1


ℝ𝑛

3.2. Exemple
Soit
𝑓: ℝ2 → ℝ
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 38 / 41

1 −𝑥 2+𝑦2
(𝑥, 𝑦) ↦ 𝑓(𝑥, 𝑦) = 𝑒 2
2𝜋
Montrer que 𝑓 est une fonction de densité sur ℝ2

Solution
Posons
1 𝑥 2 +𝑦 2

𝐼= ∫ 𝑒 2 𝑑𝑥𝑑𝑦
2𝜋 ℝ2
Changement de variable
On a :
𝑥 = 𝑟 cos(𝜃) 𝑒𝑡 𝑦 = 𝑟 sin(𝜃) 𝑟 ∈ ℝ+ 𝑒𝑡 𝜃 ∈ [0,2𝜋]
Soit le couple (𝑥, 𝑦)
Le Jacobien :
cos(𝜃) −𝑟 sin(𝜃)
| | = 𝑟 cos 2 (𝜃) + 𝑟 sin2 (𝜃) = 𝑟 ≥ 0
sin(𝜃) 𝑟 cos(𝜃)
On a :
2𝜋 +∞ 𝑟 2 cos2(𝜃)+𝑟 2 sin2 (𝜃)
1 cos(𝜃) −𝑟 sin(𝜃) −
𝐼= (∫ ∫ det (| |) 𝑒 2 𝑑𝑟 𝑑𝜃)
2𝜋 0 0 sin(𝜃) 𝑟 cos(𝜃)
2𝜋 +∞ 𝑟2
1 −
𝐼= (∫ ∫ 𝑟𝑒 2 𝑑𝑟 𝑑𝜃)
2𝜋 0 0
2𝜋 +∞ 𝑟2
1 −
𝐼= (∫ 𝑑𝜃 ∫ 𝑟𝑒 2 𝑑𝑟)
2𝜋 0 0
+∞ 𝑟2
1 −
𝐼= (2𝜋 ∫ 𝑟𝑒 2 𝑑𝑟)
2𝜋 0
𝑟2
En posant 𝑢 = , 𝑢′ = 𝑟, 𝑑𝑢 = 𝑟𝑑𝑟, on a :
2
+∞
1 1 1
𝐼= (2𝜋 ∫ 𝑢′ 𝑒 −𝑢 𝑑𝑢) = (2𝜋[−𝑒 −𝑢 ]+∞
0 )= (2𝜋 ∗ 1) = 1
2𝜋 0 2𝜋 2𝜋
Donc 𝑓 est une fonction de densité sur ℝ

Autre méthode
On peut intégrer directement. Dans ce cas, on a :
−𝑥 2 +𝑦 2 −𝑥 2 −𝑦 2
𝐼=∫ ∫ 𝑒 2 𝑑𝑥 𝑑𝑦 =∫ ∫ 𝑒 2 𝑒 2 𝑑𝑥 𝑑𝑦
ℝ ℝ ℝ ℝ
−𝑦 2 −𝑥 2
𝐼=∫ 𝑒 2 ∫ 𝑒 2 𝑑𝑥 𝑑𝑦
ℝ ℝ
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 39 / 41

−𝑦 2 −𝑥 2
𝐼=∫ 𝑒 2 𝑑𝑦 ∫ 𝑒 2 𝑑𝑥
ℝ ℝ
On a :
−𝑥 2
𝐴=∫ 𝑒 2 𝑑𝑥

Posons
2
𝑥2 𝑥 𝑑𝑥
𝑢 = 𝑑𝑜𝑛𝑐 𝑢 = 𝑒𝑡 𝑑𝑢 =
2 √2 √2
Ainsi
2
𝐴 = √2 ∫ 𝑒 −𝑢 𝑑𝑢 = √2𝜋

Donc en appliquant à I, on a :
2
1
𝐼= (√2𝜋) = 1
2𝜋
Donc 𝑓 est une densité de probabilité.

3.3. Définition
On dit qu’un vecteur aléatoire X de dimension 𝑛 ≥ 2 admet pour densité sur ℝ𝑛 la
fonction 𝑓 définie par :
𝑓: ℝ𝑛 → ℝ∗+
(𝑥1 , … , 𝑥𝑛 ) ↦ 𝑓(𝑥1 , … , 𝑥𝑛 )
Si la probabilité image par X notée ℙ𝑋 et appelée la loi conjointe est une probabilité à densité
par rapport à la mesure de Lebesgue et a pour densité 𝑓
Dans ce cas,
∀𝐴 = 𝐴1 ∗ … ∗ 𝐴𝑛 ∈ 𝐵(ℝ𝑛 ) 𝑜𝑛 𝑎: ℙ𝑋 (𝐴) = ℙ(𝑋 ∈ 𝐴) = ∫ 𝑓(𝑋)𝑑𝑋 𝑜ù 𝑋
ℝ𝑛
= (𝑋1 , … , 𝑋𝑛 ) 𝑒𝑡 𝐷𝑋 = 𝑑𝑥1 , … , 𝑑𝑥𝑛

3.4. Théorème
X est un vecteur aléatoire de densité continue 𝑓 sur ℝ𝑛 si et seulement pour toute fonction
bornée 𝑔 sur ℝ𝑛 on a :
∫ 𝑔 ∘ 𝑋𝑑ℙ = ∫ 𝑔 (𝑦)𝑑ℙ𝑋 (𝑦)
Ω ℝ𝑛

∫ 𝑔 ∘ 𝑋𝑑ℙ = ∫ 𝑔(𝑦1 , … , 𝑦𝑛 )𝑓(𝑦1 , … , 𝑦𝑛 )𝑑𝑦1 , … , 𝑑𝑦𝑛


Ω ℝ𝑛
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 40 / 41

3.5. Densité marginale


i) Définition
Soit 𝑋 = (𝑋1 , … , 𝑋𝑛 ) est un vecteur aléatoire de dimension 𝑛 ≥ 2 de densité 𝑓 sur ℝ𝑛 alors
les densités des variables aléatoires marginales noté 𝑋𝑘 , 1 ≤ 𝑖 ≤ 𝑛 sont appelées densités
marginales et on a :
𝑓𝑘 (𝑥𝑘 ) = ∫ 𝑓(𝑥1 , … , 𝑥𝑛
ℝ𝑛−1
Danny modifie

3.6. Fonction de répartition


Soit 𝑋 = (𝑋1 , … , 𝑋𝑛 ) est un vecteur aléatoire de dimension 𝑛 ≥ 2 de densité 𝑓 sur ℝ𝑛 alors
la fonction de répartition 𝐹𝑋 = 𝐹(𝑋1,…,𝑋𝑛 ) est définie par :
𝑡1 𝑡2 𝑡𝑛
𝐹𝑋 (𝑡1 , … , 𝑡𝑛 ) = ∫ ∫ … ∫ 𝑓(𝑥1 , … , 𝑥𝑛 ) 𝑑𝑥1 , … , 𝑑𝑥𝑛
−∞ −∞ −∞
Si 𝐹𝑋 est de classe

3.7. Espérance mathématique d’un vecteur aléatoire


i) Définition 1
Soit 𝑋 = (𝑋1 , … , 𝑋𝑛 ) est un vecteur aléatoire tel que 𝐸(𝑋𝑖 ) < +∞ ∀1 ≤ 𝑖 ≤ 𝑛
Alors on appelle l’espérance mathématique du vecteur X et on note 𝐸(𝑋) le
vecteur (𝐸 (𝑋1 ), … 𝐸(𝑋𝑛 ))
Autrement dit
𝐸(𝑋1 )
𝐸(𝑋) = ( … )
𝐸(𝑋𝑛 )

ii) Définition 2
Soit X et Y deux variables aléatoires réelles sur (Ω, 𝑇, ℙ). Alors on appelle la covariance de
X et Y et on note 𝐶𝑜𝑣(𝑋, 𝑌) le réel défini par :
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑋))]

Autrement dit
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌)

iii) Définition 3
Soit X une variable aléatoire réelle sur (Ω, 𝑇, ℙ).
On appelle la matrice de covariance de X et on note Σ𝑋 la matrice définie par :
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 41 / 41

Σ𝑋 = (𝑎𝑖𝑗 )1≤𝑖,𝑗≤,𝑛
Telle que
𝑎𝑖𝑗 = 𝑐𝑜𝑣(𝑋𝑖 , 𝑋𝑗 )

4.8. Situation d’application.

Pour le calcul de la moyenne de deux élèves X et Y. Par exemples, pour une matière M, les
élèves ont deux notes pour le calcul de leur moyenne. L’élève X obtient les notes de 10/20 et
10/20 et l’élève Y obtient les notes de 3/20 et 17/20. On remarque immédiatement que les
élèves X et Y ont tous les deux la moyenne de 10/20. Dans ce cas, il est difficile de dire quel
élève est bon. De fait, la variance permet de voir lequel des élèves est régulier dans ses notes.

Au niveau de l’étude démographique d’une population par exemple, C’est l’écart type qu’on
prend pour interpréter les vrais résultats. C’est-à-dire pour évaluer si la population est bien
jeune pour l’apport de la main d’œuvre ou si cette évolution est en « dent de scie ».

La covariance est pour mesurer deux lois.

Vous aimerez peut-être aussi