Académique Documents
Professionnel Documents
Culture Documents
ING STIC A 1 / 41
OUTILS
ALEATOIRES
DE
L’INGENIEUR
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 2 / 41
Table de matière
I. DENOMBREMENT ................................................................................................................................ 6
1. Théorie des ensembles .......................................................................................................................... 6
1.1. Définition ........................................................................................................................................ 6
1.2. Exemples ......................................................................................................................................... 6
1.3. Remarques ...................................................................................................................................... 6
i. En extension ................................................................................................................................... 6
ii. En compréhension ...................................................................................................................... 6
1.4. Opérations sur les ensembles ......................................................................................................... 6
i. Intersection ..................................................................................................................................... 6
ii. La réunion ................................................................................................................................... 7
iii. Inclusion...................................................................................................................................... 7
iv. Remarque .................................................................................................................................... 7
v. Complémentaire d’un ensemble ................................................................................................. 7
vi. Différence symétrique de deux ensembles ................................................................................. 7
1.5. Produit cartésien de deux ensembles ............................................................................................. 8
1.6. Partition d’un ensemble ................................................................................................................. 8
2. Cardinal d’un ensemble (ensemble fini) .............................................................................................. 8
2.1. Définition ........................................................................................................................................ 8
2.2. Propriétés ........................................................................................................................................ 8
3. Dénombrement ...................................................................................................................................... 9
3.1. Arrangement de p éléments de E avec répétition .......................................................................... 9
3.2. Arrangement de p élément de E sans répétition ............................................................................ 9
II. PROBABILITE...................................................................................................................................... 11
1. Espace probabilisé .............................................................................................................................. 11
1.1. Définition ...................................................................................................................................... 11
1.2. Définition ...................................................................................................................................... 12
1.3. Notation......................................................................................................................................... 12
1.4. Langage probabiliste .................................................................................................................... 12
1.5. Equiprobabilité ou probabilité uniforme ..................................................................................... 12
i. Définition ...................................................................................................................................... 12
ii. Dans le cas d’un ensemble E dénombrable et fini .................................................................. 13
2. Probabilité conditionnelle – Indépendance ....................................................................................... 13
2.1. Probabilité conditionnelle ............................................................................................................ 13
i. Définition ...................................................................................................................................... 13
ii. Conséquence ............................................................................................................................. 14
iii. Exemple ..................................................................................................................................... 14
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 3 / 41
2.6. Notation......................................................................................................................................... 30
3. Quelques exemples de détermination de fonction de densité ............................................................ 30
3.1. Exemples 1 .................................................................................................................................... 30
3.2. Exemple 2...................................................................................................................................... 31
3.3. Théorème ...................................................................................................................................... 31
3.4. Application .................................................................................................................................... 32
3.5. Remarque ...................................................................................................................................... 32
4. Quelques exemples de variables aléatoires à densité ........................................................................ 32
4.1. La loi uniforme ............................................................................................................................. 32
4.2. La loi exponentielle ...................................................................................................................... 33
4.3. La loi de Gamma .............................................................................................................................. 33
4.5. La loi de Cauchy ........................................................................................................................... 34
4.6. Définition ...................................................................................................................................... 35
4.7. Définition ...................................................................................................................................... 35
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 6 / 41
I. DENOMBREMENT
1. Théorie des ensembles
1.1. Définition
On appelle ensemble, toute collection d’objets, chaque objet est appelé élément de cet
ensemble. Un ensemble est toujours désigné par une lettre majuscule : A, B, C, D,…
1.2. Exemples
On donne
1.3. Remarques
Un ensemble peut être défini soit en extension, soit en compréhension
i. En extension
Définir un ensemble en extension, c’est lister tous ces éléments.
Ex.
𝐸 = {𝑎, 𝑏, 𝑐, 𝑑}
ii. En compréhension
C’est définir un ensemble en compréhension, c’est donner un texte qui décrit les éléments de
cet ensemble.
Ex. E est l’ensemble des entiers naturels inférieurs à 10
i. Intersection
Soit A et B (respectivement (𝐴𝑛 )𝑛∈ℕ ) deux éléments (respectivement suite d’éléments)
de 𝑃(𝐸). On appelle intersection de A et B (respectivement de la suite (𝐴𝑛 )𝑛∈ℕ ) et on
note 𝐴 ∩ 𝐵 (respectivement ⋂𝑛∈ℕ 𝐴𝑛 ) l’ensemble 𝐶 ∈ 𝑃(𝐸), des éléments de E qui
appartiennent à la fois à A et à B (respectivement à 𝐴𝑛 ∀𝑛 ∈ ℕ)
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 7 / 41
ii. La réunion
Soit A et B (respectivement (𝐴𝑛 )𝑛∈ℕ ) deux éléments (respectivement suite d’éléments)
de 𝑃(𝐸). On appelle réunion de A et B (respectivement de la suite (𝐴𝑛 )𝑛∈ℕ ) et on note 𝐴 ∪
𝐵 (respectivement ⋃𝑛∈ℕ 𝐴𝑛 ) l’ensemble 𝐶 ∈ 𝑃(𝐸), des éléments de E qui appartiennent à A
ou à B (respectivement au moins à 𝐴𝑛 ∀𝑛 ∈ ℕ)
iii. Inclusion
Soit A et B des éléments de 𝑃(𝐸). On dit que A est inclus dans B et on note 𝐴 ⊂ 𝐵, si tous les
éléments de A sont aussi les éléments de B.
𝐴 ⊂ 𝐵 ⟺ ∀𝑥 ∈ 𝐴 ⟹ 𝑥 ∈ 𝐵
Dans ce cas
𝐴∩𝐵 =𝐴
iv. Remarque
L’élément de 𝑃(𝐸) qui n’a aucun élément est appelé ensemble vide noté ∅
On a:
𝐶 = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥 ∉ 𝐴} = 𝐴̅
On a :
𝐴Δ𝐵 = (𝐴\𝐴 ∩ 𝐵) ∪ (𝐵\𝐴 ∩ 𝐵)
Remarque :
𝐴∗𝐵 ≠𝐵∗𝐴
2
Si 𝐴 = 𝐵 alors 𝐴 ∗ 𝐵 = 𝐴
Si 𝐴1 = 𝐴2 = ⋯ = 𝐴𝑝 alors
𝑝
∏ 𝐴𝑖 = 𝐴 𝑝
𝑖=1
Remarque
Si 𝐴 𝑒𝑡 𝐵 ∈ 𝑃(𝐸) tel que 𝐴 ∩ 𝐵 = ∅, on dit que A et B sont disjoints.
2.2. Propriétés
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 9 / 41
3. Dénombrement
Soit E un ensemble fini, à n éléments c’est-à-dire 𝐶𝑎𝑟𝑑(𝐸) = 𝑛
Solution
On pose E l’ensemble des n boules.
Il s’agit de tirer une boule après l’autre, noté le numéro et remettre la boule tiré dans
la urne pour le prochain tirage. Le fait qu’on peut tirer la même boule entraine la répétition.
En conclusion, le nombre de tirage est égal
𝐶𝑎𝑟𝑑(𝐸 𝑝 ) = [𝐶𝑎𝑟𝑑(𝐸)]𝑝 = 𝑛𝑝
(𝑥1 , … , 𝑥𝑝 ) ∈ ∏ 𝐸𝑖
𝑖=0
𝑝−1
D’où le nombre d’arrangement sans répétition est égal à 𝐶𝑎𝑟𝑑(∏𝑖=0 𝐸𝑖 )
Or on a :
𝐶𝑎𝑟𝑑(𝐸𝑖 ) = 𝐶𝑎𝑟𝑑(𝐸) − 𝑖
𝑝−1
𝑝−1
𝐶𝑎𝑟𝑑 (∏ 𝐸𝑖 ) = ∏(𝑛 − 1) = 𝑛(𝑛 − 1) … (𝑛 − 𝑝 + 1)
𝑖=0
𝑖=0
𝑝−1
𝑝
𝐶𝑎𝑟𝑑 (∏ 𝐸𝑖 ) = 𝐴𝑛
𝑖=0
Le nombre d’arrangement dans répétition sans répétition de p élément
C’est aussi le nombre d’applications injectives d’un ensemble à p éléments vers un ensemble
à n éléments est égal à
𝑝
𝐴𝑛 = 𝑛(𝑛 − 1) … − (𝑛 − 𝑝 + 1)
Remarque : ici 1 ≤ 𝑝 ≤ 𝑛
iv) Conséquence
Si dans un arrangement sans répétition de p éléments d’un ensemble à n éléments on
prend 𝑝 = 𝑛, on parle de permutation à n éléments. Dans ce cas, le nombre de permutations
est
𝐴𝑛𝑛 = 𝑛! = 𝑛 ∗ (𝑛 − 1) ∗ … ∗ 3 ∗ 2 ∗ 1
1 𝑠𝑖 𝑥 ∈ 𝐴
𝑥 ↦ 𝜑𝐴 (𝑥) = {
0 𝑠𝑖𝑛𝑜𝑛
𝜑𝐴 est une application.
On note
𝐹 = {0,1}
𝜑𝐴 ∈ ℱ(𝐸; 𝐹)
Réciproquement, montrons que toute application 𝑓 ∈ ℱ(𝐸, 𝐹) est de cette forme.
Si 𝑓 ∈ ℱ(𝐸, 𝐹), on pose
𝐴 = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑓(𝑥) = 1} ⟹ 𝑓 = 𝜑𝐴
II. PROBABILITE
1. Espace probabilisé
1.1. Définition
On appelle espace mesurable ou probabilisable, tout ensemble E muni d’une tribu et on
note (𝐸, 𝑇).
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 12 / 41
1.2. Définition
On appelle mesure de probabilité sur un espace probabilisable et on note P, toute mesure sur
l’espace probabilisable (𝐸, 𝑇) telle que 𝑃(𝐸) = 1
Exemple.
Si E est dénombrable, on a :
𝐸 = ⋃{𝑎}
𝑎∈𝐸
Dans ce cas
𝑃(𝐸) = ∑ 𝑃(𝑎)
𝑎∈𝐸
Et on obtient ainsi une série.
1.3. Notation
Si P est une mesure de probabilité sur (𝐸, 𝑇) alors (𝐸, 𝑇, 𝑃) est appelé espace probabilisé.
Exercice
Montrer que la mesure de Dirac est une mesure de probabilité.
Exercice.
On donne 𝐸 = {𝑎, 𝑏, 𝑐} et P la probabilité définie par
1 4 2
𝑃 = 𝛿𝑎 + 𝛿𝑏 + 𝛿𝑐
7 7 7
Calculer 𝑃({𝑎, 𝑏}) ; 𝑃({𝑎, 𝑐}), 𝑃({𝑏, 𝑐})
i. Définition
Soit (𝐸, 𝑇, 𝑃) un espace probabilisé. On dit que P est une probabilité uniforme ou
équiprobabilité si tous les évènements élémentaires ont la même probabilité.
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 13 / 41
ℙ(𝐴) = ℙ (𝐸 = ⋃{𝑎})
𝑎∈𝐴
ℙ(𝐴) = ∑ ℙ({𝑎})
𝑎∈𝐴
ℙ(𝐴) = 𝑝 ∗ 𝐶𝑎𝑟𝑑(𝐴)
On a :
1
ℙ(𝐸) = 1 = 𝑝 ∗ 𝐶𝑎𝑟𝑑(𝐸) ⟹ 𝑝 =
𝐶𝑎𝑟𝑑(𝐸)
Donc :
𝐶𝑎𝑟𝑑(𝐴)
ℙ(𝐴) =
𝐶𝑎𝑟𝑑(𝐸)
Remarque
Dans le cas d’une équiprobabilité ou probabilité uniforme, un problème de probabilité
devient un problème de dénombrement.
i. Définition
Soit (𝐸, 𝑇, 𝑃) un espace probabilisé, A et B, deux éléments de T. Alors on a :
ii. Conséquence
Soit (𝐸, 𝑇, 𝑃) un espace probabilisé, 𝐴, 𝐵 ∈ 𝑇 alors :
ℙ(𝐵). ℙ𝐵 (𝐴) = ℙ(𝐴 ∩ 𝐵)
iii. Exemple
L’application ℙ𝐵 définie par :
ℙ𝐵 : 𝑇 → [0,1]
ℙ(𝐴 ∩ 𝐵)
𝐴 ↦ ℙ𝐵 (𝐴) =
ℙ(𝐵)
Est une mesure de probabilité.
2.2. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé. On appelle système complet d’évènement, toute
suite (𝐴𝑛 )𝑛∈ℕ d’évènements deux à deux disjoints c’est-à-dire
𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∀𝑖 ≠ 𝑗, 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝐸 = ⋃ 𝐴𝑛
𝑛∈ℕ
2.3. Proposition : probabilité totale
Soit (𝐸, 𝑇, ℙ) un espace probabilisé, (𝐴𝑛 )𝑛∈ℕ un système complet d’évènements de
probabilité non nulle et B un évènements, alors on a :
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 15 / 41
ℙ (⋂ 𝐴𝑖 ) = ∏ ℙ (𝐴𝑖 ⁄⋂ 𝐴𝑘 ) . ℙ(𝐴1 )
𝑖=1 𝑖=2 𝑘=1
Exemple
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 16 / 41
1.2. Définition
Soit (𝐸, 𝑇) 𝑒𝑡 (𝐸, 𝜏) deux espaces probabilisables, alors une fonction X définie de E dans F
est appelée élément aléatoire si elle est (𝑇, 𝜏) −mesurable c’est-à-dire
∀𝐴 ∈ 𝜏, 𝑋 −1 (𝐴) ∈ 𝑇
Lorsque F est un espace vectoriel, on dit que X est une variable aléatoire vectorielle ou
vecteur aléatoire.
1.3. Remarque
La notion de variable aléatoire est fondamentale en calcul des probabilités. C’est en générale
par la connaissance de la variable aléatoire et celle de sa loi de probabilité que se construit le
modèle probabilisé ; l’espace probabilisé (𝐸, 𝑇, ℙ) reste souvent mal connu.
i. Proposition
Soit (𝐸, 𝑇, 𝜇) un espace mesuré et (𝐹, 𝜏) un espace mesurable, 𝑓 une
application (𝑇, 𝜏) −mesurable de (𝐸, 𝑇, 𝜇) dans (𝐹, 𝜏), alors l’application 𝜇𝑓 définie
de 𝜏 dans ̅̅̅̅
ℝ+ par :
𝜇𝑓 : 𝜏 → ̅̅̅̅
ℝ+
𝐴 ↦ 𝜇𝑓 (𝐴) = 𝜇( 𝑓 −1 (𝐴))
Est une mesure sur 𝜏 appelée mesure image réciproque par 𝒇.
Soit (E, 𝑇, ℙ) un espace probabilisé et 𝑋: (E, 𝑇, ℙ) → (ℝ, 𝐵(ℝ)) une variable aléatoire.
On appelle la loi de probabilité de la variable aléatoire X et on note ℙ𝑋 la probabilité image
réciproque par ℙ.
Autrement dit
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 17 / 41
ii. Exercice
Lancer de deux dés (probabilité uniforme)
Soit X la variable aléatoire qui au lancer associe la somme des nombres obtenues.
1) Déterminer les valeurs prises par X
2) Déterminer la loi de X
ii. Propriétés
On sait que 𝐸 = {𝑋 ≤ 𝑡} ∪ {𝑋 > 𝑡}
On a :
ℙ(𝐸) = ℙ(𝑋 ≤ 𝑡) + ℙ(𝑋 > 𝑡) = 1
Donc
ℙ(𝑋 > 𝑡) = 1 − ℙ(𝑋 ≤ 𝑡) ⟹ ℙ(𝑋 > 𝑡) = 1 − 𝐹𝑋 (𝑡)
iii. Proposition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé, X une variable aléatoire réelle de loi ℙ𝑋 et 𝐹𝑋 croissante
et continue à droite.
De plus, on a :
lim 𝐹𝑋 (𝑡) = 0 𝑒𝑡 lim 𝐹𝑋 (𝑡) = 1
𝑡→−∞ 𝑡→+∞
iv. Exercice
Déterminer la fonction de répartition 𝐹𝑋 de X de l’exercice précédent.
vi. Définition
Soit X et Y deux variables aléatoires définies respectivement sur (𝐸, 𝑇, ℙ) et (𝐸 ′ , 𝑇 ′ , ℙ′ ) deux
espaces probabilisés. On dit que X et Y sont équi-distribuables si elles ont la même loi de
probabilité.
3.2. Définition
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 19 / 41
3.3. Proposition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé. Soit 𝑛 ≥ 1, 𝑚 ≥ 1 et 𝑋1 , … , 𝑋𝑛 𝑒𝑡 𝑌1 , … , 𝑌𝑚 des
variables aléatoires indépendantes. Soit 𝜑 une fonction borélienne de ℝ𝑛 → ℝ et Ψ une
fonction borélienne de ℝ𝑚 → ℝ. Alors les variables
aléatoires 𝜑(𝑋1 , … , 𝑋𝑛 ) 𝑒𝑡 Ψ(𝑌1 , … , 𝑌𝑚 ) sont indépendantes. On peut généraliser cette
propriété en décomposant la famille initiale en plusieurs groupes de variables aléatoires
indépendantes.
Exercice
Si X et Y sont indépendante, montrer que X² et Y sont indépendantes.
Donner quelques exemples
Conséquence
Si X et Y sont deux variables aléatoires indépendantes de lois respectives ℙ𝑋 𝑒𝑡 ℙ𝑌 , alors la
loi du (𝑋, 𝑌) notée ℙ(𝑋,𝑌) est :
ℙ(𝑋,𝑌) = ℙ𝑋 ⊗ ℙ𝑌
Autrement dit
ℙ(𝑋,𝑌) (𝐴 ∗ 𝐵) = ℙ𝑋 (𝐴) ∗ ℙ𝑌 (𝐵)
3.4. Théorème
Soit X et Y deux variables aléatoires réelles définies sur (𝐸, 𝑇, ℙ ). Alors on dit que Y est
mesurable par rapport à la tribu engendrée par X notée 𝜎(𝑋) si et seulement s’il existe une
fonction borélienne 𝑓 de ℝ → ℝ telle que 𝑌 = 𝑓(𝑋)
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 20 / 41
On a :
𝑌 −1 (𝐴) = (𝑓 ∘ 𝑋)−1 (𝐴)
𝑌 −1 (𝐴) = 𝑋 −1 (𝑓(−1 (𝐴)) ∈ 𝑇
4.2. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé et (𝑋𝑛 )𝑛∈ℕ∗ une suite de variables aléatoires réelles et X
une variable aléatoire réelle. On dit que 𝑋𝑛 converge presque sûrement vers X et on note 𝑋𝑛
𝑃.𝑆
→ 𝑋 s’il existe une partie A de E négligeable telle que la suite 𝑋𝑛 (𝜔) converge
vers 𝑋(𝜔) ∀𝑤 ∈ 𝐴𝐶
4.3. Définition
Soit (𝐸, 𝑇, ℙ) un espace probabilisé et (𝑋𝑛 )𝑛∈ℕ∗ une suite de variables aléatoires réelles et X
une variable aléatoire réelle. On dit que 𝑋𝑛 converge en probabilité vers X si
∀𝜀 > 0, lim ({𝜔 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 |𝑋(𝜔) − 𝑋𝑛 (𝜔)| ≥ 𝜀}) = 0
𝑥→+∞
1.2. Définition
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 21 / 41
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle telle que 𝑋 ∈
𝐿1 (Ω, 𝑇, ℙ). Alors on appelle espérance mathématique de X et on note 𝐸(𝑋) l’intégrale
définie par :
𝐸(𝑋) = ∫ 𝑋𝑑ℙ
Ω
Si ℙ𝑋 est la loi de X alors on a :
𝐸(𝑋) = ∫ 𝑋𝑑ℙ = ∫ 𝑋(𝜔)𝑑ℙ𝑋 (𝑋(𝜔))
Ω ℝ
1.3. Propriétés
Si 𝑋 ∈ 𝐿1 (Ω, 𝑇, ℙ) et 𝑌 ∈ 𝐿1 (Ω, 𝑇, ℙ), 𝑎 ∈ ℝ
On a :
i) Pour 𝑋 = 𝑎, 𝐸(𝑎) = 𝑎
ii) 𝐸(𝑎𝑋) = 𝑎𝐸(𝑋)
iii) 𝐸(𝑎𝑋 + 𝑌) = 𝑎𝐸(𝑋) + 𝐸(𝑌)
1.4. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle telle que 𝑋 ∈
𝐿2 (Ω, 𝑇, ℙ). Alors on appelle variance de X et on note 𝑽(𝑿) l’intégrale définie par :
2
𝑉(𝑋) = 𝐸 [(𝑋 − 𝐸(𝑋)) ]
1.5. Proposition
Si
𝑋 ∈ 𝐿2 (Ω, 𝑇, ℙ) 𝑎𝑙𝑜𝑟𝑠 𝑉(𝑋) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2
Preuve
Utilisation de la linéarité
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 22 / 41
Soit 𝑋 ∈ 𝐿2 (Ω, 𝑇, ℙ)
On a :
2 2
(𝑋 − 𝐸(𝑋)) = 𝑋 2 − 2𝑋𝐸(𝑋) + (𝐸 (𝑋))
Donc
2 2
𝐸 ((𝑋 − 𝐸(𝑋)) ) = 𝐸 (𝑋 2 − 2𝑋𝐸(𝑋) + (𝐸 (𝑋)) )
2 2
𝐸 ((𝑋 − 𝐸(𝑋)) ) = 𝐸(𝑋 2 ) − 2𝐸(𝑋𝐸(𝑋)) + 𝐸 ((𝐸 (𝑋)) )
2 2
𝐸 ((𝑋 − 𝐸(𝑋)) ) = 𝐸(𝑋 2 ) − 2𝐸(𝑋)𝐸(𝑋) + 𝐸 ((𝐸(𝑋)) . 𝐸(1)) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2
1.6. Définition
Soit 𝑟 ∈ [1, +∞[ et 𝑋 ∈ 𝐿𝑟 (Ω, 𝑇, ℙ) alors on appelle moment d’ordre r de X et on
note 𝐸(|𝑋|𝑟 ), l’espérance mathématique de la variable aléatoire |𝑋|𝑟
2. Propriétés
2.1. Lemme 1(inégalité de Markov)
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle positive sur Ω et 𝜆 ∈
ℝ∗ + . On suppose que 0 < 𝐸(𝑋) < +∞ alors
𝐸(𝑋)
ℙ({𝑋 ≥ 𝜆}) ≤
𝜆
Preuve
On pose
𝑌 = |𝐸 − 𝐸(𝑋)|
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 23 / 41
On a :
2
2 2)
𝐸(𝑌 2 ) 𝐸 ((𝑋 − 𝐸(𝑋)) ) 𝑉(𝑋)
ℙ(𝑌 ≥ 𝜆 ≤ = = 2
𝜆2 𝜆2 𝜆
Or en appliquant le radical et en tenant compte du fait que Y est positif, on déduit
trivialement que :
ℙ(𝑌 2 ≥ 𝜆2 ) = ℙ(𝑌 ≥ 𝜆)
Il vient :
𝑉(𝑋)
ℙ(|𝑋 − 𝐸(𝑋)| ≥ 𝜆) ≤ 2
𝜆
2.3. Proposition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X une variable aléatoire réelle sur Ω de loi ℙ𝑋 alors :
i) Pour toute fonction
borélienne 𝜑 de ℝ dans ̅̅̅̅
ℝ+ (respectivement 𝜑 de ℝ dans ℝ borélienne et bornée) on
a:
∫ 𝜑 ∘ 𝑋𝑑ℙ = ∫ 𝜑𝑑ℙ𝑋
Ω Ω
En effet, on a :
∫ 𝜑 ∘ 𝑋𝑑ℙ = ∫ 𝜑(𝑋(𝜔))𝑑ℙ(𝜔)
Ω X(Ω)
En posant 𝑦 = 𝑋(𝜔), on obtient
∫ 𝜑 ∘ 𝑋𝑑ℙ = ∫ 𝜑(𝑦)𝑑ℙ𝑋 (𝑦)
Ω ℝ
Note : en fait, quand on fait un changement de variable, la loi ne change pas. Ce qui sort ic
est le Jacobien.
ii. Définition
On appelle variable de Bernoulli, la variable aléatoire X liée à une épreuve de Bernoulli telle
que 𝑋 = 1 si succès et 𝑋 = 0 si échec.
Solution
1) On pose S l’évènement « Succès » et E l’évènement « Echec »
On a immédiatement :
Ω = {𝑆, 𝐸}
2) Probabilité du succès est p
a. On a :
𝑋(Ω) = {0,1}
b. Détermination de la valeur de la probabilité pour chacun des évènements (loi
de X)
On a :
ℙ(𝑋 = 1) = ℙ(𝑆) = 𝑝
ℙ(𝑋 = 0) = ℙ(𝐸) = 1 − 𝑝
c. Calcul
On a :
𝐸(𝑋) = 0 ∗ ℙ(𝑋 = 0) + 1 ∗ ℙ(𝑋 = 1)
Il vient
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 25 / 41
𝐸(𝑋) = 0 + 𝑝 = 𝑝
Par ailleurs,
𝑉(𝑋) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2
On a :
𝐸(𝑋 2 ) = 02 ∗ ℙ(𝑋 = 0) + 12 ∗ ℙ(𝑋 = 1) = 𝑝
Ainsi
𝑉(𝑋) = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝)
ii. Exemple
On lance n fois une pièce de monnaie. On suppose que succès apparait avec la
probabilité 𝑝 ∈]0,1[. Soit X une variable aléatoire égale au nombre de succès obtenus au
cours de l’expérience.
1) Donner l’ensemble des éventualités
2) Donner les valeurs prises par X
3) Calculer 𝐸(𝑋) et 𝑉(𝑋)
4) Définition
On dit que X suit la loi binomiale de paramètres, n, p et on note
𝑋 ↝ 𝐵(𝑛, 𝑝)
Solution
1) On a :
Ω1 = {𝑆, 𝐸} 𝑒𝑡 𝑑𝑜𝑛𝑐 Ω = Ω1𝑛
2) On a :
𝑋(Ω) = ⟦0, 𝑛⟧
3) Loi de X
On a :
ℙ(𝑋 = 0) = (1 − 𝑝)𝑛
ℙ(𝑋 = 1) = 𝑛𝑝(1 − 𝑝)𝑛−1 𝑐𝑎𝑟 𝑜𝑛 𝑝𝑒𝑢𝑡 𝑎𝑣𝑜𝑖𝑟 𝑝𝑎𝑟𝑚𝑖 𝑙𝑒𝑠 𝑛 𝑙𝑎𝑛𝑐é𝑠, 𝑛 𝑠𝑢𝑐𝑐è𝑠
A l’ordre k, on a :
ℙ(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
Car on peut avoir parmi les n lancés, k succès. La méthode de dénombrement pour avoir le
nombre de façon de choisir k éléments dans n est la combinaison.
Ensuite, effectuons une vérification sachant que la somme de toutes les probabilités doit
donner 1.
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 26 / 41
On a :
𝑛 𝑛
iii. Remarque
La loi binomiale est aussi appelée la loi du tirage avec remise.
On reprend l’expérience précédente mais à la ième épreuve, on pose
𝟏 𝒔𝒊 𝒔𝒖𝒄𝒄è𝒔
𝑿𝒊 = { 𝒆𝒕 𝑿 = ∑ 𝑿𝒊
𝟎 𝒔𝒊𝒏𝒐𝒏
1.3. Propriétés
i. La loi de Bernoulli est appelée la loi binomiale de paramètre 1, p et on note 𝑋 ↝
𝐵(1, 𝑛)
ii. Si X et Y sont deux variables aléatoires indépendantes qui suivent respectivement
les lois binomiales de paramètres 𝑛1 , 𝑝 et 𝑛2 , 𝑝 alors
𝑋 + 𝑌 ↝ 𝐵(𝑛1 + 𝑛2 , 𝑝)
Exercice
On tire une boule dans une urne contenant 𝑛1 boules rouges et 𝑛2 boules noires avec remise.
Déterminer le nombre de la variable aléatoires X, le nombre de boules rouges après n tirages.
2. La loi uniforme
Soit X une variable aléatoire définie sur (Ω, 𝑇, ℙ) tel que 𝑋(Ω) ⊂ ℕ et fini. On dit que X suit
la loi uniforme si
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 27 / 41
1
ℙ(𝑋 = 𝑖) = ∀𝑖 ∈ 𝑋(Ω)
𝐶𝑎𝑟𝑑(Ω)
Exercice
Calculer 𝐸(𝑋) 𝑒𝑡 𝑉(𝑋)
Exercice
Montrer que si 𝑋1 et 𝑋2 sont deux variables aléatoires indépendantes suivant
respectivement 𝒫(𝜆1 ) et 𝒫(𝜆2 ) alors
𝑋1 + 𝑋2 ↝ 𝒫(𝜆1 + 𝜆2 )
ii. Exemple
On donne
1 2)
𝑓(𝑥) = 𝑒 −(𝑥
√𝜋
On a :
+∞
∫ 𝑓(𝑥)𝑑𝑥 = 1
−∞
2.2. Définition
On dit qu’une variable aléatoire X admet une densité 𝑓 si sa fonction de répartition 𝐹𝑋 est
continue et peut s’écrire sous la forme
𝑡
𝐹𝑋 (𝑡) = ∫ 𝑓(𝑥)𝑑𝑥
−∞
Où 𝑓 est une fonction réelle positive ayant un nombre fini de points de discontinuité,
autrement dit 𝑓 est continue presque sure telle que
+∞
∫ 𝑓(𝑥)𝑑𝑥 = ℙ𝑋 (ℝ) = 1
−∞
Dans ce cas, on dit que X est une variable aléatoire réelle à densité.
Remarque :
Toute fonction 𝑔 telle que 𝑔 = 𝑓 presque sure alors 𝑔 est densité de X.
2.3. Théorème
Une fonction réelle 𝑓 définie sur ℝ est une densité de probabilité si et seulement si
i. 𝑓 est continue sur ℝ sauf en un nombre fini de points
ii. 𝑓(𝑥) ≥ 0 ∀𝑥 ∈ ℝ
iii. On a :
+∞
∫ 𝑓(𝑥)𝑑𝑥 = 1
−∞
2.4. Exemple
Soit
𝑓: ℝ → ℝ
𝜋
cos(𝑥) 𝑠𝑖 𝑥 ∈ [0, ]
𝑓(𝑥) = { 2
0 𝑠𝑖𝑛𝑜𝑛
Montrer que 𝑓 est une fonction de densité sur ℝ
Solution
𝜋
𝑓 est une fonction continue sur ℝ et positive sur [0, ].
2
On a :
𝜋
+∞ 𝜋
2 𝜋
∫ 𝑓(𝑥)1[0,𝜋] (𝑥)𝑑𝑥 = ∫ cos(𝑥) 𝑑𝑥 = [sin(𝑥)]02 = sin ( ) − sin(0) = 1
−∞ 2 0 2
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 30 / 41
2.5. Proposition
Soit X une variable aléatoire de fonction de répartition 𝐹𝑋 . Si 𝐹𝑋 est dérivable à dérivée
continue sur ℝ, sauf éventuellement en un nombre fini de points, (c’est-à-dire continue
presque partout) alors X est une variable à densité et toute fonction 𝑔 positive, définie
sur ℝ qui coïncide avec 𝐹𝑋′ en tout point de continuité de 𝐹𝑋′ est une densité de X.
2.6. Notation
Si X est une variable aléatoire réelle admettant une densité 𝑓 et une fonction de
répartition 𝐹𝑋 , alors, ∀𝑎, 𝑏 ∈ ℝ 𝑡𝑒𝑙𝑠 𝑞𝑢𝑒 𝑎 < 𝑏, on a :
i. On a :
𝒃
ℙ(𝒂 < 𝑿 ≤ 𝒃) = ∫ 𝒇(𝒙)𝒅𝒙 = 𝑭𝑿 (𝒃) − 𝑭𝑿 (𝒂)
𝒂
ii. On a :
ℙ(𝑿 = 𝒂) = 𝟎
iii. On a :
ℙ(𝒂 < 𝑿 < 𝒃) = ℙ(𝒂 ≤ 𝑿 < 𝒃) = ℙ(𝒂 ≤ 𝑿 ≤ 𝒃) = ℙ(𝒂 < 𝑿 ≤ 𝒃)
iv. On a :
𝒃
ℙ(𝑿 < 𝒃) = ℙ(𝑿 ≤ 𝒃) = ∫ 𝒇(𝒙)𝒅𝒙 = 𝑭𝑿 (𝒃)
−∞
Note. Peu importe la nature de l’intervalle (ouvert, semi ouvert ou fermé), cela n’a pas
d’importance.
Conclusion
𝑡−𝑏
𝐹𝑋 (
) 𝑠𝑖 𝑎 > 0
𝐹𝑌 (𝑡) ={ 𝑎
𝑡−𝑏
1 − 𝐹𝑋 ( ) 𝑠𝑖 𝑎 < 0
𝑎
Alors la densité est :
1 ′ 𝑡−𝑏
𝐹𝑋 ( ) 𝑠𝑖 𝑎 > 0
′ (𝑡)
𝐹𝑌 ={ 𝑎 𝑎
1 𝑡−𝑏
− 𝐹𝑋′ ( ) 𝑠𝑖 𝑎 < 0
𝑎 𝑎
3.2. Exemple 2
Soit X une variable aléatoire réelle de densité 𝑓
Déterminer la loi de 𝑌 = 𝑋 2
Solution
On a :
√𝑡
2
𝐹𝑌 (𝑡) = ℙ(𝑌 ≤ 𝑡) = ℙ(𝑋 ≤ 𝑡) = ℙ(−√𝑡 ≤ 𝑋 ≤ √𝑡) = ∫ 𝑓(𝑥)𝑑𝑥
−√𝑡
= 𝐹𝑋 (√𝑡) − 𝐹𝑋 (−√𝑡)
La densité est alors :
1 1 1
𝐹𝑌′ (𝑡) = 𝐹𝑋′ (√𝑡) + 𝐹𝑋′ (−√𝑡) = (𝐹𝑋′ (√𝑡) + 𝐹𝑋′ (−√𝑡))
2√ 𝑡 2 √𝑡 2 √𝑡
Ainsi
1
𝑔(𝑥) = (𝑓(√𝑥) + 𝑓(−√𝑥)) 𝑠𝑖 𝑥 > 0 𝑒𝑡 𝑔(𝑥) = 0 𝑠𝑖 𝑥 < 0
2√ 𝑥
En notation améliorée, on a :
1
𝑔(𝑥) = (𝑓(√𝑥) + 𝑓(−√𝑥)) 1ℝ+∗ (𝑥)
2 √𝑥
Note Danny. Il faut transformer de la sorte pour effectivement prouver les prérequis dans
le cours de mesure et intégration.
3.3. Théorème
Soit X un variable aléatoire réelle de densité 𝑓. Soit ℎ: ℝ → ℝ un 𝐶 1 diffeomorphisme c’est-
à-dire ℎ est une bijection. ℎ 𝑒𝑡 ℎ−1 sont dérivables et à dérivées continues. Alors, 𝑌 = ℎ ∘
𝑋 est une variable aléatoire réelle de densité
𝑔(𝑦) = 𝑓(ℎ−1 (𝑦))|(ℎ−1 )′ (𝑦)|1ℎ(ℝ) (𝑦)
Où |(ℎ−1 )′ (𝑦)| est le Jacobien de ℎ−1 au point y et
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 32 / 41
1
|(ℎ−1 )′ (𝑦)| =
|(ℎ)′ (𝑥)|
Note Danny. En dimension, on montre qu’elle est différentiable et le Jacobien (déterminant
de la matrice Jacobienne) est non nul, on dit que la fonction réalise localement
un 𝐶 1 diffeomorphisme. Par ailleurs, en dimension 1, pour montrer que la fonction réalise
une bijection, on peut montrer que la dérivée et continue et monotone.
3.4. Application
Soit X une variable aléatoire réelle de densité 𝑓
On pose 𝑌 = 𝑒 𝑋
Déterminer la densité de Y
Solution
On a :
ℎ: ℝ → ℝ∗+
𝑥 ↦ 𝑒𝑥
On a :
𝑌 =ℎ∘𝑋
Et
ℎ−1 : ℝ∗+ → ℝ
𝑦 ↦ ln(𝑦)
On a :
1
(ℎ−1 )′ (𝑦) =
𝑦
1
𝑔(𝑦) = 𝑓(ℎ−1 (𝑦)) | | 1ℝ∗+ (𝑦)
𝑦
1
𝑔(𝑦) = 𝑓(ln(𝑦))1ℝ∗+ (𝑦)
𝑦
𝑥2
1 −
Soit X une variable aléatoire réelle de densité 𝑓(𝑥) = 𝑒 2
√2𝜋
On pose 𝑌 = 𝜎𝑋 + 𝑚 où 𝑚 = 𝐸(𝑥) 𝑒𝑡 𝜎 = √𝑉(𝑥)
Calculer la densité de Y.
3.5. Remarque
Si la fonction ℎ: ℝ → ℝ n’est pas monotone sur tout ℝ, alors on écrit ℝ comme réunion
d’intervalle sur lesquels ℎ est monotone et on applique le théorème sur chaque intervalle.
On dit que la variable aléatoire réelle X suit la loi uniforme sur [𝑎, 𝑏] 𝑎𝑣𝑒𝑐 𝑎, 𝑏 ∈ ℝ et on
note 𝑋 ↝ 𝒰([𝑎, 𝑏]), si X a pour densité la fonction 𝑓 définie par :
1
𝑓(𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑥 ∈ [𝑎, 𝑏]
0 𝑠𝑖𝑛𝑜𝑛
Autrement dit
1
𝑓(𝑥) = 1 (𝑥)
𝑏 − 𝑎 [𝑎,𝑏]
Exercice
Calculer 𝐸(𝑋) 𝑒𝑡 𝑉(𝑋).
Exercice
Calculer 𝐸(𝑋) 𝑒𝑡 𝑉(𝑥)
ii. Définition
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 34 / 41
Soit 𝑏 𝑒𝑡 𝑡 ∈ ℝ∗+ . On dit qu’une variable aléatoire réelle X suit la loi gamma de paramètre b
et t et on note 𝐺(𝑏, 𝑡) si X a pour densité
𝑥
𝑒 −𝑏 . 𝑥 𝑡−1
𝑓(𝑥) = { Γ(𝑡)𝑏𝑡 𝑠𝑖 𝑥 > 0
0 𝑠𝑖𝑛𝑜𝑛
iii. Théorème
Soit X et Y deux variable aléatoire réelle indépendantes suivant respectivement
les 𝐺(𝑏, 𝑡) et 𝐺(𝑏, 𝑠) alors 𝑋 + 𝑌 suit la loi 𝐺(𝑏, 𝑡 + 𝑠)
Plus généralement, si 𝑋1 , … , 𝑋𝑛 est une suite de variables aléatoires réelles indépendantes
telles que ∀𝑘 ∈ {1,2, … , 𝑛} 𝑋𝑘 ↝ 𝐺(𝑏, 𝑡𝑘 ) alors
𝑛 𝑛
𝑆𝑛 = ∑ 𝑋𝑘 ↝ 𝐺 (𝑏, 𝑡 = ∑ 𝑡𝑘 )
𝑘=1 𝑘=1
ii. Définition
On dit que 𝑋 suit la loi normale centrée reduite si 𝑋 ↝ 𝒩(0,1)
𝑥−𝑚
Remarque : Si 𝑋 ↝ 𝒩(𝑚, 𝜎) alors 𝑌 = ↝ 𝒩(0,1)
𝜎
iii. Théorème
Soit 𝑋1 , … , 𝑋𝑛 une suite de variables aléatoires réelles indépendantes telle que ∀ 𝑘 ∈
{1,2, … , 𝑛} 𝑋𝑘 ↝ 𝒩(𝑚𝑘 , 𝜎𝑘 ) alors
𝑛 𝑛 𝑛
𝑆𝑛 = ∑ 𝑋𝑘 ↝ 𝒩 (∑ 𝑚𝑘 ; 𝜎 = √∑ 𝜎𝑘2 )
𝑘=1 𝑘=1 𝑘=1
On dit que qu’une variable aléatoire suit la loi de Cauchy, si X a pour densité la fonction f
définie par
1 1
𝑓(𝑥) =
𝜋 1 + 𝑥2
Calculer 𝐸(𝑥)
4.6. Définition
Soit 𝑟 ∈ [1, +∞[ et 𝑋 ∈ 𝐿𝑟 (Ω, 𝑇, ℙ) alors on appelle moment d’ordre r de X, l’espérance
mathématique de la variable aléatoire |𝑋|𝑟 et notée 𝐸(|𝑋|𝑟 )
4.7. Définition
Soit 𝑋 une variable aléatoire sur (Ω, 𝑇, ℙ) telle que 𝑋 ∈ 𝐿1 (Ω, 𝑇, ℙ). On appelle fonction
génératrice de X et on note 𝑔𝑋 la fonction définie par :
(𝑠)
𝑔𝑋 = 𝐸(𝑠 𝑋 ) = ∫ 𝑠 𝑋 𝑑𝑃𝑋
ℝ
Alors on montre que :
𝑔𝑋′ (1) = 𝐸(𝑥) 𝑎𝑣𝑒𝑐 𝐸(𝑋) = ∫ 𝑋𝑑𝑃
Ω
Calculer 𝑔𝑋′′ (1)
1.2. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et (𝑋𝑖 )1≤𝑖≤𝑛 une suite de variables aléatoires réelles telles
que
𝑋𝑖 : Ω → ℝ
On appelle vecteurs aléatoires sur (Ω, 𝑇, ℙ) toute fonction mesurable X définie par :
𝑋: Ω → ℝ𝑛
𝜔 ↦ 𝑋(𝜔) = (𝑋1 (𝜔), … , 𝑋𝑛 (𝜔))
On parle de vecteur aléatoire de dimension n.
1.3. Exemple
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 36 / 41
1.4. Définition
Soit (Ω, 𝑇, ℙ) un espace probabilisé et X un variable aléatoire vectorielle de dimension 𝑛 ≥
2. Alors on dit que
i) X est discrète si 𝑋𝑖 est discrète ∀1 ≤ 𝑖 ≤ 𝑛
ii) X est continue si 𝑋𝑖 est continue ∀1 ≤ 𝑖 ≤ 𝑛
2.2. Exemple
On a :
ℙ𝑋 (1,1) = ℙ𝑋 (𝑋1 = 1, 𝑋2 = 1)
ℙ𝑋𝑗 = ∑ ℙ (⋂{𝑋𝑖 = 𝑎𝑖 })
𝑎𝑖 ∈𝑋𝑖 (Ω) 𝑖=1
𝑖≠𝑗
3.2. Exemple
Soit
𝑓: ℝ2 → ℝ
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 38 / 41
1 −𝑥 2+𝑦2
(𝑥, 𝑦) ↦ 𝑓(𝑥, 𝑦) = 𝑒 2
2𝜋
Montrer que 𝑓 est une fonction de densité sur ℝ2
Solution
Posons
1 𝑥 2 +𝑦 2
−
𝐼= ∫ 𝑒 2 𝑑𝑥𝑑𝑦
2𝜋 ℝ2
Changement de variable
On a :
𝑥 = 𝑟 cos(𝜃) 𝑒𝑡 𝑦 = 𝑟 sin(𝜃) 𝑟 ∈ ℝ+ 𝑒𝑡 𝜃 ∈ [0,2𝜋]
Soit le couple (𝑥, 𝑦)
Le Jacobien :
cos(𝜃) −𝑟 sin(𝜃)
| | = 𝑟 cos 2 (𝜃) + 𝑟 sin2 (𝜃) = 𝑟 ≥ 0
sin(𝜃) 𝑟 cos(𝜃)
On a :
2𝜋 +∞ 𝑟 2 cos2(𝜃)+𝑟 2 sin2 (𝜃)
1 cos(𝜃) −𝑟 sin(𝜃) −
𝐼= (∫ ∫ det (| |) 𝑒 2 𝑑𝑟 𝑑𝜃)
2𝜋 0 0 sin(𝜃) 𝑟 cos(𝜃)
2𝜋 +∞ 𝑟2
1 −
𝐼= (∫ ∫ 𝑟𝑒 2 𝑑𝑟 𝑑𝜃)
2𝜋 0 0
2𝜋 +∞ 𝑟2
1 −
𝐼= (∫ 𝑑𝜃 ∫ 𝑟𝑒 2 𝑑𝑟)
2𝜋 0 0
+∞ 𝑟2
1 −
𝐼= (2𝜋 ∫ 𝑟𝑒 2 𝑑𝑟)
2𝜋 0
𝑟2
En posant 𝑢 = , 𝑢′ = 𝑟, 𝑑𝑢 = 𝑟𝑑𝑟, on a :
2
+∞
1 1 1
𝐼= (2𝜋 ∫ 𝑢′ 𝑒 −𝑢 𝑑𝑢) = (2𝜋[−𝑒 −𝑢 ]+∞
0 )= (2𝜋 ∗ 1) = 1
2𝜋 0 2𝜋 2𝜋
Donc 𝑓 est une fonction de densité sur ℝ
Autre méthode
On peut intégrer directement. Dans ce cas, on a :
−𝑥 2 +𝑦 2 −𝑥 2 −𝑦 2
𝐼=∫ ∫ 𝑒 2 𝑑𝑥 𝑑𝑦 =∫ ∫ 𝑒 2 𝑒 2 𝑑𝑥 𝑑𝑦
ℝ ℝ ℝ ℝ
−𝑦 2 −𝑥 2
𝐼=∫ 𝑒 2 ∫ 𝑒 2 𝑑𝑥 𝑑𝑦
ℝ ℝ
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 39 / 41
−𝑦 2 −𝑥 2
𝐼=∫ 𝑒 2 𝑑𝑦 ∫ 𝑒 2 𝑑𝑥
ℝ ℝ
On a :
−𝑥 2
𝐴=∫ 𝑒 2 𝑑𝑥
ℝ
Posons
2
𝑥2 𝑥 𝑑𝑥
𝑢 = 𝑑𝑜𝑛𝑐 𝑢 = 𝑒𝑡 𝑑𝑢 =
2 √2 √2
Ainsi
2
𝐴 = √2 ∫ 𝑒 −𝑢 𝑑𝑢 = √2𝜋
ℝ
Donc en appliquant à I, on a :
2
1
𝐼= (√2𝜋) = 1
2𝜋
Donc 𝑓 est une densité de probabilité.
3.3. Définition
On dit qu’un vecteur aléatoire X de dimension 𝑛 ≥ 2 admet pour densité sur ℝ𝑛 la
fonction 𝑓 définie par :
𝑓: ℝ𝑛 → ℝ∗+
(𝑥1 , … , 𝑥𝑛 ) ↦ 𝑓(𝑥1 , … , 𝑥𝑛 )
Si la probabilité image par X notée ℙ𝑋 et appelée la loi conjointe est une probabilité à densité
par rapport à la mesure de Lebesgue et a pour densité 𝑓
Dans ce cas,
∀𝐴 = 𝐴1 ∗ … ∗ 𝐴𝑛 ∈ 𝐵(ℝ𝑛 ) 𝑜𝑛 𝑎: ℙ𝑋 (𝐴) = ℙ(𝑋 ∈ 𝐴) = ∫ 𝑓(𝑋)𝑑𝑋 𝑜ù 𝑋
ℝ𝑛
= (𝑋1 , … , 𝑋𝑛 ) 𝑒𝑡 𝐷𝑋 = 𝑑𝑥1 , … , 𝑑𝑥𝑛
3.4. Théorème
X est un vecteur aléatoire de densité continue 𝑓 sur ℝ𝑛 si et seulement pour toute fonction
bornée 𝑔 sur ℝ𝑛 on a :
∫ 𝑔 ∘ 𝑋𝑑ℙ = ∫ 𝑔 (𝑦)𝑑ℙ𝑋 (𝑦)
Ω ℝ𝑛
ii) Définition 2
Soit X et Y deux variables aléatoires réelles sur (Ω, 𝑇, ℙ). Alors on appelle la covariance de
X et Y et on note 𝐶𝑜𝑣(𝑋, 𝑌) le réel défini par :
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑋))]
Autrement dit
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌)
iii) Définition 3
Soit X une variable aléatoire réelle sur (Ω, 𝑇, ℙ).
On appelle la matrice de covariance de X et on note Σ𝑋 la matrice définie par :
Ecole Supérieure d’Industrie Année Académique : 2016-2017
ING STIC A 41 / 41
Σ𝑋 = (𝑎𝑖𝑗 )1≤𝑖,𝑗≤,𝑛
Telle que
𝑎𝑖𝑗 = 𝑐𝑜𝑣(𝑋𝑖 , 𝑋𝑗 )
Pour le calcul de la moyenne de deux élèves X et Y. Par exemples, pour une matière M, les
élèves ont deux notes pour le calcul de leur moyenne. L’élève X obtient les notes de 10/20 et
10/20 et l’élève Y obtient les notes de 3/20 et 17/20. On remarque immédiatement que les
élèves X et Y ont tous les deux la moyenne de 10/20. Dans ce cas, il est difficile de dire quel
élève est bon. De fait, la variance permet de voir lequel des élèves est régulier dans ses notes.
Au niveau de l’étude démographique d’une population par exemple, C’est l’écart type qu’on
prend pour interpréter les vrais résultats. C’est-à-dire pour évaluer si la population est bien
jeune pour l’apport de la main d’œuvre ou si cette évolution est en « dent de scie ».