Vous êtes sur la page 1sur 15

Département de Mathématiques

Cycle ingénieur 1ère année  Génie Mathématiquee

Semestre 1  2021-2022

Probabilité
Chapitre 2  Variables aléatoires
Cas discret et cas continu
2 | Variables aléatoires  Cas discret et cas
continu
Ce cours est scindé en trois parties :

1. Présenter une caractéristique importante d'une mesure de probabilité : la fonction de répar-


tition.

2. Présenter les variables aléatoires dans le cas où Ω est dénombrable.

3. Présenter les variables aléatoires dans le cas où Ω = R.

Sommaire

2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . 4


2.2 Variables aléatoires  Cas Ω dénombrable . . . . . . . . . . . . . . . . 6
2.2.1 La loi d'une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . 9
2.2.3 Espérance mathématique d'une variable aléatoire . . . . . . . . . . . . . 9
2.2.4 Variance d'une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Variables aléatoires dans le cas Ω = R . . . . . . . . . . . . . . . . . . 11
2.3.1 Variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.2 L'image d'une probabilité par une variable aléatoire . . . . . . . . . . . 12
2.3.3 La fonction de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.4 Intégration par rapport à une mesure de probabilité . . . . . . . . . . . 14

2.1 Fonction de répartition


La fonction de répartition caractérise une mesure de probabilité

P : (R, B(R)) → [0; 1]

On s'intéresse à quelques propriétés dans le cas général Ω = R.

Dénition 1.
Si P est une probabilité sur (R, B(R)), sa fonction de répartition est la fonction réelle F
dénie pour tout x ∈ R par
F(x) = P (] − ∞, x]) .

3
Chapitre 2. Variables aléatoires  Cas discret et cas continu 4

Théorème 1.
La fonction de répartition F caractérise la probabilité, autrement dit,
ˆ si P est une probabilité sur (R, B(R)) de fonction de répartition F ,

ˆ si Q est une probabilité sur (R, B(R)) de fonction de répartition G,

ˆ si F = G,

alors P = Q.

La probabilité est entièrement connue si on connaît seulement F : on peut donc en principe retrouver
P(A) pour n'importe quel borélien A à partir de la fonction F.

Théorème 2.
Une fonction F est la fonction de répartition d'une (unique) probabilité sur (R, B(R)) si
et seulement si elle vérie les propriétés suivantes
1. F est croissante ;
2. F est continue à droite ;
3. lim F(x) = 0 et lim F(x) = 1.
x→−∞ x→+∞

Propriétés 2.1.1. Soit F la fonction de répartition de la probabilité P sur R. En notant F(x− )


la limite à gauche de F au point x (qui existe puisque F est croissante), pour tous x < y on a
1. P (]x, y]) = F(y) − F(x).
2. P ([x, y]) = F(y) − F x−1 .


3. P ([x, y[) = F y −1 − F x−1 .


 

4. P (]x, y[) = F y −1 − F(x).




5. P ({x}) = F(x) − F x−1 .




Démonstration . En TD2

Exemple 1.
::::::::::: Z
Soit f une fonction positive et Riemann-intégrable telle que f (x)dx = 1. La fonction F telle
R
que pour tout x ∈ R, Z x
F(x) = f (t)dt
−∞

dénit la fonction de répartition d'une probabilité P sur R, en eet


Z x Z y
ˆ F est croissante : x < y ⇒ f (t)dt ≤ f (t)dt par croissance domaniale de l'intégrale.
−∞ −∞

ˆ F est continue (par hypothèse) donc continue à droite.


Z
ˆ lim F(x) = 0 et lim F(x) = f (x)dx = 1.
x→−∞ x→+∞ R
La fonction f est appelée sa densité. (Il n'est pas vrai que toute probabilité sur R admet une densité ;
en eet s'il existe une densité alors la fonction F est continue, alors qu'il existe beaucoup de fonctions
de répartition discontinues, ainsi que le montre l'exemple suivant.)
5 2.2. Variables aléatoires  Cas Ω dénombrable

Exemple
::::::::::
2.
Soit α ∈ R. La mesure
( de Dirac concentrée en α est une mesure de probabilité sur R. Pour A ∈ B (R),
1 si α ∈ A
P (A) = δα (A) = . Calculons la fonction de répartition de δα .
0 si α ∈/A

si α ∈] − ∞, x]

 1

ˆ Soit x ∈ R. F(x) = P (] − ∞, x]) = δα (] − ∞, x]) =
si α ∈]

/ − ∞, x]
 0

ˆ Comme α ∈] − ∞, x] ⇔ α ≤ x ⇔ x ≥ α ⇔ x ∈ [α; +∞[ alors

si x ∈ [α; +∞[

 1

F(x) = = 1[α;+∞[ (x).
si x ∈/ [α; +∞[

 0

ˆ On en déduit que la fonction de répartition de la masse de Dirac concentrée en α est F =


1[α;+∞[ .

Cette fonction de répartition est discontinue.

2.2 Variables aléatoires  Cas Ω dénombrable


Deux objectifs principaux de cette section s'articulent pour :
ˆ Dénir des variables aléatoires sur un espace Ω dénombrables, cet espace étant muni d'une
tribu A d'événements et d'une probabilité P :

P : (Ω, A) → [0; 1]

⇝ Dénir une mesure de probabilité PX (image de P par X) à partir de P telle que PX :


(R, B(R)) → [0; 1].
⇝ Utiliser les caractéristiques d'une mesure de probabilité pour en déduire celles d'une
variable aléatoire.
ˆ Dénir l'espérance et la variance puis présenter des propriétés.

Nous supposons que l'espace d'états Ω est dénombrable, et nous choisissons pour tribu la classe
A = P(Ω) de toutes les parties de Ω.

Dénition 2 (Une variable aléatoire).

Une variable aléatoire X est dénie comme une application de Ω dans un ensemble E (a
priori arbitraire), X : Ω → E .
Chapitre 2. Variables aléatoires  Cas discret et cas continu 6

Une variable aléatoire représente une quantité qui dépend de l'issue de l'expérience.
ˆ L'espace d'arrivée E n'est pas nécessairement dénombrable.

Par exemple, si l'expérience consiste à choisir une personne dans une salle et si X(ω)
représente la taille de la personne ω alors E = R.
ˆ L'image E de Ω par X, E = X(Ω) = {i ∈ E, ∃ω ∈ Ω tel que X(ω) = i}, est, quant à
′ ′

elle, nécessairement dénombrable.


On dénit alors une variable aléatoire dans le cas discret comme étant une application qui à
une expérience associe un résultat,

X : Ω → E
ω 7 → X(ω).

On munit E de la tribu de toutes les parties P(E ). On note F = P(E ).


′ ′ ′

Soit A ∈ F . On voudrait dénir

P ({w ∈ Ω, X(w) ∈ A}) .


| {z }
=X−1 (A)

Pour cela, il faut évidemment que l'ensemble X−1 (A) soit dans la tribu A, ce qui a priori
n'est pas vrai pour une partie arbitraire A de E . Cela motive la dénition suivante :

Dénition 3 (Variable aléatoire).


 
Soit (Ω, A) un espace mesurable. X : (Ω, A) → E , F est une variable aléatoire si et

seulement si X est une fonction mesurable.

2.2.1 La loi d'une variable aléatoire

On peut dénir la loi de X, notée par PX , appelée aussi la distribution de X, par

PX (A) = P X−1 (A) , ∀A ∈ F.




PX dénit une mesure de probabilité sur E muni de la tribu de toutes ses parties F , en eet

 

ˆ PX (E ) = P X−1 (E ) = P (Ω) = 1, car P est une mesure de probabilité sur Ω.


′ ′

| {z }
=Ω

ˆ Soit (An )n∈N ∈ F N une suite d'événements disjoints 2 à 2.


      
P X−1 (An ) , car P est
X
= P X−1
S S S −1 
PX An An =P X (An ) =
n∈N n∈N n∈N n∈N
σ -additive et X−1 (An ) sont disjoints 2 à 2. Il s'en suit que
!
[ X
PX An = PX (An ) .
n∈N n∈N
7 2.2. Variables aléatoires  Cas Ω dénombrable

Exemple.
::::::::::
On lance deux fois de suite un dé et on note X la variable aléatoire égale à la
somme des deux dés. Alors Ω = {(1, 1), (1, 2), . . . , (6, 6)}. On récapitule la somme des deux
dés dans le tableau ci-dessous :
PP Dé 2
PP
1 2 3 4 5 6
Dé 1
PP
PP
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
on a
X(Ω) = {2, . . . , 12}

Notations. On notera dans ce module :

{X = a} = {ω ∈ Ω, X (ω) = a} = X−1 ({a})

{X ≤ a} = {ω ∈ Ω, X (ω) ≤ a} = X−1 (] − ∞, a])

{X ≥ a} = {ω ∈ Ω, X (ω) ≥ a} = X−1 ([a, +∞[)

{X ∈ A} = {ω ∈ Ω, X (ω) ∈ A} = X−1 (A)

Comme E est dénombrable, PX est complètement déterminée par les nombres


X
pX
j = P (X = j) = pω .
{ω∈Ω; X(ω)=j}

La famille pX est aussi appelée la loi de la variable X. On a bien sûr



j j∈E ′
 
pour tout A ∈ P E .
X ′
PX (A) = pX
j
j∈A

Si PX est une loi munie d'un nom, par exemple une loi de Poisson, on dit aussi que X est une
variable aléatoire de Poisson.

Exemple.
::::::::::
On reprend l'exemple précédent pour dénir la loi de probabilité de la variable somme. On a

X(Ω) = {2, . . . , 12}

Soit k ∈ {2, . . . , 12} :

k 2 3 4 5 6 7 8 9 10 11 12

1 2 3 4 5 6 5 4 3 2 1
P (X = k)
36 36 36 36 36 36 36 36 36 36 36
L'ensemble des valeurs P(X = k), k ∈ X (Ω) est la loi de probabilité de la variable somme.
Chapitre 2. Variables aléatoires  Cas discret et cas continu 8

2.2.2 Variables aléatoires indépendantes

Deux v.a. X et Y sont indépendantes si et seulement si les événements

{X ∈ A} et {Y ∈ B}
| {z } | {z }
X−1 (A) Y −1 (B)

sont indépendantes pour tous A et B dans les tribus correspondantes.


⇝ Tribu correspondante à une variable aléatoire X. Si X : (Ω, A) → (E, E) alors la tribu
correspondante à X est la tribu engendrée par X :

X−1 (E) = X−1 (C), C ∈ E




Dénition 4 (Indépendance d'une suite de variables aléatoires).

On considère les variables aléatoires Xi : (Ω, A) → (Ei , Ei ) pour i ∈ I . Les variables


aléatoires Xi sont indépendantes si et seulement si les tribus engendrées X−1 (Ei ) sont
indépendantes.

Propriétés 2.2.1. On considère deux variables aléatoires


X : (Ω, A) → (E, E) et Y : (Ω, A) → (F, F)

Les propriétés suivantes sont équivalentes :


1. X et Y sont indépendantes.
2. P (X ∈ A, Y ∈ B) = P (X ∈ A) P (Y ∈ B), ∀A ∈ E , ∀B ∈ F .
3. P (X ∈ A, Y ∈ B) = P (X ∈ A) P (Y ∈ B), ∀A ∈ C , ∀B ∈ D où

E = σ (C) et F = σ (D) .

4. f (X) et g(Y) sont indépendantes pour tout couple (f, g) de fonctions mesurables réelles sur
E et F respectivement.

2.2.3 Espérance mathématique d'une variable aléatoire

Soit X une variable aléatoire à valeurs dans E = R, dénie sur un espace dénombrable. On
appelle espérance, ou espérance mathématique, de X le nombre
X
E [X] = X(ω)pω
ω∈Ω

lorsqu'il est bien déni ; c'est le cas si


ˆ Ω est ni ;
ˆ ou lorsque Ω est inni dénombrable, si la série ci-dessus est absolument convergente, ou si
X (ω) ≥ 0 pour tout ω ∈ Ω.
dans ce dernier cas on peut avoir E [X] = +∞.

L'espérance représente la valeur moyenne de la variable X. C'est la moyenne des


valeurs prises par X pondérées par leurs probabilités.
9 2.2. Variables aléatoires  Cas Ω dénombrable

On note L1 l'espace de toutes les variables aléatoires réelles qui ont une espérance nie.
Propriétés 2.2.2.
1. L1 est un espace vectoriel et l'espérance est une forme linéaire sur L1 .
2. La fonctionnelle espérance E est positive :

X ∈ , X ≥ 0 p.s. implique E[X] ≥ 0.

3. Si X et Y sont deux v.a. avec 0 ≤ X ≤ Y et Y ∈ L1 , alors

X ∈ L1 et E[X] ≤ E[Y].

4. Si X est une v.a bornée alors X ∈ .


5. Si X est une v.a constante égale à a alors E[X] = a.
6. Si X ∈ , son espérance dépend seulement de sa loi, et si E est l'image de Ω par X, on a

P
E[X] = jP (X = j) .
j∈E ′

7. Si X = 1A est l'indicatrice d'un événement A alors E[X] = P (A) .

Théorème 3.
Soit h : R → [0; +∞] une fonction mesurable et positive et X une variable aléatoire
réelle. On a pour tout a > 0,
  E[h (X)]
P {ω ∈ Ω, h (X(ω)) ≥ a} ≤ .
a

Démonstration . On pose Y = h(X).


ˆ h : R → [0; +∞] et X : Ω → R donc h ◦ X : Ω → [0; +∞]. h ◦ X est donc une variable
aléatoire.
ˆ Soit A = Y−1 ([a; +∞[) = {ω ∈ ω, h (X(ω)) ≥ a} = {h(X) ≥ a}.

ˆ On a alors h(X) ≥ a1A . Par croissance de l'espérance

E[h(X)] ≥ E[a1A ].

De plus E[a1A ] = aE[1A ] = aP (A), donc l'inégalité précédente s'écrit E[h(X)] ≥ aP (A) .
ˆ a étant strictement positif, on obtient l'inégalité recherchée.

Théorème 4 (Inégalité de Markov).


Soit X une variable aléatoire réelle. On a pour tout a > 0,
  E[|X|]
P |X| ≥ a ≤ .
a

Démonstration . On utilise le théorème 1, en considérant h comme étant la fonction valeur


absolue.
Chapitre 2. Variables aléatoires  Cas discret et cas continu 10

2.2.4 Variance d'une variable aléatoire

Soit X une variable aléatoire réelle telle que X2 ∈ . On appelle variance de X le nombre
h i
2 2
σX = E (X − E[X]) .

L'écart-type est le nombre σX la racine carrée "positive" de la variance.

L'écart-type mesure l'écart moyen quadratique entre les valeurs prises par X et sa
moyenne qu'on notera µX .

Théorème 5 (Inégalités de Bienaymé-Tchebyshev).

Si X2 ∈ L1 , on a
E[X2 ]
ˆ P (|X| ≥ a) ≤ , ∀a ∈ R∗+ .
a2
2
σX
ˆ P (|X − µX | ≥ a) ≤ , ∀a ∈ R∗+ .
a2

Démonstration .
1. On applique le théorème 3. en considérant h : x 7→ x2 .
2. On applique la propriété précedente à la varible aléatoire Y = |X − µX |.

2.3 Variables aléatoires dans le cas Ω = R


Cette partie s'articule autour de deux objectifs suivants :
ˆ Dénir des variables aléatoires sur un espace Ω quelconque, cet espace étant muni d'une tribu
A d'événements et d'une probabilité P :

P : (Ω, A) → [0; 1]

⇝ Dénir une mesure de probabilité PX (image de P par X) à partir de P telle que PX :


(R, B(R)) → [0; 1].
⇝ Utiliser les caractéristiques d'une mesure de probabilité pour en déduire celles d'une varaible
aléatoire : la fonction de répartition de X, la fonction de densité de X.
ˆ Intégrer une variable aléatoire X par rapport à une mesure de probabilité PX .
11 2.3. Variables aléatoires dans le cas Ω = R

2.3.1 Variable aléatoire réelle

Soit X une application réelle


X:Ω→R
Ω est un espace quelconque (pas forcément dénombrable) et muni d'une tribu A d'événements et
d'une probabilité P, P : (Ω, A) ⇒ [0; 1].
Dénition 5 (Variable aléatoire).

Soit (Ω, A) un espace mesurable. X : (Ω, A) → (R, B (R)) est une variable aléatoire si et
seulement si X est une fonction mesurable.

Quelques propriétés de mesure et intégration utiles...


::::::::::::::::::::::::::::::::::::::::::::::::::::::

2 Si F est une tribu engendrée par la classe de parties C , F = σ(C) alors unr application
f est (A, σ(C))-mesurable si et seulement si

f −1 (B) ∈ A, ∀B ∈ C.

Pas besoin de montrer que ∀B ∈ σ(C), f −1 (B) ∈ A, on se restreint à B ∈ C .


2 Dans la suite, on travaille sur R muni de la tribu borélienne B (R). Or

B (R) = σ ] − ∞, a], a ∈ R

= σ ] − ∞, a], a ∈ Q

⇝ X est donc une variable aléatoire réelle si et seulement si

X−1 ] − ∞, a] ∈ A, ∀a ∈ R.


⇝ X est une variable aléatoire réelle si et seulement si

X−1 ] − ∞, a] ∈ A, ∀a ∈ Q.


2.3.2 L'image d'une probabilité par une variable aléatoire

Dénition 6.
On dénit l'image de P par une variable aléatoire X par

PX (A) = P(X ∈ A), ∀A ∈ B(R).

PX (A) est une mesure de probabilité sur (R, B (R)).

On en déduit les caractéristiques de PX pour dénir les caractéristiques de la variable aléatoire X.


Chapitre 2. Variables aléatoires  Cas discret et cas continu 12

Fonction de répartition :
:::::::::::::::::::::::::
PX est une probabilité sur R, sa fonction de répartition, notée
FX est dénie pour x ∈ R par

FX (x) = PX ] − ∞, x] = P X−1 ] − ∞, x] .
 

La fonction FX s'appelle la fonction de répartition de la v.a. X.


Fonction de densité : Lorsque FX admet une densité fX i.e. pour tout x ∈ R,
:::::::::::::::::::::

Z x
FX (x) = fX (u)du
−∞

on dit aussi que la fonction fX est la densité de la v.a. X.


Dénition 7 (Variables aléatoires absolument continues).
On dit qu'une variable aléatoire réelle X est absolument continue s'il existe une fonction
f , mesurable et positive, telle que, pour tout ensemble mesurable A, on ait :
Z
PX (A) = P (X ∈ A) = f (u)du.
A

On dit alors que f est la densité de probabilité de X, ou encore que X est une variable
aléatoire absolument continue ou encore une variable aléatoire à densité.

On peut en déduire dans ce cas, pour α ∈ R que


Z
PX ({α}) = P (X ∈ {α}) = f (u)du = 0
{α}

donc P (X = α) = 0.

2.3.3 La fonction de densité

Dans les exemples suivants nous dénissons la probabilité (ou "loi") P sur R par sa densité f ;
c'est-à-dire que nous dénissons la fonction positive f d'intégrale 1, et la fonction de répartition F
de P est dénie par Z x
F(x) = f (u)du.
−∞

On commet un léger abus de langage (habituel) en identiant f avec la loi P correspondante,


puisqu'elle détermine en fait de manière unique cette loi.

Exemples de fonctions de densité.


:::::::::::::::::::::::::::::::::::

1. La loi uniforme : pour tout x ∈ R,


:::::::::::::::

1
f (x) = 1[a;b] (x).
b−a

2. La loi exponentielle de paramètre β > 0 : pour tout x ∈ R,


::::::::::::::::::::::::::::::::::::

f (x) = βe−βx 1R+ (x).

3. La loi Gamma de paramètres α > 0 et β > 0 : pour tout x ∈ R,


::::::::::::::::::::::::::::::::::::::::

β α α−1 −βx
f (x) = x e 1R+ (x).
Γ(α)
13 2.3. Variables aléatoires dans le cas Ω = R

Z +∞
La fonction gamma dénie pour α > 0 par Γ(α) = xα−1 e−x dx.
0

4. La loi de Weibull de paramètres α > 0 et β > 0 : pour tout x ∈ R,


:::::::::::::::::::::::::::::::::::::::::::

α
f (x) = αβxα−1 e(−βx) 1R+ (x).

5. La loi Normale de paramètres µ et σ 2 > 0 : pour tout x ∈ R,


::::::::::::::::::::::::::::::::::::::

1 1 x−µ 2
f (x) = √ e− 2 ( σ ) .
2πσ

2.3.4 Intégration par rapport à une mesure de probabilité

Soit (Ω, A, P) un espace de probabilité.


♣ Objectif : Dénir l'espérance d'une variable aléatoire réelle sur cet espace de probabilité, en
utilisant la notion d'intégrale d'une fonction mesurable (variable aléatoire).
♣ Démarche : Utiliser et appliquer les dénitions d'intégration de fonctions mesurables vues en
cours de mesure et intégration.
♣ Mise en oeuvre : Appliquer les propriétés et les résultats des cours en mesure et intégration.

Soit X : (Ω, A) → (R, B(R)) une variable aléatoire.


Dénition 8.

1. Cas où X est une v.a.r positive : L'intégrale d'une fonction mesurable et positive
:::::::::::::::::::::::::::::
existe toujours et est à valeurs dans [0, +∞]. On appelle espérance de X la quantité
Z
E(X) = X(ω)dPX (ω).

2. Cas où X est une v.a.r de signe quelconque : Une fonction mesurable réelle
:::::::::::::::::::::::::::::::::::::
X est PX -
intégrable si et seulement si X+ et X− sont P-intégrables.
On dit que X a une espérance nie si et seulement si E X+ < +∞ et E X− < +∞ et
 

dans ce cas l'espérance de X est donnée par


E(X) = E X+ − E X− .
 

Z
On écrit E(X) = X(ω)dPX (ω).

On note L1 l'espace des v.a.r d'espérance nie.


Chapitre 2. Variables aléatoires  Cas discret et cas continu 14

Propriétés 2.3.1.
1. L1 est un espace vectoriel et l'espérance est une forme linéaire sur L1 .

2. X ≥ 0 p.s. implique E(X) ≥ 0

3. Si X et Y sont deux v.a. avec 0 ≤ X ≤ Y et Y ∈ L1 , alors

X ∈ L1 et E(X) ≤ E(Y).

4. Si X = Y p.s. et X ∈ L1 alors E(X) = E(Y).

Théorème 6 (Théorème de convergence monotone).

Si les v.a. Xn , n ∈ N, sont positives et si la suite (Xn )n croît p.s. vers X, alors

lim E(Xn ) = E(X).


n→+∞

Lemme 1 (Lemme de Fatou).


Si les v.a. Xn , n ∈ N et Y sont telles que Xn ≤ Y p.s. et Y P- intégrable alors les v.a.
Xn , n ∈ N et lim inf Xn admettent une espérance, et on a
n

E(lim inf Xn ) ≤ lim inf E(Xn ).


n n

Cela est vraie en particulier si Xn ≥ 0 p.s. pour tout n.

Théorème 7 (Théorème de la convergence dominée).

Si la suite de v.a.r (Xn )n converge p.s. vers X et si |Xn | ≤ Y p.s avec Y une v.a.r
P-intégrable, alors
Xn ∈ L1 et lim E(Xn ) = E(X).
n→+∞

On note Lp l'ensemble des v.a.r telles que E(|X|p ) < +∞. Si X ∈ L2 alors X ∈ L1 . On dénit
la variance de X par
Var(X) = E(X2 ) − E(X)2 .

Propriétés 2.3.2.
E(|X|)
ˆ P (|X| ≥ a) ≤ , ∀a ∈ R∗+ . (Inégalité de Markov)
a

E(X2 )
ˆ P (|X| ≥ a) ≤ , ∀a ∈ R∗+ . (Inégalité de Bienaymé-Chebyshev)
a2
Var(X)
ˆ P (|X − E(X)| ≥ a) ≤ , ∀a ∈ R∗+ .
a2

Soit X : (Ω, A, P) → (E, E, PX ) une variable aléatoire.

Soit h : (E, E, PX ) → (R, B(R), P) une application mesurable.


15 2.3. Variables aléatoires dans le cas Ω = R

Théorème 8.

1. h(X) ∈ L1 (Ω, A, P) si et seulement si h ∈ L1 (R, B(R), PX ).


2. Si h est positive et h ∈ L1 (R, B(R), PX ) alors on a
Z
E(h(X)) = h(x)dPX (x).
R

3. Si X est une v.a. réelle admettant une densité fX . Si E |h(X)| < ∞ alors


Z
E(h(X)) = h(x)fX (x)dx.
R

Vous aimerez peut-être aussi