Vous êtes sur la page 1sur 4

RICM 1 module probabilité FICHE 8

Séance 8 : Variables aléatoires réelles

Nous avons vu au chapitre sur les lois discrètes la définition générale d’une variable aléatoire X.
Dans ce chapitre nous avons abordé le cas - facile - quand lorsque l’espace X des valeurs de X était fini
ou dénombrable. Dans le présent chapitre nous allons nous contenter de résoudre, sans démonstrations
complètes, le cas plus général (et beaucoup plus difficile) de X = R.

Fonction de répartition et densité


Définition 1 La fonction de répartition (f.d.r.) de la variable aléatoire X sur R est la fonction suivante :

FX (x) = P(X ∈] − ∞, x]) = P(X 6 x).

Propriétés :
1. la fonction FX (x) est croissante, continue à droite,
lim FX (x) = 0; lim FX (x) = 1.
x→−∞ x→+∞

2. Comme FX est croissante, elle admet une limite à gauche en chaque point, limite qu’on notera
FX (x− ). Nous avons :
P (X ∈]x; y]) = FX (y) − FX (x); P (X ∈]x; y[) = FX (y − ) − FX (x);
P (X ∈ [x; y]) = FX (y) − FX (x− ); P (X ∈ [x; y[) = FX (y − ) − F (x).
En particulier, P (X = x) = FX (x) − FX (x− ) est le “saut” de la fonction FX au point x. On a
donc P (X = x) = 0 pour tout x si et seulement si la fonction F X est continue en tout point.

1.2

0.8

0.6

0.4

0.2

0
−2 −1 0 1 2 3 4 5 6

F IG . 1 – Fonction de répartition d’une variable aléatoire à valeur dans [−1, 1] ∪ [2, +∞[ et P(X = 4) =
0.25.

Dans la suite on suppose qu’il existe une fonction f X (x) bornée sur R telle que
Z x
FX (x) = f (t)dt.
−∞

On appelle une telle fonction la densite de X et on dit que F X (x) admet une densité, bien évidemment,
fX vérifie fX (x) = FX0 (x) et
Z y Z +∞
P(X ∈ [x, y]) = P(X ∈]x, y]) = fX (t)dt, f (t)dt = 1.
x −∞

UJF Polytech 2004 1/ 4


RICM 1 module probabilité FICHE 8

Remarque : il existe bien-sûr des probabilités sur R qui n’ont pas de densité : c’est le cas des pro-
babilités discrètes. Voici une interprétation “intuitive” de la densité f X de FX . Si dx est un “petit”
accroissement de la variable x, on a (si du moins f est continue en x) :
P(X ∈ [x, x + dx[)
fX (x) ∼ .
dx
En théorie des probabilités on montre que si X 1 , X2 , ..., Xm sont des variables aléatoires et
g(x1 , ..., xm ) une fonction continue, alors Y = g(X 1 , ..., Xm ) est, elle aussi, une variable aléatoire.
Comme application de cet énoncé, on vérifie que si (X i ), i = 1, ..., m, X et Y sont des variables
aléatoires réelles, alors
X
X + Y, si Y 6= 0 sont des v.a.
Y
max Xi , min Xi sont des v.a.
16i6m 16i6m

Lois usuelles
Loi uniforme U[a,b]
La loi uniforme sur [a, b] : on a ici deux réels a < b, et c’est la f.d.r. admettant la densité
 1
b−a si a 6 x 6 b,
f (x) =
0 sinon .

En vertu de la première remarque ci-dessus, on aurait aussi bien pu choisir f (a) = 0 ou f (b) = 0. Au
vu de l’interprétation, le fait que f soit constante sur [a, b] correspond au fait que si on choisit une point
selon cette loi, on a “autant de chances” de tomber au voisinage de chaque point de l’intervalle [a, b], ce
qui explique le nom “uniforme”. Remarquer aussi que P (X = x) = 0 pour tout x (comme pour toutes
les lois avec densité) : on a donc une probabilité nulle de tomber exactement en un point x fixé à l’avance.

Loi exponentielle E(λ)


La loi exponentielle de paramètre λ > 0 est la loi de densité

0 si x < 0,
f (x) =
λe−λx sinon .
et de fonction de répartition

0 si x < 0,
F (x) =
(1 − e −λx ) sinon .
Notons que la loi exponentielle jouit aussi d’une propriété importante pour les applications (propriété de
“non-vieillissement”) : soit X une variable aléatoire positive, telle que P (X > s) > 0 pour tout s ∈ R.
On a

P(X > t + s|X > t) = P(X > s)

pour tous s et t > 0 si et seulement si X suit une loi exponentielle.

UJF Polytech 2004 2/ 4


RICM 1 module probabilité FICHE 8

Loi normale N (0, 1)


La loi normale centrée réduite (ou loi de Gauss) : c’est la loi de densité
1 2
f (x) = √ e−x /2 .

R +∞
Pour vérifier que cette fonction est d’intégrale 1, on remarque que I = −∞ f (t)dt vérifie
Z 2π Z +∞
1
Z Z
2 2
I = f (x)f (y)dxdy = dθ e−ρ /2 ρdρ.
R2 0 2π 0
En passant en coordonnées polaires dans l’intégrale double), et un calcul simple montre alors que I 2 = 1.

Espérance de variables aléatoires de loi continue


R +∞
Définition 2 (Espérance) Si l’intégrale −∞ |x|fX (x)dx est finie, on appelle la valeur
Z +∞
EX = xfX (x)dx,
−∞
l’espérance mathématique de la v.a. X.

RRemarque : on démontre dans la théorie de probabilités que si g(x) est une fonction telle que
|g(x)|fX (x)dx est finie, alors l’espérance de la v.a. Y = g(X) est
Z
EY = g(x)fX (x)dx

Soit X et Y variables aléatoires d’espérance bien définie, et a, b des réels alors


E(aX + b) = aE(X) + b et E(X + Y ) = E(X) + E(Y )
(“linéarité” de l’esperance). Ceci implique que si E(X) = µ et Y = X − µ, alors
EY = E(X − µ) = EX − µ = 0.
On dit que la variable aléatoire Y est centrée.
Si la v.a. X est “carré-integrable”, i.e. x2 fX (dx) < ∞, alors
R
Z
E(X ) = x2 fX (x)dx.
2

Définition 3 (Variance) Si la v.a. X est carré-integrable, sa variance est l’espérance de la variable


aléatoire [X − E(X)]2 , et on la note V ar(X) ou σX 2 . Elle est positive, et sa racine carrée positive

s’appelle l’écart-type de X, qu’on note σX .


Notons que, comme dans le cas des v.a. discrètes,
E((X − E(X))2 ) = E(X 2 − 2XE(X) + E2 (X)) = E(X 2 ) − 2E(X)E(X) + E2 (X) = E(X 2 ) − E2 (X),
et V ar(X) = E(X 2 ) − E2 (X).
Notons que si Y = aX + b,
V ar(Y ) = E((Y − E(Y ))2 ) = E((aX + b − [aE(X)+b ])2 ) = E(a2 (X − E(X))2 ) = a2 V ar(X).
X−µ
Donc, si E(X) = µ et V ar(X) = σ 2 et Y = σ ,
EY = 0 et V ar(Y ) = σ −2 V ar(X − E(X)) = σ −2 V ar(X) = 1.
On dit que Y est centrée-réduite.

UJF Polytech 2004 3/ 4


RICM 1 module probabilité FICHE 8

1. Soit X est une v.a. de loi uniforme sur [a, b] Alors


b−a (b − a)2
E(X) = et V ar(X) = .
2 12
2. Si X suit la loi exponentielle de paramètre λ, alors
1 1
EX = et V ar(X) = 2 .
λ λ
3. Pour une v.a. normale centrée-réduite Y l’espérance EY = 0 et V ar(Y ) = 1. Notons que si
X = σY + µ, EX = µ et V ar(X) = σ 2 . La densité de la loi de X est
1 (x−µ)2
fX (x) = √ e− 2σ2 .
2πσ
Cette loi est notée N (µ, σ 2 ) (loi normale avec la moyenne µ et la variance σ 2 ).

Variables aléatoires indépendantes


Soit Z = (X1 , ..., Xn ) un vecteur aléatoire dans Rn . Comme dans le cas d’une v.a. on définit la
fonction de repartition jointe de Z en tout point z = (z 1 , ..., zn ) de Rn :

FZ (z) = P (X1 ≤ z1 , X2 ≤ z2 , ..., Xn ≤ zn ).

Dans la suite on suppose que la fonction de repartition jointe possède la densit é jointe :
∂n
fZ (z) = Fz (z).
∂z1 ... ∂zn
Comme dans le cas des v.a discrètes nous avons

Définition 4 (Indépendance) Soit Z = (Xi ) i = 1, ..., n un vecteur aléatoire, composé de variables


aléatoires réelles (scalaires), i.e. chaque Xi est à valeurs dans R. Les v.a. X1 , ..., Xn sont indépendantes
si pour tous z = (z1 , ..., zn )

P(X1 6 z1 , ..., Xn 6 zn ) = P(X1 6 z1 )...P(Xn 6 zn )

ou bien

fZ (z) = fX1 (z1 )...fXn (zn )

Si, de plus, les densités fX1 , ..., fXn sont les mêmes, on dit que les v.a. X1 , ..., Xn sont indépendantes et
identiquement distribuées (i.i.d.).

Cette definition s’étend sans peine à une suite infinie de v.a..

Proprietes :
– Soit X et Y à valeurs dans R. Soit aussi g(x) et h(x) deux fonctions continues, telles que g(X) et
h(Y ) soient aussi des variables aléatoires. Si X et Y sont indépendantes, les variables aléatoires
g(X) et h(Y ) sont aussi indépendantes. Si de plus Eg(X) et Eh(Y ) existent, on a
Eg(X)h(Y ) = Eg(X)Eh(Y ).
– soit (Xi ), i = 1, 2, ..., n une suite de v.a. indépendantes. Alors (comme dans le cas général)
E((X1 + ... + Xn ) = EX1 + ... + EXn et V ar(X1 + ... + Xn ) = V ar(X1 ) + ... + V ar(Xn ).

UJF Polytech 2004 4/ 4