Vous êtes sur la page 1sur 15

Chapitre 1

Chapitre 1 : Espaces de probabilités

1
Chapitre 2

Chapitre 2 : Variables aléatoires discrétes

2
Chapitre 3

Variables aléatoires continues

Dans le chapitre précédent, nous avons traité des variables aléatoires discrétes, c’est-é-dire de
variables dont l’ensemble des états est fini ou infini dénombrable. Cependant, il existe des variables
dont l’ensemble des issues possibles est infini non dénombrable. On qualifiera par X une telle va-
riable que l’on nomme variable aléatoire continue.

3.1 Variables aléatoires continues


Définition 3.1.1. h
On dit qu’une v.a.r X définie sur l’espace de probabilité (Ω, A, P ), est continue si X(Ω) contient au
moins un intervalle de R.

Remarque 3.1.1. h

• On ne rencontrera dans la suite que des v.a.r. X absolument continues pour lesquelles, ∀x ∈ R,
P (X = x) = 0. Les événements de probabilité non nulles seront donc les intervalles de R.
• Puisque l’ensemble des observations
P X(Ω) n’est pas dénombrable dans le cas continu. Il nous faut
donc
R abandonner le signe somme utilisé pour le cas discret et le remplacer par le signe intégrale
.

3.2 Densité de probabilité


Définition 3.2.1. h
Soit X une v.a.r continue. On appelle densité de probabilité de X, la fonction fX définie sur R, telle
que pour tout intervalle [a, b] de R :
Z b
P (a ≤ X ≤ b) = fX (x)dx
a

k
Tous les problémes de probabilité relatifs é X peuvent étre traités gréce é fX . À partir de la définition
précédente, on obtient directement le résultat suivant :

3
Variables aléatoires continues 4

Propriété 3.2.1. h
Soit X une v.a.r. continue de densité de probabilité fX . Alors, on a :
— ∀x ∈ R, fX (x) ≥ 0.
— ZfX est une fonction continue sur R sauf en un nombre fini de points.
+∞
— fX (x)dx = 1.
−∞
Exemple 3.2.1. h
Soit X une v.a.r. continue de densité fX définie sur R par :
 −x
e si x ≥ 0
fX (x) =
0 sinon
R +∞
fX est positive, continue sur R sauf en 0 et −∞ fX (x)dx = 1.

Exemple 3.2.2. h
Supposons que X est une v.a.r. continue dont densité de probabilité fX est :

C(4x − 2x2 ) si 0 < x < 2,
fX (x) =
0 sinon.
a-Quelle est la valeur de C ?
b-Calculer P (X > 1).
R +∞
Du fait que fX est une densité de probabilité, elle vérifie la relation −∞
fX (x)dx = 1 ce qui
donne : Z 2
C (4x − 2x2 )dx = 1
0
Donc
3
C=
8
Z ∞ Z 2
3 1
P (X > 1) = fX (x)dx = (4x − 2x2 )dx = .
1 8 1 2

3.3 Fonction de répartition


Définition 3.3.1. h
Soit X une v.a.r. continue. On appelle fonction de répartition de X, la fonction FX définie ∀x ∈ R
par :
FX (x) = P (X ≤ x)
Exemple 3.3.1. h
Soit X une v.a.r. continue de fonction de répartition FX définie sur R par

0 si x ≤ 0
FX (x) =
1 − e−λx sinon
FX est continue et croissante. On peut calculer par exemple
P (1 ≤ X ≤ 2) = FX (2) − FX (1) = e−λ − e−2λ

4
Variables aléatoires continues 5

Propriété 3.3.1. h
Soit X une v.a.r. continue de fonction de répartition FX . Alors, on a :
— FX est continue sur R.
— FX est é valeurs dans [0, 1].
— lima→−∞ FX (a) = 0 et lima→∞ FX (a) = 1.
— FX est croissante.
— FX (b) − FX (a) = P (a ≤ X ≤ b).

Remarque 3.3.1. h
Pour cette derniére propriété, on peut écrire a < X < b, a ≤ X < b ou a < X ≤ b sans changer le
résultat final.

j
La proposition suivante découle directement de la définition précédente en dérivant les deux membres
dans l’équation ci-dessus. Autrement dit, la densité d’une variable aléatoire continue est la dérivée
de la fonction de répartition

Propriété 3.3.2. h
Soit X une v.a.r. continue de densité fX et de fonction de répartition FX . Alors, ∀x ∈ R
Z x
FX (x) = fX (t)dt
−∞

FX′ (x) = fX (x).

3.4 Espérance et variance


3.4.1 Espérance
Définition 3.4.1. h
Soit X une v.a.r continue de densité de probabilité fX . On appelle espérance de X, notée E(X), le
nombre réel, s’il existe, défini par
Z +∞
E(X) = xfX (x)dx.
−∞

Remarque 3.4.1. h
Il peut arriver que l’intégrale ci-dessus soit divergente. Dans ce cas, on dit que X n’a pas d’espérance.

Exemple 3.4.1. h
Dans l’exemple 3.2.1. Par intégration par parties, on a :
Z +∞ Z +∞
E(X) = xfX (x)dx = xe−x dx = 1.
−∞ 0

5
Variables aléatoires continues 6

Théoréme 3.4.1. h
Soit X une v.a.r. continue de densité de probabilité fX . Soit h une fonction définie sur X(Ω) é valeurs
réelles. Alors, l’espérance de h(X), si elle existe, est donnée par :
Z +∞
E(h(X)) = h(x)fX (x)dx.
−∞

Remarque 3.4.2. h
On a en particulier Z +∞
2
E(X ) = x2 fX (x)dx.
−∞

Exemple 3.4.2. h
Dans l’exemple 3.2.1., pour le calcul de E(X 2 ), on trouve en intégrant par parties :
Z +∞ Z +∞
2
E(X ) = 2
x fX (x)dx = x2 e−x dx = 2.
−∞ 0

3.4.2 Moments
Définition 3.4.2. h
Soit X une v.a.r continue de densité fX . Pour m ∈ N, on appelle moment d’ordre m de X, l’espérance
de la v.a.r. X m , si elle existe, donnée par :
Z +∞
m
E(X ) = xm fX (x)dx.
−∞

Dans le cas particulier de v.a.r. centrée X − E(X), on parle alors du moment centré d’ordre m de
X Z +∞
m
E [(X − E(X)) ] = (x − E(X))m fX (x)dx.
−∞

3.4.3 Variance
Définition 3.4.3. h
Soit X une v.a.r continue de densité fX . On appelle variance, notée V ar(X), l’espérance, si elle
existe, de E(X − E(X))2
Z +∞
V ar(X) = (x − E(X))2 fX (x)dx.
−∞

Remarques 3.4.1. h

— Il peut arriver que l’intégrale ci-dessus soit divergent. Dans ce cas, on dit que X n’a pas de
variance.
— On rappelle que la variance est toujours positive car il s’agit de l’espérance d’une v.a.r.
positive.

6
Variables aléatoires continues 7

Définition 3.4.4. h
On appelle écart-type de X, noté σ(X), la racine carrée de sa variance
p
σ(X) = V ar(X).

Comme dans le cas discret, on retrouve le corollaire et le théoréme suivants :

Corollaire 3.4.2. h
Soit X une v.a.r continue, a et b sont deux nombres réels. Alors, on a

E(aX + b) = aE(X) + b et V ar(ax + b) = a2 V ar(X).

Théoréme 3.4.3. h
Soit X une v.a.r continue de densité fX , possédant une variance. Alors, on a

V ar(X) = E(X 2 ) − (E(X))2 .

3.4.4 Transformation de v.a.r continue


Soit X v.a.r absolument continue de fonction densité fX , et g est une fonction réelle continue et
strictement monotone, alors Y = g(X) est une v.a.r et sa fonction densité est donnée par :
1
fY (y) = fX (g −1 (y)) .
| g ′ (g −1 (y))

Preuve : Voir T.D

3.5 Couple de variables aléatoires continues


Soient (Ω, A, P ) un espace probabilisé et (X, Y ) un couple de variables aléatoires réelles (v.a.r.)
définies sur (Ω, A, P ). Nous avons déjé étudié le cas de deux v.a.r. discrétes, nous nous intéressons
maintenant au cas de deux v.a.r. continues.

3.5.1 Loi conjointe


Définition 3.5.1. h
Soit (X, Y ) un couple de v.a.r continues. On appelle densité de probabilité du (X, Y ), la fonction
fX,Y définie sur R2 , telle que pour tout intervalle [a, b] × [c, d] de R2 :
Z bZ d
P (a ≤ X ≤ b, c ≤ X ≤ d) = fX,Y (x, y)dxdy.
a c

k
À partir de la définition précédente, on obtient directement le résultat suivant :

Propriété 3.5.1. h
Soit (X, Y ) un couple de v.a.r. continues de densité de probabilité fX,Y . Alors, on a :

7
Variables aléatoires continues 8

— ∀(x, y) ∈ R2 , fX,Y (x, y) ≥ 0.


— les fonctions des deux variables considérées fX et fY sont des fonctions continues sur R2
sauf
Z en Z un nombre fini de droites ou d’arcs de courbes.
+∞ +∞
— fX,Y (x, y)dxdy = 1.
−∞ −∞
Exemple 3.5.1. h
La densité de probabilité conjointe de X et Y est donnée par :
 −x −2y
2e e si 0 < x < ∞, 0 < y < ∞
fX,Y (x, y) =
0 sinon
Calculer P (X > 1, Y < 1)
Z 1Z ∞
P (X > 1, Y < 1) = 2e−x e−2y dxdy
Z0 1 1

= 2e−2y ([−e−x ]∞
1 )dy
0
Z 1
−1
=e 2e−2y
0
= e−1 (1 − e−2 )

3.5.2 Fonction de répartition


La fonction de répartition du couple (X, Y ) est la fonction FX,Y définie par :
Définition 3.5.2. h
Soit (Ω, A, P ) un espace de probabilité. On appelle fonction de répartition du couple (X, Y ), toute
application :
FX,Y (a, b) : R2 → [0, 1]
(a, b) → P (X ≤ a, Y ≤ b)
telle que : Z b Z a
FX,Y (a, b) = P (X ≤ a, Y ≤ b) = fX,Y (a, b)dxdy
−∞ −∞
On a pour tout réel c, lim FX,Y (c, y) = FX (c) et lim FX,Y (x, c) = FY (c)
y→+∞ x→+∞

Propriété 3.5.2. h
Soit (X, Y ) un couple de v.a.r. continues de densité fX,Y et de fonction de répartition FX,Y . Alors
pour tous réels a et b :
Z b Z a
∂2
FX,Y (a, b) = fX,Y (a, b)dxdy , FX,Y (a, b) = fX,Y (a, b).
−∞ −∞ ∂a∂b
Théoréme 3.5.1. h
Soit (X, Y ) un couple aléatoire de densité fX,Y (x, y) et g : R2 → R, Alors, l’espérance de g(X, Y ),
si elle existe, est donnée par :
Z Z
E(g(X, Y )) = g(x, y)fX,Y (x, y)dxdy.
R R

8
Variables aléatoires continues 9

3.5.3 Lois marginales


Si X et Y sont des variables aléatoires conjointement continues, alors elles sont individuellement
continues, également. On obtient leurs densités marginales ainsi :
Définition 3.5.3. h
Soit (X, Y ) un couple de v.a.r. de densité de probabilité fX,Y . Alors X et Y sont des v.a.r. de densités
de probabilité respectives définies, ∀(x, y) ∈ R2 , par :
Z +∞
fX (x) = fX,Y (x, y)dy.
−∞
et Z +∞
fY (y) = fX,Y (x, y)dx.
−∞

Les densités fX et fY sont appelées densités marginales de X et Y .


Définition 3.5.4. h
Soit (X, Y ) un couple de v.a.r. de densité de probabilité fX,Y . On appelle espérance de X, notée
E(X), le nombre réel, s’il existe, défini par :
Z +∞ Z +∞ Z +∞
E(X) = xfX (x)dx = xfX,Y (x, y)dydx.
−∞ −∞ −∞

De méme, on appelle espérance de Y , notée E(Y ), le nombre réel, s’il existe, défini par :
Z +∞ Z +∞ Z +∞
E(Y ) = yfY (y)dy = yfX,Y (x, y)dxdy.
−∞ −∞ −∞

Définition 3.5.5. h
Soit (X, Y ) un couple aléatoire continu. La fonction de répartition de X peut étre déduite de la
fonction de répartition conjointe de X et Y , ∀(a, b) ∈ R2 , comme suit :
Z a Z +∞
FX (a) = fX,Y (x, y)dxdy
−∞ −∞

et Z b Z +∞
FY (b) = fX,Y (x, y)dxdy
−∞ −∞

FX et FY sont appelées les fonctions de répartition marginales de X et de Y .

3.5.4 Indépendance
Définition 3.5.6. h
Soit (X, Y ) un couple aléatoire continu. On dit que les v.a.r X et Y sont indépendantes si et seule-
ment si ∀(x, y) ∈ R2
fX,Y (x, y) = fX (x)fY (y).
On peut donner une autre définition de l’indépendance :

9
Variables aléatoires continues 10

Définition 3.5.7. h
X et Y sont indépendantes si pour tout couple (a, b) de R2

FX,Y (a, b) = FX (a)FY (b).

Théoréme 3.5.2. h
Soient (X, Y ) un couple aléatoire continue et f et g deux fonctions définies de R2 → R.
Si X et Y sont indépendantes, alors on a :

E[f (X)g(Y )] = E[f (X)]E[g(Y )].

Corollaire 3.5.3. h
Soit (X, Y ) un couple aléatoire continue. Si X et Y sont indépendantes, alors cov(X, Y ) = 0. La
réciproque est fausse.

3.5.5 Lois conditionnelles


L’usage de ces densités conditionnelles rend possible le calcul de probabilités d’événements re-
latifs é une variable, sous condition qu’une seconde ait pris une valeur connue.

Définition 3.5.8. h
Soient X et Y des variables de densité conjointe fX,Y . On définit la densité conditionnelle de X
sachant Y = y, et lorsque fY (y) > 0 par la relation :

fX,Y (x, y)
fX/Y (x/y) = .
fY (y)

De la méme maniére on définit la densité conditionnelle de Y sachant X = x, et lorsque fX (x) > 0


par la relation :
fX,Y (x, y)
fY /X (y/x) = .
fX (x)
Corollaire 3.5.4. h
Soit (X, Y ) un couple aléatoire continu. Si X et Y sont indépendantes, on a ∀(x, y) ∈ R2

fX/Y (x/y) = fX (x)
fY /X (y/x) = fY (y)

Exemple 3.5.2. h
La densité de probabilité conjointe de X et Y est donnée par :
( 12
x(2 − x − y) si 0 < x < 1, 0 < y < 1
fX,Y (x, y) = 5
0 sinon

10
Variables aléatoires continues 11

On cherche la densité conditionnelle de X, sachant que Y = y, oé 0 < y < 1.

fX,Y (x, y)
fX/Y (x/y) =
fY (y)
fX,Y (x, y)
= R +∞
f (x, y)dx
−∞ X,Y
(x(2 − x − y))
= R1
(x(2 − x − y))dx
0
x(2 − x − y)
=
2 y

3 2
6x(2 − x − y)
=
4 − 3y

3.6 Modéles probabilistes continue


3.6.1 Loi uniforme
Définition 3.6.1. h
Soit a, b ∈ R avec a < b. On dit que X suit une loi uniforme sur l’intervalle [a, b] si sa densité fX
est définie par :  1
 si a ≤ x ≤ b


fX (x) = b a


0 si sinon
On note en abrégé
X ∼ U([a, b])

Remarque 3.6.1. h
On a bien :
+∞ b
b−a
Z Z
1 1
fX (x)dx = dx = [x]ba = = 1.
−∞ b−a a b−a b−a
Propriété 3.6.1. h
Si X ∼ U([a, b]) alors sa fonction de répartition FX est donnée par :


 0 si x < a



 x−a
FX (x) = si a ≤ x ≤ b

 b−a




1 si x > b

De plus on a :
a+b (b − a)2
E(X) = et V ar(X) =
2 12

11
Variables aléatoires continues 12

Exemple 3.6.1. h
Soit X une variable uniforme sur [0, 10]. Calculer les probabilités suivantes :

a) P (X < 3), b) P (X > 6), c) P (3 < X < 8).

a) Z 3
1 3
P (X < 3) = dx =
0 10 10
b) Z 10
1 4
P (X > 6) = dx =
6 10 10
c) Z 8
1 1
P (3 < X < 8) = dx =
3 10 2

3.6.2 Loi exponentielle


Dans la pratique, on rencontre souvent la distribution exponentielle lorsqu’il s’agit de représenter
le temps d’attente avant l’arrivée d’un événement spécifié. Par exemple, le temps qui nous sépare du
prochain tremblement de terre, de la prochaine guerre ou du prochain appel téléphonique sont toutes
des variables aléatoires dont les distributions tendent toutes é des distributions exponentielles.

Définition 3.6.2. h
Soit λ ∈ R avec λ > 0. On dit que X suit la loi exponentielle de paramétre λ, si sa densité fX est
définie par :  −λx
λe si x ≥ 0
fX (x) =
0 sinon
On note en abregé
X ∼ Exp(λ).

Remarque 3.6.2. h
On a bien Z Z +∞ ∞
λe−λx dx = −e−λx 0 = 1.

fX (x)dx =
R 0

Propriété 3.6.2. h
Si X suit la loi exponentielle Exp(λ) alors la fonction de répartition FX est donnée par :

 1 − e−λx si x > 0
FX (x) =
0 si sinon

De plus on a :
1 1
E(X) = et V ar(X) =
λ λ2

12
Variables aléatoires continues 13

3.7 Loi normal


La distribution normale a été introduite en 1733 par le mathématicien franéais Abraham De
Moivre, qui a utilisé cette distribution pour approximer les probabilités du lancer d’une piéce et
qui l’a appelée la courbe exponentielle en forme de cloche.

Son utilité n’est cependant apparue claire qu’en 1809, lorsque le fameux mathématicien allemand
Gauss l’a utilisée comme partie intégrante de son approche pour prédire l’emplacement des entités
atomiques. Il devint alors commun d’appeler cette distribution la distribution Gaussienne.

La loi normal ou la loi de Laplace-Gauss est la plus célébre des lois de probabilités. On débute
par le résultat de base de ce paragraphe communément appelé l’intégrale de Gauss :
Z +∞
t2 √
e− 2 dt = 2π.
−∞

Définition 3.7.1. h
Soient m ∈ R et σ 2 > 0. On dit que X suit une loi normale de paramétre m et σ 2 si sa densité de
probabilité fX est définie sur R par :
1 (x−m)2
fX (x) = √ e− 2σ2 .
σ 2π
On note en abrégé :
X ∼ N (m, σ 2 ).
La loi N (0, 1) est appelée la loi normal centrée réduite. Sa densité de probabilité est :
1 x2
fX (x) = √ e− 2 .

Remarque 3.7.1. h
x−m
Par un changement de variable t = , on a :
σ
Z +∞ Z +∞ Z +∞
1 −
(x−m)2 1 t2
fX (x)dx = √ e 2σ dx = √
2
e− 2 dt = 1.
−∞ −∞ σ 2π 2π −∞
Propriété 3.7.1. h
Si X ∼ N (m, σ 2 ) alors les paramétres m et σ 2 sont respectivement l’espérance et la variance de X
c’est-é-dire :
E(X) = m et V ar(X) = σ 2 .
Théoréme 3.7.1. h
Si X ∼ N (m, σ 2 ) alors la variable aléatoire
X −m
Z= ∼ N (0, 1).
σ
Tout calcul de probabilité portant sur la loi N (m, σ 2 ) se raméne par réduction é la loi N (0, 1). Pour
tout a ∈ R, on note Φ la fonction de répartition de la loi normal N (0, 1), on a
Z a
1 t2
Φ(a) = √ e− 2
2π −∞

13
Variables aléatoires continues 14

Propriété 3.7.2. h
Soit Z ∼ N (0, 1) alors , on a
Φ(−a) = 1 − Φ(a)
Φ(a < Z < b) = Φ(b) − Φ(a)
et en particulier Φ(0) = 1/2. De plus

P (| Z |≤ a) = 2Φ(a) − 1

Lectures de Table
On ne peut pas trouver d’expression analytique de Φ, primitive de fX . On utilise alors la table de
la loi normal N (0, 1) pour obtenir une valeur de Φ(a). Par exemple, soit X une v.a.r. de loi N(6, 4)
et Z une v.a.r de loi N(0, 1). Alors, on a
     
X −6 7−6 1 1
P (X ≤ 7) = P ≤ =P Z≤ =Φ = 0.6915,
2 2 2 2
     
X −6 1−6 −5 5
P (X > 1) = P > =P Z> =Φ = 0.99385,
2 2 2 2
P (4 ≤ X ≤ 8) = P (−1 ≤ Z ≤ 1) = P (| Z |≤ 1) = 2Φ(1) = 0.6826.

3.8 Loi de Khi-deux


Définition 3.8.1. h
On dit qu’une v.a.r suit la loi du khi-deux é n degrés de liberté si sa densité de probabilité est
n
2− 2 x n
f (x) = n e− 2 x 2 −1 , x>0
Γ( 2 )

On note en abrégé X ∼ χ2n .

Notons que si X ∼ χ2n , alors X ∼ γ(n/2; 1/2).

Corollaire 3.8.1. h
Soit Z une v.a.r de loi N (0, 1). Alors la v.a.r X = Z 2 suit la loi Khi- deux é un degré de liberté i.e :
Z 2 ∼ χ21 = γ(1/2, 1/2), de densité de probabilité
1
f (x) = √ e−x/2 , x>0
2πx
Théoréme 3.8.2. h
Pour : n ≥ 1, soit Z1 , Z2 , . . . , Zn n v.a.r. indépendantes et de méme loi N (0, 1). Alors
n
X
Zi ∼ χ2n
i=1

14
Variables aléatoires continues 15

Corollaire 3.8.3. h
Si X suit une loi khi-deux χ2n , alors on a

E(X) = n et V ar(X) = 2n.

Corollaire 3.8.4. h
X ∼ χ2n , alors sa fonction caractéristique Φ est donnée par :
1
ΦX (t) = , pour tout t ∈ R.
(1 − 2it)n/2
Corollaire 3.8.5. h
Si X et Y deux v.a.r indépendantes de lois respectivement χ2n et χ2m et soit Z = X + Y . Alors

Z ∼ χ2n+m .

3.9 Loi de Student


Définition 3.9.1. h
Soit X et Y deux v.a.r indépendantes et de loi respectives N (0, 1) et χ2n . Alors si
√ X
T = n√ .
Y
T suit la loi de Student é n degrés de liberté, notée tn .
Propriété 3.9.1. h
T suit la loi de Student tn , on a pour n > 2
n−2
E(T ) = 0 et V ar(T ) = .
n

3.10 Loi de Fisher-Snedecor


Définition 3.10.1. h
Soit X et Y deux v.a.r indépendantes et de loi respectives χ2n et χ2m , alors si

X/n
S= .
Y /m

S suit la loi de Fisher-Snedecor é (n, m) degrés de liberté, notée F(n, m).


Propriété 3.10.1. h
S suit la loi Fisher-Snedecor F(n, m), on a pour m > 4
 2
m m − 2 2(m + n − 2)
E(S) = et V ar(S) = .
m−2 m n(m − 4)

15

Vous aimerez peut-être aussi