Vous êtes sur la page 1sur 11

Chapitre 3 : Variables aléatoires continues, les lois usuelles et

Approximations des lois

I) Variable aléatoire continue


1) Définitions.

Soit une v.a.r. X définie sur (Ω, A, P) et soit F la fonction de répartition de X.

La v.a.r. X est dite absolument continue s il existe une fonction positive f, appelée fonction
x
densité de probabilité telle que : ∀x ∈ R, F(x) = P(X ≤ x) = ∫ f ( t ) dt
−∞

 La fonction f est à valeurs positives sur R: f (x) ≥ 0, x ∈ R.


 L’intégrale de f sur R converge et est égale à 1.

Remarque :
b

La probabilité de tout intervalle] a,b[ est égale à p(a<X<b)= ∫ f ( x ) dx


a

2) Fonction de répartition d’une v.a.r.:

Soit (Ω, A, P) un espace probabilisé et X une v.a.r. On appelle fonction de répartition de la


v.a.r. X, l’application F: R—> [0,1] définie par: pour tout x ∈ R:
x

F(x) = P(X ≤ x) = ∫ f ( t ) dt
−∞

Remarque: La fonction de répartition permet de calculer les probabilités concernant les


intervalles.
On a P(a< X ≤ b)=F(b) - F(a)

En effet:

P(a < X ≤b) = P(a < X et X ≤b) = P((a < X) ∩ (X ≤b))

= P(a < X) +P(X ≤b)−P((a < X)U(X ≤b))

=1−P(X ≤ a) + P(X ≤b) − P(R) = P(X ≤b) − P(X ≤ a) = F(b ) − F(a)

Proposition: on a
b

1- P ( a< X ≤ b )=∫ f ( t ) dt =F(b)-F(a).


a
2- P(X=a)=0 avec a une constante réelle.
3- P(a≤X≤b)= P(a<X≤b)= P(a≤X<b)= P(a<X<b)

4- P( X > a)=∫ f ( t ) dt
a
5- La fonction de répartition est continue sur R.
6- Si la fonction de densité f d’une v.a. continue X est continue au point x alors f est
la dérivée de da fonction de répartition F, c’est-à-dire F’(x)=f(x).

Démonstration :

1- Comme ( a< X≤ b)=(X≤ b)- (X≤ a).

2- P(X=a)=lim P(a-1/n < X≤ b)=lim ∫ f ( t ) dt=0


a−1/ n
3- P(a≤X≤b)= P(a<X≤b)+P(X=a)= P(a<X≤b)= P(a<X<b)+ P(X=b)= P(a<X<b)=
P(a<X<b)+ P(X=a)= P(a≤X<b).

Représentation graphique de F(x):


3) Loi d’une variable aléatoire Y= g(X)
1- g est bijective
 si g est croissante,

on a Y=g(X) <=> X=g-1(Y) et P(Y≤y) = P(g(X)≤y) = P(X≤g-1(y)). d’où FY(y)=FX(g-1(y))

avec FX et FY sont respectivement les fonctions de répartition des v.a. X et Y .

En dérivant, on obtient:

fY(y)=f X(g -1(y))(g -1(y))’

Avec fX et fY sont respectivement les densités de probabilité des v.a. X et Y.

 si g est décroissante, on a :

On a Y=g(X) <=> X=g-1(Y) et P(Y≤y) et P (Y ≤ y) = P (g(X) ≤ y) = P(X > g−1 (y))

= 1 − P(X ≤ g −1 (y)) d’où FY (y) = 1 − FX(g −1 (y)) En dérivant, on obtient

fY (y) = − fX(g −1 (y))(g −1 (y))’

2- la formule générale pour g quelconque :

avec α = min {g(−∞), g(+∞)} et β = max{g(−∞), g(+∞)}.

Exemple : Soit X une v.a. continue de densité

{
1
, x ∈[−1,1]
f ( x )= 2
0, sinon

Soit Y=g(X)=-2X+1.

Déterminer la densité de probabilité de Y.

On a FY(y)= P(Y≤y) = P(-2X+1≤y)=P(X>(1-y)/2)=1-P(X≤(1-y)/2)=1-FX((1-y)/2)

fY(y)=(1/2)fX((1-y)/2)

{
1
Donc : f Y ( y )= 4 , y ∈[−1,3 ]
0, sinon

Exemple 2 :

On a Y = g(X) avec g(x) = X 2. Dans ce cas g’(x) = 2x qui est positive pour x > 0 et négative
pour x < 0, d’où g n’est pas strictement monotone. Mais, pour y > 0, on a :
FY (y) = P(Y ≤ y) = P(X2 ≤ y) = P(− √y ≤ X ≤ √y) = FX( √y) − FX(− √y) En dérivant, on
obtient :

4) Caractéristiques des variables aléatoires continues


 Espérance :

L’espérance mathématique d’une v. a. continue X, de fonction de densité f est donnée par:



E ( X )= ∫ xf ( x ) dx
−∞

 Variance et écart-type :

La variance d’une v. a. absolument continue X est définie par: V(X)=E(X-m)2 où m=E(X).

Var(X) = E(X2 ) − E(X) 2

 Ecart-type : σ(X) = √ V (X ) .

 Moment d’ordre k d’une v.a. continue X, noté mk est:

 Moment centré d’ordre k d’une v.a. X, noté µk est:

Remarque:

• La variance correspond au moment centré d’ordre 2: Var(X)=µ2


• Comme pour l’espérance mathématique, si la série ou l’intégrale
correspondante diverge, les moments peuvent parfois ne pas exister.

II) Lois usuelles continues :


1) Loi uniforme:

Une v.a. continue X suit une loi uniforme sur un intervalle [a, b] et on note X ∼ U [a, b] si sa
densité de probabilité est :
La fonction de répartition F(x) de X est:

Son espérance mathématique est : E(X) = (a+b)/2

Sa variance est : V(X) = (a-b)2/12.

2) Loi exponentielle:

Une v.a. X continue suit la loi exponentielle, de paramètre λ>0, notée X ~ εxp(λ), si sa densité
de probabilité est:

Sa fonction de répartition est :

Alors son espérance mathématique est: E(X) =1/λ

• Sa variance: V(X)= 1/ λ2

3) Loi Gamma:

Une v.a. continue X suit une loi gamma de paramètres α, β > 0 et on note X ∼ Γ(α, β) si sa
densité de probabilité est :

Son espérance mathématique est : E(X) = α /β

Sa variance est : Var(X) = α/ β 2

Si α = 1, on retrouve la loi exponentielle de paramètre β > 0.


4) Loi de Weibull :

Une v.a. continue X suit une loi de Weibull de paramètres α > 0 et β > 0, si sa densité de
probabilité est :

Sa fonction de répartition est :

L’espérance mathématique :

La variance :

5) Loi bêta :

Une v.a. continue X suit une loi bêta de paramètres α, β > 0 et on note X ∼ B(α, β) si sa
densité de probabilité est :

L’espérance mathématique :

La variance
6) Loi de Pareto :

Une v.a. X suit une loi de Pareto de paramètre α si sa densité de probabilité est définie par :

Sa fonction de répartition est :

Son espérance mathématique est :

Sa variance est :

7) Loi de Laplace :

Une v.a. X suit une loi de Laplace de paramètres α et λ > 0 si sa densité est :

La fonction de répartition est :

L’espérance mathématique :

La variance :

8) Loi de Cauchy :

Une v.a. X suit une loi de Cauchy de paramètres α et λ > 0 si sa densité est :
La fonction de répartition est :

La loi de Cauchy n’admet ni espérance ni variance.

9) Loi normale :

Une v.a. X suit une loi normale de paramètres m et σ > 0 et on note X ∼ N (m, σ) si sa densité
est :

La fonction de répartition est :

L’espérance mathématique : E(X)=m

La variance :

Proposition :

Si N (m, σ), alors la v.a Y=(X-m)/ σ suit loi normale centrée réduite N (0, 1).

Loi normale centrée réduite :

Une v.a. X suit une loi normale centrée réduite s’il suit une loi normale de paramètre m = 0 et
σ = 1 et on note X ∼ N (0, 1). Sa fonction de densité est :

La fonction de répartition est :

L’espérance mathématique : E(X)= 0.


La variance : V(X)=1.

On peut ramener tout calcul sur la fonction de répartitions d’une variable aléatoire normale
N((m, σ) à un calcul sur la fonction de répartition , notée ϕ (x) , dune v.a N(0,1).

En effet ; P(X≤a)=P((X-m)/σ ≤ (a-m)/ σ)= ϕ (( a−m)/σ )

10) Loi Log-normale :

Une v.a. X suit une loi Log-normale de paramètres m et σ > 0, et on note X ∼ LN (m, σ), si sa
densité est :

Son espérance mathématique est :

Sa variance est :

11) Loi du Khi-deux :

Une v.a. X suit une loi de Khi-deux avec n degrés de liberté, et on note X ∼ X 2 (n), si sa
densité est :

Son espérance mathématique est :E(X)=n

Sa variance : V(X)=2n

Si n 2 = α et 1/ 2 = β, on retrouve la loi Gamma.

12) Loi de Student :

Une v.a. X suit une loi de Student à n degrés de liberté si sa densité de probabilité est définie
par :

Pour n = 1, on a f(x) = (1 /π )(1/ 1+x2 )et on retrouve la loi de Cauchy. Son espérance
mathématique est : E(X) =0
Sa variance est : Var(X) = n/( n – 2) , (n > 2)

13) Loi de Fisher :

Une v.a. X suit une loi de Fisher à p et q degrés de liberté si sa densité de probabilité est
définie par :

Son espérance mathématique :

La variance

III) Approximations des lois

1) Tendance de la loi hypergéométrique vers la loi binomiale:

Soit X ~ H(n,a,b), alors Si N=a+b→∞, alors H(n,a,b) → B(n,a/N).

En pratique, cette approximation est vraie dès que n/N <0.1

2) Approximation de la loi Binomiale par la loi de Poisson:

Si les conditions suivantes pour n et p sont réalisées:

•si n est grand (n≥50) ,P<0.1 et 0< np<10, la loi binomiale B(n,p) peut-être approximée par
une loi de Poisson P(λ) dont le paramètre λ est défini par λ=np.

3) Approximation de la loi Binomiale par la loi normale:

Si n est grand (>30), p et q ne sont pas trop petites (pratiquement 0.2<P<0.8, npq ≥5). La loi
binomiale B(n,p) peut être approximée par une loi normale N(µ = np, σ = √ npq )

La quantité t=(k-np)/ √ npq suit une loi normale centrée réduite.


4) Approximation de la loi de Poisson par la loi normale:

Soit une v.a. qui suit une loi de Poisson de paramètre λ. Si λ≥15, alors cette loi de Poisson
P(λ) peut être approximée par une loi normale N(λ, √ λ )Alors, la variable ( X- λ)/ √ λ
suit une normale centrée, réduite N(0,1).

Référence :

[1] : Variables aléatoires; Mohamed El Merouani;Université Abdelmalek Essaâdi 2019/2020.

[2] : Méthodes statistiques et probabilités, Khaldi khaled, Université Boumerdes 1999 .

Vous aimerez peut-être aussi