Vous êtes sur la page 1sur 8

U.S.T.H.B.

M1 MF
Faculté de Mathématiques Statistique Inférentielle.

Chapitre1 : Rappels et compléments

1 Variables aléatoires, loi de probabilité

Dénition 1 : Soient (Ω, F) et (∆, T ) deux espaces mesurables et X une application mesurable
de (Ω, F) dans (∆, T ) :
X : Ω −→ ∆
ω X(ω)

1. On dit que X est une variable aléatoire (v.a.) si


∀B ∈ T , X −1 (B) = {ω ∈ Ω/X(ω) ∈ B} ∈ F

2. Si ∆ est discret (ni ou inni dénombrable) alors X est dite discrète.


3. Si ∆ = R, X sera dite réelle. On prendra alors T = BR la tribu des boréliens de R
4. Si ∆ = Rd , X sera appelé vecteur aléatoire. On prendra alors T = BRd
Dénition 2 : Soit (Ω, B, P) un espace probabilisé et X une v.a. sur (Ω, B). L'application
PX : B −→ [0, 1]
PX (B) = P X −1 (B)

B

est une mesure de probabilité sur (R, BR ) appelée Loi de probabilité de X .


Dénition 3 :
Soit (Ω, B, P) un espace de probabilités et X : Ω −→ R une variable aléatoire réelle (V.A.R). On
appelle fonction de répartition de X , la fonction réelle
F : R −→ [0, 1]
x F (x) = P(X ≤ x) = PX (] − ∞, x ])

Proposition 1. La fonction de répartition F d'une v.a. r. X satisfait aux proporiétés suivantes :


1. F est croissante (au sens large).
2. F est continue à droite en tout point x ∈ R.
3. Lim F (x) = 0 et Lim F (x) = 1
x→−∞ x→+∞

Preuve
Exercice

Z. Guessoum ... ...


Page 1
Remarque 1. Lorsqu'une fonction F satisfait les 3 propriétés précédentes alors F est forcément
la fonction de répartition d'une certaine variable aléatoire.
Proposition 2. À toute fonction de répartition F correspond une et une seule mesure de proba-
bilité P sur (R, BR ) vériant PX (] − ∞, x ]) = F (x), ∀xR.
En plus clair la proposition précédente est équivalente à : Si X et Y sont deux v.a. r. de
fonctions de répartition respectives FX et FY , alors PX = PY ⇐⇒ FX = FY .
Dénition 4
Soit (Ω, B, P) un espace de probabilités tel que Ω = {x0 , x1 , ..., xp , ...}. La loi de probabilité d'une
v.a. discrète est caractérisée par :
X
∀B ∈ B, P(X ∈ B) = P(X = xi )
xi ∈B

Exemple : Un dé à 6 faces comporte 2 faces numérotées 2, 2 faces numérotées 3, 1 face numérotée


1 et 1 face numérotée 4. Soit X la v.a. égale au numéro de la face obtenue. Alors X(Ω) = {1, 2, 3, 4}.
1 2 2 1
P(X = 1) = P(X = 2) = P(X = 3) = P(X = 4) =
6 6 6 6


 0 x<1

1/6 1 ≤ x < 2



F (x) = 3/6 2 ≤ x < 3

5/6 3 ≤ x < 4





1 x≥4
Dénition 5 :
Une v.a.r. X de fonction de répartition F est dite absolument continue s'il existe une foncion
f : R −→ R+ telle que Z x
F (x) = f (t)dt, pour tout x ∈ R
−∞
f est appelée densité de probabilité de X .
Remarque 2. PourRmontrer qu'une fonction f est une densité de probabilité il sut de montrer
que f est ≥ 0, que −∞ f (x)dx = 1 et que f est continue sauf peut-être en un nombre ni de
+∞

points où elle admet une limite à droite et une limite à gauche.


Exemple :
a 1
f (x) = , a>0
π a + x2
2

On a que f est continue sur R. f (x) ≥ 0, (en fait elle est strictement positive) et
+∞
a +∞ 2a +∞
Z Z Z
1 1
f (x)dx = 2 2
dx = dx
−∞ π −∞ a + x π 0 a + x2
2

2a 1  x  +∞ 2a π
= Arctg =

π a a 0 π 2a

= 1
f (x) est donc une densité d'une certaine v.a.r. X absolument continue. On dit que X suit la loi
de Cauchy de paramètre a.

Z. Guessoum ... ...


Page 2
2 vecteurs aléatoire, loi de probabilité

Dénition 6
Soit X = (X1 , X2 , ..., Xn ) un vecteur aléatoire sur (Rn , BRn , P). Sa fonction de répartition F est
déne par
F (x1 , x2 , ..., xn ) = P(X1 ≤ x1 , X2 ≤ x2 , ..., Xn ≤ xn )
On l'appelle aussi fonction de répartition conjointe.
Propriétés :

1. F est croissante et continue à droite par rapport à chacun de ses arguments.


2. Si il existe i ∈ {1, ..., n} tel que xi → −∞ alors lim F (x1 , ..., xi , ..., xn ) = 0
xi →−∞

3. Si xi → +∞∀i = 1, ..., n alors lim F (x1 , ..., xi , ..., xn ) = 1


xi →−∞,∀i

Dénition 7
Soit X = (X1 , X2 , ..., Xn ) un vecteur aléatoire sur (Rn , BRn , P). Soit PX sa loi de probabilité
conjointe. On dit que le vecteur X est absolument continu s'il existe une fonction f : Rn −→ R+
telle que :
Z
∀B ∈ BRn : PX (B) = f (x1 , ..., xn )dx1 ...dxn
ZB
= f (x1 , ..., xn )IB (x1 , ..., xn )dx1 ...dxn
Rn

f est appelée densité de probabilité du vecteur X .


Propriétés :

1. f ≥ 0.
2.
R
Rn
f (x1 , ..., xn )dx1 ...dxn = 1

3. La fonction de répartition conjointe F peut-être représentée par :


Z x1 Z x2 Z xn
F (x1 , x2 , ..., xn ) = ... f (t1 , t2 , ..., tn )dt1 dt2 ...dtn
−∞ −∞ −∞

Proposition 3. Si le vecteur aléatoire X = (X1 , X2 , ..., Xn ) est absolument continu alors les
variables aléatoires marginales Xi , i = 1, ..., n sont absolument continues de densité :
Z
fXi (xi ) = f (x1 , ..., xi , ...xn )dx1 ...dxi−1 dxi+1 ...dxn (1)
Rn−1

Dénition 8
Soit X1 , ..., Xn une suite de v.a.r. dénies sur (Ω, B, P). On dit que les v.a. X1 , ..., Xn sont indé-
pendantes si
n
Y
∀A1 ∈ B, ..., ∀An ∈ B, P(X1 ∈ A1 , ..., Xn ∈ An ) = P(Xi ∈ Ai )
i=1

Z. Guessoum ... ...


Page 3
Proposition 4. On a les équivalences suivantes :
1. les n v.a. X1 , X2 , ..., Xn sont indépendantes
n
2. F (x1 , ..., xn ) = ∀(x1 , ...xn ) ∈ Rn
Q
FXi (xi ),
i=1

3. Si h1 , ..., hn sont des fonctions mesurables sur R alors h1 (X1 ), ..., hn (Xn ) sont indépendantes
4. Si de plus les variables X1 , X2 , ..., Xn sont absolument continues alors
n
Y
f (x1 , ..., xn ) = fXi (xi ), ∀(x1 , ...xn ) ∈ Rn
i=1

3 Esperance mathématique, Variance, Moment d'ordre k


Dénition 9
Une v.a.r. dénie sur
R (Ω, B, P) admet une espérance mathématiqueR si elle est intégrable par rapport
à P c'est-à-dire si Ω |X(ω)| dP(ω) < +∞. Posons alors E(X) = Ω X(ω)dP(ω), E(X) est appelée
espérance mathématique de X .

En pratique :
P
 xi P(X = xi ) si X est discrete
E(X) = i≥0
R xf (x)dx
R
si X est absolument continue
Propriétés :

1. ∀a ∈ R, E(a) = a
2. ∀a, b ∈ R, E(aX + b) = aE(X) + b (linéarité)
3. X ≥ 0 =⇒ E(X) ≥ 0
4. Soit g une fonction mesurable sur R
P
 g(xi )P(X = xi ) si X est discrete
E(g(X)) = Ri≥0
 g(x)f (x)dx
R
si X est absolument continue

5. Si X et Y sont indépendantes alors E(XY ) = E(X)E(Y ).


Dénition 10

1. Soit X une v.a.r. sur (Ω, B, P) telle que X soit intégrable par rapport à P. Si X 2 est P-
intégrable alors la quantité var(X) = E(X 2 ) − E2 (X) est appelée variance de X .
2. La quantité var(X) est appelée écart-type de X .
p

Z. Guessoum ... ...


Page 4
3. Soient X et Y deux v.a.r. sur (Ω, B, P) telles que X et Y soient intégrables par rapport à P.
La quantité cov(X, Y ) = E(XY ) − E(X)E(Y ) est appelée covariance entre X et Y .
Propriétés :

1. var(X) = E (X − E(X))2
2. var(aX + b) = a2 var(X) (invariance)
3. cov(X, Y ) = cov(Y, X)
4. Si X et Y sont indépendantes alors cov(X, Y ) = 0
5. Si X et Y sont indépendantes alors var(X + Y ) = var(X)+var(Y)
Dénition 11
Soit X une v.a.r. sur (Ω, B, P) telle que X k (k ≥ 1) soit intégrable par rapport à P.
1. La quantité mk = E(X k ) est appelée moment d'ordre k de la v.a.r. X
2. La quantité µk = E (X − E(X))k est appelée moment centrée d'ordre k de X .
Dénition 12
Soit X = (X1 , ..., Xn ) un vecteur aléatoire sur (Rn , BRn , P)
1. L'esperance mathématique de X est donnée par : E(X) = (E(X1 ), ..., E(Xn ))t
2. Si E(X) existe, on appelle matrice de variance covariance, la matrice :
ΣX = E (X − E(X))t (X − E(X))
 
 
var(X1 ) cov(X1 , X2 ) · · · cov(X1 , Xn )
 cov(X2 , X1 ) var(X2 ) · · · cov(X2 , Xn )
=  .. .. ..
 
. . .

 ··· 
cov(Xn , X1 ) cov(Xn , X2 ) · · · var(Xn )

4 Lois conditionnelles

Soient X et Y deux variables aléatoires sur (Ω, B, P).

Dénition 12
1. Cas discret : La loi conditionnelle de X sachant Y = yj est dénie par
P(X = xi , Y = yj )
P(X = xi |Y = yj ) =
P(Y = yj )

2. Cas continu : La loi conditionnelle de X sachant Y = y est dénie par


fX,Y (x, y)
fX|Y (x|y) =
fY (y)

Z. Guessoum ... ...


Page 5
Exemples :
1. soient X1 `B(p) et X2 B(p) deux v.a.r. de Bernoulli de même paramètre p et indépen-
dantes (X1 X2 ). Quelle est la loi de X1 |X1 + X2 = 1 ?
On sait que 
X1 B(p) 
X2 ` B(p) =⇒ X1 + X2 B(2, p) ( Binomiale)
X1 X2

On a aussi que X1 (Ω) = {0, 1}, d'où :


P(X1 = 0, X1 + X2 = 1) P(X1 = 0, X2 = 1)
P(X1 = 0|X1 + X2 = 1) = =
P(X1 + X2 = 1) P(X1 + X2 = 1)
P(X1 = 0)P(X2 = 1) (1 − p)p 1
= = =
P(X1 + X2 = 1) 2p(1 − p) 2

De même P(X1 = 1|X1 + X2 = 1) = 1


2
ce qui veut dire que
1
X1 |X1 + X2 = 1 B( )
2
2. Soit le vecteur aléatoire (X, Y ) de densité fX,Y (x, y) = xe−xy I{x≥0,y≥1} . Quelle est la loi de
X|Y = y ?
On a fX|Y (x|y) = fX,Y (x,y)
fY (y)
. Il nous faut donc calculer fY (y) qui représente la 2-ème marginale
de la densité conjointe fX,Y (x, y) et qui est donnée en (1) par :
Z +∞ Z +∞
fY (y) = fX,Y (x, y)dx = xe−xy I{y≥1} dx
−∞ 0
( +∞ )
1 +∞ −xy
Z
x −xy
= I{y≥1} − e + e dx
y 0 y 0
+∞
1 −xy 1
= − 2 e I{y≥1} = 2 I{y≥1} .
y 0 y
d'où :
xe−xy
fX|Y (x|y) = 1 I{x≥0,y≥1} = xy 2 e−xy I{x≥0,y≥1}
y2

En particulier

• fX|Y =1 (x) = xe−x I{x≥0} =⇒ X|Y = 1 Γ(2, 1).


• fX|Y =2 (x) = 4xe−2x I{x≥0} =⇒ X|Y = 2 Γ(2, 2).
• Plus généralement, X|Y = λ Γ(2, λ), λ≥1

5 Convergences

Soient (Xn )n une suite de v.a.r. et X une v.a.r. dénies sur (Ω, B, P). Soient Fi la fonction de
répartition associée à Xi pour tout i ≥ 1 et soit F la F.r. associée à X .

Z. Guessoum ... ...


Page 6
1. Convergence en loi : On dit que Xn converge en loi vers X et on note Xn −→
L
X si
Lim Fn (x) = F (x)
n→+∞

Proposition 5.
L
Xn −→ X ⇐⇒ Lim P (a < Xn ≤ b) = P (a < X ≤ b)
n→+∞

∀a, b points de continuité pour F .

2. Convergence en probabilité : On dit que Xn converge en probabilité (ou stochastique-


ment) vers X et on note Xn −→
P
X si ∀ > 0, Lim P (|Xn − X| > ) = 0
n→+∞

Proposition 6. Si Xn et X admettent des moments


  d'ordre 1 et 2, alors :
E(Xn ) → E(X) et var(Xn − X) → 0 =⇒ (Xn ) converge en probabilité vers X
n→+∞ n→+∞

propriétés de la convergence en probabilité : Soient Xn −→


P
X et Yn −→ Y , on a :
P

(a) Si g est une fonction continue sur R alors g(Xn ) −→


P
g(X).
(b) Si P(X = 0) = 0 alors 1
Xn
P
−→ 1
X
.
(c) Xn + Yn −→
P
X +Y.
(d) λXn −→
P
λX pour tout λ ∈ R.
(e) Xn Yn −→
P
XY .
(f) Si P(Y = 0) = 0 alors Xn
Yn
P
−→ X
Y
.

Exemple : Soit (Xn )n B( n1 ). Montrons que Xn −→ 0.


P

si  > 1
(
0
Soit  > 0, P (|Xn − 0| > ) = P (|Xn | > ) = 1
n
si  ≤ 1
=⇒ Lim P (|Xn − X| > ) = 0 pour tout  strictement positif =⇒ Xn −→ 0.
P
n→+∞

3. Convergence presque sûre : On dit que Xn converge presque sûrement vers X et on note
Xn −→ X si :
p.s

∃A ⊂ Ω, P(A) = 0 tel que ∀ω ∈ A, Lim Xn (ω) = X(ω)


n→+∞

Proposition 7. (a)
p.s P
(Xn )n −→ X =⇒ (Xn )n −→ X
.
(b)
p.s P
(Xn )n −→ X ⇐⇒ Yn = Sup |Xk − X| −→ 0
k≥n

Z. Guessoum ... ...


Page 7
(c) Borel-Cantelli :

Si ∀ > 0, P (|Xn − X| > ) converge =⇒ Xn −→ X


p.s
X

n≥1

4. Convergence en moyenne d'ordre r


M
r
Xn −→ X ⇐⇒ Lim E (|Xn − X|r ) = 0.
n→+∞

En particulier pour r = 2 on dira que Xn converge en moyenne quadratique (M.Q)vers X .


Proposition 8. 
 E(Xn ) −→ E(X)
M.Q n→+∞
Xn −→ X ⇐⇒
 var(Xn − X) −→ 0
n→+∞

récapitulatif
CV en Moyenne Quadratique =⇒ CV en proba =⇒ CV en loi

CV p.s =⇒ CV en proba
Exemples

1. Soit
1 1 1
(Xn )n B( 2
) =⇒ P(Xn = 1) = 2 , P(Xn = 0) = 1 − 2
n n n
On a E(|Xn − 0|2 = E(|Xn |2 ) = 02 P(Xn = 0) + 12 P(Xn = 1) = 1
n2
d'où
1
Lim E(|Xn − 0|2 = Lim =0
n→+∞ n→+∞ n2

=⇒ (Xn )n converge en moyenne quadratique vers 0

2. Soit
1 1
(Xn )n tel que P(Xn = n) = , P(X n = 0) = 1 −
n2 n2
Alors (Xn )n ne converge pas en moyenne quadratique vers 0. En eet
E(|Xn − 0|2 = E(|Xn |2 ) = 02 P(Xn = 0) + n2 P(Xn = n) = 1

Donc Lim E(|Xn − 0|2 6= 0 =⇒ (Xn )n ne converge pas en MQ vers 0.


n→+∞

Z. Guessoum ... ...


Page 8