Vous êtes sur la page 1sur 59

Les Variables Aléatoires

Probabilité 1

Who? I. Laroussi

From? Département de Mathématiques


Université des Frères Mentouri Constantine 1

When? Octobre 2020


Plan du cours
Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Définition Générale
Image inverse et mesurabilité

Pour f : E → F avec B ⊂ F
Image réciproque de B par f

⇔ f −1 (B) = {x ∈ E| f (x) ∈ B}.

Définition Soient (E; A) et (F ; F) deux espaces mesurables.


f : (E; A) → (F ; F) est mesurable si

∀B ∈ F ⇒ f −1 (B) ∈ A.
Image inverse et mesurabilité
V. A.

Définition Soit (Ω, A, P) e.p. et

X : Ω → R.

X est mesurable si

∀x ∈ R, X −1 (] − ∞, x]) ∈ A.

X variable aléatoire réelle noté v.a.r.


B(R) la tribu borélienne sur R engendrée par les
intervalles ouverts.
Image inverse et mesurabilité
V. A.

Remarques
1 X −1 (] − ∞, x]) = {ω ∈ Ω| X (ω) ∈] − ∞, x]}

= {ω ∈ Ω| X (ω) ≤ x}.
X
2 X , Y 2 v. a. r. =⇒ X + Y , X − Y , X .Y , Y des v. a. r.
3 X −1 (] − ∞, x]) ∈ A =⇒ P(X −1 (] − ∞, x])) existe.
4 Si X (Ω) ⊆ N ⇔ X V. A. D.
5 Si X (Ω) ⊆ R ⇔ X V. A. C.
La loi de probabilité
V. A.

Définition Soient (Ω, A, P) e.p., X v.a.r.


PX : (Ω, A, P) → (R, B(R)) tq ∀A ∈ B(R);

PX (A) = P[ω ∈ Ω : X (ω) ∈ A] = P[X −1 (A)].

PX est la loi de probabilité de X .


Remarques
1 Notations

PX (A) = P[ω ∈ Ω : X (ω) ∈ A] = P[X ∈ A]


 
P X −1 (] − ∞, x]) = P(X ≤ x)

2 PX ({x}) = P[ω ∈ Ω : X (ω) ∈ {x}] = P[X = x]


Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Loi de probabilité
v.a. discrète

Défiition X ∈ {x1 , . . . , xn , . . .}.


La loi de probabilité
 
pi = P(X = xi )
i=1,...,n, ...

Avec X
P(X = xi ) = 1.
i≥1
La loi de probabilité
v.a. discrète
Exemple 1 Expérience aléatoire :“ jet de deux dès non pipés”.
On obtient Ω = {(1, 1); (1, 2); . . . ; (6, 6)}. X :“somme
des faces”⇔ X = {2, 3, . . . , 12}. On calcule la
probabilité de chaque valeur de X .
1
P(X = 2) = P[(1, 1)] = 36 ;
2
P(X = 3) = P[(1, 2); (2, 1)] = 36 ;
3
P(X = 4) = P[(2, 2); (3, 1); (1, 3)] = 36 ;
4
P(X = 5) = P[(1, 4); (4, 1); (3, 2); (2, 3)] = 36 ;
5
P(X = 6) = P[(1, 5); (5, 1); (3, 3); (4, 2), (2, 4)] = 36 ;
P(X = 7) =
6
P[(3, 4); (4, 3); (5, 2); (2, 5); (1, 6); (6, 1)] = 36 ;
5
P(X = 8) = P[(2, 6); (6, 2); (3, 5); (5, 3); (4, 4)] = 36 ;
4
P(X = 9) = P[(3, 6); (6, 3); (4, 5); (5, 4); ] = 36 ;
3
P(X = 10) = P[(5, 5); (4, 6); (6, 4)] = 36 ;
2
P(X = 11) = P[(5, 6); (6, 5)] = 36 ;
1
P(X = 12) = P[(6, 6)] = 36 .
La loi de probabilité
v.a. discrète

Exemple 2 Y :“maximum des deux faces”⇔ Y = {1, 2, . . . , 6}.


1
P(Y = 1) = P[(1, 1)] = 36 ;
3
P(Y = 2) = P[(2, 2); (1, 2); (2, 1)] = 36 ;
5
P(Y = 3) = P[(1, 3); (3, 1); (2, 3); (3, 2); (3, 3)] = 36 ;
P(Y = 4) = P[(1, 4); (4, 1); (2, 4); (4, 2); (3, 4); (4, 3);
7
(4, 4)] = 36 ;
P(Y = 5) = P[(1, 5); (5, 1)(2, 5), (5, 2); (3, 5); (5, 3);
9
(4, 5); (5, 4); (5, 5)] = 36 ;
P(Y = 6) = P[(1, 6); (6, 1); (2, 6); (6, 2); (3, 6); (6, 3);
11
(4, 6); (6, 4); (5, 6); (6, 5); (6, 6)] = 36 .
Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Fonction de répartition
v.a. discrète
La Fonction de répartition de X est donnée par
FX : R → [0, 1] par

FX (x) = P(] − ∞, x]) = P(X ≤ x); ∀x ∈ R. (1)

FX vérifie les propriétés suivantes


1 ∀x ∈ R, 0 ≤ FX (x) ≤ 1.
2 FX est croissante sur R.
3 ∀a, b ∈ R : P [X ∈]a, b]] = FX (b) − FX (a).
4 FX est continue à droite et admet une limite à gauche
en tout point x ∈ R.
limFX (x + h) = limP(X ≤ x + h) = P(X ≤ x) = FX (x),
> >
h→0 h→0

limFX (x + h) = limP(X ≤ x + h)
< <
h→0 h→0

= P(X < x) = FX (x−).


Fonction de répartition
v.a. discrète
Remarques
1 Toute fonction qui vérifie les propriétés précédentes
est une fonction de répartition.
2 FX = FY ⇔ PX = PY .
P
3 ∀x ∈ R, FX (x) = P(X ≤ x) = xi ≤x pi .
4 FX (x) étagée càdlàg.

F IGURE – Fonction de répartition


Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Les moments
v.a. discrète
X v. a. sur (Ω, A, P) de loi (xi , pi )i=1,...n ,
n
X
E(X ) = pi xi .
i=1

Var(X ) = E{(X − E(X ))2 }.

Théorème X une v. a. discrète à valeurs x1 ; x2 ; . . . et


g : (R; BR ) → (R; BR ) mesurable, alors
X
E(Z = g(X )) existe ⇔ |g(xi )|P(X = xi ) < ∞
i≥1
P
Et E(Z ) = E(g(X )) = i≥1 g(xi )P(X = xi ).
Implication
xip P(X = xi ), ∀p ≥ 1.
X
E(X p ) =
i≥1
Les moments
v.a. discrète

Propriétés
g et h 2 fonctions de R et a, b ∈ R,

E(ag(X ) + bh(X )) = aE(g(X )) + bE(h(X )).

Pour a, b ∈ R,

E(aX + b) = aE(X ) + b.

Pour a ∈ R, E(a) = a.
Le moment centré d’ordre k ∈ N∗ de la v. a. X est
E((X − E(X ))k )

E((X − E(X ))1 ) = 0

Var(X ) = E((X − E(X ))2 ) = E(X 2 ) − E2 (X ).


Les moments
v.a. discrète

Propriétés
Pour a ∈ R,

Var(a) = E(a2 ) − E2 (a) = a2 − a2 = 0

Pour a ∈ R,

Var(aX ) = E(a2 X 2 ) − (E(aX ))2

= a2 E(X 2 ) − a2 E2 (X ) = a2 Var(X )
p
L’écart-type de X est donné par σX = Var(X ).
Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Loi Bernoulli
v.a. discrète

X ' B(p) La loi de Bernoulli de paramètre p noté par X ' B(p)


et caractérisée par P[X = 1] = p, P[X = 0] = 1 − p.
On peut aussi écrire

P[X = k ] = pk (1 − p)1−k , avec k = 0, 1. (2)



 0 si ; x < 0
FX (x) = 1 − p si ; 0 ≤ x < 1 .
1 si x ≥ 1

X
E(X ) = xi P[X = xi ] = p.
i=0,1

Var(X ) = E(X 2 ) − (E(X ))2 = p(1 − p).


Loi Binomiale
v.a. discrète

Sn ' B(n, p) Sn estPla somme de n v. a. (i. i. d) Xi ' B(p) tel que


Sn = ni=1 Xi . Avec

0 si ième succès avec p



Xi = .
1 si ième échec avec 1 − p

P[Sn = k] = Cnk pk (1 − p)(n−k) = pk , k = 0, 1, . . . , n.




 0 si ; x < 0
p si ; 0 ≤ x < 1

 1


FX (x) = (p1 + p2 ) si ; 1 ≤ x < 2 .
 .
. .
.
. .




1 si (n − 1) ≤ x ≤ n

Loi Binomiale
v.a. discrète

Sn ' B(n, p)
E(Sn ) n
X X
E(Sn ) = kP[Sn = k] = kCnk pk (1 − p)(n−k)
k=0 k=0,n

n
X n!
= k pk (1 − p)(n−k)
k !(n − k)!
k=0
n
X (n − 1)!
= np p(k−1) (1 − p)(n−k) .
(k − 1)!(n − k)!
k=1
Loi Binomiale
v.a. discrète

Sn ' B(n, p) En utilisant le changement de variable suivant


E(Sn ) k 0 = k − 1 ⇔ k = k 0 + 1, on obtient
n−1
X (n − 1)! 0 0
E(Sn ) = np pk (1 − p)(n−k −1) .
k 0 !(n 0
− k − 1)!
k 0 =0

En réutilisant un changement de variable n0 = n − 1,


on obtient
n 0
X n0 ! 0 0 0
E(Sn ) = np 0 !(n0 − k 0 )!
pk (1 − p)(n −k )
k
k 0 =0
| {z }
=1

= np.
Loi Binomiale
v.a. discrète
Sn ' B(n, p) Var(Sn ) =
Var(Sn )
n−1
X (n − 1)! 0 0
np (k 0 +1) pk (1−p)(n−k −1) −(np)2
k 0 !(n 0
− k − 1)!
k 0 =0

n−1
X (n − 1)! 0 0
= np 0 !(n − k 0 − 1)!
pk (1 − p)(n−k −1)
k
k 0 =0
| {z }
=1
n−1
X (n − 1)! 0 0
+np k0 pk (1 − p)(n−k −1) − (np)2
k 0 !(n 0
− k − 1)!
k 0 =0
| {z }
=p(n−1)

= np + n(n − 1)p2 − (np)2 = np − np2


= np(1 − p).
Loi hypergéométrique
v.a. discrète

X '
H N, n, p = M
N

F IGURE – Tirage sans remise de n individus


Loi hypergéométrique
v.a. discrète

X '
k C n−k
H N, n, p = M
N
CM N−M
P[X = k] = = pk
CNn
k ∈ {max(0, n − N + M), . . . , min(n, M)}

E(X ) = np

N −n
Var(X ) = np(1 − p)
N −1
Loi géométrique
v.a. discrète

X ' G (p) Nombre d’épreuves de Bernoulli identiques et


indépendantes qui se succède pour espérer un
premier succès

P[X = n] = p(1 − p)n−1 = pn

FX (n) = P[X ≤ n] = 1 − (1 − p)n


1
E(X ) =
p
1−p
Var(X ) =
p2
Loi de Poisson
v.a. discrète

X ' P (λ) La loi de Binomiale avec n assez grande p assez


petit ⇒ λ = np > 0

exp−λ λn
P(X = n) = = pn , n = 0; 1; 2; . . .
n!
Γ ([n + 1], λ)
F (n) = P[X ≤ n] = , n ≥ 0,
[n]!
où Γ (x, y) est la fonction gamma incomplète et où [x]
est la partie entière de x.

E(X ) = λ
Var(X ) = λ
Loi de Poisson
v.a. discrète
X ' P (λ) X
E(X ) E(X ) = nP[X = n]
n≥0

X exp−λ λn X λn
= n = exp−λ n
n! n!
n≥0 n≥0

On sait que
X λn 
λ2 λ3

n = λ + 2 + 3 + ...
n! 2! 3!
n≥0

λ2 X λn
 
λ
=λ 1+ + + ... = λ = λ expλ
1! 2! n!
n≥0

Donc
E(X ) = λ expλ exp−λ = λ
Loi de Poisson
v.a. discrète

X ' P (λ)
Var(X ) Var(X ) = E(X 2 ) − E2 (X )
X
= nP[X = n] − E2 (X )
n≥0

X exp−λ λn
= n2 − (λ2 )
n!
n≥0

Comme
−λ λn λ2 λ3
 
2 exp
X
−λ
n = exp λ + 2 + 3 + ...
n! 1! 2!
n≥0

λ2
 
−λ λ
= λ exp 1 + 2 + 3 + ...
1! 2!
Loi de Poisson
v.a. discrète

X ' P (λ)
Var(X )
X λn
= λ exp−λ (n + 1)
n!
n≥0
 
 
X λn X λn 
−λ 
= λ exp n +

n! n!
 
 
n≥0 n≥0 |{z} 
| {z } =expλ
=λ expλ

= λ2 + λ
Donc
Var(X ) = λ2 + λ − λ2

Approximation de la loi
hypergéométrique par une loi Binomiale
v.a. discrète

 
M

H N, n, p = N
X ' H N, n, p = M N Lorsque N → ∞, n et p = N
M

N→∞, p= M
N restent fixes (ce qui sous-entend que M → ∞ tel que
−→ M
B(n, p) N → p, on a

lim P[X = k ] = P[Y = k ]


N→+∞
p= M
N

Où Y ' B(n, p).


Approximation de la loi
hypergéométrique par une loi Binomiale
v.a. discrète

M

H N, n, p = N k C n−k
CM
N→∞, p= M N−M
−→ N
P[X = k ] = , ∀k = 0, . . . , n
CNn
B(n, p)
M! (N−M)!
k!(M−k)! (n−k)!(N−M−n+k)!
= N!
n!(N−n)!

n! [M(M − 1) . . . (M − k + 1)]
= ×
k!(n − k )! N(N − 1) . . . (N − n + 1)
×[(N − M)(N − M − 1) . . . (N − M − n + k + 1)]
Approximation de la loi
hypergéométrique par une loi Binomiale
v.a. discrète

M

H N, n, p = N
N→∞, p= M
N
−→ (n−k ) termes
z }| {
B(n, p) = Cnk (N − M)(N − M − 1) . . . (N − M − n + k + 1)
k termes
z }| {
M(M − 1) . . . (M − k + 1)
×
N(N − 1) . . . (N − n + 1)
| {z }
n termes
Approximation de la loi
hypergéométrique par une loi Binomiale
v.a. discrète

M

H N, n, p = N
On multiplie le numérateur et le dénominateur par
1 1 1
N→∞, p= M
N N n = N k N n−k , pour obtenir
−→
B(n, p) h
M

M 1


(k−1)
i
N N − ... M
N N − N
P[X = k] = Cnk h  i
N (n−1)
1 − N1 . . . 1 − N

N
h    i
N M (N−1) (N−n+k+1)
× N − N N −MN ... N −MN
M
Comme p = N reste constant pour N → +∞, on a
∀k = 0, . . . , n

P[X = k ] → Cnk pk (1 − p)(n−k) ,

qui n’est autre que la loi Binomiale.


Approximation de la loi Binomiale par
une loi de Poisson

B(n, p) X ' B (n, p) n assez grand et p assez petit, on


n→∞, p→0 approche la loi de X par une loi de Poisson de
−→
P (λ) paramètre λ = np

P(X = k ) = Cnk pk (1 − p)(n−k)

1
= n(n − 1) . . . (n − k + 1)pk (1 − p)(n−k)
k!
 
nk
1 − n1 1 − n2 . . . 1 − (k−1) pk (1 − p)(n−k)
 
= k! n
Approximation de la loi Binomiale par
une loi de Poisson

λ
B(n, p) Aussi, on a p = n et n → ∞ ⇔ p → 0 donc
n→∞, p→0  1− λ n
λk
  ( n)
−→ 1 − n1 1 − n2 . . . 1 − (k−1)

P(X = k ) = k! n k
P (λ) (1− λn )
Comme
λ n
 
1− −→ exp−λ
n n→+∞

donc
exp−λ λk
P(X = k ) −→
n→+∞ k!
qui est la loi d’une v. a. r. de Poisson de paramètre
λ = np
Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Nombre de classes
V. A. Continue

F IGURE – Histogramme à 6 classes.

F IGURE – Quatre fonctions de répartitions


Nombre de classes
V. A. Continue
On ne peut pas calculer la somme des probabilités
ponctuelles P[X = k] sur [a, b], mais on peut
considérer la surface comprise entre l’axe et la
fonction f de la figure

F IGURE – Surface

Dans le cas continu, on parle plus de somme, de


probabilité et de valeurs distincts mais plutôt
d’intégrale, de densité et d’intervalle de valeurs.
Densité
V. A. Continue

Définition Une fonction f : R −→ [0; 1[, intégrable selon


Riemann, s’appelle une densité si
Z
f (t)dt = 1.
R

Propriétés Soit f une fonction de densité d’une v.a.r continue X ,


alors
1 P(a ≤ X ≤ b) = P(a < X ≤ b) = P(a ≤ X < b) =
Rb
P(a < X < b) = a f (t)dt.
2 P(t < X ≤ t + dt) = f (t)dt.
Rx
3 ≤ x) = −∞ f (t)dt calcule
La fonction définie par P(XP
le cumule des probabilités k≤x P(X = k) sur
l’intervalle ] − ∞, x].
Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Fonction de répartition
V. A. Continue

Une fonction F : R −→ [0; 1] est une fonction de


répartition si
1 F est croissante : x ≤ y ⇒ F (x) ≤ F (y )
2 F est continue à droite : lim F (y) = F (x), ∀x ∈ R
>
y →x
3 lim F (x) = 0 et lim F (x) = 1
x→−∞ x→+∞
Une fonction de répartition F estRdite absolument
x
continue de densité f si F (x) = −∞ f (t)dt
Fonction de répartition
V. A. Continue

Cette dernière définition impliqueR que F s’écrit


x
comme suit F (x) = P(X ≤ x) = −∞ f (t)dt Donc
pour ne pas confondre, dans la suite, on note FX la
fonction de répartition et fX la densité de la v.a.r
continue X .
Propriété Soit X une v.a.r. absolument continue de densité fX ,
on a
1 FX0 (x) = fX (x) ⇔ dFdx
X (x)
= fX (x).
Rb
2 a fX (t)dt = FX (b) − FX (a).
3 P(X = a) = 0 ⇔ FX est continue en a.
Fonction de répartition
V. A. Continue
Démonstration.
1 Directement.
Rb
2 Des propriétés de l’intégrale on a a fX (t)dt =
Rb Ra
−∞ fX (t)dt − −∞ fX (t)dt = FX (b) − FX (a).
?
3 ⇒) Supposons que P(X = a) = 0, FX continue à
gauche ? lim FX (x) = lim P(X ≤ x) = P(X ≤
< <
x →a x →a
a−) = P(X ≤ a−) + P(X = a) = P(X ≤ a)
| {z }
=0
?
⇐) FX converge à gauche et on démontre que
P(X = a) = 0 D’après la continuité de FX en a,
lim FX (x) = FX (a) = P(X ≤ a) et comme
<
x →a
lim FX (x) = P(X ≤ a−) Donc
<
x →a
P(X ≤ a−) = P(X ≤ a) ⇒ P(X = a) = 0
Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Les moments
V. A. Continue

Théorème Soit g une application réelle continue dans R, alors si


Z Z
|g(x)|fX (x)dx < ∞ ⇒ E(g(X )) = g(x)fX (x)dx.
R R

Pour g1 (x) = x et g2 (x) = x 2 qui sont deux fonctions


continues sur R, on a
Z Z
2
E(X ) = xfX (x)dx et E(X ) = x 2 fX (x)dx.
R R
Les moments
V. A. Continue
Propriété
1 Soient g et h deux fonctions de R et a, b ∈ R,
E(ag(X ) + bh(X )) = aE(g(X )) + bE(h(X ))
2 Pour a, b ∈ R, E(aX + b) = aE(X ) + b
3 Pour a ∈ R, E(a) = a.
4 Le moment centré d’ordre k ∈ N∗ de la v. a. r.
continue X est donné par E((X − E(X ))k )
⇒ E((X − E(X ))1 ) = 0, E((X − E(X ))2 ) =
E(X 2 ) − E2 (X )

⇒ Var(X ) = E(X 2 ) − E2 (X )

5 Pour a ∈ R, Var(a) = E(a2 ) − E2 (a) = a2 − a2 = 0


6 Pour a ∈ R, Var(aX ) = E(a2 X 2 ) − E2 (aX ) =
a2 E(X 2 ) − a2 E2 (X ) = a2 Var(X )
p
7 L’écart-type de X est donné par σX = Var(X )
Inégalités faisant intervenir les
moments
V. A. Continue
Théorème (Inégalité de Markov)
Si X est une v.a.r. positive, on a pour tout réel a > 0

E[X ]
P(X ≥ a) ≤ .
a

Démonstration.
Z Z Z
E[X ] = xdPX (x) = xdPX (x)+ xdPX (x)
R+ [0;a[ [a;+∞[
Z
⇒ E[X ] ≥ xdPX (x)
[a;+∞[
Z
≥a dPX (x) = P(X ≥ a)
[a;+∞[
Inégalités faisant intervenir les
moments
V. A. Continue

Théorème (Inégalité de Bienaymé-Chebychev)


Si E[X 2 ] < +∞, alors on a pour tout réel a > 0

Var[X ]
P(|X − E[X ]| > a) ≤ .
a2

Démonstration. Il suffit d’appliquer l’inégalité de Markov à la variable


aléatoire (X − E[X ])2 .
Plan du cours

Variable
aléatoire
discrète
La loi de probabilité
Fonction de répartition
Les moments
Lois discrètes usuelles

Variable
aléatoire
continue
Densité
Fonction de répartition
Les moments
Lois continues usuelles
Loi uniforme
V. A. Continue
(
1
(b−a) si ; a ≤ x ≤ b
X ' U([a, b]) fX (x) =
0 sinon

 0 si x < a
x−a
FX (x) = b−a si a ≤ x ≤ b
1 si x > b

F IGURE – La loi uniforme

a+b (b − a)2
E(X ) = et Var(X ) =
2 12
Loi uniforme
V. A. Continue
λe[−λx] si x

≥0
X ' E(λ) fX (x) =
0 si x <0
λ>0 
0 si x < 0
FX (x) =
1 − λe[−λx] si x ≥ 0

F IGURE – Loi exponentielle

1 1
E(X ) = et Var(X ) = 2
λ λ
La loi Normale
V. A. Continue

n o
√1 x−µ 2
X ' fX (x) = exp − 12 σ , ∀x ∈ R, et σ > 0,
σ 2π
N µ, σ 2

F IGURE – Densité de la loi Normale

E (X ) = µ, Var (X ) = σ 2
La loi Normale centrée réduite
V. A. Continue

1 2
X ' N (0, 1) fZ (z) = √1 e− 2 z , ∀z ∈ R

F IGURE – Densité de la loi Normale centré réduite

E (X ) = 0, Var (X ) = 1
La loi Normale centrée réduite
V. A. Continue

− 21 z 2
Rt
X ' N (0, 1) FZ (t) = P (Z ≤ t) = √1
2π −∞ e dz

Propriété
1 FZ (0) = 12 .
2 ∀t ∈ R, FZ (t) + FZ (−t) = 1 =⇒ FZ (−t) = 1 − FZ (t) .
3 ∀t ∈ R, FZ (t) − FZ (−t) = 2FZ (t) − 1.
4 P (Z ≤ −t) = P (Z > t) de la symétrie de fZ .
5 ∀ a, b ∈ R; (a < b) on a P (a ≤ Z ≤ b) =
FZ (b) − FZ (a) .
La loi Normale centrée réduite
V. A. Continue

Example X ' N (3, 9)


 
2−3 X −3
1 P (2 < X < 5) = P 3 < 5−3
< 33
Z 'N (0,1) −1
P 3 < Z < 3 = FZ 3 − FZ − 13
2 2
  
=
= FZ 32 − 1 − FZ 13 = 0.3779.
  

0−3 Z 'N (0,1)


 
2 P (X > 0) = P X −33 > 3 = P (Z > −1)
= 1 − P (Z ≤ 1) = 1 − FZ (−1) = 1 − [1 − FZ (1)]
= FZ (1) = 0.8413.
3 P (|X − 3| > 6) = 1 − P (|X − 3| ≤ 6)
= 1 − P(−6 ≤ X − 3 ≤ 6)
Z 'N (0,1)
= 1 − P(−3 ≤ X ≤ 9) = 1 − P(−2 ≤ Z ≤ 2)
= 1 − [FZ (2) − FZ (−2)] = 1 − [FZ (2) − (1 − FZ (2))]
= 2 − 2FZ (2) = 0.0456.
Lois déduites de la loi normale
Loi chi-deux

X ' χ2n . . . , Xn , n ' N (0, 1) v. a. i. n d. d. l.


X1 , X2 , (
χ2n = ni=1 Xi2
P 2
n
−1 − x2
fX (x) = C(n)x 2 e si x ∈ R∗ avec
0 sinon
1
C(1) = √

F IGURE – Densité de la loi Khi deux

E(X ) = n, Var(X ) = 2n
Lois déduites de la loi normale
Loi Student

T ' T (n) à n X ' N (0; 1) indépendante de Y ' χ2n


d. d. l Γ( n+1 )
  n+1
2 − 2
f (x) = √1nπ Γ n2 1 + x2 ; x ∈ R,
T = √X Y (2)
n

F IGURE – Densité de la loi Student

n
E(T ) = 0, Var(T ) = n−2
Lois déduites de la loi normale
Loi Fisher

F ' F(n, m) X ' χ2ni. Y ' χ2m


n −1
à (n, m) d. d.  n n2 m m2 Γ( n+m
2 ) x2
si x ∈ R+
X
f (x) = Γ( 2 )Γ( 2 ) (nx+m) n+m
n m
2
l. F = n
Y  0
m sinon

m
E(F ) = , si m > 2
m−2
et
2m2 (n + m − 2)
Var(F ) = , si m > 4
n(m − 2)2 (m − 4)

Vous aimerez peut-être aussi