Vous êtes sur la page 1sur 6

Lois discrètes usuelles à connaitre: Dans ce tableau ci-dessous, à la ligne correspondant à la loi µ, X désigne une variable aléatoire définie

sur un espace
probabilisé (Ω, A, P) de loi PX = µ.
Existence de
moments de Espérance Variance Série génératrice1
Intitulé de la loi Notation Définition et support P k
tout ordre E [X] V [X] GX (s) = +∞ k=0 s P(X = k)
(oui/non)?
Loi de Dirac en
δa P(X = a) = 1 oui a 0 non pertinent 2
a∈R
Loi de Bernoulli
P(X = 0) = 1 − p
de paramètre B(p) oui p p(1 − p) s 7→ 1 − p + ps, s ∈ R
P(X = 1) = p
p ∈ [0, 1]
Loi binomiale de
paramètres n ≥ B(n, p) oui np np(1 − p) s 7→ (1 − p + ps)n , s ∈ R
∀k ∈ {0, . . . , n},
P(X = k) = nk pk (1 − p)n−k
1 et p ∈ [0, 1]
Loi géométrique i h
∀k ≥ 1, 1 1−p ps 1 1
de paramètre G(p) oui p p2
s 7→ 1−(1−p)s
, s∈ − 1−p , 1−p
P(X = k) = p(1 − p)k−1
p ∈]0, 1[
Loi de Poisson ∀k ≥ 0,
de paramètre P(λ) k oui λ λ s 7→ eλ(s−1) , s ∈ R
P(X = k) = e−λ λk!
λ>0

Figure 1. Tableau récapitulatif des lois discrètes à connaı̂tre.

1On précisera le domaine de convergence.


2Sauf si bien sûr a ∈ N . . .
Lois absolument continues usuelles à connaitre: Dans ce tableau ci-dessous, à la ligne correspondant à la loi µ, X désigne une variable aléatoire définie
sur un espace probabilisé (Ω, A, P) de loi PX = µ.
Moments Espérance Variance Fonction de répartition Fonction caractéristique
Intitulé de la loi Notation Densité fX et support de tout  
E [X] V [X] FX (t) = P(X ≤ t) φX (t) = E eitX
ordre? 
Loi uniforme 
0 si t ≤ a,
1[a,b] (x) a+b (b−a)2 t−a eitb −eita
sur un segment U([a, b]) fX (x) = b−a
oui 2 12
FX (t) = b−a si a < t ≤ b, φX (t) = it(b−a)

[a, b], a < b 1 si t ≥ b,
Loi expo- (
nentielle de 1 1 0 si t ≤ 0, it −1

E(λ) fX (x) = λe−λx 1x≥0 oui λ λ2
FX (t) = −λt
φX (t) = 1 − λ
paramètre 1−e si t > 0
λ>0
Loi gaussi-
enne réelle de (x−m)2
 
1 2 σ 2 t2
paramètres N (m, σ 2 ) fX (x) = √2πσ 2
e− 2σ2 , x ∈ R oui m σ pas calculable explicitement φX (t) = exp imt − 2
m ∈ R et
σ2 > 0
Loi gaussienne
vectorielle de N’existe que si Γ est inversible  
⟨t , Γt⟩
paramètres N (m, Γ) (x−m)t Γ−1 (x−m) oui m Γ non pertinent 3 φX (t) = exp i ⟨m , t⟩ −
2 2
d fX (x) = (2π)d/21√det Γ e−
m ∈ R et
Γ ∈ Sd+ (R)
1 1 1
Loi de Cauchy C fX (x) = π(1+x 2) non pas définie pas définie FX (t) = π
arctan(t) + 2
φX (t) = exp(− |t|)

Figure 2. Tableau récapitulatif des lois continues à connaı̂tre.

3Notons qu’il est possible de généraliser la notion de fonction de répartition à des vecteurs aléatoires à valeurs dans Rd : pour X = (X1 , . . . , Xd ), on peut définir F (t1 , . . . , td ) =
P (X1 ≤ t1 , . . . , Xd ≤ td ) pour tout (t1 , . . . , td ) ∈ Rd , mais cette notion ne sera pas abordée dans le cours.
3

1. Lois discrètes - preuves


1.1. Loi de Dirac. Une variable X suivant δa vaut a presque sûrement, donc est bornée
donc admet des moments de tous ordres. X n’est en fait pas aléatoire, E [X n ] = an pour
tout n ≥ 1. V [X] = E [X 2 ] − E[X]2 = a2 − a2 = 0 (une variable constante est de variance
nulle).

1.2. Loi de Bernoulli. Le support de B(p) est {0, 1}. Donc X ∼ B(p) est bornée donc
admet des moments de tous ordres. On a E [X] = 0 × P (X = 0) + 1 × P(X = 1) = p. De
même, E [X 2 ] = 02 × P (X = 0) + 12 × P(X = 1) = p, donc V(X) = p − p2 = p(1 − p).
Enfin, on a GX (s) = s0 P(X = 0) + s1 P(X = 1) = 1 − p + sp (c’est une somme finie, le
rayon de convergence est infini).

1.3. Loi binomiale. Le support de B(n, p) est {0, 1, . . . , n}, support fini donc borné,
donc X admet des moments de tous ordres.
Pn Pn n k

1.3.1. Calcul de E(X) et V(X): méthode 1. On a E(X) = k=0 kP(X = k) = k=0 k k
p (1−
n−k
Pn n k−1
 n−k
Pn n k
 n−k
p) = p k=1 k k p (1−p) . On définit la fonction f : z 7→ k=0 k z (1−p) =
n ′
Pn n k−1 n−k n−1
(z+1−p) . f est dérivable et f (z) = k=1 k kz (1−p) = n(z+1−p)  2 k. On a alors
′ n−1
Pn n
E(X) = pf (p) = pn(p + 1 − p) = np. Par ailleurs, E(X ) = k=0 k k p (1 − p)n−k .
2

L’idée est de faire apparaitre la dérivée seconde de la fonction f . On écrit


n  
2
X n 2 k
E(X ) = k p (1 − p)n−k , (le terme en k = 0 vaut 0)
k=1
k
n  
X n
= (k(k − 1) + k)pk (1 − p)n−k ,
k=1
k
n   n  
X n k n−k
X n
= k(k − 1)p (1 − p) + kpk (1 − p)n−k ,
k=1
k k=1
k
= p2 f ′′ (p) + pf ′ (p) = p2 n(n − 1) + np.
Ainsi, V(X) = E(X 2 ) − E(X)2 = p2 n(n − 1) + np − n2 p2 = np(1 − p).

1.3.2. Calcul de E(X) et V(X): méthode 2. On sait d’après le cours, que X ∼ B(n, p) a la
même loi que la somme de n variables X1 , . . . , Xn de Bernoulli indépendantes de paramètre
p (la loi binomiale est la loi du nombre de succès lors de n expériences de Bernoulli
indépendantes). Ainsi, par linéarité de l’espérance, E(X) = E(X1 + . . . + Xn ) = E(X1 ) +
. . .+E(Xn ) = np, d’après le paragraphe précédent. Ensuite, V(X) = V(X1 +. . .+Xn ). Or
les variables sont indépendantes, donc V(X) = V(X1 +. . .+Xn ) = V(X1 )+. . .+V(Xn ) =
np(1 − p).

1.3.3. Calcul de la série génératrice GX : méthode 1. On a GX (s) = nk=0 nk sk pk (1 −


P 

p)n−k . On reconnait la formule de Newton et GX (s) = (sp + 1 − p)n .

1.3.4. Calcul de la série génératrice GX : méthode 2. On a GX (s) = E(sX ) = E(sX1 +...+Xn ),


avec X1 , . . . , Xn indépendantes de loi de Bernoulli de paramètre p. Ainsi, GX (s) =
E(sX ) = E(sX1 . . . sXn ) = E sX1 . . . E(sXn ), car les variables sont indépendantes. Comme
les variables Xi ont même loi de Bernoulli, GX (s) = (sp + 1 − p)n .

1.4. Loi géométrique.

1.4.1. Support et moments. Le support de la loi géométrique est N∗ = {k ∈ N, k ≥ 1}.


Montrons que X admet des momentsPde tous ordres. Il s’agit de montrer que pour tout
n ≥ 1, E (|X|n ) < ∞. Or, E(|X|n ) = +∞ n
k=1 k p(1 − p)
k−1
(c’est une série à termes positifs,
nous pouvons toujours l’écrire, mais il s’agit de prouver que cette série converge). Nous
pouvons utiliser le critère de d’Alembert sur le terme général uk = k n (1 − p)k−1 . On a
uk+1 n
= k+1

uk k
(1 − p) −−−→ 1 − p < 1. Donc par critère de d’Alembert, la série de terme
k→∞
général uk converge et donc E(|X|n ) < ∞ et X admet des moments de tous ordres.
4

1.4.2. Calcul de E(X) et V(X). On a E(X) = p +∞ k−1


P
P+∞ k k=1 k(1 − p) . On pose la fonction
g : z 7→ k=0 z . C’est une série entière (en fait une série géométrique) de rayon de

P+∞ k−1
convergence 1. g est ainsi infiniment dérivable sur ] − 1, 1[ et on a g (z) = k=1 kz .
Par ailleurs on a g(z) = 1−z 1
et donc g ′ (z) = (1−z)
1 ′
2 . Or on a E(X) = pg (1 − p) et donc
p 1 2
P +∞ 2 k−1
E(X) = (1−(1−p)) 2 = p . Selon le même principe, E(X ) = p k=1 k (1 − p) et on fait
apparaitre la dérivée seconde de g en écrivant
+∞
X +∞
X
2 k−1
E(X ) = p k(k − 1)(1 − p) +p k(1 − p)k−1
k=1 k=1

puis en remarquant que le terme pour k = 1 dans la première somme vaut 0,


+∞
X +∞
X
2 k−2
E(X ) = p(1 − p) k(k − 1)(1 − p) +p k(1 − p)k−1
k=2 k=1

ce qui permet d’écrire


E(X 2 ) = p(1 − p)g ′′ (1 − p) + pg ′ (1 − p).
2p(1−p) p 2(1−p)
Comme g ′′ (z) = 2
(1−z)3
, il vient E(X 2 ) =
(1−(1−p))3
+ (1−(1−p))2 = p2
+ p1 . Finalement,
2(1−p)
nous obtenons V(X) = E(X 2 ) − 2 1 1
E(X) = p2 + p − p2 = p2 1
− 1
p
= 1−p
p2
.

1.4.3. Série génératrice. On a GX (s) = p +∞ k k−1


= ps +∞ k−1
P P
k=1 s (1−p) k=1 (s(1−p)) . C’est
1
une série géométrique de raison s(1 − p) qui converge donc si et seulement si |s| < 1−p et
ps
sur cet intervalle on a GX (s) = 1−(1−p)s .

1.5. Loi de Poisson.

1.5.1. Support et moments. Son support est N. Montrons que X admet des moments de
tous ordres. Il s’agit de montrer que pour tout n ≥ 1, E (|X|n ) < ∞. Or, E(|X|n ) =
P+∞ n −λ λk
k=0 k e k!
(c’est une série à termes positifs, nous pouvons toujours l’écrire, mais il
s’agit de prouver que cette série converge). Nous pouvons utiliser le critère de d’Alembert
n λk uk+1 k+1 n λ

sur le terme général uk = k k! . On a uk = k k+1
−−−→ 0 << 1. Donc par critère
k→∞
de d’Alembert, la série de terme général uk converge et donc E(|X|n ) < ∞ et X admet
des moments de tous ordres.
λk
1.5.2. Calcul de E(X) et V(X). On a E(X) = e−λ +∞
P
k=0 k k! . Remarquant que le terme
λk−1
pour k = 0 est nul, il vient E(X) = e−λ λ +∞
P
k=1 (k−1)! et par changement d’indice k −1 → k
λk
dans la somme précédente, il vient E(X) = e−λ λ +∞ −λ λ
P
k=0 k! = λe e = λ. De même
k k k λk
E(X 2 ) = e−λ k=0 k 2 k! = e−λ k=1 k (k−1)! = e−λ k=1 (k − 1) (k−1)! + e−λ +∞
+∞ λ λ +∞ λ
P P P P
k=1 (k−1)! =
λk
P+∞ λk
e−λ +∞ −λ 2 2 2
P
k=2 (k−2)! + e k=1 (k−1)! = λ + λ. Donc V(X) = E(X ) − E(X) = λ.

P+∞ −λ k λk
1.5.3. Série génératrice. On a GX (s) = k=0 e s k! , série de rayon de convergence
infini. On reconnait l’expression d’une exponentielle: GX (s) = e−λ esλ .

2. Lois à densité - preuves


2.1. Loi uniforme sur [a, b].

2.1.1. Support et moments. Son support est le segment [a, b] qui est borné, donc X admet
Rb h 2 ib
1 1 x
des moments de tous ordres. Son espérance vaut E(X) = b−a a
xdx = b−a 2
=
a
Rb 2 h i b
b2 −a2 x3 b3 −a3 2 2
2(b−a)
= a+b
2
1
. De même, E(X 2 ) = b−a a
x dx = 1
b−a 3
= 3(b−a) = b +ab+a
3
. Ainsi,
a
b2 +ab+a2 a2 +2ab+b2 a2 +b2 −2ab (b−a)2
V(X) = E(X 2 ) − E(X)2 = 3
− 4
= 12
= 12
.

2.1.2. Fonction de répartition. Comme X ∈ [a, b] presque-sûrement, FX (t) R t = P(X ≤ t) =


1 t−a
0 si t ≤ a et vaut 1 si t ≥ b. Il reste a considérer t ∈ [a, b]: FX (t) = b−a a dx = b−a .
5

1
R b ixt
2.1.3. Fonction caractéristique. On a φX (t) = b−a a
e dx pour tout t ∈ R. Si t ̸= 0,
h ixt ib itb −eita
1 e
on a φX (t) = b−a it
= eit(b−a) . Cette formule reste encore vraie pour t = 0, par
a
prolongement par continuité de cette fonction (qui vaut alors 1).
2.2. Loi exponentielle.
2.2.1. Support et moments. Son support est l’intervalle [0, +∞[. Montrons que X admet
des moments de tous Rordres. Il s’agit de montrer que E(|X|n ) < +∞ pour tout n ≥ 1.
+∞
Or on a E (|X|n ) = λ 0 xn e−λx dx (nous pouvons écrire cette intégrale, car on intègre
une fonction positive, mais il s’agit de montrer que cette intégrale est finie). La fonction
f : x 7→ xn e−λx est continue sur [0, +∞[ donc intégrable sur tout segment [0, A] et en
+∞, f (x) = o(1/x2 ) par croissance comparée. Par critère de Riemann, la fonction f est
bien intégrable sur [0, +∞[. Donc X admet des moments de tous ordres.
R +∞
2.2.2. Calcul de E(X) et V(X). On a E(X) = λ 0 xe−λx dx. En intégrant par parties,
Z +∞
−λx +∞
e−λx dx
 
E(X) = −xe 0
+
0
Le terme intégré vaut 0, donc
+∞ +∞
e−λx
Z 
−λx 1
E(X) = e dx = = .
0 −λ 0 λ
+∞ +∞ +∞
De même E(X 2 ) = λ 0 x2 e−λx dx = −x2 e−λx 0 + 2 0 xe−λx dx. Le premier terme
R   R

vaut 0, le second est égal à λ2 E(X) = λ22 . Donc V(X) = E(X 2 ) − E(X)2 = λ22 − λ12 = λ12 .
2.2.3. Fonction de répartition. Comme X ≥ 0 presque sûrement, on a FX (t) = P(X ≥
Rt t
t) = 0 pour tout t ≤ 0. Pour t > 0, on a FX (t) = λ 0 e−λx dx = −e−λx 0 = 1 − e−λt .


R +∞
2.2.4. Fonction caractéristique. Pour tout t ∈ R, on a φX (t) = E(eitX ) = λ 0 eitx e−λx dx =
1
1− it
.
λ

2.3. Loi gaussienne réelle.


2.3.1. Support et moments. Le support est R tout entier. Montrons que X admet des
moments de tous ordres. Il s’agit de montrer que E(|X|n ) < +∞ pour tout n ≥ 1. Or
R +∞ n − (x−m)2
on a E (|X|n ) = √2πσ1
2 −∞
|x| e 2σ2 dx (nous pouvons écrire cette intégrale, car on
intègre une fonction positive, mais il s’agit de montrer que cette intégrale est finie). La
(x−m)2
fonction f : x 7→ |x|n e− 2σ2 est continue sur R donc intégrable sur tout segment [−A, A]
et en +∞, f (x) = o(1/x2 ) par croissance comparée (de même en −∞). Par critère de
Riemann, la fonction f est bien intégrable sur R. Donc X admet des moments de tous
ordres.
2.3.2. Calcul de E(X) et V(X). Par propriété du cours, si Y ∼ N (m, σ 2 ), alors Y peut
s’écrire comme Y = m + σX, avec X ∼ N (0, 1). Comme E(Y ) = m + σE(X) et V(Y ) =
R +∞ x2
σ 2 V(X), il suffit de prouver que E(X) = 0 et V(X) = 1. On a E(X) = √12π −∞ xe− 2 dx.
Or cette intégrale est nulle (intégrale d’une fonction impaire sur R). Donc E(X) = 0.
R +∞ x2 R +∞ x2
De même E(X 2 ) = √12π −∞ x2 e− 2 dx = √12π −∞ x × xe− 2 dx. Par intégration par
h i+∞ R 
x2 +∞ − x2
2 1 −
parties, il vient E(X ) = √2π −xe 2 + −∞ e 2 dx . Le terme intégré vaut 0
−∞

(par croissance comparée) et l’intégrale vaut 2π (intégrale de Gauss, c’est du cours).
Donc E(X 2 ) = 1. Comme E(X) = 0, V(X) = E(X 2 ) = 1.
2.3.3. Fonction de répartition. Pas calculable explicitement.
2.3.4. Fonction génératrice. Il s’agit de savoir calculer les moments d’une gaussienne
centrée réduite et d’utiliser cela pour calculer la fonction caractéristique. Cela correspond
exactement aux pages 72 et 73 du polycopié.
2.4. Loi gaussienne vectorielle. La démonstration des résultats est non-exigible comme
question de cours.
6

2.5. Loi de Cauchy.


2.5.1. Support et moments. Son support est R tout entier. X n’admet aucun moment,
puisque X n’admet pas de moment d’ordre 1: en effet E(|X|) = +∞. En effet, E(|X|) =
1 +∞ |x|
R +∞ x
dx = π2 0 1+x
R
π −∞ 1+x2 2 dx, par parité de la fonction intégrée (ici la fonction intégrée
x 1
est positive, on peut donc écrire cette intégrale). Mais cette intégrale vaut +∞: 1+x 2 ∼ x

pour x → ∞, non intégrable en +∞. Donc E(|X|) = +∞.


Rt t
2.5.2. Fonction de répartition. On a FX (t) = π1 −∞ 1+x 1 1 1 π

2 dx = π [arctan(x)]−∞ = π arctan(t) + 2 .

2.5.3. Fonction caractéristique. Admis.

Vous aimerez peut-être aussi