Académique Documents
Professionnel Documents
Culture Documents
sur un espace
probabilisé (Ω, A, P) de loi PX = µ.
Existence de
moments de Espérance Variance Série génératrice1
Intitulé de la loi Notation Définition et support P k
tout ordre E [X] V [X] GX (s) = +∞ k=0 s P(X = k)
(oui/non)?
Loi de Dirac en
δa P(X = a) = 1 oui a 0 non pertinent 2
a∈R
Loi de Bernoulli
P(X = 0) = 1 − p
de paramètre B(p) oui p p(1 − p) s 7→ 1 − p + ps, s ∈ R
P(X = 1) = p
p ∈ [0, 1]
Loi binomiale de
paramètres n ≥ B(n, p) oui np np(1 − p) s 7→ (1 − p + ps)n , s ∈ R
∀k ∈ {0, . . . , n},
P(X = k) = nk pk (1 − p)n−k
1 et p ∈ [0, 1]
Loi géométrique i h
∀k ≥ 1, 1 1−p ps 1 1
de paramètre G(p) oui p p2
s 7→ 1−(1−p)s
, s∈ − 1−p , 1−p
P(X = k) = p(1 − p)k−1
p ∈]0, 1[
Loi de Poisson ∀k ≥ 0,
de paramètre P(λ) k oui λ λ s 7→ eλ(s−1) , s ∈ R
P(X = k) = e−λ λk!
λ>0
3Notons qu’il est possible de généraliser la notion de fonction de répartition à des vecteurs aléatoires à valeurs dans Rd : pour X = (X1 , . . . , Xd ), on peut définir F (t1 , . . . , td ) =
P (X1 ≤ t1 , . . . , Xd ≤ td ) pour tout (t1 , . . . , td ) ∈ Rd , mais cette notion ne sera pas abordée dans le cours.
3
1.2. Loi de Bernoulli. Le support de B(p) est {0, 1}. Donc X ∼ B(p) est bornée donc
admet des moments de tous ordres. On a E [X] = 0 × P (X = 0) + 1 × P(X = 1) = p. De
même, E [X 2 ] = 02 × P (X = 0) + 12 × P(X = 1) = p, donc V(X) = p − p2 = p(1 − p).
Enfin, on a GX (s) = s0 P(X = 0) + s1 P(X = 1) = 1 − p + sp (c’est une somme finie, le
rayon de convergence est infini).
1.3. Loi binomiale. Le support de B(n, p) est {0, 1, . . . , n}, support fini donc borné,
donc X admet des moments de tous ordres.
Pn Pn n k
1.3.1. Calcul de E(X) et V(X): méthode 1. On a E(X) = k=0 kP(X = k) = k=0 k k
p (1−
n−k
Pn n k−1
n−k
Pn n k
n−k
p) = p k=1 k k p (1−p) . On définit la fonction f : z 7→ k=0 k z (1−p) =
n ′
Pn n k−1 n−k n−1
(z+1−p) . f est dérivable et f (z) = k=1 k kz (1−p) = n(z+1−p) 2 k. On a alors
′ n−1
Pn n
E(X) = pf (p) = pn(p + 1 − p) = np. Par ailleurs, E(X ) = k=0 k k p (1 − p)n−k .
2
1.3.2. Calcul de E(X) et V(X): méthode 2. On sait d’après le cours, que X ∼ B(n, p) a la
même loi que la somme de n variables X1 , . . . , Xn de Bernoulli indépendantes de paramètre
p (la loi binomiale est la loi du nombre de succès lors de n expériences de Bernoulli
indépendantes). Ainsi, par linéarité de l’espérance, E(X) = E(X1 + . . . + Xn ) = E(X1 ) +
. . .+E(Xn ) = np, d’après le paragraphe précédent. Ensuite, V(X) = V(X1 +. . .+Xn ). Or
les variables sont indépendantes, donc V(X) = V(X1 +. . .+Xn ) = V(X1 )+. . .+V(Xn ) =
np(1 − p).
1.5.1. Support et moments. Son support est N. Montrons que X admet des moments de
tous ordres. Il s’agit de montrer que pour tout n ≥ 1, E (|X|n ) < ∞. Or, E(|X|n ) =
P+∞ n −λ λk
k=0 k e k!
(c’est une série à termes positifs, nous pouvons toujours l’écrire, mais il
s’agit de prouver que cette série converge). Nous pouvons utiliser le critère de d’Alembert
n λk uk+1 k+1 n λ
sur le terme général uk = k k! . On a uk = k k+1
−−−→ 0 << 1. Donc par critère
k→∞
de d’Alembert, la série de terme général uk converge et donc E(|X|n ) < ∞ et X admet
des moments de tous ordres.
λk
1.5.2. Calcul de E(X) et V(X). On a E(X) = e−λ +∞
P
k=0 k k! . Remarquant que le terme
λk−1
pour k = 0 est nul, il vient E(X) = e−λ λ +∞
P
k=1 (k−1)! et par changement d’indice k −1 → k
λk
dans la somme précédente, il vient E(X) = e−λ λ +∞ −λ λ
P
k=0 k! = λe e = λ. De même
k k k λk
E(X 2 ) = e−λ k=0 k 2 k! = e−λ k=1 k (k−1)! = e−λ k=1 (k − 1) (k−1)! + e−λ +∞
+∞ λ λ +∞ λ
P P P P
k=1 (k−1)! =
λk
P+∞ λk
e−λ +∞ −λ 2 2 2
P
k=2 (k−2)! + e k=1 (k−1)! = λ + λ. Donc V(X) = E(X ) − E(X) = λ.
P+∞ −λ k λk
1.5.3. Série génératrice. On a GX (s) = k=0 e s k! , série de rayon de convergence
infini. On reconnait l’expression d’une exponentielle: GX (s) = e−λ esλ .
2.1.1. Support et moments. Son support est le segment [a, b] qui est borné, donc X admet
Rb h 2 ib
1 1 x
des moments de tous ordres. Son espérance vaut E(X) = b−a a
xdx = b−a 2
=
a
Rb 2 h i b
b2 −a2 x3 b3 −a3 2 2
2(b−a)
= a+b
2
1
. De même, E(X 2 ) = b−a a
x dx = 1
b−a 3
= 3(b−a) = b +ab+a
3
. Ainsi,
a
b2 +ab+a2 a2 +2ab+b2 a2 +b2 −2ab (b−a)2
V(X) = E(X 2 ) − E(X)2 = 3
− 4
= 12
= 12
.
1
R b ixt
2.1.3. Fonction caractéristique. On a φX (t) = b−a a
e dx pour tout t ∈ R. Si t ̸= 0,
h ixt ib itb −eita
1 e
on a φX (t) = b−a it
= eit(b−a) . Cette formule reste encore vraie pour t = 0, par
a
prolongement par continuité de cette fonction (qui vaut alors 1).
2.2. Loi exponentielle.
2.2.1. Support et moments. Son support est l’intervalle [0, +∞[. Montrons que X admet
des moments de tous Rordres. Il s’agit de montrer que E(|X|n ) < +∞ pour tout n ≥ 1.
+∞
Or on a E (|X|n ) = λ 0 xn e−λx dx (nous pouvons écrire cette intégrale, car on intègre
une fonction positive, mais il s’agit de montrer que cette intégrale est finie). La fonction
f : x 7→ xn e−λx est continue sur [0, +∞[ donc intégrable sur tout segment [0, A] et en
+∞, f (x) = o(1/x2 ) par croissance comparée. Par critère de Riemann, la fonction f est
bien intégrable sur [0, +∞[. Donc X admet des moments de tous ordres.
R +∞
2.2.2. Calcul de E(X) et V(X). On a E(X) = λ 0 xe−λx dx. En intégrant par parties,
Z +∞
−λx +∞
e−λx dx
E(X) = −xe 0
+
0
Le terme intégré vaut 0, donc
+∞ +∞
e−λx
Z
−λx 1
E(X) = e dx = = .
0 −λ 0 λ
+∞ +∞ +∞
De même E(X 2 ) = λ 0 x2 e−λx dx = −x2 e−λx 0 + 2 0 xe−λx dx. Le premier terme
R R
vaut 0, le second est égal à λ2 E(X) = λ22 . Donc V(X) = E(X 2 ) − E(X)2 = λ22 − λ12 = λ12 .
2.2.3. Fonction de répartition. Comme X ≥ 0 presque sûrement, on a FX (t) = P(X ≥
Rt t
t) = 0 pour tout t ≤ 0. Pour t > 0, on a FX (t) = λ 0 e−λx dx = −e−λx 0 = 1 − e−λt .
R +∞
2.2.4. Fonction caractéristique. Pour tout t ∈ R, on a φX (t) = E(eitX ) = λ 0 eitx e−λx dx =
1
1− it
.
λ