Académique Documents
Professionnel Documents
Culture Documents
Null 4
Null 4
Exercice 1 :
1. Soit X B(n, p).
n
X
tX
MX (t) = E(e ) = etk P (X = k)
k=0
n
X
= etk Cnk pk (1 − p)n−k
k=0
n
X
= Cnk (pet )n (1 − p)n−k
k=0
n n
= pet + 1 − p = pet + q avec q = 1 − p
n
Donc MX (t) existe ∀t ∈ R et on a MX (t) = (pet + q) .
À partir de MX (t), déterminons l’espérance et la variance de X :
2. 1ère méthode :
On a : X
P (X1 + X2 = k) = P (X1 = i, X2 = j)
A
X nX
1 +n2
1
aléatoires admettant même fonction génératrice des moments, alors elles ont même loi”.
qui n’est autre qu’une fonction génératrice des moments d’une variable aléatoire suivant
une loi binomiale de paramètres n1 + n2 et p.
C’est-à-dire que X1 + X2 B(n1 + n2 , p)
Exercice 2 :
x2 +y 2
−
1 2
1. La densité conjointe du couple aléatoire
(X, Y ) est f (x, y) = 2π e .
u = 2x
Faisons le changement de variable qui établit une bijection de R2 sur R2 .
v = x−y
Sa réciproque est :
x = u2
y = u2 − v
Le jacobien est
∂x ∂x 1
∂(x, y) ∂u ∂v 0 1
J= = ∂y ∂y = 2
1 =− .
∂(u, v) ∂u ∂v 2
−1 2
La densité conjointe g(u, v) de (U, V ) est donc égale à :
u u 1 2
1 1 u 2 u
g(u, v) = f , −v = exp − + −v .
2 2 2 4π 2 2 2
or Z +∞
t2 √
e− 2 dt = 2π,
−∞
d’où
1 u2
1
gU (u) = √ exp − , (loi N (0, σ = 2));
2 2π 2 4
De même, la densité marginale de V sera :
Z +∞ Z +∞ 2
1 1 u 2 u
gV (v) = g(u, v)du = exp − + −v du
−∞ 4π −∞ 2 2 2
2
Z +∞
1 u2
1 2
gV (v) = exp − − uv + v du
4π −∞ 2 2
Z +∞ 2 !
1 v2
1 1 u v
= exp − exp − √ −√ .
4π 2 2 −∞ 2 2 2
√
Soit le changement de variable t = √u2 − √v2 , donc du = 2dt, et
√ Z +∞
1 v2
2 t2
gV (v) = exp − e− 2 dt
4π 2 2 −∞
or Z +∞
t2 √
e− 2 dt = 2π,
−∞
d’où
√
2
1 v
gV (v) = √ exp − , (loi N (0, σ = 2));
2 π 4
Exercice 3 :
I.
1. Soitα réel strictement positif , on a :
Z ∞
Γ(α) = e−t tα−1 dt
0
α
Posons u = e−t , alors u0 = −e−t ; et v 0 = tα−1 , alors v = tα . Par une intégration par
parties, on a : −t α ∞
1 ∞ α −t
Z
e t
Γ(α) = + t e dt
α 0 α 0
1 ∞ −t (α+1)−1
Z
= e t dt
α 0
Donc Γ(α) = α1 Γ(α + 1)
2. La fonction génératrice des moments de la variable aléatoire X est :
Z ∞
tX
M (t) = E(e ) = etx f (x)dx
0
∞ ∞
β α −βx α−1 βα
Z Z
= tx
e e x dx = e−x(β−t) xα−1 dx
0 Γ(α) Γ(α) 0
cette intégrale est convergente si, et seulement si β − t > 0 ; placons-nous dans ce cas et
faisons le changement de variable x(β − t) = u. On obtient
Z ∞ α−1
βα
−u u 1
M (t) = e du
Γ(α) 0 β−t β−t
Z ∞
βα
= e−u uα−1 du
Γ(α)(β − t)α 0
α
β α Γ(α)
β
= = .
Γ(α)(β − t)α β−t
À partir de M (t), déterminons l’espérance mathématique et la variance de X. On a :
α
β
M (t) = ,
β−t
3
alors,
αβ α
0 α −α(−1)
M (t) = β =
(β − t)α+1 (β − t)α+1
D’où
αβ α α
E(X) = M 0 (0) = α+1
=
β β
(−α − 1)(−1) α(α + 1)β α
M 00 (t) = αβ α =
(β − t)α+2 (β − t)α+2
α(α + 1)β α α(α + 1)
E(X 2 ) = M 00 (0) = α+2
=
β β2
Comme V ar(X) = E(X 2 ) − E(X)2 , alors,
α(α + 1) α2 α2 + α − α2 α
V ar(X) = 2
− 2
= 2
= 2
β β β β
α1 α2
β β
= .
β−t β−t
α1 +α2
β
=
β−t
qui n’est autre que la fonction génératrice des moments de la loi Γ(α1 + α2 , β).
Donc X1 + X2 Γ(α1 + α2 , β).
Autre méthode :
On peut aussi le montrer directement, en cherchant la densité de probabilité de la somme
Z = X1 + X2 des variables indépendantes X1 Γ(α1 , β) et X2 Γ(α2 , β).
Z +∞
g(z) = f (x1 )f (z − x1 )dx1
−∞
z
β α1 −βx1 α1 −1 β α2 −β(z−x1 )
Z
g(z) = e x1 e (z − x1 )α2 −1 dx1
0 Γ(α 1 ) Γ(α 2 )
Z z α1 +α2
β
g(z) = e−βz xα1 1 −1 (z − x1 )α2 −1 dx1
0 Γ(α 1 )Γ(α 2 )
Soit le changement de variable x1 = tz, alors dx1 = zdt et quand x1 = 0 alors t = 0,
quand x1 = z, alors t = 1, d’où
Z 1
β α1 +α2 −βz
g(z) = e (tz)α1 −1 (z − tz)α2 −1 zdt
Γ(α1 )Γ(α2 ) 0
1
β α1 +α2
Z
g(z) = e−βz (tz)α1 −1 z α2 (1 − t)α2 −1 dt
Γ(α1 )Γ(α2 ) 0
4
1
β α1 +α2
Z
g(z) = e−βz (t)α1 −1 (1 − t)α2 −1 z α1 +α2 −1 dt
Γ(α1 )Γ(α2 ) 0
α1 +α2 Z 1
β
g(z) = e−βz z α1 +α2 −1 (t)α1 −1 (1 − t)α2 −1 dt
Γ(α1 )Γ(α2 ) 0
R1 Γ(α1 )Γ(α2 )
or 0
tα1 −1 (1 − t)α2 −1 dt = B(α1 , α2 ) = Γ(α1 +α2 )
, donc,
β α1 +α2
g(z) = e−βz z α1 +α2 −1 ; z > 0
Γ(α1 + α2 )
qui est la densité de probabilité d’une variable aléatoire suivant une loi Γ(α1 + α2 , β).
II.
1. Calcul direct de l’espérance mathématique de la variable aléatoire Y :
Z +∞ Z 1
1
E(Y ) = yg(y)dy = yy α−1 (1 − y)β−1 dy
−∞ B(α, β) 0
Z 1
1 B(α + 1, β)
= y α (1 − y)β−1 dy =
B(α, β) 0 B(α, β)
Γ(α + 1)Γ(β)Γ(α + β) Γ(α + 1)Γ(α + β)
= =
Γ(α + β + 1)Γ(α)Γ(β) Γ(α + β + 1)Γ(α)
Or Γ(α + 1) = αΓ(α) et Γ(α + β + 1) = (α + β)Γ(α + β), donc,
αΓ(α)Γ(α + β) α
E(Y ) = =
(α + β)Γ(α + β)Γ(α) α+β
α3 + α2 β + α2 + αβ − α3 − α2 β − α2 αβ
= 2
= 2
(α + β) (α + β + 1) (α + β) (α + β + 1)
2. Soit Y suit une loi bêta Be(α, β), et soit la variable aléatoire T = 1 − Y
= P (Y > 1 − t) = 1 − P (Y 6 1 − t) = 1 − FY (1 − t).
En dérivant par rapport à t, on obtient :
fT (t) = fY (1 − t)
5
1
⇒ fT (t) = g(1 − t) = (1 − t)α−1 (1 − 1 + t)β−1
B(α, β)
1
⇒ fT (t) = tβ−1 (1 − t)α−1
B(α, β)
Or
B(α, β) = B(β, α)
donc
1
fT (t) = tβ−1 (1 − t)α−1
B(β, α)
D’où T Γ(β, α)