Vous êtes sur la page 1sur 12

2ECS - Mathématiques

Corrections de certains exercices

Feuille 8. Couples de variables aléatoires

Exercice 2. Soit X et Y deux variables aléatoires indépendantes qui suivent la loi géomé-
trique G(p) où p ∈]0, 1[. On pose Z = X + Y , U = min(X, Y ) et V = max(X, Y ).
1. Pour tout entier k ∈ N∗ , calculer P (X > k). Interpréter ce résultat.
2. Déterminer les lois de U et V .
Indication. On doit trouver que U vérifie la loi géométrique de paramètre (1−(1−p)2 ).
3. Déterminer la loi de Z.

Une solution.
1. Soit k ∈ N∗ . On peut lister [X > k] = [X = k] ∪ [X = k + 1] ∪ . . . . En passant aux
+∞ +∞ +∞
i−1
(1 − p)i−1 .
X X X
probas, P (X > k) = P (X = i) = p(1 − p) =p
i=k i=k i=k
n
(1 − p)k−1 − (1 − p)n
(1 − p)i−1
X
Par somme géométrique = et ceci converge vers
i=k 1 − (1 − p)
(1 − p)k−1
quand n → +∞ car 0 < 1 − p < 1. Donc P (X > k) = (1 − p)k−1 .
p
Interprétation : dire que le rang du premier succès est supérieur à k est équivalent à
dire qu’on a eu une succession de k − 1 échecs de probabilité 1 − p avant.
2. L’univers image de U est N∗ , comme pour X et Y . Soit k ∈ N∗ . On commence par
P (U > k) = P ([X > k] ∩ [Y > k]) = P ([X > k])P ([Y > k]), par indépendance
de X et Y . La question précédente s’applique à X et Y car elles ont la même loi :
P (U > k) = (1 − p)2(k−1) .
On poursuit avec P (U = k) = P (U > k)−P (U > k+1) = (1−p)2(k−1) −(1−p)2(k+1−1) .
k−1
En factorisant, P (U = k) = ((1 − p)2 ) (1 − (1 − p)2 ). Ainsi U ,→ G(1 − (1 − p)2 ) .
L’univers image de V est N∗ . Pour tout k ∈ N∗ , P (V 6 k) = P (X 6 k)P (Y 6 k).
On peut lister [X 6 k] = [X = 1] ∪ · · · ∪ [X = k] et en passant aux probabilités,
k
1 − (1 − p)k
p(1 − p)i−1 = p = 1 − (1 − p)k . Ceci est aussi valable
X
P (X = k) =
i=1 1 − (1 − p)
 2
pour Y qui est de même loi que X. Donc P (V 6 k) = 1 − (1 − p)k .
On poursuit avec P (V = k) = P (V 6 k) − P (V 6 k − 1) ce qui donne
 2  2
P (V = k) = 1 − (1 − p)k − 1 − (1 − p)k−1 . (Inutile d’essayer d’améliorer cette
expression, ça ne donne rien de mieux).

1
3. La somme Z a pour univers image l’ensemble des entiers supérieurs à deux car X > 1
et Y > 1. Soit n > 2. D’après le cours (prop. 19), par indépendance de X et Y ,
+∞
X
P (Z = n) = P (X + Y = n) = P (Y = n − k)P (X = k)
k=1
n−1
X
= P (Y = n − k)P (X = k), car P (Y = n − k) = 0 sinon,
k=1
n−1 n−1
p(1 − p)n−k−1 p(1 − p)k−1 = p2 (1 − p)n−2 .
X X
=
k=1 k=1

Donc : ∀n > 2, P (Z = n) = (n − 1)p2 (1 − p)n−2 .

2
Exercice 3. Soit p ∈]0, 1[. Soit (X, Y ) un couple de variables aléatoires à valeurs dans N
dont la loi conjointe est de la forme

λ(1 − p)k si k > n
∀(n, k) ∈ N2 , P ([X = n] ∩ [Y = k]) =
0 sinon.

1. Déterminer la valeur de λ.
2. Déterminer les lois marginales du couple (X, Y ). Quelle est la loi de X +1 ? En déduire
E(X) et V (X).
3. Montrer que X et Y − X suivent la même loi.
4. Montrer que X et Y − X sont indépendantes. En déduire Cov(X, Y ). Les variables
aléatoires X et Y sont-elles indépendantes ?

Une solution.
1. Par loi du couple (X, Y ), la somme double complète vaut 1.
+∞ +∞
!
λ(1 − p)k . Par somme géo-
X X X
On écrit 1 = P ([X = n] ∩ [Y = k]) =
(n,k)∈N2 n=0 k=n
N n N +1
(1 − p) − (1 − p) (1 − p)n
(1 − p)k =
X
métrique, et ceci converge vers
quand
k=n 1 − (1 − p) p
+∞
X (1 − p)n
!
λ 1 λ
N → +∞ car 0 < 1 − p < 1. Donc 1 = λ = × = 2.
n=0 p p 1 − (1 − p) p
Donc λ = p2 .
2. Soit n ∈ N. Par la formule des probabilités totales sur le sce des réalisations de Y ,
+∞ +∞
(1 − p)n
p2 (1 − p)k = p2
X X
P (X = n) = P ([X = n] ∩ [Y = k]) = (calcul vu
k=0 k=n p
avant). Donc : ∀n ∈ N, P (X = n) = p(1 − p)n , ce qui donne la loi de X.
Soit k ∈ N. Par la formule des probabilités totales sur le sce des réalisations de X,
+∞ k
p2 (1 − p)k = (k + 1)p2 (1 − p)k .
X X
P (Y = k) = P ([X = n] ∩ [Y = k]) =
n=0 n=0

Donc : ∀k ∈ N, P (Y = k) = (k + 1)p (1 − p)k , ce qui donne la loi de Y .


2

Comme X est à valeurs dans N, on a X + 1 à valeurs dans N∗ .


Pour n ∈ N∗ , P (X + 1 = n) = P (X = n − 1) = p(1 − p)n−1 . Donc X + 1 ,→ G(p) .
On connaît alors l’espérance et la variance de X + 1.
1 1
Ainsi = E(X + 1) = E(X) + 1 car E(aX + b) = aE(X) + b. Donc E(X) = − 1 .
p p
1−p 1−p
Puis 2
= V (X + 1) = V (X), car V (aX + b) = a2 V (X). Donc V (X) = .
p p2
3. Soit n et k dans N. Si k < n alors P ([X = n] ∩ [Y = k]) = 0. L’événement [X =
n] ∩ [Y = k] est impossible quand k < n, donc on ne peut pas avoir Y < X. Dès lors
Y −X > 0 et Y − X est à valeurs dans N . Soit i ∈ N. Par la formule des probabilités

3
+∞
X
totales sur le sce des réalisations de X, P (Y − X = i) = P ([Y − X = i] ∩ [X = n]).
  n=0
−X =i
Y Y =i+n
On a le système ⇐⇒ , donc
X = n X =n

+∞ +∞
p2 (1 − p)n+i , car k = n + i > n.
X X
P (Y − X = i) = P ([Y = i + n] ∩ [X = n]) =
n=0 n=0

+∞
1
Cela donne P (Y − X = i) = p2 (1 − p)i (1 − p)n = p2 (1 − p)i = p(1 − p)i .
X

n=0 1 − (1 − p)
On reconnaît la même formule que celle obtenue avec X.
Finalement X et Y − X ont la même loi .
4. Soit i et n dans N. Avec le même système qu’avant,
P ([Y − X = i] ∩ [X = n]) = P ([Y = i + n] ∩ [X = n]) = p2 (1 − p)n+i . On remarque
que ceci vaut p(1 − p)i × p(1 − p)n à savoir P (Y − X = i) × P (X = n).
Donc Y − X et X sont indépendantes .
D’après le cours Cov(Y − X, X) = 0. Par linéarité à gauche de la covariance on a
0 = Cov(Y, X) − Cov(X, X). Donc Cov(Y, X) = Cov(X, X) = V (X). On a calculé
1−p
cette variance précédemment. Donc Cov(Y, X) = .
p2
1−p
Par symétrie de la covariance, Cov(X, Y ) = . Cette covariance n’est pas nulle.
p2
Donc X et Y ne sont pas indépendantes .

4
Exercice 4. Soit X et Y deux variables aléatoires indépendantes telles que X ,→ P(λ)
et Y ,→ P(µ).
! Montrer que pour tout n ∈ N, la loi de X sachant [X + Y = n] est la loi
λ
B n, .
λ+µ

Une solution. Soit n ∈ N. Soit k ∈ N. Si k > n alors l’événement [X = k] sachant


[X + Y = n] est impossible car X 6 X + Y . Donc, sachant [X + Y = n], la variable aléatoire
X est à valeurs dans J0, nK. Soit k ∈ J0, nK

P ([X = k] ∩ [X + Y = n])
P (X = k|X + Y = n) =
P (X + Y = n)
P ([X = k] ∩ [Y = n − k])
= (par système)
P (X + Y = n)
P (X = k)P (Y = n − k)
= .
P (X + Y = n)

Or X ,→ P(λ) et Y ,→ P(µ). De plus elles sont indépendantes donc d’après le cours X +Y ,→


P(λ + µ). On connaît donc toutes les probabilités de la fraction précédente,
k µn−k
e−λ λk! × e−µ (n−k)!
!
1 n k n−k
P (X = k|X + Y = n) = n = λ µ
e−(λ+µ) (λ+µ)
n!
(λ + µ)n k
! !k !n−k ! !k !n−k
n λ λ n λ µ
On souhaite obtenir 1− , soit .
k λ+µ λ+µ k λ+µ λ+µ
!
λ
Ça correspond bien, donc la loi de X sachant [X + Y = n] est la loi B n, .
λ+µ

5
Exercice 5. On considère une variable aléatoire X qui suit la loi uniforme discrète sur {1, 2}
et une variable aléatoire Y , indépendante de X, qui suit la loi de Poisson de paramètre λ > 0.
On pose Z = XY .
1. Déterminer la loi de Z. Calculer son espérance et sa variance.
+∞ +∞
X λ2n+1 X λ2n
2. (a) On note S1 = et S2 = . Montrer que S1 et S2 existent.
n=0 (2n + 1)! n=0 (2n)!
Calculer leurs valeurs en travaillant avec S1 + S2 et S2 − S1 .
(b) Calculer la probabilité que la variable aléatoire Z soit paire.

Une solution.
1. L’univers image de Z est N. Soit k ∈ N. On utilise la formule des probabilités totales
sur le sce des réalisations de X. Il contient deux événements {[X = 1], [X = 2]}.

P (Z = k) = P (XY = k)
= P ([XY = k] ∩ [X = 1) + P ([XY = k] ∩ [X = 2])
= P ([Y = k] ∩ [X = 1) + P ([2Y = k] ∩ [X = 2]) (par système)
= P ([Y = k])P ([X = 1) + P ([2Y = k])P ([X = 2]) (par indépendance)

• Si k est impair, de la forme k = 2n + 1 alors l’événement [2Y = n] est impossible


car 2Y est pair.
λ2n+1 1 1 e−λ λ2n+1
Dans ce cas, P (Z = k) = P (Z = 2n + 1) = e−λ × +0× = .
(2n + 1)! 2 2 2 (2n + 1)!
• Si k est pair, de la forme k = 2n, alors [2Y = k] = [Y = n].
λ2n 1 λn 1
Dans ce cas, P (Z = k) = P (Z = 2n) = e−λ × + e−λ × .
(2n)! 2 n! 2
En conclusion, pour tout n ∈ N,
e−λ λ2n+1 e−λ λ2n λn
!
P (Z = 2n + 1) = et P (Z = 2n) = + . On a bien la loi
2 (2n + 1)! 2 (2n)! n!
de Z car toutes les possibilités (réalisations paires ou impaires) ont été étudiées.
L’espérance de Z existe car par indépendance de X et Y , on a
E(Z) = E(XY ) = E(X)E(Y ), avec E(X) et E(Y ) qui existent.
1 1 3 3λ
Or E(X) = 1 × + 2 × = . Donc E(Z) = .
2 2 2 2
La variance de Z existe si et seulement E(Z 2 ) existe. Or Z 2 = X 2 Y 2 , avec X 2 et Y 2
indépendantes car X et Y le sont, et qui admettent une espérance. Donc V (Z) existe
!2

et par Huygens, V (Z) = E(Z 2 ) − E(Z)2 = E(X 2 )E(Y 2 ) − .
2
1 1 5
Par théorème de transfert, E(X 2 ) = 12 × + 22 × = .
2 2 2
λ2 + 10λ
Par Huygens, E(Y 2 ) = V (Y ) + E(Y )2 = λ + λ2 . Le calcul donne V (Z) = .
4

6
2. (a) La somme S1 est contenue dans la probabilité de l’événement [Z est impaire]. En
effet on peut lister cet événement avec [Z = 1] ∪ [Z = 3] ∪ · · · ∪ [Z = 2n + 1] ∪ . . . .
En passant aux probabilités,
+∞
X e−λ
P (Z est impaire) = P (Z = 2n + 1) = S1 . Donc S1 existe .
n=0 2
+∞
e−λ
(S1 + eλ ).
X
De même S2 existe car P (Z est paire) = P (Z = 2n) =
n=0 2
Leurs valeurs s’obtiennent avec un système. La somme S1 + S2 contient tous les
indices (pairs et impairs) de la série exponentielle. Donc S1 + S2 = eλ .
+∞
X λ2n +∞
X λ2n+1
La différence donne S2 − S1 = − . Mais λ2n = (−λ)2n et
n=0 (2n)! n=0 (2n + 1)!
X (−λ)2n +∞
+∞ X (−λ)2n+1
−λ2n+1 = (−λ)2n+1 . Ainsi S2 −S1 = + = e−λ car on a tous
n=0 (2n)! n=0 (2n + 1)! 
+ S2 = eλ
S
1
les termes, d’indices pairs et impairs. Le système est le suivant .
S2 − S1 = e−λ

1
On additionne ses deux lignes et on les soustrait pour conclure : S1 = (eλ + e−λ )
2
1
et S2 = (eλ − e−λ ) .
2
e−λ λ e−λ 1 λ −λ λ 3 + e−2λ
(b) On a vu : P (Z est paire) = (S1 + e ) = ( (e + e ) + e ) = .
2 2 2 4

7
Exercice 6. Une urne contient n boules numérotées de 1 à n. On tire simultanément deux
boules au hasard. On note X le plus petit des deux numéros et Y le plus grand.
1. Montrer que la loi conjointe du couple (X, Y ) est donnée par
2

2

 si i < j
∀(i, j) ∈ J1, nK , P ([X = i] ∩ [Y = j]) =  n(n − 1) .
0 sinon

2. En déduire les lois marginales du couple (X, Y ).


3. Calculer E(X), E(Y ) et E(XY ). En déduire Cov(X, Y ).

Une solution.
1. Soit i et j dans J1, nK. Si i > j, alors l’événement [X = i] ∩ [Y = j] est impossible car
X < Y . Donc P ([X = i] ∩ [Y = j]) = 0. Si i < j, alors l’événement
! [X = i] ∩ [Y = j]
n
ne se produit que pour un seul tirage sur un total de tirages possibles. Donc
2
1 2
P ([X = i] ∩ [Y = j]) = n = . En conclusion,
n(n − 1)
2

2

2

 si i < j
∀(i, j) ∈ J1, nK , P ([X = i] ∩ [Y = j]) = n(n − 1)
0

sinon.

2. Soit i ∈ J1, nK. Par la formule des probabilités totales sur le sce des réalisations de Y ,
n n
X X 2 2
P (X = i) = P ([X = i] ∩ [Y = j]) = = (n − (i + 1) + 1).
j=1 j=i+1 n(n − 1) n(n − 1)
2(n − i)
Donc P (X = i) = .
n(n − 1)
Soit j ∈ J1, nK. Par la formule des probabilités totales sur le sce des réalisations de
n j−1
X X 2 2
X, P (Y = j) = P ([X = i] ∩ [Y = j]) = = (j − 1).
i=1 i=1 n(n − 1) n(n − 1)
2(j − 1)
Donc P (Y = j) = .
n(n − 1)
n
2(n − i)
X
3. L’espérance de X existe car la somme est finie et E(X) = . Ça donne
i
i=1 n(n − 1)
n
!
2 X
2 2 n(n + 1) n(n + 1)(2n + 1)
E(X) = (ni − i ) = n − .
n(n − 1) i=1 n(n − 1) 2 6
n+1
En factorisant et simplifiant, E(X) = .
3
n
X 2(j − 1)
De même E(Y ) existe et E(Y ) = j . Ça donne
j=1 n(n − 1)

8
n
!
2 2 n(n + 1)(2n + 1) n(n + 1)
(j 2 − j) =
X
E(Y ) = − .
n(n − 1) j=1 n(n − 1) 6 2
2(n + 1)
En factorisant et simplifiant, E(Y ) = .
3
Par la formule de Huygens, Cov(X, Y ) = E(XY ) − E(X)E(Y ).
X
Par théorème de transfert, E(XY ) = (ijP ([X = i] ∩ [Y = j])). Il y a deux
(i,j)∈J1,nK2
points de vue pour poursuivre. On choisit :
   
n j−1 n j−1
X X 2 2 X X
E(XY ) =  ij  =  j i
j=1 i=1 n(n − 1) n(n − 1) j=1 i=1
n n 
!
2 (j − 1)j 1 
j 3 − j 2)
X X
= j =
n(n − 1) j=1 2 n(n − 1) j=1
" #2 
1 n(n + 1) n(n + 1)(2n + 1) 
=  −
n(n − 1) 2 6
!
1 n(n + 1) n(n + 1) 2n + 1
= × −
n(n − 1) 2 2 3
2
(n + 1)(3n − n − 2)
= .
12(n − 1)

On peut encore simplifier car le trinôme du second degré 3x2 − x − 2 s’annule en x = 1


et x = −2/3. Il se factorise en 3(x − 1)(x + 2/3) = (x − 1)(3x + 2). On peut donc
(n + 1)(3n + 2)
simplifier par n − 1 la fraction précédente pour avoir E(XY ) = .
12
Dès lors
(n + 1)(3n + 2) n + 1 2(n + 1)
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = − × .
12 3 3

(n + 1)(n − 2)
On conclut en factorisant et simplifiant, Cov(X, Y ) = .
36

9
Exercice 7. On répète, de façon indépendante, une expérience aléatoire au cours de laquelle
un événement A se réalise, à chaque fois, avec la probabilité p ∈]0, 1[. On s’arrête dès l’ob-
tention d’une seconde réalisation de A. On note X la variable aléatoire égale au rang de
première réalisation de A. On note Y celle égale au rang de la seconde réalisation.
1. Déterminer la loi du couple (X, Y ). Déterminer la loi de X et celle de Y .
2. Calculer les espérances de X et Y .
3. Soit n > 2. Déterminer la loi conditionnelle de X sachant [Y = n].

Une solution.
1. D’après la situation typique du cours X ,→ G(p) .
Soit k et n dans N∗ . Comme le second succès arrive strictement après le premier, on a
X < Y . Ainsi P ([X = k] ∩ [Y = n]) = 0 si n 6 k. Dans le cas n > k alors l’événement
[X = k] ∩ [Y = n] signifie qu’on a obtenu n − 2 échec et deux succès aux rangs fixés
k et n. La probabilité de cet événement est (1 − p)n−2 p2 .

0 si k > n
En conclusion, P ([X = k] ∩ [Y = n]) = n−2 2
(1 − p) p sinon.
L’univers image de Y est l’ensemble des entiers n tels que n > 2. Grâce au SCE des
réalisations de X, on a pour tout n > 2,
+∞ n−1
(1 − p)n−2 p2 .
X X
P (Y = n) = P ([X = k] ∩ [Y = n]) =
k=1 k=1

On a donc : ∀n > 2, P (Y = n) = (n − 1)(1 − p)n−2 p2 .


1
2. Comme X ,→ G(p), on a E(X) = . Pour Y , son espérance existence par somme
p
géométrique dérivée deux fois et elle vaut
+∞
2 2
n(n − 1)(1 − p)n−2 p2 = p2
X
E(Y ) = = .
n=2 (1 − (1 − p))3 p
3. Soit n > 2. Sachant [Y = n], la variable X est à valeurs dans J1, n − 1K et pour tout
k ∈ J1, n − 1K,

P ([X = k] ∩ [Y = n] (1 − p)n−2 p2 1
P (X = k|Y = n) = = n−2
= .
P (Y = n) (n − 1)(1 − p) p 2 n−1

Ainsi, sachant [Y = n], on a X ,→ U(J1, n − 1K) .

10
Exercice 8. Soit X et S deux variables aléatoires à valeurs dans N. On suppose que S ,→
P(λ) avec λ > 0 et qu’il existe p ∈]0, 1[ tel que pour tout n ∈ N, la loi conditionnelle de X
sachant [S = n] est la loi B(n, p).
1. Déterminer la loi du couple (S, X) puis la loi de X.
2. On pose Y = S−X. Déterminer la loi de Y et montrer que X et Y sont indépendantes.
3. En déduire que Cov(S, X) = V (X), puis calculer ρS,X , le coefficient de corrélation
linéaire entre S et X.

Une solution.
1. Soit n et k dans N. Sachant [S = n], la variable X suit la loi B(n, p), donc a pour
univers image J0, nK.
• Si k > n, alors P (X = k|S = n) = 0 (événement impossible), ce qui donne
P ([X = k] ∩ [S = n]) = 0.
• Si k > n, alors P ([X = k] ∩ [S = n]) = P (X ! = k|S = n)P (S = n) grâce à la
n k λn
formule de Bayes, ainsi P ([X = k] ∩ [S = n]) = p (1 − p)n−k e−λ .
k n!

0 si k > n


n
!
En conclusion, P ([X = k] ∩ [S = n]) = n k λ

 p (1 − p)n−k e−λ sinon.
 k n!
L’univers image de X est N et pour tout k ∈ N, par probabilités totales sur le SCE
des réalisations de S,
+∞ +∞
λn
!
n k
p (1 − p)n−k e−λ
X X
P (X = k) = P ([X = k] ∩ [S = n]) =
n=0 n=k k n!
+∞
k
(pλ) −λ X((1 − p)λ) n−k
(pλ)k −λ +∞
X ((1 − p)λ)n
= e = e
k! n=k (n − k)! k! n=0 n!
où on a fait le changement d’indice n ↔ n − k.
(pλ)k −λ (1−p)λ −pλ (pλ)
k
On a donc P (X = k) = e e =e . Ainsi X ,→ P(pλ) .
k! k!
2. On pose Y = S − X. D’après la loi conjointe précédente, on a S > X. Donc l’univers
image de Y est N. Soit n ∈ N. Par probabilités totales sur le SCE des réalisations de
X on a
+∞
X
P (Y = n) = P (S − X = n) = P ([S − X = n] ∩ [X = k])
k=0
+∞
X
= P ([S = n + k] ∩ [X = k])
k=0
+∞
λn+k
!
n+k k
p (1 − p)n+k−k e−λ
X
= , car k 6 n + k,
k=0 k (n + k)!
+∞
X (λp)k
1 1 (λ(1 − p))n
= (1 − p)n e−λ λn = (1 − p)n e−λ λn eλp = eλ(1−p) .
n! k=0 k! n! n!

11
On a obtenu Y ,→ P(λ(1 − p)) .
Soit n et k dans N.

P ([Y = n] ∩ [X = k]) = P ([s = n + k] ∩ [X = k])


λn+k
!
n+k k
= p (1 − p)n+k−k e−λ (vu avant)
k (n + k)!
n k
! !
(λ(1 − p)) (pλ)
= eλ(1−p) × e−pλ = P (Y = n)P (X = k).
n! k!

Donc X et Y sont indépendantes .


3. D’après le cours Cov(Y, X) = Cov(S − X, X) = Cov(S, X) − Cov(X, X).
Or Cov(X, X) = V (X) et par indépendance, Cov(Y, X) = 0.
Donc Cov(S, X) = V (X) .
s
Cov(S, X) V (X) V (X)
Par définition, ρS,X = q q =q q = .
V (S) V (X) V (S) V (X) V (S)
Or X ,→ P(pλ) donc V (X) = pλ et S ,→ P(λ) donc V (S) = λ.

On obtient donc ρS,X = p .

12

Vous aimerez peut-être aussi