Vous êtes sur la page 1sur 13

CPGE Lydex 2TSI2 Probabilité

A.P: 2022 -2023


Tribu
Exercice 1:
Soient T une tribu sur un ensemble Ω et Ω0 une partie de Ω. Vérifier que T 0 = {A ∩ Ω0 | A ∈ T } définit une tribu sur Ω0 .
Ω0 = Ω ∩ Ω0 avec Ω ∈ T donc Ω0 ∈ T 0 .
Soit B ∈ T 0 . On peut écrire B = A ∩ Ω0 avec A ∈ T et alors Ω0 \ B = Ā ∩ Ω0 avec Ā ∈ T .
Ainsi le complémentaire de B dans Ω0 est élément de T 0 .
Soit (Bn ) une suite d’éléments de T 0 . On peut écrire Bn = An ∩ Ω0 avec An ∈ T et alors
+∞
 +∞  +∞ +∞
[ [  [ [
Bn =  An  ∩ Ω0 avec An ∈ T Ainsi Bn ∈ T 0
n=0 n=0 n=0 n=0

Définition d’une probabilité

Exercice 2

Soit P une probabilité sur (N, ℘(N)). Montrer que P ({n}) −→ 0


n→+∞
+∞
X
On a P(N) = 1 et N = {n}. Par σ-additivité d’une probabilité P ({n}) = 1
S
n∈N
n=0
Puisque cette série converge, son terme général tend vers 0.
Par considération de reste de série convergente, on a aussi P ({k} | k ≥ n) −→ 0
n→+∞

Exercice 3

Soit (Ω, T , P) un espace probabilisé. Pour A, B ∈ T , on pose d(A, B) = P(A∆B)


avec A∆B la différence symétrique de A et B définie par A∆B = (A ∪ B) \ (A ∩ B)

(a) Vérifier d(A, C) ≤ d(A, B) + d(B, C)

(b) En déduire |P(A) − P(B)| ≤ P(A∆B)

(a) On vérifie par les éléments l’inclusion A∆C ⊂ (A∆B) ∪ (B∆C)


et donc P(A∆C) ≤ P(A∆B) + P(B∆C)

(b) On a P(A) = P(A∆∅) ≤ P(A∆B) + P(B∆∅) = P(A∆B) + P(B)


donc P(A) − P(B) ≤ P(A∆B)
Un raisonnement symétrique fournit aussi P(B) − P(A) ≤ P(A∆B)
Exercice 4

On effectue une suite de lancers indépendants d’une pièce équilibrée et l’on désigne par pn
la probabilité de ne pas avoir obtenu trois « Pile » consécutifs lors des n premiers lancers.
(a) Calculer p1 , p2 et p3 .
(b) Pour n ≥ 4, exprimer pn en fonction de pn−1 , pn−2 et pn−3 .
(c) Déterminer la limite de la suite (pn )n≥1 .
(a) Immédiatement p1 = p2 = 1 et p3 = 7/8. et
(b) Introduisons les événements
Pi = « on obtient Pile lors du i-ème lancer » et Fi = Pi
On peut former un système complet d’événement en considérant
F1 , P1 ∩ F2 , P1 ∩ P2 ∩ F3 et P1 ∩ P2 ∩ P3
En notant An l’événement
« on n’a pas obtenu trois Piles consécutifs lors des n premiers lancers »
la formule des probabilités totales donne
P(An ) = P (An | F1 ) P(F1 ) + P (An | P1 ∩ F2 ) P(P1 ∩ F2 )
+ P (An | P1 ∩ P2 ∩ F3 ) P(P1 ∩ P2 ∩ F3 )
+ P (An | P1 ∩ P2 ∩ P3 ) P(P1 ∩ P2 ∩ P3 )
Or P (An | F1 ) = P(An−1 ). En effet, le premier lancer ayant donné face « il peut être
oublié ». De même

P (An | P1 ∩ F2 ) = P(An−2 ) et P (An | P1 ∩ P2 ∩ F3 ) = P(An−3 ).


Enfin,
P (An | P1 ∩ P2 ∩ P3 ) = 0.
On en déduit
1 1 1
pn = pn−1 + pn−2 + pn−3
2 4 8
(c) La suite (pn )n≥1 est décroissante car l’événement An est inclus dans l’événement
An+1 . La suite (pn )n≥1 est de surcroît minorée, elle est donc convergente. En notant `
1 1 1
sa limite, la relation précédente donne à la limite ` = ` + ` + `
2 4 8
On en déduit ` = 0.

Exercice 5
Une urne contient une boule blanche et une boule rouge.
On tire dans cette urne une boule, on note sa couleur et on la remet dans l’urne
accompagnée de deux autres boules de la même couleur puis on répète l’opération.
(a) Quelle est la probabilité que n premières boules tirées soient rouges ?
(b) Quelle est la probabilité de tirer indéfiniment des boules rouges ?
On donne la formule de Stirling

(c) Le résultat précédent reste-t-il vrai si on remet la boule accompagnée de trois autres
boules de la même couleur ?
(a) Notons An l’évènement « les n premieres boules tirées sont rouges »
2n − 1
On a P(A0 ) = 1 et P (An | An−1 ) =
2n
car si An−1 a lieu, l’urne est composée d’une boule blanche et de 2n − 1 boules
rouges lors du n-ième tirage. n
Y 2k − 1 (2n)!
Par probabilités composées P(An ) = = 2n
k=1
2k 2 (n!)2
1
(b) En vertu de la formule de Stirling P(An ) ∼ √ −→ 0
n→+∞ πn n→+∞
 +∞ 
\ 
Par continuité décroissante P  An  = 0
n! ∼

n=0

n
Y 3k − 2
2πnnn e−n

(c) Dans ce nouveau modèle P(An ) =


k=1
3k − 1
n !
X 1
et donc ln P(An ) = ln 1 − −→ −∞
k=1
3k − 1 n→+∞
P
car ln(1 − 1/(3k
 +∞ − 1))
 est une série à termes négatifs divergente. À nouveau l’on
\ 
obtient P  An  = 0
n=0
Variables aléatoires
Exercice 6
Une variable aléatoire X suit une loi binomiale de taille n et de paramètre p.
Quelle est la loi suivie par la variable Y = n − X ?
!
n k
Par définition d’une loi binomiale pk = p (1 − p)n−k
k

et donc pour k > 1 pk n−k+1 p


=
pk−1 k 1−p
pk
On en déduit > 1 ⇔ k 6 (n + 1)p
pk−1
En notant k0 la partie entière de (n + 1)p. La suite (pk )06k6k0 est croissante et la
suite (pk )k0 6k6n est décroissante. Le maximum de pk est donc atteint en k = k0 .

Exercice 7
Soient X et Y deux variables aléatoires réelles indépendantes.
Les variables aléatoires X + Y et X − Y sont-elles indépendantes ?
La réponse est négative en général.
Supposons que X et Y suivent des lois de Bernoulli de paramètre 1/2.
On a
P (X + Y = 2) = P (X = 1)P (Y = 1) = 1/4
et
P (X − Y = 0) = P (X = 0)P (Y = 0) + P (X = 1)P (Y = 1) = 1/2
Or l’événement X + Y = 2 est inclus dans l’événement X − Y = 0 donc

P (X + Y = 2 ∩ X − Y = 0) = P (X + Y = 2)

et l’on constate

P (X + Y = 2 ∩ X − Y = 0) 6= P (X + Y = 2)P (X − Y = 0)

Exercice 8
Soient X et Y deux variables aléatoires prenant pour valeurs a1 , . . . , an avec

P (X = ai ) = P (Y = ai ) = pi

On suppose que les variables X et Y sont indépendantes.


Montrer que
n
X
P (X 6= Y ) = pi (1 − pi )
i=1

L’événement {X = Y } se décompose en les événements incompatibles


{X = ai ∩ Y = ai }.
Par hypothèse d’indépendance

P ({X = ai ∩ Y = ai }) = P ({X = ai }) P ({Y = ai }) = p2i


n
X
donc P ({X = Y }) = p2i
i=1 n
X
puis par complémentation P ({X 6= Y }) = 1 − p2i
i=1
n
X
Enfin, on conclut sachant 1= pi
i=1

Exercice 9

Soit X une variable aléatoire réelle sur un espace probabilisé fini. Établir
2
E (X) 6 E X 2


Par la formule de Huygens V (X) = E (X − E(X)2 = E(X 2 ) − E(X)2 > 0



Exercice 10

Soit X une variable aléatoire prenant ses valeurs dans {0, 1, . . . , N }.


N
X −1
Etablir E(X) = P (X > n) N N
n=0
X X
Notons pn = P (X = n). On a par définition E(X) = npn = npn
n=0 n=1

Or {X = n} = {X > n − 1} \ {X > n} donc pn = P (X > n − 1) − P (X > n)


N
X N
X
donc E(X) = nP (X > n − 1) − nP (X > n)
n=1 n=1 N −1 N
X X
Par décalage d’indice dans la première somme E(X) = (n + 1)P (X > n) − nP (X > n)
n=0 n=1

En supprimant le dernier terme assurément nul de la deuxième somme et en y


ajoutant un terme nul correspondant à l’indice 0
N
X −1 N
X −1
E(X) = (n + 1)P (X > n) − nP (X > n)
n=0 n=0
N
X −1
Enfin, en combinant ces sommes E(X) = P (X > n)
n=0

Exercice 11
Soient X et Y deux variables aléatoires réelles sur un espace probabilisé fini
(Ω, P ). On suppose ∀k ∈ N, E(X k ) = E(Y k )
Montrer que X et Y suivent les mêmes lois.
Notons x1 , . . . , xn les éléments de X(Ω) ∪ Y (Ω).
On peut écrire
n
X
∀k ∈ N, E(X k ) = xki P (X = xi )
i=1
Considérons maintenant un polynôme Lj prenant la valeur 1 en xj et la valeur 0
en les xi avec i 6= j.
En notant N le degré de Lj , on peut écrire

Lj (x) = a0 + a1 x + · · · + aN xN

et alors
n
X
a0 + a1 E(X) + · · · + aN E(X N ) = Lj (xi )P (X = xi ) = P (X = xi )
i=1

Parallèlement
n
X
a0 + a1 E(Y ) + · · · + aN E(Y N ) = Lj (xi )P (Y = xi ) = P (Y = xi )
i=1

et donc
P (X = xi ) = P (Y = yi )

Exercice 12
Soit X une variable aléatoire binomiale de taille n et de paramètre p ∈ ]0, 1[.
1
Calculer l’espérance de la variable Y =
! X +1
n k
Puisque P (X = k) = p (1 − p)n−k
k ! !
n n + 1 n+1 n
!
X 1 n k =
l’espérance de Y est donnée par E(Y ) = p (1 − p)n−k Or k+1 k+1 k
k+1 k
k=0
n
!
1 X n+1 k
donc E(Y ) = p (1 − p)n−k
n+1 k + 1
k=0
n+1
!
1 X n+1
puis par glissement d’indice E(Y ) = pk (1 − p)(n+1)−k
p(n + 1) k
k=1
1 − (1 − p)n+1
et enfin par la formule du binôme avec un terme manquant E(Y ) =
p(n + 1)
Exercice 13
Soient X et Y deux variables aléatoires indépendantes à valeurs dans [[1, n]].
a) Exprimer E(X) en fonction de P (X > k).
b) On suppose les variables X et Y uniformes.
Déterminer l’espérance de min(X, Y ) puis de max(X, Y ).
− .de |X Y |
Déterminer aussi l’espérance
a) En écrivant P (X = k) = P (X > k) − P (X > k + 1)
Xn Xn
on obtient E(X) = kP (X = k) = P (X > k)
k=1 k=1

b) Par la propriété au-dessus


Xn n
X
E (min(X, Y )) = P (X > k et Y > k) = P (X > k)P (Y > k)
k=1 k=1

n+1−k
Puisque P (X > k) = P (Y > k) =
n
n n
1 X 2 1
X (n + 1)(2n + 1)
on obtient E (min(X, Y )) = (n + 1 − k) 2 k2 =
n2 n 6n
k=1 k=1

Aussi min(X, Y ) + max(X, Y ) = X + Y


(n + 1)(2n + 1) (n + 1)(4n − 1)
donc E (max(X, Y )) = n + 1 − =
6n 6n
1
Encore min(X, Y ) = 2 ((X + Y ) − |X − Y |)
(n + 1)(2n + 1) n2 − 1
donc E (|X − Y |) = n + 1 − =
3n 3n

Exercice 14
Soit X une variable aléatoire à valeurs dans {0, 1, . . . , n} telle qu’il existe a ∈ R
vérifiant !
n
P (X = k) = a
k
Calculer l’espérance et la variance de X.
n
n
X
La valeur de a se déduit de l’identité P (X = k) = 1 et l’on obtient a = 1/2 .
k=0
n
! n
!
X n X n−1 n
L’espérance de X est E(X) = a k = an = an2n−1 =
k=1
k k=1
k−1 2

Exercice 15
Soient X1 , . . . , Xn des variables mutuellement indépendantes suivant une même
loi d’espérance m et de variance σ 2 .
n
1X
a) On pose X̄n = Xi Calculer espérance et variance de X̄n .
n i=1
n
1 X 2
b) On pose Vn = Xi − X̄n Calculer l’espérance de Vn .
n − 1 i=1
n
 1X
a) Par linéarité de l’espérance E X̄n = E(Xi ) = m
n i=1
n
1 X σ2
Puisque de surcroît les variables sont mutuellement indépendantes V (X̄n ) = 2
V (Xi ) =
n i=1 n
b) En développant
n n
! n
1 X X 1 X 2 n
Vn = Xi2 − 2X̄n Xi + nX̄n2 = Xi − X̄ 2
n−1 i=1 i=1
n − 1 i=1 n−1 n
n
1 X n
E Xi2 − E X̄n2
 
Par linéarité de l’espérance E(Vn ) =
n − 1 i=1 n−1
n
σ2
 
1 X 2 n
σ + m2 − + m2

puis E(Vn ) =
n − 1 i=1 n−1 n
et enfin E(Vn ) = σ 2
Exercice 16

Soit X et Y deux variables aléatoires réelles sur l’espace probabilisé (Ω, P ).


Montrer p
|Cov(X, Y )| 6 V (X)V (Y )

Pour λ ∈ R, introduisons Z = λX + Y . On a V (Z) > 0 avec

V (Z) = λ2 V (X) + 2λCov(X, Y ) + V (Y )

Si V (X) = 0, on a nécessairement Cov(X, Y ) = 0 pour que V (Z) soit positif pour


tout λ ∈ R.
Si V (X) 6= 0, on a nécessairement ∆ = 4Cov(X, Y )2 − 4V (X)V (Y ) 6 0 pour que
V (Z) soit positif pour tout λ ∈ R.
Dans les deux cas, on obtient
p
|Cov(X, Y )| 6 V (X)V (Y )
Exercice 17

À un péage autoroutier n voitures franchissent au hasard et indépendamment


l’une des trois barrières de péage mises à leur disposition. On note X1 , X2 , X3 les
variables aléatoires dénombrant les voitures ayant franchi ces barrières.
a) Déterminer la loi de X1 .
b) Calculer les variances de X1 , X2 et de X1 + X2 .
c) En déduire la covariance de X1 et X2 .

a) Chacune des n voitures a la probabilité p = 1/3 de choisir le premier péage.


Dès lors, la variable aléatoire X1 peut se comprendre comme étant le nombre de
succès dans une série de n épreuves indépendantes ayant chacune la probabilité p
de réussir. La variable X1 suit une loi binomiale de paramètres n et p = 1/3.
b) V (X1 ) = np(1 − p) = 2n/9 et V (X2 ) = 2n/9 car X1 , X2 , X3 suivent les mêmes
lois.
Puisque X1 + X2 = n − X3 , V (X1 + X2 ) = V (n − X3 ) = V (X3 ) = 2n/9.
c) Sachant
V (X1 + X2 ) = V (X1 ) + 2Cov(X1 , X2 ) + V (X2 )

on obtient
Cov(X1 , X2 ) = −n/9

Inégalités de Markov et de Bienaymé-Tchebychev


Exercice 18

Soient X une variable aléatoire réelle et g : R+ → R+ une fonction strictement


croissante.
Montrer que
E (g(|X|))
∀a > 0, P (|X| > a) 6
g(a)

Puisque la fonction g est strictement croissante, les événement |X| > a et


g(|X|) > g(a) sont identiques. Or l’inégalité de Markov donne

E (g(|X)|) > g(a)P (g(|X|) > g(a))

et donc
E (g(|X|))
P (|X| > a) 6
g(a)

Exercice 19

Une variable aléatoire X suit une loi du binôme de paramètre p et de taille n.


Etablir pour ε > 0,
  p
X p(1 − p)
P − p > ε 6

n ε n

Rappelons E(X) = np et V (X) = np(1 − p)


Considérons la variable aléatoire Y = X − np = X − E(X)
E(|Y |)
Par l’inégalité de Markov P (|Y | > na) 6
  nε
X E(|Y |)
donc P − p > ε 6

n nε   p
X p(1 − p)
Or E(|Y |) 6 E(Y 2 ) avec E(Y 2 ) = V (X) = np(1 − p) donc P n − p > ε 6 √
p
ε n
Exercice 20
Soit X une variable aléatoire suivant une loi binomiale de taille n et de paramètre p.
Montrer que pour tout λ, ε > 0 P (X − np > nε) 6 E (exp(λ(X − np − nε))
Par stricte croissance de l’exponentiel, l’événement X − np > nε équivaut à
l’événement
exp (λ(X − np − nε)) > 1
L’inégalité de Markov appliquée à la variable Y = exp (λ(X − np − nε)) permet
alors de conclure
E (exp (λ(X − np − nε)))
P (exp (λ(X − np − nε)) > 1) 6
1

Exercice 21
[Sondage]
Une population de personnes présente une propriété donnée avec une proportion
inconnue p ∈ ]0, 1[.
On choisit un échantillon de n personnes et l’on pose Xi = 1 si le i-ème individu
présente la propriété étudiée, 0 sinon. On considère que les variables aléatoires Xi
ainsi définies sont indépendantes et suivent toute une loi de Bernoulli de
paramètre p.
a) Quelle est la loi suivie par

Sn = X1 + · · · + Xn ?

b) Déterminer espérance et variance de Sn /n.


c) Soit ε > 0. Etablir  
Sn 1
P − p > ε 6
n 4nε2
d) Pour ε = 0, 05, quelle valeur de n choisir pour que Sn /n soit voisin de p à ε
près avec une probabilité supérieure à 95 % ?

a) Sn soit une loi binomiale de paramètres n et p.


b) Puisque Sn suit une loi binomiale, E(Sn ) = np et V (Sn ) = np(1 − p).
Par conséquent    
Sn Sn p(1 − p)
E = p et V =
n n n
c) Par l’inégalité de Bienaymé-Tchebychev
   
Sn Sn V (Sn /n)
P −E > ε 6
n n ε2
et donc  
> ε 6 p(1 − p)
Sn
P − p
n nε2
Enfin, l’inégalité classique p(1 − p) 6 1/4 permet de conclure.
d) On choisit n de sorte que
1/4nε2 6 0, 05
La valeur n = 2000 est convenable.

Exercice 22
Soit Xn une variable aléatoire de loi binomiale de paramètres n et p.
Soit k ∈ N. Etablir P (Xn 6 k) −−−−−→ 0
n→+∞

Par l’inégalité de Bienaymé-Tchebychev Non défin

Choisissons ε > 0 pour que (Xn 6 k) ⊂ (|Xn − np| > ε)


La valeur ε = np − k convient et est strictement positive pour n assez grand. On a
alors
np(1 − p)
P (Xn 6 k) 6 −−−−−→ 0
(np − k)2 n→+∞
Exercice 23

Soient X et Y deux variables aléatoires définies sur un même espace probabilisé (Ω, A, P ) et à valeurs dans N.
On suppose que la loi du couple (X, Y ) est donnée par :
1
∀ (i, j) ∈ N2 , P ((X = i) ∩ (Y = j)) = i+1
e 2 j!
1. Déterminer les lois de X et de Y .
2. (a) Prouver que 1 + X suit une loi géométrique et en déduire l’espérance et la variance de X.
(b) Déterminer l’espérance et la variance de Y .
3. Les variables X et Y sont-elles indépendantes ?
4. Calculer P (X = Y ).
1. ∀ (i, j) ∈ N2 , P ((X = i) ∩ (Y = j)) = .
e 2i+1 j!
X(Ω) = N.
Soit i ∈ N.
+∞
X 1 1 X 1 X 1 1
= converge et = i+1 .
e 2i+1 j! e 2i+1 j! j=0
e 2 i+1 j! 2
j>0 j>0
+∞ +∞ +∞
X X 1 1 X 1 1
Or P (X = i) = P ((X = i) ∩ (Y = j)) donc P (X = i) = = = i+1 .
j=0 j=0
e2i+1 j! e2i+1 j=0 j! 2
1
Conclusion : ∀ i ∈ N, P (X = i) = .
2i+1

Y (Ω) = N.
Soit j ∈ N.
 i +∞
X 1 1 X 1 1 X 1 1 1 1
= converge (série géométrique de raison ) et = = .
e 2i+1 j! 2ej! 2 2 e 2 i+1 j! 2ej! 1 ej!
i>0 i>0 i=0 1−
2
+∞
X
Or P (Y = j) = P ((X = i) ∩ (Y = j)).
i=0
+∞ +∞  i
X 1 1 X 1 1 1 1
Donc P (Y = j) = = = = .
e2i+1 j! 2ej! i=0 2 2ej! 1 ej!
i=0 1−
2
1
Conclusion : ∀ j ∈ N, P (Y = j) = .
ej!
2. (a) On pose Z = X + 1.
Z(Ω) = N ∗ .
 n−1
1 1 1
De plus, ∀ n ∈ N∗ , P (Z = n) = P (X = n − 1) = = .
2n 2 2
1
Donc Z suit une loi géométrique de paramètre p = .
2
1 1−p
Donc, d’après le cours, E(Z) = = 2 et V (Z) = = 2.
p p2
Donc E(X) = E(Z − 1) = E(Z) − 1 = 2 − 1 = 1 et V (X) = V (Z − 1) = V (Z) = 2.
C’est-à-dire E(X) = 1 et V (X) = 2.
(b) Y suit une loi de Poisson de paramètre λ = 1.
Donc, d’après le cours, E(Y ) = V (Y ) = λ = 1.
3. On a : ∀ (i, j) ∈ N2 , P ((X = i) ∩ (Y = j)) = P (X = i)P (Y = j). Donc les variables X et Y sont
indépendantes.
Exercice 24

X k  +∞  
X k 1
On admet, dans cet exercice, que : ∀ q ∈ N, xk−q converge et ∀ x ∈ ]−1, 1[, xk−q = .
q q (1 − x)q+1
k>q k=q

Soit p ∈ ]0, 1[.


Soit (Ω, A, P ) un espace probabilisé.
Soit X et Y deux variables aléatoires définies sur (Ω, A, P ) et à valeurs dans N.
On suppose que la loi de probabilité du couple (X, Y ) est donnée par :
    n
 n 1
p(1 − p)n si k 6 n
∀ (k, n) ∈ N2 , P ((X = k) ∩ (Y = n)) = k 2
0 sinon

1. Vérifier qu’il s’agit bien d’une loi de probabilité.
2. (a) Déterminer la loi de Y .
(b) Prouver que 1 + Y suit une loi géométrique.
(c) Déterminer l’espérance de Y .
3. Déterminer la loi de X.

1. On remarqueque ∀ (k, n) ∈ N2 , P ((X = k) ∩ (Y = n)) > 0.


(X, Y )(Ω) = (k, n) ∈ N2 tel que k 6 n .
Posons ∀ (k, n) ∈ N2 , pk,n = P ((X = k) ∩ (Y = n)).
X
∀n ∈ N, pk,n converge (car un nombre fini de termes non nuls).
k>0
+∞ n    n  n n    n j
X X n 1 1 n n
X n 1 n n n
Et pk,n = p(1 − p) = p(1 − p) = p(1 − p) 2 = p(1 − p) .
k 2 2 k 2
k=0 k=0 k=0
X X
De plus, p(1 − p)n = p (1 − p)n converge (série géométrique convergente car (1 − p) ∈ ]0, 1[).
n>0 n>0
+∞ +∞
X X 1
Et p(1 − p)n = p (1 − p)n = p = 1.
n=0 n=0
1 − (1 − p)
Donc on définit bien une loi de probabilité.
2. (a) Y (Ω) = N.
Soit n ∈ N.
+∞
X
P (Y = n) = P ((X = k) ∩ (Y = n)) (loi marginale)
k=0
n    n
X n 1
Donc, d’après les calculs précédents, P (Y = n) = p(1 − p)n = p(1 − p)n .
k 2
k=0
C’est-à-dire, ∀n ∈ N, P (Y = n) = p(1 − p)n .
(b) Posons Z = 1 + Y .
Z(Ω) = N∗ et ∀ n ∈ N∗ , P (Z = n) = P (Y = n − 1) = p(1 − p)n−1 .
Donc Z suit une loi géométrique de paramètre p.
1
(c) D’après la question précédente, E(Z) = .
p
1−p
Or Y = Z − 1 donc E(Y ) = E(Z) − 1 et donc E(Y ) = .
p
3. X(Ω) = N.
+∞
X
Soit k ∈ N. P (X = k) = P ((X = k) ∩ (Y = n)) (loi marginale)
+∞    n  k +∞    n−k
X n 1 1 n k
X n 1
Donc P (X = k) = p(1 − p) = p (1 − p) (1 − p) .
k 2 2 k 2
n=k n=k
 k
1 1
Donc, d’après les résultats admis dans l’exercice, P (X = k) = p (1 − p)k  k+1
2 1
1 − (1 − p)
2
 k k+1
1 2
C’est-à-dire P (X = k) = p (1 − p)k .
2 (1 + p)k+1
 k
2p 1−p
Donc, ∀ k ∈ N, P (X = k) = .
1+p 1+p
Exercice 25
Soit (Ω, A, P ) un espace probabilisé.
1. Soit X une variable aléatoireXdéfinie sur (Ω, A, P ) et à valeurs dans N.
On considère la série entière tn P (X = n) de variable réelle t.
On note RX son rayon de convergence.
(a) Prouver que RX > 1.
+∞
X
On pose GX (t) = tn P (X = n) et on note DGX l’ensemble de définition de GX .
n=0
Justifier que [−1, 1] ⊂ DGX .
Pour tout réel t fixé de [−1, 1], exprimer GX (t) sous forme d’une espérance.
(k)
(b) Soit k ∈ N. Exprimer, en justifiant la réponse, P (X = k) en fonction de GX (0).
2. (a) On suppose que X suit une loi de Poisson de paramètre λ.
Déterminer DGX et, pour tout t ∈ DGX , calculer GX (t).
(b) Soit X et Y deux variables aléatoires définies sur un même espace probabilisé, indépendantes et suivant
des lois de Poisson de paramètres respectifs λ1 et λ2 .
Déterminer, en utilisant les questions précédentes, la loi de X + Y .

X +∞
X
1. (a) ∀ n ∈ N, ∀ t ∈ [−1, 1], |tn P (X = n)| 6 P (X = n) et P (X = n) converge ( P (X = n) = 1).
X n=0
Donc ∀ t ∈ [−1, 1], tn P (X = n) converge absolument.
On en déduit RX > 1 et aussi [−1, 1] ⊂ DGX . Au surplus, pour tout t dans [−1, 1], le théorème du
+∞
X
transfert assure que la variable aléatoire tX admet une espérance et E(tX ) = tn P (X = n) = GX (t).
n=0
GX est la fonction génératrice de X.
(b) Soit k ∈ N.
GX est la somme d’une série entière de rayon de convergence RX > 1.
Donc, d’après le cours, GX est de classe C ∞ sur ]−1, 1[ ⊂ ]−RX , RX [.
+∞
(k)
X n!
De plus, ∀ t ∈ ]−1, 1[, GX (t) = tn−k P (X = n).
(n − k)!
n=k
(k)
(k) GX (0)
En particulier, GX (0) = k!P (X = k) et donc P (X = k) = k! .
2. (a) On suppose que X suit une loi de Poisson de paramètre λ.
X X λn X (λt)n
∀t ∈ R, tn P (X = n) = tn e−λ = e−λ converge (série exponentielle) et donc
n! n!
DGX = R.
+∞
X (λt)n
De plus, ∀t ∈ R, GX (t) = e−λ = e−λ eλt = eλ(t−1) .
n=0
n!
(b) On suppose que X et Y sont indépendantes et suivent des lois de Poisson de paramètres respectifs λ1 et
λ2 .
DGX = DGY = R et, si on pose Z = X + Y , alors [−1, 1] ⊂ DGZ .
Alors, ∀ t ∈ [−1, 1], GZ (t) = E(tX+Y ) = E(tX tY ) = E(tX )E(tY ) car X et Y sont indépendantes et
donc, d’après le cours, tX et tY sont indépendantes.
Donc, d’après 2.(a), GZ (t) = eλ1 (t−1) eλ2 (t−1) = e(λ1 +λ2 )(t−1) .
On reconnaît la fonction génératrice d’une loi de Poisson de paramètre λ1 + λ2 .
Donc, d’après 1.(b), comme Z a la même fonction génératrice qu’une loi de Poisson de paramètre
λ1 + λ2 , alors Z = X + Y suit une loi de Poisson de paramètre λ1 + λ2 .
Exercice 26

On considère une expérience aléatoire ayant la probabilité p > 0 de réussir et 1 − p


d’échouer.
On répète l’expérience indépendamment jusqu’à obtention de m succès et on note T m le
nombre d’essais nécessaires à l’obtention de ces m succès.
(a) Reconnaître la loi de T 1 .
(b) Déterminer la loi de T m dans le cas général m ∈ N∗ .
(c) Exprimer le développement en série entière de
1
(1 − t)m
(d) Déterminer la fonction génératrice de T m et en déduire son espérance.
(a) T 1 suit une loi géométrique de paramètre p.
(b) Notons (Xn )n∈N∗ la suite des variables de Bernoulli testant la réussite de chaque
expérience.
L’évènement (T m = n) est la réunion correspond à l’évènement X1 + · · · + Xn = m et
Xn = 1 soit encore
X1 + · · · + Xn−1 = m − 1 et Xn = 1. Par indépendance
P(T m = n) = P(X1 + · · · + Xn−1 = m − 1) P(Xn = 1)
Puisque X1 + · · · + Xn−1 ∼ B(n − 1, p) et Xn ∼ B(p), on obtient
!
n−1 m
P(T m = n) = p (1 − p)n−m
m−1
et écriture vaut aussi quand n ≤ m car le coefficient binomial est alors nul.

(c) En exploitant le développement connu de (1 + u)α , on obtient


+∞
n+m−1 n
!
1 X
= t pour t ∈ ]−1 ; 1[
(1 − t)m n=0 m − 1

(d) Par définition


+∞ !
X n−1 m
GTm (t) = p (1 − p)n−m tn
n=0
m − 1
En isolant les premiers termes nuls et en décalant l’indexation
+∞
n+m−1 (pt)m
X !
GTm (t) = (pt)m ((1 − p) t)n =
n=0
m−1 (1 − (1 − p)t)m

On en déduit
m
E(X) = G0Tm (1) =
p

Exercice 27
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ > 0.
(a) Calculer E (X(X − 1) . . . (X − r + 1))
(b) Retrouver ce résultat par les fonctions génératrices.

+∞
(a) Par la formule de transfert E (X(X − 1) . . . (X − r + 1)) =
X k! λk
e−λ = λr
k=r
(k − r)! k!
(b) La fonction génératrice de X est

G X (t) = E(t X ) = eλ(t−1)

Celle-ci est indéfiniment dérivable sur R et

= λr eλ(t−1)
 
X (t) = E X(X − 1) . . . (X − r + 1)t
G(r) X

En particulier
X (1) = E (X(X − 1) . . . (X − r + 1)) = λ
G(r) r
Exercice 28
Soit X une variable aléatoire suivant une loi géométrique de paramètre p ∈ ]0 ; 1[.
(a) Calculer E (X(X − 1) . . . (X − r + 1))
(b) Retrouver ce résultat par les fonctions génératrices.
X
(a) Par la formule de transfert E (X(X − 1) . . . (X − r + 1)) = k(k − 1) . . . (k − r + 1)(1 − p)k−1 p
k=r

Or
+∞
dr
!
X 1 r!
k(k − 1) . . . (k − r + 1)x k−r
= r =
k=r
dx 1 − x (1 − x)r+1

donc
r!
E (X(X − 1) . . . (X − r + 1)) = (1 − p)r−1
pr
(b) La fonction génératrice de X est
p
pt p 1−p
G X (t) = E(t ) =
X
= +
1 − (1 − p)t p − 1 1 − (1 − p)t

Celle-ci est indéfiniment dérivable sur R et


  p r!(1 − p)r
X (t) = E X(X − 1) . . . (X − r + 1)t
G(r) X
=
1 − p (1 − (1 − p)t)r+1

En particulier

(1 − p)r−1
X (1) = E (X(X − 1) . . . (X − r + 1)) = r!
G(r)
pr

Exercice 29

Vous aimerez peut-être aussi