Vous êtes sur la page 1sur 50

Licence 3  Probabilités

Exercices corrigés de TD

Cécile Mercadier, Johannes Kellendonk, Laurent Tournier

Associés au cours de Stéphane Attal

Année universitaire : 2008-2009


Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 1

Dénombrement

Exercice 1
Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événements
suivants :
(i) Trois piques (ii) Aucun pique (iii) Un pique et deux "non-piques"
(iv) Au moins un pique (v) Trois cartes de la même famille (vi) Trois cartes de familles
diérentes
(vii) Trois as (viii) Aucun as (ix) Trois cartes rouges
lorsque :
1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans le
jeu.
2. On suppose que les cartes sont tirées simultanément au hasard.

Exercice 2 Soit n et p deux entiers non nuls.


1. De combien de façons peut-on répartir p enveloppes identiques dans n boîtes aux
lettres ?
2. E1 = {(x1 , . . . , xn ) ∈ Nn , x1 + . . . + xn = p}.
En déduire le cardinal de l'ensemble
3. Supposons p ≥ n. De combien de façons peut-on répartir p enveloppes identiques dans
n boîtes aux lettres de sorte qu'aucune boîte aux lettres ne reste vide ?
4. De quel ensemble E2 (construit de façon similaire à E1 ) peut-on en déduire le cardinal ?
5. De combien de façons peut-on répartir p enveloppes distinctes dans n boîtes aux
lettres ?

Exercice 3 Soit n et p deux entiers non nuls.


1. Déterminer le cardinal de l'ensemble des suites croissantes (au sens strict) de p éléments
de {1, . . . , n}.
2. Déterminer le cardinal de l'ensemble des suites croissantes (au sens large) de p éléments
de {1, . . . , n}.

Caractérisation d'une loi de probabilité

Exercice 4 X une variable aléatoire à valeurs dans N ou Z dénie sur l'espace de


Soit
probabilité discret (Ω, P). Démontrer que sa fonction de répartition, notée FX , dénie par

∀ x ∈ R, FX (x) = P(X ≤ x)

vérie les propriétés suivantes :


1. FX est croissante avec limx→−∞ FX (x) = 0 et limx→−∞ FX (x) = 1.
2. FX est continue à droite en tout point et admet des limites à gauche en tout point. De
plus limy→x− FX (y) = P(X < x).
3. FX caractérise la loi de X .

Exercice 5 Soit X une variable aléatoire à valeurs dans N dénie sur l'espace de proba-
bilité discret (Ω, P). On dénit sa fonction génératrice par
X
GX (s) = E(sX ) = P(X = k)sk .
k∈N

1. Montrer que GX est bien dénie sur [−1, 1].


2. Montrer que GX caractérise la loi de X .
3. 2 0 00
Supposons que X et X sont intégrables. Notons GX et GX les dérivées première et
0 2 00 0
seconde de GX . Montrer que E(X) = GX (1) et E(X ) = GX (1) + GX (1). En déduire
l'expression de Var(X).
Correction feuille de TD 1
Référence
Introduction aux probabilités
Delmas, Jean-Pierre
Ellipses
BU Maths 19.2 DEL

Rappel de cours : Dénombrement


 Le nombre d'applications d'un ensmble à p éléments vers un ensemble à n éléments
p
est n .
 Le nombre de permutations d'un ensemble à n éléments  bijections de cet ensemble
dans lui-même  est n!.
 Le nombre d'arangements injections  d'un ensmble à p éléments dans un ensemble
p n!
à n éléments est An = .
(n − p)!
 Le nombre de combinaisons  ou sous-ensembles  à p éléments dans un ensemble à
n!
n éléments (≥ p) est Cnp = .
p!(n − p)!
Rappel de cours : Probabilités sur un ensemble ni
On convient de représenter une expérience aléatoire E , c'est-à-dire, une expérience soumise
au hasard, par Ω l'ensemble des résultats possibles. Une réalisation ω , un élément de Ω
est aussi appelé expérience élémentaire.
Un événement aléatoire A est l'ensemble des expériences élémentaires ω qui réalisent A.
Comme Ω est ni, la probablité P sur Ω dénie par P({ω}) = 1/card(Ω) s'appelle la
probablité uniforme sur Ω. C'est la probabilité qui rend toutes les expériences élémentaires
card(A) nombre de cas favorables
ω équiprobables. On a alors P(A) = =” ”.
card(Ω) nombres de cas possibles

Exercice 1 On peut décider qu'un jeu de cartes est l'ensemble {1, . . . , 52} avec par
exemple {1, . . . , 13} les piques, puis les trèes, puis les coeurs, puis les carreaux.
1. L'univers Ω est {1, . . . , 52}3 donc card(Ω) = 523 .
Comme les tirages sont faits au hasard, on peut munir Ω de la probabilité uniforme : tous
3
les événements élémentaires E ont la même probabilité : 1/52 . Plus généralement, on
sait que la probabilité d'un événement A quelconque se calcule comme card(A)/card(Ω).
3
(i) 1/64 car à chaque fois un pique soit 13 cas favorables
3
(ii) 27/64 car il s'agit de faire cette expérience sur 52 − 13 = 39 cartes, autrement dit, 39
cas favorables
(iii) 27/64 car on a 3 × 13 × 392 cas favorables
(iv) 37/64 complémentaire de (ii)
3
(v) 1/16 car 3 × 13 cas favorables
(vi) 3/8 car 52 × 39 × 26 cas favorables
3
(vii) 1/2197 car 4 cas favorables
3
(viii) 1728/2197 car 48 cas favorables
3
(ix) 1/8 car 26 cas favorables
2. Dans cette expérience, Ω est l'ensemble des combinaisons de 3 éléments parmi 52.
3
Son cardinal vaut donc C52 . Comme les tirages sont faits au hasard, on peut munir Ω de
la probabilité uniforme : tous les événements élémentaires E ont la même probabilité :
3
1/C52 . Plus généralement, on sait que la probabilité d'un événement A quelconque se
calcule comme card(A)/card(Ω).
3 3 3 3 1 2 3 3 3 3 3
(i) C13 /C52 (ii) C39 /C52 (iii) C13 C39 /C52 (iv) 1 − C39 /C52 (v) 4C13 /C52
1 3 3 3 3 3 3 3
(vi) 4(C13 ) C52 (vii) 4/C52 (viii) C48 /C52 (ix) C26 /C52

Exercice 2 1. On peut modéliser les n boîtes aux lettres à l'aide de n−1 séparateurs
donc une conguration est un ensemble de n − 1 + p éléments qui est déterminée par
n−1
exemple par la position des séparateurs, soit en tout Cn+p−1 possibilités.
2. On peut voir ce problème comme le nombre de répartitions de p enveloppes dans n
boîtes aux lettres avec xi le nombre d'enveloppes dans la boîte aux lettres i. On a bien
n−1
xi ∈ N et x1 + . . . + xn = p. Donc Card(A) = Cn−1+p .
3. On commence par mettre une enveloppe par boîte aux lettres. Il s'agit alors de calculer
n−1
le nombre de façons de répartir p − n enveloppes dans n boîtes aux lettres soit Cp−1
possibilités.
4. E2 = {(x1 , . . . , xn ) ∈ (N? )n , x1 + . . . + xn = p}.
5. p
Pour chaque enveloppe on attribue une boîte aux lettres, soit n possibilités.

Exercice 3 1. L'ensemble des suites strictements croissantes de p éléments de {1, . . . , n}


est en bijection avec l'ensemble des parties à p éléments de {1, . . . , n}. En eet, on peut
associer à toute suite strictement croissante (s1 , . . . , sp ) une partie {s1 , . . . , sp } à p éléments
de {1, . . . , n}, et l'application réciproque consiste à ordonner les éléments d'une partie
{s1 , . . . , sp }. Le cardinal recherché est donc le nombre de combinaisons de p éléments
p
parmi n, soit Cn .
2. Se donner une suite croissante (au sens large) de p éléments de {1, . . . , n} revient à se
donner, pour i = 1, . . . , n, le nombre xi d'éléments de la suite égaux à i, avec la condition
Pn
i=1 xi = p et xi ≥ 0. On voit ainsi que l'on est ramené à la question 1 de l'exercice 2,
n−1
donc la réponse est Cn−1+p .
Autre solution : on se ramène à la question précédente par la bijection

φ : (x1 , x2 . . . , xp ) 7→ (x1 , x2 + 1, . . . , xp + p − 1),


qui envoie les suites croissantes (au sens large) de p éléments de {1, . . . , n} dans l'ensemble
des suites strictement croissantes de p éléments de {1, . . . , n+p−1}. Pour le voir, noter que
si (y1 , . . . , yn ) est strictement croissante à valeurs dans {1, . . . , n+p−1}, alors yi ≥ yi−1 +1
et yi ≥ i pour tout i (par récurrence). L'image par φ de notre ensemble est l'ensemble
décrit dans la question précédente dans lequel n devient n+p−1 donc le cardinal recherché
p n−1
est Cn+p−1 = Cn−1+p éléments.

Exercice 4 1. FX est croissante puisque si x < y , FX (y) = FX (x) + µX (]x, y]) ≥ FX (x).
limn→+∞ ] − ∞, −n] = ∩n∈N ] − ∞, −n] = ∅ comme limite d'une suite décroissante d'en-
sembles et limn→+∞ ] − ∞, n] = ∩n∈N ] − ∞, n] = R comme limite d'une suite croissante
d'ensembles Par continuité de l'application probabilité, on a limn→−∞ FX (n) = P(∅) = 0
et limn→∞ FX (n) = P(R) = 1.
2. FX est continue à droite car limn→∞ ] − ∞, x + 1/n] = ∩n∈dN ] − ∞, x + 1/n] =] − ∞, x].
De plus, limn→∞ ] − ∞, x − 1/n] = ∩n∈dN ] − ∞, x − 1/n] =] − ∞, x[.
3. On a FX (x) − FX (x− ) = µX ({x}). En particulier, on retrouve toutes les probabilités
µX ({k}) = P(X = k) = P(X −1 ({k})) = P({ω, X(ω) = k}).
Exercice 5 1. = n)sn est absolument convergente pour |s| ≤ 1 car
P
La série P(X
|P(X = n)sn | ≤ P(X = n) et
P
P(X = n) = 1. La fonction est bien dénie sur [−1, 1].
2. GX est la somme de la série entière de terme général P(X = n)sn . Elle est donc
indéniment dérivable sur ] − 1, 1[. De plus, on sait que ses dérivées s'obtiennent par
(k) P∞
dérivation terme à terme de la série. On a donc GX (s) = n=k n(n − 1) . . . (n − k +
n−k (k)
1)P (X = n)s et GX (0) = k!P(X = k). On peut donc reconstruire la loi de X à l'aide
(k)
de la formule suivante : P(X = k) = GX (0)/k!.
3.
P
Si X est intégrable, par dénition la série nP (X = n) est convergente. La série
n−1 n−1
P
nP (X = n)s est normalement convergente pour |s| ≤ 1 car sups |nP (X = n)s |=
P
nP (X = n). Par conséquent, sa somme est la dérivée de laP somme de la série P(X =
n)sn = GX (s), autrement dit G0X (s). En résumé G0X (s) = ∞ n=1 nP (X = n)s
n−1
et GX
0

est bien dénie sur [−1, 1].


00
P∞
On montre de la même manière que si E(X(X − 1)) existe alors GX (s) = n=2 n(n −
n−2 00
1)P (X = n)s et GX bien dénie sur [−1, 1].
P∞ P∞
0 00
Pour s = 1, GX (1) = n=1 nP (X = n) = E(X) et GX (1) = n=2 n(n − 1)P (X = n) =
00 0 0
E(X(X − 1)). On en déduit que Var(X) = GX (1) + GX (1) − GX (1)2 .
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 2

Rappels : Lois usuelles discrètes

Bernoulli(p) avec p ∈ [0, 1] : P(X = 0) = 1 − p et P(X = 1) = p.


k k n−k
Binomiale(n, p) avec n > 0 et p ∈ [0, 1] : P(X = k) = Cn p (1−p) pour k = 0, . . . , n.
k ?
Géométrique(p) avec p ∈ [0, 1] : P(X = k) = p(1 − p) pour k ∈ N .
k
−λ λ
Poisson(λ) avec λ > 0 : P(X = k) = e pour k ∈ N.
k!

Lois discrètes usuelles

Exercice 1 Donner l'expression et "tracer" les fonctions de répartitions de loi de Bernoulli


de paramètre 2/3 puis de loi géométrique de paramètre 3/4.

Exercice 2
1. Rappeler la formule du binôme de Newton.
2. En déduire que la loi binomiale de paramètres n ∈ N? et p ∈ [0, 1] dénit bien une loi
de probabilité puis calculer sa moyenne et sa variance.
3. n
nan−1 n(n − 1)an−2
P P P
Rappeler le comportement des séries n≥0 a , n≥1 et n≥2
lorsque |a| < 1.
4. En déduire que la loi géométrique de paramètre p ∈ ]0, 1[ dénit bien une loi de pro-
babilité puis calculer sa moyenne et sa variance.

Exercice 3 Au cours d'une expérience un certain événement E se réalise avec une pro-
babilité p ∈ ]0, 1[.On répète de façon indépendante l'expérience jusqu'à obtenir r fois E .
c
Soit X la variable aléatoire associée au nombre de réalisations de E . Déterminer la loi
de X.

Exercice 4 Calculer la fonction génératrice deX lorsque X est une variable aléatoire
1. de loi de Bernoulli de paramètre p ∈ [0, 1] ;
2. ?
de loi binomiale de paramètres n ∈ N et p ∈ [0, 1] ;
3. de loi de Poisson de paramètre λ > 0 ;
4. de loi géométrique de paramètre p ∈ ]0, 1[.
5. En déduire l'espérance et la variance de X dans chacun des cas.

Inégalités

Exercice 5
1. Soit X une variable aléatoire intégrable. Montrer que pour tout a ∈ R+
?

E(|X|)
(Markov) P(|X| ≥ a) ≤ .
a
2. En déduire que si X est de carré intégrable alors pour tout a ∈ R+
?

V ar(X)
(Tchebyche ) P(|X − E(X)| ≥ a) ≤ .
a2
Exercice 6 Soit n ∈ N∗ . On extrait n fois avec remise une boule dans une urne composée
de 2 boules vertes et 6 boules blanches. Soit Xn la variable aléatoire associée au nombre
de boules vertes obtenues lors des n tirages. On pose Fn = Xn /n.
1. Donner la loi de Xn . En déduire l'espérance et la variance de Xn puis de Fn .
2. On suppose dans cette question que n = 10 000. A l'aide de l'exercice précédent, don-
ner une borne inférieure pour la probabilité de l'événement {Fn ∈ ]0.22, 0.26[}.
3. Donner une estimation du nombre minimal n de tirages nécessaires pour que la pro-
babilité de l'événement {Fn ∈ ]0.22, 0.26[} soit au moins 0.99.
Correction feuille de TD 2

Exercice 1 X suit la loi de Bernoulli de paramètre p = 2/3, X est à valeurs dans


Si
{0, 1}, donc FX (x) = P (X ≤ x) = 0 si x < 0 et FX (x) = 1 si x ≥ 1. De plus, si 0 ≤ x < 1,
FX (x) = P (X ≤ x) = P (X = 0) = 1 − p = 1/3. Faire le dessin correspondant.
Soit X une variable aléatoire de la loi géométrique de paramètre p = 3/4. Comme X est

à valeurs dans N , on a FX (x) = 0 pour tout x < 1. De plus, FX (x) = P (X = 1) = 3/4
si x ∈ [1, 2[, FX (x) = P (X = 1) + P (X = 2) = 3/4 + 3/16 = 15/16 si x ∈ [2, 3[,
FX (x) = FX (2) + P (X = 3) = 15/16 + 3/64 si x ∈ [3, 4[,. . .

Exercice 2 1. Pour réels (ou dans un quelconque anneau commutatif ) et n ∈ N, la


x, y
Xn
n
formule du binôme de Newton s'écrit (x + y) = Cnk xk y n−k .
k=0
2. Pour vérier que P (X = k) = ak (où k ∈ N et ak ∈ R) dénit bien une mesure
P∞
de probabilités sur N, il faut vérier ak ≥ 0 et k=0 ak = 1. Pour la loi binomiale de
paramètres nP
et p, la positivité est évidente, et la seconde condition résulte de la formule
n k k n−k
du binôme : k=0 Cn p (1 − p) = (p + 1 − p)n = 1.
k k−1 k−1 k−2
À l'aide des formules kCn = nCn−1 et k(k − 1)Cn = n(n − 1)Cn−2 (la première se vérie
k
via la dénition des Cn et la deuxième se déduit de la première), et de la formule du
binôme, on calcule :

n
X n
X n−1
X
E(X) = kCnk pk (1 − p)n−k =n k−1 k
Cn−1 p (1 − p)n−k = np k
Cn−1 pk (1 − p)n−1−k = np
k=1 k=1 k=0

n
X n
X
E(X(X − 1)) = k(k − 1)Cnk pk (1 − p)n−k = k−2 k
n(n − 1)Cn−2 p (1 − p)n−k = n(n − 1)p2 ,
k=2 k=2

d'où Var(X) = E(X )−E(X) = E(X(X −1))+E(X)−E(X)2 = n(n−1)p2 +np−n2 p2 =


2 2

np(1 − p).
1 − an+1
3. Si a 6= 1 on a, pour tout n, nk=0 ak = n+1
P
. Pour |a| < 1, limn a = 0,
1−a
P k 1
donc la série géométrique est alors convergente avec k≥0 a = . Par propriété de
1−a
dérivation des séries entières dans leur intervalle ouvert de convergence, on en déduit
d2
   
P k−1 d 1 1 P k−2 1 2
k≥1 ka = = 2
et k≥2 k(k − 1)a = 2 = 3
.
da 1 − a (1 − a) da 1 − a (1 − a)
4. Si pour tout k ≥ 1 on a P(X = k) = p(1 − p)k−1 , alors k≥1 P(X = k) = p k≥0 (1 −
P P

p)k = 1. Ceci montre que la loi géométrique de paramètre p est bien une loi de probabilités.
On calcule :
X X 1
E(X) = kP(X = k) = p k(1 − p)k−1 =
k≥1 k≥1
p
X X 1−p
E(X(X − 1)) = k(k − 1)P(X = k) = p(1 − p) k(k − 1)(1 − p)k−2 = 2
k≥2 k≥2
p2
1−p 1 1 1−p
Var(X) = E(X(X − 1)) + E(X) − E(X)2 = 2 2
+ − 2 = .
p p p p2
Exercice 3 On a Ω = {E, E c }N . L'événement {E, . . . , E, E c , . . . , E c , . . .} où E apparait
r fois et E c apparait n fois dans les r + n premiers termes a une probabilité pr (1 − p)n .
Pour trouver la probabilité P(X = n) il faut calculer le nombre de manières de construire
des r + n uplets se terminant par E , et contenant r fois E . C'est donc le nombre de
combinaisons de r−1 éléments parmi r+n−1 puisque un des éléments ainsi que sa position
r−1 r−1 r n
est imposée, soit encore Cr+n−1 . Donc pour tout n ∈ N on a : P(X = n) = Cn+r−1 p (1−p) .
?
Il s'agit de la loi binomiale négative de paramètres r ∈ N et p ∈]0, 1].

Exercice 4 1. Loi de Bernoulli de paramètre p. On a, pour s ∈ R,

GX (s) = E[X s ] = (1 − p) + ps,

donc G0X (s) = p et G00X (s) = 0. Il suit G0X (1) = p et G00X (1) = 0. Par conséquent (cf. feuille
2
1, exercice 5 et remarque à la n du corrigé), E(X) = p et Var(X) = p − p = p(1 − p).
2. Loi binomiale de paramètres n et p. Pour s ∈ R, la formule du binôme donne :
n
X n
X
k
GX (s) = s Cnk pk (1 − p) n−k
= Cnk (sp)k (1 − p)n−k = (1 − p + sp)n .
k=0 k=0

0
On obtient GX (s) = np(1 − p + sp)n−1 et G00X (s) = n(n − 1)p2 (1 − p + sp)n−2 , d'où
GX (1) = np et G00X (1)
0
= n(n − 1)p2 .
λn −λ
3. Loi de Poisson de paramètre λ > 0. Rappelons que dans ce cas P(X = n) = e
∞ λn
n!
λ
P
pour n ∈ N. Le développement en série de l'exponentielle e = n=0 n! (et le fait que
n
λ −λ
n!
e ≥ 0) montre qu'il s'agit bien d'une probabilité. Ce même développement fournit,
pour tout s ∈ R :

X λn
GX (s) = sn e−λ = eλs e−λ = eλ(s−1) ,
n=0
n!

donc G0X (s) = λeλ(s−1) et G00X (s) = λ2 eλ(s−1) . G0X (1) = λ et G00X (1) = λ2 impliquent
E(X) = λ et Var(X) = λ.
1 1
4. Loi géométrique de paramètre p. On a, pour tout s ∈] − , [,
1−p 1−p

X sp
GX (s) = sk (1 − p)k−1 p = .
k=1
1 − s(1 − p)

p 2p(1 − p)
Pour ces valeurs de s, on en déduit que G0X (s) = et G00X (s) = .
(1 − s(1 − p))2 (1 − s(1 − p))3
2(1 − p) 2(1 − p)
En particulier, G0X (1) = 1
p
et G00X (1) = , d'où E(X) = 1
p
et Var(X) = +
 2 p2 p2
1 1 1−p
− = .
p p p2
Remarque 1. Pour déduire le calcul de l'espérance et de la variance, on utilise à vrai
dire une réciproque G0X (1) < ∞
partielle de la question 5.3 de la feuille 1. À savoir : si
(c'est-à-dire, si la série dérivée converge en s = 1), alors X est intégrable, et E(X) =
G0X (1). Et si G00X (1) < ∞ (idem pour la série dérivée seconde), alors X est de carré in-
2 00 0
tégrable et E(X ) = E(X(X − 1)) + E(X) = GX (1) + GX (1). La preuve est quasiment
0
la même puisque par exemple les propriétés X est intégrable et GX (1)
P < ∞ se tra-
duisent exactement par la même condition de convergence : k kP(X = k) < ∞.

Remarque 2. Dès que le rayon de convergence de GX est strictement plus grand que

1 (ce qui est le cas dans les exemples précédents), GX est de classe C en 1, donc X est
2 k
intégrable, X aussi et, de façon plus générale, X est intégrable pour tout k (considérer
la dérivée k -ième de GX ).

Exercice 5 Voir page 13 du cours.

Exercice 6 1. Xn n et p = 2/8 = 1/4. Donc E(Xn ) =


est de loi binomiale de paramètres
n/4 et V ar(Xn ) = 3n/16. On obtient alors E(Fn ) = 1/4 et V ar(Fn ) = 3/(16n).
2. P(Fn ∈ ]0.22, 0.26[) = P(Fn − E(Fn ) ∈ ] − 0.03, 0.01[) > P(|Fn − E(Fn )| < 0.01) donc
P(Fn ∈ ]0.22, 0.26[) > 1−P(|Fn −E(Fn )| ≥ 0.01) ≥ 1−V ar(Fn )/0.012 = 1−3/16 = 13/16.
3. P(Fn ∈ ]0.22, 0.26[) > P(|Fn − E(Fn )| < 0.01) donc si P(|Fn − E(Fn )| < 0.01) > 0.99
alors on aura
P(Fn ∈ ]0.22, 0.26[) > 0.99. Il sut de chercher n tel que P(|Fn − E(Fn )| ≥ 0.01) < 0.01.
2 3
Or P(|Fn − E(Fn )| > 0.01) < V ar(Fn )/0.01 donc n > 3/(16 0.01 ) = 187500.
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 3

Exercice 1 Fonctions indicatrices


(Ω, P)
Soit un espace de probabilité discret. Si A ⊂ Ω est un événement, on note 1A :
Ω → {0, 1} la fonction indicatrice de A :

1 si ω∈A
pour tout ω ∈ Ω, 1A (ω) =
0 si ω∈
/ A.

1. Pour des événements A et B, exprimer 1Ac et 1A∩B en fonction de 1A et 1B .


2. Vérier que, pour tout événement A, P(A) = E[1A ].
3. Montrer que si X est une variable aléatoire intégrable à valeurs dans N, alors :


X
E[X] = P(X ≥ n).
n=1

Indépendance

Exercice 2 Indépendance entre 3 événements


On jette deux dés (non pipés), l'un après l'autre. On note respectivement A, B et C les
événements Le chire du premier dé est pair, Le chire du deuxième dé est pair et
Les deux chires ont même parité.
1. Montrer que les événements A, B et C sont deux à deux indépendants.
2. Montrer que A, B et C ne sont pas indépendants dans leur ensemble.

Exercice 3 Indépendance et passage au complémentaire


Soit (Ω, P)un espace de probabilité discret, et A1 , . . . , An des événements indépendants.
1. Montrer que Ac1 , A2 , . . . , An sont indépendants aussi.
2. c
En déduire par récurrence la propriété plus générale : pour tous B1 ∈ {A1 , A1 }, . . . , Bn ∈
c
{An , An }, les événements B1 , . . . , Bn sont indépendants.
3. Démontrer que les événements A1 , . . . , An sont indépendants si, et seulement si les
variables aléatoires 1A1 , . . . , 1An sont indépendantes.

Exercice 4 Soit X et Y des variables aléatoires réelles indépendantes, dénies sur un


espace de probabilité discret (Ω, P).
1. Montrer que, pour toutes fonctions f et g de R dans R, f (X) et g(Y ) sont des variables
aléatoires indépendantes.
2. On suppose X et Y intégrables. Montrer que XY est intégrable et E[XY ] = E[X]E[Y ].
3. On suppose X 2 et Y 2 intégrables. Montrer que Var(X + Y ) = Var(X) + Var(Y ).
4. Généraliser ces résultats à n variables aléatoires X1 , . . . , Xn indépendantes.

Exercice 5 SiX est une variable aléatoire indépendante de Y et si Y est indépendante


de Z, est-ce que X est indépendante de Z ?
Lois usuelles et indépendance

Exercice 6 Interprétation des lois usuelles


On considère une suite d'expériences indépendantes dont l'issue est un succès avec pro-
babilité p et un échec avec probabilité 1 − p.
1. Montrer que le nombre de succès parmi les n premières expériences suit une loi bino-
miale de paramètres n et p.
2. Montrer que l'instant où a lieu le premier succès suit une loi géométrique de paramètre
p.

Exercice 7 Soit X, Y des variables aléatoires indépendantes suivant des lois géométriques
de paramètres respectifs pX et pY . On dénit Z = min(X, Y ).
1. Calculer les fonctions de répartition de X, Y , Z.
2. En déduire la loi de Z.

Conditionnement

Exercice 8 Formule de Bayes


1. Soit (Ω, P) (H1 , . . . , Hn ) une partition de Ω en n
un espace de probabilité discret, et
événements de probabilité non nulle. Montrer que, pour i = 1, . . . , n, si A est un événement
de probabilité non nulle :

P(A|Hi )P(Hi )
P(Hi |A) = Pn .
j=1 P(A|Hj )P(Hj )

2. Une maladie M aecte une personne sur 1000 dans une population donnée. On dispose
d'un test sanguin qui détecte M avec une abilité de 99% lorsque cette maladie est eec-
tivement présente. Cependant, on obtient aussi un résultat faussement positif pour 0,2%
des personnes saines testées. Quelle est la probabilité qu'une personne soit réellement
malade lorsque son test est positif ?

Exercice 9
Soient X1 et X2 des variables aléatoires, indépendantes, de loi de Poisson de paramètres
λ1 etλ2 respectivement.
1. Calculer la loi de X1 + X2 .
2. Calculer la loi conditionnelle de X1 sachant X1 + X2 . Identier une loi connue.
Correction de la feuille de TD 3

Exercice 1 Fonctions indicatrices


1. On a facilement 1A c = 1 − 1A et 1A∩B = 1A 1B .
2. D'après les dénitions,
X X
E[1A ] = 1A (ω)P({ω}) = P({ω}) = P(A).
ω∈Ω ω∈A

3. On remarque que : pour tout ω ∈ Ω,


X(ω) ∞
X X
X(ω) = 1= 1{X≥k} (ω),
k=1 k=1

d'où par théorème de convergence dominée (les sommes partielles sont inférieures à X,
intégrable) (ou convergence monotone) :


X ∞
X
E[X] = E[1{X≥k} ] = P(X ≥ k).
k=1 k=1

Indépendance

Exercice 2 Indépendance entre 3 événements


L'espace des épreuves est Ω = {1, . . . , 6}2 , où la première composante représente la valeur
du premier dé, et la seconde celle du second dé. Les couples de résultats sont équiprobables,
donc on munit Ω de la loi uniforme P.
1. Card(A) = 3 · 6 = 18 = Card(B) et Card(C) = 6 · 3 = 18 donc P(A) = P(B) =
On a
P(C) = 1/2. D'autre part, on voit que A ∩ C = {deux lancers pairs} = B ∩ C = A ∩ B et
P(A ∩ B) = (3 · 3)/36 = 1/4.
2. On a : A ∩ B ∩ C = A ∩ B donc P(A ∩ B ∩ C) = 1/4 6= 1/8 = P(A)P(B)P(C).
Exercice 3 Indépendance et passage au complémentaire
1. Pour tous 2 ≤ i1 < . . . < ik ≤ n, on a :

P(Ac1 ∩ Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ∩ · · · ∩ Aik ) − P(A1 ∩ Ai1 ∩ · · · ∩ Aik ) = (1 − P(A1 ))P(Ai2 ) · · · P(Ain )
= P(Ac1 )P(Ai2 ) · · · P(Aik )

et P(Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ) · · · P(Aik ).


2. On raisonne par récurrence : on sait que les événements B1 , A2 , . . . , An sont indépen-
dants grâce à la question 1 (ou trivialement si B1 = A1 ), donc on peut leur appliquer la
question 1 pour voir que B1 , B2 , A3 , . . . , An sont indépendants, etc.
3. Supposons les variables aléatoires 1A1 , . . . , 1An indépendantes. Alors, pour tous 1≤
i1 < · · · < ik ≤ n,

P(Ai1 ∩ · · · Aik ) = E[1Ai1 ∩···∩Aik ] = E[1Ai1 ] · · · E[1Aik ]


= P(Ai1 ) · · · P(Aik )
d'où l'indépendance des événements. Supposons réciproquement les événements A1 , . . . , An
indépendants. Pour tout événement A, lorsque x parcourt R, l'événement {1A = x} est
c
ou bien égal à A ou à A . Il apparaît donc que l'événement {Ai1 = c1 , . . . , Aik = ck } est
de la forme de ceux considérés dans l'exercice 3, d'où :

P(1Ai1 = c1 , . . . , 1Aik = ck ) = P(Bi1 ) · · · P(Bik ) = P(1Ai1 = c1 ) · · · P(1Aik = ck ),

où Bi = Ai si ci = 1, Bi = Aci si ci = 0. D'où l'indépendance de 1A1 , . . . , 1An .

Exercice 4
1. On a, pour a, b ∈ R (ou ∈ f (X(Ω)) et g(Y (Ω)) :

P(f (X) = a, g(Y ) = b) = P(X ∈ f −1 (a), Y ∈ g −1 (b)) = P(X ∈ f −1 (a))P(Y ∈ g −1 (b)) = P(f (X) = a)P(g

2. On a : (on peut changer l'énoncé et prendre X et Y à valeurs dans Z pour coller au


cours)

X X
E[|XY |] = |kl|P(X = k, Y = l) = |kl|P(X = k)P(Y = l)
k∈X(Ω),l∈Y (Ω) k∈X(Ω),l∈Y (Ω)
X X
= |k|P(X = k) |l|P(Y = l) = E[|X|]E[|Y |] < ∞
k∈X(Ω) l∈Y (Ω)

donc XY est intégrable, et en refaisant le calcul sans les valeurs absolues (justié par
Fubini), on trouve E[XY ] = E[X]E[Y ].
3. On a :

Var(X+Y ) = E[(X+Y )2 ]−E[X+Y ]2 = E[X 2 +Y 2 +XY ]−(E[X]+E[Y ])2 = E[X 2 ]−E[X]2 +E[Y 2 ]−E[Y ]2

en développant et en utilisant la question précédente.


4. Pas de vraie diculté pour généraliser, sinon dans l'écriture. On remarque que la
question ci-dessus requiert juste l'indépendance des variables 2 à 2.

Exercice 5 Prendre un contre-exemple.

Lois usuelles et indépendance

Exercice 6 Interprétation des lois usuelles


On considère une suite de variables aléatoiresX1 , X2 , . . . indépendantes, telle que P(Xi =
1) = p (on représente le succès par 1) et P(Xi = 0) = 1 − p (et l'échec par 0).
1. On note S le nombre de succès parmi les n premières expériences. Pour tout k ∈
{1, . . . , n} :
X
P(S = k) = P(∀i ∈ S, Xi = 1, ∀i ∈ / S, Xi = 0)
S⊂{1,...,n},Card(S)=k
 
X
k n−k n k
= p (1 − p) = p (1 − p)n−k .
k
S⊂{1,...,n},Card(S)=k
2. L'instant N de premier succès est tel qu'il est précédé de N −1 échecs, d'où, pour
k≥1 :
P(N = k) = P(X1 = 0, . . . , Xk−1 = 0, Xk = 1) = (1 − p)k p.
Autrement dit, N suit la loi géométrique de paramètre p.

Exercice 7 Soit k un entier non nul.


1. P(X ≤ k) = 1 − P(X > k) = (1 − pX )k donc FX (x) = 1 − (1 − pX )k si x > 0 et
k ≤ x < k + 1 ; 0 sinon.
k
De même FY (y) = 1 − (1 − pY ) si y > 0 et k ≤ y < k + 1 ; 0 sinon.
P(Z ≤ z) = 1 − P(Z > z) = 1 − P(X > z, Y > z) = 1 − P(X > z)P(Y > z) =
1 − (1 − pX )k (1 − pY )k si z > 0 et k ≤ z < k + 1 ; 1 sinon.
2. Z est de loi Géométrique de paramètre pZ = 1 − (1 − pX )(1 − pY ) = pX + pY − pX pY .
Conditionnement

Exercice 8 Formule de Bayes.


1. On a, en remarquant que A est la réunion disjointe des événements A∩H1 , . . . , A∩Hn :

P(Hi ∩ A) P(A ∩ Hi ) P(A|Hi )P(Hi )


P(Hi |A) = =P =P .
P(A) j P(A ∩ Hj ) j P(A|Hj )P(Hj )

2. Ici, Ω est la population considérée, dont une partie E est atteinte par la maladie M,
et dont une partie T a une réaction positive au test. Par hypothèse, P(E) = 1/1000,
P(T |E) = 0, 99 et P(T |E c ) = 0, 002, d'où (cas particulier de la formule de Bayes pour la
c
partition de Ω en E et E ) :

P (E)P (T |E) 1/1000 · 0, 99


P(E|T ) = c c
= ' 0, 33
P (E)P (T |E) + P (E )P (T |E ) 1/1000 · 0, 99 + 0, 999 · 2/1000

Ainsi, le test a deux chances sur trois de donner une réponse positive à une personne
saine, ce qui est loin d'être négligeable !

Exercice 9
1. Si X (resp. Y) suit la loi de Poisson de paramètre λ1 (resp. λ2 ), alors :

GX+Y (s) = GX (s)GY (s) = eλ1 (1−s) eλ2 (1−s) = e(λ1 +λ2 )(1−s) ,

donc X +Y suit la loi de Poisson de paramètre λ1 + λ2 .


Pk Pk λj1 −λ1 λj2 −λ2
Méthode directe : P(X + Y = k) = j=0 P(X = j)P(Y = k − j) = j=0 e e
j! j!
k −(λ1 +λ2 )
= (λ1 + λ2 ) /k!e . C'est bien la loi de Poisson de paramètre la somme des para-
mètres de X et Y .
P(X = j)P(Y = k − j) λj1 −λ1 λk−j k!
2. P(X = j|X+Y = k) = = e 2
e−λ2
P(X + Y = k) j! (k − j)! (λ1 + λ2 )k e−(λ1 +λ2 )
 j  k−j
λ1 λ1
= Ckj
λ1 + λ2 λ1 + λ2
λ1
Par conséquent, la loi de X sachant X +Y = k suit la binomiale de paramètre (k, ).
λ1 + λ2
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 4

Somme de v.a. indépendantes et fonction génératrice

Exercice 1 (Ω, P) un espace de probabilité discret, et X, Y deux variables aléatoires


Soit
indépendantes dénies sur Ω, à valeurs dans N.
1. Exprimer la loi de X + Y en fonction de celles de X et Y .
2. Montrer que, pour tout s ∈ [−1, 1], GX+Y (s) = GX (s)GY (s). (on pourra donner deux
preuves)
3. Généraliser ce qui précède au cas de n variables aléatoires indépendantes X1 , . . . , X n .
4. Quelle est la loi de la somme de n variables aléatoires indépendantes de loi de Bernoulli
de paramètre p? Retrouver alors l'espérance et la variance de cette loi.
5. Quelle est la loi de la somme de :
 deux variables aléatoires indépendantes de loi binomiale de paramètres (n, p) et
(m, p) ?
 deux variables aléatoires indépendantes de loi de Poisson de paramètre λ et µ?

Exercice 2 Dés truqués


1. Quelle est la fonction génératrice de la loi uniforme sur {2, . . . , 12} ?
2. Soit X1 et X2 des variables aléatoires indépendantes à valeurs dans {1, . . . , 6}. En
étudiant les racines du polynôme GX1 GX2 , montrer que la loi de X1 + X2 ne peut pas être
la loi uniforme sur {2, . . . , 12}.
Indication : on remarquera que GXi (s) = sϕi (s) où ϕi est un polynôme à coecients réels
de degré impair, qui admet donc une racine réelle (pourquoi ?).
3. Peut-on piper deux dés indépendants de façon à rendre toutes les sommes entre 2 et
12 équiprobables ?

Lois continues usuelles

Exercice 3 Calculer l'espérance et la variance de X lorsque X est une variable aléatoire


1. de loi uniforme U([a, b]) sur l'intervalle [a, b] ⊂ R ;
2. de loi normale N (m, σ) de paramètre m ∈ R, σ > 0 ;
3. de loi exponentielle E(λ) de paramètre λ > 0.

Exercice 4 Soit X une variable aléatoire de densité f (x) = a


π(a2 +x2 )
avec a > 0. La loi de
X est appelée loi de Cauchy de paramètre a.
Vérier que f est bien une densité. Pour quelles valeurs de α ∈ R la variable |X|α est-elle
intégrable ?

Exercice 5 Une variable aléatoire positive X est sans mémoire si

P(X > t + s|X > t) = P(X > s), ∀t, s ≥ 0.


Montrer qu'une variable aléatoire positive dont la loi admet une densité est sans mémoire
si, et seulement si elle suit une loi exponentielle.

Exercice 6 Soit X une variable aléatoire réelle.


1. Supposons que X a pour densité f . Quel lien y a-t-il entre f et la fonction de répartition
FX ?
2. Réciproquement, donner une condition sur FX pour que la loi de X admette une
densité.
3. Soit r un réel > 0. On suppose X à valeurs positives. Montrer que
Z ∞
r
E[X ] = rxr−1 P(X > x)dx,
0

où les deux membres sont nis ou innis. On pourra donner une preuve dans le cas à
densité (à l'aide de ce qui précède), et une preuve dans le cas général (dans l'esprit de la
question 1.3 de la feuille 3).

Exercice 7 Soit X1 , . . . , X n des variables aléatoires indépendantes de loi E(λ) de para-


mètre λ > 0.
1. Calculer la loi de maxi=1,...,n Xi . (Indication : calculer la fonction de répartition.)
2. Calculer la loi de mini=1,...,n Xi .
Correction de la feuille de TD 4

Somme de v.a. indépendantes et fonction génératrice

Exercice 1 Somme de v.a. indépendantes et fonctions génératrices

1. L'événement {X + Y = n} est la réunion disjointe des {X = k, Y = l} pour k, l ∈ N


tels que k + l = n, d'où :
X X
P(X + Y = n) = P(X = k, Y = l) = P(X = k)P(Y = l),
k,l∈N,k+l=n k+l=n

Pn
soit : µX+Y ({n}) = k=1 µX ({k})µY ({n − k}).
2. On reconnaît dans la formule précédente l'expression des coecients de la série en-
tière produit deGX et GY . Comme ces deux séries entières convergent sur [−1, 1], on
a donc, pour tout s ∈ [−1, 1], GX+Y (s) = GX (s)GY (s). Autre méthode : X et Y sont
X Y
indépendantes, donc s et s aussi, et celles-ci sont intégrables pour s ∈ [−1, 1], d'où :

GX+Y (s) = E[sX+Y ] = E[sX sY ] = E[sX ]E[sY ] = GX (s)GY (s).

3. La généralisation à n variables ne pose pas de problème.


4. Soit X1 , . . . , Xn des variables de Bernoulli indépendantes de paramètre p. On a GX1 (s) =
· · · = GXn (s) = p + (1 − p)s, d'où, pour tout s :

GX1 +···+Xn (s) = GX1 (s) · · · GXn (s) = (p + (1 − p)s)n = GS (s),

où S est une variable aléatoire de loi binomiale de paramètres n et p. Comme la fonction


génératrice caractérise la loi,Y = X1 + · · · + Xn suit une loi binomiale de Pparamètres n et
n
p. En particulier, l'espérance de cette loi est : E[Y ] = E[X1 +· · ·+Xn ] = P i=1 E[Xi ] = np,
n
et sa variance est (vu l'indépendance) : Var(Y ) = Var(X1 + · · · + Xn ) = i=1 Var(Xi ) =
np(1 − p). Remarquons que l'exercice précédent donnait déjà la loi loi binomiale comme
somme de Bernoullis indépendantes.
5.
 Si X (resp. Y) suit la loi binomiale de paramètres n et p (resp. m et p), alors :

GX+Y (s) = GX (s)GY (s) = (p + (1 − p)s)n (p + (1 − p)s)m = (p + (1 − p)s)m+n ,

donc X +Y suit la loi binomiale de paramètres m + n et p (ce qui se comprend bien


par l'interprétation précédente).
 Si X (resp. Y) suit la loi de Poisson de paramètre λ (resp. µ), alors :

GX+Y (s) = GX (s)GY (s) = eλ(1−s) eµ(1−s) = e(λ+µ)(1−s) ,

donc X +Y suit la loi de Poisson de paramètre λ + µ.


Exercice 2 Dés truqués
1. Soit X une variable de loi uniforme sur {2, . . . , 12}. Pour s ∈ [−1, 1] (ou R),
12
X 1 i s 1 − s11
GX (s) = s = .
i=2
11 11 1 − s

2. Supposons que l'on ait GX1 GX2 = GX (donné ci-dessus). Remarquons que, pour i=
1, 2,
6
X
GXi (s) = P(Xi = j)sj = sϕi (s),
j=1

où ϕi est un polynôme, à coecients réels, et que la condition P(X1 + X2 = 12) = 1/11


implique 1/11 = P(X1 = 6, X2 = 6) = P(X1 = 6)P(X2 = 6) ϕi est de degré
et donc que
5, impair. Par un argument de valeurs intermédiaires, les polynômes ϕ1 et ϕ2 ont donc
chacun au moins une racine réelle. Or :

1 − s11
11sϕ1 (s)ϕ2 (s) = ,
1−s
et le polynôme du membre de droite a pour racines les racines onzièmes de l'unité autres
que 1, dont aucune n'est réelle : contradiction.
3. Tant que les dés sont indépendants, on ne peut donc les piper (i.e. modier leur loi)
de façon à rendre toutes les sommes entre 2 et 12 équiprobables.

Lois continues usuelles

1[a,b] (x) x−a


Exercice 3 UNIFORME la densité est et la f.r. est F (x) = 1[a,b[ (x) +
b−a b−a
1[b,∞[ (x).
max(|a|, b)r
Pour tout r > 0, la fonction |x|r fX (x) est bornée par intégrable sur [a, b] donc
b−a
a+b (b − a)2
X admet des moments de tout ordre. En particulier E(X) = et V ar(X) = .
2 12
On peut également noter que si X ∼ U (0, 1) alors Y = (b − a)X + a ∼ U (a, b). On en
déduit facilement les moment de Y à partir de ceux de X .

exp(−(x − m)2 /(2σ 2 )


NORMALE La densité est fm,σ (x) = √ , la fonction de répartition
2πσ R x
n'a pas d'expression explicite, seulement la forme intégrale fm,σ (y)dy .
−∞
R∞ R∞ 2 R∞ 2
C'est bien une loi de proba : I = f (y)dy = −∞ f0,1 (y)dy = √ 0 e−x dx par
−∞ m,σ
π
x−m √
changement de variable x− > , la parité puis le changement de variable x− > 2x.
σ
D'autre part :
R 2 RR R  R 
−x2 −x2 −y 2
RR −r2 ∞ −r2 π/2
R+
e dx = R+ ×R+
e dxdy = R+ ×[0,π/2]
e rdrdθ = 0
e rdr 0
dθ =
2 p
1/2×π/2 = π/4. Donc I = √ π/4 = 1. Cette loi admet des moments de tous les ordres.
π
r
En eet, pour tout r > 0, on a |x| fm,σ (x) est intégrable.
X −m
On peut également montrer que si X ∼ N (m, σ)∼ N (0, 1). On en
alors Y =
σ
2
déduit facilement que E(X) = m + E(Y )σ et V ar(X) = σ V ar(Y ). Il sut de calculer les
m
moments de la N (0, 1). Par parité, on a que pour tout m entier impair, E(Y ) = 0. Soit
m
R m−1 R m−2
maintenant un entier pair. On a E(Y ) = y yf0,1 (y)dy = (m − 1) y f0,1 (y)dy en
m m−2
intégrant par parties. Donc on obtient la relation E(Y ) = (m − 1)E(Y ) lorsque m
est pair.
(2k)!
Comme E(Y 2 ) = 1 on obtient E(Y m ) = 1 . . . 3 . . . (m − 1) = en posant m = 2k .
2k k!
−λx
EXPONENTIELLE La densité est fλ (x) = λe 1x∈R+ . Donc la f.r. est Fλ (x) = 1−
−λx
e 1x∈R+ . La loi exponentielle sert à modéliser les durées de vie. On a E(X) = 1/λ et
V ar(X) = 1/λ2 .

Exerciceα 4
1. a|x|
π(a2 +x2 )
est intégrable ssi α − 2 < −1, i.e. α < 1.
1 1 2
2.
R0 R∞
e−|t| eiξt dt = −∞ e−t(1+iξ) dt + 0 e−t(1+iξ) dt =
R
+ = .
1 − iξ 1 + iξ 1 + ξ2
3. On déduit de la question précédente et de la transformée de fourier inverse que
−|t| 1 R 2
e = 2
eiξt dξ . En particulier, la fonction caractéristique de Y une variable
2π 1 + ξ
de loi de cauchy de paramètre 1 est e−|t| .
De plus, il faut noter que si X est de loi cauchy de paramètre a alors Y = X/a est de loi
cauchy de paramètre 1.
R ax a
Rx a
Rx 1
En eet, P(X/a ≤ x) = P(X ≤ ax) = −∞ π(a2 +x2 )
dx = −∞ π(a2 +(ay)2 )
ady = −∞ π(1+y 2 )
dy .
−1 X −|ta|
E(eitX ) = E(eitaa ) = E(eitaY ) = e = e−a|t| .

Exercice 5
R∞
Soit f la densité de notre variable et posons F̄ (x) = 1 − F (x) = x
f (t)dt.
0
F̄ est diérentiable avec dérivée F̄ (x) = −f (x). La propriété sans mémoire s'écrit
F̄ (s + t) = F̄ (t)F̄ (s). Dériver cette equation par rapport à t en t = 0 donne l'equation
diérentielle
0
F̄ (s) = −f (0)F̄ (s)
qui a comme solution F̄ (s) = ce−f (0)s . Donc f (t) = cf (0)e−f (0)t et c=1 est déterminé
par la normalisation. On obtient donc les lois exponentielles.

Exercice 6 Soit X R+ de densité f et r > 0.


une variable aléatoire à valeurs dans
Z ∞ Z ∞Z ∞ Z ∞Z y Z ∞
r−1 r−1 r−1
rx P(X > x)dx = rx f (y)dydx = rx f (y)dxdy = xr f (y)dy = E(X r ).
0 0 y 0 0 0

On peut justier l'échange d'intégration dans le cas où E(X r ) est ni car cette nitude
est l'hypothèse dans le Thm de Tonelli.
r
Si E(X ) est ni alors
Z b Z b
r r r
E(X ) = lim x F {dx} = −b (1 − F (b)) + rbr−1 (1 − F (x))dx
b→∞ 0 0

en appliquant avec G=1−F la formule


Z b Z b
0
u(x)G{dx} = u(b)G(b) − u(a)G(a) − u (x)G(x)dx.
a a
R R∞
On sait que lim xr F {dx} nie donc
b
xr F {dx} ≥ br (1 − F (b))
permet de déduire que
Rb r
la limite du terme de droite vaut 0. Il suit le résultat. On a d'autre part
0
x F {dx} ≤
R b r−1 r r
0
rb (1 − F (x))dx car pour b positif
R ∞ r−1on a b (1 − F (b)) positif. Donc lorsque E(X ) est
inni alors il en est de même de
0
rb (1 − F (x))dx.

Exercice 7 Pour une loi exponentielle de paramètre λ > 0, on a une densité f (x) =
−λx −λx
λe 1x>0 et une fonction de répartition F (x) = 1 − e si x > 0 et F (x) = 0 sinon.
n −λx n
Il suit P(maxi=1,...,n Xi ≤ x) = P(X ≤ x) = (1 − e ) .
n
D'autre part, P(mini=1,...,n Xi ≤ x) = 1 − P(mini=1,...,n Xi > x) = 1 − P(X > x) =
1 − e−nλx .
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 5

Obtenir une loi à partir d'une autre

Exercice 1 X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonction


Soit
mesurable. Soit Y la variable aléatoire dénie par Y = f (X).
1. On suppose que X admet une densité et que f est injective et C 1 par morceau.
Déterminer la densité de Y à l'aide d'un changement de variable.
2. On suppose que la loi de X est uniforme sur [0, 1] et f (x) = − ln x. Quelle est la loi
de Y ?
3. Si X est de loi normale N (m, σ), trouver une fonction f telle que Y est de loi normale
N (0, 1).
4. Soit U une variable aléatoire de loi uniforme sur [0, π]. Donner la loi de sin(U ).
5. Soit U une variable aléatoire de loi uniforme sur [−1, 1]. Donner la loi de
2 1 1+U
(a) |U | (b) U (c) ln .
2 1−U
Exercice 2 Soit X, Y deux variables aléatoires indépendantes de loi normale N (0, 1).
1. Calculer la loi de la variable
X
Y
.
2. En déduire la loi de Z
−1
si Z est une variable aléatoire de loi de Cauchy.

Exercice 3 Soit X et Y
deux variables aléatoires indépendantes de loi normale N (m, σ 2 ).
2
Calculer, en fonction de m et σ , l'espérance E[(X + Y ) ].

Quelques inégalités

Exercice 4 Soit X etdes variables aléatoires positives de carré intégrable sur (Ω, A, P).
Y
1. 2
A quelle condition a-t-on E(X ) = 0 ? On exclut cette possibilité dans la suite.
2. 2
En considérant la fonction λ 7→ E [(X + λY ) ], retrouver l'inégalité de Cauchy-Schwarz

E(XY )2 ≤ E(X 2 )E(Y 2 ).

3. Montrer que pour tout a ∈ [0, 1] :


(1 − a)E(X) ≤ E X1[aE(X),∞[ (X) .

4. En déduire que pour tout a ∈ [0, 1] :

E(X)2
P(X ≥ aE(X)) ≥ (1 − a)2 .
E(X 2 )
Exercice 5 L'inégalité de Jensen
Soit f : E ⊂ R → R une fonction convexe dénie sur un intervalle E qui contient les
valeurs d'une variable aléatoire X. On suppose que X et f (X) sont intégrables. Montrer
que
f (E(X)) ≤ E(f (X)).
Montrer que si f est strictement convexe, alors l'égalité f (E(X)) = E(f (X)) implique
que X est constante sur un événement presque sûr (c'est-à-dire de mesure 1 pour P).

Exercice 6 Soit Ω un ensemble ni.


L'entropie d'une probabilité P sur Ω
X
est H(P ) = − P ({ω}) log2 P ({ω}), où log2 est
ω∈Ω
le logarithme en base 2 et on adopte la convention 0 log2 0 = 0. P, Q probabi-
Pour
lités sur Ω Q({ω}) 
avec > 0 pour tout ω ∈ Ω, leur entropie relative est D(P kQ) =
X P ({ω})
P ({ω}) log2 .
ω∈Ω
Q({ω})
1. Montrer à l'aide de l'inégalité de Jensen que D est positive et que D(P kQ) = 0 im-
plique P = Q.
2. En déduire que, parmi les probabilités sur Ω, l'entropie est maximale pour la loi uni-
forme sur Ω et uniquement pour celle-ci.

Entropie

Soit (Ω, P) un espace de probabilité ni. L'entropie (sur la base b) de la distribution


P est la valeur X
Hb (P) := − P({ω}) logb (P({ω}))
ω∈Ω

où b>0 0 logb (0) = 0.


est la base du logarithme. Ici on dénit
Remarque : En théorie de l'information on utilise surtout b = 2, c'est l'entropie binaire
qu'on va noter H . Autrement dit, l'entropie binaire H est l'espérance de la variable aléa-
toire Z(ω) = − log2 (P({ω})). L'entropie binaire de la loi µX d'une variable aléatoire nie
X est notée H(µX ) ou bien H(X) .

Exercice 7 On considère un jeux de 32 cartes et la variable aléatoire X dénie par




 a si la carte est noir
b si la carte est un coeur

X(carte) =

 c si la carte est le 7, 8, 9, 10 de carreau
d pour les autres cartes

où a, b, c, d sont quatre réels distincts.


1. Déterminer H(X).
2. C et demande Bob de déterminer
Alice et Bob jouent au jeu suivant : Alice tire une carte
la valeur X(C) en posant des questions de type  X(C) appartient-il à A ? où A est une
partie de {a, b, c, d}. Supposons que Bob choisit les questions  X(C) = a ?,  X(C) = b ?
et  X(C) = c ? dans cet ordre. Montrer que la valeur moyenne du nombre de questions
que Bob à besoin de poser vaut H(X).
Exercice 8 Soit maintenant P et P0 deux probabilités sur Ω. L'entropie relative notée
0
D(PkP ) est dénie comme l'espérance de la variable ω → log2 (P({ω})) − log2 (P0 ({ω}))
par rapport à P :
X P({ω})
D(PkP0 ) = P({ω}) log2 ( ).
ω∈Ω
P0 ({ω})

1. Montrer à l'aide de l'inégalité de Jensen que D est positif et que D(PkP0 ) = 0 implique
P = P0 .
2. Soit u la distribution uniforme sur Ω. Montrer que

D(Pku) = H(u) − H(P).

3. En déduire que l'entropie binaire d'une distribution sur Ω prend ses valeurs entre 0 et
log2 |Ω| et que la distribution uniforme est l'unique point maximal de H.
Correction de la feuille de TD 5

Obtenir une loi à partir d'une autre

Exercice 1 X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonction


Soit
mesurable. Soit Y = f (X).
1. P(Y ∈ A) = P(f (X) ∈ A) = P(X ∈ f −1 (A)). En particular P(Y ∈ R) = P(X ∈ R) = 1
et les autres axiomes.
2. ρX la densité de X . On regarde le cas où f est
Soit
−1 (s))
injective et C 1.
P(Y ∈ A) = 1A (f (t))ρX (t)dt = 1A (s) |fρX0 (f(f−1 (s))|
R R
ds.
−1 0
Donc ρY (s) = |fρX0 (f(f−1 (s))|
(s))
(ou ρY = |f
−1
|ρX ◦ f −1 ).
3. ρX = 1[0,1] , f −1 (s) = e−s , f −1 0 (s) = −e−s . Donc ρY (s) = e−s 1[0,∞[ (s), ce qui est la loi
exponentielle de paramètre 1.
4. Réponse : f (x) = σ−1 (x − m).
5. Par application du théorème du transfert, si g est une fonction mesurable bornée de R
dans R, alors Z
E(g(sin(U ))) = g(sin(u))µU (du)
R
et Z
E(g(sin(U ))) = g(t)µsin(U ) (dt).
R

On sait que U a pour densité par rapport à la mesure de Lebesgue 1/π1[0,π] (u). Donc

Z Z π Z π/2
1 2
g(sin(u))µU (du) = g(sin(u))du = g(sin(u))du.
R π 0 π 0

En posant t = sin(u) on a u = arcsin(t) et

Z 1
2 1
E(g(sin(U ))) = g(t) √ dt.
π 0 1 − t2
2 1
Par conséquent, µsin(U ) (dt) =√ 1[0,1] (t)dt, donc la densité de sin(U ) au point t par
π 1 − t2
2 1
rapport à la mesure de Lebesgue est √ 1[0,1] (t).
π 1 − t2
6. Pour |U | et U 2 , il est plus direct de passer par la fonction de répartition. On trouve que
|U | est de loi uniforme sur [0, 1], U 2 a pour densité au point t par rapport à la mesure de
1 1 1+u
Lebesgue √ 1[0,1] (t). Pour la transformation par h(u) := ln , on peut remarquer
2 t 2 1−u
que cette fonction est strictement croissante de ]−1, 1[ vers R. On peut leur faire appliquer
2e2t
ce qui precede, on obtient une densité au point t donnée par .
(e2t + 1)2
Exercice 2 X, Y deux variables aléatoires indépendantes de loi normale N (0, 1).
Soit
1. La densité de (X, Y ) est ρ(t1 , t2 ) =
1 − 12 (t21 +t22 )

e . Alors
Z Z
X t1 1 − 1 (t21 +t22 ) 1 1 2 2
P( ∈ A) = 1A ( ) e 2 dt1 dt2 = 1A (s) e− 2 (s +1)t2 ds|t2 |dt2 .
Y R2 t2 2π R2 2π
Par Fubini on peut evaluer
Z
1 1 2 +1)t2 1
e− 2 (s 2 |t2 |dt2 =
2π R π(1 + s2 )
ce qui est donc la densité de la loi de Y.
2. Si Z
est une variable aléatoire de loi de Cauchy alors sa loi est la même que celle de
X Y X −1
. Par symmetrie a la même loi que . Donc Z a la même loi que Z .
Y X Y

Exercice 3 On trouve E[(X +Y )2 ] = E[X 2 ]+E[Y 2 ]+2E[XY ] = m2 +σ 2 +m2 +σ 2 +2m2 =


2 2
4m + 2σ .

Quelques inégalités

Exercice 4 Soit X et Y des variables aléatoires positives de carré intégrables sur (Ω, A, P).
1. La variable aléatoire X 2 est positive ou nulle donc E(X 2 ) = 0 si et seulement si X 2
est nulle presque sûrement ou encore si et seulement si X est nulle presque sûrement.
2. 2 2 2 2
La fonction λ → E [(X + λY ) ] = E(X ) + 2λE(XY ) + λ E(Y ) est un trinôme du
2
second degré toujours positif. Par conséquent son discriminant est négatif : 4E(XY ) −
4E(X 2 )E(Y 2 ) ≤ 0 autrement dit, E(XY )2 ≤ E(X 2 )E(Y 2 ).
3. Comme X est une variable positive on a 1[aE(X),∞[ (X) = 1 − 1[0,aE(X)[ (X).
Or E(X1[0,aE(X)[ (X)) ≤ aE(X) donc E(X1[aE(X),∞[ (X)) ≥ E(X) − aE(X).
4. En utilisant les deux questions précédentes on a :

(1 − a)2 E(X)2 ≤ E(X1[aE(X),∞[ (X))2 ≤ E(X 2 )P(X ≥ aE(X)).


Exercice 5 L'inégalité de Jensen A faire

Exercice 6 1. P (ω)(− log Q(ω) ) ≥ − log P (ω) Q(ω)


P P
Appliquer Jensen à − ln et la mesure P : P (ω) P (ω)
=
0, ou alors à x 7→ x ln x qui est strictement convexe (dérivée ln x+1 strictement croissante)
P P (ω)
(− log Q(ω)
PP PP
et à la mesure Q :
Q(ω) P (ω)
)Q(ω) ≥ ( Q Q) ln( Q Q) = 0. Le cas dégalité cor-
P
respond à constant Q-p.s., c'est-à-dire pour tout ω car Q > 0. La constante doit être 1
Q
puisque ce sont des probas.
2. P (ω)
P
Prendre pour Q la mesure uniforme : l'inégalité devient 0 ≤ P (ω) log 1/|Ω| =
−H(P ) + log |Ω| = −H(P ) + H(u) (u proba uniforme), d'où H(P ) ≤ H(u) et l'éga-
lité donne une égalité dans la question d'avant donc P = u.

Entropie

Exercice 7 On considère un jeux de 32 cartes avec la variable aléatoire X où




 a si la carte est noir
b si la carte est coeur

X(carte) =

 c si la carte est carreau 7, 8, 9, 10
d pour les autres cartes

où a, b, c, d sontPquatre nombres diérents.
1. H(X) = − i∈{a,b,c,d} P(X = i) log2 (P(X = i)) = 21 log2 (2) + 41 log2 (4) + 2 81 log2 (8) =
1, 75.
2. Alice et Bob jouent un jeu : Alice tire une carte C et demande Bob de déterminer la
valeur X(C) en posant des questions de type  X(C), appartient-il à A ? où A est une
partie de {a, b, c, d}. Supposons que Bob choisit les questions  X(C) = a ?,  X(C) = b ?,
 X(C) = c ?, dans cet ordre. Déterminer la valeur moyenne de nombre de questions que
Bob à besoin de poser.
Soit L
la variable aléatoire de nombre de questions Bob a du demander pour connaître le
1 1 1 1
resultat. Alors E(L) = 1 + 2 + 3 + 3 = 1, 75 = H(X).
2 4 8 8

Exercice 8 Voir copie de l'an passe.


Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 6

Exercice 1 Généralisation d'inégalités du cours


Soit X une variable aléatoire réelle de carré intégrable sur (Ω, A, P).
1. Soit g : R → R+ telle que g(x) ≥ b > 0 pour tout x ∈ I ⊂ R. Montrer que

P(X ∈ I) ≤ b−1 E(g(X)).

2. Retrouver à l'aide du résultat précédent les inégalités de Markov et Tchebyche.


3. 2
En utilisant la fonction g(x) = (x + c) pour c > 0 montrer que si E(X) = 0 et
2
Var(X) = σ alors pour tout t > 0,

σ2
P(X > t) ≤ .
σ 2 + t2
Exercice 2 Loi Gamma
Pour a > 0 et λ > 0, on dénit la loi γa,λ par sa densité relativement à la mesure de
Lebesgue :
λa
fa,λ (x) = exp(−λx)xa−1 1R+ (x).
Γ(a)
1. Vérier que cette fonction dénit bien une densité.
2. Déterminer l'espérance de cette loi.

Soit V1 , V2 , . . . , Vn des variables aléatoires réelles indépendantes de loi E(λ).


3. Montrer par récurrence que la loi de la somme V1 + · · · + Vn est la loi γn,λ .

Soit X et Y deux variables aléatoires réelles indépendantes de loi γa,λ .


4. Déterminer la loi de λX .
5. Montrer que X + Y et X/Y sont des v.a. indépendantes dont on calculera les lois.
6. Montrer que X + Y et X/(X + Y ) sont des v.a. indépendantes. Calculer la loi de
X/(X + Y ).

Soit X et Y deux variables aléatoires réelles indépendantes de loi γa,λ et γb,λ respecti-
vement.
7. Déterminer la loi de X +Y.

SoitZ1 , Z2 , . . . , Zn des variables aléatoires réelles indépendantes de loi N (0, 1).


8. Montrer que Z12 suit une loi γ1/2,1/2 .
9. Montrer que Z12 + · · · + Zn2 suit une loi γn/2,1/2 . (La loi γn/2,1/2 est également appelée
loi χ2 (n)).
Exercice 3 Loi Normale
Soit X deux variables aléatoires réelles indépendantes de loi N (0, 1).
et Y
1. Notons ΦX (t) = E(e
itX
) la fonction caractéristique de X . Donner Re (ΦX (t)) et
Im (ΦX (t)) puis montrer à l'aide d'intégrations par parties que Φ0X (t) = −tΦX (t). En
déduire l'expression de ΦX .
2. Soit θ ∈ [0, 2π]. Déterminer la loi de Xθ = X cos(θ) + Y sin(θ) et Yθ = −X sin(θ) +
Y cos(θ).
3. Les variables Xθ et Yθ sont-elles indépendantes ?
Exercice 4 Extrait du partiel d'avril 2008
1. Soient X et Y deux variables aléatoires indépendantes de loi N (m, σ 2 ) et N (m0 , σ 02 ).
Quelle est la loi de X +Y ?
2. SoientX1 , . . . , Xn des variables aléatoires indépendantes, toutes de loi N (m, σ 2 ). Quelle
X1 + · · · + Xn
est la loi de X n = ?
√ n
n
3. Montrer que (X n − m) suit une loi N (0, 1).
σ
4. Soit α ∈]0, 1[, montrer qu'il existe (sans l'expliciter) un unique nombre réel positif φα
tel que
Z φα
2 /2 dx
e−x √ = 1 − α.
−φα 2π

5. Iα = [m − t, m + t], avec t à préciser en fonction


En déduire qu'il existe un intervalle
P (X n ∈ Iα ) = 1 − α.
des constantes de l'exercice, tel que
6. En déduire que pour tout t > 0 on a limn→∞ P (|X n − m| > t) = 0.
7. On applique 5) au cas où m = 1/2, σ = 1/2, n = 1000 et α = 0, 05. On a φα = 1, 96
dans ce cas. Que peut-on dire de P(X n ≤ 0, 45) ?
Correction de la feuille de TD 6

Exercice 1 Généralisation d'inégalités du cours


Soit X une variable aléatoire réelle de carré intégrable sur (Ω, A, P).
1. g positive donne E(g(X)1X ∈I/ ) ≥ 0 et g minorée par b sur I donne E(g(X)1X∈I ) ≥
bP(X ∈ I).
2. Markov : X positive, t > 0, g(x) = x et I = [t, ∞[.
2
Tchebyche : t > 0, g(x) = (x − E(X)) et I =] − ∞, E(X) − t] ∪ [E(X) + t, +∞[.
3. Pour g(x) = (x + c) pour c > 0, on a bien g(x) ≥ 0 pour tout x et g(x) ≥ (t + c)2
2

pour x ≥ t > 0. Donc


1  2

P(X ≥ t) ≤ E (X + c) .
(t + c)2
Si E(X) = 0 et E(X 2 ) = σ 2 , cela donne :

σ 2 + c2
P(X ≥ t) ≤ .
(t + c)2

Le terme de droite est une fonction en c qui atteint son minimum au point c = σ 2 /t > 0
et donne le résultat attendu.

Exercice 2 Loi Uniforme


Exercice 3 Loi Gamma
1. Direct.
2. On utilise le fait que Γ(a + 1) = aΓ(a) pour obtenir que l'espérance de cette loi est
a/λ.
3. Pour n = 1, ok. Supposons n ≥ 2 et S := V1 + . . . + Vn−1 de loi γn−1,λ . Soit g une
fonction mesurable bornée de dans R. On a
R
Z
E(g(V1 + . . . + Vn )) = E(g(S + Vn )) = g(x + y)µ(S,Vn ) (dx, dy)
R

et Z
E(g(V1 + . . . + Vn )) = g(t)µV1 +...+Vn (dt).
R

Comme f (v1 , . . . , vn−1 ) = v1 + . . . + vn−1 et g(vn ) = vn2 mesurables on en déduit que S et


Vn sont indépendantes car (V1 , . . . , Vn−1 ) et Vn le sont,

Z ∞ Z ∞
λn−1 −λt n−2
Z
g(x + y)µ(S,Vn ) (dx, dy) = dx dtg(t) e x
R 0 x Γ(n − 1)
Z ∞
λn−1 −λt  n−1 t
= g(t) e x /(n − 1) 0 dt
Γ(n − 1)
Z0
λn
= g(t) exp(−λt)tn−1 1R+ (t)dt
R Γ(n)

4. On peut utiliser la fonction de répartition. Avec un changement de variable on voit


que λX ∼ γa,1 .
5. Soit g une fonction mesurable bornée de R2 dans R2 . On a
Z
E(g(X + Y, X/Y )) = g(u, v)µ(X+Y,X/Y ) (du, dv)
R2

et Z
E(g(X + Y, X/Y )) = g ◦ f (x, y)µ(X,Y ) (dx, dy)
R2
où f (x, y) = (x + y, x/y) dénie de (R∗+ )2 (R∗+ )2 . Comme les variables X et Y sont
vers
indépendantes, le couple (X, Y ) a pour densité µX (dx)µY (dy) par rapport à la mesure de
2
Lebesgue sur R .
On fait alors le changement de variable u = x + y , v = x/y , pour x > 0 et y > 0 ;
Ceci est équivalent à x = uv/(v + 1) et y = u/(v + 1) pour u > 0 et v > 0.

v/(v + 1) u/(v + 1) u
On a de plus |J(u, v)| =
1/(v + 1) −u/(v + 1)2 = (v + 1)2 . Il suit

v a−1 λ2a
Z
E(g(X + Y, X/Y )) = g(u, v)u2a−1 e−λu 1u>0 1 v>0 dudv.
R2 (v + 1)2a Γ(a)2
λ2a 2a−1 −λu
Les variables sont indépendantes, µX+Y (du) = u e 1u>0 du et µX/Y (dv) =
Γ(2a)
Γ(2a) v a−1
1v>0 dv .
Γ(a)2 (v + 1)2a
6. Soit g une fonction mesurable bornée de R2 dans R2 . On a
Z
E(g(X + Y, X/(X + Y ))) = g(u, v)µ(X+Y,X/(X+Y )) (du, dv)
R2

et Z
E(g(X + Y, X/(X + Y ))) = g ◦ f (x, y)µ(X+Y,X/(X+Y )) (dx, dy)
R2
où f (x, y) = (x + y, x/(x + y)) dénie de (R∗+ )2 vers (R∗+ )2 . Comme les variables X et
Y sont indépendantes, le couple (X, Y ) a pour densité µX (dx)µY (dy) par rapport à la
mesure de Lebesgue sur R2 .
On fait alors le changement de variable u = x + y , v = x/(x + y), pour x > 0 et y > 0 ;
Ceci est équivalent à x = uv et y = u(1 − v) pour u > 0 et v ∈ (0, 1).

v u
On a de plus |J(u, v)| =
1 − v −u = u. Il suit

λ2a 2a−1 −λu


Z
Γ(2a)
E(g(X +Y, X/(X +Y ))) = g(u, v) u e 1u>0 2
(v(1 − v))a−1 10<v<1 dudv.
R 2 Γ(2a) Γ(a)
Γ(2a)
Les variables sont indépendantes et on a de plus
2
(v(1 − v))a−1 10<v<1 dv .
µX/(X+Y ) (dv) =
Γ(a)R
7. Le seul point délicat est de calculer 0t xa−1 (t − x)b−1 dx = ta+b−1 01 ya−1 (1 − y)b−1 dy =
R

ta+b−1 Ca,b . La constante Ca,b est forcément égale à Γ(a)Γ(b)/Γ(a + b) en tenant compte
de la normalisation.
8. Si Z1 est de loi N (0, 1) et g une fonction mesurable bornée de R dans R. On a
Z Z Z
1 2 /2
E(g(X 2 )) = g(u)µX 2 (du) E(g(X 2 )) = g(x2 )µX (dx) = √ g(x2 )e−x dx.
R R 2π R
2 /2 2 R∞ 2 −x2 2 R∞ dy
Par parité de x 7→ g(x2 )e−x on a E(g(X 2 )) = √ 0
g(x )e dx = √ 0
g(y)e−y/2 √
2π 2π 2 y
1
donc µX 2 (dx) = √ e−y/2 y −1/2 1R+ (y).

9. On le montre par récurrence. Pour n = 1 c'est vrai. Supposons que Sn−1 = Z1 +
2
2
. . . + Zn−1 ∼ γ n−1 , 1 et Zn ∼ N (0, 1). On a Sn = Sn−1 + Zn2 . Comme f (z1 , . . . , zn−1 ) =
2 2
z12 + . . . + zn−1
2 2 2
et g(xn ) = zn mesurables on en déduit que Sn−1 et Zn sont indépendantes
car (Z1 , . . . , Zn−1 ) et Zn le sont. On utilise ensuite la question 7 et 8 donnant Sn suit une
γ n−1 + 1 , 1 = γ n , 1 .
2 2 2 2 2

Exercice 4 Loi Normale


SoitX et Y deux variables aléatoires réelles indépendantes de loi N (0, 1).
1. 0
On montre avec les indications que ΦX (t) = −tΦX (t). En utilisant le fait que ΦX (0) = 1
2 2
on obtient que log(ΦX (t)) = −t /2 et ΦX (t) = exp(−t /2).
2. En utilisant l'indépendance et la question précédente on trouve ΦXθ (t) = ΦYθ (t) =
exp(−t2 /2). N (0, 1).
Ces variables sont donc de loi
3. On dénit hθ (x, y) = (x cos(θ) + y sin(θ), −x sin(θ) + y cos(θ)) sur R2 . Par application
2 2
du théorème du transfert, si g est un fonction mesurable bornée de R dans R , alors
Z
E(g(Xθ , Yθ )) = g(u, v)µ(Xθ ,Yθ ) (du, dv)
R2

et Z
E(g(Xθ , Yθ )) = E(g ◦ hθ (X, Y )) = g ◦ hθ (x, y)µ(X,Y ) (dx, dy).
R2
−(x2 +y 2 )/2
X et Y
sont indépendantes donc (X, Y ) a pour densité e /(2π) par rapport à la
2
mesure de Lebesgue sur R . On fait le changement de variable u = x cos(θ) + y sin(θ),
v = −x sin(θ) + y cos(θ) pour (x, y) ∈ R2 . Ceci est équivalent à x = u cos(θ) − v sin(θ) et
y = u sin(θ) + v cos(θ) pour (u, v) ∈ R2 .

cos(θ) − sin(θ)
Le jacobien vaut |J(u, v)| = = 1. On obtient, en utilisant le fait que
sin(θ) cos(θ)
x2 + y 2 = u2 + v 2 ,
Z
2 +v 2 )/2
E(g ◦ hθ (X, Y )) = g(u, v)e−(u /(2π)dudv.
R2

Par conséquent, µ(Xθ ,Yθ ) = µXθ ⊗ µYθ . Ces deux variables aléatoires sont indépendantes.

Exercice 5 Voir Test partiel du 11 avril 2008


Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 7

Fonction caractéristique
Exercice 1 Lois symétriques, fonction caractéristique
La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même
loi.
1. À quelle condition une loi de densité f par rapport à la mesure de Lebesgue est-elle
symétrique ?
2. Soit X et Y des variables aléatoires indépendantes de même loi. Exprimer en fonction
de la fonction caractéristique ΦX de X les fonctions caractéristiques suivantes : Φ−X ,
ΦX+Y , ΦX−Y .
3. Montrer que la loi d'une variable aléatoire réelle X est symétrique si, et seulement si,
pour tout t ∈ R, ΦX (t) ∈ R.
4. Soit Y une v.a. réelle, et Z une v.a. indépendante de Y et de loi donnée par :

1
P(Z = 1) = = P(Z = −1).
2
Montrer que la loi de X = ZY est symétrique et calculer sa fonction caractéristique (en
fonction de ΦY ). Si Y admet une densité f, quelle est la loi de X?

Exercice 2 Calculs de fonctions caractéristiques


1. Calculer ΦX où X suit la loi E(λ). En déduire ΦZ où Z suit la loi γn,λ pour n ∈ N∗ .
2. Soit X
une variable aléatoire suivant la loi de Laplace, c'est-à-dire que la loi de X a
1 −|x| 1
pour densité x 7→ e sur R. Montrer que, pour t ∈ R, ΦX (t) = . (on pourra utiliser
2 1+t2
la dernière question de l'exercice précédent)
3. En déduire la fonction caractéristique d'une variable aléatoire suivant une loi de Cauchy
1
de paramètre 1 (densité f (x) = ). Quelle est la loi de la moyenne de deux variables
π(1+x2 )
aléatoires de loi de Cauchy de paramètre 1 indépendantes ?
4. SoitX1 , X2 , X3 , X4 des variables aléatoires indépendantes de loi N (0, 1). Rappeler la
valeur de ΦXi (t). Calculer ΦX1 X2 (en utilisant le théorème de Fubini), puis ΦX1 X2 +X3 X4 ,
et en déduire la loi de X1 X2 + X3 X4 .

Loi conditionnelle (cas général, cas à densité)


Exercice 3 X et Y deux variables aléatoires réelles indépendantes. Quelle est la loi
Soit
2
conditionnelle de X sachant Y ? Plus généralement, pour ϕ : R → R mesurable, quelle
est la loi conditionnelle de ϕ(X, Y ) sachant Y ?

Exercice 4 Soit X etY deux variables aléatoires indépendantes de loi N (0, 1). Détermi-
ner la loi du couple (X, X + Y ), et en déduire la loi conditionnelle de X sachant X + Y .
Exercice 5 Soit X, Ydes variables aléatoires indépendantes de loi N (0, 1).
1. 2
Déterminer la loi du couple (X, Z) = (X, X + Y ).
2

2. 2 2
En déduire la loi de X + Y puis la loi conditionnelle de X sachant X +
2
Y 2.
3. 2
Calculer E[ |X| |X + Y ].

2

4. On note R = Z et on dénit Θ ∈ [0, 2π[ par les équations X = R cos Θ et


Y = R sin Θ. Déterminer la loi du couple (R, Θ). Ces variables sont-elles indépendantes ?
Retrouver alors rapidement le résultat de la question précédente.
Exercice 6 Loi conditionnelle autour de la loi de Poisson
Soient X1 et X2 des variables aléatoires, indépendantes, de loi de Poisson de paramètre
λ1 et λ2 respectivement.
1. Calculer la loi de X1 + X2 .
2. Calculer la loi conditionnelle de X1 sachant X1 + X2 . Identier une loi connue puis
interpréter.

Exercice 7 Loi conditionnelle autour de la loi de Bernoulli


SoientX1 , . . . , Xn des variables aléatoires de Bernoulli indépendantes toutes de même loi :
P(Xi = 1) = p, P(Xi = 0) = 1 − p pour un p ∈]0, 1[. Soit Sn = X1 + . . . + Xn .
1. Quelle est la loi de Sn ?
2. Quelle est la loi du couple (X1 , Sn ) ?
3. Quelle est la loi conditionnelle de X1 sachant Sn ?
4. Quelle est la loi de conditionnelle de Sn sachant X1 ?
Exercice 8 Loi conditionnelle autour de la loi exponentielle
Soient T1 et T2 des variables aléatoires, indépendantes, de loi Exp(λ).
1. Calculer la loi de T1 + T2 .
2. Calculer la probabilité conditionnelle P(T1 ∈ [a, b]|T1 ≤ t ≤ T1 + T2 ) : Qu'en concluez-
vous ?
Correction de la feuille de TD 7

Fonction caractéristique
Exercice 1 Lois symétriques, fonction caractéristique
La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même
loi.
1. X de loi f (x)dx. Il faut et il sut que f soit paire (ou plutôt, soit égale Lebesgue-
presque-partout à une fonction paire) pour que la loi de X soit symétrique. En eet la
loi de −X −f
est de densité
R R ; et si deux densités f et g fournissent la même loi, elles
R
sont telles que
A
f (x)dx = A g(x)dx pour tout borélien A, d'où 0 = {f −g>0} (f − g) −
R R
{f −g<0}
(f − g) = R |f (x) − g(x)|dx et donc f (x) = g(x) dx-presque partout.
2. Φ−X (t) = ΦX (−t) = ΦX (t) (car X(ω) ∈ R), ΦX+Y = (ΦX )2 , ΦX−Y = |ΦX |2 .
3. ΦX (t) ∈ R ssi ΦX (t) = ΦX (t) ssi ΦX (t) = Φ−X (t).
4. La variable Z est symétrique, et est indépendante de Y . Donc le couple (−Z, Y ) a
même loi que (Z, Y ). Donc −ZY et ZY ont même loi. Et, en découpant selon les valeurs
de Z , ΦX (t) = 12 (E[eitY ] + E[e−itY ]) = Re(ΦY (t)). Si Y a pour densité f , −Y a pour
1
R ity f (y)+f (−y)
densité y 7→ f (−y), donc ΦX (t) = (ΦY (t) + Φ−Y (t)) = e dy pour tout t, ce
2 2
f (y)+f (−y)
qui montre que X a pour densité .
2

Exercice 2 Calculs de fonctions caractéristiques


1. Si X suit la loi E(λ), ΦX (t) = λ
λ−it
. Comme (voir che 4) la loi γn,λ est la loi de la
somme de n variables de loi exponentielle indépendantes,
 n
n λ
ΦZ (t) = (ΦX (t)) = .
λ − it

2. On peut voir que, si on note f (x) = e


−x
1R+ (x) la densité de la loi exponentielle de
1 −|x| f (x)+f (−x)
paramètre 1, alors e = , donc X se déduit d'une variable Y de loi E(1) de
2 2
1 1
la même façon qu'à la n de l'exercice 1. Ainsi, on a ΦX (t) = Re( ) = 1+t 2.
1−it
3. Comme ΦX est intégrable sur R on a, par la formule d'inversion de Fourier (ou Corol-
1 −|x| 1
R −itx
laire II.14 du cours 7), e = e ΦX (t)dt où X est comme à la question d'avant.
2 2π R
En réécrivant cette égalité, on a e−itx π(1+t
dt
2) = e
−|x|
, c'est-à-dire ΦY (t) = e
−|t|
si Y
est de loi de Cauchy de paramètre 1. Soit X1 , X2 de loi de Cauchy de paramètre 1.
t
Φ X1 +X2 (t) = E[ei 2 (X1 +X2 ) ] = ΦX1 (t/2)2 = e−|t| = ΦX1 (t). Donc la loi de X1 +X 2
2
est celle de
2
X1 .
4. On a :
Z Z 
−itxy − y2
2
dy x2 dx
ΦX1 X2 (t) = e e √ e− 2 √
Z 2π 2π
x2 dx
= ΦX2 (tx)e− 2 √
Z 2π
2 x 2 dx
= e−(t +1) 2 √

1
= √ .
1 + t2
Puis ΦX1 X2 +X3 X4 (t) = √ 1 , et la question précédente montre que X 1 X2 + X3 X4 suit la
1+t2
1 −|t|
loi
2
e dt.

Lois conditionnelles
Exercice 3 examen de rattrapage du 25 juin 2008. Pour toute f : R → R mesurable
bornée, on a :

Z Z Z 
E[f (ϕ(X, Y ))] = f (ϕ(x, y))dµ(X,Y ) (x, y) = f (ϕ(x, y))dµX (x) dµY (y)
Z Z 
= f (φ)dµϕ(X,y) (φ) dµY (y),

donc la loi conditionnelle de ϕ(X, Y ) sachant Y =y est la loi de ϕ(X, y).


x2 (z−x)2
Exercice 4 On trouve (X, Z) = (X, X + Y ) 1
de densité

e− 2 e−
, et comme Z a 2

x2 (z−x)2 2
− − 2 + z4 √1
pour loi N (0, 2), la loi de X conditionnellement à Z a pour densité e 2 et
π
2 2 z 2 z
l'exposant s'écrit −(x − zx + z /4) = −(x − ) , donc c'est la loi N ( , 2).
2 2

Exercice 5 Loi conditionnelle autour de la loi normale


Soit X, Y des variables aléatoires indépendantes de loi N (0, 1).
1. 2
Pour toute fonction bornée f : R → R, on a :
Z Z
dx dy
2 /2 2 /2
E[f (X, Z)] = f (x, x2 + y 2 )e−x e−y
R R 2π
Z Z ∞
2 2 dy dx
= 2 f (x, x2 + y 2 )e−x /2 e−y /2

ZR Z0 ∞
dz dx
= 2 f (x, z)e−z/2 √
R x2 2 z − x2 2π
e−z/2
Z Z
= f (x, z)1{z≥x2 } √ dx dz,
R R 2π z − x2
−z/2
e√
donc la loi du couple (X, Z) est de densité f(X,Z) (x, z) = 1 2
2π z−x2 {z≥x }
par rapport à la
2
mesure de Lebesgue sur R .
2. Alors la loi de Z est de densité :

z
e−z/2
Z Z
dx 1
fZ (z) = f(X,Z) (x, z)dx = 1R+ (z) √
√ = e−z/2 1R+ (z)
R 2π − z z−x 2 2

(en reconnaissant la dérivée de arcsin √xz dans l'intégrale), autrement dit Z suit la loi

exponentielle de paramètre 1/2. Donc la loi conditionnelle de X sachant Z est p(z, dx) =
fX|Z=z (x)dx où, pour z>0 :

f(X,Z) (x, z) 1{|x|≤√z} 1


fX|Z=z (x) = = √ ,
fZ (z) z − x2 π
et fX|Z=x (x) = 0 si z ≤ 0.
3. Alors :
Z
E[ |X| |Z] = |x|fX|Z (x)dx
R
Z √Z
2 x
= √ dx
π 0 Z − x2
2h √ i √Z
= − Z − x2
π√ x=0
2 Z
= .
π

4. Voir corrigé de l'examen, ou : On note φ : (x, y) 7→ (r, θ) l'application de passage en


1 2
coordonnées polaires ; c'est un C -diéo de R \ (R+ × {0}) dans ]0, +∞[×]0, 2π[, avec
|Jφ−1 (r, θ)| = r. Pour toute fonction mesurable bornée f : R2 → R, on a donc :
Z Z
2 2 )/2 dx dy
E[f (R, Θ)] = E[f (φ(X, Y ))] = f (φ(x, y))e−(x +y
R R 2π
Z ∞ Z 2π
2 dθ
= f (r cos θ, r sin θ)e−r /2 r dr ,
0 0 2π
2 1 (θ)
donc (R, Θ) a pour densité re−r /2 1]0,+∞[ (r) ]0,2π[2π
. R et Θ sont indépendantes, de lois
−r2 /2
respectives re 1]0,+∞[ (r)dr et la loi uniforme sur
√ [0, 2π]. La loi conditionnelle de X
sachant Z est la loi conditionnelle de R cos Θ = Z cos Θ sachant Z . Or Z et Θ sont

indépendantes car R = Z et Θ le sont. Par l'exercice 3, la loi de X sachant Z = z est

donc la loi de z cos Θ. Notamment, on a donc :
π/2 √
√ √
Z
dθ 2 z
E[ |X| |Z = z] = z E[ | cos Θ| ] = 4 z cos θ = ,
0 2π π

comme obtenu plus haut. On pourrait aussi retrouver la densité fX|Z=z (x).

Exercice 6 Loi conditionnelle autour de la loi de Poisson


examen du 9 juin 2008

Exercice 7 Loi conditionnelle autour de la loi de bernoulli


test partiel du 11 avril 2008

Exercice 8 Loi conditionnelle autour de la loi de exponentielle


examen de rattrapage du 25 juin 2008
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 8

Modes de convergence et lemme de Borel-Cantelli

Quelques Rappels

Par dénition [ \
lim inf An = Ak ,
n
n≥1 k≥n

donc ω ∈ lim inf n An ⇔ il existe n tel que ω ∈ Ak pour tout k ≥ n. lim inf n An contient
les éléments ω ∈ Ω qui appartiennent à tous les An à partir d'un certain rang. D'autre
part
\ [
lim sup An = Ak
n
n≥1 k≥n

donc ω ∈ lim supn An ⇔ pour tout n, il existe k(n) ≥ n tel que ω ∈ Ak(n) donc lim supn An
contient les éléments ω ∈ Ω qui appartiennent à une innité de An .
On savait déjà que pour une suite d'événements (An )n :

* P(∪∞
P∞
n=1 An ) ≤ n=1 P(An ) avec une égalité dans le cas où les An sont deux à deux
disjoints.

* limn→∞ P(An ) = P(∪∞


n=1 An ) lorsque (An )n est croissante.
* limn→∞ P(An ) = P(∩∞
n=1 An ) lorsque (An )n est décroissante.
Posons In = ∩k≥n Ak et Jn = ∪k≥n Ak . On a donc P(lim supn An ) = limn→∞ P(∪k≥n Ak ) =
limn→∞ P(Jn ) et P(lim inf n An ) = limn→∞ P(∩k≥n Ak ) = limn→∞ P(In ).
De plus pour tout n
In ⊂ An ⊂ Jn
et par conséquent

P(lim inf An ) = lim P(In ) ≤ lim inf P(An ) ≤ lim sup P(An ) ≤ lim P(Jn ) = P(lim sup An ).
n n→∞ n n n→∞ n

Borel-Cantelli :

* n P(An ) < ∞ ⇒ P(lim supn An ) = 0.


P

* (An ) mutuellement indépendants et n P(An ) = ∞ ⇒ P(lim supn An ) = 1.


P

Exercice 1 Soit(Xn )n≥0 une suite de variables aléatoires indépendantes de loi exponen-
tielle de paramètre λ > 0. On pose

Xn
Y = lim sup .
n ln n
1
Le but est de montrer que Y = λ
presque surement.
1. Montrer que

    
Xn 1 Xn 1
P lim sup ≥ ≤ P lim sup ≥ .
n ln n λ n ln n λ

2.
 Xn 1
P(Y ≥ λ1 ) = 1.

Montrer que P lim supn ln n
≥ λ
= 1. En déduire que
3. Montrer que, pour tout  > 0,
    
Xn 1+ Xn 1+
P lim sup > ≤ P lim sup > .
n ln n λ n ln n λ

4.
 Xn 1+
 1+
Montrer que P lim supn ln n
> λ
= 0. En déduire que P(Y > λ
) = 0.
5. En déduire
1
que P(Y = ) = 1.
λ
6. Montrer que
Xn
ln n
converge vers 0 en probabilité. Cette suite converge-t-elle presque
sûrement vers 0?

Exercice 2 Soit (pn )n≥1 une suite dans [0, 1] qui tend vers 0. Soit (Xn )n≥1 une suite de
variables aléatoires indépendantes de loi Bernoulli de paramètre pn : P(Xn = 1) = pn =
1 − P(Xn = 0).
1. Montrer que Xn converge vers 0 en probabilité.
2.
P
Sous quelle condition sur la somme n pn la suite (Xn )n≥1 converge-t-elle aussi presque
sûrement vers 0?

Exercice 3 (Un )n∈N une suite de variables aléatoires indépendantes de loi de Ber-
Soit
noulli de paramètre p (i.e. qui valent 1 avec probabilité p et 0 avec probabilité q = 1 − p).
Pour tout n, on note Yn = Un Un+1 , puis Sn = Y1 + . . . + Yn .
1. Pour tout n, quelle est la loi de Yn ?
2. A quelle condition sur n et m tels que 1 ≤ n < m les variables aléatoires Yn et Ym
sont-elles indépendantes ?
3. Calculer E[Yn Ym ] E[Sn /n].
puis calculer
4. Montrer qu'il existe une constante C telle que, pour tout n, Var[Sn ] ≤ Cn.
5. Démontrer que la suite Sn /n converge en probabilité vers une constante à préciser.
Correction de la feuille de TD 8

Exercice 1
1. Soit (xn )n≥0 une suite de nombres réels. On rappelle
Decoule de l' implication suivante
que lim supn xn = limn supk≥n xk . Alors on peut montrer que

xn ≥ 0 pour une innité de n =⇒ lim sup xn ≥ 0


n

2. ) = P( Xn ≥ lnλn ) = e− ln n = n−1 . Donc


 Xn 1

On a P( ln n
≥ λ

X  Xn 1
 X1
P( ≥ )= = ∞.
n
ln n λ n
n
 Xn 1

Comme les variables sont indépendantes, Borel Cantelli implique P(lim supn ln n
≥ λ
)=
1 et donc avec 1. P(Y ≥ λ1 ) = 1.
3. Decoule de l' implication suivante Soit
(xn )n≥0 une suite de nombres réels. On rappelle
que lim supn xn = limn supk≥n xk . Alors on peut montrer que

lim sup xn > 0 =⇒ xn > 0 pour une innité de n.


n

4. Maintenant  
X Xn 1+ X
P( > )= n−(1+) < ∞.
n
ln n λ n
 Xn
> λ1 (1 + ) ) = 0. P(Y > λ1 (1 +

Borel Cantelli nous dit alors que P(lim supn Avec 3.
ln n
)) = 0.
5. On laissant tendre vers 0 on obtient par σ -continuité que P(Y > λ1 ) = lim→0 P(Y >
1+
λ
) = 0. Donc P(Y = λ1 ) = P(Y ≥ λ1 ) − P(Y > λ1 )=1-0=1.
6. On a P( lnXnn ≥ a) = P(X1 ≥ aln n) → 0.
Exercice 2
1.  > 0 que P(Xn ≥ ) ≤ pn −→ 0T. S
On a pour tout
n→∞

2. On pose Λn = {Xn = 1}. Λ = lim supn Λn = n k≥n Λk est l'ensemble des points

P∈ Ω pour lesquelles Xn (ω) ne converge pas vers 0. D'après Borel-Cantelli


ω P P(Λ) = 0 ssi
n P(Λn ) < ∞. Donc (Xn )n converge prèsque surement vers 0 ssi n pn < ∞ .

Exercice 3 Voir examen du 9 juin 2008


Correction de l'exercice 1 du Td 8

Xn
1. Montrons que
Xn
lim sup{ ln n
≥ 1/λ} ⊂ {lim sup ≥ 1/λ}.
ln n
Xn Xn
Soit ω ∈ lim sup{ ln n
≥ 1/λ}. Alors ω appartient à une innité d'événements { ln n
≥ 1/λ}
Xn (ω)
c'est-à-dire que l'ensemble {n ∈ N, ≥ 1/λ} est inni.
ln n
Xn (ω) X
Par conséquent, lim sup
ln n
≥ 1/λ ; soit encore ω ∈ {lim sup n ≥ 1/λ}.
ln n
2. On a P( ln n ≥ λ1 ) = P( Xn ≥ lnλn ) = e− ln n = n−1 . Donc
 Xn

X  Xn 1
 X1
P( ≥ )= = ∞.
n
ln n λ n
n

Comme les variables sont indépendantes, Borel Cantelli implique


 Xn
≥ λ1 ) = 1 et donc avec la question 1. P(Y ≥ λ1 ) =

P(lim supn ln n
1.
Xn
3. Montrons que {lim sup > 1+
λ
Xn
} ⊂ lim sup{ ln n
> 1+
λ
}.
ln n
Xn 1+ Xn (ω) 1+
Soit ω ∈ {lim sup > λ
} on a alors lim sup > λ
.
ln n   ln n
Xn (ω) Xn (ω)
Or il existe une sous-suite de qui converge vers lim sup .
ln n n∈N ln n
Xn (ω)
Donc l'ensemble {n ∈ N,
ln n
> 1+λ
} est inni.
X 1+
Ce qui signie que ω ∈ lim sup{ n > }.
ln n λ
4. Maintenant X  Xn 
1+ X
P( > )= n−(1+) < ∞.
n
ln n λ n
 Xn 1

Borel Cantelli nous dit alors que P(lim supn > (1 + ) ) = 0.
ln n λ
1
Avec la question 3. P(Y > (1 + )) = 0.
λ
5. En laissant tendre  vers 0 on obtient par σ-continuité que
P(Y > λ1 ) = lim→0 P(Y > 1+ λ
) = 0. Donc P(Y = λ1 ) = P(Y ≥ λ1 ) − P(Y > λ1 )=1-0=1.
6. On a P( lnXnn ≥ ) = P(X1 ≥ ln n) → 0.
Autrement dit, il est clair que cette variable converge en probabilité vers 0.
On peut montrer qu'elle ne converge pas ps vers 0 en utilisant l'équivalence

Yn →ps Y si et seulement si ∀ > 0 P(lim sup |Yn − Y | > ) = 0.


n

En eet, pour Yn = Xn / ln n et Y = 0 ici, on voit très rapidement apparaître une contrac-


diction avec le résultat de la question 5.
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 9

Exercice 1 X et Y deux variables aléatoires indépendantes de lois respectives E(λ)


Soit
avec λ > 0 et E(µ) avec µ > 0. On note Z = min(X, Y ).
1. Calculer la fonction de répartition de Z .
2. Calculer P(X ≤ Y ).
3. Montrer que les variables Z et 1{Z=X} sont indépendantes.
Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0, 1[
et E(λ) avec λ > 0. On note Z = min(X, Y ).
4. Calculer les fonctions de répartition de X et Y .
5. Calculer P(X ≤ Y ).
6. Pour k ∈ N? , calculer P(Z = k).
7. Pour ` ∈ N, a et b deux réels tels que ` < a < b < ` + 1, calculer P(a < Z < b).
Exercice 2
1. Soit X0 , X1 , . . . , Xn des variables aléatoires indépendantes et identiquement distri-
buées. Soit N une variable aléatoire de loi binomiale B(n, p) indépendante de X0 , X1 , . . . , Xn .
On pose
N
X
U= Xi .
i=0

Exprimer la fonction caractéristique de U en fonction de celle de X0 .


2. (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi de Bernoulli
Soit
de paramètre p. Soit N une variable aléatoire de loi de Poisson de paramètre λ > 0
indépendante de (Xn )n≥1 . On pose


0 si N = 0,
V = PN
i=1 Xi si N ≥ 1.

Calculer la fonction génératrice de V. Quelle loi reconnaissez-vous ?

Exercice 3
1. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi N (0, 1).
1 Pn
Montrer que la suite de terme général X 2 eXi converge presque sûrement lorsque
n i=1 i
n tend vers l'inni vers une limite que l'on précisera.
2. (Yn )n≥1 et (Zn )n≥1 des variables aléatoires indépendantes et de même loi uniforme
Soit
sur [0, 1]. Déterminer le comportement lorsque n tend vers l'inni de la suite de terme
1 Pn
général 1{Yi +Zi ≤1} .
n i=1
3. Notons Mn = max(Y1 , . . . , Yn ). Déterminer la loi de Mn puis montrer que Mn converge
en probabilité vers 1.
Correction de la feuille de TD 9

Exercice 1 X et Y deux variables aléatoires indépendantes de lois respectives E(λ)


Soit
avec λ > 0 et E(µ) avec µ > 0. On note Z = min(X, Y ).
1. Z est une variable positive. Pour z > 0, on a P(Z ≤ z) = 1 − P(X > z, Y > z) =
1 − P(X > z)P(Y > z) = 1 − e−(λ+µ)z donc Z suit une loi exponentielle de paramètre
λ + µ.
λ
2. P(X ≤ Y ) = R2 1x≤y µ(X,Y ) (dx, dy) =T onelli 0∞ x∞ µe−µy dy λe−λx dx =
R R R 
.
λ+µ
3. Il est susant de montrer que pour A ⊂ R borélien : P(Z ∈ A, 1Z=X = 1) = P(Z ∈
A)P(1Z=X = 1). On a

P(Z ∈ A, 1Z=X = 1) = P(X ≤ Y, X ∈ A)


Z Z ∞ 
= µe dy λe−λx 1R+ (x)dx
−µy
A
Z x
= λ e−(λ+µ)x 1R+ (x)dx.
A

λ
(λ+µ)e−(λ+µ)z 1R+ (z)dz
R
D'autre part, P(Z ∈ A)P(1Z=X = 1) = P(Z ∈ A)P(X ≤ Y ) = A
.
λ+µ
Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0, 1[
et E(λ) avec λ > 0. On note Z = min(X, Y ).
4. X est une variable à valeurs dans N? et pour x ≥ 1, on a :
[x]
X
P(X ≤ x) = P(X ≤ [x]) = p(1 − p)k−1 = 1 − (1 − p)[x] .
k=1

Pour Y on a pour tout y : P(Y ≤ y) = (1 − e−λy )1R+ (y).


5.
∞ ∞ ∞
X X X pe−λ
P(X ≤ Y ) = P(X ≤ Y, X = k) = P(Y ≥ k)P(X = k) = p(1−p)k−1 e−λk = .
k=1 k=1 k=1
1 − e−λ (1 − p)

6. Pour k ∈ N ,
?
P(Z = k) = P(X = k, Y > k) car Y est à densité donc P(Z = k) =
p(1 − p)k−1 e−λk .
7. Pour` ∈ N, a et b deux réels tels que ` < a < b < ` + 1, on a :
P(a < Z < b) = P(a < Y < b, X ≥ ` + 1) = P(a < Y < b)P(X ≥ ` + 1) = P(a < Y <
b)(1 − P(X ≤ `)) = (e−λa − e−λb )(1 − p)` .

Exercice 2
1.
PN Pk
itU
] = E[eitU ( nk=0 1N =k )] = nk=0 E[eit j=0 Xj ]P(N =
P P
On pose U= i=0 Xi . φU (t) = E[e
n
k) on trouve alors facilement que φU (t) = φX0 (t) (pφX0 (t) + 1 − p) .

2.
P 
N V V
P ∞ P∞ V
On pose V = i=1 Xi 1N ≥1 . GV (s) = E[s ] = E[s ( k=0 1N =k )] = k=0 E[s 1N =k ] =
P∞ Pk
Xj
P∞ λk
P(N = 0)+ k=1 E[s
j=11N =k ] = e−λ + k −λ
k=1 (1−p+sp) e = eλp(s−1) . On reconnait
k!
la loi de Poisson de paramètre λp.
Exercice 3
1. E[X 2 eX ] = 2e1/2 . On a des variables aléatoires indépendantes de même loi intégrables
donc d'après la loi forte des grands nombres on a la convergence ps vers 2e1/2 .
2. E[1Y +Z≤1 ] = 1/2. On a des variables aléatoires indépendantes de même loi intégrables
donc d'après la loi forte des grands nombres on a la convergence ps vers 1/2.
3. Notons Mn = max(Y1 , . . . , Yn ). On a pour x < 0 P(Mn ≤ x) = 0 et pour x > 1
P(Mn ≤ x) = 1. Pour x ∈ [0, 1], on a P(Mn ≤ x) = P(Y1 ≤ x)n = xn .
P(|Mn − 1| > ε) = (1 − ε)n 10<ε≤1 . Donc cette probabilité tend vers 0 pour tout ε > 0.
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 10

Exercice 1
Montrer que, dans une suite de lancers indépendants de pièces de monnaie identiques, la
séquence PFPFF ( Pile, Face) apparaît une innité de fois. Préciser ce résultat à l'aide de
la loi forte des grands nombres.

Exercice 2
Soit (Xn )n≥1
une suite de variables aléatoires indépendantes, de même loi. On note X =
X1 . On suppose E[X] = 0 et E[X 4 ] < ∞. Le but de l'exercice est de démontrer la loi forte
des grands nombres pour la suite (Xn )n . On note, pour tout n, Sn = X1 + · · · + X n .
1. 4 4
Montrer que, pour tout n, E[Sn ] = nE[X ] + 3n(n − 1)E[X ] .
2 2

2.
P
En déduire que, pour tout ε > 0, n P(|Sn | > nε) converge.
3. Conclure.

Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, de loi E(λ).
1. Montrer la convergence en probabilité suivante :

1 (p) 1
max Xk −→ .
ln n 1≤k≤n n λ

2. Démontrer que la suite de terme général max1≤k≤n Xk − ln n


λ
converge en loi vers une
limite à déterminer.

Exercice 4
1. Montrer que si (Xn )n converge en loi vers une variable aléatoire constante c, alors la
convergence a lieu en probabilité.
2. Donner un exemple de suite (Xn )n≥0 qui converge en loi mais pas en probabilité (et
donc pas presque sûrement). Indication : utiliser par exemple X de loi N (0, 1) et −X ,
qui a même loi.
Exercice 5 Soient X1 , . . . , X n des variables aléatoires indépendantes de loi exponentielle
X1 + · · · + Xn
de paramètre λ > 0. On pose X n = et Zn = 1/X n .
n
1. Montrer que Zn converge presque sûrement vers λ quand n tend vers ∞.
2. En supposant n susamment grand pour que cela se justie, par quelle loi gaussienne
peut-on approcher la loi de X n ?
3. Soit N une variable aléatoire de loi N (0, 1), montrer qu'il existe un unique φ ∈ R+ tel
que P(|N | ≤ φ) = 0, 95.
4. En déduire un intervalle de la forme I = [1/λ − β, 1/λ + β], avec β à déterminer, tel
que P(X n ∈ I) = 0, 95.
5. En déduire ensuite un intervalle de la forme J = [α1 λ, α2 λ], avec α1 , α2 à déterminer,
tel que P(Zn ∈ J) = 0, 95.
6. Application numérique : calculer J , en fonction de λ inconnu, pour n = 10000 et
φ = 1, 96.
Correction de la feuille de TD 10
Exercice 1 (Xn )n≥0 suite i.i.d. de loi P(Xn = F ) = 1/2 = 1 − P(Xn = P ). On applique
Borel-Cantelli aux événements indépendants

A5n = {(X5n , X5n+1 , X5n+2 , X5n+3 , X5n+4 ) = (P, F, P, F, F )}


P
qui ont tous même proba de sorte que la série n P (A5n ) diverge grossièrement. La loi des
grands nombres donne quant à elle la fréquence asymptotique d'apparition de la séquence :
presque-sûrement,

1 1 X 1 X
]{1 ≤ k ≤ n|(Xk , Xk+1 , Xk+2 , Xk+3 , Xk+4 ) = (P, F, P, F, F )} = 1A5k +· · ·+ 1A →

n n 1≤5k≤n n 1≤5k+4≤n 5k+4 n

(on découpe l'ensemble selon le résidu de k modulo 5 de façon à avoir des v.a. indépen-
dantes).

Exercice 2
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, de même loi. On note X =
X1 . On suppose E[X] = 0 et E[X 4 ] < ∞. Le but de l'exercice est de démontrer la loi forte
des grands nombres pour la suite (Xn )n .
1. Montrer que, pour tout n, E[Sn4 ] = nE[X 4 ] + 3n(n − 1)E[X 2 ]2 . (développer...)
2. Pour tout ε > 0,
E[Sn4 ] 3E[X 2 ]2
P(|Sn | > nε) = P(|Sn |4 > n4 ε4 ) ≤ ∼n .
n4 ε4 n2 ε4

3. Pour tout p ∈ N∗ , en prenant ε = 1/p, par Borel-Cantelli, il existe p.s. n0 tel que,
|Sn |
pour n ≥ n0 , n
≤ p1 . Comme une intersection dénombrable d'événements presque sûrs
|Sn |
est presque sûre, on a : p.s., pour tout p ∈ N∗ , il existe n0 tel que, pour n ≥ n0 , n
≤ 1
p
,

c'est à dire que la suite (Sn /n)n converge vers 0.

Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, de loi E(λ).
1. Soit ε > 0. On a :

1 1 1
P( max Xk − > ε) = P(Xk > ( + ε) ln n)n
ln n 1≤k≤n λ λ
= exp(−n(1 + λε) ln n) →n 0
et, si ε < 1/λ :

1 1 1
P( max Xk − < −ε) = (1 − exp(−(1 − λε) ln n))n = exp(n ln(1 − 1−ελ )) →n 0,
ln n 1≤k≤n λ n
et cette proba est nulle si ε > 1/λ.
2. Pour t ≤ 0, P(Zn ≤ t) = 0 et on a, pour tout t>0 :

ln n
P(Zn ≤ t) = P(Xk − ≤ t)n
λ
e−λt n −λt
= (1 − ) →n e−e .
n
−λt
Donc Zn converge en loi vers la loi ayant pour fonction de répartition F (t) = e−e 1[0,+∞[ (t).
−λt −e−λt
En dérivant, on voir que c'est aussi la loi de densité λe e 1[0,+∞[ (t). Il s'agit d'une
loi de Gumbel.

Exercice 4
1. Si (Xn )n converge en loi vers la variable aléatoire constante c, alors : pour tout ε > 0,

P(|Xn − c| > ε) = 1 − P(c − ε < Xn < c + ε) →n 0

par convergence des fonctions de répartition aux points de continuité de la limite (ici,
partout sauf en c).
2. X de loi N (0, 1). Alors −X a même loi, donc la suite Xn = (−1)n X converge en loi
vers X ; or Xn − X = 0 si n est pair et −2X si n est impair donc la suite P(|Xn − X| > 1)
ne converge pas vers 0.

Exercice 5
1. Par la loi des grands nombres (X1 integrable) on a X n →ps E[X1 ] = 1/λ. Donc
Zn →ps λ.
2. Par le T.C.L. si Sn = nX n alors

Sn − nE[X1 ]
√ ∼ N (0, σ(X1 ))
n
1
donc X ∼ N (1/λ, √ ).
Rnλ √
3. La fonction x 7→ −x x 2
e−t /2 dt/ 2π est continue, croissante de 0 à 1 donc le théorème des
valeurs intermédiaires (si I intervalle de R et f dénie sur I à valeurs réelles et continue
alors f (I) est un intervalle.)

4. nλ(X − 1/λ) ∼ N (0, 1) donc

P( nλ|X − 1/λ| < φ) = 0.95
√ √
c'est à dire P(|X − 1/λ| < φ/( nλ)) = 0.95 donc β = φ/( nλ).
√ √
5. P(1/λ + φ/( nλ) ≤ X ≤ 1/λ + φ/( nλ)) = 0.95 est equivalent à
√ √
P(λ(1/(1 + φ/ n)) ≤ Zn ≤ λ(1/(1 − φ/ n))) = 0.95

donc on pose
√ √
α1 = λ(1/(1 + φ/ n)) et α2 = λ(1/(1 − φ/ n)).

6. φ/ n = 0.0196 donc α1 = 0.98 et α2 = 1.02 d'ou J = [0.98λ, 1.02λ].

Vous aimerez peut-être aussi