Vous êtes sur la page 1sur 50

Licence 3  Probabilités

Exercices corrigés de TD

Cécile Mercadier, Johannes Kellendonk, Laurent Tournier

Associés au cours de Stéphane Attal

Année universitaire : 2008-2009

Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 1

Dénombrement

Exercice 1
Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événements
suivants :
(i) Trois piques (ii) Aucun pique (iii) Un pique et deux "non-piques"
(iv) Au moins un pique (v) Trois cartes de la même famille (vi) Trois cartes de familles
diérentes
(vii) Trois as (viii) Aucun as (ix) Trois cartes rouges
lorsque :
1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans le
jeu.
2. On suppose que les cartes sont tirées simultanément au hasard.

Exercice 2 Soit n et p deux entiers non nuls.
1. De combien de façons peut-on répartir p enveloppes identiques dans n boîtes aux
lettres ?
2. E1 = {(x1 , . . . , xn ) ∈ Nn , x1 + . . . + xn = p}.
En déduire le cardinal de l'ensemble
3. Supposons p ≥ n. De combien de façons peut-on répartir p enveloppes identiques dans
n boîtes aux lettres de sorte qu'aucune boîte aux lettres ne reste vide ?
4. De quel ensemble E2 (construit de façon similaire à E1 ) peut-on en déduire le cardinal ?
5. De combien de façons peut-on répartir p enveloppes distinctes dans n boîtes aux
lettres ?

Exercice 3 Soit n et p deux entiers non nuls.
1. Déterminer le cardinal de l'ensemble des suites croissantes (au sens strict) de p éléments
de {1, . . . , n}.
2. Déterminer le cardinal de l'ensemble des suites croissantes (au sens large) de p éléments
de {1, . . . , n}.

Caractérisation d'une loi de probabilité

Exercice 4 X une variable aléatoire à valeurs dans N ou Z dénie sur l'espace de
Soit
probabilité discret (Ω, P). Démontrer que sa fonction de répartition, notée FX , dénie par

∀ x ∈ R, FX (x) = P(X ≤ x)

vérie les propriétés suivantes :
1. FX est croissante avec limx→−∞ FX (x) = 0 et limx→−∞ FX (x) = 1.

2. FX est continue à droite en tout point et admet des limites à gauche en tout point. De
plus limy→x− FX (y) = P(X < x).
3. FX caractérise la loi de X .

Exercice 5 Soit X une variable aléatoire à valeurs dans N dénie sur l'espace de proba-
bilité discret (Ω, P). On dénit sa fonction génératrice par
X
GX (s) = E(sX ) = P(X = k)sk .
k∈N

1. Montrer que GX est bien dénie sur [−1, 1].
2. Montrer que GX caractérise la loi de X .
3. 2 0 00
Supposons que X et X sont intégrables. Notons GX et GX les dérivées première et
0 2 00 0
seconde de GX . Montrer que E(X) = GX (1) et E(X ) = GX (1) + GX (1). En déduire
l'expression de Var(X).

Correction feuille de TD 1
Référence
Introduction aux probabilités
Delmas, Jean-Pierre
Ellipses
BU Maths 19.2 DEL

Rappel de cours : Dénombrement
 Le nombre d'applications d'un ensmble à p éléments vers un ensemble à n éléments
p
est n .
 Le nombre de permutations d'un ensemble à n éléments  bijections de cet ensemble
dans lui-même  est n!.
 Le nombre d'arangements injections  d'un ensmble à p éléments dans un ensemble
p n!
à n éléments est An = .
(n − p)!
 Le nombre de combinaisons  ou sous-ensembles  à p éléments dans un ensemble à
n!
n éléments (≥ p) est Cnp = .
p!(n − p)!
Rappel de cours : Probabilités sur un ensemble ni
On convient de représenter une expérience aléatoire E , c'est-à-dire, une expérience soumise
au hasard, par Ω l'ensemble des résultats possibles. Une réalisation ω , un élément de Ω
est aussi appelé expérience élémentaire.
Un événement aléatoire A est l'ensemble des expériences élémentaires ω qui réalisent A.
Comme Ω est ni, la probablité P sur Ω dénie par P({ω}) = 1/card(Ω) s'appelle la
probablité uniforme sur Ω. C'est la probabilité qui rend toutes les expériences élémentaires
card(A) nombre de cas favorables
ω équiprobables. On a alors P(A) = =” ”.
card(Ω) nombres de cas possibles

Exercice 1 On peut décider qu'un jeu de cartes est l'ensemble {1, . . . , 52} avec par
exemple {1, . . . , 13} les piques, puis les trèes, puis les coeurs, puis les carreaux.
1. L'univers Ω est {1, . . . , 52}3 donc card(Ω) = 523 .
Comme les tirages sont faits au hasard, on peut munir Ω de la probabilité uniforme : tous
3
les événements élémentaires E ont la même probabilité : 1/52 . Plus généralement, on
sait que la probabilité d'un événement A quelconque se calcule comme card(A)/card(Ω).
3
(i) 1/64 car à chaque fois un pique soit 13 cas favorables
3
(ii) 27/64 car il s'agit de faire cette expérience sur 52 − 13 = 39 cartes, autrement dit, 39
cas favorables
(iii) 27/64 car on a 3 × 13 × 392 cas favorables
(iv) 37/64 complémentaire de (ii)
3
(v) 1/16 car 3 × 13 cas favorables
(vi) 3/8 car 52 × 39 × 26 cas favorables
3
(vii) 1/2197 car 4 cas favorables
3
(viii) 1728/2197 car 48 cas favorables
3
(ix) 1/8 car 26 cas favorables
2. Dans cette expérience, Ω est l'ensemble des combinaisons de 3 éléments parmi 52.

3
Son cardinal vaut donc C52 . Comme les tirages sont faits au hasard, on peut munir Ω de
la probabilité uniforme : tous les événements élémentaires E ont la même probabilité :
3
1/C52 . Plus généralement, on sait que la probabilité d'un événement A quelconque se
calcule comme card(A)/card(Ω).
3 3 3 3 1 2 3 3 3 3 3
(i) C13 /C52 (ii) C39 /C52 (iii) C13 C39 /C52 (iv) 1 − C39 /C52 (v) 4C13 /C52
1 3 3 3 3 3 3 3
(vi) 4(C13 ) C52 (vii) 4/C52 (viii) C48 /C52 (ix) C26 /C52

Exercice 2 1. On peut modéliser les n boîtes aux lettres à l'aide de n−1 séparateurs
donc une conguration est un ensemble de n − 1 + p éléments qui est déterminée par
n−1
exemple par la position des séparateurs, soit en tout Cn+p−1 possibilités.
2. On peut voir ce problème comme le nombre de répartitions de p enveloppes dans n
boîtes aux lettres avec xi le nombre d'enveloppes dans la boîte aux lettres i. On a bien
n−1
xi ∈ N et x1 + . . . + xn = p. Donc Card(A) = Cn−1+p .
3. On commence par mettre une enveloppe par boîte aux lettres. Il s'agit alors de calculer
n−1
le nombre de façons de répartir p − n enveloppes dans n boîtes aux lettres soit Cp−1
possibilités.
4. E2 = {(x1 , . . . , xn ) ∈ (N? )n , x1 + . . . + xn = p}.
5. p
Pour chaque enveloppe on attribue une boîte aux lettres, soit n possibilités.

Exercice 3 1. L'ensemble des suites strictements croissantes de p éléments de {1, . . . , n}
est en bijection avec l'ensemble des parties à p éléments de {1, . . . , n}. En eet, on peut
associer à toute suite strictement croissante (s1 , . . . , sp ) une partie {s1 , . . . , sp } à p éléments
de {1, . . . , n}, et l'application réciproque consiste à ordonner les éléments d'une partie
{s1 , . . . , sp }. Le cardinal recherché est donc le nombre de combinaisons de p éléments
p
parmi n, soit Cn .
2. Se donner une suite croissante (au sens large) de p éléments de {1, . . . , n} revient à se
donner, pour i = 1, . . . , n, le nombre xi d'éléments de la suite égaux à i, avec la condition
Pn
i=1 xi = p et xi ≥ 0. On voit ainsi que l'on est ramené à la question 1 de l'exercice 2,
n−1
donc la réponse est Cn−1+p .
Autre solution : on se ramène à la question précédente par la bijection

φ : (x1 , x2 . . . , xp ) 7→ (x1 , x2 + 1, . . . , xp + p − 1),
qui envoie les suites croissantes (au sens large) de p éléments de {1, . . . , n} dans l'ensemble
des suites strictement croissantes de p éléments de {1, . . . , n+p−1}. Pour le voir, noter que
si (y1 , . . . , yn ) est strictement croissante à valeurs dans {1, . . . , n+p−1}, alors yi ≥ yi−1 +1
et yi ≥ i pour tout i (par récurrence). L'image par φ de notre ensemble est l'ensemble
décrit dans la question précédente dans lequel n devient n+p−1 donc le cardinal recherché
p n−1
est Cn+p−1 = Cn−1+p éléments.

Exercice 4 1. FX est croissante puisque si x < y , FX (y) = FX (x) + µX (]x, y]) ≥ FX (x).
limn→+∞ ] − ∞, −n] = ∩n∈N ] − ∞, −n] = ∅ comme limite d'une suite décroissante d'en-
sembles et limn→+∞ ] − ∞, n] = ∩n∈N ] − ∞, n] = R comme limite d'une suite croissante
d'ensembles Par continuité de l'application probabilité, on a limn→−∞ FX (n) = P(∅) = 0
et limn→∞ FX (n) = P(R) = 1.
2. FX est continue à droite car limn→∞ ] − ∞, x + 1/n] = ∩n∈dN ] − ∞, x + 1/n] =] − ∞, x].
De plus, limn→∞ ] − ∞, x − 1/n] = ∩n∈dN ] − ∞, x − 1/n] =] − ∞, x[.
3. On a FX (x) − FX (x− ) = µX ({x}). En particulier, on retrouve toutes les probabilités
µX ({k}) = P(X = k) = P(X −1 ({k})) = P({ω, X(ω) = k}).

. . 2. On peut donc reconstruire la loi de X à l'aide (k) de la formule suivante : P(X = k) = GX (0)/k!. La série n−1 n−1 P nP (X = n)s est normalement convergente pour |s| ≤ 1 car sups |nP (X = n)s |= P nP (X = n). En résumé G0X (s) = ∞ n=1 nP (X = n)s n−1 et GX 0 est bien dénie sur [−1. 1[. on sait que ses dérivées s'obtiennent par (k) P∞ dérivation terme à terme de la série. GX (1) = n=1 nP (X = n) = E(X) et GX (1) = n=2 n(n − 1)P (X = n) = 00 0 0 E(X(X − 1)). 3. sa somme est la dérivée de laP somme de la série P(X = n)sn = GX (s). Elle est donc indéniment dérivable sur ] − 1. De plus. autrement dit G0X (s). 00 P∞ On montre de la même manière que si E(X(X − 1)) existe alors GX (s) = n=2 n(n − n−2 00 1)P (X = n)s et GX bien dénie sur [−1. 1]. 1]. (n − k + n−k (k) 1)P (X = n)s et GX (0) = k!P(X = k). On a donc GX (s) = n=k n(n − 1) . P∞ P∞ 0 00 Pour s = 1. par dénition la série nP (X = n) est convergente. 1]. La fonction est bien dénie sur [−1. . Par conséquent. GX est la somme de la série entière de terme général P(X = n)sn . On en déduit que Var(X) = GX (1) + GX (1) − GX (1)2 . P Si X est intégrable. = n)sn est absolument convergente pour |s| ≤ 1 car P La série P(X |P(X = n)sn | ≤ P(X = n) et P P(X = n) = 1.Exercice 5 1.

k ? Géométrique(p) avec p ∈ [0. n. Rappeler la formule du binôme de Newton. Exercice 3 Au cours d'une expérience un certain événement E se réalise avec une pro- babilité p ∈ ]0. 1] dénit bien une loi de probabilité puis calculer sa moyenne et sa variance. 4. Déterminer la loi de X. 1[. En déduire que la loi géométrique de paramètre p ∈ ]0. de loi de Poisson de paramètre λ > 0 . k! Lois discrètes usuelles Exercice 1 Donner l'expression et "tracer" les fonctions de répartitions de loi de Bernoulli de paramètre 2/3 puis de loi géométrique de paramètre 3/4. de loi de Bernoulli de paramètre p ∈ [0. Exercice 2 1. k −λ λ Poisson(λ) avec λ > 0 : P(X = k) = e pour k ∈ N. n≥1 et n≥2 lorsque |a| < 1. Exercice 4 Calculer la fonction génératrice deX lorsque X est une variable aléatoire 1. . c Soit X la variable aléatoire associée au nombre de réalisations de E . En déduire que la loi binomiale de paramètres n ∈ N? et p ∈ [0. 2. 5. 2. . En déduire l'espérance et la variance de X dans chacun des cas.On répète de façon indépendante l'expérience jusqu'à obtenir r fois E . p) avec n > 0 et p ∈ [0. 1] : P(X = k) = Cn p (1−p) pour k = 0. Soit X une variable aléatoire intégrable.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 2 Rappels : Lois usuelles discrètes Bernoulli(p) avec p ∈ [0. . de loi géométrique de paramètre p ∈ ]0. k k n−k Binomiale(n. Inégalités Exercice 5 1. Montrer que pour tout a ∈ R+ ? E(|X|) (Markov) P(|X| ≥ a) ≤ . 1] . a . 1[. 1[ dénit bien une loi de pro- babilité puis calculer sa moyenne et sa variance. 1] : P(X = k) = p(1 − p) pour k ∈ N . 3. 1] . . 4. n nan−1 n(n − 1)an−2 P P P Rappeler le comportement des séries n≥0 a . ? de loi binomiale de paramètres n ∈ N et p ∈ [0. 1] : P(X = 0) = 1 − p et P(X = 1) = p. 3.

0. On extrait n fois avec remise une boule dans une urne composée de 2 boules vertes et 6 boules blanches. don- ner une borne inférieure pour la probabilité de l'événement {Fn ∈ ]0. En déduire l'espérance et la variance de Xn puis de Fn . Donner la loi de Xn .26[}.99. On pose Fn = Xn /n. a2 Exercice 6 Soit n ∈ N∗ .22.2. A l'aide de l'exercice précédent. On suppose dans cette question que n = 10 000. 0. Donner une estimation du nombre minimal n de tirages nécessaires pour que la pro- babilité de l'événement {Fn ∈ ]0. 2. En déduire que si X est de carré intégrable alors pour tout a ∈ R+ ? V ar(X) (Tchebyche ) P(|X − E(X)| ≥ a) ≤ . . 3. 1.26[} soit au moins 0. Soit Xn la variable aléatoire associée au nombre de boules vertes obtenues lors des n tirages.22.

Pour la loi binomiale de paramètres nP et p. . On calcule : X X 1 E(X) = kP(X = k) = p k(1 − p)k−1 = k≥1 k≥1 p X X 1−p E(X(X − 1)) = k(k − 1)P(X = k) = p(1 − p) k(k − 1)(1 − p)k−2 = 2 k≥2 k≥2 p2 1−p 1 1 1−p Var(X) = E(X(X − 1)) + E(X) − E(X)2 = 2 2 + − 2 = . Ceci montre que la loi géométrique de paramètre p est bien une loi de probabilités. pour tout n. De plus. k=2 k=2 d'où Var(X) = E(X )−E(X) = E(X(X −1))+E(X)−E(X)2 = n(n−1)p2 +np−n2 p2 = 2 2 np(1 − p). p p p p2 . FX (x) = P (X ≤ x) = P (X = 0) = 1 − p = 1/3. Pour |a| < 1. k k−1 k−1 k−2 À l'aide des formules kCn = nCn−1 et k(k − 1)Cn = n(n − 1)Cn−2 (la première se vérie k via la dénition des Cn et la deuxième se déduit de la première). et la seconde condition résulte de la formule n k k n−k du binôme : k=0 Cn p (1 − p) = (p + 1 − p)n = 1. Correction feuille de TD 2 Exercice 1 X suit la loi de Bernoulli de paramètre p = 2/3. donc FX (x) = P (X ≤ x) = 0 si x < 0 et FX (x) = 1 si x ≥ 1. 1−a P k 1 donc la série géométrique est alors convergente avec k≥0 a = .. 3[. De plus. FX (x) = P (X = 1) + P (X = 2) = 3/4 + 3/16 = 15/16 si x ∈ [2. on en déduit d2     P k−1 d 1 1 P k−2 1 2 k≥1 ka = = 2 et k≥2 k(k − 1)a = 2 = 3 . on calcule : n X n X n−1 X E(X) = kCnk pk (1 − p)n−k =n k−1 k Cn−1 p (1 − p)n−k = np k Cn−1 pk (1 − p)n−1−k = np k=1 k=1 k=0 n X n X E(X(X − 1)) = k(k − 1)Cnk pk (1 − p)n−k = k−2 k n(n − 1)Cn−2 p (1 − p)n−k = n(n − 1)p2 . . 1}. FX (x) = P (X = 1) = 3/4 si x ∈ [1. Soit X une variable aléatoire de la loi géométrique de paramètre p = 3/4. on a FX (x) = 0 pour tout x < 1. X est à valeurs dans Si {0. 4[. y Xn n formule du binôme de Newton s'écrit (x + y) = Cnk xk y n−k . limn a = 0. et de la formule du binôme. Faire le dessin correspondant. 1 − an+1 3. alors k≥1 P(X = k) = p k≥0 (1 − P P p)k = 1. nk=0 ak = n+1 P . Si a 6= 1 on a. Par propriété de 1−a dérivation des séries entières dans leur intervalle ouvert de convergence. Comme X est ∗ à valeurs dans N . Pour réels (ou dans un quelconque anneau commutatif ) et n ∈ N. la x. Si pour tout k ≥ 1 on a P(X = k) = p(1 − p)k−1 . da 1 − a (1 − a) da 1 − a (1 − a) 4. la positivité est évidente. k=0 2. si 0 ≤ x < 1. Exercice 2 1. il faut vérier ak ≥ 0 et k=0 ak = 1. 2[. Pour vérier que P (X = k) = ak (où k ∈ N et ak ∈ R) dénit bien une mesure P∞ de probabilités sur N. FX (x) = FX (2) + P (X = 3) = 15/16 + 3/64 si x ∈ [3.

.} où E apparait r fois et E c apparait n fois dans les r + n premiers termes a une probabilité pr (1 − p)n . Le développement en série de l'exponentielle e = n=0 n! (et le fait que n λ −λ n! e ≥ 0) montre qu'il s'agit bien d'une probabilité. la formule du binôme donne : n X n X k GX (s) = s Cnk pk (1 − p) n−k = Cnk (sp)k (1 − p)n−k = (1 − p + sp)n . . exercice 5 et remarque à la n du corrigé). À savoir : si (c'est-à-dire. 1]. . Loi binomiale de paramètres n et p. Rappelons que dans ce cas P(X = n) = e ∞ λn n! λ P pour n ∈ N. C'est donc le nombre de combinaisons de r−1 éléments parmi r+n−1 puisque un des éléments ainsi que sa position r−1 r−1 r n est imposée. La preuve est quasiment . alors X est de carré in- 2 00 0 tégrable et E(X ) = E(X(X − 1)) + E(X) = GX (1) + GX (1). Loi de Bernoulli de paramètre p. pour s ∈ R. Loi géométrique de paramètre p. . on utilise à vrai dire une réciproque G0X (1) < ∞ partielle de la question 5. E c . feuille 2 1. (1 − s(1 − p))2 (1 − s(1 − p))3 2(1 − p) 2(1 − p) En particulier. si la série dérivée converge en s = 1). alors X est intégrable. Il suit G0X (1) = p et G00X (1) = 0. 2. GX (s) = E[X s ] = (1 − p) + ps. Donc pour tout n ∈ N on a : P(X = n) = Cn+r−1 p (1−p) . 1 1 4. 1−p 1−p ∞ X sp GX (s) = sk (1 − p)k−1 p = . λn −λ 3. . pour tout s ∈ R : ∞ X λn GX (s) = sn e−λ = eλs e−λ = eλ(s−1) . soit encore Cr+n−1 . On a. E c }N . E c . Pour déduire le calcul de l'espérance et de la variance. donc G0X (s) = p et G00X (s) = 0. pour tout s ∈] − . d'où GX (1) = np et G00X (1) 0 = n(n − 1)p2 . . d'où E(X) = 1 p et Var(X) = +  2 p2 p2 1 1 1−p − = . . Exercice 4 1. . G0X (1) = 1 p et G00X (1) = . et contenant r fois E . Par conséquent (cf. p p p2 Remarque 1. ? Il s'agit de la loi binomiale négative de paramètres r ∈ N et p ∈]0. Loi de Poisson de paramètre λ > 0. Ce même développement fournit.Exercice 3 On a Ω = {E. G0X (1) = λ et G00X (1) = λ2 impliquent E(X) = λ et Var(X) = λ. Et si G00X (1) < ∞ (idem pour la série dérivée seconde). L'événement {E. k=0 k=0 0 On obtient GX (s) = np(1 − p + sp)n−1 et G00X (s) = n(n − 1)p2 (1 − p + sp)n−2 . et E(X) = G0X (1).3 de la feuille 1. . On a. . [. E. Pour s ∈ R. k=1 1 − s(1 − p) p 2p(1 − p) Pour ces valeurs de s. n=0 n! donc G0X (s) = λeλ(s−1) et G00X (s) = λ2 eλ(s−1) . on en déduit que G0X (s) = et G00X (s) = . Pour trouver la probabilité P(X = n) il faut calculer le nombre de manières de construire des r + n uplets se terminant par E . E(X) = p et Var(X) = p − p = p(1 − p). .

22. X aussi et.01) donc P(Fn ∈ ]0. 0. 3. donc X est 2 k intégrable.01) < V ar(Fn )/0. 2 3 Or P(|Fn − E(Fn )| > 0. X est intégrable pour tout k (considérer la dérivée k -ième de GX ).01) > 0.01 donc n > 3/(16 0. Remarque 2.01. Xn n et p = 2/8 = 1/4.22. 0 la même puisque par exemple les propriétés X est intégrable et GX (1) P < ∞ se tra- duisent exactement par la même condition de convergence : k kP(X = k) < ∞. Exercice 5 Voir page 13 du cours.01) donc si P(|Fn − E(Fn )| < 0.22. 0.26[) > P(|Fn − E(Fn )| < 0.26[) > 0. P(Fn ∈ ]0.99.01[) > P(|Fn − E(Fn )| < 0. Dès que le rayon de convergence de GX est strictement plus grand que ∞ 1 (ce qui est le cas dans les exemples précédents). P(Fn ∈ ]0. . 2.03.01) < 0.012 = 1−3/16 = 13/16. 0. Exercice 6 1. Donc E(Xn ) = est de loi binomiale de paramètres n/4 et V ar(Xn ) = 3n/16. On obtient alors E(Fn ) = 1/4 et V ar(Fn ) = 3/(16n).01) ≥ 1−V ar(Fn )/0.26[) > 1−P(|Fn −E(Fn )| ≥ 0. 0.26[) = P(Fn − E(Fn ) ∈ ] − 0.01 ) = 187500.22. 0. de façon plus générale. GX est de classe C en 1. Il sut de chercher n tel que P(|Fn − E(Fn )| ≥ 0.99 alors on aura P(Fn ∈ ]0.

An des événements indépendants. 3. . les événements B1 . . 2. Montrer que A. Démontrer que les événements A1 . . . Montrer que Var(X + Y ) = Var(X) + Var(Y ). 4. 1. . An sont indépendants si. On note respectivement A. . . Exercice 4 Soit X et Y des variables aléatoires réelles indépendantes. 2. . . . On suppose X et Y intégrables. c En déduire par récurrence la propriété plus générale : pour tous B1 ∈ {A1 . Le chire du deuxième dé est pair et Les deux chires ont même parité. 1} la fonction indicatrice de A :  1 si ω∈A pour tout ω ∈ Ω. 3. Montrer que XY est intégrable et E[XY ] = E[X]E[Y ]. . l'un après l'autre. .Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 3 Exercice 1 Fonctions indicatrices (Ω. pour toutes fonctions f et g de R dans R. Montrer que si X est une variable aléatoire intégrable à valeurs dans N. on note 1A : Ω → {0. 3. . B et C sont deux à deux indépendants. A2 . 1An sont indépendantes. Montrer que. A1 }. Exercice 5 SiX est une variable aléatoire indépendante de Y et si Y est indépendante de Z. P). . . . 2. Montrer que les événements A. Xn indépendantes. et A1 . Exercice 3 Indépendance et passage au complémentaire Soit (Ω. . . 2. dénies sur un espace de probabilité discret (Ω. alors : ∞ X E[X] = P(X ≥ n). An }. B et C les événements Le chire du premier dé est pair. . . est-ce que X est indépendante de Z ? . . Bn sont indépendants. Vérier que. B et C ne sont pas indépendants dans leur ensemble. Pour des événements A et B. 1. Bn ∈ c {An . Généraliser ces résultats à n variables aléatoires X1 . . pour tout événement A. f (X) et g(Y ) sont des variables aléatoires indépendantes. P) Soit un espace de probabilité discret. 1. . P(A) = E[1A ]. . n=1 Indépendance Exercice 2 Indépendance entre 3 événements On jette deux dés (non pipés). Montrer que Ac1 . Si A ⊂ Ω est un événement. 1. 1A (ω) = 0 si ω∈ / A. . . On suppose X 2 et Y 2 intégrables. . . et seulement si les variables aléatoires 1A1 . An sont indépendants aussi. exprimer 1Ac et 1A∩B en fonction de 1A et 1B . P)un espace de probabilité discret.

En déduire la loi de Z. 1. indépendantes. j=1 P(A|Hj )P(Hj ) 2. Exercice 7 Soit X.2% des personnes saines testées. Quelle est la probabilité qu'une personne soit réellement malade lorsque son test est positif ? Exercice 9 Soient X1 et X2 des variables aléatoires. 2. Conditionnement Exercice 8 Formule de Bayes 1. Soit (Ω. Y des variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifs pX et pY . . . 1. P) (H1 . Calculer les fonctions de répartition de X. 1. On dénit Z = min(X. . Calculer la loi de X1 + X2 . n. de loi de Poisson de paramètres λ1 etλ2 respectivement. pour i = 1. . Hn ) une partition de Ω en n un espace de probabilité discret. 2. On dispose d'un test sanguin qui détecte M avec une abilité de 99% lorsque cette maladie est eec- tivement présente. Calculer la loi conditionnelle de X1 sachant X1 + X2 . . Montrer que. Identier une loi connue. on obtient aussi un résultat faussement positif pour 0. et événements de probabilité non nulle. . Y . .Lois usuelles et indépendance Exercice 6 Interprétation des lois usuelles On considère une suite d'expériences indépendantes dont l'issue est un succès avec pro- babilité p et un échec avec probabilité 1 − p. 2. Une maladie M aecte une personne sur 1000 dans une population donnée. si A est un événement de probabilité non nulle : P(A|Hi )P(Hi ) P(Hi |A) = Pn . Cependant. Z. Montrer que l'instant où a lieu le premier succès suit une loi géométrique de paramètre p. . Montrer que le nombre de succès parmi les n premières expériences suit une loi bino- miale de paramètres n et p. Y ). .

A3 . 3. . On raisonne par récurrence : on sait que les événements B1 . . et la seconde celle du second dé. . 2. Exercice 3 Indépendance et passage au complémentaire 1. 2. 6}2 . . etc. . . . intégrable) (ou convergence monotone) : ∞ X ∞ X E[X] = E[1{X≥k} ] = P(X ≥ k). . An sont indépen- dants grâce à la question 1 (ou trivialement si B1 = A1 ). B2 . D'après les dénitions. Alors. . . on a : P(Ac1 ∩ Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ∩ · · · ∩ Aik ) − P(A1 ∩ Ai1 ∩ · · · ∩ Aik ) = (1 − P(A1 ))P(Ai2 ) · · · P(Ain ) = P(Ac1 )P(Ai2 ) · · · P(Aik ) et P(Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ) · · · P(Aik ). An sont indépendants. pour tous 1≤ i1 < · · · < ik ≤ n. . . donc on peut leur appliquer la question 1 pour voir que B1 . Correction de la feuille de TD 3 Exercice 1 Fonctions indicatrices 1. 1. On remarque que : pour tout ω ∈ Ω. 2. 1An indépendantes. . . X(ω) ∞ X X X(ω) = 1= 1{X≥k} (ω). X X E[1A ] = 1A (ω)P({ω}) = P({ω}) = P(A). ω∈Ω ω∈A 3. On a facilement 1A c = 1 − 1A et 1A∩B = 1A 1B . On a : A ∩ B ∩ C = A ∩ B donc P(A ∩ B ∩ C) = 1/4 6= 1/8 = P(A)P(B)P(C). . Pour tous 2 ≤ i1 < . D'autre part. k=1 k=1 d'où par théorème de convergence dominée (les sommes partielles sont inférieures à X. donc on munit Ω de la loi uniforme P. où la première composante représente la valeur du premier dé. . P(Ai1 ∩ · · · Aik ) = E[1Ai1 ∩···∩Aik ] = E[1Ai1 ] · · · E[1Aik ] = P(Ai1 ) · · · P(Aik ) . < ik ≤ n. Les couples de résultats sont équiprobables. k=1 k=1 Indépendance Exercice 2 Indépendance entre 3 événements L'espace des épreuves est Ω = {1. . A2 . Supposons les variables aléatoires 1A1 . Card(A) = 3 · 6 = 18 = Card(B) et Card(C) = 6 · 3 = 18 donc P(A) = P(B) = On a P(C) = 1/2. . on voit que A ∩ C = {deux lancers pairs} = B ∩ C = A ∩ B et P(A ∩ B) = (3 · 3)/36 = 1/4.

. . . ∀i ∈ / S. . indépendantes. .n}. lorsque x parcourt R. Aik = ck } est de la forme de ceux considérés dans l'exercice 3. k S⊂{1. . Exercice 5 Prendre un contre-exemple. telle que P(Xi = 1) = p (on représente le succès par 1) et P(Xi = 0) = 1 − p (et l'échec par 0). . 1.Card(S)=k ..Card(S)=k   X k n−k n k = p (1 − p) = p (1 − p)n−k . On note S le nombre de succès parmi les n premières expériences. Xi = 0) S⊂{1. . . 4. pour a. où Bi = Ai si ci = 1. . sinon dans l'écriture. . . . on trouve E[XY ] = E[X]E[Y ]. Supposons réciproquement les événements A1 . . g(Y ) = b) = P(X ∈ f −1 (a). . .l∈Y (Ω) k∈X(Ω).. Lois usuelles et indépendance Exercice 6 Interprétation des lois usuelles On considère une suite de variables aléatoiresX1 . Il apparaît donc que l'événement {Ai1 = c1 . Y ∈ g −1 (b)) = P(X ∈ f −1 (a))P(Y ∈ g −1 (b)) = P(f (X) = a)P(g 2. Y = l) = |kl|P(X = k)P(Y = l) k∈X(Ω).. et en refaisant le calcul sans les valeurs absolues (justié par Fubini). . D'où l'indépendance de 1A1 . .. 1Aik = ck ) = P(Bi1 ) · · · P(Bik ) = P(1Ai1 = c1 ) · · · P(1Aik = ck ). Exercice 4 1.l∈Y (Ω) X X = |k|P(X = k) |l|P(Y = l) = E[|X|]E[|Y |] < ∞ k∈X(Ω) l∈Y (Ω) donc XY est intégrable. . Pas de vraie diculté pour généraliser. n} : X P(S = k) = P(∀i ∈ S. On a : (on peut changer l'énoncé et prendre X et Y à valeurs dans Z pour coller au cours) X X E[|XY |] = |kl|P(X = k. l'événement {1A = x} est c ou bien égal à A ou à A . Pour tout k ∈ {1. . Xi = 1.. 3. On a : Var(X+Y ) = E[(X+Y )2 ]−E[X+Y ]2 = E[X 2 +Y 2 +XY ]−(E[X]+E[Y ])2 = E[X 2 ]−E[X]2 +E[Y 2 ]−E[Y ]2 en développant et en utilisant la question précédente. .. . b ∈ R (ou ∈ f (X(Ω)) et g(Y (Ω)) : P(f (X) = a. 1An . On a.n}.. Bi = Aci si ci = 0. . d'où : P(1Ai1 = c1 .d'où l'indépendance des événements. Pour tout événement A. X2 . An indépendants. On remarque que la question ci-dessus requiert juste l'indépendance des variables 2 à 2..

P(X ≤ k) = 1 − P(X > k) = (1 − pX )k donc FX (x) = 1 − (1 − pX )k si x > 0 et k ≤ x < k + 1 . Exercice 7 Soit k un entier non nul. Autrement dit. Y > z) = 1 − P(X > z)P(Y > z) = 1 − (1 − pX )k (1 − pY )k si z > 0 et k ≤ z < k + 1 . . Xk−1 = 0. N suit la loi géométrique de paramètre p. 0 sinon.2. 1 sinon. P(Z ≤ z) = 1 − P(Z > z) = 1 − P(X > z. Xk = 1) = (1 − p)k p. Z est de loi Géométrique de paramètre pZ = 1 − (1 − pX )(1 − pY ) = pX + pY − pX pY . . . k De même FY (y) = 1 − (1 − pY ) si y > 0 et k ≤ y < k + 1 . 2. d'où. . 0 sinon. 1. . pour k≥1 : P(N = k) = P(X1 = 0. L'instant N de premier succès est tel qu'il est précédé de N −1 échecs.

donc X +Y suit la loi de Poisson de paramètre λ1 + λ2 . P(X = j)P(Y = k − j) λj1 −λ1 λk−j k! 2. P(X = j|X+Y = k) = = e 2 e−λ2 P(X + Y = k) j! (k − j)! (λ1 + λ2 )k e−(λ1 +λ2 )  j  k−j λ1 λ1 = Ckj λ1 + λ2 λ1 + λ2 λ1 Par conséquent. A∩Hn : P(Hi ∩ A) P(A ∩ Hi ) P(A|Hi )P(Hi ) P(Hi |A) = =P =P . 99 + 0. P(T |E) = 0. . 99 P(E|T ) = c c = ' 0. dont une partie E est atteinte par la maladie M. . . P(E) = 1/1000. . le test a deux chances sur trois de donner une réponse positive à une personne saine. et dont une partie T a une réaction positive au test. Ici. 99 et P(T |E c ) = 0. 999 · 2/1000 Ainsi. Pk Pk λj1 −λ1 λj2 −λ2 Méthode directe : P(X + Y = k) = j=0 P(X = j)P(Y = k − j) = j=0 e e j! j! k −(λ1 +λ2 ) = (λ1 + λ2 ) /k!e . Par hypothèse. d'où (cas particulier de la formule de Bayes pour la c partition de Ω en E et E ) : P (E)P (T |E) 1/1000 · 0. ce qui est loin d'être négligeable ! Exercice 9 1. en remarquant que A est la réunion disjointe des événements A∩H1 .Conditionnement Exercice 8 Formule de Bayes. λ1 + λ2 . 1. C'est bien la loi de Poisson de paramètre la somme des para- mètres de X et Y . la loi de X sachant X +Y = k suit la binomiale de paramètre (k. Y) suit la loi de Poisson de paramètre λ1 (resp. 33 P (E)P (T |E) + P (E )P (T |E ) 1/1000 · 0. P(A) j P(A ∩ Hj ) j P(A|Hj )P(Hj ) 2. On a. Ω est la population considérée. alors : GX+Y (s) = GX (s)GY (s) = eλ1 (1−s) eλ2 (1−s) = e(λ1 +λ2 )(1−s) . Si X (resp. ). λ2 ). 002.

. . . . 1]. Exprimer la loi de X + Y en fonction de celles de X et Y . . Pour quelles valeurs de α ∈ R la variable |X|α est-elle intégrable ? Exercice 5 Une variable aléatoire positive X est sans mémoire si P(X > t + s|X > t) = P(X > s). Exercice 4 Soit X une variable aléatoire de densité f (x) = a π(a2 +x2 ) avec a > 0. indépendantes et fonction génératrice Exercice 1 (Ω. montrer que la loi de X1 + X2 ne peut pas être la loi uniforme sur {2. En étudiant les racines du polynôme GX1 GX2 . Montrer que. . σ) de paramètre m ∈ R. X n . qui admet donc une racine réelle (pourquoi ?). 12} ? 2. . GX+Y (s) = GX (s)GY (s). Généraliser ce qui précède au cas de n variables aléatoires indépendantes X1 . Soit X1 et X2 des variables aléatoires indépendantes à valeurs dans {1.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 4 Somme de v. . . b]) sur l'intervalle [a. . de loi normale N (m. P) un espace de probabilité discret. à valeurs dans N. Vérier que f est bien une densité. Quelle est la fonction génératrice de la loi uniforme sur {2. . 12}. (on pourra donner deux preuves) 3. La loi de X est appelée loi de Cauchy de paramètre a. Y deux variables aléatoires Soit indépendantes dénies sur Ω. Peut-on piper deux dés indépendants de façon à rendre toutes les sommes entre 2 et 12 équiprobables ? Lois continues usuelles Exercice 3 Calculer l'espérance et la variance de X lorsque X est une variable aléatoire 1. 2. Quelle est la loi de la somme de :  deux variables aléatoires indépendantes de loi binomiale de paramètres (n. . pour tout s ∈ [−1. 2. de loi exponentielle E(λ) de paramètre λ > 0. Quelle est la loi de la somme de n variables aléatoires indépendantes de loi de Bernoulli de paramètre p? Retrouver alors l'espérance et la variance de cette loi. ∀t. s ≥ 0. σ > 0 . 3.a. . 5. p) et (m. 3. Indication : on remarquera que GXi (s) = sϕi (s) où ϕi est un polynôme à coecients réels de degré impair. 6}. . . b] ⊂ R . 4. . 1. . p) ?  deux variables aléatoires indépendantes de loi de Poisson de paramètre λ et µ? Exercice 2 Dés truqués 1. et X. de loi uniforme U([a.

0 où les deux membres sont nis ou innis. On suppose X à valeurs positives.n Xi . (Indication : calculer la fonction de répartition. 1. et seulement si elle suit une loi exponentielle.Montrer qu'une variable aléatoire positive dont la loi admet une densité est sans mémoire si. Calculer la loi de maxi=1. X n des variables aléatoires indépendantes de loi E(λ) de para- mètre λ > 0. Supposons que X a pour densité f . 1..n Xi . 3. et une preuve dans le cas général (dans l'esprit de la question 1.. .. . Montrer que Z ∞ r E[X ] = rxr−1 P(X > x)dx. Calculer la loi de mini=1. . Soit r un réel > 0.. . On pourra donner une preuve dans le cas à densité (à l'aide de ce qui précède). Réciproquement. Exercice 7 Soit X1 .) 2. Quel lien y a-t-il entre f et la fonction de répartition FX ? 2. .... donner une condition sur FX pour que la loi de X admette une densité.. Exercice 6 Soit X une variable aléatoire réelle.3 de la feuille 3).

.l∈N. . pour tout s ∈ [−1. où S est une variable aléatoire de loi binomiale de paramètres n et p. Y = l) = P(X = k)P(Y = l). alors : GX+Y (s) = GX (s)GY (s) = eλ(1−s) eµ(1−s) = e(λ+µ)(1−s) . n et sa variance est (vu l'indépendance) : Var(Y ) = Var(X1 + · · · + Xn ) = i=1 Var(Xi ) = np(1 − p). Remarquons que l'exercice précédent donnait déjà la loi loi binomiale comme somme de Bernoullis indépendantes. Correction de la feuille de TD 4 Somme de v. µ). 5. on a donc. d'où. Xn des variables de Bernoulli indépendantes de paramètre p. 3. donc s et s aussi.  Si X (resp. On a GX1 (s) = · · · = GXn (s) = p + (1 − p)s. k. 1]. . L'événement {X + Y = n} est la réunion disjointe des {X = k.a. 1]. Comme la fonction génératrice caractérise la loi. donc X +Y suit la loi binomiale de paramètres m + n et p (ce qui se comprend bien par l'interprétation précédente).Y = X1 + · · · + Xn suit une loi binomiale de Pparamètres n et n p.k+l=n k+l=n Pn soit : µX+Y ({n}) = k=1 µX ({k})µY ({n − k}). indépendantes et fonction génératrice Exercice 1 Somme de v. d'où : X X P(X + Y = n) = P(X = k. 1]. La généralisation à n variables ne pose pas de problème. et celles-ci sont intégrables pour s ∈ [−1. alors : GX+Y (s) = GX (s)GY (s) = (p + (1 − p)s)n (p + (1 − p)s)m = (p + (1 − p)s)m+n . l ∈ N tels que k + l = n. GX+Y (s) = GX (s)GY (s). Y) suit la loi de Poisson de paramètre λ (resp. indépendantes et fonctions génératrices 1. . En particulier. Autre méthode : X et Y sont X Y indépendantes. Y) suit la loi binomiale de paramètres n et p (resp.a. donc X +Y suit la loi de Poisson de paramètre λ + µ. m et p). pour tout s : GX1 +···+Xn (s) = GX1 (s) · · · GXn (s) = (p + (1 − p)s)n = GS (s). l'espérance de cette loi est : E[Y ] = E[X1 +· · ·+Xn ] = P i=1 E[Xi ] = np. . Comme ces deux séries entières convergent sur [−1. Soit X1 .  Si X (resp. On reconnaît dans la formule précédente l'expression des coecients de la série en- tière produit deGX et GY . 2. 4. d'où : GX+Y (s) = E[sX+Y ] = E[sX sY ] = E[sX ]E[sY ] = GX (s)GY (s). Y = l} pour k.

est F (x) = 1[a. la fonction de répartition 2πσ R x n'a pas d'expression explicite.∞[ (x). Remarquons que. i=2 11 11 1 − s 2. π r En eet. exp(−(x − m)2 /(2σ 2 ) NORMALE La densité est fm. la parité puis le changement de variable x− > 2x. Par un argument de valeurs intermédiaires.π/2] e rdrdθ = 0 e rdr 0 dθ = 2 p 1/2×π/2 = π/4.σ (x) = √ . pour tout r > 0.Exercice 2 Dés truqués 1. 1−s et le polynôme du membre de droite a pour racines les racines onzièmes de l'unité autres que 1. 3. Soit X une variable de loi uniforme sur {2. modier leur loi) de façon à rendre toutes les sommes entre 2 et 12 équiprobables. Or : 1 − s11 11sϕ1 (s)ϕ2 (s) = . 1] (ou R).e. 12}.σ (x) est intégrable.b[ (x) + b−a b−a 1[b. max(|a|. Lois continues usuelles 1[a. seulement la forme intégrale fm.b] (x) x−a Exercice 3 UNIFORME la densité est et la f. les polynômes ϕ1 et ϕ2 ont donc chacun au moins une racine réelle. la fonction |x|r fX (x) est bornée par intégrable sur [a. X2 = 6) = P(X1 = 6)P(X2 = 6) ϕi est de degré et donc que 5. dont aucune n'est réelle : contradiction. .r. on a |x| fm. 12 X 1 i s 1 − s11 GX (s) = s = .1 (y)dy = √ 0 e−x dx par −∞ m. 2. j=1 où ϕi est un polynôme. Supposons que l'on ait GX1 GX2 = GX (donné ci-dessus). . on ne peut donc les piper (i. b). 1) alors Y = (b − a)X + a ∼ U (a. Donc I = √ π/4 = 1. 6 X GXi (s) = P(Xi = j)sj = sϕi (s). pour i= 1. Pour s ∈ [−1. b] donc b−a a+b (b − a)2 X admet des moments de tout ordre. impair. .σ π x−m √ changement de variable x− > . σ D'autre part : R 2 RR R  R  −x2 −x2 −y 2 RR −r2 ∞ −r2 π/2 R+ e dx = R+ ×R+ e dxdy = R+ ×[0. Cette loi admet des moments de tous les ordres.σ (y)dy . Tant que les dés sont indépendants. En particulier E(X) = et V ar(X) = . . On en déduit facilement les moment de Y à partir de ceux de X . b)r Pour tout r > 0. −∞ R∞ R∞ 2 R∞ 2 C'est bien une loi de proba : I = f (y)dy = −∞ f0. 2 12 On peut également noter que si X ∼ U (0. et que la condition P(X1 + X2 = 12) = 1/11 implique 1/11 = P(X1 = 6. à coecients réels. .

1 − iξ 1 + iξ 1 + ξ2 3. a a . Donc on obtient la relation E(Y ) = (m − 1)E(Y ) lorsque m est pair. (m − 1) = en posant m = 2k .r. a|x| π(a2 +x2 ) est intégrable ssi α − 2 < −1. Dériver cette equation par rapport à t en t = 0 donne l'equation diérentielle 0 F̄ (s) = −f (0)F̄ (s) qui a comme solution F̄ (s) = ce−f (0)s . on a que pour tout m entier impair. Il sut de calculer les m moments de la N (0. 0 F̄ est diérentiable avec dérivée F̄ (x) = −f (x). . R0 R∞ e−|t| eiξt dt = −∞ e−t(1+iξ) dt + 0 e−t(1+iξ) dt = R + = . 3 . 1). α < 1. . On en alors Y = σ 2 déduit facilement que E(X) = m + E(Y )σ et V ar(X) = σ V ar(Y ). Exercice 5 R∞ Soit f la densité de notre variable et posons F̄ (x) = 1 − F (x) = x f (t)dt. Donc la f. P(X/a ≤ x) = P(X ≤ ax) = −∞ π(a2 +x2 ) dx = −∞ π(a2 +(ay)2 ) ady = −∞ π(1+y 2 ) dy . 2k k! −λx EXPONENTIELLE La densité est fλ (x) = λe 1x∈R+ . En particulier. La loi exponentielle sert à modéliser les durées de vie. 1). une variable aléatoire à valeurs dans Z ∞ Z ∞Z ∞ Z ∞Z y Z ∞ r−1 r−1 r−1 rx P(X > x)dx = rx f (y)dydx = rx f (y)dxdy = xr f (y)dy = E(X r ). On obtient donc les lois exponentielles. i. −1 X −|ta| E(eitX ) = E(eitaa ) = E(eitaY ) = e = e−a|t| . De plus.e. On a E(Y ) = y yf0. X −m On peut également montrer que si X ∼ N (m. la fonction caractéristique de Y une variable 2π 1 + ξ de loi de cauchy de paramètre 1 est e−|t| . Exercice 6 Soit X R+ de densité f et r > 0. Par parité. R ax a Rx a Rx 1 En eet. Donc f (t) = cf (0)e−f (0)t et c=1 est déterminé par la normalisation. On déduit de la question précédente et de la transformée de fourier inverse que −|t| 1 R 2 e = 2 eiξt dξ . r Si E(X ) est ni alors Z b Z b r r r E(X ) = lim x F {dx} = −b (1 − F (b)) + rbr−1 (1 − F (x))dx b→∞ 0 0 en appliquant avec G=1−F la formule Z b Z b 0 u(x)G{dx} = u(b)G(b) − u(a)G(a) − u (x)G(x)dx. Soit m R m−1 R m−2 maintenant un entier pair. il faut noter que si X est de loi cauchy de paramètre a alors Y = X/a est de loi cauchy de paramètre 1. (2k)! Comme E(Y 2 ) = 1 on obtient E(Y m ) = 1 . On a E(X) = 1/λ et V ar(X) = 1/λ2 . E(Y ) = 0. .1 (y)dy en m m−2 intégrant par parties. 1 1 2 2. . σ)∼ N (0.1 (y)dy = (m − 1) y f0. Exerciceα 4 1. La propriété sans mémoire s'écrit F̄ (s + t) = F̄ (t)F̄ (s). est Fλ (x) = 1− −λx e 1x∈R+ . 0 0 y 0 0 0 On peut justier l'échange d'intégration dans le cas où E(X r ) est ni car cette nitude est l'hypothèse dans le Thm de Tonelli.

On a d'autre part 0 x F {dx} ≤ R b r−1 r r 0 rb (1 − F (x))dx car pour b positif R ∞ r−1on a b (1 − F (b)) positif. on a une densité f (x) = −λx −λx λe 1x>0 et une fonction de répartition F (x) = 1 − e si x > 0 et F (x) = 0 sinon. n D'autre part.. R R∞ On sait que lim xr F {dx} nie donc b xr F {dx} ≥ br (1 − F (b)) permet de déduire que Rb r la limite du terme de droite vaut 0.n Xi ≤ x) = P(X ≤ x) = (1 − e ) ...... Donc lorsque E(X ) est inni alors il en est de même de 0 rb (1 − F (x))dx.. . Il suit le résultat. P(mini=1..n Xi > x) = 1 − P(X > x) = 1 − e−nλx .n Xi ≤ x) = 1 − P(mini=1.. n −λx n Il suit P(maxi=1... Exercice 7 Pour une loi exponentielle de paramètre λ > 0..

3. Y 1. Déterminer la densité de Y à l'aide d'un changement de variable. On suppose que la loi de X est uniforme sur [0. Calculer la loi de la variable X Y . 1] : E(X)2 P(X ≥ aE(X)) ≥ (1 − a)2 . π]. Soit U une variable aléatoire de loi uniforme sur [−1. Soit U une variable aléatoire de loi uniforme sur [0. Quelques inégalités Exercice 4 Soit X etdes variables aléatoires positives de carré intégrable sur (Ω. 5. A. 1. σ). trouver une fonction f telle que Y est de loi normale N (0. Soit Y la variable aléatoire dénie par Y = f (X). E(X 2 ) . 2.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 5 Obtenir une loi à partir d'une autre Exercice 1 X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonction Soit mesurable. P). 2 En considérant la fonction λ 7→ E [(X + λY ) ]. 2. Montrer que pour tout a ∈ [0. 2. σ 2 ). 1. retrouver l'inégalité de Cauchy-Schwarz E(XY )2 ≤ E(X 2 )E(Y 2 ). 4. 2 1−U Exercice 2 Soit X. 1]. En déduire que pour tout a ∈ [0. 1] :  (1 − a)E(X) ≤ E X1[aE(X). en fonction de m et σ . Exercice 3 Soit X et Y deux variables aléatoires indépendantes de loi normale N (m. 1] et f (x) = − ln x. 1). Donner la loi de 2 1 1+U (a) |U | (b) U (c) ln . Y deux variables aléatoires indépendantes de loi normale N (0. On suppose que X admet une densité et que f est injective et C 1 par morceau. 2 A quelle condition a-t-on E(X ) = 0 ? On exclut cette possibilité dans la suite.∞[ (X) . 1). 4. Quelle est la loi de Y ? 3. l'espérance E[(X + Y ) ]. 2 Calculer. Donner la loi de sin(U ). Si X est de loi normale N (m. En déduire la loi de Z −1 si Z est une variable aléatoire de loi de Cauchy.

Déterminer H(X). On suppose que X et f (X) sont intégrables. L'entropie (sur la base b) de la distribution P est la valeur X Hb (P) := − P({ω}) logb (P({ω})) ω∈Ω où b>0 0 logb (0) = 0. leur entropie relative est D(P kQ) = X P ({ω}) P ({ω}) log2 . Montrer que si f est strictement convexe. L'entropie d'une probabilité P sur Ω X est H(P ) = − P ({ω}) log2 P ({ω}). l'entropie est maximale pour la loi uni- forme sur Ω et uniquement pour celle-ci. P. Montrer que la valeur moyenne du nombre de questions que Bob à besoin de poser vaut H(X). Entropie Soit (Ω.  X(C) = b ? et  X(C) = c ? dans cet ordre. P) un espace de probabilité ni. Supposons que Bob choisit les questions  X(C) = a ?. Exercice 6 Soit Ω un ensemble ni. C et demande Bob de déterminer Alice et Bob jouent au jeu suivant : Alice tire une carte la valeur X(C) en posant des questions de type  X(C) appartient-il à A ? où A est une partie de {a.Exercice 5 L'inégalité de Jensen Soit f : E ⊂ R → R une fonction convexe dénie sur un intervalle E qui contient les valeurs d'une variable aléatoire X. c. 2. est la base du logarithme. Montrer à l'aide de l'inégalité de Jensen que D est positive et que D(P kQ) = 0 im- plique P = Q. Ici on dénit Remarque : En théorie de l'information on utilise surtout b = 2. 1. où log2 est ω∈Ω le logarithme en base 2 et on adopte la convention 0 log2 0 = 0. 9. c'est l'entropie binaire qu'on va noter H . 10 de carreau d pour les autres cartes  où a. Montrer que f (E(X)) ≤ E(f (X)). Autrement dit. Q probabi- Pour lités sur Ω Q({ω})  avec > 0 pour tout ω ∈ Ω. d}. 8. . En déduire que. parmi les probabilités sur Ω. b. Exercice 7 On considère un jeux de 32 cartes et la variable aléatoire X dénie par    a si la carte est noir b si la carte est un coeur  X(carte) =   c si la carte est le 7. L'entropie binaire de la loi µX d'une variable aléatoire nie X est notée H(µX ) ou bien H(X) . ω∈Ω Q({ω}) 1. c. alors l'égalité f (E(X)) = E(f (X)) implique que X est constante sur un événement presque sûr (c'est-à-dire de mesure 1 pour P). 2. d sont quatre réels distincts. l'entropie binaire H est l'espérance de la variable aléa- toire Z(ω) = − log2 (P({ω})). b.

Montrer que D(Pku) = H(u) − H(P). En déduire que l'entropie binaire d'une distribution sur Ω prend ses valeurs entre 0 et log2 |Ω| et que la distribution uniforme est l'unique point maximal de H.Exercice 8 Soit maintenant P et P0 deux probabilités sur Ω. 3. Montrer à l'aide de l'inégalité de Jensen que D est positif et que D(PkP0 ) = 0 implique P = P0 . ω∈Ω P0 ({ω}) 1. L'entropie relative notée 0 D(PkP ) est dénie comme l'espérance de la variable ω → log2 (P({ω})) − log2 (P0 ({ω})) par rapport à P : X P({ω}) D(PkP0 ) = P({ω}) log2 ( ). . Soit u la distribution uniforme sur Ω. 2.

Pour la transformation par h(u) := ln . donc la densité de sin(U ) au point t par π 1 − t2 2 1 rapport à la mesure de Lebesgue est √ 1[0. on obtient une densité au point t donnée par . 1. si g est une fonction mesurable bornée de R dans R. 1]. Par application du théorème du transfert. µsin(U ) (dt) =√ 1[0. Donc ρY (s) = e−s 1[0. on peut remarquer 2 t 2 1−u que cette fonction est strictement croissante de ]−1. 3. il est plus direct de passer par la fonction de répartition.1] (t).∞[ (s). 4. 1[ vers R. R π 0 π 0 En posant t = sin(u) on a u = arcsin(t) et Z 1 2 1 E(g(sin(U ))) = g(t) √ dt.π] (u). On regarde le cas où f est Soit −1 (s)) injective et C 1. Soit Y = f (X). alors Z E(g(sin(U ))) = g(sin(u))µU (du) R et Z E(g(sin(U ))) = g(t)µsin(U ) (dt). Donc Z Z π Z π/2 1 2 g(sin(u))µU (du) = g(sin(u))du = g(sin(u))du. R On sait que U a pour densité par rapport à la mesure de Lebesgue 1/π1[0. P(Y ∈ A) = P(f (X) ∈ A) = P(X ∈ f −1 (A)). Correction de la feuille de TD 5 Obtenir une loi à partir d'une autre Exercice 1 X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonction Soit mesurable. On trouve que |U | est de loi uniforme sur [0. π 1 − t2 6. Réponse : f (x) = σ−1 (x − m).1] . P(Y ∈ A) = 1A (f (t))ρX (t)dt = 1A (s) |fρX0 (f(f−1 (s))| R R ds. −1 0 Donc ρY (s) = |fρX0 (f(f−1 (s))| (s)) (ou ρY = |f −1 |ρX ◦ f −1 ). ρX = 1[0. Pour |U | et U 2 . 2.1] (t). π 0 1 − t2 2 1 Par conséquent. En particular P(Y ∈ R) = P(X ∈ R) = 1 et les autres axiomes. (e2t + 1)2 . f −1 0 (s) = −e−s . ce qui est la loi exponentielle de paramètre 1. f −1 (s) = e−s . On peut leur faire appliquer 2e2t ce qui precede. ρX la densité de X . U 2 a pour densité au point t par rapport à la mesure de 1 1 1+u Lebesgue √ 1[0. 5.1] (t)dt.

Soit 1. Y R2 t2 2π R2 2π Par Fubini on peut evaluer Z 1 1 2 +1)t2 1 e− 2 (s 2 |t2 |dt2 = 2π R π(1 + s2 ) ce qui est donc la densité de la loi de Y. La constante doit être 1 Q puisque ce sont des probas. Or E(X1[0. 2 2 2 2 La fonction λ → E [(X + λY ) ] = E(X ) + 2λE(XY ) + λ E(Y ) est un trinôme du 2 second degré toujours positif. La densité de (X.aE(X)[ (X). t2 ) = 1 − 12 (t21 +t22 ) 2π e .s. 1). Le cas dégalité cor- P respond à constant Q-p. E(XY )2 ≤ E(X 2 )E(Y 2 ). ou alors à x 7→ x ln x qui est strictement convexe (dérivée ln x+1 strictement croissante) P P (ω) (− log Q(ω) PP PP et à la mesure Q : Q(ω) P (ω) )Q(ω) ≥ ( Q Q) ln( Q Q) = 0. c'est-à-dire pour tout ω car Q > 0. Y X Y Exercice 3 On trouve E[(X +Y )2 ] = E[X 2 ]+E[Y 2 ]+2E[XY ] = m2 +σ 2 +m2 +σ 2 +2m2 = 2 2 4m + 2σ . 4. Comme X est une variable positive on a 1[aE(X).∞[ (X) = 1 − 1[0. P (ω) P Prendre pour Q la mesure uniforme : l'inégalité devient 0 ≤ P (ω) log 1/|Ω| = −H(P ) + log |Ω| = −H(P ) + H(u) (u proba uniforme).∞[ (X))2 ≤ E(X 2 )P(X ≥ aE(X)). 1. 2. 9. La variable aléatoire X 2 est positive ou nulle donc E(X 2 ) = 0 si et seulement si X 2 est nulle presque sûrement ou encore si et seulement si X est nulle presque sûrement. Quelques inégalités Exercice 4 Soit X et Y des variables aléatoires positives de carré intégrables sur (Ω. Par symmetrie a la même loi que . Entropie Exercice 7 On considère un jeux de 32 cartes avec la variable aléatoire X où    a si la carte est noir b si la carte est coeur  X(carte) =   c si la carte est carreau 7. Si Z est une variable aléatoire de loi de Cauchy alors sa loi est la même que celle de X Y X −1 . P).aE(X)[ (X)) ≤ aE(X) donc E(X1[aE(X). En utilisant les deux questions précédentes on a : (1 − a)2 E(X)2 ≤ E(X1[aE(X). Par conséquent son discriminant est négatif : 4E(XY ) − 4E(X 2 )E(Y 2 ) ≤ 0 autrement dit. 10 d pour les autres cartes  . P (ω)(− log Q(ω) ) ≥ − log P (ω) Q(ω) P P Appliquer Jensen à − ln et la mesure P : P (ω) P (ω) = 0. 2. d'où H(P ) ≤ H(u) et l'éga- lité donne une égalité dans la question d'avant donc P = u.∞[ (X)) ≥ E(X) − aE(X).Exercice 2 X. Alors Z Z X t1 1 − 1 (t21 +t22 ) 1 1 2 2 P( ∈ A) = 1A ( ) e 2 dt1 dt2 = 1A (s) e− 2 (s +1)t2 ds|t2 |dt2 .. A. 2. 8. Y ) est ρ(t1 . Y deux variables aléatoires indépendantes de loi normale N (0. Donc Z a la même loi que Z . 3. Exercice 5 L'inégalité de Jensen A faire Exercice 6 1.

2 4 8 8 Exercice 8 Voir copie de l'an passe.b. d}.où a.  X(C) = b ?. d sontPquatre nombres diérents. Alice et Bob jouent un jeu : Alice tire une carte C et demande Bob de déterminer la valeur X(C) en posant des questions de type  X(C). 1.  X(C) = c ?. 2. b. Alors E(L) = 1 + 2 + 3 + 3 = 1. .c. H(X) = − i∈{a. Supposons que Bob choisit les questions  X(C) = a ?. c. appartient-il à A ? où A est une partie de {a. Déterminer la valeur moyenne de nombre de questions que Bob à besoin de poser.d} P(X = i) log2 (P(X = i)) = 21 log2 (2) + 41 log2 (4) + 2 81 log2 (8) = 1. 75. 75 = H(X). b. Soit L la variable aléatoire de nombre de questions Bob a du demander pour connaître le 1 1 1 1 resultat. dans cet ordre. c.

1/2 . 6. V2 . Soit X et Y deux variables aléatoires réelles indépendantes de loi γa. Déterminer la loi de X +Y. Soit V1 .λ (x) = exp(−λx)xa−1 1R+ (x). Notons ΦX (t) = E(e itX ) la fonction caractéristique de X . Exercice 3 Loi Normale Soit X deux variables aléatoires réelles indépendantes de loi N (0. Déterminer l'espérance de cette loi. indépendantes. Vérier que cette fonction dénit bien une densité.1/2 . . 1).λ respecti- vement. (La loi γn/2. Donner Re (ΦX (t)) et .λ par sa densité relativement à la mesure de Lebesgue : λa fa. SoitZ1 . Retrouver à l'aide du résultat précédent les inégalités de Markov et Tchebyche. Montrer que Z12 suit une loi γ1/2.λ . Calculer la loi de X/(X + Y ).a. 1. on dénit la loi γa. Γ(a) 1. Montrer par récurrence que la loi de la somme V1 + · · · + Vn est la loi γn. 7. 5. 9. Montrer que X + Y et X/(X + Y ) sont des v. 2 En utilisant la fonction g(x) = (x + c) pour c > 0 montrer que si E(X) = 0 et 2 Var(X) = σ alors pour tout t > 0. Montrer que P(X ∈ I) ≤ b−1 E(g(X)). et Y 1. P).1/2 est également appelée loi χ2 (n)). indépendantes dont on calculera les lois. . A. . σ 2 + t2 Exercice 2 Loi Gamma Pour a > 0 et λ > 0. Zn des variables aléatoires réelles indépendantes de loi N (0. . . 8. 3. 4. Soit X et Y deux variables aléatoires réelles indépendantes de loi γa.a. Soit g : R → R+ telle que g(x) ≥ b > 0 pour tout x ∈ I ⊂ R. . 2. Vn des variables aléatoires réelles indépendantes de loi E(λ). 3. σ2 P(X > t) ≤ . Déterminer la loi de λX . . Montrer que X + Y et X/Y sont des v. Z2 . . Montrer que Z12 + · · · + Zn2 suit une loi γn/2.λ et γb. 2. 1).Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 6 Exercice 1 Généralisation d'inégalités du cours Soit X une variable aléatoire réelle de carré intégrable sur (Ω.λ .

avec t à préciser en fonction En déduire qu'il existe un intervalle P (X n ∈ Iα ) = 1 − α. montrer qu'il existe (sans l'expliciter) un unique nombre réel positif φα tel que Z φα 2 /2 dx e−x √ = 1 − α. Les variables Xθ et Yθ sont-elles indépendantes ? Exercice 4 Extrait du partiel d'avril 2008 1. . −φα 2π 5. Soit α ∈]0. σ 2 ). 2. σ 2 ) et N (m0 . tel que 6. σ 4. . Déterminer la loi de Xθ = X cos(θ) + Y sin(θ) et Yθ = −X sin(θ) + Y cos(θ). 96 dans ce cas. des constantes de l'exercice. Que peut-on dire de P(X n ≤ 0. Quelle est la loi de X +Y ? 2. 3. 7. σ = 1/2. Soient X et Y deux variables aléatoires indépendantes de loi N (m. σ 02 ). Xn des variables aléatoires indépendantes. . 05. 2π]. 1[. Iα = [m − t. m + t]. SoientX1 . Soit θ ∈ [0. toutes de loi N (m. Quelle X1 + · · · + Xn est la loi de X n = ? √ n n 3. En déduire l'expression de ΦX . En déduire que pour tout t > 0 on a limn→∞ P (|X n − m| > t) = 0. Montrer que (X n − m) suit une loi N (0. On applique 5) au cas où m = 1/2. 45) ? . n = 1000 et α = 0. On a φα = 1.Im (ΦX (t)) puis montrer à l'aide d'intégrations par parties que Φ0X (t) = −tΦX (t). . 1).

Vn ) (dx. g(x) = x et I = [t. Donc 1  2  P(X ≥ t) ≤ E (X + c) . Markov : X positive.. . dy) = dx dtg(t) e x R 0 x Γ(n − 1) Z ∞ λn−1 −λt  n−1 t = g(t) e x /(n − 1) 0 dt Γ(n − 1) Z0 λn = g(t) exp(−λt)tn−1 1R+ (t)dt R Γ(n) 4. cela donne : σ 2 + c2 P(X ≥ t) ≤ . 1. A. Soit g une fonction mesurable bornée de dans R. (t + c)2 Le terme de droite est une fonction en c qui atteint son minimum au point c = σ 2 /t > 0 et donne le résultat attendu. E(X) − t] ∪ [E(X) + t. Direct. . Supposons n ≥ 2 et S := V1 + . Avec un changement de variable on voit . ok. on a bien g(x) ≥ 0 pour tout x et g(x) ≥ (t + c)2 2 pour x ≥ t > 0. g positive donne E(g(X)1X ∈I/ ) ≥ 0 et g minorée par b sur I donne E(g(X)1X∈I ) ≥ bP(X ∈ I). ∞[. 2. . . On peut utiliser la fonction de répartition. + Vn )) = g(t)µV1 +. + Vn−1 de loi γn−1. Correction de la feuille de TD 6 Exercice 1 Généralisation d'inégalités du cours Soit X une variable aléatoire réelle de carré intégrable sur (Ω.Vn ) (dx. . .. Z ∞ Z ∞ λn−1 −λt n−2 Z g(x + y)µ(S. . 2. Vn−1 ) et Vn le sont. g(x) = (x − E(X)) et I =] − ∞. . . Pour n = 1. +∞[. 3. . . . 2 Tchebyche : t > 0. .+Vn (dt). . 3. vn−1 ) = v1 + . Pour g(x) = (x + c) pour c > 0. t > 0. On utilise le fait que Γ(a + 1) = aΓ(a) pour obtenir que l'espérance de cette loi est a/λ. P). + vn−1 et g(vn ) = vn2 mesurables on en déduit que S et Vn sont indépendantes car (V1 . Exercice 2 Loi Uniforme Exercice 3 Loi Gamma 1. . .λ . (t + c)2 Si E(X) = 0 et E(X 2 ) = σ 2 . dy) R et Z E(g(V1 + . On a R Z E(g(V1 + . + Vn )) = E(g(S + Vn )) = g(x + y)µ(S. R Comme f (v1 .

Y ) (dx. Comme les variables X et Y sont vers indépendantes.que λX ∼ γa. dv) R2 et Z E(g(X + Y. Soit g une fonction mesurable bornée de R2 dans R2 . X/Y )) = g(u. pour x > 0 et y > 0 . v = x/y . v)µ(X+Y. 5. y) = (x + y. le couple (X.X/Y ) (du.1 . . y)µ(X. dy) R2 où f (x. On a Z E(g(X + Y. Ceci est équivalent à x = uv/(v + 1) et y = u/(v + 1) pour u > 0 et v > 0. X/Y )) = g ◦ f (x. x/y) dénie de (R∗+ )2 (R∗+ )2 . Y ) a pour densité µX (dx)µY (dy) par rapport à la mesure de 2 Lebesgue sur R . On fait alors le changement de variable u = x + y .

.

.

v/(v + 1) u/(v + 1) .

v)| = . u On a de plus |J(u.

1/(v + 1) −u/(v + 1)2 .

= (v + 1)2 . Il suit .

.

X/(X+Y )) (dx. y)µ(X+Y. v)u2a−1 e−λu 1u>0 1 v>0 dudv. Soit g une fonction mesurable bornée de R2 dans R2 . pour x > 0 et y > 0 .X/(X+Y )) (du. dy) R2 où f (x. On a Z E(g(X + Y. X/(X + Y ))) = g(u. Comme les variables X et Y sont indépendantes. X/(X + Y ))) = g ◦ f (x. dv) R2 et Z E(g(X + Y. Ceci est équivalent à x = uv et y = u(1 − v) pour u > 0 et v ∈ (0. R2 (v + 1)2a Γ(a)2 λ2a 2a−1 −λu Les variables sont indépendantes. 1). v)µ(X+Y. µX+Y (du) = u e 1u>0 du et µX/Y (dv) = Γ(2a) Γ(2a) v a−1 1v>0 dv . . x/(x + y)) dénie de (R∗+ )2 vers (R∗+ )2 . v = x/(x + y). v a−1 λ2a Z E(g(X + Y. On fait alors le changement de variable u = x + y . X/Y )) = g(u. Γ(a)2 (v + 1)2a 6. Y ) a pour densité µX (dx)µY (dy) par rapport à la mesure de Lebesgue sur R2 . y) = (x + y. le couple (X.

.

.

v u .

.

On a de plus |J(u. v)| = .

1 − v −u .

= u. Il suit .

On a Z Z Z 1 2 /2 E(g(X 2 )) = g(u)µX 2 (du) E(g(X 2 )) = g(x2 )µX (dx) = √ g(x2 )e−x dx. Si Z1 est de loi N (0. 8. X/(X +Y ))) = g(u. µX/(X+Y ) (dv) = Γ(a)R 7.b . v) u e 1u>0 2 (v(1 − v))a−1 10<v<1 dudv. R 2 Γ(2a) Γ(a) Γ(2a) Les variables sont indépendantes et on a de plus 2 (v(1 − v))a−1 10<v<1 dv . Le seul point délicat est de calculer 0t xa−1 (t − x)b−1 dx = ta+b−1 01 ya−1 (1 − y)b−1 dy = R ta+b−1 Ca. λ2a 2a−1 −λu Z Γ(2a) E(g(X +Y. 1) et g une fonction mesurable bornée de R dans R. R R 2π R .b est forcément égale à Γ(a)Γ(b)/Γ(a + b) en tenant compte de la normalisation. La constante Ca.

v)µ(Xθ .Y ) (dx. y) = (x cos(θ) + y sin(θ). . dv) R2 et Z E(g(Xθ . 2 2 2 2 2 Exercice 4 Loi Normale SoitX et Y deux variables aléatoires réelles indépendantes de loi N (0. On dénit hθ (x. si g est un fonction mesurable bornée de R dans R . dy). N (0. y)µ(X. Yθ )) = E(g ◦ hθ (X. En utilisant l'indépendance et la question précédente on trouve ΦXθ (t) = ΦYθ (t) = exp(−t2 /2). 2 /2 2 R∞ 2 −x2 2 R∞ dy Par parité de x 7→ g(x2 )e−x on a E(g(X 2 )) = √ 0 g(x )e dx = √ 0 g(y)e−y/2 √ 2π 2π 2 y 1 donc µX 2 (dx) = √ e−y/2 y −1/2 1R+ (y). On a Sn = Sn−1 + Zn2 . + Zn−1 ∼ γ n−1 . On utilise ensuite la question 7 et 8 donnant Sn suit une γ n−1 + 1 . 1 et Zn ∼ N (0. Ces variables sont donc de loi 3. 1). alors Z E(g(Xθ . Y ) a pour densité e /(2π) par rapport à la 2 mesure de Lebesgue sur R . Yθ )) = g(u. 2. R2 −(x2 +y 2 )/2 X et Y sont indépendantes donc (X. . 1). Y )) = g ◦ hθ (x. En utilisant le fait que ΦX (0) = 1 2 2 on obtient que log(ΦX (t)) = −t /2 et ΦX (t) = exp(−t /2). . Supposons que Sn−1 = Z1 + 2 2 . . 0 On montre avec les indications que ΦX (t) = −tΦX (t). 1 = γ n . . Par application 2 2 du théorème du transfert. Ceci est équivalent à x = u cos(θ) − v sin(θ) et y = u sin(θ) + v cos(θ) pour (u. . zn−1 ) = 2 2 z12 + . v = −x sin(θ) + y cos(θ) pour (x. + zn−1 2 2 2 et g(xn ) = zn mesurables on en déduit que Sn−1 et Zn sont indépendantes car (Z1 . Pour n = 1 c'est vrai. . On le montre par récurrence. 1). Comme f (z1 . . . . 1 . Zn−1 ) et Zn le sont. . . 2π 9. On fait le changement de variable u = x cos(θ) + y sin(θ). v) ∈ R2 . 1.Yθ ) (du. −x sin(θ) + y cos(θ)) sur R2 . . y) ∈ R2 .

.

.

cos(θ) − sin(θ) .

Le jacobien vaut |J(u. v)| = .

.

.

On obtient. = 1. en utilisant le fait que sin(θ) cos(θ) .

R2 Par conséquent. Ces deux variables aléatoires sont indépendantes. v)e−(u /(2π)dudv. x2 + y 2 = u2 + v 2 . Z 2 +v 2 )/2 E(g ◦ hθ (X. Y )) = g(u.Yθ ) = µXθ ⊗ µYθ . Exercice 5 Voir Test partiel du 11 avril 2008 . µ(Xθ .

. Exprimer en fonction de la fonction caractéristique ΦX de X les fonctions caractéristiques suivantes : Φ−X . ΦX (t) ∈ R.a. pour tout t ∈ R. 2 Montrer que la loi de X = ZY est symétrique et calculer sa fonction caractéristique (en fonction de ΦY ). Si Y admet une densité f. Calculer ΦX où X suit la loi E(λ). (on pourra utiliser 2 1+t2 la dernière question de l'exercice précédent) 3. Soit Y une v. Montrer que.λ pour n ∈ N∗ . et en déduire la loi conditionnelle de X sachant X + Y . En déduire la fonction caractéristique d'une variable aléatoire suivant une loi de Cauchy 1 de paramètre 1 (densité f (x) = ). 4. puis ΦX1 X2 +X3 X4 . pour t ∈ R. X2 . et Z une v. En déduire ΦZ où Z suit la loi γn. À quelle condition une loi de densité f par rapport à la mesure de Lebesgue est-elle symétrique ? 2. ΦX (t) = . indépendante de Y et de loi donnée par : 1 P(Z = 1) = = P(Z = −1). 1). 2. et en déduire la loi de X1 X2 + X3 X4 . X4 des variables aléatoires indépendantes de loi N (0. quelle est la loi de X? Exercice 2 Calculs de fonctions caractéristiques 1. X + Y ). Quelle est la loi de la moyenne de deux variables π(1+x2 ) aléatoires de loi de Cauchy de paramètre 1 indépendantes ? 4.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 7 Fonction caractéristique Exercice 1 Lois symétriques. Loi conditionnelle (cas général. pour ϕ : R → R mesurable. X3 . ΦX−Y . Quelle est la loi Soit 2 conditionnelle de X sachant Y ? Plus généralement. 1). Calculer ΦX1 X2 (en utilisant le théorème de Fubini). réelle. SoitX1 . Soit X et Y des variables aléatoires indépendantes de même loi. 3. cas à densité) Exercice 3 X et Y deux variables aléatoires réelles indépendantes. Montrer que la loi d'une variable aléatoire réelle X est symétrique si. et seulement si. fonction caractéristique La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même loi. ΦX+Y . Détermi- ner la loi du couple (X.a. Y ) sachant Y ? Exercice 4 Soit X etY deux variables aléatoires indépendantes de loi N (0. 1. c'est-à-dire que la loi de X a 1 −|x| 1 pour densité x 7→ e sur R. Soit X une variable aléatoire suivant la loi de Laplace. Rappeler la valeur de ΦXi (t). quelle est la loi conditionnelle de ϕ(X.

Exercice 5 Soit X. Ces variables sont-elles indépendantes ? Retrouver alors rapidement le résultat de la question précédente. 2 Calculer E[ |X| |X + Y ]. Z) = (X. X + Y ). 2 2. 1. On note R = Z et on dénit Θ ∈ [0. Θ). 2 Déterminer la loi du couple (X. . √ 2 4. 3. 1). 2 2 En déduire la loi de X + Y puis la loi conditionnelle de X sachant X + 2 Y 2. 2π[ par les équations X = R cos Θ et Y = R sin Θ. Déterminer la loi du couple (R. Ydes variables aléatoires indépendantes de loi N (0.

indépendantes. . Quelle est la loi de conditionnelle de Sn sachant X1 ? Exercice 8 Loi conditionnelle autour de la loi exponentielle Soient T1 et T2 des variables aléatoires. Calculer la loi conditionnelle de X1 sachant X1 + X2 . indépendantes. Soit Sn = X1 + . Identier une loi connue puis interpréter. Exercice 7 Loi conditionnelle autour de la loi de Bernoulli SoientX1 . de loi Exp(λ).Exercice 6 Loi conditionnelle autour de la loi de Poisson Soient X1 et X2 des variables aléatoires. Calculer la loi de X1 + X2 . . Quelle est la loi de Sn ? 2. 2. b]|T1 ≤ t ≤ T1 + T2 ) : Qu'en concluez- vous ? . Calculer la loi de T1 + T2 . 1[. . 1. . . Quelle est la loi conditionnelle de X1 sachant Sn ? 4. 1. Xn des variables aléatoires de Bernoulli indépendantes toutes de même loi : P(Xi = 1) = p. de loi de Poisson de paramètre λ1 et λ2 respectivement. Sn ) ? 3. 1. Quelle est la loi du couple (X1 . 2. + Xn . Calculer la probabilité conditionnelle P(T1 ∈ [a. P(Xi = 0) = 1 − p pour un p ∈]0. .

donc ΦX (t) = (ΦY (t) + Φ−Y (t)) = e dy pour tout t. fonction caractéristique La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même loi.  n n λ ΦZ (t) = (ΦX (t)) = . et si deux densités f et g fournissent la même loi. ΦX (t) = λ λ−it . Soit X1 . Donc le couple (−Z. t Φ X1 +X2 (t) = E[ei 2 (X1 +X2 ) ] = ΦX1 (t/2)2 = e−|t| = ΦX1 (t). Y ) a même loi que (Z. Donc −ZY et ZY ont même loi. 2 2π R En réécrivant cette égalité. donc X se déduit d'une variable Y de loi E(1) de 2 2 1 1 la même façon qu'à la n de l'exercice 1. λ − it 2. On a : Z Z  −itxy − y2 2 dy x2 dx ΦX1 X2 (t) = e e √ e− 2 √ Z 2π 2π x2 dx = ΦX2 (tx)e− 2 √ Z 2π 2 x 2 dx = e−(t +1) 2 √ 2π 1 = √ . Comme ΦX est intégrable sur R on a. Comme (voir che 4) la loi γn. Ainsi. Correction de la feuille de TD 7 Fonction caractéristique Exercice 1 Lois symétriques. on a ΦX (t) = Re( ) = 1+t 2. par la formule d'inversion de Fourier (ou Corol- 1 −|x| 1 R −itx laire II. 4. 2 Exercice 2 Calculs de fonctions caractéristiques 1. ΦX+Y = (ΦX )2 .λ est la loi de la somme de n variables de loi exponentielle indépendantes. X2 de loi de Cauchy de paramètre 1. Φ−X (t) = ΦX (−t) = ΦX (t) (car X(ω) ∈ R).14 du cours 7). 3. on a e−itx π(1+t dt 2) = e −|x| . 4. 2. 1. Y ). −Y a pour 1 R ity f (y)+f (−y) densité y 7→ f (−y). ΦX−Y = |ΦX |2 . Si Y a pour densité f . e = e ΦX (t)dt où X est comme à la question d'avant. ΦX (t) = 12 (E[eitY ] + E[e−itY ]) = Re(ΦY (t)). c'est-à-dire ΦY (t) = e −|t| si Y est de loi de Cauchy de paramètre 1. ce 2 2 f (y)+f (−y) qui montre que X a pour densité . En eet la loi de −X −f est de densité R R . Si X suit la loi E(λ). et est indépendante de Y . Et. La variable Z est symétrique. Donc la loi de X1 +X 2 2 est celle de 2 X1 . d'où 0 = {f −g>0} (f − g) − R R {f −g<0} (f − g) = R |f (x) − g(x)|dx et donc f (x) = g(x) dx-presque partout. On peut voir que. X de loi f (x)dx. si on note f (x) = e −x 1R+ (x) la densité de la loi exponentielle de 1 −|x| f (x)+f (−x) paramètre 1. elles R sont telles que A f (x)dx = A g(x)dx pour tout borélien A. en découpant selon les valeurs de Z . Il faut et il sut que f soit paire (ou plutôt. ΦX (t) ∈ R ssi ΦX (t) = ΦX (t) ssi ΦX (t) = Φ−X (t). 1 + t2 . alors e = . soit égale Lebesgue- presque-partout à une fonction paire) pour que la loi de X soit symétrique. 1−it 3.

x2 + y 2 )e−x /2 e−y /2 2π ZR Z0 ∞ dz dx = 2 f (x.y) (φ) dµY (y). X + Y ) 1 de densité 2π e− 2 e− . et comme Z a 2 x2 (z−x)2 2 − − 2 + z4 √1 pour loi N (0. 1). y))dµ(X. fZ (z) z − x2 π .Z) (x. 2 2 Exercice 5 Loi conditionnelle autour de la loi normale Soit X. Lois conditionnelles Exercice 3 examen de rattrapage du 25 juin 2008. x2 (z−x)2 Exercice 4 On trouve (X. Y ))] = f (ϕ(x. Y des variables aléatoires indépendantes de loi N (0. pour z>0 : f(X. z) = 1 2 2π z−x2 {z≥x } par rapport à la 2 mesure de Lebesgue sur R . donc c'est la loi N ( . dx) = fX|Z=z (x)dx où. et la question précédente montre que X 1 X2 + X3 X4 suit la 1+t2 1 −|t| loi 2 e dt. y) = f (ϕ(x. Z) = (X. y))dµX (x) dµY (y) Z Z  = f (φ)dµϕ(X. Donc la loi conditionnelle de X sachant Z est p(z. on a : Z Z dx dy 2 /2 2 /2 E[f (X. autrement dit Z suit la loi exponentielle de paramètre 1/2.Z) (x. 2 Pour toute fonction bornée f : R → R. 2). 1. Pour toute f : R → R mesurable bornée. z)1{z≥x2 } √ dx dz. donc la loi conditionnelle de ϕ(X. 2. 2). Z)] = f (x. z)dx = 1R+ (z) √ √ = e−z/2 1R+ (z) R 2π − z z−x 2 2 (en reconnaissant la dérivée de arcsin √xz dans l'intégrale). Z) est de densité f(X. Alors la loi de Z est de densité : √ z e−z/2 Z Z dx 1 fZ (z) = f(X. y). on a : Z Z Z  E[f (ϕ(X. z) 1{|x|≤√z} 1 fX|Z=z (x) = = √ . Y ) sachant Y =y est la loi de ϕ(X. z)e−z/2 √ R x2 2 z − x2 2π e−z/2 Z Z = f (x.Z) (x. la loi de X conditionnellement à Z a pour densité e 2 et π 2 2 z 2 z l'exposant s'écrit −(x − zx + z /4) = −(x − ) .Y ) (x.Puis ΦX1 X2 +X3 X4 (t) = √ 1 . x2 + y 2 )e−x e−y R R 2π Z Z ∞ 2 2 dy dx = 2 f (x. R R 2π z − x2 −z/2 e√ donc la loi du couple (X.

2π[. Par l'exercice 3. R et Θ sont indépendantes. Voir corrigé de l'examen.+∞[ (r)dr et la loi uniforme sur √ [0. 0 0 2π 2 1 (θ) donc (R. 0 2π π comme obtenu plus haut. On pourrait aussi retrouver la densité fX|Z=z (x). Θ) a pour densité re−r /2 1]0. Pour toute fonction mesurable bornée f : R2 → R. π 4. 3. θ) l'application de passage en 1 2 coordonnées polaires . +∞[×]0. La loi conditionnelle de X sachant Z est la loi conditionnelle de R cos Θ = Z cos Θ sachant Z . θ)| = r. y))e−(x +y R R 2π Z ∞ Z 2π 2 dθ = f (r cos θ. r sin θ)e−r /2 r dr .et fX|Z=x (x) = 0 si z ≤ 0. la loi de X sachant Z = z est √ donc la loi de z cos Θ.2π[2π . Notamment. Or Z et Θ sont √ indépendantes car R = Z et Θ le sont. c'est un C -diéo de R \ (R+ × {0}) dans ]0. 2π]. on a donc : π/2 √ √ √ Z dθ 2 z E[ |X| |Z = z] = z E[ | cos Θ| ] = 4 z cos θ = . Exercice 6 Loi conditionnelle autour de la loi de Poisson examen du 9 juin 2008 Exercice 7 Loi conditionnelle autour de la loi de bernoulli test partiel du 11 avril 2008 Exercice 8 Loi conditionnelle autour de la loi de exponentielle examen de rattrapage du 25 juin 2008 . avec |Jφ−1 (r. Y ))] = f (φ(x.+∞[ (r) ]0. de lois −r2 /2 respectives re 1]0. on a donc : Z Z 2 2 )/2 dx dy E[f (R. y) 7→ (r. Θ)] = E[f (φ(X. ou : On note φ : (x. Alors : Z E[ |X| |Z] = |x|fX|Z (x)dx R Z √Z 2 x = √ dx π 0 Z − x2 2h √ i √Z = − Z − x2 π√ x=0 2 Z = .

On savait déjà que pour une suite d'événements (An )n : * P(∪∞ P∞ n=1 An ) ≤ n=1 P(An ) avec une égalité dans le cas où les An sont deux à deux disjoints. n n→∞ n n n→∞ n Borel-Cantelli : * n P(An ) < ∞ ⇒ P(lim supn An ) = 0. On pose Xn Y = lim sup . P * (An ) mutuellement indépendants et n P(An ) = ∞ ⇒ P(lim supn An ) = 1. On a donc P(lim supn An ) = limn→∞ P(∪k≥n Ak ) = limn→∞ P(Jn ) et P(lim inf n An ) = limn→∞ P(∩k≥n Ak ) = limn→∞ P(In ). Posons In = ∩k≥n Ak et Jn = ∪k≥n Ak . P Exercice 1 Soit(Xn )n≥0 une suite de variables aléatoires indépendantes de loi exponen- tielle de paramètre λ > 0.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 8 Modes de convergence et lemme de Borel-Cantelli Quelques Rappels Par dénition [ \ lim inf An = Ak . n n≥1 k≥n donc ω ∈ lim inf n An ⇔ il existe n tel que ω ∈ Ak pour tout k ≥ n. D'autre part \ [ lim sup An = Ak n n≥1 k≥n donc ω ∈ lim supn An ⇔ pour tout n. * limn→∞ P(An ) = P(∪∞ n=1 An ) lorsque (An )n est croissante. De plus pour tout n In ⊂ An ⊂ Jn et par conséquent P(lim inf An ) = lim P(In ) ≤ lim inf P(An ) ≤ lim sup P(An ) ≤ lim P(Jn ) = P(lim sup An ). il existe k(n) ≥ n tel que ω ∈ Ak(n) donc lim supn An contient les éléments ω ∈ Ω qui appartiennent à une innité de An . lim inf n An contient les éléments ω ∈ Ω qui appartiennent à tous les An à partir d'un certain rang. * limn→∞ P(An ) = P(∩∞ n=1 An ) lorsque (An )n est décroissante. n ln n .

pour tout n. Montrer que. qui valent 1 avec probabilité p et 0 avec probabilité q = 1 − p). puis Sn = Y1 + . . Montrer qu'il existe une constante C telle que. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi Bernoulli de paramètre pn : P(Xn = 1) = pn = 1 − P(Xn = 0).  Xn 1 P(Y ≥ λ1 ) = 1. pour tout  > 0.  Xn 1+  1+ Montrer que P lim supn ln n > λ = 0. n ln n λ n ln n λ 4. Cette suite converge-t-elle presque sûrement vers 0? Exercice 2 Soit (pn )n≥1 une suite dans [0. 1] qui tend vers 0. Montrer que Xn converge vers 0 en probabilité. quelle est la loi de Yn ? 2. Montrer que Xn ln n converge vers 0 en probabilité.e. 1. Calculer E[Yn Ym ] E[Sn /n]. En déduire que P(Y > λ ) = 0. Démontrer que la suite Sn /n converge en probabilité vers une constante à préciser.      Xn 1+ Xn 1+ P lim sup > ≤ P lim sup > . 2. Pour tout n.  Montrer que P lim supn ln n ≥ λ = 1. λ 6. Montrer que      Xn 1 Xn 1 P lim sup ≥ ≤ P lim sup ≥ . + Yn . En déduire 1 que P(Y = ) = 1. 1. 5. P Sous quelle condition sur la somme n pn la suite (Xn )n≥1 converge-t-elle aussi presque sûrement vers 0? Exercice 3 (Un )n∈N une suite de variables aléatoires indépendantes de loi de Ber- Soit noulli de paramètre p (i. 5. A quelle condition sur n et m tels que 1 ≤ n < m les variables aléatoires Yn et Ym sont-elles indépendantes ? 3. puis calculer 4. 1 Le but est de montrer que Y = λ presque surement. n ln n λ n ln n λ 2. En déduire que 3. . Var[Sn ] ≤ Cn. . Pour tout n. 1. on note Yn = Un Un+1 .

D'après Borel-Cantelli ω P P(Λ) = 0 ssi n P(Λn ) < ∞. P(Y ≥ λ1 ) = 1. ) = P( Xn ≥ lnλn ) = e− ln n = n−1 . Donc (Xn )n converge prèsque surement vers 0 ssi n pn < ∞ .  > 0 que P(Xn ≥ ) ≤ pn −→ 0T. n ln n λ n n  Xn 1 Comme les variables sont indépendantes. S On a pour tout n→∞ 2. On pose Λn = {Xn = 1}. 5. Soit (xn )n≥0 une suite de nombres réels. ln n )) = 0. 6. Decoule de l' implication suivante Soit (xn )n≥0 une suite de nombres réels. Exercice 3 Voir examen du 9 juin 2008 . Alors on peut montrer que lim sup xn > 0 =⇒ xn > 0 pour une innité de n. Exercice 2 1. Donc  Xn 1  On a P( ln n ≥ λ X  Xn 1  X1 P( ≥ )= = ∞. n ln n λ n  Xn > λ1 (1 + ) ) = 0. On laissant tendre vers 0 on obtient par σ -continuité que P(Y > λ1 ) = lim→0 P(Y > 1+ λ ) = 0. n 4. Λ = lim supn Λn = n k≥n Λk est l'ensemble des points P∈ Ω pour lesquelles Xn (ω) ne converge pas vers 0. Borel Cantelli implique P(lim supn ln n ≥ λ )= 1 et donc avec 1. Correction de la feuille de TD 8 Exercice 1 1. Alors on peut montrer que xn ≥ 0 pour une innité de n =⇒ lim sup xn ≥ 0 n 2. Maintenant   X Xn 1+ X P( > )= n−(1+) < ∞. P(Y > λ1 (1 + Borel Cantelli nous dit alors que P(lim supn Avec 3. On rappelle Decoule de l' implication suivante que lim supn xn = limn supk≥n xk . Donc P(Y = λ1 ) = P(Y ≥ λ1 ) − P(Y > λ1 )=1-0=1. 3. On a P( lnXnn ≥ a) = P(X1 ≥ aln n) → 0. On rappelle que lim supn xn = limn supk≥n xk .

ln n Xn 1+ Xn (ω) 1+ Soit ω ∈ {lim sup > λ } on a alors lim sup > λ . ln n Xn Xn Soit ω ∈ lim sup{ ln n ≥ 1/λ}. on voit très rapidement apparaître une contrac- diction avec le résultat de la question 5. Maintenant X  Xn  1+ X P( > )= n−(1+) < ∞. pour Yn = Xn / ln n et Y = 0 ici. Alors ω appartient à une innité d'événements { ln n ≥ 1/λ} Xn (ω) c'est-à-dire que l'ensemble {n ∈ N. ln n λ 4. Borel Cantelli implique  Xn ≥ λ1 ) = 1 et donc avec la question 1. Montrons que {lim sup > 1+ λ Xn } ⊂ lim sup{ ln n > 1+ λ }. ln n 2. 6. soit encore ω ∈ {lim sup n ≥ 1/λ}. Donc P(Y = λ1 ) = P(Y ≥ λ1 ) − P(Y > λ1 )=1-0=1. ln n Xn (ω) X Par conséquent. P(Y > (1 + )) = 0. P(Y ≥ λ1 ) = P(lim supn ln n 1. On peut montrer qu'elle ne converge pas ps vers 0 en utilisant l'équivalence Yn →ps Y si et seulement si ∀ > 0 P(lim sup |Yn − Y | > ) = 0. lim sup ln n ≥ 1/λ . n ln n λ n n Comme les variables sont indépendantes. En laissant tendre  vers 0 on obtient par σ-continuité que P(Y > λ1 ) = lim→0 P(Y > 1+ λ ) = 0. On a P( lnXnn ≥ ) = P(X1 ≥ ln n) → 0. λ 5. On a P( ln n ≥ λ1 ) = P( Xn ≥ lnλn ) = e− ln n = n−1 . ≥ 1/λ} est inni. ln n   ln n Xn (ω) Xn (ω) Or il existe une sous-suite de qui converge vers lim sup . Xn 3. ln n > 1+λ } est inni. ln n λ 1 Avec la question 3. Donc  Xn X  Xn 1  X1 P( ≥ )= = ∞. n ln n λ n  Xn 1 Borel Cantelli nous dit alors que P(lim supn > (1 + ) ) = 0. Correction de l'exercice 1 du Td 8 Xn 1. n En eet. Montrons que Xn lim sup{ ln n ≥ 1/λ} ⊂ {lim sup ≥ 1/λ}. . X 1+ Ce qui signie que ω ∈ lim sup{ n > }. ln n n∈N ln n Xn (ω) Donc l'ensemble {n ∈ N. Autrement dit. il est clair que cette variable converge en probabilité vers 0.

4. 6. 2. . X1 . . . Calculer la fonction de répartition de Z . Exercice 2 1. Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0. X1 . On pose N X U= Xi . 3. 1[ et E(λ) avec λ > 0. 1]. calculer P(Z = k). Montrer que les variables Z et 1{Z=X} sont indépendantes. Soit N une variable aléatoire de loi binomiale B(n. Calculer la fonction génératrice de V. Calculer les fonctions de répartition de X et Y . 1. Déterminer le comportement lorsque n tend vers l'inni de la suite de terme 1 Pn général 1{Yi +Zi ≤1} . . Notons Mn = max(Y1 . . . i=0 Exprimer la fonction caractéristique de U en fonction de celle de X0 . Xn des variables aléatoires indépendantes et identiquement distri- buées. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi N (0. Soit N une variable aléatoire de loi de Poisson de paramètre λ > 0 indépendante de (Xn )n≥1 . p) indépendante de X0 . 2. a et b deux réels tels que ` < a < b < ` + 1. . (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi de Bernoulli Soit de paramètre p. n i=1 3.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 9 Exercice 1 X et Y deux variables aléatoires indépendantes de lois respectives E(λ) Soit avec λ > 0 et E(µ) avec µ > 0. calculer P(a < Z < b). Y ). . Calculer P(X ≤ Y ). On note Z = min(X. . 5. 7. 1). . Pour k ∈ N? . On pose  0 si N = 0. Déterminer la loi de Mn puis montrer que Mn converge en probabilité vers 1. Soit X0 . 2. 1 Pn Montrer que la suite de terme général X 2 eXi converge presque sûrement lorsque n i=1 i n tend vers l'inni vers une limite que l'on précisera. Xn . . Calculer P(X ≤ Y ). . . Yn ). V = PN i=1 Xi si N ≥ 1. (Yn )n≥1 et (Zn )n≥1 des variables aléatoires indépendantes et de même loi uniforme Soit sur [0. Pour ` ∈ N. Y ). Quelle loi reconnaissez-vous ? Exercice 3 1. On note Z = min(X.

On note Z = min(X. P(X ≤ Y ) = R2 1x≤y µ(X. Pour k ∈ N . 5. On a P(Z ∈ A. 1Z=X = 1) = P(X ≤ Y. k=1 k=1 k=1 1 − e−λ (1 − p) 6. 2. dy) =T onelli 0∞ x∞ µe−µy dy λe−λx dx = R R R  . Pour` ∈ N. 1.Y ) (dx. ∞ ∞ ∞ X X X pe−λ P(X ≤ Y ) = P(X ≤ Y. on a : P(a < Z < b) = P(a < Y < b. GV (s) = E[s ] = E[s ( k=0 1N =k )] = k=0 E[s 1N =k ] = P∞ Pk Xj P∞ λk P(N = 0)+ k=1 E[s j=11N =k ] = e−λ + k −λ k=1 (1−p+sp) e = eλp(s−1) . X ∈ A) Z Z ∞  = µe dy λe−λx 1R+ (x)dx −µy A Z x = λ e−(λ+µ)x 1R+ (x)dx. PN Pk itU ] = E[eitU ( nk=0 1N =k )] = nk=0 E[eit j=0 Xj ]P(N = P P On pose U= i=0 Xi . A λ (λ+µ)e−(λ+µ)z 1R+ (z)dz R D'autre part. 1[ et E(λ) avec λ > 0. Y > z) = 1 − P(X > z)P(Y > z) = 1 − e−(λ+µ)z donc Z suit une loi exponentielle de paramètre λ + µ. X ≥ ` + 1) = P(a < Y < b)P(X ≥ ` + 1) = P(a < Y < b)(1 − P(X ≤ `)) = (e−λa − e−λb )(1 − p)` . Y > k) car Y est à densité donc P(Z = k) = p(1 − p)k−1 e−λk . On reconnait k! la loi de Poisson de paramètre λp. λ+µ 3. 1Z=X = 1) = P(Z ∈ A)P(1Z=X = 1). Il est susant de montrer que pour A ⊂ R borélien : P(Z ∈ A. . Correction de la feuille de TD 9 Exercice 1 X et Y deux variables aléatoires indépendantes de lois respectives E(λ) Soit avec λ > 0 et E(µ) avec µ > 0. X est une variable à valeurs dans N? et pour x ≥ 1. a et b deux réels tels que ` < a < b < ` + 1. on a P(Z ≤ z) = 1 − P(X > z. λ+µ Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0. Exercice 2 1. Y ). P  N V V P ∞ P∞ V On pose V = i=1 Xi 1N ≥1 . on a : [x] X P(X ≤ x) = P(X ≤ [x]) = p(1 − p)k−1 = 1 − (1 − p)[x] . Y ). 4. Z est une variable positive. On note Z = min(X. λ 2. 7. P(Z ∈ A)P(1Z=X = 1) = P(Z ∈ A)P(X ≤ Y ) = A . Pour z > 0. X = k) = P(Y ≥ k)P(X = k) = p(1−p)k−1 e−λk = . k=1 Pour Y on a pour tout y : P(Y ≤ y) = (1 − e−λy )1R+ (y). φU (t) = E[e n k) on trouve alors facilement que φU (t) = φX0 (t) (pφX0 (t) + 1 − p) . ? P(Z = k) = P(X = k.

. . . on a P(Mn ≤ x) = P(Y1 ≤ x)n = xn . E[X 2 eX ] = 2e1/2 . 1]. 2. 3. On a des variables aléatoires indépendantes de même loi intégrables donc d'après la loi forte des grands nombres on a la convergence ps vers 2e1/2 . . E[1Y +Z≤1 ] = 1/2. P(|Mn − 1| > ε) = (1 − ε)n 10<ε≤1 . . On a pour x < 0 P(Mn ≤ x) = 0 et pour x > 1 P(Mn ≤ x) = 1.Exercice 3 1. Donc cette probabilité tend vers 0 pour tout ε > 0. Yn ). Notons Mn = max(Y1 . On a des variables aléatoires indépendantes de même loi intégrables donc d'après la loi forte des grands nombres on a la convergence ps vers 1/2. Pour x ∈ [0.

On pose X n = et Zn = 1/X n . avec α1 . E[Sn ] = nE[X ] + 3n(n − 1)E[X ] . α2 λ]. tel que P(X n ∈ I) = 0. pour n = 10000 et φ = 1. alors la convergence a lieu en probabilité. Conclure. Montrer que si (Xn )n converge en loi vers une variable aléatoire constante c. 6. 96. Exercice 2 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. 5. En déduire ensuite un intervalle de la forme J = [α1 λ. Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. . Exercice 4 1. de même loi. 95. n P(|Sn | > nε) converge. 2. 2 2 2. 95. Démontrer que la suite de terme général max1≤k≤n Xk − ln n λ converge en loi vers une limite à déterminer. pour tout ε > 0. ln n 1≤k≤n n λ 2. 4 4 Montrer que.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 10 Exercice 1 Montrer que. tel que P(Zn ∈ J) = 0. pour tout n. 1) et −X . 2. On note X = X1 . en fonction de λ inconnu. Soit N une variable aléatoire de loi N (0. En supposant n susamment grand pour que cela se justie. montrer qu'il existe un unique φ ∈ R+ tel que P(|N | ≤ φ) = 0. Indication : utiliser par exemple X de loi N (0. par quelle loi gaussienne peut-on approcher la loi de X n ? 3. Exercice 5 Soient X1 . Application numérique : calculer J . P En déduire que. . On suppose E[X] = 0 et E[X 4 ] < ∞. 3. dans une suite de lancers indépendants de pièces de monnaie identiques. 4. la séquence PFPFF ( Pile. avec β à déterminer. α2 à déterminer. Préciser ce résultat à l'aide de la loi forte des grands nombres. 1. 1/λ + β]. Face) apparaît une innité de fois. On note. . En déduire un intervalle de la forme I = [1/λ − β. 95. X n des variables aléatoires indépendantes de loi exponentielle X1 + · · · + Xn de paramètre λ > 0. pour tout n. Donner un exemple de suite (Xn )n≥0 qui converge en loi mais pas en probabilité (et donc pas presque sûrement). Le but de l'exercice est de démontrer la loi forte des grands nombres pour la suite (Xn )n . Sn = X1 + · · · + X n . Montrer la convergence en probabilité suivante : 1 (p) 1 max Xk −→ . 1. n 1. qui a même loi. . de loi E(λ). 1). . Montrer que Zn converge presque sûrement vers λ quand n tend vers ∞.

Pour t ≤ 0. Correction de la feuille de TD 10 Exercice 1 (Xn )n≥0 suite i. F. On applique Borel-Cantelli aux événements indépendants A5n = {(X5n . X5n+4 ) = (P. Montrer que. par Borel-Cantelli. n0 tel que. P.) 2. il existe p. F. Xk+4 ) = (P. il existe n0 tel que. si ε < 1/λ : 1 1 1 P( max Xk − < −ε) = (1 − exp(−(1 − λε) ln n))n = exp(n ln(1 − 1−ελ )) →n 0.i. n4 ε4 n2 ε4 3. E[Sn4 ] = nE[X 4 ] + 3n(n − 1)E[X 2 ]2 . de loi E(λ).. Xk+3 . indépen- dantes). On note X = X1 . 1. Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. ln n 1≤k≤n λ n et cette proba est nulle si ε > 1/λ. pour tout p ∈ N∗ . F )} = 1A5k +· · ·+ 1A → − n n 1≤5k≤n n 1≤5k+4≤n 5k+4 n (on découpe l'ensemble selon le résidu de k modulo 5 de façon à avoir des v. Exercice 2 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes.s.. Soit ε > 0. n . F.a. X5n+3 . Le but de l'exercice est de démontrer la loi forte des grands nombres pour la suite (Xn )n . X5n+2 . pour tout t>0 : ln n P(Zn ≤ t) = P(Xk − ≤ t)n λ e−λt n −λt = (1 − ) →n e−e . en prenant ε = 1/p. F. c'est à dire que la suite (Sn /n)n converge vers 0. Comme une intersection dénombrable d'événements presque sûrs |Sn | est presque sûre. On suppose E[X] = 0 et E[X 4 ] < ∞. pour tout n. n ≤ 1 p . 1. (développer. Pour tout p ∈ N∗ . X5n+1 . de loi P(Xn = F ) = 1/2 = 1 − P(Xn = P ). 1 1 X 1 X ]{1 ≤ k ≤ n|(Xk . La loi des grands nombres donne quant à elle la fréquence asymptotique d'apparition de la séquence : presque-sûrement. de même loi.d. F )} P qui ont tous même proba de sorte que la série n P (A5n ) diverge grossièrement. E[Sn4 ] 3E[X 2 ]2 P(|Sn | > nε) = P(|Sn |4 > n4 ε4 ) ≤ ∼n . on a : p.s. Pour tout ε > 0.. Xk+2 . pour n ≥ n0 . On a : 1 1 1 P( max Xk − > ε) = P(Xk > ( + ε) ln n)n ln n 1≤k≤n λ λ = exp(−n(1 + λε) ln n) →n 0 et. 2. n ≤ p1 . Xk+1 . P. |Sn | pour n ≥ n0 . P(Zn ≤ t) = 0 et on a.

P(|Xn − c| > ε) = 1 − P(c − ε < Xn < c + ε) →n 0 par convergence des fonctions de répartition aux points de continuité de la limite (ici. Donc Zn →ps λ. 2. partout sauf en c). Rnλ √ 3. 1). Alors −X a même loi. . P(1/λ + φ/( nλ) ≤ X ≤ 1/λ + φ/( nλ)) = 0. √ √ 5.98λ. on voir que c'est aussi la loi de densité λe e 1[0. Il s'agit d'une loi de Gumbel. Par le T. φ/ n = 0. 2. √ ). si Sn = nX n alors Sn − nE[X1 ] √ ∼ N (0.02λ]. croissante de 0 à 1 donc le théorème des valeurs intermédiaires (si I intervalle de R et f dénie sur I à valeurs réelles et continue alors f (I) est un intervalle.L. σ(X1 )) n 1 donc X ∼ N (1/λ. Exercice 4 1. Si (Xn )n converge en loi vers la variable aléatoire constante c.98 et α2 = 1. donc la suite Xn = (−1)n X converge en loi vers X .95 √ √ c'est à dire P(|X − 1/λ| < φ/( nλ)) = 0. La fonction x 7→ −x x 2 e−t /2 dt/ 2π est continue. −λt −e−λt En dérivant.+∞[ (t).) √ 4.C. nλ(X − 1/λ) ∼ N (0. or Xn − X = 0 si n est pair et −2X si n est impair donc la suite P(|Xn − X| > 1) ne converge pas vers 0. Exercice 5 1.0196 donc α1 = 0. X de loi N (0. 1.95 donc on pose √ √ α1 = λ(1/(1 + φ/ n)) et α2 = λ(1/(1 − φ/ n)).95 donc β = φ/( nλ).95 est equivalent à √ √ P(λ(1/(1 + φ/ n)) ≤ Zn ≤ λ(1/(1 − φ/ n))) = 0. √ 6. 1) donc √ P( nλ|X − 1/λ| < φ) = 0. alors : pour tout ε > 0. Par la loi des grands nombres (X1 integrable) on a X n →ps E[X1 ] = 1/λ.+∞[ (t).02 d'ou J = [0. −λt Donc Zn converge en loi vers la loi ayant pour fonction de répartition F (t) = e−e 1[0.