Académique Documents
Professionnel Documents
Culture Documents
1 Aléatoire et formalisme 3
3 Aléatoire multivarié 29
1
Introduction
Le lecteur trouvera ici les énoncés et corrigés des exercices proposés dans
Certains des énoncés ci-dessous ont été modifiés par rapport à ceux de l’ouvrage
pour introduire quelques précisions ou, plus simplement, corriger quelques erreurs.
Dominique.Pastor@telecom-bretagne.eu
et
Christophe.Sintes@telecom-bretagne.eu
Nous suggérons à nos éventuels correspondants de débuter le sujet de leur cour-
riel par l’abbréviation PPI (probabilités pour l’ingénieur), ce qui nous permettra de
mieux identifier la nature de leur courriel.
1
Chapitre 1
Aléatoire et formalisme
Il faut utiliser cet énoncé plus général de la convergence monotone pour répondre
aux questions suivantes.
1. Soit (g n )n∈N une suite d’applications numériques mesurables à valeurs dans
Z X ∞ ∞ Z
X
[0, ∞[. Montrer que g n (x)dx = g n (x)dx.
R n=1 n=1 R
(b) En admettant que toute application intégrable est finie presque partout,
∞
X
déduire de la question précédente que f n (x) converge pour presque
n=1
R ∞
X
tout réel x et que R |f (x)|dx < ∞ avec f (x) = f n (x) en tout point x
n=1
3
4 PROBABILITÉS POUR L’INGÉNIEUR
P
où cette série converge et f (x) = 0 (par exemple) en x où la série f n
diverge.
Z ∞ Z
X
(c) Montrer que f (x)dx = f n (x)dx. Ce résultat est [RUD 87, Theo-
R n=1 R
rem 1.38, p. 29] dans le cas réel.
Solution
PN
1) On pose G N = n=1 g k pour tout N ∈ N. Pour tout N ∈ N, G N est mesurable en tant
que somme finie d’applications mesurables. De plus, pour tout N ∈ N, GRN Ê 0. Nous
sommes
R dans les conditions de la convergence monotone et donc : limN R G N (x)dx =
R lim N G N (x)dx. D’où le résultat, car :
Z N Z
X
G N (x)dx = g n (x)dx
R n=1 R
et Z ∞ Z
X
lim G N (x)dx = g n (x)dx
N R n=1 R
2b) Comme R φ(x)dx < ∞, φ est finie presque partout. Il s’ensuit que pour presque
R
P
tout x, la série f n (x) est absolument convergente et donc convergente. En tout
point x où cette série est absolument convergente, | f (x)| É φ(x) et pour tout réel
x où la série f n (x) diverge, f (x) = 0. Comme φ est intégrable, f est elle-aussi in-
P
tégrable. Il suffit même de dire que f est majorée presque partout par la fonction
intégrable φ — sans même avoir à préciser une quelconque valeur pour f là où elle
n’est pas majorée par φ — pour garantir que f est intégrable.
PN PN
3) Nous avons | n=1 f n | É φ et limn n=1 f n = f (presque partout). Nous sommes
donc dans les conditions de la convergence dominée dans un cas plus général que
celui considéré dans l’énoncé du livre puisque nous avons ici une convergence pres-
que partout au lieu d’une convergence partout. Mais cela ne change en rien les
conclusions du théorème : on peut se contenter d’inégalités et d’égalités vraies pres-
que partout dans les énoncés de la convergence montone et dominée sans que cela
n’empêche d’intervertir l’intégrale et la limite. Le résultat est donc une conséquence
de la convergence dominée.
Le lecteur attentif le remarquera peut-être : nous n’avons en fait pas besoin de
la question précédente pour garantir l’intégrabilité de f car cette intégrabilité est
directement garantie par la convergence dominée !
Les 3 exercices suivants sont des adaptations d’énoncés que le lecteur trouvera
dans [KHA 94].
EXERCICES PARTIE I 5
Solution
Si x ∈ [0, 1], on a x É 1 É 1 + x a car x a Ê 0. Si x > 1, x < x a < x a + 1. Donc, pour tout
x ∈ [0, ∞[, x ≤ x a + 1. Nous déduisons de cette inégalité que n a nx x a +1 É 1. Aussi, nous
nx f (x) nx| f (x)|
avons l’inégalité : |1 A (x) 1+n a x a | = 1 A (x) 1+n a x a É | f (x)| puisque A ⊂ [0, ∞[. Comme
nx f (x)
f est intégrable, la suite de fonctions ( f n )n∈N avec f n (x) = 1 A (x) 1+n a x a est dominée
nx f (x)
par la fonction intégrable f . De plus, pour tout x ∈ R, limn 1 A (x) 1+n a x a = 0. D’où le
résultat par application de la convergence dominée.
Solution
1) Soit f (x) = e −x x a−1 définieRpour tout x ∈]0, ∞[. Comme f (x) Ê 0 pour tout x ∈
∞
]0, ∞[, la valeur de l’intégrale 0 f (x)dx existe dans [0, ∞]. On cherche à montrer
que cette intégrale est en fait finie.
Comme e −x É x a−1 , nous avons :
Il s’ensuit que :
Z ∞ Z 1 Z ∞ Z 1 Z ∞
f (x)dx) = f (x)dx + f (x)dx É x a−1 dx + e −x dx (1.1)
0 0 1 0 1
R∞
ce terme puisqu’une primitive de e −x est −e −x . On a donc 1 e −x dx = [−e −x ]∞ 1 = 1.
La première intégrale du membre de droite dans l’inégalité (1.1) est elle-aussi fi-
nie. Pour le montrer, on peut utiliser la proposition 4.15 du livre. À titre d’exemple,
nous allons faire ici une démonstration spécifique au cas considéré dans cet exer-
cice, sans passer par cette proposition, afin que le lecteur s’exerce à l’emploi de
la convergence monotone que nous allons employer. Soit la suite (g n (x))n∈N∗ des
applications g n (x) = x a−1 1[1/n,1] (x) pour x ∈]0, 1]. Pour tout x ∈]0, 1], cette suite est
croissante et lim g n (x) = x a−1 1]0,1] (x). Par application de la convergence monotone,
n
Z 1 Z 1
x a−1 dx = lim x a−1 dx (1.2)
0 n 1/n
L’application qui associe x a−1 à tout x ∈ [1/n, 1] est continue et bornée sur [1/n, 1].
Elle est donc intégrable sur [1/n, 1]. D’autre part, une primitive de x a−1 est (1/a)x a .
Cette primitive est dérivable en tout point de l’intervalle [1/n, 1]. Nous sommes dans
les conditions du théorème fondamental du calcul intégrale (théorème 4.10 du livre).
Nous obtenons donc :
1 a 1
Z 1 · ¸ µ ¶
a−1 1 1
x dx = x = 1− a
1/n a 1/n a n
On a donc : ∞ 1
Z
f (x)dx É +1 (1.4)
0 a
ce qui garantit l’intégrabilité de f .
Avec un peu d’habitude, on peut aller beaucoup plus vite en passant vite sur
les détails que nous venons de donner. Mais nous avons voulu donner ces détails
pour montrer comment les différents résultats de la théorie s’articulent pour établir
l’intégrabilité de la fonction considérée.
2) Il y a plusieurs façons de procéder. La plus simple est de faire un dessin. Si l’on
veut absolument faire des calculs, une solution classique consiste à considérer la
fonction h(x) = e x − x − 1 définie pour tout réel x et à étudier le sens de variation de
h. On a h 0 (x) = e x − 1 Ê 0 pour x Ê 0. On en déduit que h est croissante sur [0, ∞[.
cela implique que h(x) Ê h(0) pour tout x Ê 0 et comme h(0) = 0, nous obtenons le
résultat voulu.
³ x ´n ¡ x¢
3) Nous avons 1 − = e n ln 1− n . Pour n assez grand, nous pouvons écrire :
n
³ x´ x x ³x´
ln 1 − =− + ε
n n n n
³ x n
´
avec lim ε(t ) = 0. On a donc : 1 − = e −x+xε(x/n) , d’où le résultat.
t →0 n
EXERCICES PARTIE I 7
Comme la fonction h est intégrable en vertu de la question 1, la suite ( f n )n∈N∗ est do-
minée par l’application intégrable h. D’après la question 3, la suite ( f n )n∈N∗ converge
simplement vers h. Nous sommes dans les conditions d’applications du théorème
de la convergence dominée. D’où le résultat.
1
b) Montrer que l’application x ∈ R 7−→ 1+x 2 /2
est intégrable.
c) Conclure que c n < ∞ pour tout n ∈ N . ∗
Solution
Z
1) La valeur de l’intégrale c n = g n (x)dx existe dans [0, ∞[ car g n Ê 0 et est mesu-
Z ∞ R
¶ n−1 Ã ¶ n−1 !
n +1 t 2 1 1 n +1 t 2
µ µ
f n0 (t ) = 1+ − = 1+ −1
2n n 2 2 n n
n−1 n−1
Comme n Ê 1 et t Ê 0, on a (1 + nt ) 2 Ê 1, ce qui implique que n+1 t
n (1 + n )
2 − 1 Ê 0.
0
Donc f n (t ) Ê 0 pour t ∈ [0, ∞[ et f n est croissante sur [0, ∞[. Comme f n (0) = 0, on a
f n (t ) Ê f (0) = 0, ce qui implique le résultat.
2b) On a : Z ∞ 1
Z 1 1
Z ∞ 1
dx = dx + dx
x2 x2 2
0 1+ 2
0 1+ 2
1 1 + x2
8 PROBABILITÉS POUR L’INGÉNIEUR
Z 1 1 1
L’intégrale 2
dx est finie car x 7→ 2 est définie et continue sur [0, 1].
0 1 + x2 1+ x2
∞ 1 ∞
· ¸ Z ∞
1 1
Z
1 2
Pour x Ê 1, 2 Ê x2
. Or dx = − = 1. Donc dx < ∞. On a
1+ x2 1 x2 x 1 1 1+ x
2
2
donc : ∞ 1
Z
2
dx < ∞
0 1 + x2
1
Comme x 7→ 2 est paire, il s’ensuit que :
1+ x2
1
Z
2
dx < ∞
R 1 + x2
2 n+1
2c) g n (x) = (1 + xn )− 2 É 1x 2 et l’application x 7→ 1
2 est intégrable sur [0, ∞[.
1+ 2 1+ x2
Z ∞
Donc g n (x)dx É ∞ et c n est fini aussi.
0
n +1 x2 x2
µ ¶
3a) ln g n (x) = − ln 1 + donc limn ln g n (x) = − car
2 n 2
x2 x2 x2 x2
µ ¶ µ ¶
ln 1 + = + o
n n n n
2
On en déduit que limn g n (x) = e −x /2 pour tout x ∈ R.
1
3b) On sait que g n (x) É 2
, qui est intégrable sur R. D’autre part, limn g n (x) =
1 + x2
2
e −x /2 pour tout x ∈ R. Le théorème de la convergence dominée s’applique. On en
déduit : Z Z Z
2 p
lim c n = lim g n (x)dx = lim g (x)dx = e −x /2 dx = 2π
n n R R n R
La dernière égalité étant une conséquence de la condition de normalisation, on a :
1 x2
Z
p e − 2 dx = 1
R 2π
| sin x| 2
Z (k+1)π
1. Montrer que pour tout k ∈ N : dx ≥ .
kπ x (k + 1)π
2. En déduire que l’application x → sin(x)/x n’est pas intégrable.
Z a
sin x
3. Pourquoi peut-on garantir l’existence de l’intégrale dx pour a > π ?
π x
EXERCICES PARTIE I 9
Solution
| sin x|
Z (k+1)π 2
dx Ê
kπ x (k + 1)π
∞
P 2
Z ∞ | sin x|
et que la série diverge, on a dx = ∞.
k=1 (k + 1)π 0 x
Z a
sin x sin x
3) dx existe dans R car est définie et continue sur l’intervalle [π, a].
π x x
4) L’intégration par partie donne α = β = γ = 1.
cos a cos x
Z a sin x
5) lima→∞ = 0 et 1[π,∞[ (x) est intégrable. Donc lima→∞ dx existe
a x 2Z π x
π sin x
dans R. Nous avons aussi dx < ∞. D’où le résultat.
0 x
∂ x
µ ¶
1. Montrer que = − f (x, y).
∂x x 2 + y 2
Z 1 µZ 1 ¶ Z 1 µZ 1 ¶
2. Calculer f (x, y)dx dy et f (x, y)dy dx.
0 0 0 0
3. En déduire que f n’est pas intégrable dans R2 .
Solution
∂ x x 2 + y 2 − 2x 2 x2 − y 2
µ ¶
1) On a : = =− 2 = − f (x, y).
∂x x + y2 2 2
x +y 2 x + y2
¸1
∂
Z 1 Z 1
x x
µ ¶ ·
1
2) Nous pouvons écrire : f (x, y)dx = − dx = − =− .
0 ∂x x + y
2 2 2 2
x +y 0 1 + y2
0
On en déduit :
Z 1 µZ 1 ¶ Z 1
1
f (x, y)dx dy = − 2
dy
0 0 0 1+ y
Z π/4 1 1
= − dθ
0 1 + tan2 θ cos2 θ
[Avec le changement de variable y = tan(θ)]
Z π/4 π
= − dθ = −
0 4
D’autre part, on a :
¸1
∂
Z 1 1 y y
µ ¶ ·
1
Z
f (x, y)dy = dy = =
0 0 ∂y x 2 + y 2 x2 + y 2 0 x2 + 1
Par un calcul analogue au précédent, on en déduit l’égalité :
π
Z 1 µZ 1 ¶ Z 1
1
f (x, y)dy dx = 2
dx =
0 0 0 x +1 4
3) f n’est pas intégrable sur R2 , car si f l’était alors le théorème de Fubini s’applique-
rait et on pourrait changer l’ordre d’intégration sans changer la valeur du résultat.
Démonstration : soit une suite ( f n )n∈N de densités de probabilité et f est une den-
sité de probabilité telle que lim f n = f (p.p) où λ est la mesure de Lebesgue sur R.
n
EXERCICES PARTIE I 11
1
Z Z Z
1. Montrer que ( f − f n )+ dλ = ( f − f n )− dλ = | f − f n |dλ ;
2
2. Montrer que lim( f − f n )+ = 0 λ-p.p. et que 0 É ( f − f n )+ (x) É f (x) en tout x ∈ R
n Z
et en déduire la valeur de lim ( f − f n )+ dλ ;
n
3. Déduire des questions précédentes que pour tout x ∈ R, lim Fn (x) = F(x).
n→∞
Solution
1) f et f n sont intégrables
Z doncZ f − f n est intégrable.
Z Etant donné que f et f n sont
¡ ¢
des densités, alors f (x)dx = f n (x)dx, donc f (x) − f n (x) dx = 0.
R R R
2) On a :
Z Z Z
¡ ¢ ¡ ¢+ ¡ ¢−
f (x) − f n (x) dx = f − fn (x)dx − f − fn (x)dx
R R R
Z Z Z
( f − f n )+ (x)dx = ( f − f n )− (x)dx et
¡ ¢
Or f (x) − f n (x) dx = 0. Donc :
R R
Z Z Z Z
¢+
( f − f n )+ (x)dx + ( f − f n )− (x)dx = 2
¡
| f (x) − f n (x)|dx = f (x) − f n (x) dx
R R R R
Pour x ∈ R tel que f (x) < f n (x), on a ( f − f n )+ (x) = 0. Comme f est une den-
sité, on a f (x) Ê 0 et donc f (x) Ê ( f − f n )+ (x). Si x ∈ R est tel que f n (x) É f (x), on a
( f − f n )+ (x) = f (x)− f n (x) É f (x) car f n (x) Ê 0. Au final, on obtient ( f − f n )+ (x) É f (x)
pour tout x ∈ R.
D’où le résultat.
12 PROBABILITÉS POUR L’INGÉNIEUR
Solution
D’où le résultat.
4) Lorsque n tend vers l’infini, f n (x) ne converge pas à cause de la fonction cos(2πnx)
alors que la suite des fonctions de répartition (Fn )n∈N converge vers la fonction de
répartition de la loi uniforme. Ainsi la réciproque du théorème de Scheffé n’est pas
vraie.
Solution
(A ∩ B ∩C c ) ∪ (C ∩ B ∩ A c ) ∪ (A ∩C ∩ B c )
¡ ¢
Solution
plusieurs fois certains événements. Par exemple : avoir au moins un as n’exclut pas
le fait d’avoir un roi, etc. Ainsi, il est plus simple de considérer l’événement complé-
mentaire : avoir une main ne comptant ni roi ni as. Le nombre de mains de la sorte
est le nombre de choix de 13 cartes parmi 52 − 4 − 4 = 44. Ce nombre de mains vaut
donc C13 13
44 . La probabilité cherchée vaut P = 1 − C44 /C52
13
Solution
= 1r 1 × (p − 1)N −r 1 .
F 2 = f ∈ B L : f (L 1 ) = B & f (L \ L 1 ) = B \ {b 1 } .
© ª
EXERCICES PARTIE I 15
Cet ensemble est isomorphe à B L 1 × (B \ {b 1 })(L\L 1 ) , qui est le produit cartésien entre
l’ensemble des applications de L 1 dans B \ {b 1 } et l’ensemble des applications de
L \ L 1 dans B \ {b 1 }. Le cardinal de F 2 est alors (p − 1)N −r 1 p r 1 : il y a p r 1 applications
de L 1 dans B et (p − 1)N −r 1 applications de L \ L 1 dans B \ {b 1 }. La probabilité cher-
chée est donc (p − 1)N −r 1 p r 1 /p N .
4) Il y a CkN sous-ensembles de k lettres dans L avec k = 1, 2, . . . , N . Une application
qui associe k lettres à la boîte b 1 est une application qui associe tous les éléments
d’un sous-ensemble A de k lettres à b 1 et dont la restriction à L \ A est une appli-
cation à valeurs dans B \ {b 1 }. Il y a CkN (p − 1)N −k applications de cette forme. La
probabilité cherchée est donc CkN (p − 1)N −k /p N .
5) Soit A i , l’ensemble des applications f : L → B telles que f (L i ) = B \ {b i } où L i est
l’ensemble des lettres qui devraient être placées dans b i . L’événement cherché est
A c1 ∩ A c2 ∩. . .∩ A cp où A ck est le complémentaire de A k dans Ω = B L . Comme A c1 ∩ A c2 ∩
¢c
. . . ∩ A cp = A 1 ∪ A 2 ∪ . . . A p , la probabilité cherchée est 1 − P A 1 ∪ A 2 ∪ . . . A p . On
¡ ¡ ¢
³ ´N
On a donc P A i 1 ∩ A i 2 ∩ . . . ∩ A i k = (p − k)N /p N = 1 − pk . Comme il y a Ckp k-
¡ ¢
n k N
µ ¶
P A1 ∪ A2 ∪ . . . A p = (−1)k+1 Ckp 1 −
¡ ¢ X
k=1 p
n k N
µ ¶
(−1)k+1 Ckp
X
1− 1−
k=1 p
Chapitre 2
Solution
µ ¶
+∞ +∞ +∞
1 1
1) P(Ω) = P P{k} = = 1. On a P(;) = 1 − P(Ω) = 0.
S P P −k
{k} = 2 = 2 1−1/2
k=1 k=1 k=1
Comme tout événement de B peut s’écrire comme une union dénombrable d’évé-
nements élémentaires du type {k}, on a aussi :
∀A ∈ B, ∃I ⊂ N∗ ,
[
A = {k}
k∈I
P(A) = P{k}
X
k∈I
17
18 PROBABILITÉS POUR L’INGÉNIEUR
£ P X¤ <
£
On
¤ déduit de ces résultats l’expression de la fonction de répartition. ¤Comme
0 = 0, on a F X (x) = 0 pour x ∈] − ∞, 0[. On a aussi F X (0) = P X É 0 = P X = 0 =
£
2−n 1
1−2−n = 2n −1 .
Soit X une variable aléatoire à valeurs dans [−1, 1], dont le graphe de la densité de
probabilité f X forme un triangle isocèle (segment sur l’axe des x = hypothénuse).
3. Calculer P X É 14 , X 2 É 41 .
£ ¤
Solution
Z Z 0 Z 1 Z 1
f X (x)dx = 1 ⇒ f X (x)dx + f X (x)dx = 1 ⇒ 2 f X (x)dx = 1.
R −1 0 0
R1
Or, 2 f X (x)dx est l’aire du triangle sous la courbe de f X . Cette aire est égale à a×1 =
0
1 − x si x ∈ [0, 1]
a. On a donc a = 1 et f X (x) = 1 + x si x ∈ [−1, 0]
0 ailleurs
EXERCICES PARTIE II 19
x ∈] − ∞, −1[, F X (x) = 0
Z x Z x
x ∈ [−1, 0], F X (x) = f X (t )dt = (1 + t )dt
−∞ −1
¸x
(1 + t )2
·
=
2 −1
(1 + x)2
=
2
Z x
x ∈ [0, 1], F X (x) = f X (t )dt
−∞
Z 0 Z x
= f X (t )dt + f X (t )dt
−1 0
¸x
(1 − t )2
·
1
= + −
2 2 0
(1 − x)2
= 1−
2
Z 1
x É 1, F X (x) = f X (t )dt = F X (1)
−∞
= 1
Z Z 0 Z 1
E[X ] = x f X (x)dx = x f X (x)dx + x f X (x)dx
R −1 0
Z 1 Z 1
= − x f X (x)dx + x f X (x)dx
0 0
= 0
20 PROBABILITÉS POUR L’INGÉNIEUR
La variance de X est Var X = E[(X − E[X ])2 )] = E[X 2 ] − E[X ]2 . Par conséquent :
© ª
Z Z 0 Z 1
E[X 2 ] = x 2 f X (x)dx = x 2 f X (x)dx + x 2 f X (x)dx
R −1 0
Z 1
= 2 x 2 f X (x)dx
0
Z 1
= 2 (x 2 − x 3 )dx
0
¡1
− 41 dx
¢
= 2 3
1
=
6
4)
1 1¤ 1 1 1¤
P X É ,X2 É P X É ,− É X É
£ £
=
4 4 4 2 2
£ 1 1¤
= P − ÉX É
2 4
Z 1
4
= f X (x)dx
− 21
µ ¶
9 4 19
= F X (1/4) − F X (−1/2) = 1 − − =
32 32 32
5) Loi de Y = X 2 La variable aléatoire Y est à valeurs dans [0, 1]. Pour tout y Ê 0,
p p p p
P Y É y = P X 2 É y = P(X É y, X Ê − y) = P(X É y) − P(X É − y).
£ ¤ £ ¤
p p
On a donc FY (y) = F X ( y) − F X (− y) pour tout y Ê 0.
p p p
Par dérivation, il vient : f Y (y) = 2p1 y f X ( y)+ 2p1 y f X (− y) = p1y f X ( y). On prend
aintenant en compte l’expression spécifique de f X pour aboutir à :
p
1− y
y ∈]0, 1] : f Y (y) = p
y
ailleurs f Y (y) =0
Solution
F X est bijective sur l’intervalle [0, 1] et strictement croissante par hypothèse. Donc,
si on pose U = F X (X ), U prend ses valeurs dans [0, 1]. Soit u ∈ [0, 1].
P U É u = P F X (X ) É u = P X É F−1 −1
X (u) = F X (F X (u)) = u
£ ¤ £ ¤ £ ¤
Solution
on a FR (r ) = P[R É r ] = 0. Pour r Ê 0, on a :
FR (r ) = P R É r
£ ¤
P
£p ¤
= − log(U ) É r
P − log(U ) É r 2
£ ¤
=
P log(U ) Ê −r 2
£ ¤
=
2¤
P U Ê e −r
£
=
2
= 1 − e −r
On a donc :
2
1 − e −r
½
r Ê0
FR (r ) =
0 sinon
p
Il suffit alors de dériver FR pour vérifier que R ∼ R(σ) avec σ = 2/2.
4) Par la formule de changement de variable, on a :
1
f R,Φ x 2 + y 2 , h(x, y) pour (x, y) 6= (0, 0)
¡ ¢
f X ,Y (x, y) = p
x2 + y 2
avec :
arctan(y/x) si x > 0 et y > 0
arctan(y/x) + 2π si x > 0 et y < 0
h(x, y) =
arctan(y/x) + π
si x < 0
Au final :
1 2 +y 2 ) 1
∀(x, y) ∈ R2 ,
p
f X ,Y (x, y) = p 2 x 2 + y 2 e −(x 2π
x 2 +y 2
2 2)
e −(x +y
=
π
EXERCICES PARTIE II 23
1 −(x 2 +y 2 )
Z
f X (x) = e dy
Rπ
Z
2
1 −x 2
= πe e −y dy
R
1 2
= p e −x
π
2
De même, f Y (y) = p1 e −y . On a donc X ∼ N (0, 12 ) et Y ∼ N (0, 21 ), puisque la densité
π
2
d’une variable aléatoire Z ∼ N (0, 1/2) est ∀z ∈ R, f Z (z) = p1π e −z . On remarque aussi
que f X ,Y (x, y) = f X (x) f Y (y). Les variables aléatoires X , Y sont donc indépendantes.
2 p 2
Justification de R e −x d x = π. Soit Z ∼ N (0, 1/2), ∀z ∈ R, f Z (z) = p1π e −z , et
R
p
Z Z
2
f Z (z)d z = 1 ⇒ e −z d z = π
R R
Solution
2) Calcul de E[X ]. Puisque X est une variable aléatoire positive ou nulle, l’espérance
de X existe toujours dans [0, ∞] et, par définition, nous avons :
+∞ k +∞
X 1
E[X ] = α =α =α
X X
k × P[X = k] =
k>0 k=1 k! k=0 k!
24 PROBABILITÉS POUR L’INGÉNIEUR
3) Calcul de E[X (X −1)]. Comme X Ê 1, X (X −1) est encore une variable aléatoire po-
sitive ou nulle dont l’espérance mathématique existe toujours. En utilisant le théo-
rème de transfert, nous avons :
+∞ k(k − 1) +∞
X k(k − 1)
E[X (X − 1)] = α α = αe
X X
k(k − 1)P[X = k] = =
k>0 k=2 k! k=2 k!
E[X 2 ] − E[X ]2
© ª
Var X =
= (E[X (X − 1)] + E[X ]) − E[X ]2
= 2αe − α2 e 2
e 2(e − 1) − e
=
e −1 e −1
e
= (e − 2)
(e − 1)2
q © ª q e
d’où l’écart-type de X égal à σ X = Var X = (e−1) 2 (e − 2).
Solution
avec cardΩ = CkN pour tout k-uplet (ω1 , ω2 , . . . , ωk ) ∈ Ω. On considère alors la variable
aléatoire X : Ω → R définie pour tout (ω1 , ω2 , . . . , ωk ) ∈ Ω par :
X (ω1 , ω2 , . . . , ωk ) = min ωj
j ∈{1,2,...,k}
EXERCICES PARTIE II 25
Cette variable aléatoire prend ses valeurs dans {1, 2, . . . , N −k +1} et nous avons, pour
tout j ∈ {1, 2, ..., N − k + 1} :
k−1
¤ CN − j
P X=j = k
£
CN
m
Cnn+i = Cn+1
X
n+m+1
i =0
N −k+1 ³ ´ ³ ´ ³ ´ ³ ´
Ck−1 k k k k k k k−1 k
X
S= N − j = CN − CN −1 + CN −1 − CN −2 + ... + Ck+1 − Ck + Ck−1 = CN
j =1
N −k+1 P Ck−1
¤ N −k+1 N−j 1
P X=j = (CkN ) = 1.
P £
Il s’ensuit que k =
j =1 j =1 CN CkN
N −k+1
2) Montrons maintenant que E[X ] = P X Ê i . Tout d’abord, puisque X est à
P £ ¤
i =1
valeurs dans un ensemble fini, l’espérance de X existe. Par définition de cette espé-
N −k+1
rance, on a E[X ] = j P X = j . On peut alors écrire cette espérance mathéma-
P £ ¤
j =1
tique sous la forme :
E[X ] = P X = 1 + P£ X = 2¤ + P£ X = 3¤ + . . . + P£ X
£ ¤ £ ¤ £ ¤ £ ¤
= N − k + 1¤
+P X = 2 + P£ X = 3¤ + . . . + P£ X = N − k + 1¤
+P X = 3 + . . . + P£ X = N − k + 1¤
+P X = N −k +1
¤ N −k+1
E[X ] = P X Ê 1 + P X Ê 2 + . . . + P X Ê N − k + 1 = P XÊj .
£ ¤ £ ¤ £ X £ ¤
j =1
26 PROBABILITÉS POUR L’INGÉNIEUR
X Ck−1
¤ N −k+1 CkN − j +1
N −i
P XÊj =
£
= .
i=j CkN CkN
Au final :
1 N −k+1 1 N −k+1
E[X ] CkN − j +1 = Ck+1 k+1
X X
= N − j +2 − CN − j +1
CkN j =1 CkN j =1
1
= k
Ck+1
N +1
CN
(N + 1)! (N − k)!k!
=
(k + 1)(N − k)! N!
N +1
=
k +1
Soient X une variable aléatoire absolument continue à valeurs dans R et Y une va-
riable aléatoire donnée par la relation Y = e X .
1. Donner l’ensemble de valeurs décrit par Y .
2. Exprimer les relations entre FY et F X , et entre f Y et f X .
3. On suppose dans la suite que X est une variable aléatoire gaussienne de moyen-
ne µ et de variance σ2 . Calculer la moyenne et la variance de Y .
Solution
1) La variable aléatoire X est absolument continue à valeurs dans R. Elle admet une
densité de probabilité f X (x). Comme la fonction exponentielle est strictement crois-
sante, Y est une variable aléatoire absolument continue à valeur dans ]0 + ∞[.
2) Pour y ∈]0, ∞[, P[Y É y] = P[e X É y] = P[X É ln(y)]. On a donc FY (y) = F X (ln(y)).
On a donc aussi F X (x) = F y (e x ) pour tout x ∈ R. De ces égalités, on en déduit f Y (y) =
1
y f X (ln y) pour tout réel y > 0.
3) On calcule la moyenne
Z de Y en utilisant le théorème de transfert, qui nous donne :
E[Y ] = E[e X ] = e x f X (x)dx. En utilisant de nouveau le théorème de transfert, le
R
moment d’ordre 2 de Y est donné par
Z
E[Y 2 ] = E[e 2X ] = e 2x f X (x)dx.
R
EXERCICES PARTIE II 27
1 (x−µ)2
Z Z
−
I (a) = e ax f X (x)d x = p e ax e 2σ2 dx
R 2πσ2 R
2 −2µx+µ2 −2aσ2 x)
1 (x
Z
−
= p e 2σ2 dx
2πσ 2 R
2
1
Z
−
(x−(µ+aσ2 )) − µ2 −(µ+aσ2 )2
= p e 2σ2 e 2σ2 dx
2πσ2 R
a 2 σ4 +2aµσ2 1 2
Z
− t
= e 2σ2 p e 2σ2 dt
2πσ2 R
a 2 σ2
+aµ
= e 2
σ2 2
On en déduit donc que E[Y ] = I (1) = e µ+ 2 et que E[Y 2 ] = I (2) = e 2(µ+σ ) . La variance
de Y est alors donnée par :
2 2 2 2
σ2Y = I (2) − I (1)2 = e 2µ+2σ − e 2µ+σ = e 2µ+σ (e σ − 1).
Chapitre 3
Aléatoire multivarié
Solution
1) On a f X (x) = 1[0,1] (x) et f Y (y) = λe −λy 1[0,+∞[ (y). Aussi, les domaines de variations
µ U et¶V sont, respectivement, [0, ∞[ et ] − ∞, 1]. On a (Uµ,V ) = (X , Y ¶)A avec A =
de
1 1 1/2 1/2
. We then have det(A) = −2 et son inverse est A −1 = . On déduit
1 −1 1/2 −1/2
alors de la formule de changement de variables dans le cas linéaire que :
1 ³u +v u −v ´
= f X ,Y ,
2 2 2
1
= f X (x(u, v) f Y (y(u, v))) [car X et Y sont indépendantes]
2
1 −λ u−v ³u +v u −v ´
= λe 2 1
[0,1]×[0,∞[ ,
2 2 2
29
30 PROBABILITÉS POUR L’INGÉNIEUR
On a alors :
a) Si 0 É u É 1, on a : −u É u É 1 É 2 − u, de sorte que :
Il vient donc :
λu
Z u 1 λv
fU (u) = e− 2 λe 2 dv
−u 2
Z λu
− λu 2
= e 2 e t dt [Avec le changement de variable t = λv/2]
− λu
2
λu λu λu
= e− 2 (e 2 − e− 2 )
= 1 − e −λu
On obtient alors
λu
Z 2−u 1 λv
fU (u) = e− 2 λe 2 dv
−u 2
Z λ(2−u)
λu 2
= e− 2 e t dt [Avec le changement de variable t = λv/2]
− λu
2
λu 2λ λu λu
= e− 2 (e 2 e− 2 − e− 2 )
= e −λu (e λ − 1)
Z
La densité de probabilité de V est donnée par f V (u) = fU ,V (u, v)du. On pro-
R
cède comme précédemment et le lecteur vérifiera que :
³ ´
f V (v) = e λv (1 − e λ )1]−∞,0[ (0) + 1 − e −λ e λv 1[0,1]
EXERCICES PARTIE III 31
3) On a :
Z 1
E[X ] = x f X (x)dx = 1/2
0
Z +∞
E[Y ] = λye −λy dy = 1/λ
0
Z 1
E[X 2 ] = x 2 f X (x)dx = 1/3
0
Z +∞
E[Y 2 ] = y 2 f Y (y)dy = 2/λ2
0
= AK X ,Y A T
µ ¶µ ¶µ ¶
1 1 1/12 0 1 1
= 2
1 −1 0 1/λ 1 −1
µ 2 2 ¶
1/12 + 1/λ 1/12 − 1/λ
=
1/12 − 1λ2 1/12 + 1/λ2
Soit A une matrice carrée d’ordre n, orthogonale et dont les termes de la première
→
− →
− →
−
ligne sont tous égaux à p1n . Soit le vecteur aléatoire Y = A X où X = (X 1 , X 2 , · · · , X n )T .
32 PROBABILITÉS POUR L’INGÉNIEUR
→
−
1. Déterminer la loi de Y .
→
−
2. Exprimer M n et Vn en fonction des composantes de Y .
3. Les variables M n et Vn sont-elles indépendantes ?
4. Donner la loi de M n On se propose maintenant de déterminer la loi de la va-
riable Vn .
5. Montrer que si X est une variable aléatoire qui suit une loi normale centrée
de variance unité, alors X 2 suit une loi gamma γ( 12 , 12 ). On rappelle que Y ∼
γ(θ, λ) si Y est absolument continue et a pour densité :
λθ
y θ−1 e −λy 1]0,+∞[ (y)
f Y (y) =
Γ(θ)
Z +∞ Z +∞ Z +∞
1 2 p
avec Γ(θ) = x θ−1 e −x dx et Γ(1/2) = p e −x d x = 2 e −u du = π.
0 0 π 0
On rappelle aussi que la fonction caractéristique d’une variable aléatoire Y ∼
³ ´θ
λ
γ(θ, λ) est ΦY (t ) = λ−i t .
6. Soient deux variables aléatoires indépendantes Z1 et Z2 de loi respectivement
égales à γ(θ1 , λ) et γ(θ2 , λ). Déterminer la loi de Z = Z1 + Z2 .
7. Déduire des questions précédentes la loi de Vn .
Solution
→
− →
− n p
p1
P
Il faut remarquer que Y = A X ⇒ Y1 = n
Xi = nM n . Il faut aussi noter que
i =1
kY k2 = Y T Y = X T A T AX = X T X = kX k2 car A A = Id puisque A est orthogonale. Ces
T
On a aussi :
" #
1X n 1 X n n
2 2 2
X
Vn = (X i − M n ) = X − 2M n X i + nM n
n i =1 n i =1 i i =1
1 T
= (X X − 2nM n2 + nM n2 )
n
1¡ T
Y Y − Y12
¢
= En vertu des remarques préliminaires
n
1X n
= Y2
n i =2 i
3) Les Yi sont indépendantes, M n ne fait intervenir que Y1 et Vn ne fait intervenir
que les Yi à partir du deuxième indice (i = 2). Il s’ensuit que les variables aléatoires
M n et Vn sont indépendantes.
4) Puisque M n = (1/n, 1/n, . . . , 1/n)T X , M n est une variable alatoire Gaussienne en
| {z }
m terms
tant que transformée linéaire du vecteur gaussien X . La moyenne de M n est nulle et
la variance de M n est égale à la somme des variances des X i puisque ces variables
aléatoires sont indépendantes donc décorrélées. On a donc M n ∼ N (0, 1/n).
5) Puisque X est à valeur dans R, X 2 est£ à valeur dans [0, ∞[. On calcule la fonction
p p ¤ p p
de répartition de X 2 . On a F X 2 (x) = P − x É X É x = F X ( x) − F X (− x), pur
tout x ∈ [0, +∞[. Donc, pour x 6= 0, la fonction de répartition de X 2 est dérivable de
dérivée :
1 p 1 p 1 x
f X 2 (x) = p f X ( x) + p f X (− x) = p e− 2
2 x 2 x 2πx
puisque X ∼ N (0, 1). La variable aléatoire X 2 admet donc pour densité :
1 x
f X 2 (x) = p e − 2 1]0,+∞[ (x)
2πx
Ceci est bien la densité d’une loi γ(1/2, 1/2).
6) Soient 2 variables aléatoires Z1 , Z2 indépendantes et distribuées respectivement
selon γ(θ1 , λ) et γ(θ2 , λ). La fonction caractéristique de Z = Z1 + Z2 est :
φ Z (t ) = E e i t Z = E e i t Z1 e i t Z2
£ ¤ £ ¤
E e i t Z1 E e i t Z2
£ ¤ £ ¤
=
= φ Z1 (t )φ Z2 (t )
¶θ1 µ ¶θ2
λ λ
µ
=
λ−it λ−it
¶θ1 +θ2
λ
µ
=
λ−it
34 PROBABILITÉS POUR L’INGÉNIEUR
Deux personnes conviennent d’un rendez-vous entre 14h et 15h en admettant qu’au-
cune des deux n’attendra plus de 15 minutes. Quelle est la probabilité pour qu’elles
se rencontrent ? On modélise l’instant d’arrivée de chacune de ces personnes par
une variable aléatoire uniformément répartie sur l’intervalle [0, 1], en ayant pris 14h
comme origine du temps. On suppose que ces deux variables aléatoires sont indé-
pendantes.
Solution
y
1
z x y
1 z
z 1 x
Solution
Le nombre de clients dans la file est supposé suivre une loi de Poisson de paramètre
λ. Notons £N la variable aléatoire qui donne le nombre de clients dans la file. On
n
a donc : P N = n = λn! e −λ . Soit Y , la variable aléatoire qui compte le nombre de
¤
∞
P Y = k|X = n P X = n
X £ ¤ £ ¤
=
n=k
∞ λn −λ
Ckn p k (1 − p)n−k
X
= e
n=k n!
à !
∞ (1 − p)n−k λn−k (λp)k
e −λ
X
=
n=k (n − k)! k!
µ ∞ (1 − p)n λn ¶
X (λp)k −λ
=
(n)! k! e
n=0
[En faisant le changement d’indice n − k ↔ k]
(λp)k −λ
= e (1−p)λ e
k!
(λp)k −λp
= e
k!
La variable aléatoire Y suit donc une loi de Poisson de paramètre λp.
36 PROBABILITÉS POUR L’INGÉNIEUR
résultats obtenus. Montrer que P A ∩ B Ê P(A)P(B ) mais que cette inégalité est gé-
¤
néralement fausse.
Solution
On a P B |A = P B ∩ A /P(A) = P(A)/P(A) = 1, car A ∩ B = A.
£ ¤ £ ¤
donc, que P A|B Ê P(A)P(B ). En général, P A|B Ê P(A)P(B ) est faux ! Par£exemple,
£
Solution
On procède de manière classique en calculant P Y É y . On a :
£ ¤
P Y Éy = P Y É y ∩ S = A + P Y É y ∩ S = −A
£ ¤ ¡£ ¤ £ ¤¢ ¡£ ¤ £ ¤¢
P S + X É y ∩ S = A + P S + X É y ∩ S = −A
¡£ ¤ £ ¤¢ ¡£ ¤ £ ¤¢
=
P A + X É y ∩ S = A + P − A + X É y ∩ S = −A]
¡£ ¤ £ ¤¢ ¡£ ¤ £ ¢
=
P A + X É y p + P − A + X É y (1 − p)
£ ¤ £ ¤
=
P X É y − A p + P X É y + A (1 − p)
£ ¤ £ ¤
=
EXERCICES PARTIE III 37
Il est essentiel de se rendre compte que c’est parce que nous avons indépendance
entre S et X que le calcul avec conditionnement fonctionne ! Sans cette indépen-
dance, on ne pourrait pas forcément écrire la deuxième égalité dans l’équation pré-
cédente. C’est pour cela que le calcul sans conditionnement est préférable car il ex-
hibe, sans équivoque, le rôle crucial de l’hypothèse d’indépendance.
si y > λ
½
A
Tλ (y) =
−A si y É λ
Sans calcul mais en justifiant votre réponse par un argument heuristique, quelle
valeur suggéreriez-vous pour λ afin de minimiser la probabilité d’erreur ? Cal-
culer ensuite la valeur de λ qui minimise effectivement la probabilité d’erreur.
En déduire la valeur minimale de la probabilité d’erreur.
3. Si l’on avait défini le test Tλ par :
y > λ,
½
A si
Tλ (y) =
−A si y Éλ
Solution
1) « Première méthode. » Par définition de la probabilité d’erreur, on a :
Pe (T ) = P T (Y ) 6= S = P T (Y ) = A ∩ S = −A + P T (Y ) = −A ∩ S = A
£ ¤ ¡£ ¤ £ ¤¢ ¡£ ¤ £ ¤¢
38 PROBABILITÉS POUR L’INGÉNIEUR
P T (−A + X ) = A, S = −A + P T (A + X ) = −A, S = A
£ ¤ £ ¤
=
(1 − p)P T (−A + X ) = A + pP T (A + X ) = −A
£ ¤ £ ¤
=
« Deuxième méthode. » On peut écrire que :
Pe (T ) = P T (Y ) = A|S = −A P S = −A + P T (Y ) = −A|S = A P S = A
£ ¤ £ ¤ £ ¤ £ ¤
puisque, pour tout ensemble mesurable B ∈ B tel que P(B ) 6= 0 et tout autre en-
semble mesurable C ∈ B : P(C ) = P(C |B )P(B ) + P(C |B c )P(B c ) où B c désigne le com-
plémentaire de B dans Ω. On a donc :
Pe (T ) = (1 − p)P T (−A + X ) = A + pP T (A + X ) = −A
£ ¤ £ ¤
3) Les résultats restent les mêmes si on change l’endroit où l’on accepte l’égalité
dans l’expression du test Tλ , tout simplement parce que la loi de X admet une den-
sité, de sorte que les calculs intégraux ne sont pas modifiés en changeant le domaine
d’intégration sur un point.
Dans une population, 7% des personnes sont contaminées par un virus ? On sup-
pose disposer d’un test de dépistage ayant les propriétés suivantes : il est positif
dans 99% de cas de personnes contaminées et positif dans 3% de cas de personnes
non contaminées.
1. Quelle est la probabilité que ce test soit positif quand il est utilisé sur un sujet
quelconque ?
2. Quelle est le probabilité d’être effectivement contaminé lorsque (sachant) que
le test est positif ?
3. calculer la probabilité qu’un individu soit contaminé sachant que le test est
négatif.
Solution
On commence par modéliser l’expérience. L’espace Ω des états est l’ensemble des
individus. Ce sont eux que nous observons. On crée ensuite la variable aléatoire
S : Ω → {0, 1} qui, à tout individu ω ∈ Ω, associe son état avec S(ω) = 0 si l’individu
n’est pas contaminé et S(ω) = 1 s’il est contaminé. Autrement dit, S nous renvoie la
valeur de vérité de la proposition ”ω est contaminé” avec 1 si la proposition est vraie
et 0, sinon. D’après l’énoncé, on a P[S = 1] = 0.07 et P[S = 0] = 1 − P[S = 1] = 0.93.
P T =1 P T = 1 ∩ S = 1 +P T = 1 ∩ S = 0
£ ¤ ¡£ ¤ £ ¤¢ ¡£ ¤ £ ¤¢
=
P T = 1|S = 1 P S = 1 + P T = 1|S = 0 P S = 0
£ ¤ £ ¤ £ ¤ £ ¤
=
[Axiome de Bayes]
= 0.0972
40 PROBABILITÉS POUR L’INGÉNIEUR
écrire que :
¤ P S =1 ∩ T =1 P T = 1|S = 1 P S = 1
¡£ ¤ £ ¤¢ £ ¤ £ ¤
P S = 1|T = 1 =
£
=
P T =1 P T =1
£ ¤ £ ¤
avons :
¤ P S =1 ∩ T =0 P T = 0|S = 1 P S = 1
¡£ ¤ £ ¤¢ £ ¤ £ ¤
P S = 1|T = 0 =
£
=
P T =0 P T =0
£ ¤ £ ¤
obtenons : ³ ¤´ £
1 − P T = 1|S = 1 P S = 1
£ ¤
P S = 1|T = 0 =
£ ¤
1−P T = 1
£ ¤
¤ (1 − 0.99) × 0.07
On a donc : P S = 1|T = 0 =
£
≈ 0.0008.
1 − 0.0972
¤ 1
P Z = 1 = P Z = −1 = .
£ ¤ £
2
Solution
ΦY (t ) E e i t Y = E e i t Z X |Z = 1 P Z = 1 + E e i t Z X |Z = −1 P Z = −1
£ ¤ £ ¤ £ ¤ £ ¤ £ ¤
=
(1/2)E e i t X + (1/2)E e −i t X
£ ¤ £ ¤
=
µ ¶
X
2) Soit U = . On a E[X ] = 0. On a aussi :
Y
E[Y ] = E[Z X ]
1
= 2 (E[X ] − E[X ]) = 0
E[X ]
µ ¶
E[U ] = =0
E[Y ]
E|X 2 ] E[X Y ]
·µ ¶ ¸ µ ¶
X
E[UU T ] = E (X Y T ) =
Y E[X Y ] E[Y 2 ]
On a :
E[X 2 ] = 1
E[Y 2 ] = E[Z 2 X 2 ] = E[Z 2 ]E[X 2 ] = E[X 2 ] [En raison de l’indépendance de X et Z ]
E[X Y ] = E[Z X 2 ] = E[Z ]E[X 2 ] = 0 [X et Z sont indépendantes et E[Z ] = 0]
Par conséquent, µ ¶
T 1 0
E[UU ] =
0 1
µ ¶
x
3) Soit u = . La fonction caractéristique de U = (X , Y )T est :
y
ΦU (u) E e i (x X +yY )
£ ¤
=
E e i (x+y Z )X
£ ¤
=
E e i (x+y Z )X |Z = 1 P Z = 1 + E e i (x+y Z )X |Z = −1 P Z = −1
£ ¤ £ ¤ £ ¤ £ ¤
=
1
£ i (x+y)X ¤ 1 £ i (x−y)X ¤
= 2E e + 2E e
1
= 2 (Φ X (x + y) + Φ X (x − y))
i u m (1/2)u Ku T T
Si U était gaussien, ΦU (u)devrait être de la forme
µ e ¶e avec m = E[u] et
1 0
K = E[(U − m)(U − m)T ]. Comme m = 0 et K = , ΦU (u) devrait être égale
0 1
2 2
à e −(x +y )/2 pour que U soit une variable aléatoire gaussienne. Le terme cosh(x y)
est donc en trop dans l’expression exacte de ΦU et nous concluons que U n’est pas
gaussienne.
4) Deux conclusions :
– 2 variables aléatoires gaussiennes décorrélées ne sont pas forcément indépen-
dantes puisqu’ici, X et Y sont décorrélées mais pas indépendantes ;
– 2 variables aléatoires gaussiennes décorrélées ne forment pas forcément un
vecteur aléatoire gaussien.
Solution
a) Comme X ∼ N (µ, σ2 ), X − µ ∼ N (0, σ2 ). On a donc :
(x−µ)2 α
r Z
1
Z Z
− 2
f X (x)d x = p 2
e 2σ dx = e −αx dx = 1
R R 2πσ2 π R
1
avec α = 2σ2
. D’où l’égalité (3.1).
a) En dérivant k fois le membre de droite dans l’égalité (3.1) par rapport à α, on
obtient :
µr ¶(k)
π π
r
k 1.3.5....(2k − 1)
= (−1)
α 2 k α2k+1
Étant donné que α > 0, il existe α0 tel que 0 < α0 < α. Soit l’application g définie
2
pour tout x ∈ R et tout α ∈]α0 , ∞[ par g (x, α) = e −αx . Cette application vérifie les
hypothèses de la proposition ??. On peut donc dériver sous le signe somme et on
obtient : µZ ¶ Z (k)
2 2
e −αx dx = (−1)k x 2k e −αx dx
R R
Nous avons donc :
π
r
1.3.5....(2k − 1)
Z
k 2k −αx 2 k
(−1) x e d x = (−1)
R 2k α2k+1
EXERCICES PARTIE III 43
π
r
1.3.5....(2k − 1)
Z
2
x 2k e −αx dx =
R 2k α2k+1
Comme les moments impairs de X sont nuls car la densité de X est paire, nous ob-
tenons donc :
∀p ∈ N, E X 2p+1
£ ¤
= 0
π
r
1.3.5....(2k − 1)
E X 2p
£ ¤
=
2k α2k+1
Nous constatons que les moments centrés d’une variable aléatoire gaussienne ne
dépendent que de sa variance.
© ª © ª
1. Calculer la variance Var X 1 de X 1 et la covariance Cov X 1 , X 2 de (X 1 , X 2 ) ?
2. Dans quel cas, les deux variables X 1 et X 2 sont-elles indépendantes ?
© ª
3. Calculer la covariance Cov Y1 , Y2 du couple (Y1 , Y2 ). Calculer les variances
des variables aléatoires Y1 et Y2 .
4. Les deux variables Y1 et Y2 sont-elles indépendantes ? Justifier clairement votre
réponse.
Solution
© ª
covariance. On a alors Var X 1 = 3 et Cov{X 1 , X 2 } =
1)£ Il suffit de lire la matrice¤ de p
E ((X 1 − E(X 1 ))(X 2 − E(X 2 )) = ρ 3.
E[Y1 Y2 ]
© ª
Cov Y1 , Y2 =
X1 X1
·µ ¶µ ¶¸
= E p − X2 p + X2
3 3
1 1 1
= E[X 12 ] + p E[X 1 X 2 ] − p E[X 1 X 2 ] − E[X 22 ]
3 3 3
1
= E[X 12 ] − E[X 22 ] = 1 − 1 = 0
3
[Car E[X 12 ] = Var X 1 puisque E[X 1 ] = 0 ; idem pour X 2 ].
© ª
¶2 ¸
X1
·µ
E Y12 = E
© ª £ ¤
Var Y1 = p − X2
3
X 12
" #
2
= E + X 22 − p X1 X2
3 3
2 p
= 1 + 1 − p ρ 3 = 2(1 − ρ)
3
et
¶2 ¸
X1
·µ
E[Y22 ] = E
© ª
Var Y2 = p + X2
3
X 12
" #
2
= E + X 22 + p X1 X2
3 3
2 p
= 1 + 1 + p ρ 3 = 2(1 + ρ)
3
µ p ¶
1/ 3 −1
A= p
1/ 3 1
KY = E[Y Y T ] = AE[X X T ]A T
µ p p ¶µ p p ¶
ρ 3 1/ 3
¶µ
1/ 3 −1 3 1/ 3
= p p
1/ 3 1 ρ 3 1 −1 1
µ p p
3(1 − ρ) 3(1 + ρ)
¶ µp ¶
1/ 3 −1
= p
1/ 3 1 ρ −1 ρ +1
2(1 − ρ)
µ ¶
0
=
0 2(1 + ρ)
σ21 ρσ1 σ2
µ ¶
Λ= (3.2)
ρσ1 σ2 σ22
Solution
1) La matrice de covariance de X est :
µ © ª © ª¶
© X1 ª
Var Cov X© 1 , Xª2
Cov X 1 , X 2 Var X 2
ª p
On trouve alors l’expression de l’énoncé en posant ρ = Cov X 1 , X 2 / σ1 σ2 , qui est
©
σ2
Z
E [X 2 |X 1 = x 1 ] = x 2 f X 2 |X 1 =x1 (x 2 )dx 2 = ρ x 1
R σ1
P X Ê x + u | X Ê u = P X Ê x , ∀x Ê 0, ∀u Ê 0
£ ¤ £ ¤
Solution
On a donc : Z x
∀x Ê 0, Fλ (x) = λe −λu d u = [−e −λu ]0x = 1 − e −λx
0
D’où :
e −λx si x Ê 0
½
Fcλ (x) =
1 si x É 0 .
3) On calcule l’espérance de X . On a :
Z
E[X ] = x f λ (x)dx
R
Z ∞
= λxe −λx dx
0
h i∞ Z ∞
−λx
= −xe + e −λx dx [Intégration par parties]
| {z 0} 0
=0
" #∞
e −λx 1
= =
−λ λ
0
48 PROBABILITÉS POUR L’INGÉNIEUR
h i∞ Z ∞
= −x 2 e −λx + 2xe −λx dx
0 0
| {z }
=0
2 2
= E[X ] = 2
λ λ
1
On en déduit la variance de X : Var X = E[X 2 ] − E[X ]2 =
© ª
λ2
, ce qui implique que :
© ª
Var X
=1
E[X ]2
Z X ∞ (sx)k
= f λ (x)dx
R k=0 k!
∞
Z
sk
x k f λ (x)dx
P
= k!
k=0 R
∞
sk k
k! E[X ]
P
=
k=0
Or,
λ 1 ∞ sk
X
M (s) = = =
λ − s 1 − λs k=0 λk
Donc :
∞ sk ∞ sk
E[X k ]
X X
=
k=0 λk k=0 k!
k!
pour tout s < λ. Il s’ensuit que E[X k ] = λk
. On retrouve E[X ] = 1/λ et E[X 2 ] = 2/λ2 .
5) Soient x Ê 0, u Ê 0, on a :
P X Ê u P X Ê x + u|X Ê u P X Ê x +u ∩ X Ê u
£ ¤ £ ¤ ¡£ ¤ £ ¤¢
=
P X Ê x + u P X Ê u|X Ê x + u .
£ ¤ £ ¤
=
EXERCICES PARTIE III 49
¤ P X Ê x +u £
£ ¤
D’où : P X Ê x + u|X Ê u = ¤ P X Ê u|X Ê x + u . Comme x est positif,
£ ¤
P
£
£ X Êu
X Ê x + u] ⊂ X Ê u et donc P X Ê u|X Ê x + u = 1. On a donc :
£ £ ¤ ¤
P X Ê x +u Fc (x + u) e −λ(x+u)
£ ¤
¤ = λc =
P X Êu Fλ (u)
£
e −λu
ce qui signifie exactement que Fcλ (x +u) = Fcλ (x)Fcλ (u). Réciproquement, on suppose
que X est une variable aléatoire absolument continue dont la fonction de réparti-
tion F vérifie : Fc (x + u) = Fc (x)Fc (u) où x et u sont positifs ou nuls. On en déduit
que ln(Fc (x + u)) = ln(Fc (x)) + ln(Fc (u)). Comme Fc est continue et décroissante, la
relation précédente implique l’existence d’un λ > 0 tel que : log(Fc (x)) = −λx. Par
conséquent, Fc (x) = e −λx , de sorte que X suit bien une loi exponentielle.
= λ2 e −λx x
= f 2,λ (s)
λn
Z
= t n−2 e −λx 1[0,x] (t )dt
(n − 2)! R
· n−1 ¸x
λn −λx t
= e
(n − 2)! n −1 0
λn x n−1 e −λx
=
(n − 1)!
= f n,λ (x).
7) Pour tout x < 0, la fonction de répartition Fn,λ (x) de la loi Erlang(n, λ) vaut 0. Pour
tout x Ê 0, on a :
Z x
Fn,λ (x) = f n,λ (t )dt
0
x λn t n−1 e −λt
Z
= dt
0 (n − 1)!
¸x
λn 1 x
µ· ¶
1
Z
= − t n−1 e −λt + (n − 1)t n−2 e −λt dt
(n − 1)! λ 0 λ 0
[Intégration par parties]
λn
¶ Z x n−1 n−2 −λt
λ t e
µ
1
= − x n−1 e −λx + dt
(n − 1)! λ 0 (n − 2)!
n−1 (λx)k
Fn,λ (x) = 1 −
X
exp(−λx) pour x Ê 0
k=0 k!
Solution
∞ −λ λk
ke
P
= k!
k=1
∞
P e −λ λk
= (k−1)!
k=1
∞
λk−1
λe −λ
P
= (k−1)!
k=1
∞
λk
λe −λ
P
= k!
k=0
= λe −λ e λ
= λ
sées iid de loi Exp(λ), l’exercice précédent nous dit que S n suit une loi Erlang(n, λ).
52 PROBABILITÉS POUR L’INGÉNIEUR
P S n É 1 − P S n+1 É 1
£ ¤ £ ¤
=
donner alors l’expression de Y a,b obtenue pour ces valeurs. Donner une interpréta-
tion géométrique du résultta obtenu.
Solution
Méthode 1 : On procède par dérivation. On a :
¢2 ¤
²a,b = E Y − Y a,b
£¡
E (Y − a X − b)2
£ ¤
=
© ª
Cov X ,Y
b
b = E[Y ] − E[X ] © ª
Var X
Il faut alors vérifier que ces deux valeurs correspondent bien à un minimum de ²a,b .
p
Pour cela, on peut montrer que ²a,b est une fonction convexe du couple (a, b). Pour
q £¡
p ¢2 ¤
tout u = (a, b), on posera g (u) = ²a,b . On remarque alors que g (u) = E Y − u T Z
avec Z = (X , 1)T . Étant donné u ∈ R2 , v ∈ R2 et λ ∈ [0, 1], il faut montrer que g (λu +
(1 − λ)v) É λg (u) + (1 − λ)g (v). On a :
r h
¢2 i
g (λu + (1 − λ)v) E Y − (λu + (1 − λ)v)T Z
¡
=
r h
¢2 i
E λ(Y − u T Z ) + (1 − λ)(Y − v T Z )
¡
=
r h r h
¢2 i ¢2 i
E λ(Y − u T Z ) + E (1 − λ)(Y − v T Z )
¡ ¡
É
r h r h
¢2 i ¢2 i
λ E Y − uT Z + (1 − λ) E (Y − v T Z )
¡ ¡
É
É λg (u) + (1 − λ)g (v)
La fonction g est donc bien convexe. L’estimée Y a,b de Y sous la forme Y a,b = a X +b
est alors :
cov X ,Y ³ ´
Yb = © ª X − E[X ] + E[Y ]
Var X
Méthode 2 : Le théorème de projection indique que ²a,b = E[(Y − (a X + b))2 ] est mi-
nimal si l’erreur Y − (a X + b) est orthogonale à tout vecteur de l’espace engendré
par X et 1 : Ω → R tel que 1(ω) = 1 pour tout ω ∈ Ω. Cette condition d’orthogonalité
conduit directement à E[(Y − a X − b)X ] = 0 et E[(Y − a X − b)1] = 0. En développant
ces égalités, on retrouve celles de (3.3), ce qui est donc plus rapide que la méthode
par dérivation. Cependant, il faut noter que l’application du théorème de projec-
tion n’est pas totalement licite dans l’espace L 2 (Ω, B, P). En effet, dans cet espace,
2
p que E[X ] = 0 sans que X (ω) soit nul pour
il existe des variables aléatoires X telles
tous les ω ∈ Ω, ce qui fait que q(X ) = E[X ] n’est pas une norme sur cet espace !. Le
2
Solution
ΦY (u) E e i uY = E e i u(X 1 +X 2 )
£ ¤ £ ¤
=
E e i uY = E e i uX 1 E e i uY = E e i uX 2
£ ¤ £ ¤ £ ¤ £ ¤
=
= Φ X 1 (u) × φ X 2 (u)
Soit une variable aléatoire X qui, conditionnellement à une variable aléatoire Λ po-
sitive ou nulle, suit une loi de Poisson d’intensité Λ. Pour tout n ∈ N et tout λ ∈ [0, ∞[,
on a donc :
λn
P X = n|Λ = λ = e −λ
£ ¤
n!
Déterminer la distribution de la variable aléatoire X , c’est-à-dire, les valeurs P X = n
£ ¤
Solution
Pour tout n ∈ N, on a :
Z
P X =n P X = n|Λ = λ f Λ dλ
£ ¤ £ ¤
=
R
∞ λn 1 − λµ
Z
= e −λ e dλ
0 n! µ
∞ λn 1 −λ(1+1/µ)
Z
= e dλ
0 n! µ
λn 1
En posant u(λ) = n! et v(λ) = − 1+µ e −λ(1+1/µ) , on effectue une intégration par par-
EXERCICES PARTIE III 55
¤∞
Z ∞
u 0 (λ)v(λ)dλ
£
= u(λ)v(λ) 0 −
0
¸∞
λn 1 −λ(1+1/µ) ∞ λn−1 −λ(1+1/µ)
·
1
Z
= e + e dλ
n! µ 0 1+µ 0 (n − 1)!
µ
P X = n −1
£ ¤
=
µ+1
µn
Par une récurrence immédiate, on obtient : P X = n = (µ+1)n P X
£ ¤ £ ¤
= 0 . Comme :
∞ · ¸∞
1 −λ(1+1/µ) 1 1 1
Z
P X =0 = e −λ(1+1/µ)
£ ¤
e dλ = − =
0 µ µ 1 + 1/µ 0 µ + 1
on aboutit finalement à :
µn
P X =n =
£ ¤
(1 + µ)n+1
1X n 1X n
Mn = Xi et Vn = (X i − M n )2
n i =1 n i =1
2. Calculer la moyenne de Vn .
Solution
1) Puisque X 1 , ..., X n sont n variables aléatoires iid d’espérance finie, alors la loi forte
des grands nombres nous dit que n1 ni=1 X i converge presque surement vers E[X 1 ].
P
p.s.
On a donc M n → µ.
n→∞
56 PROBABILITÉS POUR L’INGÉNIEUR
2) On a :
1X n
E[Vn ] = E[(X i − M n )2 ]
n i =1
1X n
= E[X i2 + M n2 − 2X i M n ]
n i =1
1X n 2 n
E[X i2 ] + E[M n2 ] − E[M n
X
= Xi ]
n i =1 n i =1
1X n n
E[X i2 ] + E[M n2 ] − 2E[M n2 ] [Car
X
= X i = nM n ]
n i =1 i =1
1X n
= E[X i2 ] − E[M n2 ]
n i =1
Par indépendance des X i , Var M n = n12 Var ni=1 X i = n12 ni=1 Var X i = n1 σ2 . On
© ª ©P ª P © ª
n −1 2
E(Vn ) = σ
n
3) On écrit que :
1X n 1X n
Vn = (X i − M n )2 = [(X i − µ) − (M n − µ)]2
n i =1 n i =1
à !
1X n 2 n
2 2
(X i − µ) + (M n − µ) − (M n − µ) (X i − µ)
X
=
n i =1 n i =1
à !
1 n 2 n
2 2
(X i − µ) + (M n − µ) − (M n − µ)
X X
= X i − nµ
n i =1 n i =1
1X n 2
(X i − µ)2 + (M n − µ)2 − (M n − µ) nM n − nµ
¡ ¢
=
n i =1 n
1X n
= (X i − µ)2 + (M n − µ)2 − 2(M n − µ)2
n i =1
1X n
= (X i − µ)2 − (M n − µ)2
n i =1
p.s. p.s.
Puisque M n → µ d’après ce qui précède, on a (M n −µ)2 → 0. Posons Yi = (X i −µ)2
n→+∞ n→∞
pour i = 1, 2, . . . , n. Les variables aléatoires X i étant iid, les Yi sont elles-aussi iid.
EXERCICES PARTIE III 57
1X n p.s.
Yi → E(Yi ) = σ2
n i =1 n→+∞
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ : X ∼ P (λ).
1. Calculer E X , E X 2 et la variance de X ?
£ ¤ £ ¤
S n −n
b) Montrer que Zn = p
n
converge en loi vers la loi normale unitaire centrée.
n nk
c) Déduire des questions précédentes que lim e −n
X
= 1/2.
k=0 k!
n
Solution
1) Soit X ∼ P (λ). On a :
∞ ∞ λk −λ X∞ λk ∞ λk
E[X ] = e −λ = λ e −λ = λe λ e −λ = λ
X £ ¤ X X
kP X = k = k e =
k=0 k=0 k! k=1 (k − 1)! k=0 k!
58 PROBABILITÉS POUR L’INGÉNIEUR
∞ λk −λ
k2
P
= e
k=0 k!
∞ λk
e −λ k2
P
=
k=1 k!
∞ λk
e −λ
P
= k
k=1 (k − 1)!
∞ λk ∞ λk
+ e −λ
X
e −λ
P
= (k − 1)
k=1 (k − 1)! k=1 (k − 1)!
∞ λk ∞ λ( k − 1)
+ e −λ λ
X
e −λ
P
=
k=2 (k − 2)! k=1 (k − 1)!
∞ λk ∞ λk
e −λ λ2 + e −λ λ
P X
=
k=0 k! k=0 k!
= e −λ λ2 e λ + e −λ λe λ = λ + λ2
∞ ∞ λk −λ ∞ (λe i t )k it
Φ X (t ) = E[e i t x ] = ei tk P X = k = ei tk e = e −λ = e −λ e λe
X £ ¤ X X
k=0 k=0 k! k=0 k!
it
Donc Φ X (t ) = e λ(e −1) . Considérons maintenant deux variables aléatoires X 1 et X 2
telles que X 1 ∼ P (λ1 ) et X 2 ∼ P (λ2 ). La fonction caractéristique de Y = X 1 + X 2 est
donnée par :
On voit donc que ΦY est la fonction caractéristique d’une variable aléatoire de Pois-
son de paramètre λ1 + λ2 . On a donc Y ∼ P (λ1 + λ2 ).
3) a) Une récurrence immédiate du résultat précédent montre que S n ∼ P (n).
b) Par définition de la fonction de répartition, on a Fn (n) = P S n É n . Donc, Fn (n) =
£ ¤
EXERCICES PARTIE III 59
n
nλk −λ
P S n = k . Puisque S n ∼ P (n), P[S n = k] =
P £ ¤
k! e , d’où le résultat.
k=0
¤ P Z £ n Ê 0 ¤ = P S n Ê n . Comme Zn converge en
£ ¤ £ ¤ £ ¤ £ ¤
d) On a Zn Ê 0 = S n Ê n £ . Donc
loi vers N (0, 1), limn→∞ P Zn Ê 0 = P U Ê 0 avec U ∼ N (0, 1)£car 0 est ¤ un point de
continuité de la fonction de répartition de la loi N (0, 1). Or P U Ê 0 = 1/2, ce qui
permet de conclure.
Solution
1) Pour tout k ∈ {1, 2, . . . , n}, soit la variable aléatoire X k définie par X k = 1 si A est réa-
lisé lors de la k-ième réalisation de l’expérience, et X k = 0 sinon. Ces variables aléa-
toires seront supposées iid puisque nous considérons des répétitions de la même
expérience aléatoire et que ces itérations de cette même expérience aléatoire sont
supposées indépendantes. Ces variables aléatoires seront donc supposées suivre
une même loi de Bernoulli. Le nombre de fois où l’événement A se produit parmi
les n itérations de notre expérience est alors nk=1 X k et la fréquence relative d’oc-
P
1 Pn
currence Z¤n de l’événement A est
¤ donc : Zn = n k=1 X k . Dans le modèle choisi, on
a P X n = 1 = P(A) et P X k = 0 = 1 − P(A), pour tout k = 1, 2, . . . , n. Aussi, la valeur
£ £
du paramètre p de la loi de Bernoulli commune choisie pour tous les variables alé-
taoires X k est p = P(A).
© ª ©1 Xn ª
Var Zn = Var Xk
n k=1
1 n
[Car Var aY = a 2 Var Y pour tout réel a
©X ª © ª © ª
= 2
Var Xk
n k=1
et toute variable aléatoire Y ]
1 Xn © ª
= 2
Var X k [Car la variance d’une somme de variables aléatoires
n k=1
décorrélées est la somme des variances de ces variables
aléatoires]
p(1 − p)
=
n
On applique maintenant l’inégalité de Bienaymé-Tchebychev. Soit ² > 0,
© ª
¤ Var Zn p(1 − p)
P |Zn − E[Zn ]| > ² É
£
É .
² 2 n²2
p(1−p)
D’où le résultat puisque lim n = 0.
n
Solution
1) S n suit la loi binomiale B(n, p) : P S n = k = Ckn p k (1 − p)n−k où p désigne la pro-
£ ¤
sont supposés iid. On approxime alors la loi de Snn à l’aide du théorème de la limite
ª p(1−p)
centrale. Comme E[S n /n] = p et Var S n /n = n , on dérive du théorème de la
©
S n −np
converge en loi vers la loi N (0, 1) avec σ = p(1 − p). On
p
limite centrale que p nσ
sait de plus que la convergence de la suite des fonctions de répartition des variables
S n −np
aléatoires p est uniforme vers la fonction de répartion de la loi N (0, 1). Comme
£ ¯¯ S n ¯ nσ¤ £ ¯¯ S n −np ¯¯ εpn ¤
P ¯ n − p¯ ≤ ε = P ¯ p ¯ ≤ σ et que :
¯
nσ
p p
ε n ε n µ p ¶
+ 1 x2 + 1 x2 ε n
Z Z
σ σ
p
ε n
p e − 2 dx = 2 p e − 2 dx = erf p
− σ 2π 0 2π 2σ
avec x
2
Z
2
erf(x) = p e −t dt
π 0
on peut alors écrire pour tout η > 0, il existe N ∈ N tel que pour tout n Ê N :
µ p ¶¯
ε n ¯¯
¯ ·
¯ ¯ Sn
¸
¯P ¯ − p ≤ ε − erf p ¯Éη
¯
¯
¯ n 2σ
h i
Sn
Pour avoir p ∈ n − ε, Snn + ε avec une probabilité de se tromper au plus égale à α,
il suffit que :
µ p ¶
ε n
erf p ≥ 1−α−η
2σ
ce qui équivaut à :
2σ2 ¡ −1 ¢2
erf (1 − α − η)
nÊ
ε2
La valeur σ n’est pas connue. Mais on a σ = p(1 − p) ≤ 1/2. Le nombre d’échan-
p
1 ¡ −1 ¢2
n min = erf (1 − α − η)
2ε2
3) Certes, on peut choisir η. Mais on ne connaît pas la valeur N à partir de laquelle les
calculs précédents sont valables. Rien ne nous dit alors que n min est effectivement
supérieur à cette valeur N .
62 PROBABILITÉS POUR L’INGÉNIEUR
Solution
Soit un espace probabilisé (Ω, B, P) et suppsons U défini sur l"espace probabili-
£ (Ω,¤ B). Soit Ω0 , l’ensemble des ω ∈ Ω tels que U (ω) = 0. Comme U ∼ U ([0, 1]),
sable
P U = 0 = P(Ω0 ) = 0. Pour tout ω ∈ Ω \ Ω0 , limn X n (ω) = 0 puisque X n (ω) = 0 pour
tout n Ê 1/U (ω). La suite (X n )n∈N∗ converge donc presque sûrement vers 0 puisque
limn X n (ω) = 0 pour tout ω ∈ Ω \ Ω0 et que P(Ω \ Ω0 ) = 1.
n
Comme
£ q ¤ la£variablen ¤aléatoire X n est discrète et prend ses valeurs dans¤ {0,£ e }, on ¤a
nq n
E X n =£P X n = e¤ e £ pour tout
£
¤ entier naturel q Ê 1. Or,
£ q ¤X n = e = U É 1/n .
Donc,£P X¤n = e n = P U É 1/n = 1/n. Il s’ensuit que E X n = e nq /n. On a donc
q
limn E X n = limn e nq /n = ∞. La convergence presque sûre de X n vers 0 n’entraîne
pas la convergence d’ordre q et ce , quel que soit l’entier q Ê 1.
Bibliographie
63