Académique Documents
Professionnel Documents
Culture Documents
INP-HB
ENSEIGNANT
M. ALLA AHUI B.
ECOLE SUPERIEURE D’INDUSTRIE
EXERCICE I : Absence de mémoire et minimum de 2 lois exponentielles id.
On rappelle qu’une variable aléatoire de loi exponentielle E(λ) de paramètre λ
>0 est à valeurs dans [0; +1[ et admet pour densité
− λx
f λ ( x )= λ e−λx 1x ≥0 = λ e si x ≥ 0
{ 0 si x<0
1. Soit X une variable aléatoire de loi ε (λ) avec λ> ¿0. Calculons Ρ( X > t)
pour t≥ 0
Ρ ( Χ >t )=1−Ρ ( Χ ≤ t )
¿ 1−F Χ (t )
t
¿ 1− ∫ f Χ ( u ) du
−∞
t
¿ 1−∫ λ e−λu du
0
−λt
¿ 1−[−e +1]
Ρ [( Χ > t+ s ) ∩ ( Χ > s )]
Ρ ( Χ >t+ s|Χ > s ) =
Ρ(Χ > s)
Ρ ( Χ >t +s)
¿
Ρ(Χ > s)
1−Ρ( Χ ≤ t+ s)
¿
1−Ρ( Χ ≤ s)
1−F X (t+ s)
¿
1−F X (s)
e−λ(t +s)
¿ −λs
e
Pour tout t, s ≥ 0
Ρ ( Χ >t+ s|Χ > s ) =e− λt
1
Justifier le terme « absence de mémoire » :
Cette probabilité ne dépend pas de s, on dit que la loi exponentielle n’a pas
de mémoire.
( )
f Y ( t+ s )=f ( t ) 1−∫ f Y (u ) du , t , s ≥0
0
¿ λ Ρ ( Y >t ) .[ 1−Ρ ( Y ≤ s ) ]
s
(
¿ λ e− λt 1−∫ f Y ( u ) du
0
)
D’où le résultat :
s
(
f Y ( t+ s )=f (t) 1−∫ f Y ( u ) du
0
)
2
Déduire que f Y vérifie l’équation f ' Y ( t )=−λ f Y (t)
On a :
f Y ( t )=λ e− λt
f 'Y ( t ) =−λ f Y (t )
f ' Y (t)
=−λ
f Y (t )
f Y (t)
ln
( )
f Y (0)
=− λt+cste
f Y ( t )=f Y ( 0 ) e− λt +cste
f Y ( t )=λ e− λt + cste
3
Etant donné que les variables aléatoires U et V vérifient la propriété d’absence
de mémoire, cela voudrait dire qu’on a :
On sait que :
∀ t ≥ 0 Ρ (T >t )=Ρ(min(U ,V )>t)
Ρ (U >t+ s) Ρ (V >t+ s)
¿
Ρ(U > s)
* Ρ(V > s)
4
On a ∀ t ≥ 0 Ρ (Z ≤t )=Ρ(min( X ,Y )≤t )
Ρ ( Z ≤t )=1−Ρ (min( X , Y )>t)
Ρ ( Z ≤t )=1−Ρ ¿
Ρ ( Z ≤t )=1−e−λ t . e−λ t
1 2
Ρ ( Z ≤t )=1−e−¿¿¿
Posons Γ =λ1 + λ 2
Ρ ( Z ≤t )=1−e−Γt =F Z (t )
5
EXERCICE II :
Un joueur dispose d’un dé et d’une pièce. Le dé est équilibré et la pièce a
une probabilité p (0 < p < 1) de tomber sur pile. Le joueur lance d’abord le
d´e, puis lance la pièce autant de fois que le résultat du dé. Il compte enfin
le nombre de piles obtenu au cours des lancers. Les résultats sont indépendants.
On note q = 1- p. On note également D la variable aléatoire correspondant à la
valeur du dé et X celle correspondant au nombre de piles obtenus
à la fin du j.
1
Ρ ( Χ=6 )= C 66 p 6
6
1
Ρ ( Χ=6 )= p6
6
6
6
Ρ ( Χ=4 )=∑ Ρ ( Χ=4|D=i ) . Ρ(D=i)
i=1
q 1−q 6
3. Montrer que Ρ ( Χ=0 )= . (
6 1−q )
6
6
1 q
Ρ ( Χ=0 )= ∑ qi= ( 1+q+ …+q 5 )
6 i =1 6
Finalement on obtient :
q 1−q 6
Ρ ( Χ=0 )= (
6 1−q )
4. Sachant que l’on n’a obtenu aucun pile
au cours du jeu, quelle était la probabilité que le résultat du dé était
1? Evaluer cette quantité quand p = q = 1/2.
Or on sait que :
Ρ [ (D=1) ∩( Χ=0) ]
Ρ ( X=0|D=1 ) =
Ρ(D=1)
Donc on tire :
7
Ρ [ ( D=1)∩( Χ=0) ] =Ρ ( X =0|D=1 ) . Ρ(D=1)
q
6
Ρ ( D=1|X =0 ) =
q 1−q 6
(
6 1−q )
Finalement on obtient :
1−q
Ρ ( D=1|X =0 ) =
1−q6
1
2 32
Ρ ( D=1|X =0 ) = = ≈ 0.508
1 6
63
1− 6
2
8
EXERCICE III :
On tire n fois de suite et de manière indépendante un réel suivant la loi uniforme
sur [0; 1]. On note Xi le résultat du i ème tirage, Sn la somme des n tirages et
Mn=Sn/n.
f X ( x )= 1 si x ϵ [0 , 1]
{ 0 ailleurs
+∞
E ( Χ 1 ) =∫ x . f X ( x ) dx
−∞
1
E ( Χ 1 ) =∫ x . dx
0
1
E ( Χ 1)=
2
+∞
E ( Χ )= ∫ x 2 . f X ( x ) dx
2
1
−∞
+∞
E ( Χ 21 )= ∫ x 2 . dx
−∞
1
E ( Χ 21 )=
3 9
2
V ( Χ 1 ) =E ( Χ 21 ) −( E ( Χ 1 ) )
2
1 1
V ( Χ 1 )= −
3 2 ()
1
V ( Χ1)=
12
Sn
M n=
n
On a : E( S n)=E ¿
n
E ( Sn ) =n . E ( X 1 )=
2
V (Sn )=V ¿
n
V ( S n ) =n .V ( X 1) =
12
10
1
M n−
2 1
D’après
1 (
↝ N ( 0 , 1 ) ⇒ √12 n M n −
2)↝ N (0 ,1) le théorème
central
n
√ 12 n
limite, pour
n n
suffisamment grand, la variable aléatoire Sn ↝ N ( 2 , 12 ) .
n n Sn 1 1 1 1
( ) ( )
On a Sn ↝ N 2 , 12 ⇒ n ↝ N 2 , 12 n ⇒ M n ↝ N ( 2 , 12 n )
1
Posons (
T n=√ 12 n M n−
2 )
On a donc :
P ( 0.4 ≤ M n ≤ 0.6 ) =P(0.4−0.5 ≤ M n−0.5 ≤ 0.6−0.5)
¿ P¿
¿ P ( T n ≤ 0.1 √12 n ) −¿
¿ 2 P ( T n ≤0.1 √ 12 n )−1
⇒ n=32
On conclut donc que c’est à partir du 32e tirage que la probabilité que
Mn soit comprise entre 0.4 et 0.6 est supérieure à 0.9.
11
EXERCICE IV :
Soit a > 0. On considère
f : IR 2 ⟶ IR2 définie par :
2 2
−x +y
1 2
f ( x , y )= e + h ( x ) . h( y )
2π
Avec h la fonction,
h ( t )=t . 1Ι t Ι ≤ a
Alors pour tout x, y élément de IR, f(x, y)>0 et est continue car somme de deux
fonctions continues.
2 2
−x +y
∫ f ( x , y ) dx dy =∫ 21π e 2
dx dy +∫ h ( x ) . h ( y ) dx dy
IR 2 IR 2 IR 2
12
2 2
❑ −x +y
1 2
¿ ∫e dx dy + (∫ h ( x ) dx )(∫ h ( y ) dy )
2 π IR 2
2 2
−x +y
Donc ∫ f ( x , y ) dx dy =∫ 1 e 2
dx dy
2π
2 2
−x −y
1 1
¿
√2 π(∫e 2
)(
dx
√2 π
∫e 2
dy )
2 2
−x −y
1 1
Or ( √2 π
∫e 2
dx = )(
√2 π
∫e 2
dy =1)
Par conséquent on trouve bien
∫ f ( x , y ) dxdy=1
On peut donc conclure que f est la densité d’un vecteur aléatoire (X, Y).
2 2
− x +∞ −y a
1 2 2
¿ e ∫e dy +h ( x ) . ∫ h ( y ) dy
2π −∞ −a
2 2
−x a +∞ −y
¿
√2 π e 2
car ∫ h ( y ) dy=0 et ∫ e 2
dy =√2 π
2π −a −∞
2 2
− y +∞ −x a
1 2 2
¿ e ∫e dx +h ( y ) . ∫ h ( x ) dx
2π −∞ −a
2 2
−y a +∞ −x
¿
√2 π e 2
car ∫ h ( x ) dx=0 et ∫ e 2
dy=√ 2 π
2π −a −∞
2
−y
1 2
f Y ( y )= e
√2 π
4. Calculons P( X ≥ 0 , Y ≥ 0)
+∞ + ∞
P ( X ≥0 ,Y ≥ 0 )=∫ ∫ f ( x , y ) dxdy
0 0
2 2
+∞ + ∞ −x +y a a
1 2
P ( X ≥0 ,Y ≥ 0 )=∫ ∫ e dx dy +∫ ∫ h ( x ) h ( y ) dxdy
0 0 2π 0 0
+∞ −x
2
2 a 2
1
¿ (∫ 0 √2 π
e 2
)(
dx + ∫ h ( x ) dx
0
)
2 2
+∞ −x +∞ −x
1 1
Remarquons que ∫ e 2
dx=2. ∫ e 2
dx=1
−∞ √2 π 0 √2 π
a 2
1 2
D’où P ( X ≥0 ,Y ≥ 0 )=
2
+ () (∫ 0
h ( x ) dx
)
14
a 2
1 1 2
P ( X ≥0 ,Y ≥ 0 )= +
4 2
x ([ ] ) 0
Finalement on obtient :
2
1 1 2
P ( X ≥0 ,Y ≥ 0 )= +
4 2
a ([ ])
1
P ( X ≥0 ,Y ≥ 0 )= ( 1+a 4 ) avec a>0
4
Donc on a
Cov ( X , Y )=E [ XY ]
+ ∞ +∞
¿ ∫ ∫ xyf ( x , y ) dxdy
−∞ −∞
2 2
+ ∞ +∞ −x +y +∞ +∞
1 2
¿∫ ∫ xy e dx dy + ∫ ∫ xy h ( x ) h ( y ) dxdy
−∞ −∞ 2π −∞ −∞
2 2
+∞ −x +∞ −y +∞ +∞
1 1
¿ (∫
−∞
)( ∫
√2 π
xe 2
dx
−∞ √2 π
ye 2
) (∫
dy +
−∞
xh ( x ) dx )( ∫
−∞
yh ( y ) dy )
+∞ 2
¿
(∫ )
−∞
xh ( x ) dx
+∞ 2
¿
(∫ )
−∞
x 2 dx
a 2
1 3
¿ x([ ] )
3 −a
Finalement on obtient
15
4
Cov ( X , Y )= a6 avec a> 0
9
EXERCICE V :
Soient X et Y deux variables aléatoires indépendantes et de même loi
N (0;1).
X+ Y X−Y
On pose U= et V =
√2 √2
1. Montrons que le vecteur (U, V) est Gaussien et précisons sa loi.
Posons Γ =(U , V ),
X et Y sont deux variables aléatoires normales.
U et V sont des combinaisons linéaires de deux variables aléatoires
normales (X, et Y).
D’après la propriété d’additivité : si X et Y sont deux variables
aléatoires suivant respectivement les lois N( μ1 , σ 1 ¿ et N( μ2 , σ 2 ¿ alors
X+Y est une variable aléatoire suivant la loi N( μ1 + μ1 , √σ 21+ σ 22 ¿
Donc U et V sont tous deux, deux variables aléatoires normales
Γ est un vecteur dont les coordonnées U et V sont des variables
aléatoires normales. Par conséquent Γ =(U , V ) est un vecteur Gaussien.
M Γ = E(U )
(E (V ) )
E ( U )=E ( X√+Y2 )
1 1
E ( U )= . E ( X ) + . E ( Y )=0
√2 √2
1 1
De même on montre que E ( V )= . E ( X )− . E ( Y )=0
√2 √2
16
On obtient donc comme vecteur moyenne
MΓ= 0
0 ()
La matrice de variance est donc :
1
V ( U )=V
[√ 2
( X +Y )
]
1 1
V ( U )= V ( X ) + V ( Y )+ Cov( X , Y )
2 2
Calculons maintenant
Cov ( U , V )=Cov ( V , U )
V Γ= (10 01)
17
1 2 2
2. Montrons que XY = 4 [ ( X +Y ) −( X −Y ) ]
1
4
[ ( X +Y )2− ( X−Y )2 ] = 14 {[ ( X +Y ) −( X−Y ) ][ ( X +Y )+ ( X−Y ) ] }
1 1
[ ( X +Y )2− ( X−Y )2 ] = ( 4 XY )
4 4
D’où le résultat :
1
XY =
4
[ ( X +Y )2−( X −Y )2 ]
3. Déduire
2 2
que les variables réelles 2XY et ( X −Y ) ont même loi.
X +Y 2 X −Y 2
η= (
√2
−
√2) ( )
η=U 2−V 2
On remarque aisément que η=δ , par
conséquent les deux variables ont même loi.
EXERCICE VI :
18
Sn 2
i) Montons que converge dans L vers m.
n
Sn= X 1 + X 2 +…+ X n
Sn S
E [ n ] ( )
−m2 =Var n
n
n
1
¿
n2
Var (∑ ) comme les
i=1
Xi X i sont indépendants alors on a :
n
1
¿ ∑ Var ( X i )
n2 i=1
Sn c c
E [ n
2
n ]
−m = ∨quand n ⟶+∞ ⟶0
n
Sn 2
Par conséquent, la suite converge dans L vers m.
n
Sn
ii) Déduisons que converge égalament en probabilité vers m.
n
n ≥1
converge dans L2 vers m
donc ( Sn )
n
n ≥1
converge également en probabilité vers m.
19
Comme Xϵ L1 i.e intégrable, la fonction caractéristique φ X de X est dérivable et
on a φ X ( 0 )=1 , φ ' X =iE ( X ) . On a donc le développement limité de φ X suivant pour
tout t proche de 0.
φ X ( t ) =1+it E ( X ) + o(t)
t n n
t t t
()(
Et donc φ S ( t )=φS n = φ X ( n ) = 1+ i n E ( X ) + o( n )
n
n n ) ( )
t
Il faut contrôler correctement le reste o ( n ). Pour cela, on va appliquer le
rappel(2) (Voir annexe) avec a i=φ X ( t ) et b i=1 on a alors
t
|( φ X ( t) )n−1n|≤ n φ X | () |n
−1
t
Pour montrer que ce majorant tend vers 0, on estime φ X n −1 avec la rappel(1) |() |
où p=1 et E(X)=0
t t
|() |
n φX
t
n
i
|[ i
t
−1 = n E e n −1 =n E e n −1−i X
n
]| |[ ]|
t
[|
≤ nE e n −1−i
i
t
n
X |]
t 2 X 2 2 t |X|
≤ E[n min ( 2 n2
,
n
] )
On observe alors que
t 2 X 2 2 t | X|
n min ( 2n 2
,
n )
≤2 t | X|ϵ L1 et
t 2 X2 2 t X t2 X2 →
| |
n min ( 2 n2
,
n
≤
2 n2 )
+∞0
Sn →
Conclusion : +∞ m=0 dans L
n
20
Sn
ii) Déduisons que converge égalament en probabilité vers m.
n
Sn
Posons ∀ n ≥1 , Z n =
n
¿ 1−F n ( m+ ε ) + Fn ( m−ε )
1 si z > m
Comme F n ( z ) converge vers F ( z )= 0 si z< m {
Alors
Sn
lim P
n ⟶+∞ (| | )
n
−m ≥ ε = lim ( 1−F n ( m+ε )+ F n ( m−ε )) =1−1=0
n ⟶+∞
{m−ε < m
Car m+ε >m
Sn
Conclusion : Déduisons que converge égalament en probabilité vers m.
n
P ( Sn ≥ ε ) ≤e
n − ε nt
E [ etX ]
n
21
Soit ε > 0 et t ≥ 0,
P ( Sn ≥ ε )=P ( S ≥ ε n)=P ( e
n
n
t Sn
≥ et εn)
P ( )
n
≥ ε ≤ t εn
e
par Markov
On obtient finalement
Sn E ( e t S ) −tεn
n
n
P( )
n
≥ ε ≤ tεn =e . E [ et X ]
e
i
D’où le résultat :
Sn
P ( )
n
≥ ε ≤e− εnt E [ e tX ]
n
α =inf t ≥0 e−εt E [ e tX ]
Posons g ( t ) =e
−¿¿
22