Vous êtes sur la page 1sur 23

2019-2020

PROCESSUS STOCHASTIQUE SUJET 1

FAIT PAR LE GROUPE 2 :


1. Benie Bi Cédrick
2. Houessou Fabrice
3. Kamagaté Mohamed
4. Lohouess Meless Fulbert
5. Oraga Akapéa Franck
6. Yao Kouamé Noël
INGENIEURS STIC 2 A L’INSTITUT NATIONAL POLYTECHNIQUE HOUPHOUET BOIGNY

INP-HB

ENSEIGNANT
M. ALLA AHUI B.
ECOLE SUPERIEURE D’INDUSTRIE
EXERCICE I : Absence de mémoire et minimum de 2 lois exponentielles id.
On rappelle qu’une variable aléatoire de loi exponentielle E(λ) de paramètre λ >0
est à valeurs dans [0; +1[ et admet pour densité
−𝜆𝑥
𝑓𝜆 (𝑥 ) = 𝜆𝑒 −𝜆𝑥 1𝑥≥0 ={𝜆𝑒 𝑠𝑖 𝑥 ≥ 0
0 𝑠𝑖 𝑥 < 0
1. Soit X une variable aléatoire de loi 𝜺(𝝀) avec 𝝀 >0. Calculons 𝚸(𝑿 > 𝒕)
pour t≥ 𝟎

Ρ(Χ > 𝑡) = 1 − Ρ(Χ ≤ 𝑡)


= 1 − 𝐹Χ (𝑡)
𝑡
= 1 − ∫−∞ 𝑓Χ (𝑢) 𝑑𝑢
𝑡
= 1 − ∫0 𝜆𝑒 −𝜆𝑢 𝑑𝑢

= 1 − [−𝑒 −𝜆𝑡 + 1]
Pour t ≥ 0 𝚸(𝚾 > 𝒕) = 𝒆−𝝀𝒕

2. Montrons que X satisfait à la propriété d’absence de mémoire i.e


∀ 𝒕, 𝒔 ≥ 𝟎 𝒐𝒏 𝒂 𝚸(𝚾 > 𝒕 + 𝒔 |𝚾 > 𝒔) = 𝚸(𝚾 > 𝐭)

Ρ[(Χ>𝑡+𝑠)∩(Χ>s)]
Ρ(Χ > 𝑡 + 𝑠|Χ > 𝑠) =
Ρ(Χ>𝑠)

Ρ(Χ>𝑡+𝑠)
=
Ρ(Χ>𝑠)

1−Ρ(Χ≤𝑡+𝑠)
=
1−Ρ(Χ≤𝑠)

1−𝐹𝑋 (𝑡+𝑠)
=
1−𝐹𝑋 (𝑠)

𝑒 −𝜆(𝑡+𝑠)
=
𝑒 −𝜆𝑠
Pour tout t, s ≥ 0 𝚸(𝚾 > 𝒕 + 𝒔|𝚾 > 𝒔) = 𝒆−𝝀𝒕

1
Justifier le terme « absence de mémoire » :

𝚸(𝚾 > 𝒕 + 𝒔|𝚾 > 𝒔) = 𝒆−𝝀𝒕

Cette probabilité ne dépend pas de s, on dit que la loi exponentielle n’a pas
de mémoire.

3. Montrons à partir de la propriété d’absence de mémoire que :


𝒔
𝒇𝒀 (𝒕 + 𝒔) = 𝒇(𝒕) (𝟏 − ∫ 𝒇𝒀 (𝒖) 𝒅𝒖) , 𝒕, 𝒔 ≥ 𝟎
𝟎

Supposons que Y vérifie la propriété d’absence de mémoire, on a donc


⇒ Ρ(𝑌 > 𝑡 + 𝑠) = Ρ(𝑌 > 𝑡). Ρ(𝑌 > 𝑠) 𝑡, 𝑠 ≥ 0
+∞ +∞ +∞
C’est-à-dire ∫𝑡+𝑠 𝑓𝑌 (𝑢) 𝑑𝑢 = (∫𝑡 𝑓𝑌 (𝑢) 𝑑𝑢 )(∫𝑠 𝑓𝑌 (𝑢) 𝑑𝑢)

En dérivant par rapport à la variable t, on obtient :


+∞
−𝑓𝑌 (𝑡 + 𝑠) = −𝑓𝑌 (𝑡) (∫ 𝑓𝑌 (𝑢) 𝑑𝑢) , 𝑡, 𝑠 ≥ 0
𝑠

D’où
𝑠
𝑓𝑌 (𝑡 + 𝑠) = 𝑓𝑌 (𝑡) (1 − ∫ 𝑓𝑌 (𝑢) 𝑑𝑢) , 𝑡, 𝑠 ≥ 0
0
𝑓𝑌 (𝑡+𝑠)−𝑓𝑌 (𝑡) 1 𝑠
Donc = −𝑓𝑌 (𝑡) ( ∫0 𝑓𝑌 (𝑢) 𝑑𝑢)
𝑠 𝑠
1 𝑠
Par continuité : ( ∫0 𝑓𝑌 (𝑢) 𝑑𝑢) → 𝑓𝑌 (0) = 𝜆
𝑠 𝑠⟶0
𝑓𝑌 (𝑡+𝑠)−𝑓𝑌 (𝑡)
D’où : = −𝜆𝑓𝑌 (𝑡)
𝑠

Ce qui donne ensuite l’écriture et la valeur de la dérivée à droite.

2
4. Résoudre l’équation différentielle et conclure que Y suit une loi 𝜺(𝝀)
avec 𝝀 >0.

𝑓 ′ 𝑌 (𝑡) = −𝜆𝑓𝑌 (𝑡)


𝑓′ 𝑌 (𝑡)
= −𝜆
𝑓𝑌 (𝑡)

𝑓𝑌 (𝑡)
𝑙𝑛 ( ) = −𝜆𝑡 + 𝑐𝑠𝑡𝑒
𝑓𝑌 (0)

𝑓𝑌 (𝑡) = 𝑓𝑌 (0)𝑒 −𝜆𝑡 + 𝑐𝑠𝑡𝑒


Au final nous avons :

𝒇𝒀 (𝒕) = 𝝀𝒆−𝝀𝒕 + 𝒄𝒔𝒕𝒆

On conclut donc que Y suit belle et bien une loi 𝜺(𝝀).

5. Soient U et V deux variables aléatoires indépendantes qui vérifient la


probabilité d’absence de mémoire et on pose T= min (U, V). Montrons
que T vérifie aussi la propriété d’absence de mémoire.

Etant donné que les variables aléatoires U et V vérifient la propriété d’absence de


mémoire, cela voudrait dire qu’on a :

 ∀ 𝑡, 𝑠 ≥ 0 𝑜𝑛 𝑎 Ρ(U > 𝑡 + 𝑠 |U > 𝑠) = Ρ(U > t)


 ∀ 𝑡, 𝑠 ≥ 0 𝑜𝑛 𝑎 Ρ(V > 𝑡 + 𝑠 |V > 𝑠) = Ρ(V > t)

On sait que :
∀ 𝑡 ≥ 0 Ρ(𝑇 > 𝑡) = Ρ(min(U, V) > t)
Ρ(𝑇 > 𝑡) = Ρ(U > t, V > t)
𝚸(𝑻 > 𝒕) = 𝚸(𝐔 > 𝐭). 𝐏( 𝐕 > 𝐭) car, U et V sont indépendantes
D’après la propriété d’absence de mémoire on a :

3
Ρ[(T>𝑡+𝑠)∩(T>s)]
∀ 𝑡 ≥ 0 Ρ(T > 𝑡 + 𝑠|T > 𝑠) =
Ρ(T>𝑠)
Ρ(T>𝑡+𝑠)
=
Ρ(T>𝑠)

Ρ(min(U,V)>𝑡+𝑠)
=
Ρ(min(U,V)>𝑠)

Ρ(U>𝑡+𝑠).𝑃(𝑉>𝑡+𝑠)
=
Ρ(U>𝑠).𝑃(𝑉>𝑠)

Ρ(U>𝑡+𝑠) Ρ(V>𝑡+𝑠)
= *
Ρ(U>𝑠) Ρ(V>𝑠)

= Ρ(U > t). P( V > t)

∀ 𝒕 ≥ 𝟎 𝚸(𝐓 > 𝒕 + 𝒔|𝐓 > 𝒔) = 𝚸(𝐓 > 𝐭)


On conclut donc que T vérifie aussi bien que U et V la propriété d’absence de
mémoire.

6. Soient X et Y deux variables aléatoires indépendantes, Z = min (X, Y).


Montrons que Z suit une loi exponentielle et donnons son paramètre.

On a ∀ 𝑡 ≥ 0 Ρ(𝑍 ≤ 𝑡) = Ρ(min(X, Y) ≤ t)
Ρ(𝑍 ≤ 𝑡) = 1 − Ρ(min(X, Y) > t)
Ρ(𝑍 ≤ 𝑡) = 1 − [Ρ(X > t, Y > t)]
X et Y étant indépendantes, alors on a :

Ρ(𝑍 ≤ 𝑡) = 1 − Ρ(X > t). P( Y > t)


Ρ(𝑍 ≤ 𝑡) = 1 − 𝑒 −𝜆1 𝑡 . 𝑒 −𝜆2 𝑡
Ρ(𝑍 ≤ 𝑡) = 1 − 𝑒 −(𝜆1 +𝜆2) 𝑡
Posons Γ = 𝜆1 + 𝜆2
Ρ(𝑍 ≤ 𝑡) = 1 − 𝑒 −Γt = 𝐹𝑍 (𝑡)
On conclut donc que Z suit une loi exponentielle de paramètre Γ = 𝜆1 + 𝜆2 .

4
EXERCICE II :
Un joueur dispose d’un dé et d’une pièce. Le dé est équilibré et la pièce a
une probabilité p (0 < p < 1) de tomber sur pile. Le joueur lance d’abord le
d´e, puis lance la pièce autant de fois que le résultat du dé. Il compte enfin
le nombre de piles obtenu au cours des lancers. Les résultats sont indépendants.
On note q = 1- p. On note également D la variable aléatoire correspondant à la
valeur du dé et X celle correspondant au nombre de piles obtenus
à la fin du j.

1. Soient (𝒊, 𝒋)𝝐{𝟏, … , 𝟔}𝟐 . Que vaut P(X=j|D=i) ?

La variable aléatoire Χ ↝ 𝛽(𝑖, 𝑝). On obtient donc d’après la formule de


probabilité totale :
 Si j > i P(X= j | D = i) = 0
𝒋
 Si 𝒋 ≤ 𝒊 𝚸(𝚾 = 𝒋|𝑫 = 𝒊) = 𝑪𝒊 𝒑𝒋 𝒒𝒊−𝒋

2. Calculer P(X = 6) et P(X = 4).

On a : Ρ(Χ = 6) = ∑6𝑖=1 Ρ(Χ = 6|𝐷 = 𝑖 ). Ρ(𝐷 = 𝑖)


Ρ(Χ = 6) = Ρ(Χ = 6|𝐷 = 6). Ρ(𝐷 = 6)
1
Ρ(Χ = 6) = 𝐶66𝑝6
6
𝟏
𝚸(𝚾 = 𝟔) = 𝒑𝟔
𝟔

Ρ(Χ = 4) = ∑6𝑖=1 Ρ(Χ = 4|𝐷 = 𝑖). Ρ(𝐷 = 𝑖)


Ρ(Χ = 4) = Ρ(Χ = 4|𝐷 = 4). Ρ(𝐷 = 4) + Ρ(Χ = 4|𝐷 = 5). Ρ(𝐷 = 5)
+ Ρ(Χ = 4|𝐷 = 6). Ρ(𝐷 = 6)
1
Ρ(Χ = 4) = [𝐶64𝑝 4𝑞2 + 𝐶54𝑝4𝑞1 + 𝐶44𝑝4 𝑞0]
6
𝟏
𝚸(𝚾 = 𝟒) = 𝒑𝟒 (𝟏 + 𝟓𝒒 + 𝟏𝟓𝒒𝟐 )
𝟔

5
𝒒 𝟏−𝒒𝟔
3. Montrer que 𝚸(𝚾 = 𝟎) = ( ).
𝟔 𝟏−𝒒

On a : Ρ(Χ = 0) = ∑6𝑖=1 Ρ(Χ = 0|𝐷 = 𝑖). Ρ(𝐷 = 𝑖)


Ρ(Χ = 0) = Ρ(Χ = 0|𝐷 = 1). Ρ(𝐷 = 1) + Ρ(Χ = 0|𝐷 = 2). Ρ(𝐷 = 2)
+ Ρ(Χ = 0|𝐷 = 3). Ρ(𝐷 = 3) + Ρ(Χ = 0|𝐷 = 4). Ρ(𝐷 = 4)
+ Ρ(Χ = 0|𝐷 = 5). Ρ(𝐷 = 5) + Ρ(Χ = 0|𝐷 = 6). Ρ(𝐷 = 6)

1 𝑞
Ρ(Χ = 0) = ∑6𝑖=1 𝑞𝑖 = (1 + 𝑞 + ⋯ + 𝑞5 )
6 6

Finalement on obtient :
𝒒 𝟏−𝒒𝟔
𝚸(𝚾 = 𝟎) = ( )
𝟔 𝟏−𝒒

4. Sachant que l’on n’a obtenu aucun pile au cours du jeu, quelle était la
probabilité que le résultat du dé était 1? Evaluer cette quantité quand
p = q = 1/2.

La probabilité désirée est celle de Ρ(𝐷 = 1|Χ = 0).


En utilisant la formule de Bayes on a :
Ρ[(𝐷=1)∩(Χ=0)]
Ρ(𝐷 = 1|Χ = 0) =
Ρ(Χ=0)

Or on sait que :
Ρ[(𝐷=1)∩(Χ=0)]
Ρ(𝑋 = 0|D = 1) =
Ρ(D=1)

Donc on tire :
Ρ[(𝐷 = 1) ∩ (Χ = 0)] = Ρ(𝑋 = 0|D = 1). Ρ(D = 1)
Par conséquent on obtient :
Ρ(𝑋 = 0|𝐷 = 1). 𝑃(𝐷 = 1)
Ρ(𝐷 = 1|Χ = 0) =
Ρ(Χ = 0)

6
𝑞
Ρ(𝐷 = 1|𝑋 = 0) = 6
𝑞 1 − 𝑞6
( )
6 1−𝑞
Finalement on obtient :
𝟏−𝒒
𝚸(𝑫 = 𝟏|𝑿 = 𝟎) =
𝟏−𝒒𝟔

Dans le cas où p = q=1/2

𝟏
𝟑𝟐
𝚸(𝑫 = 𝟏|𝑿 = 𝟎) = 𝟐
𝟏𝟔
= ≈ 𝟎. 𝟓𝟎𝟖
𝟔𝟑
𝟏− 𝟔
𝟐

7
EXERCICE III :
On tire n fois de suite et de manière indépendante un réel suivant la loi uniforme
sur [0; 1]. On note Xi le résultat du i ème tirage, Sn la somme des n tirages et
Mn=Sn/n.

1. Calculons l’espérance et la variance de 𝚾𝟏

La variable aléatoire Χ ↝ 𝑢[0, 1] dont la fonction caractéristique est :


1 𝑠𝑖 𝑥 𝜖 [0, 1]
𝑓𝑋 (𝑥) = {
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠

+∞
𝐸 (Χ1) = ∫ 𝑥. 𝑓𝑋 (𝑥 )𝑑𝑥
−∞
1
𝐸 (Χ1) = ∫0 𝑥. 𝑑𝑥

𝟏
𝑬(𝚾𝟏 ) =
𝟐

+∞
𝐸 (Χ12 ) = ∫−∞ 𝑥 2 . 𝑓𝑋 (𝑥 )𝑑𝑥
+∞
𝐸 (Χ12 ) = ∫−∞ 𝑥 2 . 𝑑𝑥

𝟏
𝑬(𝚾𝟏𝟐 ) =
𝟑

8
𝟐
𝑽(𝚾𝟏 ) = 𝑬(𝚾𝟏𝟐 ) − (𝑬(𝚾𝟏 ))
𝟏 𝟏 𝟐
𝑽(𝚾𝟏 ) = − ( )
𝟑 𝟐

𝟏
𝑽(𝚾𝟏 ) =
𝟏𝟐

2. A partir de combien de tirages, peut-on dire que la probabilité que


Mn soit comprise entre 0,4 et 0,6 est supérieure à 0,9 ?
On a :
𝑆𝑛 = ∑𝑛𝑖=1 𝑋𝑖 𝑜ù 𝑋𝑖 ↝ 𝑢[0, 1]

𝑆𝑛
𝑀𝑛 =
𝑛

On a : 𝐸(𝑆𝑛 ) = 𝐸(∑𝑛𝑖=1 𝑋𝑖 ) = ∑𝑛𝑖=1 𝐸(𝑋𝑖 ) 𝑐𝑎𝑟 𝑋𝑖 𝑒𝑠𝑡 𝑖. 𝑖. 𝑑


𝒏
𝑬(𝑺𝒏 ) = 𝒏. 𝑬(𝑿𝟏 ) =
𝟐

𝑉(𝑆𝑛 ) = 𝑉(∑𝑛𝑖=1 𝑋𝑖 ) = ∑𝑛𝑖=1 𝑉(𝑋𝑖 ) 𝑐𝑎𝑟 𝑋𝑖 𝑒𝑠𝑡 𝑖. 𝑖. 𝑑


𝒏
𝑽(𝑺𝒏 ) = 𝒏. 𝑽(𝑿𝟏 ) =
𝟏𝟐

D’après le théorème central limite, pour n suffisamment grand, la variable


𝑛 𝑛
aléatoire 𝑆𝑛 ↝ 𝑁( , ) .
2 12
𝑛 𝑛 𝑆𝑛 1 1 1 1
On a 𝑆𝑛 ↝ 𝑁 ( , )⇒ ↝ 𝑁( , ) ⇒ 𝑀𝑛 ↝ 𝑁( , )
2 12 𝑛 2 12𝑛 2 12𝑛

9
𝟏
𝑴𝒏 −𝟐 𝟏
↝ 𝑵(𝟎, 𝟏) ⇒ √𝟏𝟐𝒏 (𝑴𝒏 − ) ↝ 𝑵(𝟎, 𝟏)
𝟏 𝟐

𝟏𝟐𝒏

1
Posons 𝑇𝑛 = √12𝑛 (𝑀𝑛 − )
2

On a donc :
𝑃 (0.4 ≤ 𝑀𝑛 ≤ 0.6) = 𝑃(0.4 − 0.5 ≤ 𝑀𝑛 − 0.5 ≤ 0.6 − 0.5)

= 𝑃(−0.1√12𝑛 ≤ 𝑇𝑛 ≤ 0.1√12𝑛)

= 𝑃(𝑇𝑛 ≤ 0.1√12𝑛) − 𝑃(𝑇𝑛 ≤ −0.1√12𝑛)

= 𝑃(𝑇𝑛 ≤ 0.1√12𝑛) − (1 − 𝑃(𝑇𝑛 ≤ 0.1√12𝑛)

= 2𝑃(𝑇𝑛 ≤ 0.1√12𝑛) − 1
Comme 𝑃(0.4 ≤ 𝑀𝑛 ≤ 0.6) > 0.9
Alors ceci implique que : 2𝑃(𝑇𝑛 ≤ 0.1√12𝑛) − 1 > 0.9

⇒ 𝑃(𝑇𝑛 ≤ 0.1√12𝑛) > 0.95

Alors 𝑜𝑛 𝑎 0.1√12𝑛 ≥ 1.64 𝑠𝑜𝑖𝑡 √12𝑛 ≥ 16.4


⇒ 12𝑛 ≥ 268.96

⇒ 𝒏 ≥ 𝟐𝟐. 𝟒

On conclut donc que c’est à partir du 23e tirage que la probabilité que
Mn soit comprise entre 0.4 et 0.6 est supérieure à 0.9.

10
EXERCICE IV :
Soit a > 0. On considère
𝑓: 𝐼𝑅 2 ⟶ 𝐼𝑅 2 𝑑é𝑓𝑖𝑛𝑖𝑒 𝑝𝑎𝑟 ∶
𝑥2 +𝑦2
1 −
𝑓(𝑥, 𝑦) = 𝑒 2 + ℎ(𝑥). ℎ(𝑦)
2𝜋
Avec h la fonction,

ℎ(𝑡) = 𝑡. 1Ι𝑡Ι≤𝑎

1. Montrons que ∀ 𝒂 > 𝟎 ( 𝒂 𝒔𝒖𝒇𝒇𝒊𝒔𝒂𝒎𝒎𝒆𝒏𝒕 𝒑𝒆𝒕𝒊𝒕) f est bien la


densité d’un vecteur aléatoire (X, Y)
Soit x, y éléments de IR.
 Si x<0 et y<0 et comme h(t)= t ∀ 𝒕 ≤ 𝒂 alors h(x).h(y)>0
 Si x>0 et y>0 alors h(x).h(y)>0
Par suite h(x).h(y)>0 ∀ (𝒙, 𝒚) 𝝐 [−𝒂, 𝒂] 𝐱 [−𝐚, 𝐚] (i)
𝑥2 +𝑦2
1 −
De plus la fonction (𝑥, 𝑦) ↦ 𝑒 2 est positive pour tout x, y
2𝜋
éléments de IR.
Alors pour tout x, y élément de IR, f(x, y)>0 et est continue car somme de deux
fonctions continues.
2 +𝑦2
1 −𝑥
∫ 𝑓 (𝑥, 𝑦)𝑑𝑥 𝑑𝑦 = ∫ 𝑒 2 𝑑𝑥 𝑑𝑦 + ∫ ℎ(𝑥). ℎ(𝑦)𝑑𝑥 𝑑𝑦
2𝜋
𝐼𝑅2 𝐼𝑅2 𝐼𝑅2

𝑥2 +𝑦2
𝟏 − +∞ +∞
= ∫ 𝑒 2 𝑑𝑥 𝑑𝑦 + (∫−∞ ℎ (𝑥 )𝑑𝑥 )(∫−∞ ℎ(𝑦)𝑑𝑦)
𝟐𝝅 𝑰𝑹𝟐

Par application du théorème de Tonnelli, comme la fonction 𝑥 ↦ 𝑥 est


impaire alors :

11
+∞ +∞ +∞
∫ ℎ(𝑥 )𝑑𝑥 = ∫ 𝑥𝑑𝑥 𝑒𝑡 ∫ ℎ(𝑦) 𝑑𝑦 = 0
−∞ −∞ −∞

Donc
+∞ +∞ +∞ +∞ 1 −𝑥 2+𝑦2
∫ ∫ 𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ ∫ 𝑒 2 𝑑𝑥 𝑑𝑦
−∞ −∞ −∞ −∞ 2𝜋

2 2
1+∞ −𝑥 1 +∞ −𝑥
= ( ∫ 𝑒 2 𝑑𝑥 ) ( ∫ 𝑒 2 𝑑𝑥 )
√2𝜋 −∞ √2𝜋 −∞

2 2
1+∞ −𝑥 +∞ −𝑦
1
Or ( ∫ 𝑒 2 𝑑𝑥 ) = ( ∫ 𝑒 2 𝑑𝑥 ) = 1
√2𝜋 −∞ √2𝜋 −∞
Par conséquent on trouve bien

∫ 𝒇(𝒙, 𝒚)𝒅𝒙𝒅𝒚 = 𝟏
𝐼𝑅2

On peut donc conclure que f est la densité d’un vecteur aléatoire (X, Y).

2. Calcul des lois marginales


2 +𝑦2
+∞ 1 +∞ −𝑥 +∞
𝑓𝑋 (𝑥 ) = ∫−∞ 𝑓 (𝑥, 𝑦)𝑑𝑦 = ∫ 𝑒 2 𝑑𝑦 + ∫−∞ ℎ(𝑥 ). ℎ (𝑦)𝑑𝑦
2𝜋 −∞

𝑥2 2
1 − +∞ −𝑦 𝑎
= 𝑒 2 ∫−∞ 𝑒 2 𝑑𝑦 + ℎ(𝑥). ∫−𝑎 ℎ(𝑦)𝑑𝑦
2𝜋
2 2
√2𝜋 −𝑥 𝑎 +∞ −𝑦
=
2𝜋
𝑒 2 𝑐𝑎𝑟 ∫−𝑎 ℎ(𝑦)𝑑𝑦 = 0 𝑒𝑡 ∫−∞ 𝑒 2 𝑑𝑦 = √2𝜋
Conclusion, nous obtenons
𝑥2
1 −
𝑓𝑋 (𝑥 ) = 𝑒 2
√2𝜋

12
2 +𝑦2
+∞ 1 +∞ −𝑥 +∞
𝑓𝑌 (𝑦) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥 = ∫ 𝑒 2 𝑑𝑥 + ∫−∞ ℎ(𝑥 ). ℎ(𝑦)𝑑𝑥
2𝜋 −∞

𝑦2 2
1 − +∞ −𝑥 𝑎
= 𝑒 2 ∫−∞ 𝑒 2 𝑑𝑥 + ℎ(𝑦). ∫−𝑎 ℎ(𝑥)𝑑𝑥
2𝜋
𝑦 2 2
√2𝜋 − 𝑎 +∞ −𝑥
=
2𝜋
𝑒 2 𝑐𝑎𝑟 ∫−𝑎 ℎ(𝑥)𝑑𝑥 = 0 𝑒𝑡 ∫−∞ 𝑒 2 𝑑𝑦 = √2𝜋
Conclusion, nous obtenons

𝑦2
1 −
𝑓𝑌 (𝑦) = 𝑒 2
√2𝜋

3. Le vecteur (X, Y) est-il un vecteur Gaussien ? justifier


Le vecteur (X, Y) est un vecteur Gaussien de loi 𝑁2 (𝑜, 𝐼 ) avec o le vecteur
nul de IR x IR et la matrice identité d’ordre 2, car les variables aléatoires X et Y
sont gaussiennes mais pas indépendantes (𝑓 (𝑥, 𝑦) ≠ 𝑓𝑋 (𝑥 ). 𝑓𝑌 (𝑦)).

4. Calculons 𝑷(𝑿 ≥ 𝟎 , 𝒀 ≥ 𝟎)

+∞ +∞
𝑃 (𝑋 ≥ 0, 𝑌 ≥ 0) = ∫0 ∫0 𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
2 +𝑦2
+∞ +∞ 1 −𝑥 𝑎 𝑎
𝑃 (𝑋 ≥ 0, 𝑌 ≥ 0) = ∫0 ∫0 2𝜋 𝑒 2 𝑑𝑥 𝑑𝑦 + ∫0 ∫0 ℎ(𝑥 )ℎ (𝑦)𝑑𝑥𝑑𝑦

𝑥 2 𝟐
+∞ 1 𝒂 𝟐
= (∫𝟎 𝑒− 2 𝑑𝑥 ) + (∫𝟎 𝒉(𝒙)𝒅𝒙)
√2𝜋

𝑥 2 𝑥 2
+∞ 1 −2 +∞ 1
Remarquons que ∫−∞ 2𝜋 𝑒 𝑑𝑥 = 2. ∫0 𝑒− 2 𝑑𝑥 = 1
√ √2𝜋

1 2 𝑎 2
D’où 𝑃 (𝑋 ≥ 0, 𝑌 ≥ 0) = ( ) + (∫0 ℎ(𝑥 )𝑑𝑥 )
2

13
1 1 𝑎 2
2
𝑃(𝑋 ≥ 0, 𝑌 ≥ 0) = + ([ 𝑥 ] )
4 2 0

Finalement on obtient :
1 1 2
𝑃(𝑋 ≥ 0, 𝑌 ≥ 0) = + ([ 𝑎2 ])
4 2
𝟏
𝑷(𝑿 ≥ 𝟎, 𝒀 ≥ 𝟎) = (𝟏 + 𝒂𝟒 ) 𝒂𝒗𝒆𝒄 𝒂 > 𝟎
𝟒

5. Calculer la covariance de X et Y en fonction de a

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 [(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))]


𝑥 2
+∞ +∞ 1 −2
𝐸 (𝑋 ) = ∫−∞ 𝑥𝑓𝑋 (𝑥 )𝑑𝑥 = ∫−∞ 2𝜋 𝑥𝑒 𝑑𝑥

2
−𝑥2
E(X) = 0 car la fonction 𝑥 ↦ 𝑥𝑒 est impaire de même E(Y) = 0
Donc on a
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 [𝑋𝑌]
+∞ +∞
= ∫−∞ ∫−∞ 𝑥𝑦𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
𝑥 2 +𝑦2
+∞ +∞ 1 − +∞ +∞
= ∫−∞ ∫−∞ 2𝜋 𝑥𝑦𝑒 2 𝑑𝑥 𝑑𝑦 + ∫−∞ ∫−∞ 𝑥𝑦ℎ (𝑥 )ℎ(𝑦)𝑑𝑥𝑑𝑦

+∞ 1 𝑥2 +∞ 1 𝑦 2
+∞ +∞

= (∫−∞ 2𝜋 𝑥𝑒 2 𝑑𝑥 ) (∫−∞ 2𝜋 𝑦𝑒 − 2 𝑑𝑦) + (∫−∞ 𝑥ℎ(𝑥 )𝑑𝑥)(∫−∞ 𝑦ℎ(𝑦)𝑑𝑦)
√ √

+∞ 2
= (∫−∞ 𝑥ℎ (𝑥 )𝑑𝑥 )
+∞ 2
= (∫−∞ 𝑥 2 𝑑𝑥 )
𝑎 2
1
= ([ 𝑥 3 ] )
3 −𝑎

Finalement on obtient
𝟒
𝑪𝒐𝒗(𝑿, 𝒀) = 𝒂𝟔 𝒂𝒗𝒆𝒄 𝒂 > 𝟎
𝟗

14
EXERCICE V :
Soient X et Y deux variables aléatoires indépendantes et de même loi
N (0;1).
𝑋+𝑌 𝑋−𝑌
On pose 𝑈= 𝑒𝑡 𝑉 =
√2 √2
1. Montrons que le vecteur (U, V) est Gaussien et précisons sa loi.
Posons Γ = (𝑈, 𝑉),
X, Y indépendantes de loi N(0,1) donc ( X, Y) est vecteur gaussien
N((00), 𝐼2)

1 1
𝑈 𝑋 √2 √2
( ) = 𝐴 ( ) 𝑎𝑣𝑒𝑐 𝐴 =
𝑉 𝑌 1 −1
(√2 √2 )
(U, V) est une transformation linéaire d’un vecteur Gaussien donc est aussi un
vecteur gaussien.

Précisons la loi du vecteur Γ = (𝑈, 𝑉).


La loi du vecteur Γ = (𝑈, 𝑉) est donnée par le vecteur moyenne 𝑀Γ et la matrice
de variance 𝑉Γ .
𝑬(𝑼)
𝑴𝚪 = ( )
𝑬(𝑽)
𝑿+𝒀
𝑬(𝑼) = 𝑬 ( )
√𝟐
1 1
𝐸 (𝑈) = . 𝐸 (𝑋) + . 𝐸 (𝑌) = 0
√2 √2
1 1
De même on montre que 𝐸 (𝑉 ) = . 𝐸 (𝑋) − . 𝐸 (𝑌) = 0
√2 √2

15
On obtient donc comme vecteur moyenne

𝑴𝚪 = (𝟎𝟎)

La matrice de variance est donc :

𝑉(𝑈) 𝐶𝑂𝑉(𝑈, 𝑉)
𝑉Γ = ( )
𝐶𝑂𝑉(𝑉, 𝑈) 𝑉(𝑉)

1
𝑉 (𝑈) = 𝑉 [ (𝑋 + 𝑌)]
√2
1 1
𝑉 (𝑈) = 𝑉 (𝑋 ) + 𝑉 (𝑌) + 𝐶𝑜𝑣(𝑋, 𝑌)
2 2
X et Y étant indépendants alors 𝐶𝑜𝑣 (𝑋, 𝑌) = 0 donc on obtient :
𝟏 𝟏
𝑽(𝑼) = 𝑽(𝑿) + 𝑽(𝒀) = 𝟏
𝟐 𝟐

De même on montre que


𝟏 𝟏
𝑽(𝑽) = 𝑽(𝑿) + 𝑽(𝒀) = 𝟏
𝟐 𝟐
Calculons maintenant 𝐶𝑜𝑣 (𝑈, 𝑉 ) = 𝐶𝑜𝑣(𝑉, 𝑈)
𝑋+𝑌 𝑋−𝑌
𝐶𝑜𝑣 (𝑈, 𝑉 ) = 𝐶𝑜𝑣 ( , )
√2 √2
1
𝐶𝑜𝑣 (𝑈, 𝑉 ) = (𝐶𝑜𝑣 (𝑋, 𝑋 ) − 𝐶𝑜𝑣 (𝑌, 𝑌))
2

𝑪𝒐𝒗(𝑼, 𝑽) = 𝑪𝒐𝒗(𝑽, 𝑼) = 𝟎

La matrice de variance est donc :


16
𝟏 𝟎
𝑽𝚪 = ( )
𝟎 𝟏

𝟏
2. Montrons que 𝑿𝒀 = [(𝑿 + 𝒀)𝟐 − (𝑿 − 𝒀)𝟐 ]
𝟒
1 1
[(𝑋 + 𝑌)2 − (𝑋 − 𝑌)2 ] = {[(𝑋 + 𝑌) − (𝑋 − 𝑌)][(𝑋 + 𝑌) + (𝑋 − 𝑌)]}
4 4
1 1
[(𝑋 + 𝑌)2 − (𝑋 − 𝑌)2 ] = (4𝑋𝑌)
4 4

D’où le résultat :
𝟏
𝑿𝒀 = [(𝑿 + 𝒀)𝟐 − (𝑿 − 𝒀)𝟐 ]
𝟒

3. Déduire que les variables réelles 2XY et (𝑿𝟐 − 𝒀𝟐 ) ont même loi.

Posons 𝜂 = 2𝑋𝑌 𝑒𝑡 𝛿 = (𝑋 2 − 𝑌 2 ) 𝑒𝑡 𝑔 : 𝐼𝑅 2 ⟶ 𝐼𝑅
(𝑥, 𝑦) ↦ 𝑥 2 − 𝑦 2
1
𝜂 = [(𝑋 + 𝑌)2 − (𝑋 − 𝑌)2 ]
2

𝑋+𝑌 2 𝑋−𝑌 2
𝜂=( ) −( )
√2 √2

𝜼 = 𝑼𝟐 − 𝑽𝟐
𝛿 = 𝑔(𝑋, 𝑌)
On a {
𝜂 = 𝑔(𝑈, 𝑉)
Les couples (U, V) et (X, Y) ont même loi donc les variables aléatoires 𝛿 𝑒𝑡 𝜂
ont aussi même loi.

17
EXERCICE VI :

1. On suppose que X est de carré intégrable

𝑺𝒏
i) Montons que 𝒄𝒐𝒏𝒗𝒆𝒓𝒈𝒆 𝒅𝒂𝒏𝒔 𝑳𝟐 𝒗𝒆𝒓𝒔 𝒎.
𝒏

Comme X est de carré intégrable, alors ∀ n ≥ 1, la suite (X n)n≥1 est de carrée


intégrable i.e Var(X n) est finie.
Alors il existe un réel positif tel que :
𝑉𝑎𝑟 (X n ) = 𝑐
∀ n ≥ 1, {
𝐸 (X n ) = 𝑚
𝑆𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝑆𝑛 𝑆
𝐸[ − 𝑚2 ] = 𝑉𝑎𝑟 ( 𝑛 )
𝑛 𝑛
1
= 𝑉𝑎𝑟 (∑𝑛𝑖=1 𝑋𝑖 ) comme les 𝑋𝑖 sont indépendants alors on a :
𝑛2
1
= ∑𝑛𝑖=1 𝑉𝑎𝑟 (𝑋𝑖 )
𝑛2
𝑆𝑛 𝑐 𝑐
𝐸[ − 𝑚2 ] = 𝑜𝑟 𝑞𝑢𝑎𝑛𝑑 𝑛 ⟶ +∞ ⟶0
𝑛 𝑛 𝑛
𝑺𝒏
Par conséquent, la suite 𝒄𝒐𝒏𝒗𝒆𝒓𝒈𝒆 𝒅𝒂𝒏𝒔 𝑳𝟐 𝒗𝒆𝒓𝒔 𝒎.
𝒏
𝑺𝒏
ii) Déduisons que 𝒄𝒐𝒏𝒗𝒆𝒓𝒈𝒆 é𝒈𝒂𝒍𝒂𝒎𝒆𝒏𝒕 en probabilité
𝒏
vers m.
Rappelons que la convergence dans Lp implique la convergence en probabilité.
𝑺
Alors d’après ce qui précède, comme la suite ( 𝒏) converge dans L2 vers m
𝒏 n≥1
𝑺
donc ( 𝒏) converge également en probabilité vers m.
𝒏 n≥1

2. On suppose que X est simplement intégrable.


𝑺𝒏
i) Montrons que 𝒄𝒐𝒏𝒗𝒆𝒓𝒈𝒆 𝒆𝒏 𝒍𝒐𝒊 𝒗𝒆𝒓𝒔 𝒎
𝒏
𝑆𝑛 𝑆′𝑛
Posons 𝑋𝑖 = 𝑚 + 𝑋′𝑖 𝑝𝑢𝑖𝑠 =𝑚+ 𝑎𝑣𝑒𝑐 𝑆′𝑛 = ∑𝑛𝑖=1 𝑋′𝑖 , on se ramène
𝑛 𝑛
𝑺𝒏
sans perte de généralité à m= 0. Nous allons par suite montrer que 𝒏 +∞
→ 𝒎=𝟎
en loi, on l’établit à l’aide des fonctions caractéristiques.
18
Comme 𝑋𝜖 L1 i.e intégrable, la fonction caractéristique 𝜑𝑋 de X est dérivable et
on a 𝜑𝑋 (0) = 1, 𝜑′𝑋 = 𝑖𝐸 (𝑋). On a donc le développement limité de 𝜑𝑋
suivant pour tout t proche de 0.
𝜑𝑋 (𝑡) = 1 + 𝑖𝑡 𝐸 (𝑋) + 𝑜(𝑡)
Comme les variables aléatoires sont 𝑋𝑛 , 𝑛 ≥ 1, sont iid, la fonction
caractéristique de 𝑆𝑛 est 𝜑𝑆𝑛 (𝑡) = 𝜑𝑋1+⋯+𝑋𝑛 = 𝜑𝑋1 (𝑡) … 𝜑𝑋𝑛 (𝑡) = (𝜑𝑋 (𝑡))𝑛
𝑡 𝑡 𝑛 𝑡 𝑡 𝑛
Et donc 𝜑𝑆𝑛 (𝑡) = 𝜑𝑆𝑛 ( ) = (𝜑𝑋 ( )) = (1 + 𝑖 𝐸 (𝑋) + 𝑜( ))
𝑛 𝑛 𝑛 𝑛 𝑛

𝑡
Il faut contrôler correctement le reste 𝑜( ). Pour cela, on a
𝑛
𝑡
|(𝜑𝑋 (𝑡))𝑛 − 1𝑛 | ≤ 𝑛 |𝜑𝑋 ( ) − 1|
𝑛
𝑡
Pour montrer que ce majorant tend vers 0, on estime |𝜑𝑋 ( ) − 1| par
𝑛
𝑡 𝑡 𝑡 𝑡
𝑛 |𝜑𝑋 ( ) − 1| = 𝑛 |𝐸 [𝑒 𝑖𝑛 − 1]| = 𝑛 |𝐸 [𝑒 𝑖𝑛 − 1 − 𝑖 𝑋]|
𝑛 𝑛
𝑡
𝑡
≤ 𝑛𝐸 [|𝑒 𝑖𝑛 − 1 − 𝑖 𝑋|]
𝑛

𝑡 2 𝑋2 2𝑡|𝑋|
≤ 𝐸[𝑛 min ( 2 , )]
2𝑛 𝑛
On observe alors que
𝑡 2 𝑋2 2𝑡|𝑋|
𝑛 𝑚𝑖𝑛 ( 2 , ) ≤ 2𝑡|𝑋| 𝜖 𝐿1 𝑒𝑡
2𝑛 𝑛
𝑡 2 𝑋2 2𝑡|𝑋| 𝑡 2 𝑋2
𝑛 𝑚𝑖𝑛 ( 2 , )≤ → 0
2𝑛 𝑛 2𝑛2 +∞
Par le théorème de convergence dominée il vient
𝑡
lim 𝑛 |𝜑𝑋 ( ) − 1| = 0 i.e lim 𝜑𝑆𝑛 (𝑡) ⟶ 1 = 𝜑𝐸(𝑋)(𝑡)
𝑛⟶+∞ 𝑛 𝑛⟶+∞ 𝑛

Conclusion : 𝑺𝒏𝒏 → 𝒎 = 𝟎 𝒆𝒏 𝒍𝒐𝒊


+∞

𝑺𝒏
ii) Déduisons que 𝒄𝒐𝒏𝒗𝒆𝒓𝒈𝒆 é𝒈𝒂𝒍𝒂𝒎𝒆𝒏𝒕 en probabilité
𝒏
vers m.

19
𝑆𝑛
Posons ∀ 𝑛 ≥ 1, 𝑍𝑛 =
𝑛

Soient (𝐹𝑛 )𝑛≥1 les fonctions de répartitions respectives de 𝑍𝑛


𝑆𝑛
Comme 𝑍𝑛 = converge en loi vers m, qui est presque sûrement une
𝑛
constante, alors
1 𝑠𝑖 𝑧 > 𝑚
𝐹𝑛 (𝑧) 𝑐𝑜𝑛𝑣𝑒𝑟𝑔𝑒 𝑣𝑒𝑟𝑠 𝐹 (𝑧) = {
0 𝑠𝑖 𝑧 < 𝑚
Soit 𝜀 > 0 tel que 𝜀 ≠ 𝑚 on a
𝑆𝑛
𝑃 (| − 𝑚| ≥ 𝜀) = 𝑃(|𝑍𝑛 − 𝑚|) ≥ 𝜀
𝑛
= 1 − 𝑃 (|𝑍𝑛 − 𝑚|) < 𝜀
= 1 − 𝑃 (𝑚 − 𝜀 < 𝑍𝑛 < 𝑚 + 𝜀)
= 1 − 𝐹𝑛 (𝑚 + 𝜀) + 𝐹𝑛 (𝑚 − 𝜀)
Comme
1 𝑠𝑖 𝑧 > 𝑚
𝐹𝑛 (𝑧) 𝑐𝑜𝑛𝑣𝑒𝑟𝑔𝑒 𝑣𝑒𝑟𝑠 𝐹 (𝑧) = {
0 𝑠𝑖 𝑧 < 𝑚

Alors
𝑆𝑛
lim 𝑃 (| − 𝑚| ≥ 𝜀) = lim (1 − 𝐹𝑛 (𝑚 + 𝜀) + 𝐹𝑛 (𝑚 − 𝜀)) = 1 − 1 = 0
𝑛⟶+∞ 𝑛 𝑛⟶+∞

𝑚−𝜀 < 𝑚
Car {
𝑚+𝜀 > 𝑚
𝑺𝒏
Conclusion : Déduisons que 𝒄𝒐𝒏𝒗𝒆𝒓𝒈𝒆 é𝒈𝒂𝒍𝒂𝒎𝒆𝒏𝒕 en probabilité
𝒏
vers m.

3. On suppose que 𝑬[𝒆𝒕|𝑿|] est fini pour tout 𝒕 ≥ 𝟎


a) Soit 𝜀 > 0. Montrer que, pour tout t ≥ 0,
𝑆𝑛
𝑃( ≥ 𝜀) ≤ 𝑒 −𝜀𝑛𝑡 𝐸 [𝑒 𝑡𝑋 ]𝑛
𝑛
Soit 𝜀 > 0 et t ≥ 0,
𝑆𝑛
𝑃( ≥ 𝜀) = 𝑃 (𝑆𝑛 ≥ 𝜀𝑛) = 𝑃(𝑒 𝑡𝑆𝑛 ≥ 𝑒 𝑡𝜀𝑛 )
𝑛
20
Par variance stricte de l’exponentielle, on obtient donc
𝑆𝑛
𝑃( ≥ 𝜀) ≤ 𝑃 (𝑒 𝑡𝑆𝑛−𝑡𝜀𝑛 ≥ 1)
𝑛

par inégalité de Markov On obtient finalement


𝑆𝑛
𝑃( ≥ 𝜀) ≤ 𝐸[𝑒 𝑡𝑆𝑛 −𝑡𝜀𝑛 ]
𝑛

D’où le résultat :
𝑆𝑛
𝑃( ≥ 𝜀) ≤ 𝑒 −𝜀𝑛𝑡 𝐸[𝑒 𝑡𝑆𝑛 ]
𝑛
Expression de 𝐸 [𝑒 𝑡𝑆𝑛 ]
Soit n≥1 un entier fixé et 𝜀 > 0. Comme les 𝑋𝑖 sont des v.a i.i.d on a :
𝐸 [𝑒 𝑡𝑆𝑛 ] = 𝐸[𝑒 𝑡(𝑋1 +𝑋2 +⋯+𝑋𝑛)] = 𝐸[ ∏𝑛𝑖 𝑒 𝑡𝑋𝑖 ]
= ∏𝑛𝑖 𝐸[𝑒 𝑡𝑋𝑖 ]
= 𝐸 [𝑒 𝑡𝑋 ]𝑛
Ainsi en remplacant 𝐸 [𝑒 𝑡𝑆𝑛 ] dans l’inegalité precedente on obtient :
𝑆𝑛
𝑃( ≥ 𝜀) ≤ 𝑒 −𝜀𝑛𝑡 𝐸 [𝑒 𝑡𝑋 ]𝑛
𝑛

𝑆𝑛
b) Montrons que 𝜶 < 𝟏 𝒆𝒕 𝒒𝒖𝒆 𝑃 ( ≥ 𝜀) ≤ 𝛼 𝑛
𝑛

𝛼 = 𝑖𝑛𝑓𝑡≥0𝑒 −𝜀𝑡 𝐸 [𝑒 𝑡𝑋 ]
Posons 𝑔(𝑡) = 𝑒 −𝜀𝑛𝑡 𝐸 [𝑒 𝑡𝑋 ]
On g (0) = 1 et 𝑔′ (0) = −𝜀 + 𝐸 [𝑋] = −𝜀

𝑖𝑛𝑓𝑡≥0 𝑔(𝑡) < 1


Posons 𝛼 = 𝑖𝑛𝑓𝑡≥0 𝑔(𝑡)
𝑆𝑛
On a pour tout t≥ 0, 𝑃 ( ≥ 𝜀) ≤ 𝑔𝑛 (𝑡)
𝑛
en faisant tendre t vers l’infimum on obtient alors :
𝑆𝑛
𝑃( ≥ 𝜀) ≤ 𝛼 𝑛
𝑛

21
𝑆𝑛
c) Deduisons-en que ∑𝑛≥1 𝑃 ( ≥ 𝜀) ≤ +∞ et justifions que
𝑛
|𝑆𝑛 |
∑𝑛≥1 𝑃 ( ≥ 𝜀) ≤ +∞
𝑛

𝑆𝑛
𝛼 ≤ 1 donc ∑𝑛≥1 𝑃 ( ≥ 𝜀) ≤ +∞
𝑛
en appliquant la somme 𝑎𝑢 − 𝑋𝑖 au lieu des 𝑋𝑖 , on obtient alors
−𝑆𝑛
∑𝑛≥1 𝑃 ( ≥ 𝜀) ≤ +∞
𝑛
|𝑆𝑛 | 𝑆𝑛 −𝑆𝑛
or ∑𝑛≥1 𝑃 ( ≥ 𝜀) = ∑𝑛≥1 𝑃 ( ≥ 𝜀) + ∑𝑛≥1 𝑃 ( ≥ 𝜀)
𝑛 𝑛 𝑛
|𝑆𝑛 |
D’où ∑𝑛≥1 𝑃 ( ≥ 𝜀) ≤ +∞
𝑛

d) Conclusion

Pour conclure on applique le lemme de Borel-Cantelli.


𝑆
Il donne 𝑃(lim sup{ | 𝑛 | ≥ 𝜀} )
𝑛∞ 𝑛
𝑆𝑛
C’est-a-dire que lim = 0 en probabilité
𝑛∞ 𝑛

22

Vous aimerez peut-être aussi