Vous êtes sur la page 1sur 23

2019-2020

PROCESSUS STOCHASTIQUE SUJET 1

FAIT PAR LE GROUPE 2 :


1. Benie Bi Cédrick
2. Houessou Fabrice
3. Kamagaté Mohamed
4. Lohouess Meless Fulbert
5. Oraga Akapéa Franck
6. Yao Kouamé Noël
INGENIEURS STIC 2 A L’INSTITUT NATIONAL POLYTECHNIQUE HOUPHOUET BOIGNY

INP-HB

ENSEIGNANT
M. ALLA AHUI B.
ECOLE SUPERIEURE D’INDUSTRIE
EXERCICE I : Absence de mémoire et minimum de 2 lois exponentielles id.
On rappelle qu’une variable aléatoire de loi exponentielle E(λ) de paramètre λ
>0 est à valeurs dans [0; +1[ et admet pour densité
− λx
f λ ( x )= λ e−λx 1x ≥0 = λ e si x ≥ 0
{ 0 si x<0

1. Soit X une variable aléatoire de loi ε (λ) avec λ> ¿0. Calculons Ρ( X > t)
pour t≥ 0

Ρ ( Χ >t )=1−Ρ ( Χ ≤ t )

¿ 1−F Χ (t )
t
¿ 1− ∫ f Χ ( u ) du
−∞

t
¿ 1−∫ λ e−λu du
0

−λt
¿ 1−[−e +1]

Pour t ≥ 0 Ρ ( Χ >t )=e− λt

2. Montrons que X satisfait à la propriété d’absence de mémoire i.e


∀ t , s ≥0 on a Ρ ( Χ >t + s|Χ > s )=Ρ(Χ > t )

Ρ [( Χ > t+ s ) ∩ ( Χ > s )]
Ρ ( Χ >t+ s|Χ > s ) =
Ρ(Χ > s)

Ρ ( Χ >t +s)
¿
Ρ(Χ > s)

1−Ρ( Χ ≤ t+ s)
¿
1−Ρ( Χ ≤ s)

1−F X (t+ s)
¿
1−F X (s)

e−λ(t +s)
¿ −λs
e
Pour tout t, s ≥ 0
Ρ ( Χ >t+ s|Χ > s ) =e− λt

1
Justifier le terme « absence de mémoire » :

Ρ ( Χ >t+ s|Χ > s ) =e− λt

Cette probabilité ne dépend pas de s, on dit que la loi exponentielle n’a pas
de mémoire.

3. Montrons à partir de la propriété d’absence de mémoire que :


s

( )
f Y ( t+ s )=f ( t ) 1−∫ f Y (u ) du , t , s ≥0
0

D’après la question 1, on a :


f Y (t)
Ρ ( Y >t ) =e− λt ⇒ Ρ ( Y >t )=
λ
⇒ f Y ( t )=λ Ρ(Y > t)

⇒ f Y ( t +s )=λ Ρ(Y > t+ s) (i)


D’après la propriété d’absence de mémoire on a :
Ρ(Y >t+ s)
Ρ ( Y >t+ s|Y > s )= =Ρ(Y > t)
Ρ(Y > s)

⇒ Ρ ( Y >t + s )=Ρ ( Y >t ) . Ρ(Y > s) (ii)


En remplaçant (ii) dans (i), on obtient :
f Y ( t+ s )=λ Ρ ( Y >t ) . Ρ(Y > s)

¿ λ Ρ ( Y >t ) .[ 1−Ρ ( Y ≤ s ) ]
s

(
¿ λ e− λt 1−∫ f Y ( u ) du
0
)
D’où le résultat :
s

(
f Y ( t+ s )=f (t) 1−∫ f Y ( u ) du
0
)
2
Déduire que f Y vérifie l’équation f ' Y ( t )=−λ f Y (t)

On a :
f Y ( t )=λ e− λt

f 'Y ( t ) =−λ2 e−λt =− λ f Y (t)

Par conséquent f Y ( t ) vérifie bien l’équation f ' Y ( t )=−λ f Y (t).

4. Résoudre l’équation différentielle et conclure que Y suit une loi ε (λ)


avec λ> ¿0.

f 'Y ( t ) =−λ f Y (t )

f ' Y (t)
=−λ
f Y (t )

f Y (t)
ln
( )
f Y (0)
=− λt+cste

f Y ( t )=f Y ( 0 ) e− λt +cste

Au final nous avons :

f Y ( t )=λ e− λt + cste

On conclut donc que Y suit belle et bien une loi ε (λ).

5. Soient U et V deux variables aléatoires indépendantes qui vérifient la


probabilité d’absence de mémoire et on pose T= min (U, V).
Montrons que T vérifie aussi la propriété d’absence de mémoire.

3
Etant donné que les variables aléatoires U et V vérifient la propriété d’absence
de mémoire, cela voudrait dire qu’on a :

 ∀ t , s ≥0 on a Ρ ( U >t +s|U > s ) =Ρ (U >t)


 ∀ t , s ≥0 on a Ρ ( V >t+ s|V >s )=Ρ(V > t)

On sait que :
∀ t ≥ 0 Ρ (T >t )=Ρ(min(U ,V )>t)

Ρ(T >t)=Ρ( U >t , V >t)

Ρ ( T >t )=Ρ ( U >t ) . P(V >t ) car, U et V sont indépendantes


D’après la propriété d’absence de mémoire on a :
Ρ [ ( T >t+ s ) ∩ ( T >s ) ]
∀ t ≥ 0 Ρ ( T >t+ s|T > s ) =
Ρ(T >s)
Ρ (T >t + s)
¿
Ρ(T > s)

Ρ (min ⁡(U , V )> t+ s)


¿
Ρ(min ⁡(U ,V )> s)

Ρ ( U >t + s ) . P(V > t+ s)


¿
Ρ ( U > s ) . P(V > s)

Ρ (U >t+ s) Ρ (V >t+ s)
¿
Ρ(U > s)
* Ρ(V > s)

¿ Ρ ( U >t ) . P(V >t)

∀ t ≥ 0 Ρ ( T >t+ s|T > s ) =Ρ ( T >t )


On conclut donc que T
vérifie aussi bien que U et V la propriété d’absence de mémoire.

6. Soient X et Y deux variables aléatoires indépendantes, Z = min (X,


Y). Montrons que Z suit une loi exponentielle et donnons son
paramètre.

4
On a ∀ t ≥ 0 Ρ (Z ≤t )=Ρ(min( X ,Y )≤t )
Ρ ( Z ≤t )=1−Ρ (min( X , Y )>t)

Ρ ( Z ≤t )=1−[ Ρ ( X >t , Y >t ) ]

X et Y étant indépendantes, alors on a :

Ρ ( Z ≤t )=1−Ρ ¿

Ρ ( Z ≤t )=1−e−λ t . e−λ t
1 2

Ρ ( Z ≤t )=1−e−¿¿¿

Posons Γ =λ1 + λ 2
Ρ ( Z ≤t )=1−e−Γt =F Z (t )

On conclut donc que Z suit une loi exponentielle de paramètre Γ =λ1 + λ 2.

5
EXERCICE II :
Un joueur dispose d’un dé et d’une pièce. Le dé est équilibré et la pièce a
une probabilité p (0 < p < 1) de tomber sur pile. Le joueur lance d’abord le
d´e, puis lance la pièce autant de fois que le résultat du dé. Il compte enfin
le nombre de piles obtenu au cours des lancers. Les résultats sont indépendants.
On note q = 1- p. On note également D la variable aléatoire correspondant à la
valeur du dé et X celle correspondant au nombre de piles obtenus
à la fin du j.

1. Soient ( i , j ) ϵ {1 , … , 6 }2. Que vaut P(X=j|D=i) ?

La variable aléatoire Χ ↝ β (i , p). On obtient donc d’après la formule de


probabilité totale :
 Si j > i P(X= j | D = i) = 0
 Si j ≤ i Ρ ( Χ= j|D=i )=C i p q
j j i− j

2. Calculer P(X = 6) et P(X = 4).

On a : Ρ ( Χ=6 )=∑ Ρ ( Χ =6|D=i ) . Ρ(D=i)


i=1

Ρ ( Χ=6 )=Ρ ( Χ =6|D=6 ) . Ρ( D=6)

1
Ρ ( Χ=6 )= C 66 p 6
6
1
Ρ ( Χ=6 )= p6
6

6
6
Ρ ( Χ=4 )=∑ Ρ ( Χ=4|D=i ) . Ρ(D=i)
i=1

Ρ ( Χ=4 )=Ρ ( Χ=4|D=4 ) . Ρ ( D=4 ) + Ρ ( Χ =4| D=5 ) . Ρ ( D=5 ) + Ρ ( Χ=4|D=6 ) . Ρ(D=6)


1
Ρ ( Χ=4 )= [C 46 p4 q 2+C 45 p4 q 1+C 44 p4 q 0 ]
6
1
Ρ ( Χ=4 )= p4 ( 1+5 q+ 15 q2 )
6

q 1−q 6
3. Montrer que Ρ ( Χ=0 )= . (
6 1−q )
6

On a : Ρ ( Χ=0 )=∑ Ρ ( Χ =0|D=i ) . Ρ ( D=i)


i=1

Ρ ( Χ=0 )=Ρ ( Χ =0|D=1 ) . Ρ ( D=1 )+ Ρ ( Χ=0|D=2 ) . Ρ ( D=2 ) + Ρ ( Χ =0|D=3 ) . Ρ ( D=3 ) + Ρ ( Χ =0|D=4 ) . Ρ ( D

6
1 q
Ρ ( Χ=0 )= ∑ qi= ( 1+q+ …+q 5 )
6 i =1 6

Finalement on obtient :

q 1−q 6
Ρ ( Χ=0 )= (
6 1−q )
4. Sachant que l’on n’a obtenu aucun pile
au cours du jeu, quelle était la probabilité que le résultat du dé était
1? Evaluer cette quantité quand p = q = 1/2.

La probabilité désirée est celle de Ρ(D=1∨Χ =0).


En utilisant la formule de Bayes on a :
Ρ [ (D=1) ∩( Χ=0) ]
Ρ ( D=1|Χ =0 ) =
Ρ( Χ=0)

Or on sait que :
Ρ [ (D=1) ∩( Χ=0) ]
Ρ ( X=0|D=1 ) =
Ρ(D=1)

Donc on tire :

7
Ρ [ ( D=1)∩( Χ=0) ] =Ρ ( X =0|D=1 ) . Ρ(D=1)

Par conséquent on obtient :


Ρ ( X =0|D=1 ) . P( D=1)
Ρ ( D=1|Χ =0 ) =
Ρ ( Χ=0)

q
6
Ρ ( D=1|X =0 ) =
q 1−q 6
(
6 1−q )
Finalement on obtient :
1−q
Ρ ( D=1|X =0 ) =
1−q6

Dans le cas où p = q=1/2

1
2 32
Ρ ( D=1|X =0 ) = = ≈ 0.508
1 6
63
1− 6
2

8
EXERCICE III :
On tire n fois de suite et de manière indépendante un réel suivant la loi uniforme
sur [0; 1]. On note Xi le résultat du i ème tirage, Sn la somme des n tirages et
Mn=Sn/n.

1. Calculons l’espérance et la variance de Χ 1

La variable aléatoire Χ ↝ u [0 , 1] dont la fonction caractéristique est :

f X ( x )= 1 si x ϵ [0 , 1]
{ 0 ailleurs

+∞
E ( Χ 1 ) =∫ x . f X ( x ) dx
−∞

1
E ( Χ 1 ) =∫ x . dx
0

1
E ( Χ 1)=
2

+∞
E ( Χ )= ∫ x 2 . f X ( x ) dx
2
1
−∞

+∞
E ( Χ 21 )= ∫ x 2 . dx
−∞

1
E ( Χ 21 )=
3 9
2
V ( Χ 1 ) =E ( Χ 21 ) −( E ( Χ 1 ) )
2
1 1
V ( Χ 1 )= −
3 2 ()
1
V ( Χ1)=
12

2. A partir de combien de tirages, peut-on dire que la probabilité que


Mn soit comprise entre 0,4 et 0,6 est supérieure à 0,9 ?
On a :
n
Sn=∑ X i où X i ↝u[0 ,1]
i=1

Sn
M n=
n

On a : E( S n)=E ¿
n
E ( Sn ) =n . E ( X 1 )=
2

V (Sn )=V ¿
n
V ( S n ) =n .V ( X 1) =
12

10
1
M n−
2 1
D’après
1 (
↝ N ( 0 , 1 ) ⇒ √12 n M n −
2)↝ N (0 ,1) le théorème
central
n
√ 12 n
limite, pour

n n
suffisamment grand, la variable aléatoire Sn ↝ N ( 2 , 12 ) .

n n Sn 1 1 1 1
( ) ( )
On a Sn ↝ N 2 , 12 ⇒ n ↝ N 2 , 12 n ⇒ M n ↝ N ( 2 , 12 n )

1
Posons (
T n=√ 12 n M n−
2 )
On a donc :
P ( 0.4 ≤ M n ≤ 0.6 ) =P(0.4−0.5 ≤ M n−0.5 ≤ 0.6−0.5)

¿ P¿

¿ P ( T n ≤ 0.1 √12 n ) −P(T n ≤−0.1 √ 12 n)

¿ P ( T n ≤ 0.1 √12 n ) −¿

¿ 2 P ( T n ≤0.1 √ 12 n )−1

Comme P ( 0.4 ≤ M n ≤ 0.6 ) > 0.9

Alors ceci implique que : 2 P ( T n ≤ 0.1 √ 12 n )−1> 0.9


⇒ P ( T n ≤ 0.1 √12 n ) > 0.95

On a 0.975>0.95 alors 0.1 √ 12 n ≈ 1.96 soit √ 12 n=19.6


⇒ 12 n=384.16

⇒ n=32

On conclut donc que c’est à partir du 32e tirage que la probabilité que
Mn soit comprise entre 0.4 et 0.6 est supérieure à 0.9.

11
EXERCICE IV :
Soit a > 0. On considère
f : IR 2 ⟶ IR2 définie par :
2 2
−x +y
1 2
f ( x , y )= e + h ( x ) . h( y )

Avec h la fonction,
h ( t )=t . 1Ι t Ι ≤ a

1. Montrons que ∀ a>0 ( a suffisamment petit ) f est bien la densité d’un


vecteur aléatoire (X, Y)
Soit x, y éléments de IR.
 Si x<0 et y<0 et comme h(t)= t ∀ t ≤ a alors h(x).h(y)>0
 Si x>0 et y>0 alors h(x).h(y)>0
Par suite h(x).h(y)>0 ∀ ( x , y ) ϵ [ −a , a ] x [−a , a ] (i)
2 2
−x + y
1 2
De plus la fonction ( x , y ) ↦ 2 π e est positive pour tout x, y éléments de IR.

Alors pour tout x, y élément de IR, f(x, y)>0 et est continue car somme de deux
fonctions continues.
2 2
−x +y

∫ f ( x , y ) dx dy =∫ 21π e 2
dx dy +∫ h ( x ) . h ( y ) dx dy

IR 2 IR 2 IR 2

12
2 2
❑ −x +y
1 2
¿ ∫e dx dy + (∫ h ( x ) dx )(∫ h ( y ) dy )
2 π IR 2

Par application du théorème de Tonnelli, comme la fonction x ↦ x est impaire


alors :

∫ h(x) dx=∫ xdx=0 et∫ h ( y ) dy=0

2 2
−x +y
Donc ∫ f ( x , y ) dx dy =∫ 1 e 2
dx dy

2 2
−x −y
1 1
¿
√2 π(∫e 2
)(
dx
√2 π
∫e 2
dy )
2 2
−x −y
1 1
Or ( √2 π
∫e 2
dx = )(
√2 π
∫e 2
dy =1)
Par conséquent on trouve bien
∫ f ( x , y ) dxdy=1

On peut donc conclure que f est la densité d’un vecteur aléatoire (X, Y).

2. Calcul des lois marginales


2 2
+∞ +∞ −x +y +∞
1 2
f X ( x )=∫ f ( x , y ) dy= ∫e dy + ∫ h ( x ) . h ( y ) dy
−∞ 2 π −∞ −∞

2 2
− x +∞ −y a
1 2 2
¿ e ∫e dy +h ( x ) . ∫ h ( y ) dy
2π −∞ −a

2 2
−x a +∞ −y
¿
√2 π e 2
car ∫ h ( y ) dy=0 et ∫ e 2
dy =√2 π
2π −a −∞

Conclusion, nous obtenons


2
−x
1 2
f X ( x )= e
√2 π
13
2 2
+∞ +∞ −x + y +∞
1 2
f Y ( y )= ∫ f ( x , y ) dx= ∫e dx+ ∫ h ( x ) .h ( y ) dx
−∞ 2 π −∞ −∞

2 2
− y +∞ −x a
1 2 2
¿ e ∫e dx +h ( y ) . ∫ h ( x ) dx
2π −∞ −a

2 2
−y a +∞ −x
¿
√2 π e 2
car ∫ h ( x ) dx=0 et ∫ e 2
dy=√ 2 π
2π −a −∞

Conclusion, nous obtenons

2
−y
1 2
f Y ( y )= e
√2 π

3. Le vecteur (X, Y) est-il un vecteur Gaussien ? justifier


Le vecteur (X, Y) est un vecteur Gaussien de loi N 2 ( o , I ) avec o le vecteur nul
de IR x IR et la matrice identité d’ordre 2, car les variables aléatoires X et Y
sont gaussiennes mais pas indépendantes ( f ( x , y ) ≠ f X ( x ) . f Y ( y )¿.

4. Calculons P( X ≥ 0 , Y ≥ 0)

+∞ + ∞
P ( X ≥0 ,Y ≥ 0 )=∫ ∫ f ( x , y ) dxdy
0 0

2 2
+∞ + ∞ −x +y a a
1 2
P ( X ≥0 ,Y ≥ 0 )=∫ ∫ e dx dy +∫ ∫ h ( x ) h ( y ) dxdy
0 0 2π 0 0

+∞ −x
2
2 a 2
1
¿ (∫ 0 √2 π
e 2
)(
dx + ∫ h ( x ) dx
0
)
2 2
+∞ −x +∞ −x
1 1
Remarquons que ∫ e 2
dx=2. ∫ e 2
dx=1
−∞ √2 π 0 √2 π

a 2
1 2
D’où P ( X ≥0 ,Y ≥ 0 )=
2
+ () (∫ 0
h ( x ) dx
)
14
a 2
1 1 2
P ( X ≥0 ,Y ≥ 0 )= +
4 2
x ([ ] ) 0

Finalement on obtient :
2
1 1 2
P ( X ≥0 ,Y ≥ 0 )= +
4 2
a ([ ])
1
P ( X ≥0 ,Y ≥ 0 )= ( 1+a 4 ) avec a>0
4

5. Calculer la covariance de X et Y en fonction de a

Cov ( X , Y )=E [ ( X−E ( X ) )( Y −E(Y )) ]


2
+∞ +∞ −x
1 2
E ( X ) =∫ x f X ( x ) dx= ∫ xe dx
−∞ −∞ √2 π
2
−x
E(X) = 0 car la fonction x ↦ x e 2 est impaire de même E(Y) = 0

Donc on a
Cov ( X , Y )=E [ XY ]
+ ∞ +∞
¿ ∫ ∫ xyf ( x , y ) dxdy
−∞ −∞

2 2
+ ∞ +∞ −x +y +∞ +∞
1 2
¿∫ ∫ xy e dx dy + ∫ ∫ xy h ( x ) h ( y ) dxdy
−∞ −∞ 2π −∞ −∞

2 2
+∞ −x +∞ −y +∞ +∞
1 1
¿ (∫
−∞
)( ∫
√2 π
xe 2
dx
−∞ √2 π
ye 2
) (∫
dy +
−∞
xh ( x ) dx )( ∫
−∞
yh ( y ) dy )
+∞ 2

¿
(∫ )
−∞
xh ( x ) dx

+∞ 2

¿
(∫ )
−∞
x 2 dx

a 2
1 3
¿ x([ ] )
3 −a

Finalement on obtient
15
4
Cov ( X , Y )= a6 avec a> 0
9

EXERCICE V :
Soient X et Y deux variables aléatoires indépendantes et de même loi
N (0;1).
X+ Y X−Y
On pose U= et V =
√2 √2
1. Montrons que le vecteur (U, V) est Gaussien et précisons sa loi.
Posons Γ =(U , V ),
 X et Y sont deux variables aléatoires normales.
 U et V sont des combinaisons linéaires de deux variables aléatoires
normales (X, et Y).
 D’après la propriété d’additivité : si X et Y sont deux variables
aléatoires suivant respectivement les lois N( μ1 , σ 1 ¿ et N( μ2 , σ 2 ¿ alors
X+Y est une variable aléatoire suivant la loi N( μ1 + μ1 , √σ 21+ σ 22 ¿
Donc U et V sont tous deux, deux variables aléatoires normales
 Γ est un vecteur dont les coordonnées U et V sont des variables
aléatoires normales. Par conséquent Γ =(U , V ) est un vecteur Gaussien.

Précisons la loi du vecteur Γ =(U , V ).


La loi du vecteur Γ =(U , V ) est donnée par le vecteur moyenne M Γ et la matrice
de variance V Γ.

M Γ = E(U )
(E (V ) )
E ( U )=E ( X√+Y2 )
1 1
E ( U )= . E ( X ) + . E ( Y )=0
√2 √2
1 1
De même on montre que E ( V )= . E ( X )− . E ( Y )=0
√2 √2

16
On obtient donc comme vecteur moyenne

MΓ= 0
0 ()
La matrice de variance est donc :

V Γ= (COVV (U(V ), U ) COV (U , V )


V (V ) )

1
V ( U )=V
[√ 2
( X +Y )
]
1 1
V ( U )= V ( X ) + V ( Y )+ Cov( X , Y )
2 2

X et Y étant indépendants alors Cov ( X , Y )=0 donc on obtient :


1 1
V ( U )= V ( X ) + V ( Y )=1
2 2

De même on montre que


1 1
V ( V )= V ( X ) + V (Y )=1
2 2

Calculons maintenant
Cov ( U , V )=Cov ( V , U )

Cov ( U , V )=Cov ( X√+Y2 , X−Y


√2 )
1
Cov ( U , V )= ( Cov ( X , X )−Cov ( Y , Y ) )
2

Cov ( U , V )=Cov ( V , U )=0

La matrice de variance est donc :

V Γ= (10 01)

17
1 2 2
2. Montrons que XY = 4 [ ( X +Y ) −( X −Y ) ]

1
4
[ ( X +Y )2− ( X−Y )2 ] = 14 {[ ( X +Y ) −( X−Y ) ][ ( X +Y )+ ( X−Y ) ] }
1 1
[ ( X +Y )2− ( X−Y )2 ] = ( 4 XY )
4 4

D’où le résultat :
1
XY =
4
[ ( X +Y )2−( X −Y )2 ]

3. Déduire
2 2
que les variables réelles 2XY et ( X −Y ) ont même loi.

Posons η=2 XY et δ =( X 2−Y 2 )


1
η= [ ( X +Y )2−( X−Y )2 ]
2

X +Y 2 X −Y 2
η= (
√2

√2) ( )
η=U 2−V 2
On remarque aisément que η=δ , par
conséquent les deux variables ont même loi.

EXERCICE VI :

1. On suppose que X est de carré intégrable

18
Sn 2
i) Montons que converge dans L vers m.
n

Comme X est de carré intégrable, alors ∀ n ≥1 , la suite ( X n) n ≥1est de carrée


intégrable i.e Var( X n ) est finie.
Alors il existe un réel positif tel que :
Var ( X n )=c
∀ n ≥1 ,
{E ( X n )=m

Sn= X 1 + X 2 +…+ X n

Sn S
E [ n ] ( )
−m2 =Var n
n
n
1
¿
n2
Var (∑ ) comme les
i=1
Xi X i sont indépendants alors on a :

n
1
¿ ∑ Var ( X i )
n2 i=1
Sn c c
E [ n
2
n ]
−m = ∨quand n ⟶+∞ ⟶0
n
Sn 2
Par conséquent, la suite converge dans L vers m.
n
Sn
ii) Déduisons que converge égalament en probabilité vers m.
n

Rappelons que la convergence dans L p implique la convergence en probabilité.


Alors d’après ce qui précède, comme la suite ( Sn )
n

n ≥1
converge dans L2 vers m

donc ( Sn )
n

n ≥1
converge également en probabilité vers m.

2. On suppose que X est simplement intégrable.


Sn
i) Montrons que converge en loi versm
n
n
Sn S'
=m+ n avec S 'n =∑ X ' i , on se ramène sans perte de
Posons X i =m+ X ' i puis
n n i=1
S →
généralité à m= 0. Nous allons par suite montrer que n +∞ m=0 dans L, on
n
l’établit à l’aide des fonctions caractéristiques.

19
Comme Xϵ L1 i.e intégrable, la fonction caractéristique φ X de X est dérivable et
on a φ X ( 0 )=1 , φ ' X =iE ( X ) . On a donc le développement limité de φ X suivant pour
tout t proche de 0.
φ X ( t ) =1+it E ( X ) + o(t)

Comme les variables aléatoires sont X n , n ≥ 1, sont iid, la fonction caractéristique


n
de Sn est φ S ( t ) =φ X =φ X (t) … φ X (t)=( φ X (t) )
n 1+… + X n 1 n

t n n
t t t
()(
Et donc φ S ( t )=φS n = φ X ( n ) = 1+ i n E ( X ) + o( n )
n
n n ) ( )
t
Il faut contrôler correctement le reste o ( n ). Pour cela, on va appliquer le
rappel(2) (Voir annexe) avec a i=φ X ( t ) et b i=1 on a alors
t
|( φ X ( t) )n−1n|≤ n φ X | () |n
−1

t
Pour montrer que ce majorant tend vers 0, on estime φ X n −1 avec la rappel(1) |() |
où p=1 et E(X)=0
t t

|() |
n φX
t
n
i
|[ i
t
−1 = n E e n −1 =n E e n −1−i X
n
]| |[ ]|
t

[|
≤ nE e n −1−i
i
t
n
X |]
t 2 X 2 2 t |X|
≤ E[n min ( 2 n2
,
n
] )
On observe alors que
t 2 X 2 2 t | X|
n min ( 2n 2
,
n )
≤2 t | X|ϵ L1 et

t 2 X2 2 t X t2 X2 →
| |
n min ( 2 n2
,
n

2 n2 )
+∞0

Par le théorème de convergence dominée il vient


t
lim n φ X
n ⟶+∞ | () | n
−1 =0 i.e n lim
⟶+∞
φ S ( t ) ⟶ 1=φE ( X ) (t)
n
n

Sn →
Conclusion : +∞ m=0 dans L
n

20
Sn
ii) Déduisons que converge égalament en probabilité vers m.
n
Sn
Posons ∀ n ≥1 , Z n =
n

Soient ( F n )n ≥1 les fonctions de répartitions respectives de Z n


Sn
Comme Z n= converge en loi vers m, qui est presque sûrement une
n
constante, alors

F n ( z ) converge vers F ( z )= 1 si z > m


{
0 si z< m

Soit ε > 0 tel que ε ≠ m on a


Sn
P (| | )
n
−m ≥ ε =P (|Z n−m|) ≥ ε

¿ 1−P (|Z n−m|) <ε

¿ 1−P ( m−ε < Zn < m+ ε )

¿ 1−F n ( m+ ε ) + Fn ( m−ε )

1 si z > m
Comme F n ( z ) converge vers F ( z )= 0 si z< m {
Alors
Sn
lim P
n ⟶+∞ (| | )
n
−m ≥ ε = lim ( 1−F n ( m+ε )+ F n ( m−ε )) =1−1=0
n ⟶+∞

{m−ε < m
Car m+ε >m

Sn
Conclusion : Déduisons que converge égalament en probabilité vers m.
n

3. On suppose que E [ e t|X|] est fini pour tout t ≥ 0


a) Soit ε > 0. Montrer que, pour tout t ≥ 0,

P ( Sn ≥ ε ) ≤e
n − ε nt
E [ etX ]
n

21
Soit ε > 0 et t ≥ 0,

P ( Sn ≥ ε )=P ( S ≥ ε n)=P ( e
n
n
t Sn
≥ et εn)

Par variance stricte de l’exponentielle, on obtient donc


tS
Sn E(e ) n

P ( )
n
≥ ε ≤ t εn
e
par Markov

On obtient finalement
Sn E ( e t S ) −tεn
n
n
P( )
n
≥ ε ≤ tεn =e . E [ et X ]
e
i

D’où le résultat :
Sn
P ( )
n
≥ ε ≤e− εnt E [ e tX ]
n

b) Montrons que α <1 et que P ( Sn ≥ ε ) ≤ α


n n

α =inf t ≥0 e−εt E [ e tX ]

Posons g ( t ) =e
−¿¿

22

Vous aimerez peut-être aussi