Vous êtes sur la page 1sur 83

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scienti…que

UNIVERSITÉ MOHAMED KHIDER, BISKRA


FACULTÉ des SCIENCES EXACTES et des SCIENCES de la NATURE et de la VIE
DÉPARTEMENT DE MATHÉMATIQUES

Polycopie en Mathématique
Option : Probabilités

Par
Dr. SAYAH Abdallah

Support de Cours :
La Théorie des Probabilités

2014/2015
Table des matières

Table des matières 2

Introduction 1

1 Espace de probabilités 3
1.0.1 Expérience aléatoire et évènements . . . . . . . . . . . . . . . . . . 3
1.0.2 Algèbre et -algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.0.3 Espace de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.0.4 Probabilité conditionnelle et indépendance . . . . . . . . . . . . . . 7

2 Variables aléatoires 14
2.0.5 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.0.6 Type de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 16
2.0.7 Caractéristiques d’une variable aléatoire . . . . . . . . . . . . . . . 20
2.0.8 Loi d’une fonction d’une variable aléatoire Y = (X) . . . . . . . . 31

3 Couple aléatoire 35
3.0.9 Fonction de répartition d’un couple . . . . . . . . . . . . . . . . . . 35
3.0.10 Loi de probabilité d’un couple aléatoire discrètes . . . . . . . . . . . 36
3.0.11 Loi de probabilité d’un couple aléatoire continue . . . . . . . . . . . 38

4 Lois de probabilités usuelles 52

2
Table des matières

4.0.12 Lois disrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


4.0.13 Lois absoluments continues . . . . . . . . . . . . . . . . . . . . . . . 59

5 Convergence des suites de variables aléatoires 70


5.0.14 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . 71
5.0.15 Convergence en moyenne d’ordre p . . . . . . . . . . . . . . . . . . 72
5.0.16 Convergence prèsque sûre ou convergence forte . . . . . . . . . . . . 73
5.0.17 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

Bibliographie 80

3
Introduction

Ce polycopie est un support du cours "Introduction aux probabilités" de quatrième année


DES Mathématiques (Diplôme des études supérieures en Mathématiques) depuis l’année
2000.
Pour la théorie des probabilités, on présente les deux résultats fondamentaux suivants : Les
lois faible et forte des grands nombres qui assure la convergence en probabilité et près que
sûre de la moyenne empirique des variables aléatoires vers la moyenne théorique quand le
nombre d’observations indépendantes augmente, et le théorème central limite (TCL) qui
précise la vitesse de cette convergence.
Un résumé de contenue du polycopie est le suivant :
Le premier chapitre est consacré à une introduction sur la théorie des probabilités où Il
aborde quelques notions de l’espace de probabilités et Il présente également les notions de
l’expérience aléatoire et la dé…nition des évènements, l’algèbre et la algèbre ainsi que les
probabilités conditionnelles et indépendance.
Le second chapitre est consacré à l’étude des variables aléatoires, ainsi que leurs types
(discrètes, continues) et leurs caractéristiques.par exemple les tendances centrales et les
paramètres de dispersion.
Dans le troisième chapitre nous étudions les couples aléatoires, sa fonction de distribution
ainsi que la loi de probabilité d’un couple discret ou continue.
Le quatrième chapitre est consacré à une large dé…nition et étude de lois de variables
aléatoires discrétes et continues

1
Introduction

Le dernier chapitre est consacré à une présentation de di¤érents modes de convergence de


suites de variables aléatoires, comme la convergence en probabilité, en loi, présque sûre,
en moyenne d’ordre p; et avec en particulier les lois faible et forte des grands nombres, le
théorème central limite.

2
Chapitre 1

Espace de probabilités

Historiquement, la théorie des probabilités s’est développé à partir du XVIIe siècle autour
des problèmes de jeux dans des situations où le nombre de cas possibles est …ni dont elle
fournit des modèles mathématiques permettant l’étude d’expériences dont le résultat ne
peut être prévu avec une totale certitude.

1.0.1 Expérience aléatoire et évènements

Expérience aléatoire

Toute expérience qu’on ne peut pas connaitre son résultat par avance lorsqu’on répète
l’expérience dans les mêmes conditions s’appelle expérience aléatoire.
Exemple 1 : Le jet d’un dé, ainsi que l’extraction d’une carte d’un jeu sont des expé-
riences aléatoires.

Espace des évènements

Dans une expérience aléatoire, une proposition relative au résultat de cette expérience
s’appelle un évènement par exemple dans le jet d’une pièce de monnaie on a deux résultats
possibles pile où face.
L’ensemble de tous les résultats possibles d’une expérience aléatoire s’appelle espace des

3
Chapitre 1. Espace de probabilités

évènements ou encore ensemble fondamental, et on le notera par .


Exemple 2 : Lorsqu’on jette un dé alors l’ensemble fondamental est = f1; 2; 3; 4; 5; 6g ; et
quand on jette 2 dés alors : = f(1; 2) ; (1; 3) :::etcg :
A tout évènement A; on l’associe son opposé noté A tel que la réalisation de A exclue
la réalisation de l’autre et réciproquement. L’évènement A représente dans la partie
complémentaire de A:

Evènement élémentaire et composé

Dé…nition 1 : Un évènement élémentaire est un sous ensemble de qui a un seul


élément, et un évènement composé est un ensemble d’éléments élémentaires.
Exemple 3 : Dans le jet d’un dé, f2g est un évènement élémentaire, avoir un chi¤re pair
est un évènement composé f2; 4; 6g

1.0.2 Algèbre et -algèbre

L’ensemble fondamental ou ensemble des résultats possibles d’une expérience aléatoire


soit il est :
1) Fini : contient un nombre …ni d’éléments
2) In…ni dénombrable
3) Continu (tout intervalle de R).
On dé…nie l’algèbre dans le cas …ni et la -algèbre dans les deux autres cas.
Dé…nition 2 : Soit A une classe de parties de ; on dit que A est une algèbre d’évène-
ments sur si elle véri…e

1) 2A
2) 8A 2 A =)A 2 A
3) 8A; B 2 A =)A [ B 2 A:
4) 8A; B 2 A =)A \ B 2 A:

4
Chapitre 1. Espace de probabilités

De cette dé…nition on peut déduire que :

1) 2 A:
\
2) 8Ai (i 2 I …ni) : Ai 2 A:
i2I
[
3) 8Ai (i 2 I …ni) : Ai 2 A:
i2I

On dé…nit également l’évènement certain qui est l’ensemble fondamental ; et l’évènement


impossible représenté par ?:
Exemple 4 : On cite quelques exemples d’algèbres :
- La famille f ; ?g est une algèbre (algèbre triviale).
- Soit un espace des évènements, et soit A un évènement, alors l’ensemble ; A; A; ? est
une algèbre sur appelée algèbre de Bernoulli.
- L’ensemble de parties de noté P ( ) est une algèbre sur :
Dé…nition 3 : On appelle -algèbre ou tribu sur un espace toute famille T qui véri…e :

1) 2T
2) 8A 2 T =) A 2 T
[
1
3) 8Ai 2 T =) Ai 2 T
i=1

On peut déduire de cette dé…nition qu’une -algèbre est une algèbre.


Exemple 5 : P ( ) est une -algèbre.

1.0.3 Espace de probabilités

Soit un espace d’évènements et T une tribu sur ; alors le couple ( ; T ) s’appelle espace
probabilisable.
Dé…nition 4 : Les évènements A; B sont dits incompatibles si la réalisation de l’un exclu
la réalisation de l’autre, autrement dit A \ B = ?
Dé…nition 5 : Soient les évènements non vides A1 ; A2 ; :::An ; alors on dit que ces évène-

5
Chapitre 1. Espace de probabilités

ments forment un système complet si

1) Ai \ Aj = ? 8i 6= j
[n
2) Ai = :
i=1

Dé…nition 6 : On appelle probabilité sur ( ; T ) une application P de T dans [0; 1] véri…ant

P ( ) = 1;

et pour tout ensemble dénombrable d’évènements incompatibles A1 ; A2 ; :::An ::: on a :

!
[
1 X
1
P Ai = P (Ai ) (axiome additivité):
i=1 i=1

Dans le cas où est …ni l’axiome est dit axiome d’additivité.


Dé…nition 7 : Soit ( ; T ) un espace probabilisable, alors si on dé…nit sur cet espace une
probabilité P; l’espace ( ; T ; P ) est dit espace de probabilité.
Propriétés : Soient ( ; T ; P ) un espace de probabilité et A; B 2 T alors on a :

1) P A = 1 P (A)
2) 1 = P A [ A = P A + P (A)
3) Si A B =) P (A) P (B) (inégalité de Boole)
4) P (A [ B) = P (A) + P (B) P (A \ B) :
Xn
5) 8A 2 T =) P (A) = P (A \ Bi ) ;
i=1

où B1 ; B2; :::; Bn est un système complet d’évènements.

6
Chapitre 1. Espace de probabilités

1.0.4 Probabilité conditionnelle et indépendance

Soit ( ; T ; P ) un espace de probabilité, on considére deux évènements A; B 2 T tel que


P (B) > 0:
Dé…nition 8 : On appelle probabilité conditionnelle de A sachant l’évènement B notée
P (A=B) ou PB (A) la quantité

P (A \ B)
P (A=B) = :
P (B)

On véri…e que PB (A) est une probabilité sur ( ; T )


1)
P ( \ B)
PB ( ) = = 1:
P (B)

2) On a P (A \ B) 0 et P (B) > 0 alors PB (A) 0; et on a de plus A \ B B ce qui


implique que P (A \ B) P (B) d’où PB (A) 1:
3) Si les les évènements Ai ; i 2 N sont incompatibles, donc les évènements Ai \ B les sont
aussi et on a :

!
[
1
! ! P (Ai \ B)
[
1 [
1
i=1
PB Ai = P Ai =B =
i=1 i=1
P (B)
X
1
P ((Ai \ B))
i=1
X
n
= = P (Ai =B) :
P (B) i=1

Conséquences : On déduit d’une manière analogue que


1)
P (A \ B)
P (B=A) = ;
P (A)

d’où

P (A \ B) = P (A=B) P (B) = P (B=A) P (A) :

7
Chapitre 1. Espace de probabilités

2) D’une façon générale si on a n évènements quelconques A1 ; A2 ; :::An ; alors

P (A1 \ A2 \ ::: \ An ) = P (A1 ) P (A2 =A1 ) P (A3 =A2 \ A1 ) :::P (An =A1 \ A2 \ ::: \ An 1 ) :

Exemple 6 : Dans un jeu de 32 cartes, on tire successivement 2 cartes. Quelle est la


probabilité d’avoir un as au second tirage sachant qu’on a obtenu un as au premier tirage.
Soient A et B les évènements : A avoir un as au premier tirage et B avoir un as au second
tirage, et on cherche P (B=A) :
4 1 4 3 3
On a P (A) = = et P (A \ B) = : alors P (B=A) = :
32 8 32 31 31

Formule des probabilités totales

Théorème 1 : Soient ( ; T ; P ) un espace de probabilité et A1 ; A2 :::; An un système com-


plet d’évènements de tel que 81 i n; P (Ai ) > 0; et soit A un évènement de T alors
on a :

X
n
P (A) = P (Ai ) P (A=Ai )
i=1

Preuve : On a

!
[
n [
n
A=A\ =A\ Ai = (A \ Ai ) :
i=1 i=1

Puisque les évènements A1 ; A2 :::; An sont incompatibles ce qui entraine que

!
[
n X
n
P (A) = P (A \ Ai ) = P (A \ Ai ) = P (Ai ) P (A=Ai ) :
i=1 i=1

Cette formule est appelée formule des probabilités totales.


Exemple 7 : Dans une usine quatre machines M1 ; M2 ; M3 ; M4 produisent respectivement
20%; 30%; 15% et 35% de pièces avec 3%; 2%; 4% et 5% de produits défectueux.

8
Chapitre 1. Espace de probabilités

Quelle est la probabilité qu’une pièce tirée au hasard soit défectueuse.


Soient les évènements Mi (la pièce tirée provient de la machine Mi (1 i 4)) est D (la
pièce est défectueuse) et on cherche P (D) : On a

[
4
D= (D \ Mi ) ;
i=1

d’où

P (D) = P (D=M1 ) P (M1 ) + P (D=M2 ) P (M2 ) + P (D=M3 ) P (M3 ) + P (D=M4 ) P (M4 )


= 0; 2 0; 03 + 0; 3 0; 02 + 0; 15 0; 04 + 0; 35 0; 05
= 0; 0355

Formule de Bayes

Soit ( ; T ; P ) un espace de probabilité, et on considére deux évènements A; B 2 T tel


que P (A) > 0 et P (B) > 0:
Comme

P (A \ B)
P (B=A) = ;
P (A)

alors on a

P (A \ B) P (B=A) P (A)
P (A=B) = = :
P (B) P (B)

La formule de Bayes est


P (B=A) P (A)
P (A=B) = :
P (B)

On remarque que

P (B) = P (A \ B) + P B \ A = P (B=A) P (A) + P B=A P A ;

9
Chapitre 1. Espace de probabilités

ainsi
P (B=A) P (A)
P (A=B) = :
P (B=A) P (A) + P B=A P A

Dans le cas général on énonce le théorème suivant


Théorème 2 : Soient A1 ; A2 :::; An un système complet d’évènements relatifs à un évène-
ment quelconque A qui s’est réalisé alors

P (Ai ) P (A=Ai )
P (Ai =A) =
P (A)
P (Ai ) P (A=Ai )
= n :
X
P (Ai ) P (A=Ai )
i=1

Preuve : On a :

[
n
A= (A \ Ai )
i=1

ce qui implique que !


[
n
P (A) = P (A \ Ai )
i=1
X
n
= P (A \ Ai ) ;
i=1

et d’aprés une conséquence de la probabilité conditionnelle on a

P (A \ Ai ) = P (A) P (Ai =A) = P (Ai ) P (A=Ai ) ;

d’où le résultat.
Ce théorème permet d’évaluer les probabilités des di¤érents évènements A1 ; A2 :::; An qui
peuvent causer la réalisation de l’évènement A:
Exemple 8 : Si on reprend l’exemple 7 en supposant que la pièce tirée est défectueuse,
alors la question qui se pose est de quelle machine provient -elle ?
On cherche par exemple P (M2 =D) :
D’aprés la formule de Bayes

10
Chapitre 1. Espace de probabilités

P (M2 ) P (D=M2 ) 0; 3 0; 02
P (M2 =D) = = = 0; 169
P (D) 0; 0355

Evènements indépendants

Dé…nition 9 : Soient A et B deux évènements d’un espace de probabilité ( ; T ; P ) tel


que P (A) > 0 et P (B) > 0; alors on dit que A est indépendant de B si

P (A=B) = P (A)
P (B=A) = P (B) :

On dit encore que A et B sont indépendants si et seulement si la probabilité de la réalisation


simultanée de ces événements est égale au produit de leurs probabilités individuelles

P (A \ B) = P (A) P (B)

Ce qui signi…e que la probabilité de la réalisation de l’évènement A n’est pas in‡uée par
la réalisation de B et inversement.
Exemple 9 : On lance une pièce de monnaie trois fois de suite, donc l’ensemle des résultats
possibles est = fppp; ppf; pf f; f f f; f f p; f pp; pf p; f pf g ; où f signi…e que le résultat du
lancer est face et p est pile.
Soint les évènements : A avoir face au premier jet, B avoir face deux fois de suite et C
avoir face au second jet.
Etudier l’indépendance de ces évenements.
On a :

A = ff f f; f f p; f pf; f ppg ; B = fpf f; f f f; f f pg et C = fpf f; f f f; f f p; pf pg ;

d’où

11
Chapitre 1. Espace de probabilités

P (A) = 1=2; P (B) = 3=8 et P (C) = 1=2;

et

P (A \ C) = 1=4 = P (A) P (C)


P (A \ B) = 1=4 6= P (A) P (B)
P (B \ C) = 3=8 6= P (B) P (C) :

Ce qui résulte que seulement les évènements A et C qui sont indépendants.


Théorème 3 : Soient A et B deux évènements d’un espace de probabilité ( ; T ; P ) tel
que P (A) et P (B) > 0; alors les propriétés suivantes sont équivalentes

1) Les évènements A et B sont indépendants.


2) Les évènements A et B sont indépendants:
3) Les évènements A et B sont indépendants.
4) Les évènements A et B sont indépendants.

Indépendance de plusieurs évènements

Dé…nition 10 : Soient Ai (1 i n) n évènements d’un espace de probabilité ( ; T ; P ) ; alors


on dit que les évènements sont totalement indépendants si

!
\
n Y
n
P Ai = P (Ai ) ;
i=1 i=1

et le nombre de relations à véri…er pour l’indépendance totale de n évènements est (2n n 1) :

Formule de Poincarré

Soient A; B et C trois évènements liés à une expérience aléatoire, alors la probabilité de


la réunion de deux et trois évènements sont respectivements

12
Chapitre 1. Espace de probabilités

P (A [ B) = P (A) + P (B) P (A \ B) ;

et

P (A [ B [ C) = P (A) + P (B) + P (C) P (A \ B)


P (A \ C) P (C \ B) + P (A \ B \ C) :

Généralisation à n évènements
Soient A1 ; A2 ; :::; An ; n évènements quelconques d’un espace de probabilité ( ; T ; P ) liés
à une expérience aléatoire, alors :

!
[
n X
n
P Ak = ( 1)k 1
Sk ;
k=1 k=1

X X X
Sk = ::: P (Aj1 \ Aj2 \ ::: \ Ajk ) :
1 j1 j2 ::: jk n

La quantité Sk est la somme des probabilités de toutes les intersections possibles de


n évènements.
On utilise la formule de Poincarré pour calculer la probabilité de la réalisation d’au moins
un évènement parmi les n:

13
Chapitre 2

Variables aléatoires

Considérons le lancer de deux dés, cette expérience nous donne l’ensemble des résultats
1
= f(1; 1) ; (1; 2) ; :::; (6; 6))g ; on remarque que 8! 2 on a P (!) = :
36
On s’intérèsse maintenant à la somme marquée par les deux dés, donc on a dé…ni une
1
application : S de vers l’ensemble E = f2; 3; :::; 12g ; par exemple P (S = 5) = :
9
1
En général on a : P (S = s) = P (S (s)) :
On remarque que cette somme dépend de valeurs aléatoires, donc il s’agit d’une variable
aléatoire.
Une variable aléatoire X est une application de ( ; T ; P ) dans (R; BR ) ; où BR est une
tribu ou la -algèbre engendrée par les intervalles de R:
Dé…nition 11 : Soient ( ; T ; P ) un espace de probabilité, une variable aléatoire reèlle X
est une application :

X : ( ; T ; P ) ! (R; BR ) ;

1
ceci signi…e que (8B 2 BR : X (B) 2 T ) ; et la variable X est appelée variable aléatoire
reèlle.
Soit l’ensemble Ax = f! 2 : X (!) xg ; alors X est une variable aléatoire réelle si et
seulement si Ax 2 T :

14
Chapitre 2. Variables aléatoires

Exemple 10 : Soit

X : ( ; T ; P ) ! (R; BR )
! ! X (!) ;

8
>
< 1 si ! 2 A
X (!) =
>
: 0 si ! 2 A:

Si

x < 0 =) Ax = ? 2 T ;

et si

0 x < 1 =) Ax = A 2 T ; et si x 1 =) Ax = A [ A 2 T ;

donc l’application est une variable aléatoire.

2.0.5 Fonction de répartition

Considérons l’application

P : R ! [0; 1]
x ! P (Ax )

P (Ax ) = P (! 2 ; X (!) x) ;

cette application est appelée fonction de répartition ou fonction de distribution de la


variable X et on la notera F (x) = P (X x) :

15
Chapitre 2. Variables aléatoires

Exemple 11 : Si on prend l’exemple 10 on a si

x < 0 =) Ax =) F (x) = P (X x) = P (?) = 0;

et si

0 x < 1 =) F (x) = P A = 1 p; où p = P (A) ;

en…n si

x 1 =) F (x) = P A [ A = P ( ) = 1:

Propriétés de la fonction de répartition


Soit X une variable aléatoire réelle et F (x) sa fonction de répartition alors :
0 0
1) Si x < x =) F (x) F x ; la fonction F est une fonction monotone croissante.
2) lim F (x) = F (b0 ) ; la fonction F est une fonction continue à gauche en tout point:
x!b0
3) lim F (x) = 0 et lim F (x) = 1:
x!1 x!1
1
4) On a : F (x) = P (] 1; x]) = P (X ] 1; x]) ; d’où P (a < x b) = F (b) F (a) :

2.0.6 Type de variables aléatoires

Variable discrète

Dé…nition 12 : Si la variable aléatoire X prend ses valeurs dans un ensemble …ni ou


in…ni dénombrable (son ensemble de dé…nition est inclus dans N),.on dit que X est une
variable aléatoire discrète.
Exemple 12 : Citons quelques exemples de variables aléatoires discrètes
1) Nombre de “pile”dans un lancer de 2 pièces : X (!) prend les valeurs de 0 à 2.
2) Nombre de lancers de deux dés avant d’obtenir la paire (5; 5) : X (!) prend les valeurs
de 0 à l’in…ni ;

16
Chapitre 2. Variables aléatoires

3) Nombre d’appels arrivants à un standard téléphonique en une minute : X (!) prend les
valeurs de 0 à 5 par exemple.
Pour ce type de variables on dé…nit en chaque point xi 2 I = fx0 ; x1 ; :::xk :::g la fonction
poids ou la fonction de masse par :

P (X = xi ) = P (xi ) 8xi 2 I;

véri…ant

X
0 P (xi ) 1 et P (xi ) = 1:
xi 2I

Variable aléatoire absolument continue

Dé…nition 13 : Une variable aléatoire est dite absolument continue ou continue si elle
peut prendre toutes les valeurs d’un intervalle de R.
Dans ce cas, il ne s’agira plus de calculer une probabilité d’une valeur donnée mais d’un
intervalle.
Exemple 13 : Citons quelques exemples de variables aléatoires continues
1) Temps d’attente pour prendre un avion :X (!) 2 [0; 20 min]
2) Moyenne de poids de 25 étudiants pris aléatoirement : X (!) 2 [a; b] :
Autre dé…nition d’une variable aléatoire absolument continue.
Dé…nition 14 : On dira qu’une variable aléatoire reélle est absolument continue s’il existe
une fonction positive f dé…nie pour tout reél x et toute partie B de R véri…ant :

17
Chapitre 2. Variables aléatoires

Z
1) P (X 2 B) = f (x) dx:
B
Z1
2) P (X 2 ] 1; 1[) = f (t) dt:
1
Zb
3) P (a X b) = f (t) dt:
a
Za
4) P (X = a) = f (t) dt = 0:
a

Fonction de répartition

Dé…nition 15 : La fonction de répartition d’une variable aléatoire discrète X est dé…nie


par :

X
F (x) = P (xi ) :
xi x

En paticulier pour x1 < x2 < ::: < xn on a :

8
>
> 0 si x < x1
>
>
>
>
>
>
>
> P (x1 ) si x1 x < x2
<
F (x) = P (x1 ) + P (x2 ) si x2 x < x3
>
>
>
>
>
> :
>
>
>
>
: 1 si x xn :

(Dans ce cas, F est une fonction en escaliers, continue à gauche, ayant pour limite 0 en
1 et 1 en +1).
Propriétés :
1) F est non décroissante.
2) F est continue à gauche.
3) 8x0 2 R; P (X = x0 ) = lim F (x) F (x0 ) :
x!x0

18
Chapitre 2. Variables aléatoires

4) P (a X < b) = F (b) F (a):


5) F est continue à droite dans le cas des variables aléatoires continues.
Dé…nition 16 : On appelle densité de probabilité f d’une variable aléatoire absolument
continue la dérivée de la fonction F tel que

Zx
0
f (x) = F (x) et F (x) = f (t) dt:
1

On peut déduire de la dé…nition 16 que :

P (a X b) = P (a < X < b) = F (b) F (a) ;

et la fonction F est dérivable et admet pour dérivée une fonction f appelée densité.
On remarque que la fonction densité f satisfait les deux conditions suivantes :

1) f (x) 0 8x 2 R:
Z
2) f (x) dx = 1:
R

Exemple 14 : Soit X la variable aléatoire absolument continue de fonction de répartition


F (x) dé…nie par :

8
>
>
>
> 0 si x<a
<
F (x) = x a
si a x < b
>
> b a
>
>
: 1 si x b:

La fonction F est continue sur R; et la fonction densité associée à cette fonction de répar-
tition est dé…nie par :

8
>
< 1
b a
si a < x < b
f (x) =
>
: 0 sinon.

On remarque que la fonction densité est discontinue en a et b:

19
Chapitre 2. Variables aléatoires

Remarque1 : La fonction densité peut être discontinue en certains points.

2.0.7 Caractéristiques d’une variable aléatoire

Tendance centrale

Quantile

Dé…nition 17 : On appelle quantile d’ordre (0 1) d’une variable aléatoire X de


fonction de répartition F (x) la ou les valeurs x tel que F (x ) = ; ce qui équivalent à
P (X x )= :
Remarque 2 : Si la variable aléatoire X est discrète, l’équation F (x ) = admet une
in…nité de solutions ou aucune, et si la variable aléatoire X est absolument continue et
si la fonction F (x) est strictement monotone alors les quantiles de tout ordre existent et
sont solutions de l’équation F (x ) = :
Exemple 15 : Soit X la variable aléatoire absolument continue de fonction répartition
F (x) dé…nie par :

8
>
< 1 exp ( x) si x > 0
F (x) =
>
: 0 sinon.

1
L’équation F (x ) = 0; 2 admet une solution x = F (0; 2) :
1 exp ( x ) = 0; 2 =) x = ln 0; 8:
Nous énonçons quelques quantiles particuliers.

Médiane

Dé…nition 18 : La médiane est la valeur de x pour laquelle F (x) = 1=2:


Zx Z1
Dans le cas continu la médiane est la valeur x véri…ant f (t) dt = f (t) dt = 1=2; et
1 x
dans le cas discrèt, la médiane n’existe pas toujours.

20
Chapitre 2. Variables aléatoires

La médiane divise la population en deux parties égales, c’est une caractéristique de ten-
dance centrale.

Les quartiles

Dé…nition 19 : Les quartiles notés Qi pour i = 1; 2; 3 correspondent au quantile d’ordre égal


à 1=4; 1=2; 3=4 respectivement.

Les déciles

Dé…nition 20 : Le k ime décile (k = 1 à 9) est le quantile d’ordre k=10.


En particulier, le 5ime décile correspond à la médiane.

Le Mode :

Dé…nition 21 : On appelle mode (valeur la plus probable)) d’une variable aléatoire X la


valeur xm tel que la fonction de masse ou la fonction densité soit maximale.
Parfois dans des distributions il y’a plusieurs modes, dans ce cas on dit que la distribution
est multimodale.

Espérance mathématique

L’espérance mathématique d’une variable aléatoire est une notion trés importante en pro-
babilité et statistiques, cette espérance ou moyenne est une valeur unique qui joue le rôle
de représentation de la moyenne des valeurs de X; pour cela elle est appelée souvent mesure
de tendance centrale.
Dé…nition 22 : Soit X une variable aléatoire, alors l’espérance ou la moyenne notée
E (X) ou est dé…nie par :

X
E (X) = xi P (X = xi ) ;
i

21
Chapitre 2. Variables aléatoires

si X est une variable aléatoire discrète de fonction de masse P (X = x) ; cette quantité


n’est dé…nie que si la série de terme général (xi P (X = xi )) converge, et

Z
E (X) = xf (x) dx;
R

si X est une variable aléatoire absolument continue de fonction densité f (x) ; et cette
Z
quantité n’existe que si xf (x) dx est absolument convergente.
R
E (X) est la moyenne arithmétique des di¤érentes valeurs de X pondérées par leurs pro-
babilités.
Remarque 3 : L’espérance mathématique n’existe pas toujours.
Exemple 16 : Soit X une variable aléatoire absolument continue de fonction densité
f (x) dé…nie par :

1
f (x) = ; x 2 R;
(1 + x2 )
Z1
alors E (X) = xf (x) dx qui est une intégrale divergente, donc l’espérance n’existe pas.
1
Propriétés de l’espérance mathématique
1)

!
X
n X
n
E i Xi = iE (Xi ) 8 i 2 R:
i=1 i=1

2) Si X est une variable aléatoire discrète.de fonction de masse P (X = x) ; alors :

X
E (g (X)) = g (xi ) P (X = xi ) ;
i

et si X est une variable aléatoire absolument continue de fonction densité f (x) ; alors :

22
Chapitre 2. Variables aléatoires

Z
E (g (X)) = g (t) f (t) dt:
R

3)

E (c) = c et E (aX + b) = aE (X) + b:

Paramètres de dispersion

Les moments

Les moments centrés

Dé…nition 23 : Les moments centrés d’ordre k d’une variable aléatoire X sont les mo-
ments centrés par rapport à E (X) ; appelés aussi moments centrés d’ordre k qui sont
dé…nis pour k 2 N par :

h i
k = E (X E (X))k :

Pour une variable aléatoire discrète de fonction de masse P (X = x) on a :

X
k = (xi E (x))k P (X = xi ) ;
i

et pour une variable aléatoire continue de fonction densité f (x) on a :

Z
k = (x E (x))k f (x) dx:
R

2
Par exemple on a 0 = 1; 1 = 0 et 2 = :

23
Chapitre 2. Variables aléatoires

Les moments non centrés

Dé…nition 24 : Les moments non centrés d’ordre k d’une variable aléatoire X sont dé…nis
par :

0
k = E Xk :

Pour une variable aléatoire discrète de fonction de masse P (X = x) on a :

0
X
k = xki P (X = xi ) ;
i

et pour une variable aléatoire continue de fonction densité f (x) on a :

Z
0
k = xk f (x) dx;
R

0 0 2
Par exemple on a 2 = 2 1 :

Moments factoriels

Dé…nition 25 : Les moments factoriels d’ordre k d’une variable aléatoire X sont dé…nis
par :

k = E (X (X 1) ::: (X k + 1)) :

0
Par exemple on a 1 = 1:

Variance et écart type

Une autre grandeur importante est la variance dont la dé…nition est :


2
Dé…nition 26 : On appelle variance d’une variable aléatoire X notée V ar (X) ou ; le
moment centré d’ordre 2 de X (s’il existe) la quantité dé…nie par :

24
Chapitre 2. Variables aléatoires

2
= V ar (X) = E (X E (X))2 ;

où s’appelle l’écart type.


La variance ou l’écart type est une mesure de la dispersion des valeurs de la variable
aléatoire autour de sa moyenne.
Remarque 4 : Si les valeurs de la variable aléatoire X tendent à se concentrer au voisinage
de la moyenne E (X) ; la variance de X est faible, par contre si les valeurs tendent à se
disperser plus loin de la moyenne, la variance est grande.
Propriétés de la variance
1)

V ar (c) = E (c E (c))2 = E (c c) = 0;

la variance d’une constante est nulle.


2)

2
= E (X E (X))2 = E X 2 E 2 (X) :

3)

V ar (aX + b) = a2 V ar (X) :

Caractéristique de la dispersion

Le coe¢ cient d’asymétrie (skewness)

Dans la plupart des cas, la distribution n’est pas symétrique par rapport à un maximum,
l’une de ses courbes s’étale à droite ou à gauche.
Dé…nition 27 : La mesure de cette dissymétrie est donnée par le coe¢ cient de la dissy-
métrie qui est dé…nie par :

25
Chapitre 2. Variables aléatoires

E (X E (X))3 3
1 = 3
= 3
:

Le coe¢ cient 1 est une quantité positive si la courbe est étalée à droite et négative dans
le cas contraire. Dans le cas d’une distribution symétrique 1 = 0:

Le coe¢ cient d’aplatissement (kurtosis)

Dans des cas, la distribution est réprésentée par un pic aigu, la majorité de ses valeurs
sont distribuées au voisinage de la moyenne, dans d’autres cas les distributions peuvent
être plates.
Dé…nition 28 : Le coe¢ cient d’aplatissement (kurtosis) de Pearson donne une évaluation
de l’importance du pic, il est dé…ni par :

E (X E (X))4 4
2 = 4
= 4
:

Exemple 17 : Par exemple calculons le coe¢ cient d’aplatissement de la loi normale.


Soit X ! N (0; 1) ; alors X 2 ! X12 (ces deux lois on va les voir par la suite)
On a :

1
+p
E X 2p = 2p 2
1
;
2

où (p) est la fonction gamma (voir dé…nition 50), et

5
4 4 2
= E (X E (X)) =4 1
= 3;
2

donc 2 = 3:
Pour une variable aléatoire suivant une loi N (0; 1), ce coe¢ cient d’aplatissement vaut
3. C’est pour cela qu’on normalise la valeur pour mesurer l’excès d’aplatissement pour
obtenir le coe¢ cient d’aplatissement de Fisher. Le coe¢ cient d’aplatissement de Fisher

26
Chapitre 2. Variables aléatoires

3 est la valeur obtenue par le calcul suivant :

4
3 = 4
3:

Fonctions génératrice des moments

Dé…nition 29 : Soit X une variable aléatoire, alors si E (exp (tX)) existe pour tout
t appartient à un intervalle ouvert ]t1 ; t2 [ contenant l’origine, alors la fonction

MX : ]t1 ; t2 [ ! R
t ! MX (t) = E (exp (tX)) ;

est appelée fonction génératrice des moments de la variable aléatoire X:


Si X est une variable aléatoire discrète de fonction de masse P (xi ), alors :

X
MX (t) = P (xi ) exp (txi ) ;
xi

et

Z
MX (t) = f (x) exp (tx) dx;

si X une variable aléatoire absolument continue de fonction densité f (x) :


Exemple18 :
On cite quelques exemples
1) Soit X une variable aléatoire discrète de fonction de masse :

8
>
< C x px (1 p)n x
n si x = 0; 1; :::; n
P (x) =
>
: 0 sinon,

n!
où Cnx = ; alors la fonction génératrice des moments est
x! (n x)!

27
Chapitre 2. Variables aléatoires

X
n X
n
MX (t) = exp (tx) P (x) = exp (tx) Cnx px (1 p)n x

x=0 x=0
X
n
= Cnx (p exp (t))x (1 p)n x
= (1 p + p exp (t))n
x=0

2) Soit X une variable aléatoire absolument continue de fonction densité f (x) dé…nie par :

!
2
1 x
f (x) = p exp p ; x 2 R;
2 2

alors la fonction génératrice des moments est

Z !
2
1 x
MX (t) = p exp (tx) exp p dt
2 2
R Z
1 2 2
= p exp ( 1=2 2 ) (x ( + t 2 )) ( + t 2) + 2
) dt
2
ZR
1 2 2
= p exp ( 1=2) (x ( + t 2 ) = ) exp ( 1=2 2 ) 2
( + t 2 ) ) dt
2
R
2 2 2 2 t2 2
= exp ( 1=2 ) ( + t ) ) = exp t+ ;
2

Z
1 2
car p exp ( 1=2) (x ( + t 2 ) = ) dt = 1:
2
R
Quelques théorèmes relatifs aux fonctions génératrices
Théorème 4 : Soit X une variable aléatoire de fonction génératrice des moments MX (t) où
t 2 ]t1 ; t2 [ avec t1 < 0 < t2 ; alors :
1 ) Tous les moments de X existent.
2) 8t 2 ] s; s[ tel que 0 < s < min ( t1 ; t2 ) la fonction MX (t) admet un developpement
en série entière

t2 tn
MX (t) = 1 + tE (X) + E X + ::: + E (X n ) + :::
2
2! n!

3) Pour tout entier positif k on a:

28
Chapitre 2. Variables aléatoires

(k)
E X k = MX (0) :

Théorème 5 : Si deux variables aléatoires X et Y admettent deux fonctions génératrices


des moments MX (t) et MY (t) respectivement avec MX (t) = MY (t) 8t 2 ]t1 ; t2 [ tel que
t1 < 0 < t2 ; alors : Les variables aléatoires X et Y sont de même loi de probabilité.
Exemple 19 : Soit X une variable aléatoire de fonction génératrice des moments MX (t) dé…nie
par :

MX (t) = (1 p + p exp (t))n ;

alors

0
MX (t) = np (1 p + p exp (t))n 1
exp (t) ;

d’où

0
E (X) = MX (0) = np:

00
MX (t) = n (n 1) p2 (1 p + p exp (t))n 2
exp (t) + np (1 p + p exp (t))n 1
exp (t) ;

d’où

00
E X 2 = MX (0) = n (n 1) p2 + np;

et en…n

V ar (X) = E X 2 E 2 (X) = np (1 p) :

29
Chapitre 2. Variables aléatoires

Fonction génératrice des moments factoriels

Dé…nition 30 : On appelle fonction génératrice des moments factoriels d’une variable


aléatoire discrète X à valeurs entières positives et de fonction de masse P (x) la quantité
notée mX (t) dé…nie pour t > 0 par:

X
mX (t) = E tX = tx P (X = x) :
x
X
La série tx P (X = x) converge dans le domaine t 1:
x

Fonction caractéristique

Dé…nition 31 : Soit X une variable aléatoire réelle, on appelle fonction caractéristique


de X la fonction de la variable réelle t notée 'X (t) dé…nie par :

Z
'X (t) = E (exp (itX)) = f (x) exp (itx) dx;
R

(avec i2 = 1) si X une variable aléatoire absolument continue de fonction densité f (x) ; et

X
'X (t) = E (exp (itX)) = P (xj ) exp (itxj ) ;
xj

si X est une variable aléatoire discrète de fonction de masse P (xj ) :


Exemple 20 : Soit X une variable aléatoire absolument continue de fonction densité
f (x) dé…nie par :

!
2
1 x
f (x) = p exp p ; x 2 R;
2 2

alors

2 2
t
'X (t) = exp i t :
2

30
Chapitre 2. Variables aléatoires

Remarque 4 : La fonction caractéristque existe pour tout t et elle est dé…nie pour toute
variable aléatoire X et on a si X est une variable absolument continue de fonction densité
f (x)

Z Z
j'X (t)j = exp (itx) f (x) dx f (x) dx = 1:
R R

Une raison d’introduire la fonction caractéristique est qu’elle existe toujours, qui n’est pas
le cas pour la fonction génératrice des moments.
On énonce maintenant quelques théorèmes importants consernants la fonction caractéris-
tique
Theorème 6 : Soient X une variable aléatoire et n 2 N tel que 8k n; E X k <
1; alors la fonction caractéristique 'X (t) de X est dérivable au moins jusqu’à l’ordre
n et on a :

'kX (0) = ik E X k :

Theorème 7 : Soient X et Y deux variables aléatoires ayant pour fonctions caracté-


ristiques 'X (t) et 'Y (t) respectivement alors les variables aléatoires X et Y suivent la
même loi de probabilité si et seulement si

'X (t) = 'Y (t) :

2.0.8 Loi d’une fonction d’une variable aléatoire Y = (X)


X
Soient X une variable aléatoire et une fonction dé…nie par ! R ! R:
On posant Y = (X) et on suppose que Y est une variable aléatoire

31
Chapitre 2. Variables aléatoires

Cas discrét

Théorème 8 : Soit X une variable aléatoire discrète de support SX et de fonction de


masse PX ; alors la variable aléatoire Y = (X) est discrète de support SY = (SX ) et
de fonction de masse

8 X
>
> P (X = x) si y 2 SY
<
PY (y) = x2f (x)=yg
>
>
: 0 sinon.

Exemple 21 : On jette un dé et on note X la variable qui indique le numéro de la face


du dé jeté. Trouver la fonction de masse de la variable aléatoire Y = X 2 :
Le support SX de la variable aléatoire X est SX = f1; 2; 3; 4; 5; 6g et

8
>
< 1=6 si x 2 SX
P (X = x) =
>
: 0 sinon.

La variable aléatoire Y = X 2 a pour support SY = f1; 4; 9; 16; 25; 36g et de fonction de


masse

8 X
>
> PY (1) = P (X = x) = 1=6
>
>
>
> x2fx2 =1g
>
>
>
>
>
> :
>
<
PY (y) = :
>
>
>
>
>
> :
>
>
>
> X
>
>
: PY (36) =
> P (X = x) = 1=6:
x2fx2 =36g

Cas continu

Théorème 9 : Soient X une variable aléatoire absolument continue de support SX et de


fonction de densité f (x) et une fonction de R dans R tel que :
0
8x 2 SX la fonction est dérivable avec (x) 6= 0 sauf pour un nombre …ni de points,

32
Chapitre 2. Variables aléatoires

et pour chaque y 2 R : 9 exactement m points x1 ; x2 ; :::; xm avec (m 1) tel que


(xi = y) ; alors :

8 m
> X
>
< f (xi )
0
(xi )
1
si m 6= 0
fY (y) = i=1
>
>
: 0 sinon.

Exemple 22 : Soit X une variable aléatoire absolument continue de fonction de densité


f (x) dé…nie par :

8
>
< exp ( x) si x > 0
f (x) =
>
: 0 sinon.

Posons Y = X 2 ; trouver la fonction densité de la variable Y:


La fonction y = (x) = x2 est une fonction continue monotone de support (SX ) =
1 p
]0; 1[ ; et elle admet une fonction inverse dé…nie par x = (y) = y; et on a de plus
0 1
( 1 (y)) = p ; d’où la fonction densité de Y est dé…nie par
2 y
8
>
< exp ( y) si y > 0
fY (y) =
>
: 0 sinon.

Exemple 23 : Soit X une variable aléatoire absolument continue de fonction densité


f (x) dé…nie par :

1 x2
f (x) = p exp ; x 2 R;
2 2

et soit la variable aléatoire Y = X 2 : Cherchons la fonction densité de la variable Y:


La fonction y = (x) = x2 est une fonction continue non monotone sur R, dérivable sur
0
R de dérivée (x) = 2x qui s’annule au point x = 0; et de plus la fonction y = (x) =
p p
x2 admet deux solutions x1 = y et x2 = y; ce qui entraine que

33
Chapitre 2. Variables aléatoires

8
> 1 1
< fX (x1 ) p + fX (x2 ) p si y > 0
fY (y) = 2 y 2 y
>
: 0 sinon
8
> 1 y 1 1 y 1
< p exp p + p exp p si y > 0
fY (y) = 2 2 2 y 2 2 2 y
>
: 0 sinon,

et en…n

8
> 1 y
< p exp si y > 0
fY (y) = 2 y 2
>
: 0 sinon.

34
Chapitre 3

Couple aléatoire

Dé…nition 32 : Soit ( ; T ; P ) un espace de probabilité, alors un couple aléatoire ou


vecteur aléatoire de dimension deux est une application : Z = (X; Y ) : ( ; T ) ! R2 ; tel
que 8z = (x; y) 2 R2 ; l’ensemble f! 2 ; Z (!) zg 2 T ; où Z (!) = (X (!) ; Y (!)) ; et
X (!) ; Y (!) sont des variables aléatoires sur ( ; T ) :

3.0.9 Fonction de répartition d’un couple

Dé…nition 33 : Soit (X; Y ) un couple de variables aléatoires. La fonction de répartition


F de (X; Y ) est une application de R2 ! [0; 1] dé…nie par :

F (x; y) = P (X x; Y y) :

Propriétés de la fonction de répartition :

1) 0 F (z) 1 8z 2 R2 :
2) lim F (z) = 0 si x ! 1 ou y ! 1 et lim F (x) = 1 si x ! 1 et y ! 1:

35
Chapitre 3. Couple aléatoire

3.0.10 Loi de probabilité d’un couple aléatoire discrètes

Fonction de masse jointe

Dé…nition 34 : Soient X et Y deux variables aléatoires discrètes, alors la fonction de


masse jointe de X et Y est dé…nie par :

P (X = x; Y = y) :

Exemple 24 : Une urne contient 4 boules blanches, 2 boules rouges et 4 boules noires.
On extraît de cette urne 3 boules sans remise.
On note X le nombre de boules blanches et Y le nombre de boules rouges qui sont parmi
les 3 boules tirées. Déterminer la fonction de masse jointe des variables aléatoires X; et Y:
L’ensemble des valeurs possibles pour Z = (X; Y ) est

f(0; 0) ; (0; 1) ; (0; 2) ; (1; 0) ; (1; 1) ; (1; 2) ; (2; 0) ; (2; 1) ; (3; 0)g :

Les résultats sont donnés comme suit

C4x1 C2x2 C43 x1 x2


P (x; y) = 3
:
C10

Par exemple P (x; y) = 1=30 si (x; y) 2 f(0; 0) ; (0; 2); (1; 2) ; (3; 0)g ; P (x; y) = 3=30 si
(x; y) 2 f(0; 1) ; (2; 1)g ; P (x; y) = 6=30 si (x; y) 2 f(1; 0) ; (2; 0)g et en…n P (x; y) =
8=30 si (x; y) 2 f(1; 1)g :

Fonction de répartition jointe

Dé…nition 35 : Soit (X; Y ) un couple de variables aléatoires.dicrètes, alors la fonction


de répartition jointe de (X; Y ) est dé…nie par :

36
Chapitre 3. Couple aléatoire

XX
F (x; y) = P (X = xi ; Y = yk )
xi x yk y

Fonction de masse marginale

Dé…nition 36 : Soit (X; Y ) un couple de variables aléatoires discrètes, et supposons que


X prend m valeurs x1 ; x2 ; :::; xm et Y prend n valeurs y1 ; y2 ; :::; yn ; alors la probabilité de
l’évènement X = xj ; Y = yk est

P (X = xj ; Y = yk ) = P (xj ; yk ) ;

et les fonctions de masse marginales de X et Y sont dé…nies respectivement par :

X
n X
m
P (X = xj ) = P (xj ; yk ) et P (Y = yk ) = P (xj ; yk ) :
k=1 j=1

Les variables X et Y sont appelées variables marginales du couple (X; Y ) et leurs fonctions
de masse, appelées fonction de masse marginale de X (resp. de Y ).
Xm X
n
Remarque4 : On remarque que P (X = xj ) = 1; P (Y = yk ) = 1; et
j=1 k=1
X
m X
n
P (xj ; yk ) = 1:
j=1 k=1

Fonction de répartition marginale

Dé…nition 37 : Les fonctions de répartitions marginales des variables aléatoires X et


Y sont dé…nies respectivement par :

FX (x) = P (X x) = P (X x; Y < 1)

et

FY (y) = P (Y y) = P (X < 1; Y y)

37
Chapitre 3. Couple aléatoire

3.0.11 Loi de probabilité d’un couple aléatoire continue

Fonction de répartition jointe

Dé…nition 38 : Soit (X; Y ) un couple aléatoire absolument continue, alors la fonction de


répartition jointe des variables aléatoires X et Y est dé…nie par :

Zx Zy
F (x; y) = P (X x; Y y) = f (x; y) dxdy;
1 1

où f (x; y) est la fonction densité jointe du couple (X; Y ) qu’on va dé…nir ci-dessous.

Fonction de densité jointe

Dé…nition 39 : Soit (X; Y ) un couple aléatoire absolument continue, de fonction de


répartition jointe F (x; y) alors la fonction densité jointe des variables aléatoires X et
Y est dé…nie par :

@ 2 F (x; y)
f (x; y) = ;
@x@y

et cette fonction véri…e les conditions suivantes

1) f (x; y) 0 8 (x; y) 2 R2
ZZ
2) f (x; y) dxdy = 1:
R2

Fonction densité marginale

Dé…nition 40 : Soit (X; Y ) un couple aléatoire absolument continue, de fonction densité


jointe f (x; y) ; alors les fonctions densités marginales de X et Y sont dé…nies respective-
ment par :

Z
fX (x) = f (x; y) dy;
R

38
Chapitre 3. Couple aléatoire

et

Z
fY (y) = f (x; y) dx:
R

Fonction de répartition marginale

Dé…nition 41 : Soit (X; Y ) un couple aléatoire absolument continue, de fonction densité


jointe f (x; y) ; alors les fonctions de répartitions marginales de X et Y sont dé…nies
respectivement par :

Zx Z
FX (x) = f (x; y) dxdy
1R

et

Z Zy
FY (y) = f (x; y) dxdy:
R 1

Variables aléatoires indépendantes

Dé…nition 42 : Soient X et Y deux variables aléatoires, si les évènements X = x; et


Y = y sont indépendantes pour tout x et y alors les variables aléatoires X et Y sont dites
indépendantes et on a :

P (X = x; Y = y) = P (X = x) :P (Y = y) ;

si les variables aléatoires X et Y sont discrétes et

f (x; y) = fX (x) :fY (y) ;

si les variables aléatoires X et Y sont absoluments continues.


De plus X et Y sont deux variables aléatoires indépendantes si

39
Chapitre 3. Couple aléatoire

P (X x; Y y) = P (X x) :P (Y y) ;

ou

F (x; y) = FX (x) :FY (y) :

Exemple 25 : Soit (X; Y ) un couple aléatoire absolument continue, de fonction densité


jointe f (x; y) dé…nie par

8
>
< exp 2
(x + y) si (x; y) 2 R+
f (x; y) =
>
: 0 sinon.

On a

Z Z
fX (x) = f (x; y) dy = exp (x + y) dy = exp ( x) pour x > 0;
R R

et

Z Z
fY (y) = f (x; y) dx = exp (x + y) dx = exp ( y) pour y > 0;
R R

donc 8 (x; y) 2 R2 ; f (x; y) = fX (x) : fY (y) ; et les variables aléatoires X et Y sont


indépendantes.
Théorème 10 : Si X; et Y sont deux variables aléatoires indépendantes de fonctions
génératrices de moments MX (t) et MY (t) respectivement alors

MX+Y (t) = MX (t) :MY (t) :

En général la fonction génératrice des moments de la somme de variables aléatoires in-


dépendantes est égale au produit des fonctions génératrices des moments de chacune des

40
Chapitre 3. Couple aléatoire

variables aléatoires indépendantes de la somme.


Théorème 11 : Soient X et Y deux variables aléatoires indépendantes de fonctions
caractéristiques 'X (t) et 'Y (t) respectivement alors :

'X+Y (t) = 'X (t) :'Y (t) :

En général la fonction caractéristique de la somme de variables aléatoires indépendantes


est égale au produit de leurs fonctions caractéristiques.

Changement de variables

Théorème 12 : Soient X et Y deux variables aléatoires absoluments continues de fonction


densité jointe f (x; y) et soient les variables aléatoires U = '1 (X; Y ) et V = '2 (X; Y ) où
X = 1 (U; V ) et Y = 2 (U; V ) alors la fonction densité jointe g (u; v) de U et V est
dé…nie par :
g (u; v) = f ( 1 (u; v) ; 2 (u; v)) : jJ (u; v)j

avec

@x=@u @x=@v
jJ (u; v)j = :
@y=du @y=@v

Exemple 26 : Soit (X; Y ) un couple aléatoire absolument continue, de fonction densité


jointe f (x; y) dé…nie par :

8
>
< exp 2
(x + y) si (x; y) 2 R+
f (x; y) =
>
: 0 sinon.

Posons U = X + Y et V = X Y:
Quelle est la fonction densité jointe des variables aléatoires U et V:
U +V U V
On a X = et Y = ; donc la fonction densité jointe g (u; v) des variables
2 2

41
Chapitre 3. Couple aléatoire

aléatoires U et V est

u+v u v
g (u; v) = f ; jJ (u; v)j = exp ( u) si jvj < u avec u > 0
2 2

Théorème 13 : Soient X et Y deux variables aléatoires absoluments continues de fonction


densité jointe f (x; y) et soient les variables aléatoires U = ' (X; Y ) et V = X ou Y; où
X = 1 (U; V ) et Y = 2 (U; V ) ; alors la fonction densité jointe g (u; v) de U et V est
dé…nie par :

g (u; v) = f ( 1 (u; v) ; 2 (u; v)) : jJ (u; v)j ;

et la fonction densité de la variable U est la fonction densité marginale de U dé…nie par :

Z
gU (u) = g (u; v) dv:
R

Exemple 27 : Soient X; et Y deux variables aléatoires absoluments continues de fonction


densité jointe f (x; y) et soit la variable aléatoire U = ' (X; Y ) = X:Y; quelle est la
fonction densité de la variable U:
Soit le couple (U; V ) = (XY; Y ) ; donc la fonction densité jointe g (u; v) des variables
aléatoires U et V est

1
g (u; v) = f (x; y) : jJ (u; v)j = f (u=v; v) : ;
v

d’où la fonction densité de la variable U est

Z Z
1
gU (u) = g (u; v) dv = f (u=v; v) : dv:
v
R R

Si les deux variables aléatoires X et Y sont indépendantes alors :

42
Chapitre 3. Couple aléatoire

Z
1
gU (u) = fX (u=v) :fY (v) : dv:
v
R

Exemple 28 : Soient X; et Y deux variables aléatoires absoluments continues de fonction


densité jointe f (x; y) et soit la variable aléatoire U = ' (X; Y ) = X + Y; alors la fonction
densité de la variable U est

Z
gU (u) = f (u v; v) dv:
R

Soient les variables aléatoires U et V tel que U = X + Y et V = Y; ce qui correspond à


1 1
x = u v et y = v; d’où J (u; v) = = 1; et la fonction densité jointe g (u; v) des
0 1
variables aléatoires U et V est

g (u; v) = f (x; y) = f (u v; v) ;

et la fonction densité de la variable U est

Z
gU (u) = f (u v; v) dv:
R

Si X; et Y sont deux variables aléatoires indépendantes alors la fonction de densité de la


variable U est

Z
gU (u) = fX (u v) :fY (v) dv = fX fY (formule de convolution):
R

D’aprés la formule de convolution on a

fX fY = fY fX ;

d’où

43
Chapitre 3. Couple aléatoire

Z Z
gU (u) = fX (u v) :fY (v) dv = fY (u v) :fX (v) dv:
R R

Exemple 29 : Soient X; et Y deux variables aléatoires indépendantes et absoluments


continues de fonction densité jointe f (x; y) = fX (x) :fY (y) avec

1
fX (x) = p exp x2 =2 ; x 2 R
2

et

1
fY (y) = p exp y 2 =2 ; y 2 R:
2

Trouver la fonction densité gU (u) de la variable U = X + Y:


La fonction densité gU (u) est

Z
1
gU (u) = exp (u v)2 =2 : exp ( v 2 =2) dv
2
R Z
1 u2 v2 v2
= exp + uv dv
2 2 2 2
R Z
1 u2 1
= exp exp (2v 2 2uv) dv
2 2 2
R
Z !
2
1 u2 1 p u
= exp exp 2v p dv:
2 4 2 2
R
Z
p u 1 1 2 dt
En posant t = 2v p on trouve que p exp t p = 1; et
2 2 2 2
R
Z
1 u2 1 2 dt
gU (u) = p exp exp t p
2 4 2 2
R
1 1 u2
= p exp ; u 2 R:
2 2 2

44
Chapitre 3. Couple aléatoire

Variance des distributions jointes et covariance

Dé…nition 43 : Soient X et Y deux variables aléatoires discrètes, de fonction de masse


jointe P (X = x; Y = y) ; alors les espérances et les variances des variables aléatoires X et
Y sont dé…nies respectivement par :

XX XX
E (X) = X = xP (x; y) ; E (Y ) = Y = yP (x; y) ;
x y x y

XX 2
XX 2
2 2
V ar (X) = X = (x X ) P (x; y) ; V ar (Y ) = Y = (y Y) P (x; y) ;
x y x y

et de plus on a :

XX
Cov (X; Y ) = XY = (x X ) (y Y)P (x; y) ;
x y

et si les variables aléatoires X et Y sont absoluments continues de fonction densité jointe


f (x; y) alors les espérances et les variances des variables aléatoires X et Y sont dé…nies
respectivement par :

Z Z Z Z
X = xf (x; y) dxdy; Y = yf (x; y) dxdy;

Z Z Z Z
2 2 2 2
X = (x X) f (x; y) dxdy; Y = (y Y) f (x; y) dxdy;

et de plus on a :

Z Z
Cov (X; Y ) = XY = (x X ) (y Y)f (x; y) dxdy = E ((X X ) : (Y Y )) :

Les théorèmes suivants ont une importance relative à la covariance.

45
Chapitre 3. Couple aléatoire

Théorème 14 : Soient X et Y deux variables aléatoires alors :

E (X + Y ) = E (X) + E (Y ) :

De plus si les variables aléatoires X et Y sont indépendantes alors :

E (XY ) = E (X) :E (Y ) :

Preuve
Supposons que les variables aléatoires X et Y sont discrètes, de fonction de masse jointe
P (x; y) alors on a :

XX
E (X + Y ) = (x + y) P (x; y)
x y
X X
= xP (x; y) + yP (x; y)
x y

= E (X) + E (Y ) :

et

XX XX
E (XY ) = xyP (x; y) = xyPX (x) PY (y)
x y ! x y
X X X
= x PX (x) yPY (y) = xPX (x) E (Y ) = E (X) E (Y ) :
x y x

Et si les variables aléatoires X et Y sont absoluments continues de fonction densité jointe


f (x; y) alors :

Z Z Z Z
E (XY ) = xyf (x; y) dxdy = xyfX (x) fY (y) dxdy
Z Z
= xfX (x) dx yfY (y) dy = E (X) E (Y ) :

Théorème 15 : Soient X et Y deux variables aléatoires alors :

46
Chapitre 3. Couple aléatoire

1) Cov (X; Y ) = E (XY ) E (X) :E (Y ) :


2) V ar (X Y) = V ar (X) + V (Y ) Cov (X; Y ) :
3) Cov 2 (X; Y ) V ar (X) V ar (Y ) :

Preuve de 3) : On a

8a 2 R : E (X aY )2 0;

d’où

a2 E Y 2 2aE (XY ) + E X 2 0 simplement si E 2 (XY ) E 2 (X) E 2 (Y ) 0:

Remplaçons X et Y par (x X) et (y Y) respectivement pour conclure:


Si les variables aléatoires X et Y sont indépendantes alors : Cov (X; Y ) = 0; et le contraire
n’est pas vrai. Par ailleurs, si les variables sont dépendantes par exemple X = Y; alors
Cov (X; Y ) = XY = X Y: Cela nous ramène à évaluer la dépendance des variables
XY
aléatoires X et Y; cette évaluation s’exprime par = ; qui est une grandeur sans
X Y
dimension appelée coe¢ cient de corrélation linéaire entre X et Y:
D’aprés le théorème précédent on remarque que 1 1:
Dans le cas où = 0 on dit que les variables X et Y sont non correlés, elles peuvent être
indépendantes ou non.

Distribution conditionnelle

Soient A et B deux évènements avec P (A) > 0: On a vu précédement que


P (A \ B)
P (B=A) = :
P (A)
Dé…nition 44 : Si X et Y sont deux variables aléatoires discrètes, et si nous avons les
évènements (A : X = x) ; (B : Y = y) ; alors P (B=A) devient

47
Chapitre 3. Couple aléatoire

P (X = x; Y = y)
P (B=A) = P (Y = y=X = x) = ;
PX (x)

cette fonction est appelée fonction de masse conditionnelle de Y sachant X:


De même la fonction densité conditionnelle de Y sachant X où X et Y sont des variables
aléatoires absolument continues est donnée par :

f (x; y)
f (y=x) = ;
fX (x)

où f (x; y) est la densité jointe de X et Y; et fX (x) est la densité marginale de X:

Espérance conditionnelle

Dé…nition 45 : Soient X; et Y deux variables aléatoires discrètes de fonction de masse


jointe P (x; y) ; alors on peut dé…nir l’espérance conditionnelle de Y = y sachant X = x
par :

X
E (Y =X = x) = yP (Y = y=X = x) :
y

Si X; et Y sont deux variables aléatoires continues de fonction densité jointe f (x; y) ;


l’espérance conditionnelle de Y sachant X s’exprime par :

Z
E (Y =X = x) = yf (y=x) dy;
R

où f (y=x) est la fonction densité conditionnelle de Y sachant X:


L’espérance conditionnelle de Y = y sachant X = x est l’espérance de Y prise par rapport
à sa loi conditionnelle.
Propriétés
Si X et Y sont deux variables aléatoires indépendantes alors :

48
Chapitre 3. Couple aléatoire

E (Y =X = x) = E (Y ) :

et

Z
E (Y ) = E (Y =X = x) fX (x) dx:

On remarque que E (Y =X = x) est une fonction de x qui est égale à une fonction (x)
que l’on appelle fonction de régréssion de Y en X:
La quantité E (Y =X = x) dépend des valeurs prises par X ce qui nous conduit à dé…nir
la variable aléatoire espérance conditionnelle qui prend pour valeur E (Y =X = x) avec les
probabilités P (X = x) ; alors

E (Y =X = x) = (X) :

Théorème de l’espérance totale


Théorème 16 : Soient X; et Y deux variables aléatoires de fonction de masse jointe
P (x; y) ; alors :

E ( (X)) = E (Y =X) = E (Y ) :

Preuve : Si X; et Y deux variables aléatoires de fonction de masse jointe P (x; y) ; alors :

X
E (E (Y =X = x)) = E (Y =X = x) P (X = x)
x !
X X
= yP (Y = y=X = x) P (X = x)
x y !
X X P (Y = y; X = x)
= y P (X = x)
y x
P (X = x)
X
= y (P (Y = y)) = E (Y ) ;
y

49
Chapitre 3. Couple aléatoire

et dans le cas où les variables X et Y sont absolument continues de fonction densité jointe
f (x; y) ; alors :

Z
E (E (Y =X = x)) = E (Y =X = x) fX (x) dx
R 0 1
Z Z
= @ yf (y=x) dy A fX (x) dx
R 0
R 1
Z Z
f (x; y)
= y@ fX (x) dxA dy
fX (x)
ZR R

= yfY (y) dy = E (y) :


R

Variance conditionnelle

De la même façon on peut dé…nir la variance conditionnelle de Y sachant X = x de la


manière suivante :
Dé…nition 46 : On appelle variance conditionnelle de Y sachant X = x notée V ar (Y =X = x) la
quantité

V ar (Y =X = x) = E (Y E (Y =X = x))2 =X = x :

Si X; et Y deux variables aléatoires discrètes de fonction de masse jointe P (x; y) ; la


variance conditionnelle de Y sachant X = x s’écrit

0 !!2 1
X X
V ar (Y =X = x) = @ Y yP (Y = y=X = x) =X = xA P (X = x) ;
x y

et si X; et Y sont deux variables aléatoires continues de fonction densité jointe f (x; y) ; alors

Z
V ar (Y =X = x) = (y E (Y =X))2 f (y=x) dy:
R

50
Chapitre 3. Couple aléatoire

La variance conditionnelle de Y sachant X = x est l’espérance conditionnelle du carré de


l’écart à l’espérance conditionnelle.
Comme pour l’espérance on dé…nit une variable aléatoire appelée variance conditionnelle
par V ar (Y =X) = x) = (X) :
Théorème de la variance totale
Théorème 17 : Soient X; et Y deux variables aléatoires alors on a :

V ar (Y ) = E (V ar (Y =X)) + V ar (E (Y =X)) :

51
Chapitre 4

Lois de probabilités usuelles

On va étudier dans ce chapitre des lois usuelles fréquement utilisées en pratique. On peut
partager ces lois en deux catégories, les lois discrètes et les lois continues.

4.0.12 Lois disrètes

Loi discrète uniforme

Dé…nition 47 : Soit X une variable aléatoire, on dit que X suit la loi discrète uniforme
si X prend les valeurs naturelles de 1 à n avec P (X = x) = 1=n 8x 2 f1; 2; :::; ng :
Caractéristiques

X
n
1X
n
n (n + 1) (n + 1)
E (X) = xP (X = x) = x= = :
x=1
n x=1
2n 2

1 X 2 n (n + 1) (2n + 1)
n
2 (n + 1) (2n + 1)
E X = x = = ;
n x=1 6n 6

d’où

n2 1
V ar (X) = E X 2 E 2 (X) = ;
12

et la fonction caractéristique est

52
Chapitre 4. Lois de probabilités usuelles

nt
exp 12 it (n + 1) sin 2
'X (t) = t
n sin 2

Loi de Bernoulli

Supposons qu’on va réaliser une expérience à deux résultats possibles, un résultat qui
s’appelle succés avec une probabilité p et l’autre s’appelle échec avec une probabilité
1 p; cette expérience s’appelle expérience de Bernoulli du nom du Jaques Bernoulli qui
les étudia vers la …n du dix-septième siècle.
Dé…nition 48 : Soit X une variable aléatoire qui ne prend que les deux valeurs 1 ou 0 avec
les probabilités p ou 1 p avec p 2 ]0; 1[ ; alors on dit que X suit la loi de Bernoulli de
paramètre p qu’on notera B (p) ; et la fonction de masse de la variable X est donnée par :

8
>
>
>
> p si x = 1
<
P (X = x) = 1 p si x = 0
>
>
>
>
: 0 sinon.

Caractéristiques

E (X) = p et V ar (X) = p (1 p)

et la fonction caractéristique est

'X (t) = (1 p) + p exp (it) :

Loi Binomiale

Dé…nition 49 : Considérons une expérience de Bernoulli de paramètre p qu’on répète


n fois de façon indépendante. Soit X la variable aléatoire qui compte le nombre de succès
parmi ces n expériences, alors on dira X suit la loi binomiale de paramètres n et p; et on
note X ! B (n; p) ; et la fonction de masse de X est dé…nie par :

53
Chapitre 4. Lois de probabilités usuelles

Cnx px (1 p)n x
si x = 0; 1; :::; n
P (X = x) =
0 sinon,

n!
où Cnx = :
x! (n x)!
Exemple 30 : On lance une pièce de monnaie 5 fois. Quelle est la probabilité d’obtenir
exactement 3 faces.
La probabilité d’obtenir exactement 3 faces est

5!
P (X = 3) = C53 (1=2)3 (1=2)2 = (1=2)5 = 3=8:
2!:3!

Caractéristiques de la loi binomiale


Soit X une variable aléatoire qui suit la loi B (n; p) alors :

E (X) = np; V ar (X) = np (1 p) ;

1 2p 1 6p (1 p)
1 =p ; 2 =3+ p ;
np (1 p) np (1 p)

et la fonction caractéristique

'X (t) = (1 p + p exp (it))n :

Théorème 18 : Si les variables aléatoires X1 et X2 sont indépendantes et suivent B (n1 ; p)


et B (n2 ; p) respectivement, la variable aléatoire X = X1 + X2 suit la loi B (n1 + n2 ; p) :

Loi multinomiale

Dans une expérience aléatoire, supposons que les évènements A1 ; A2 ; :::; Ak peuvent se
réaliser avec les probabilités p1 ; p2 ; :::; pk respectivement où p1 + p2 + ::: + pk = 1: Soient les
variables aléatoires X1 ; X2 ; :::; Xk qui représentent le nombre de fois que A1 ; A2 ; :::; Ak se

54
Chapitre 4. Lois de probabilités usuelles

réalisent sur n expériences de manière que X1 + X2 + ::: + Xk = n; alors la fonction jointe


des variables aléatoires X1 ; X2 ; :::; Xk est dé…nie par :

n!
P (X1 = n1 ; X2 = n2 ; :::; Xk = nk ) = pn1 1 pn2 2 :::pnk k ; où n1 + n2 + ::: + nk = n:
n1 !n2 !:::nk

Cette loi est une généralisation de la loi binômiale, et on a :

E (X1 ) = np1 ; E (X2 ) = np2 ; :::; E (Xk ) = npk

Loi hypergéométrique

Soit une population de N individus pour laquelle une proportion N p possède un certain
caractère, on extrait de cette population un échantillon de taille n d’une façon exaus-
tive (sans remise). Soit la variable aléatoire X qui représente le nombre d’individus de
l’échantillon possédant ce caractère.
Le nombre de cas possibles de tirer un échantillon de taille n parmi une population de
taille N est CNn ; et le nombre de cas favorables de l’évènement X = x est CNx p CNn (1x p) ; où
CNx p est le nombre de groupes de x individus possédant le caractère, et CNn (1x p) est le
nombre de groupes de n x individus ne le possède pas, d’où la fonction de masse de la
variable aléatoire X est

CNx p CNn (1x p)


P (X = x) = ; avec min X = max (0; n N (1 p)) et max X = min (n; N p) :
CNn

On dit que X suit la loi hypergéométrique de paramètres N , n; et p; et on notera


X ! H (N; n; p)
Exemple 31 : Une urne contient b boules blanches et r boules rouges, on extrait de cette
urne n boules. Soit la variable aléatoire X qui représente le nombre de boules blanches

55
Chapitre 4. Lois de probabilités usuelles

Cbx Crn x
parmi les n tirées, alors la fonction de masse de X est P (X = x) = n
:
C(b+r)
Caractéristiques de la loi hypergéométrique
Soit X une variable aléatoire qui suit la loi H (N; n; p) alors :

E (X) = np
np (1 p) (N n)
V ar (X) = :
N 1

On peut considérer que la variable aléatoire X est une somme de n variables aléatoires de
Bernoulli non indépendantes qui correspondent aux tirages successifs de n individus.
On a

E (X1 ) = P (X1 = 1) = p; et E (X2 ) = P (X2 = 1) :

Puisque les variables X1 et X2 sont dépendantes, donc

E (X2 ) = P (X2 = 1) = P (X2 = 1=X1 = 1) P (X1 = 1) + P (X2 = 1=X1 = 0) P (X1 = 0)


Np 1 Np
= p+ (1 p)
N 1 N 1
= p:

Alors

!
X
n
E (X) = E Xi = np
i=1

Pour la variance on a :

56
Chapitre 4. Lois de probabilités usuelles

!
X
n
V ar (X) = V ar Xi
i=1
X
n X
n X
n
= V ar (Xi ) + Cov (Xi ; Xj )
i=1 i=1 j=1
i6=j
X
n X n
= np (1 p) + Cov (Xi ; Xj ) :
i=1 j=1
i6=j

Calculons Cov (Xi ; Xj )

Cov (Xi ; Xj ) = E (Xi Xj ) p2 ;

et

Np 1
E (Xi Xj ) = P (Xi Xj = 1) = P (Xj = 1=Xi = 1) P (Xi = 1) = p:
N 1

On remarque que P (Xi Xj = 1) ne dépend pas des indices i et j; et puisque il y a


n (n 1) manières de prendre le couple (Xi ; Xj ) ; d’où

Np 1
V ar (X) = np (1 p) + n (n 1) p
N 1
np (1 p) (N n)
= :
N 1
Remarque 5 : Lorsque N ! 1 (ou N est trés grand devant n), la loi hypergéométrique
de paramètres N , n; et p est approximée par la loi B (n; p) :
n
En pratique on peut faire cette approximtion dés que < 10%:
N

Loi binomiale négative

Considérons une expérience de Bernoulli B (p) : On refait cette expérience de manière


indépendante jusqu à l’obtention du k ieme succés. Soit X la variable aléatoire qui représente
le nombre d’essais nécéssaires pour avoir le k ieme succés, alors l’évènement

57
Chapitre 4. Lois de probabilités usuelles

fX = xg = fFaire X expériences pour obtenir k succésg


= fAvoir (k 1) succés en (x 1) expériencesg
\ fAvoir le k ieme succés à la xime expérienceg ;

a comme fonction de masse

P (X = x) = Cxk 11 pk (1 p)x k
; où x = k; k + 1; :::

On dit que X suit la loi binômiale négative et on notera X ! BN (k; p) :


Caractéristiques de la loi binômiale négative
Soit X une variable aléatoire qui suit la loi BN (k; p) alors :

k k (1 p)
E (X) = ; V ar (X) = ;
p p2

et

p exp (it)
'X (t) = :
(1 (1 p) exp (it))k

Loi géométrique

Le cas particulier k = 1 pour la loi binômiale négative donne la loi géométrique.

Loi de Poisson

Soit X une variable aléatoire discrète, alors on dit que X suit la loi de Poisson de paramètre
> 0 (en référence au nom de S.D.Poisson qui l’a établi en 1838) si sa fonction de masse
est dé…nie par :
x
exp ( )
P (X = x) = ; x 2 N;
x!

et on notera X ! P ( ) :
Caractéristiques de la loi de Poisson

58
Chapitre 4. Lois de probabilités usuelles

Soit X une variable aléatoire qui suit la loi P ( ) ; alors :

E (X) = ; V ar (X) = ;

p
1 = 1= ; 2 = 3 + (1= ) :

et la fonction caractéristique est

'X (t) = exp ( (exp (it) 1))

La loi de Poisson régi dans les cas suivants par exemple :


- Le nombre d’appels téléphoniques reçus pendant un intervalle de temps.
- Le nombre de voitures passant par une route dans un intervalle de temps.
- Le nombre d’arrivées à une station dans un intervalle de temps.
Remarque 6 : Lorsque n ! 1, et p voisine de 0; la loi binômiale de paramètres n; et
p est approximée par la loi P (np) :
En pratique on peut faire cette approximtion dés que n > 50 et np < 5:

4.0.13 Lois absoluments continues

Loi Uniforme

Une variable aléatoire X est dite de distribution uniforme sur [a; b] si sa densité de pro-
babilité est dé…nie par :

8
>
< 1
si x 2 [a; b]
f (x) = b a
>
: 0 sinon,

et on note X ! U ([a; b])


Caractéristiques de la loi uniforme

59
Chapitre 4. Lois de probabilités usuelles

Soit X une variable aléatoire qui suit la loi U ([a; b]) alors

8
>
> 0 si x < a
>
>
<
x a
F (x) = P (X x) = si a x < b
>
> b a
>
>
: 1 si x b:

a+b
E (X) = ; V ar (X) = (b a)2 =12
2

et 8
> exp (itb) exp (ita)
< si t 6= 0
'X (t) = it (b a)
>
: 1 si t = 0:

Loi gamma

Commençons premièrement par la dé…nition de la fonction gamma


Dé…nition 50 : On appelle fonction gamma, l’intégrale reccurente dé…nie sur R+ par :

Z1
(p) = xp 1
exp ( x) dx; où p > 0:
0

Propriétés de la fonction gamma

1) (p + 1) = p (p) et (1) = 1:
2) (p + 1) = p! si p 2 N :
p
3) (1=2) = :
p
4) (p) (p= exp (1))p 2 p (1 + (1=12p)) quand p ! 1:

Soit X une variable aléatoire, alors on dit que X suit la loi gamma de paramètres
; p; ( > 0; p > 0) notée X ! ( ; p) si sa fonction densité est dé…nie par

8 p
>
< xp 1
exp ( x) si x 0
f (x) = (p)
>
: 0 sinon.

60
Chapitre 4. Lois de probabilités usuelles

La fonction f (x) est vraiment une fonction densité

Z1 Z1 p
f (x) dx = xp 1
exp ( x) dx
(p)
0 0
p Z1 p 1
t
= exp ( t) dt
(p)
0
Z1
1
= tp 1
exp ( t) dt = 1:
(p)
0

Propriétés de loi gamma


Soit X une variable aléatoire qui suit la loi ( ; p) ; alors :

E (X) = p= ; V ar (X) = p= 2 ;

et

p
'X (t) = :
it

Cas particulier : Si p = 1; la loi gamma ( ; p) est appelée la loi exponentielle de paramètre


notée E ( ) :
Théorème 19 : Si X et Y deux variables aléatoires indépendantes suivants respectivement
les lois ( ; p) et ( ; q) ; alors X + Y suit la loi ( ; p + q) :

Loi bêta

Pour la loi bêta on distingue deux types de loi bêta

Loi béta de type 1 C’est la loi d’une variable aléatoire X; avec 0 X 1; dépendant
de p; q; (p > 0; q > 0) dont la fonction densité est dé…nie par :

8
> 1
< xp 1
(1 x)q 1
si 0 x 1
f (x) = B (p; q)
>
: 0 sinon,

61
Chapitre 4. Lois de probabilités usuelles

où B (p; q) est la fonction bêta qui est dé…nie par :

Z1
(p) (q)
B (p; q) = = xp 1
(1 x)q 1
dx:
(p + q)
0

Si X suit la loi bêta de type 1 de paramètres p; et q; on note X ! B1 (p; q) :


Caractéristiques de loi bêta de type 1
Soit X une variable aléatoire qui suit la loi B1 (p; q) ; alors :

p pq
E (X) = ; V ar (X) = :
p+q (p + q + 1) (p + q)2

Loi bêta de type 2 Soit X une variable aléatoire suivant la loi bêta de type 1 de
X
paramètres p;et q; alors la variable aléatoire Y = 1 X
suit la loi bêta de type 2 dont la
fonction densité est dé…nie par :

8
> y 1 1 yp 1
< fX : = si 0 y<1
f (y) = y+1 (y + 1)2 B (p; q) (1 + y)p+q
>
: 0 sinon

Si Y suit la loi bêta de type 2 de paramètres p; et q; on note que Y ! B2 (p; q) :


Caractéristiques de loi bêta de type 2
Soit Y une variable aléatoire qui suit la loi B2 (p; q) ; alors

p p (p + q 1)
E (Y ) = pour q > 1; V ar (Y ) = pour q > 2:
q 1 (q 1)2 (q 2)

Loi normale ou loi de Laplace-gauss

Une des distributions continues les plus importantes dans la théorie de probabilité est la
distribution normale ou la distribution de Gauss.
Soit X une variable aléatoire absolument continue, alors on dit que X suit la loi normale
N (m; ) ou LG (m; ) si sa fonction densité est dé…nie pour x 2 R par :

62
Chapitre 4. Lois de probabilités usuelles

!
2
1 1 x m
f (x) = p exp ;
2 2

où m et sont respectivement, la moyenne et l’écart type. Dans ce cas on dit que X est
2
normalement distribuée de moyenne m et de variance :
Caractéristiques de la loi normale
Soit X une variable aléatoire qui suit la loi normale N (m; ) ; alors les fonctions de
distribution et caractéristique correspondantes sont

Zx
F (x) = P (X x) = f (t) dt;
1

et

!
2
t
'X (t) = exp imt p :
2

X m
Posons U = ; alors la moyenne et la variance de U sont 0 et 1 respectivement, et
la densité de probabilité de U est

1 1 2
f (u) = p exp u ;
2 2

et U sera appelée variable aléatoire normale centrée réduite, U ! N (0; 1) :


La fonction de distribution de U notée (u) est de la forme

Zu Zu
1 1 2 1 1 1 2
(u) = P (U u) = p exp t dt = + p exp t dt:
2 2 2 2 2
1 0

Exemple 32 : Soit U une variable aléatoire suivant la loi N (0; 1) ; alors


P( 1 U 1) = (1) ( 1) = 0; 6827; l’aire à l’intérieur des écarts types à la
moyenne égale à 68,27%.
Caractéristiques de la loi normale centrée réduite

63
Chapitre 4. Lois de probabilités usuelles

Soit U une variable aléatoire suivant la loi N (0; 1) ; alors

E (U ) = 0; V ar (U ) = 1;

1 = 0; 2 = 3;

et la fonction caractéristique

t2
'U (t) = exp ;
2

et si X est une variable suivant la loi normale N (m; ) ; alors

a m X m b m
P (a X b) = P
b m a m
= :

Approximation de la loi binômiale par la loi normale

Si n est grand , p et q ne sont pas voisines de zéro, alors la distribution binômiale peut
être une trés bonne approximation de la distribution normale de la variable réduite.
Si X ! B (n; p) ; alors on a :

! Zb
X np 1 1 2
lim P a p b =p exp t dt:
n!1 np (1 p) 2 2
a

X np
En d’autres termes, la variable aléatoire réduite p est asymptotiquement nor-
np (1 p)
male.
En pratique, on donne la condition np et n (1 p) > 5 pour utiliser cette approximation.

64
Chapitre 4. Lois de probabilités usuelles

Approximation de la loi de Poisson par la loi normale

Si X est une variable aléatoire de Poisson P ( ) alors la variable réduite correspondante


X
p véri…e le résultat suivant :

Zb
X 1 1 2
lim P a p b =p exp t dt:
!1 2 2
a

En d’autres termes, la distribution de Poisson tend vers la distribution normale quand


X
! 1; ou p est asymptotiquement normale.
En pratique on utilise cette approximation dés que > 18:

Loi de Cauchy

On dit que la variable aléatoire X suit la loi de cauchy si sa fonction densité est dé…nie
par :

c
f (x) = ; c > 0; 1 < x < 1:
(x2 + c2 )

On remarque que cette distribution n’admet pas de moyenne, de variance et de moments


d’ordres supérieurs.

Loi de khi-deux X 2

Soient X1 ; X2 ; :::; Xp ; p variables aléatoires indépendantes et normalement distribuées de


moyenne 0 et de variance 1:
p
X
On appelle loi de khi-deux à p degrés de liberté la loi de la variable aléatoire Xi2 :
1=1
Soit U une variable aléatoire qui suit la loi N (0; 1) ; alors la variable aléatoire Y = U 2 suit
la loi khi-deux à 1 degrés de liberté (X12 ) ; et la fonction densité de la variable aléatoire
Y est

65
Chapitre 4. Lois de probabilités usuelles

1 1=2
f (y) = p y exp ( t=2) :
2
p
Puisque (1=2) = ; ce qui entraine que la variable aléatoire Y =2 ! (1; 1=2) :
Théorème 20 : Soit X une variable aléatoire qui suit la loi (1; p=2) ; alors la variable
aléatoire 2X suit la loi Xp2 :
De ce théorème on peut montrer que la densité d’une variable aléatoire X qui suit la loi
khi-deux à p degrés de liberté Xp2 est dé…nie pour x > 0 par

1 p
1
f (x) = p x2 exp ( x=2)
2 2 (p=2)

Caractéristiques de la loi Xp2


Soit X une variable aléatoire qui suit la loi khi-deux à p degrés de liberté Xp2 ; alors

E (X) = p; V ar (X) = 2p;

et

1
'X (t) = :
(1 2it)p=2

Approximation de la loi Xp2 par la loi normale

Soit X une variable aléatoire qui suit Xp2 ; alors on a les approximations suivantes :
X p
La variable aléatoire p est asymptotiquement normale. En d’autres termes, la distri-
2p
bution de Xp2 tend vers la distribution normale quand p ! 1

Approximation de Ficher
p p
Si p ! 1, la variable aléatoire 2X 2p 1 est normalement distribuée de moyenne
0 et de variance 1:Cette approximation est appelée approximation de Fisher.

66
Chapitre 4. Lois de probabilités usuelles

Approximation de Wilson-Hilferty
r
X 2
1
p 9p
Si p ! 1, la variable aléatoire r ; est normalement distribuée de moyenne
2
9p
0 et de variance 1:
On peut établir que la meilleure approximation asymptotique est l’approximation de
Wilson-Hilferty suivie par l’approximation de Ficher.
En pratique on applique ces deux dernières approximations dés que p > 30:
Théorème 21 : Si X et Y deux variables aléatoires indépendantes suivants respectivement
les lois Xp2 et Xq2 alors X + Y suit la loi Xp+q
2
:

Loi de student

Soient U et X deux variables aléatoires indépendantes suivant les lois N (0; 1) et Xp2 respectivement,
U
alors la variable aléatoire T = p suit la loi de Student à p degrés de liberté dont la
X=p
densité de probabilité est dé…nie pour t 2 R par :

p+1 (p+1)=2
2 t2
f (t) = p 1+ :
p (p=2) p

Cas particulier, si p = 1 la loi de Student devient la loi de Cauchy


Caractéristiques de la loi Student à p degrés de liberté
Soit T une variable aléatoire qui suit la loi de Student à p degrés de liberté; alors :

p
E (T ) = 0 si p > 1; et V ar (X) = si p > 2:
p 2

Loi de Fisher-Snedecor

Soient X et Y deux variables aléatoires suivants Xp2 et Xq2 respectivement. On dé…nit la


X=p
variable aléatoire F = :
Y =q
Pour trouver la fonction densité de F on énonce le théorème suivant

67
Chapitre 4. Lois de probabilités usuelles

Théorème 22 : Soient X et Y deux variables aléatoires suivants (1; p) et (1; q) respectivement,


X
alors la variable aléatoire Z = suit la bêta de type 2 de paramètres p;et q; d’où la densité
Y
de Z est

1 zp 1
fZ (z) = :
B (p; q) (1 + z)p+q

Les variables aléatoires X et Y suivent les lois (1; p=2) et (1; q=2) respectivement, donc
p
la variable aléatoire Z peut s’écrire sous la forme Z = F; d0 où la densité de F est :
q
8 p
>
>
>
> p 2
>
> p
>
< 1 q 1
f2 si f 0
g (f ) = B (p; q) p
>
> 1+ f
>
> q
>
>
>
: 0 sinon,

et on dit que la varaible F suit la loi de Fisher à p et q degrés de liberté.


Caractéristiques de la loi de Fisher-Snedecor à p et q degrés de liberté
Soit F une variable aléatoire qui suit la loi de Fisher-Snedecor à p et q degrés de liberté,
alors

q 2q 2 (p + q 2)
E (F ) = (q > 2) ; V ar (F ) = (q > 4) :
q 2 p (q 2)2 (q 4)

Loi exponentielle

Soit X une variable aléatoire qui suit la loi ( ; p) ; alors si p = 1; on dit que X suit la
loi exponentielle de paramètre ( > 0) ; et on note X ! E ( ) :
Caractéristiques de la loi exponentielle
Soit X une variable aléatoire qui suit la loi E ( ) ; alors

E (X) = 1= ; V ar (X) = 1= 2 ;

68
Chapitre 4. Lois de probabilités usuelles

et

'X (t) = :
it

Loi de Weibull
(Y )1=b
Posons X = (a > 0; b > 0) : Si la variable aléatoire Y suit la loi E (1) ; alors la
a
variable aléatoire X suit la loi de Weibull de paramètres a et b et de fonction densité :

8
>
< abxb 1
exp axb si x > 0
f (x) =
>
: 0 sinon.

Caractéristiques de la loi de Weibull


Soit X une variable aléatoire qui suit la loi de Weibull alors :

1=b 2=b 2
E (X) = a (1 + (1=b)) ; V ar (X) = a (1 + (2=b)) (1 + (1=b)) :

Loi de Pareto

Une variable aléatoire absolument continue est dite suivre la loi de Pareto si sa fonction
densité est dé…nie pour x 1 et > 0 par :

( +1)
f (x) = x :

Caractéristiques de la loi de Pareto


Soit X une variable aléatoire qui suit la loi de Pareto, alors :

E (X) = ; V ar (X) = :
1 ( 1)2 ( 2)

L’espérance et la variance existent simplement si > 1; et > 2 respectivement.

69
Chapitre 5

Convergence des suites de variables


aléatoires

On va étudier dans ce chapitre le comportement asymptotique de suites de variables aléa-


toires, en énonçons quelques types de convergence de ces suites (convergence en probabilité,
convergence prèsque sûre, convergence en moyenne d’ordre p, convergence en loi) ainsi les
théorèmes limites (loi faible, loi forte des grands nombres).
On énonce deux inégalités qui sont trés importantes en théorie de probabilités surtout
dans les cas de convergence.
Inégalité de Markov
Soit X une variable aléatoire de moyenne …ni alors 8c > 1 on a :

P (X c) =c

Inégalité de Bienaymé Tchebyche¤ :


2
Soit X une variable aléatoire de moyenne et de variance …nies, alors on a pour tout
réel strictement positif " l’inégalité suivante :

2
P (jX j > ") ="2 :

70
Chapitre 5. Convergence des suites de variables aléatoires

5.0.14 Convergence en probabilité

Dé…nition 51 : Soit (Xn )n2N une suite de variables aléatoires dé…nies sur l’espace de
probabilité ( ; T ; P ) ; alors on dit que cette suite converge en probabilité vers la constante
a si

8" > 0 lim P (jXn aj < ") = 0;


n!1

et on dit que cette suite converge en probabilité vers la variable X si

8" > 0 lim P (jXn Xj < ") = 0;


n!1

ou
8" > 0 lim P (jXn Xj ") = 1;
n!1

P
et on notera Xn ! X:
On peut dé…nir la convergence en probabilité de la suite (Xn )n2N vers une variable aléa-
toire X comme la convergence en probabilité de la suite (Xn X)n2N vers 0:
P
Théorème 23 : Soit (Xn )n2N une suite de variables aléatoires, alors Xn ! X si et
seulement si

2
E (Xn ) ! X et = V ar (Xn ) ! 0:
n!1 n!1

P
Lorsque E (Xn ) ! X; alors pour prouver que Xn ! X; il su¢ t simplement de montrer
n!1

que V ar (Xn ) ! 0:
n!1

Remarque7 : On peut avoir la convergence en probabilité de la suite (Xn )n2N vers


X sans que E (Xn ) ! X et V ar (Xn ) ! 0:
n!1 n!1

71
Chapitre 5. Convergence des suites de variables aléatoires

Loi faible des grands nombres

La loi faible des grands nombres est un résultat trés important du l’inégalité de Bienaymé-
Tchebytchev
Théorème 24 : Soit (Xn )n2N une suite de variables aléatoires.indépendantes et identi-
quement distribuées (i-i-d) d’espérance et de variance 2 :
1X
n
Considérons la variable aléatoire Xn = Xi , qui est appelée la moyenne empirique de
n i=1
X1 ; X2 ; :::; Xn ; alors

P
Xn ! ;

Preuve

!
1X 1X
n n
E Xn = E Xi = E (Xi ) = ;
n i=1 n i=1

et

!
1X 1X
n n
2
V ar Xn = V ar Xi = 2 V ar (Xi ) = =n ! 0;
n i=1 n i=1 n!1

c’est à dire que quand n ! 1;

P Xn > " ! 0:

Ce théorème énonce que la probabilité pour que la moyenne empirique Xn s’écarte de sa


valeur espéreé de plus de "; tend vers zéro quand n tend vers l’in…ni.

5.0.15 Convergence en moyenne d’ordre p

Dé…nition 52 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) ; avec la condition que E (jXn Xjp ) existe, alors on dit que cette
suite converge en moyenne d’ordre p vers la variable aléatoire X si

72
Chapitre 5. Convergence des suites de variables aléatoires

E (jXn Xjp ) ! 0:
n!1

m:q
Pour p = 2 on dit qu’on a une convergence en moyenne quadratique et on note Xn ! X:
On énonce quelques théorèmes consernants la convergence en moyenne quadratique
Théorème 25 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) tel que tous les moments d’ordre deux existent. Une condition nécés-
saire et su¢ sante pour la convergence en moyenne quadratique de cette suite vers X est

E (Xn ) ! E (X)
n!1

E (Xn2 ) ! E (X 2 ) :
n!1

Théorème 26 : La convergence en moyenne quadratique entraine la convergence en pro-


babilité, et la réciproque est fausse.

5.0.16 Convergence prèsque sûre ou convergence forte

Dé…nition 53 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) ; alors on dit que (Xn )n2N converge prèsque sûrement vers X si

P ! 2 = lim Xn (!) 6= X (!) = 0;


n!1

ps
et on note Xn ! X:
En d’autres termes l’ensemble des points de divergence est de probabilités nulle.
Théorème 27 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) : Si on pose MN = sup jXn Xj ; alors une condition nécésaire et
n N
su¢ sante de la convergence prèsque sûre de la suite vers X est que

P
MN ! 0:

C’est à dire que

73
Chapitre 5. Convergence des suites de variables aléatoires

ps P
Xn ! X , MN ! 0:

Théorème 28 : La convergence prèsque sûre implique la convergence en probabilité, et la


réciproque est fausse.

Loi forte des grands nombres

On améliorant le résultat de la loi faible des grands nombres : on a en fait, sous cer-
taines hypothèses, la convergence presque sûre, et non pas seulement en probabilité, de la
moyenne empirique Xn vers la moyenne . La loi forte des grands nombres nous donne une
condition nécessaire et su¢ sante pour l’existence de la limite au sens de la convergence
presque sûre.
Théorème 29 : Soit (Xn )n2N une suite de variables aléatoires.indépendantes et identi-
quement distribuées (i-i-d) d’espérance et intégrables ( 8n 2 N : E (jXn j) < 1); alors :

ps
Xn ! = E (X1 )

5.0.17 Convergence en loi

Cette convergence est la plus faible, mais elle est la plus utilisée en pratique car elle peut
approximer la fonction de distribution de Xn par celle de X:
Dé…nition 54 : On dit que la suite (Xn )n2N converge en loi vers la variable aléatoire
X de fonction de distribution F si en tout point de continuité de F la suite (Fn ) des
L
fonctions de distribution des Xn converge vers F; et on note Xn ! X:
Pour des variables discrètes la convergence en loi vers une variable discrète s’exprime par :

P (Xn = x) ! P (X = x) :
n !1

Un autre résultat montre également que si (Xn )n2N est une suite de variables aléatoires.de

74
Chapitre 5. Convergence des suites de variables aléatoires

fonctions densités fn ; et X est une variable aléatoire de fonction densité f alors

L
Xn ! X =) fn (x) ! f (x) 8x:
n !1

La convergence en loi est trés liée à la convergence des fonctions caractéristiques comme
le précise le théorème fondamental suivant :
Théorème de Paul Levy
Théorème 30 : Si une suite de variables aléatoires (Xn )n2N converge en loi vers la
variable aléatoire X; alors la fonction caractéristique 'n (t) de Xn tend vers la fonc-
tion caractéristique ' (t) de X: Réciproquement si on a une suite de variables aléatoires
(Xn )n2N dont les fonctions caractéristiques 'n (t) tendent vers une fonction ' (t) et si
' (t) est continue au point t = 0; alors la suite (Xn )n2N converge en loi vers la variable
aléatoire X dont la fonction caractéristique est ' (t) :
Théorème 31 : La convergence en probabilité entraine la convergence en loi. La réci-
proque est fausse en général.
Applications

Convergence de la loi binômiale vers la loi normale

Théorème de De Moivre-Laplace
Théorème 32 : Soit (Xn )n2N une suite de variables aléatoires binomiales B (n; p) alors :

Xn np L
p ! N (0; 1) :
npq

Preuve :
La fonction caractéristique 'n (t) de Xn est égale à (1 p + p exp (it))n ; donc celle de la
Xn np
variable aléatoire p est
npq
!!n !
it inpt
' (t) = 1 p + p exp p exp p ;
np (1 p) np (1 p)

75
Chapitre 5. Convergence des suites de variables aléatoires

et

! !!
it inpt
ln ' (t) = n ln 1 p exp p 1 p
np (1 p) np (1 p)

En développant au second ordre l’exponentielle et puis le logarithme on trouve

!!
it t2 inpt
ln ' (t) ' n ln 1 p p p ;
np (1 p) 2np (1 p) np (1 p)

!
pit pt2 p2 t2 inpt
ln ' (t) ' n p + p ;
np (1 p) 2np (1 p) 2np (1 p) np (1 p)

soit

pt2 p2 t2 t2 p (1 p) t2
ln ' (t) ' + = =
2p (1 p) 2p (1 p) 2p (1 p) 2
t2
ce qui montre que ' (t) ! exp 2
qui est la fonction caractéristique de la loi normale
N (0; 1) :

Convergence de la loi binômiale vers la loi de Poisson.

Théorème 33 : Soit (Xn )n2N une suite de variables aléatoires binomiales B (n; p) alors

L
Xn ! P (np)

Preuve
Supposons que = np; alors

76
Chapitre 5. Convergence des suites de variables aléatoires

n
'Xn (t) == (1 p + p exp (it))n = 1 n
+ n
exp (it)
2 3 (1 exp(it))
n
n 6 (1 exp (it)) 7
= 1 n
(1 exp (it)) = 4 1 n
(1 exp (it)) 5

! exp (exp (it) 1) = 'X (t) :


n!1

et on a de plus la fonction 'X (t) est continue en 0 d’où le résultat.

Convergence de la loi de Poisson vers la loi normale

Théorème 34 : Soit X une variable aléatoire qui suit la loi de Poisson P ( ) ; alors quand
! 1 la variable aléatoire

X L
p ! N (0; 1)

Preuve
On a 'X (t) = exp ( (exp (it) 1)) ; donc la fonction caractéristique de la variable aléa-
X
toire p est

it it
' Xp (t) = exp exp p 1 exp p

it
p
= exp exp p it ;

comme

it it t2
exp p '1+ p
2

il vient que

it t2 p t2
' Xp (t) ' exp 1+ p it = exp :
2 2

77
Chapitre 5. Convergence des suites de variables aléatoires

Theorème central limite


On a vu pécèdement qu’on peut approximer les lois binômiale et de Poisson par la loi nor-
male, donc il est trés évident de poser la question de savoir s’il existe d’autres distributions
de variance et de moyenne …nies qui seront approximées par la loi normale. La réponse à
cette question est le fameux théorème appelé théorème central limite
Théorème 35 : Soient X1 ; X2 ; :::; Xn des variables aléatoires indépendantes et identique-
2
ment distribuées (de méme loi) de moyenne m et de variance existent et …nies, alors
si Sn = X1 + X2 + ::: + Xn

Zb
Sn nm 1 1 2
lim P a p b =p exp t dt:
n!1 n 2 2
a

Sn nm
C’est à dire que la variable aléatoire réduite Yn = p est asymptotiquement normale.
n
Preuve
t2
On pose 'Yn la fonction caractéristique de Yn ; et montre que 'Yn (t) ! exp 2
:
n!1

!!!
it X
n
'Yn (t) = E exp p Xi nm
n i=1 !!
p
nm
X
n
it
= exp it E exp p
n
Xi
p h in i=1
nm t
= exp it 'Xi p
n
;

où 'Xi est la fonction caractéristique de Xi :

0
t itm t2 22
'Xi p '1+ p + :::
n n 2 2n

p
nm t
ln 'Yn (t) = it + n ln 'Xi p
n
p 0
nm itm t2 22
' it + n ln 1 + p
n 2 2n
+ :::
p 0
nm itm t2 22 t2 m2
= it +n p
n 2 2n
+ 2 2n
+ :::

78
Chapitre 5. Convergence des suites de variables aléatoires

02
t2 2 m2
ln 'Yn (t) ' 2
+ une in…nité de termes négligeables,
2

donc

t2
8t 2 R : ln 'Yn (t) !
n!1 2

et

t2
'Yn (t) ! exp ;
n!1 2

d’où le resultat.

79
Bibliographie

[1] Philippe Tassi : Méthodes statistiques 2e Eddition , Economica 1989..

[2] Kedjdal Kaci : Cours de probabilités

[3] G. Saporta : probabilités, Analyse des données et statistiques. Edition Technip. 1990.

[4] Murray R. Spiege : Probabilités et Statistique Cours et Problèmes Série Schaum.

[5] Sayah Abdallah : Cours de probabilités et statistiques 2. (PS2) 4e DES Mathématiques.

80

Vous aimerez peut-être aussi