Vous êtes sur la page 1sur 19

Chapitre 2 Notions de Variables Aléatoires

2.1 FONDEMENTS DE LA THEORIE DES PROBABILITES

Ce chapitre introduit les notions fondamentales de la théorie des probabilités:


variables aléatoires, espérance, loi, moments de variables aléatoires, fonctions
caractéristiques, etc. Puisque un espace de probabilité n‟est rien d‟autre qu‟un
espace mesurable muni d‟une mesure de masse totale 1. Par exemple une variable
aléatoire (va) n‟est rien d‟autre qu‟une fonction mesurable, et la notion d‟espérance
coïncide avec l‟intégrale. Cependant, le point de vue de la théorie des probabilités,
qui est expliqué ci-dessous, est bien différent, et une difficulté importante est de
comprendre ce point de vue. Ainsi, la notion de loi, qui est un cas particulier de la
notion de mesure-image, devient-elle maintenant fondamentale car elle permet
d‟évaluer la probabilité qu‟une variable aléatoire “tombe” dans un ensemble donné.

2.2 DEFINITIONS GENERALES

2.2.1 Espace de Probabilité

Soit (Ω, 𝑨) un espace mesurable, et soit 𝑃 une mesure de probabilité sur (Ω, 𝐴). On
dit alors que (Ω, 𝐴) est un espace de probabilité. Un espace de probabilité est donc un cas
particulier d’espace mesuré, pour lequel la masse totale de la mesure est égale à 1. En fait, le
point de vue diffère de la théorie de l’intégration : dans le cadre de la théorie des probabilités,
on cherche à fournir un modèle mathématique pour une “expérience aléatoire”.
 Ω représente l’ensemble de toutes les ´éventualités possibles, toutes les déterminations
du hasard dans l’expérience considérée.
 𝑨 est l’ensemble des “´événements”, qui sont les parties de Ω dont on peut évaluer la
probabilité. On dit également que Il faut voir un événement A ∈ 𝑨 comme un sous-
ensemble de Ω contenant toutes les éventualités 𝜔 pour lesquelles une certaine
propriété est vérifiée.
 Pour A ∈ 𝑨, 𝑃(𝐴) représente la probabilité d’occurrence de l’événement A. Dans les
 premiers traités de théorie des probabilités, longtemps avant l’introduction de la
théorie de la mesure, la probabilité 𝑃(𝐴) était définie de la manière suivante : on
imagine qu’on répète l’expérience aléatoire un nombre 𝑁 de fois, et on note 𝑁𝐴 le
nombre de répétitions pour lesquelles l’événement A est réalisé; alors, la proportion
𝑁𝐴/𝑁 converge quand 𝑁 → ∞ vers la probabilité 𝑃(A).

1/19
Chapitre 2 Notions de Variables Aléatoires

Exemple 2.1
(1) on lance un dé deux fois.
𝐶𝑎𝑟𝑑(𝐴)
Ω = 1,2, … , 6 2 , 𝑨 = Ρ Ω , 𝑃 A =
36
Le choix de la probabilité correspond à l’idée que tous les résultats possibles pour les deux
tirages sont équiprobables.
(2) On lance le d´e jusqu’à obtenir un 6. Ici le choix de Ω est déjà moins évident. Comme
le nombre de lancers nécessaires n’est a priori pas borné, le bon choix est d’imaginer
qu’on fait une infinité de lancers:
𝑁∗
Ω = 1,2, … , 6
de sorte qu’un élément de est une suite 𝜔 = (𝜔1 , 𝜔2 , . . . ) qui donne les résultats des tirages
successifs. La tribu 𝑨 sur est la tribu-produit définie comme la plus petite tribu rendant
mesurables tous les ensembles de la forme :
𝜔: 𝜔1 = 𝑖1 , 𝜔2 = 𝑖2 , …, 𝜔𝑛 = 𝑖𝑛
Où 𝑛 ≥ 1 et 𝑖1 , 𝑖2 , … , 𝑖𝑛 ∈ 1,2, … , 6 . Enfin 𝑃 est l‟unique mesure de probabilité sur Ω
telle que, pour tout choix de 𝑛 et de 𝑖1 , . . . , 𝑖𝑛 ,
𝑛
1
𝑃 𝜔: 𝜔1 = 𝑖1 , 𝜔2 = 𝑖2 , …, 𝜔𝑛 = 𝑖𝑛 =
6
Remarque :
Très souvent dans la suite, on ne spécifiera pas le choix de l’espace de probabilité. Les
données importantes seront les propriétés des fonctions définies sur cet espace, les variables
aléatoires.
2.2.2 Variables Aléatoires (va)
Soit (𝐸, ℇ) un espace mesurable. Une application mesurable 𝑋 ∶ Ω → 𝐸 est
appelée variable aléatoire (v.a. en abrégé) à valeurs dans 𝐸.
Exemple2. 2
𝑋((𝑖, 𝑗)) = 𝑖 + 𝑗 définit une variable aléatoire à valeurs dans {1, 2, . . . , 12}.

2.2.3 Densité de Probabilité (Probability Density Function pdf)


La va 𝑋 prend ses valeurs dans le corps de réels 𝑅 et sa loi est caractérisée par une
fonction appelée « densité de probabilité » que l’on note 𝑝𝑥 𝑋 avec 𝑥 réel, et qui permet le
calcul de la probabilité pour 𝑋 d’appartenir à un intervalle (𝑎, 𝑏) par la relation :
𝑏
𝑃 𝑋𝜖(𝑎, 𝑏) = 𝑎
𝑝𝑥 𝑋 𝑑𝑥 (2.1)
La fonction 𝑝𝑥 𝑋 est ≥ 0 (pas nécessairement ≤ 1) et vérifie la relation de normalisation :

2/19
Chapitre 2 Notions de Variables Aléatoires

+∞
𝑝
−∞ 𝑥
𝑋 𝑑𝑥 = 1 (2.2)
Exemple 2.3 densité de probabilité
la densité de probabilité (pdf) normale (gaussienne)
la pdf normale 𝑝𝑋 𝑥 a l'expression suivante:
1 2 /2𝜍 2
𝑝𝑋 𝑥 = 𝑒 − 𝑥−𝜇 , 𝜍 > 0, −∞ < 𝜇 < ∞, −∞<𝑥 <∞
2𝜋𝜍
tel que 𝜇 est la moyenne, 𝜍 est la déviation standard (standard deviation std) de la va 𝑥. dans
le programme 1.1 on prend 𝜇 = 0 et 𝜍 = 1
---------------------------------------------------------------------
Programme 2.1
% Normal PDF
v=-3:0.01:3; % values set
mu=0; sigma=1; % random variable parameters
ypdf=normpdf(v,mu,sigma); %normal pdf
plot(v,ypdf,'k');hold on; % plot figure
axis([-3 3 0 0.5]);
xlabel('values'); title('normal PDF');
grid;

----------------------------------------------------------------------
normal PDF
0.5

0.45

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
-3 -2 -1 0 1 2 3
values

Figure 2.1 PDF normale (Gaussienne)

2.2.4 Fonction de Répartition


La fonction de répartition d’une va 𝑋 est définie par la fonction 𝐹: ℝ ⟶ ℝ tel que
𝐹𝑋 𝑥 = 𝑃 𝑋 ≤ 𝑥 (2.3)
Remarque
𝑃 𝑋 ≥𝑥 = 1−𝑃 𝑋 ≤𝑥

3/19
Chapitre 2 Notions de Variables Aléatoires

la probabilité pour 𝑋 d’appartenir à un intervalle (𝑎, 𝑏) par la relation (2.1).


2.2.5 Relation entre Densité de Probabilité et Fonction de Répartition

𝑥
𝐹𝑋 𝑥 = 𝑝
−∞ 𝑥
𝑋 𝑑𝑥 (2.4)

Exemple 2.4
Fonction de répartition (cdf) de la pdf normale:
En appliquant la définition de la cdf sur l'exemple 2.3
𝑥 𝑥
1 2 /2
𝐹𝑋 𝑥 = 𝑃 𝑋 ≤ 𝑥 = 𝑝𝑋 𝑥 𝑑𝑥 = 𝑒− 𝑥 𝑑𝑥
2𝜋
−∞ −∞

-----------------------------------------------------------------------------
Programme2.2
% CDF of the Normal PDF
N=100000
y=randn(N,1);% generation of a normal random variable
cdfplot(y);% a plot of CDF
axis([-3 3 0 1]);
xlabel('values');
title('The cumulative density function CDF of the normal pdf);
-----------------------------------------------------------------------------------
The cumulative density function CDF of the normal pdf
1

0.9

0.8

0.7

0.6
F(x)

0.5

0.4

0.3

0.2

0.1

0
-3 -2 -1 0 1 2 3
values

Figure 2.2 CDF de la loi normale (Gaussienne)

4/19
Chapitre 2 Notions de Variables Aléatoires

2.3 LOI DE VARIABLES ALEATOIRES


2.3.1 Espérance Mathématique
L‟espérance mathématique ou moyenne statistique d‟une va continue est :

+∞
𝐸𝑋 = −∞
𝑥 𝑝𝑥 𝑋 𝑑𝑥 (2.5)
𝐸 𝑋 existe si l'intégrale (1.5) converge.
2.3.2 Fonction d'une Variable Aléatoire
Etant donné la variable aléatoire 𝑌 = 𝑔(𝑋) une fonction de la variable aléatoire
𝑋, alors:
La densité de probabilité (pdf) de 𝑌 est :
𝑓𝑋 𝑥1 𝑓𝑋 𝑥2 𝑓𝑋 𝑥𝑛
𝑓𝑌 𝑦 = + + ⋀ + +⋀+
𝑔′ (𝑥1 ) 𝑔′ (𝑥2 ) 𝑔′ (𝑥𝑛 )

Avec 𝑔′ la dérivée première de 𝑔


l'espérance de 𝑌 est
+∞ +∞
𝐸𝑌 = −∞
𝑦 𝑝𝑥 𝑋 𝑑𝑥 = −∞
𝑔(𝑥) 𝑝𝑥 𝑋 𝑑𝑥 (2.6)
La Figure 2.3 illustre une pdf asymétrique, où c'est noté la moyenne, la médiane et le
mode. Pour les pdf symétriques, ces trois valeurs se confondent.
La moyenne 𝜇 de la variable 𝑋 est l'espérance de 𝑋 (eq. 2.5). Cette valeur peut être
vue comme étant le centre de masse de la distribution.
La médiane 𝑥0 de la variable 𝑋 est le point qui divise la distribution en deux parts
égales, tel que:
1
𝑃 𝑋 ≤ 𝑥0 =
2
Le mode de 𝑋 est un point 𝑥𝑖 tel que:
𝑝𝑋 (𝑥𝑖 ) > 𝑝𝑋 (𝑥𝑖 + 𝜀) et 𝑝𝑋 𝑥𝑖 > 𝑝𝑋 (𝑥𝑖 − 𝜀)
où 𝜀 est une petite quantité positive arbitraire.
Le mode est une valeur de 𝑋 qui correspond au pic de la pdf. Si la pdf a un seul picn
la distribution est appelée unimodale.

5/19
Chapitre 2 Notions de Variables Aléatoires

a skewed PDF
0.4

median

0.35

mode
0.3 mean

0.25

0.2

0.15

0.1

0.05

0
0 1 2 3 4 5 6 7 8
values

Figure 2.3 Moyenne, médiane et mode d'une pdf


---------------------------------------------------------------------------------------------------
Programme 2.3
% A skewed PDF with mean, median and mode
v=0:0.01:8;% values set
alpha=2; % random variable parameter
ypdf=raylpdf(v,alpha); % Rayleigh PDF
plot(v,ypdf,'k'); hold on; % plots figure
axis([0 8 0 0.4]);
xlabel('values'); title('a skewed PDF');
fs=100; % sampling frequency in Hz
tiv=1/fs; %time interval between samples;
t=0:tiv:(20-tiv); % time intervals set (2000 values)
N=length(t); % number of data points
y=raylrnd(alpha,N,1); % random signal data set
mu=mean(y); % mean of y
vo=median(y); % median of y
[pky,pki]=max(ypdf);% peak of the PDF
plot([mu mu],[0 0.33],'--k');% mean
plot([vo vo],[0 0.37],':k');% median
plot([v(pki) v(pki)],[0 pky],'-.k');% mode
------------------------------------------------------------------------------------------------------------
2.3.2 Moments de Variables Aléatoires
Moments d’ordre 𝒏

Soit 𝑋 une va réelle et soit 𝑛 ≥ 1 un entier. Le moment d‟ordre 𝑝 de 𝑋 est par


définition la quantité 𝐸 𝑋 𝑛 , qui n‟est définie que si 𝐸 𝑋 𝑛
< ∞, ou si 𝑋 ≥ 0. La
𝑛
quantité 𝐸 𝑋 est appelée moment absolu d‟ordre 𝑛.
Cas continu
Pour une va continue 𝑥 , le moment centré d‟ordre 𝑛 est défini par :

6/19
Chapitre 2 Notions de Variables Aléatoires

+∞ 𝑛
𝜇𝑛 = 𝐸 𝑋 𝑛 = −∞
𝑥 𝑝𝑥 𝑋 𝑑𝑥 , 𝑛 = 1,2,3, … (2.7)
tel que 𝑝𝑥 𝑋 est la densité de probabilité de 𝑋.
Cas : 𝑛 = 1 : on a l‟espérance mathématique ou moyenne statistique de la va 𝑋
+∞

𝜇=𝐸 𝑋 = 𝑥 𝑝𝑥 𝑋 𝑑𝑥
−∞

Cas : 𝑛 = 2 : on a le moment d‟ordre 2 de la va 𝑋

+∞ 2
𝐸 𝑋2 = −∞
𝑥 𝑝𝑥 𝑋 𝑑𝑥 (2.8)
Les moments centrés d‟ordre 1 et 2 suffisent généralement pour caractériser un va.
Cependant, on peut parfois avoir recours aux moments d‟ordre supérieur.

Les moments d'ordre 𝑛 liés à la moyenne, pour la va 𝑥 sont donnés par:

𝑛 +∞
𝐸 𝑥−𝜇 = −∞
𝑥 − 𝜇 𝑛 𝑝𝑥 𝑋 𝑑𝑥 , 𝑛 = 1,2,3, …. (2.9)

Variance 𝝈𝟐 d’une va

𝜍𝑥2 = 𝐸 𝑋 − 𝐸 𝑋 2
=𝐸 𝑋−𝜇 2
= 𝐸 𝑋 2 − 𝜇2

2
En effet : 𝐸 𝑋 − 𝐸 𝑋 = 𝐸 𝑋 2 − 2𝑋𝐸 𝑋 + 𝐸 2 𝑋 = 𝐸 𝑋 2 − 2𝐸 2 𝑋 + 𝐸 2 𝑋

= 𝐸 𝑋 2 − 𝐸2 𝑋 = 𝐸 𝑋 2 − 𝜇2 (2.10)

La variance est une quantité toujours ≥ 0. Elle peut s‟interpréter comme la mesure
des fluctuations de la variable aléatoire autour de sa moyenne : plus elle est grande
plus les valeurs de 𝑋 sont dispersées autour de 𝐸 𝑋 .

En théorie du signal, la variance a une signification supplémentaire : elle s‟interprète


comme la puissance des fluctuations (quadratiques) autour de sa moyenne.

La variance d‟une va traduit sa puissance, sa dispersion. Elle est liée à l‟amplitude


des variations de la va.

la Moyenne et la variance sont suffisantes pour décrire de nombreux phénomènes


aléatoires.

Propriétés

Si 𝑋 et 𝑌 sont deux variables aléatoires, tel que 𝑌 = 𝑎𝑋 + 𝑏

7/19
Chapitre 2 Notions de Variables Aléatoires

𝐸 𝑎𝑋 + 𝑏 = 𝑎𝐸 𝑋 + 𝑏
où 𝑎 et 𝑏 sont des constantes non aléatoires.
𝑉𝑎𝑟 𝑎𝑋 + 𝑏 = 𝑎2 𝑉𝑎𝑟 𝑋

2 2
et tel que 𝑉𝑎𝑟 𝑌 = 𝑉𝑎𝑟 𝑎𝑋 + 𝑏 = 𝐸 𝑦 − 𝐸 𝑌 = 𝐸 𝑎𝑥 + 𝑏 − 𝑎𝐸 𝑋 − 𝑏 =
2
𝐸 𝑎𝑥 − 𝑎𝐸 𝑋 = 𝑎2 𝐸 𝑥 − 𝐸 𝑋 2
= 𝑎2 𝑉𝑎𝑟 𝑋

 Ecart type d’une va 𝑿

𝜍= 𝑉𝑎𝑟 𝑋 (2.11)

cette grandeur est déterministe

Pour 𝑛 = 3, le moment d‟ordre 3 lié à la moyenne est appelé (skewness); il traduit


l'asymétrie de la densité de probabilité. C'est une mesure d'asymétrie des données
autour de la moyenne statistique. Son expression est donnée par:

𝐸 𝑥−𝜇 3
𝑠𝑘𝑒𝑤𝑛𝑠 = (2.12)
𝜍3

Pour 𝑛 = 4 le moment d‟ordre 4 lié à la moyenne est appelé kurtosis; il indique si la


pdf est à queue lourde ou pas. la pdf normale centrée a un kurtosis égale à 3. le
kurtosis est exprimé par:

𝐸 𝑥−𝜇 4
𝑘𝑢𝑟𝑡𝑜𝑠𝑖𝑠 = (2.13)
𝜍4

----------------------------------------------------------------------

Programme 2.4

N=100000;
y=randn(N,1);
k=kurtosis(y)
s=skewness(y)
k =

3.0093

s =

8/19
Chapitre 2 Notions de Variables Aléatoires

-0.0046

---------------------------------------

Cas discret
Pour une va discrète, 𝑋 = 𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , , le moment d‟ordre 𝑛 est défini par :
𝐸 𝑋𝑛 = 𝑖 𝑥𝑖 𝑛 𝑝𝑖 (2.14)

avec 𝑝𝑖 = 𝑃 𝑋 = 𝑥𝑖 les valeurs de probabilité pour que 𝑋 soit égal à l‟élément 𝑥𝑖 .

Cas : 𝑛 = 1 : on a l‟espérance mathématique ou moyenne statistique de la va 𝑋


𝐸 𝑋 =𝜇= 𝑖 𝑥𝑖 𝑝𝑖 (2.15)

Cas : 𝑛 = 2 : on a le moment d‟ordre 2 ( la valeur quadratique) de la va 𝑋

𝐸 𝑋2 = 𝑖 𝑥𝑖 2 𝑝𝑖 (2.16)

---------------------------------------------------------

Programme 2.5

% statistics of the first & second order of a normal va


x=randn(10000,1);
m=mean(x);
var1=var(x);
ss=std(x)
A=corrcoef(x);
m =

-0.0032

>> var

var =

0.9896
std(x)

ans =

1.0089
-----------------------------------------------------

9/19
Chapitre 2 Notions de Variables Aléatoires

2.4 LOI DE PROBABILITE CONJOINTE DE DEUX VA 𝑿 ET 𝒀

2.4.1 Cas des va continues

De façon analogue, elle est caractérisée par sa densité de probabilité 𝑝𝑋𝑌 (𝑥, 𝑦), qui,
par la formule suivante permet le calcul de la probabilité pour que le couple de va
appartienne à un domaine ∆ du plan

𝑃 𝑋, 𝑌 ∈ ∆ = ∆
𝑝𝑋𝑌 𝑥, 𝑦 𝑑𝑥𝑑𝑦 (2.17)

La fonction 𝑝𝑋𝑌 (𝑥, 𝑦) est ≥ 0 (pas nécessairement ≤ 1 et vérifie la normalisation :

ℛ2
𝑝𝑋𝑌 𝑥, 𝑦 𝑑𝑥𝑑𝑦 = 1 (2.18)

Indépendance de 2 va

Deux va 𝑋 et 𝑌 sont indépendantes si et seulement si (ssi):

𝑝𝑋𝑌 𝑥, 𝑦 = 𝑝𝑋 (𝑥) ∙ 𝑝𝑌 (𝑦) (2.19)

2.4.2 Cas discret

Elle est caractérisée par les ensembles dénombrables : 𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , ,


𝑦1 , 𝑦2 , … , 𝑦𝑗 , … , des valeurs possibles de 𝑋 et 𝑌 et par la suite des probabilités :

𝑝𝑋𝑌 𝑥𝑖 , 𝑦𝑗 = 𝑃 𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 (2.20)

qui vérifient

0 ≤ 𝑝𝑋𝑌 𝑥𝑖 , 𝑦𝑗 ≤ 1 et 𝑖 𝑗 𝑝𝑋𝑌 𝑥𝑖 , 𝑦𝑗 = 1

Indépendance de 2 va

Deux va 𝑋 et 𝑌 sont indépendantes si et seulement si

𝑃 𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 = 𝑃 𝑋 = 𝑥𝑖 ∙ 𝑃 𝑌 = 𝑦𝑗 (2.21)

Covariance de Deux Va 𝑿 et 𝒀

Cette grandeur est déterministe.

10/19
Chapitre 2 Notions de Variables Aléatoires

Soit 𝑋 0 ≡ 𝑋 − 𝐸 𝑋

et

𝑌0 ≡ 𝑌 − 𝐸 𝑌

𝜑𝑥𝑦 = 𝑐𝑜𝑣 𝑋, 𝑌 = 𝐸 𝑋 − 𝐸 𝑋 𝑌−𝐸 𝑌 = 𝐸 𝑋 0 𝑌 0 = 𝐸 𝑋𝑌 − 𝐸 𝑋 𝐸 𝑌

(2.22)

Autocovariance d'une variable aléatoire

𝜑𝑥𝑥 d‟une va 𝑋 (≡ 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒)

Cette grandeur est déterministe.

𝜑𝑥𝑥 = 𝑐𝑜𝑣 𝑋, 𝑋 = 𝐸 𝑋 − 𝐸 𝑋 𝑋−𝐸 𝑋 = 𝐸 𝑋 2 − 𝐸 2 𝑋 = 𝜍𝑥2

(2.23)

Coefficient de Corrélation de deux va

Cette grandeur est déterministe

𝑐𝑜𝑣 (𝑋,𝑌) 𝜑 𝑥𝑦
𝜌𝑥𝑦 = = (2.24)
𝑣𝑎𝑟 (𝑋) 𝑣𝑎𝑟 (𝑌) 𝜍𝑥 𝜍 𝑦

la propriété de ce coefficient est : −1 ≤ 𝜌𝑥𝑦 ≤ 1

Décorrélation de deux va 𝑋 et 𝑌

Si 𝜑𝑥𝑦 = 𝑐𝑜𝑣 𝑋, 𝑌 = 0, on dit alors que les deux va 𝑋 et 𝑌 sont décorrelées (𝜌𝑥𝑦 = 0)

On montre que si deux va 𝑋 et 𝑌 sont indépendantes alors elles sont décorrelées.


Mais, en général la réciproque est fausse.

𝑋, 𝑌 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠 ⟶ 𝑋, 𝑌 𝑑é𝑐𝑜𝑟𝑟𝑒𝑙é𝑒𝑠 mais 𝑋, 𝑌 𝑑é𝑐𝑜𝑟𝑟𝑒𝑙é𝑒𝑠 ↛ 𝑋, 𝑌 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠

11/19
Chapitre 2 Notions de Variables Aléatoires

--------------------------------------------------------------------------------------------------

Programme 2.6

% covariance of two va
x = [2,-1,4,3]'
y = [10, -5, 3, 0]'
mux = mean(x)
muy = mean(y)
varx = mean((x-mux).^2)
vary = mean((y-muy).^2)
covxy = mean((x-mux).*(y-muy))
corrxy = covxy/sqrt(varx*vary)
x=

-1

y=

10

-5

mux =

muy =

varx =

12/19
Chapitre 2 Notions de Variables Aléatoires

3.5000

vary =

29.5000

covxy =

5.2500

corrxy =

0.5167

--------------------------------------------------------------------------------------------

Coefficient d'Autocorrelation

Cette grandeur est déterministe.

𝑐𝑜𝑣(𝑋, 𝑋) 𝜑𝑥𝑥 𝜑𝑥𝑥


𝜌𝑥𝑥 = = = 2 =1
𝑣𝑎𝑟(𝑋) 𝑣𝑎𝑟(𝑋) 𝑣𝑎𝑟(𝑋) 𝜍𝑥

Remarque

Si 𝑋 = 𝑋1 , … , 𝑋𝑑 est une variable à valeur dans ℝ𝑑 multivariable (multivariate),


dont toutes les composantes sont dans 𝐿2 Ω, 𝑨, 𝑃 , la matrice de covariance de 𝑋 est

𝜑𝑥𝑥 = 𝑐𝑜𝑣(𝑋𝑖 , 𝑋𝑗 ) 1≤𝑖≤𝑑,1≤𝑗 ≤𝑑

--------------------------------------------------------------------------------------------

Programme 2.7

% autocorrelation coefficient of a normal va


x=randn(10000,1);
A=corrcoef(x);

>> A
A =

13/19
Chapitre 2 Notions de Variables Aléatoires

--------------------------------------------------------------------------------------------

2.5 TRANSFORMEES
2.5.1 Fonctions Caractéristiques

Si 𝑋 est une va à valeur dans ℝ𝑑 , la fonction caractéristique 𝜙𝑋 𝜔

+∞ 𝑖∙𝜔 ∙𝑥
𝜙𝑋 𝜔 = 𝐸 𝑒 𝑖∙𝜔 ∙𝑥 = −∞
𝑒 𝑝𝑋 𝑥 𝑑𝑥 , 𝜔 ∈ ℝ𝑑 (2.25)

On peut écrire aussi:

𝜙𝑋 𝜔 = 𝑒 𝑖∙𝜔∙𝑥 𝑃𝑋 (𝑑𝑥)

avec 𝑃𝑋 𝑑𝑥 = 𝑝𝑋 𝑥 𝑑𝑥

Ce qui permet de voir que 𝜙𝑋 𝜔 est la transformée de Fourrier de la loi de 𝑋.

Théorème

La fonction caractéristique d„une va 𝑋 à valeur dans ℝ𝑑 , caractérise la loi de cette


variable.

Remarque:

Si les fonctions caractéristiques de deux variables aléatoires coïncident, alors les


deux variables aléatoires suivent la même loi de probabilité.

Considérer la variable aléatoire 𝑧, telque 𝑧 est la somme des va indépendantes 𝑥𝑖 :

𝑧= 𝑥𝑖 (2.26)

Alors, la pdf de 𝑧 est la convolution (notée ∗ ) des pdfs de chaque variable 𝑥𝑖 :

𝑝𝑍 = 𝑝𝑋1 ∗ 𝑝𝑋2 ∗ … ∗ 𝑝𝑋𝑛 (2.27)

Exemple 2.5:

Soit une va X de loi gaussienne, 𝑋 ∼ 𝑁(0, 𝜍 2 ). Alors

14/19
Chapitre 2 Notions de Variables Aléatoires

𝜍2𝜔 2

𝜙𝑋 𝜔 = 𝑒 2 , 𝜔∈ℝ

On calcule la nième dérivée de la fonction caractéristique comme suit :

𝜕 𝑛 𝜙𝑋 (𝜔) 𝑛
= 𝑖 ∙ 𝐸 𝑋 𝑛 𝑒 𝑖𝜔𝑥 , 𝑎𝑣𝑒𝑐 𝑖 2 = −1
𝜕𝜔 𝑛

On peut, à partir de la fonction caractéristique (characteristic function), obtenir le


moment d‟ordre 𝑛 de la va 𝑋

𝑛
𝑛 𝜕 𝜙 𝑋 (0)
𝐸 𝑋 𝑛 = −𝑖 (2.28)
𝜕𝜔 𝑛

Remarque

1. Soit une va 𝑋 = 𝑋1 , … , 𝑋𝑑 à valeur dans ℝ𝑑 (multivariate), et de carré


intégrable. Alors
𝑑 𝑑 𝑑
1 2
𝜙𝑋 𝜔 = 1 + 𝑖 𝜔𝑗 𝐸 𝑋𝑗 − 𝜔𝑗 𝜔𝑘 𝐸 𝑋𝑗 𝑋𝑘 + 𝜊 𝜔
2
𝑗 =1 𝑗 =1 𝑘=1

quand 𝜔 = 𝜔1 , … , 𝜔𝑑 tend vers 0.


La dérivée première de la fonction caractéristique dans ce cas est

𝜕𝜙𝑋 (𝜔)
= 𝑖 ∙ 𝐸 𝑋𝑗 𝑒 𝑖𝜔𝑥
𝜕𝜔𝑗

La dérivée seconde est

𝜕 2 𝜙𝑋 (𝜔)
= −𝑖 ∙ 𝐸 𝑋𝑗 𝑋𝑘 𝑒 𝑖𝜔𝑥
𝜕𝜔𝑗 𝜕𝜔𝑘

Alors la dème dérivée de la fonction caractéristique est

𝜕 𝑑 𝜙𝑋 (𝜔) 𝑑
= 𝑖 ∙ 𝐸 𝑋𝑗 𝑋𝑘 … 𝑋𝑑 𝑒 𝑖𝜔𝑥
𝜕𝜔𝑗 𝜕𝜔𝑘 . . 𝜕𝜔𝑑

2.5.2 Fonction Génératrice 𝑴𝑿 (𝒓) (Moment Generating Function MGF)

Soit 𝑋 une v.a discréte. La fonction génératrice de 𝑋 est la fonction 𝑀𝑋 (𝑡) définie sur
l‟intervalle [0, 1] par

15/19
Chapitre 2 Notions de Variables Aléatoires

𝑀𝑋 𝑡 = 𝐸 𝑒 𝑡𝑥 = 𝑥 𝑒 𝑡𝑥 𝑃𝑋 (𝑥𝑖 ) (2.29)

Pour une va continue avec une densité de probabilité 𝑓𝑋 (𝑥), la fonction génératrice
𝑀𝑋 (𝑡), est définie par :

+∞ 𝑡𝑥
𝑀𝑋 𝑡 = 𝐸 𝑒 𝑡𝑥 = −∞
𝑒 𝑓𝑋 𝑥 𝑑𝑥 (2.30)

Dans le cas des variables à valeur dans ℕ, on utilise les fonctions génératrices plutôt
que les fonctions caractéristiques. Remarquons que pour 𝑡 = 𝑖𝜔, la fonction
génératrice se confond avec la fonction caractéristique 𝜙𝑋 𝜔

2.6 THEOREME DE LA LIMITE CENTRALE (CENTRAL LIMITE THEOREM


CLT)

Chaque fois qu‟un phénomène peut être considéré comme une résultante d‟un
grand nombre de causes aléatoires indépendantes, on peut présumer que ce
phénomène suit une loi de distribution normale : c‟est le théorème central limite.

Il existe deux alternatives de la formulation du théorème de la limite centrale (CLT).


la première alternative est liée à la distribution des moyennes; tandis que la
deuxième alternative est liée à la somme d'ensembles de données aléatoires. Dans
les deux cas, on a plusieurs ensembles de donnée aléatoires de taille 𝑛: 𝑋1 , 𝑋2 , … . 𝑋𝐾
quelque soit la distribution de ces données. D'après (2.27), la pdf de la somme est la
convolution des pdf individuelles. le résultat tend toujours vers une pdf gaussienne.

Remarque: Variante de CLT

Il y a des variantes au théorème CLT. En particulier Lyapunov CLT et Lindeberg CLT


indiquent que les ensemble des données aléatoires doivent être indépendants mais
n'ont pas nécessairement la même pdf.

Considérer 𝑋1 , 𝑋2 , … . 𝑋𝐾 ; avec 𝜇𝑖 et 𝜍𝑖2 la moyenne et la variance de chaque


ensemble de données respectivement.

On définit 𝑠𝑛2 = 𝑖 𝜍𝑖2 et 𝑌𝑖 = 𝑋𝑖 − 𝜇𝑖 . S'il existe 𝛿 > 0 tel que:

16/19
Chapitre 2 Notions de Variables Aléatoires

1 𝑛 2+𝛿
lim𝑛 →∞ 𝑖=1 𝐸 𝑌𝑖 =0 (2.31)
𝑠𝑛2+𝛿

alors la somme de 𝑌𝑖 /𝑠𝑛 tend vers une distribution normale. c'est le théorème de la
limite centrale de Lyapunov (Lyapunov CLT).

Lindeberg CLT est similaire, mais en utilisant la condition suivante:

pour chaque 𝜀 > 0,

𝑛
1
lim 2 𝐸 𝑌𝑖 2 𝐼 𝑌𝑖 ≥ 𝜀𝑠𝑛 =0
𝑛 →∞ 𝑠𝑛
𝑖=1

tel que 𝐼 la fonction indicatrice.

-----------------------------------------------------------------------------------------------------------------

Programme 2.7

% CLT (Central Limite Theorem)


u=rand(1,1000);
u=double(u);
teta=2*pi*u;
v=rand(1,1000);
r=sqrt(-2*log(v));
x=r.*cos(teta);

y1=r.*sin(teta);
z=rand(1,1000);
f=rand(1,1000);
g=rand(1,1000);
h=rand(1,1000);
h1=r.*cos(2*teta);
load handel.mat
hfile='handel.wav';
wavwrite(y, Fs,hfile);
clear y Fs
[y,Fs,nbits,readinfo]=wavread(hfile);
sound(y,Fs)
h4=y(1:1000);
h5=x+h4';
s=zeros(1,1000);
s(1,:)=x;
s(2,:)=y1;
s(3,:)=z;
s(4,:)=f;
s(5,:)=g;
s(6,:)=h;

17/19
Chapitre 2 Notions de Variables Aléatoires

s(7,:)=h1;
s(8,:)=h4;
s(9,:)=h5;
for nn=1:9
s1=s(nn,:); s1=s1-mean(s1);
vr=var(s1); s1=s1/sqrt(vr);
s(nn,:)=s1;% la somme de plusieurs données de pdfs différentes
end;
S=sum(s);
hist(S); colormap('cool');
300

250

200

150

100

50

0
-15 -10 -5 0 5 10 15
S

Fig. 2.4 Exemple du théorème de la limite centrale CLT

suite du programme 2.7

[heights,centers] = hist(S);
hold on
ax = gca;
ax.XTickLabel = [];
n = length(centers);
w = centers(2)-centers(1);
t = linspace(centers(1)-w/2,centers(end)+w/2,n+1);
p = fix(n/2);
fill(t([p p p+1 p+1]),[0 heights([p p]),0],'w')
plot(centers([p p]),[0 heights(p)],'r:')
h = text(centers(p)-.2,heights(p)/2,' h');
dep = -70;
tL = text(t(p),dep,'L');
tR = text(t(p+1),dep,'R');
hold off
dt = diff(t);
Fvals = cumsum([0,heights.*dt]);
F = spline(t, [0, Fvals, 0]);
DF = fnder(F); % computes its first derivative
h.String = 'h(i)';
18/19
Chapitre 2 Notions de Variables Aléatoires

tL.String = 't(i)';
tR.String = 't(i+1)';
hold on
fnplt(DF, 'r', 2)
hold off
ylims = ylim;
ylim([0,ylims(2)]);
300

250

200

150
h

100

50

0
-15 -10 -5 0 5 10 15

L R
Fig. 2.5 Exemple du théorème de la limite centrale CLT

19/19

Vous aimerez peut-être aussi