Académique Documents
Professionnel Documents
Culture Documents
Soit (Ω, 𝑨) un espace mesurable, et soit 𝑃 une mesure de probabilité sur (Ω, 𝐴). On
dit alors que (Ω, 𝐴) est un espace de probabilité. Un espace de probabilité est donc un cas
particulier d’espace mesuré, pour lequel la masse totale de la mesure est égale à 1. En fait, le
point de vue diffère de la théorie de l’intégration : dans le cadre de la théorie des probabilités,
on cherche à fournir un modèle mathématique pour une “expérience aléatoire”.
Ω représente l’ensemble de toutes les ´éventualités possibles, toutes les déterminations
du hasard dans l’expérience considérée.
𝑨 est l’ensemble des “´événements”, qui sont les parties de Ω dont on peut évaluer la
probabilité. On dit également que Il faut voir un événement A ∈ 𝑨 comme un sous-
ensemble de Ω contenant toutes les éventualités 𝜔 pour lesquelles une certaine
propriété est vérifiée.
Pour A ∈ 𝑨, 𝑃(𝐴) représente la probabilité d’occurrence de l’événement A. Dans les
premiers traités de théorie des probabilités, longtemps avant l’introduction de la
théorie de la mesure, la probabilité 𝑃(𝐴) était définie de la manière suivante : on
imagine qu’on répète l’expérience aléatoire un nombre 𝑁 de fois, et on note 𝑁𝐴 le
nombre de répétitions pour lesquelles l’événement A est réalisé; alors, la proportion
𝑁𝐴/𝑁 converge quand 𝑁 → ∞ vers la probabilité 𝑃(A).
1/19
Chapitre 2 Notions de Variables Aléatoires
Exemple 2.1
(1) on lance un dé deux fois.
𝐶𝑎𝑟𝑑(𝐴)
Ω = 1,2, … , 6 2 , 𝑨 = Ρ Ω , 𝑃 A =
36
Le choix de la probabilité correspond à l’idée que tous les résultats possibles pour les deux
tirages sont équiprobables.
(2) On lance le d´e jusqu’à obtenir un 6. Ici le choix de Ω est déjà moins évident. Comme
le nombre de lancers nécessaires n’est a priori pas borné, le bon choix est d’imaginer
qu’on fait une infinité de lancers:
𝑁∗
Ω = 1,2, … , 6
de sorte qu’un élément de est une suite 𝜔 = (𝜔1 , 𝜔2 , . . . ) qui donne les résultats des tirages
successifs. La tribu 𝑨 sur est la tribu-produit définie comme la plus petite tribu rendant
mesurables tous les ensembles de la forme :
𝜔: 𝜔1 = 𝑖1 , 𝜔2 = 𝑖2 , …, 𝜔𝑛 = 𝑖𝑛
Où 𝑛 ≥ 1 et 𝑖1 , 𝑖2 , … , 𝑖𝑛 ∈ 1,2, … , 6 . Enfin 𝑃 est l‟unique mesure de probabilité sur Ω
telle que, pour tout choix de 𝑛 et de 𝑖1 , . . . , 𝑖𝑛 ,
𝑛
1
𝑃 𝜔: 𝜔1 = 𝑖1 , 𝜔2 = 𝑖2 , …, 𝜔𝑛 = 𝑖𝑛 =
6
Remarque :
Très souvent dans la suite, on ne spécifiera pas le choix de l’espace de probabilité. Les
données importantes seront les propriétés des fonctions définies sur cet espace, les variables
aléatoires.
2.2.2 Variables Aléatoires (va)
Soit (𝐸, ℇ) un espace mesurable. Une application mesurable 𝑋 ∶ Ω → 𝐸 est
appelée variable aléatoire (v.a. en abrégé) à valeurs dans 𝐸.
Exemple2. 2
𝑋((𝑖, 𝑗)) = 𝑖 + 𝑗 définit une variable aléatoire à valeurs dans {1, 2, . . . , 12}.
2/19
Chapitre 2 Notions de Variables Aléatoires
+∞
𝑝
−∞ 𝑥
𝑋 𝑑𝑥 = 1 (2.2)
Exemple 2.3 densité de probabilité
la densité de probabilité (pdf) normale (gaussienne)
la pdf normale 𝑝𝑋 𝑥 a l'expression suivante:
1 2 /2𝜍 2
𝑝𝑋 𝑥 = 𝑒 − 𝑥−𝜇 , 𝜍 > 0, −∞ < 𝜇 < ∞, −∞<𝑥 <∞
2𝜋𝜍
tel que 𝜇 est la moyenne, 𝜍 est la déviation standard (standard deviation std) de la va 𝑥. dans
le programme 1.1 on prend 𝜇 = 0 et 𝜍 = 1
---------------------------------------------------------------------
Programme 2.1
% Normal PDF
v=-3:0.01:3; % values set
mu=0; sigma=1; % random variable parameters
ypdf=normpdf(v,mu,sigma); %normal pdf
plot(v,ypdf,'k');hold on; % plot figure
axis([-3 3 0 0.5]);
xlabel('values'); title('normal PDF');
grid;
----------------------------------------------------------------------
normal PDF
0.5
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
-3 -2 -1 0 1 2 3
values
3/19
Chapitre 2 Notions de Variables Aléatoires
𝑥
𝐹𝑋 𝑥 = 𝑝
−∞ 𝑥
𝑋 𝑑𝑥 (2.4)
Exemple 2.4
Fonction de répartition (cdf) de la pdf normale:
En appliquant la définition de la cdf sur l'exemple 2.3
𝑥 𝑥
1 2 /2
𝐹𝑋 𝑥 = 𝑃 𝑋 ≤ 𝑥 = 𝑝𝑋 𝑥 𝑑𝑥 = 𝑒− 𝑥 𝑑𝑥
2𝜋
−∞ −∞
-----------------------------------------------------------------------------
Programme2.2
% CDF of the Normal PDF
N=100000
y=randn(N,1);% generation of a normal random variable
cdfplot(y);% a plot of CDF
axis([-3 3 0 1]);
xlabel('values');
title('The cumulative density function CDF of the normal pdf);
-----------------------------------------------------------------------------------
The cumulative density function CDF of the normal pdf
1
0.9
0.8
0.7
0.6
F(x)
0.5
0.4
0.3
0.2
0.1
0
-3 -2 -1 0 1 2 3
values
4/19
Chapitre 2 Notions de Variables Aléatoires
+∞
𝐸𝑋 = −∞
𝑥 𝑝𝑥 𝑋 𝑑𝑥 (2.5)
𝐸 𝑋 existe si l'intégrale (1.5) converge.
2.3.2 Fonction d'une Variable Aléatoire
Etant donné la variable aléatoire 𝑌 = 𝑔(𝑋) une fonction de la variable aléatoire
𝑋, alors:
La densité de probabilité (pdf) de 𝑌 est :
𝑓𝑋 𝑥1 𝑓𝑋 𝑥2 𝑓𝑋 𝑥𝑛
𝑓𝑌 𝑦 = + + ⋀ + +⋀+
𝑔′ (𝑥1 ) 𝑔′ (𝑥2 ) 𝑔′ (𝑥𝑛 )
5/19
Chapitre 2 Notions de Variables Aléatoires
a skewed PDF
0.4
median
0.35
mode
0.3 mean
0.25
0.2
0.15
0.1
0.05
0
0 1 2 3 4 5 6 7 8
values
6/19
Chapitre 2 Notions de Variables Aléatoires
+∞ 𝑛
𝜇𝑛 = 𝐸 𝑋 𝑛 = −∞
𝑥 𝑝𝑥 𝑋 𝑑𝑥 , 𝑛 = 1,2,3, … (2.7)
tel que 𝑝𝑥 𝑋 est la densité de probabilité de 𝑋.
Cas : 𝑛 = 1 : on a l‟espérance mathématique ou moyenne statistique de la va 𝑋
+∞
𝜇=𝐸 𝑋 = 𝑥 𝑝𝑥 𝑋 𝑑𝑥
−∞
+∞ 2
𝐸 𝑋2 = −∞
𝑥 𝑝𝑥 𝑋 𝑑𝑥 (2.8)
Les moments centrés d‟ordre 1 et 2 suffisent généralement pour caractériser un va.
Cependant, on peut parfois avoir recours aux moments d‟ordre supérieur.
𝑛 +∞
𝐸 𝑥−𝜇 = −∞
𝑥 − 𝜇 𝑛 𝑝𝑥 𝑋 𝑑𝑥 , 𝑛 = 1,2,3, …. (2.9)
Variance 𝝈𝟐 d’une va
𝜍𝑥2 = 𝐸 𝑋 − 𝐸 𝑋 2
=𝐸 𝑋−𝜇 2
= 𝐸 𝑋 2 − 𝜇2
2
En effet : 𝐸 𝑋 − 𝐸 𝑋 = 𝐸 𝑋 2 − 2𝑋𝐸 𝑋 + 𝐸 2 𝑋 = 𝐸 𝑋 2 − 2𝐸 2 𝑋 + 𝐸 2 𝑋
= 𝐸 𝑋 2 − 𝐸2 𝑋 = 𝐸 𝑋 2 − 𝜇2 (2.10)
La variance est une quantité toujours ≥ 0. Elle peut s‟interpréter comme la mesure
des fluctuations de la variable aléatoire autour de sa moyenne : plus elle est grande
plus les valeurs de 𝑋 sont dispersées autour de 𝐸 𝑋 .
Propriétés
7/19
Chapitre 2 Notions de Variables Aléatoires
𝐸 𝑎𝑋 + 𝑏 = 𝑎𝐸 𝑋 + 𝑏
où 𝑎 et 𝑏 sont des constantes non aléatoires.
𝑉𝑎𝑟 𝑎𝑋 + 𝑏 = 𝑎2 𝑉𝑎𝑟 𝑋
2 2
et tel que 𝑉𝑎𝑟 𝑌 = 𝑉𝑎𝑟 𝑎𝑋 + 𝑏 = 𝐸 𝑦 − 𝐸 𝑌 = 𝐸 𝑎𝑥 + 𝑏 − 𝑎𝐸 𝑋 − 𝑏 =
2
𝐸 𝑎𝑥 − 𝑎𝐸 𝑋 = 𝑎2 𝐸 𝑥 − 𝐸 𝑋 2
= 𝑎2 𝑉𝑎𝑟 𝑋
𝜍= 𝑉𝑎𝑟 𝑋 (2.11)
𝐸 𝑥−𝜇 3
𝑠𝑘𝑒𝑤𝑛𝑠 = (2.12)
𝜍3
𝐸 𝑥−𝜇 4
𝑘𝑢𝑟𝑡𝑜𝑠𝑖𝑠 = (2.13)
𝜍4
----------------------------------------------------------------------
Programme 2.4
N=100000;
y=randn(N,1);
k=kurtosis(y)
s=skewness(y)
k =
3.0093
s =
8/19
Chapitre 2 Notions de Variables Aléatoires
-0.0046
---------------------------------------
Cas discret
Pour une va discrète, 𝑋 = 𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , , le moment d‟ordre 𝑛 est défini par :
𝐸 𝑋𝑛 = 𝑖 𝑥𝑖 𝑛 𝑝𝑖 (2.14)
𝐸 𝑋2 = 𝑖 𝑥𝑖 2 𝑝𝑖 (2.16)
---------------------------------------------------------
Programme 2.5
-0.0032
>> var
var =
0.9896
std(x)
ans =
1.0089
-----------------------------------------------------
9/19
Chapitre 2 Notions de Variables Aléatoires
De façon analogue, elle est caractérisée par sa densité de probabilité 𝑝𝑋𝑌 (𝑥, 𝑦), qui,
par la formule suivante permet le calcul de la probabilité pour que le couple de va
appartienne à un domaine ∆ du plan
𝑃 𝑋, 𝑌 ∈ ∆ = ∆
𝑝𝑋𝑌 𝑥, 𝑦 𝑑𝑥𝑑𝑦 (2.17)
ℛ2
𝑝𝑋𝑌 𝑥, 𝑦 𝑑𝑥𝑑𝑦 = 1 (2.18)
Indépendance de 2 va
𝑝𝑋𝑌 𝑥𝑖 , 𝑦𝑗 = 𝑃 𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 (2.20)
qui vérifient
0 ≤ 𝑝𝑋𝑌 𝑥𝑖 , 𝑦𝑗 ≤ 1 et 𝑖 𝑗 𝑝𝑋𝑌 𝑥𝑖 , 𝑦𝑗 = 1
Indépendance de 2 va
𝑃 𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 = 𝑃 𝑋 = 𝑥𝑖 ∙ 𝑃 𝑌 = 𝑦𝑗 (2.21)
Covariance de Deux Va 𝑿 et 𝒀
10/19
Chapitre 2 Notions de Variables Aléatoires
Soit 𝑋 0 ≡ 𝑋 − 𝐸 𝑋
et
𝑌0 ≡ 𝑌 − 𝐸 𝑌
(2.22)
(2.23)
𝑐𝑜𝑣 (𝑋,𝑌) 𝜑 𝑥𝑦
𝜌𝑥𝑦 = = (2.24)
𝑣𝑎𝑟 (𝑋) 𝑣𝑎𝑟 (𝑌) 𝜍𝑥 𝜍 𝑦
Décorrélation de deux va 𝑋 et 𝑌
Si 𝜑𝑥𝑦 = 𝑐𝑜𝑣 𝑋, 𝑌 = 0, on dit alors que les deux va 𝑋 et 𝑌 sont décorrelées (𝜌𝑥𝑦 = 0)
11/19
Chapitre 2 Notions de Variables Aléatoires
--------------------------------------------------------------------------------------------------
Programme 2.6
% covariance of two va
x = [2,-1,4,3]'
y = [10, -5, 3, 0]'
mux = mean(x)
muy = mean(y)
varx = mean((x-mux).^2)
vary = mean((y-muy).^2)
covxy = mean((x-mux).*(y-muy))
corrxy = covxy/sqrt(varx*vary)
x=
-1
y=
10
-5
mux =
muy =
varx =
12/19
Chapitre 2 Notions de Variables Aléatoires
3.5000
vary =
29.5000
covxy =
5.2500
corrxy =
0.5167
--------------------------------------------------------------------------------------------
Coefficient d'Autocorrelation
Remarque
--------------------------------------------------------------------------------------------
Programme 2.7
>> A
A =
13/19
Chapitre 2 Notions de Variables Aléatoires
--------------------------------------------------------------------------------------------
2.5 TRANSFORMEES
2.5.1 Fonctions Caractéristiques
+∞ 𝑖∙𝜔 ∙𝑥
𝜙𝑋 𝜔 = 𝐸 𝑒 𝑖∙𝜔 ∙𝑥 = −∞
𝑒 𝑝𝑋 𝑥 𝑑𝑥 , 𝜔 ∈ ℝ𝑑 (2.25)
𝜙𝑋 𝜔 = 𝑒 𝑖∙𝜔∙𝑥 𝑃𝑋 (𝑑𝑥)
avec 𝑃𝑋 𝑑𝑥 = 𝑝𝑋 𝑥 𝑑𝑥
Théorème
Remarque:
𝑧= 𝑥𝑖 (2.26)
Exemple 2.5:
14/19
Chapitre 2 Notions de Variables Aléatoires
𝜍2𝜔 2
−
𝜙𝑋 𝜔 = 𝑒 2 , 𝜔∈ℝ
𝜕 𝑛 𝜙𝑋 (𝜔) 𝑛
= 𝑖 ∙ 𝐸 𝑋 𝑛 𝑒 𝑖𝜔𝑥 , 𝑎𝑣𝑒𝑐 𝑖 2 = −1
𝜕𝜔 𝑛
𝑛
𝑛 𝜕 𝜙 𝑋 (0)
𝐸 𝑋 𝑛 = −𝑖 (2.28)
𝜕𝜔 𝑛
Remarque
𝜕𝜙𝑋 (𝜔)
= 𝑖 ∙ 𝐸 𝑋𝑗 𝑒 𝑖𝜔𝑥
𝜕𝜔𝑗
𝜕 2 𝜙𝑋 (𝜔)
= −𝑖 ∙ 𝐸 𝑋𝑗 𝑋𝑘 𝑒 𝑖𝜔𝑥
𝜕𝜔𝑗 𝜕𝜔𝑘
𝜕 𝑑 𝜙𝑋 (𝜔) 𝑑
= 𝑖 ∙ 𝐸 𝑋𝑗 𝑋𝑘 … 𝑋𝑑 𝑒 𝑖𝜔𝑥
𝜕𝜔𝑗 𝜕𝜔𝑘 . . 𝜕𝜔𝑑
Soit 𝑋 une v.a discréte. La fonction génératrice de 𝑋 est la fonction 𝑀𝑋 (𝑡) définie sur
l‟intervalle [0, 1] par
15/19
Chapitre 2 Notions de Variables Aléatoires
𝑀𝑋 𝑡 = 𝐸 𝑒 𝑡𝑥 = 𝑥 𝑒 𝑡𝑥 𝑃𝑋 (𝑥𝑖 ) (2.29)
Pour une va continue avec une densité de probabilité 𝑓𝑋 (𝑥), la fonction génératrice
𝑀𝑋 (𝑡), est définie par :
+∞ 𝑡𝑥
𝑀𝑋 𝑡 = 𝐸 𝑒 𝑡𝑥 = −∞
𝑒 𝑓𝑋 𝑥 𝑑𝑥 (2.30)
Dans le cas des variables à valeur dans ℕ, on utilise les fonctions génératrices plutôt
que les fonctions caractéristiques. Remarquons que pour 𝑡 = 𝑖𝜔, la fonction
génératrice se confond avec la fonction caractéristique 𝜙𝑋 𝜔
Chaque fois qu‟un phénomène peut être considéré comme une résultante d‟un
grand nombre de causes aléatoires indépendantes, on peut présumer que ce
phénomène suit une loi de distribution normale : c‟est le théorème central limite.
16/19
Chapitre 2 Notions de Variables Aléatoires
1 𝑛 2+𝛿
lim𝑛 →∞ 𝑖=1 𝐸 𝑌𝑖 =0 (2.31)
𝑠𝑛2+𝛿
alors la somme de 𝑌𝑖 /𝑠𝑛 tend vers une distribution normale. c'est le théorème de la
limite centrale de Lyapunov (Lyapunov CLT).
𝑛
1
lim 2 𝐸 𝑌𝑖 2 𝐼 𝑌𝑖 ≥ 𝜀𝑠𝑛 =0
𝑛 →∞ 𝑠𝑛
𝑖=1
-----------------------------------------------------------------------------------------------------------------
Programme 2.7
y1=r.*sin(teta);
z=rand(1,1000);
f=rand(1,1000);
g=rand(1,1000);
h=rand(1,1000);
h1=r.*cos(2*teta);
load handel.mat
hfile='handel.wav';
wavwrite(y, Fs,hfile);
clear y Fs
[y,Fs,nbits,readinfo]=wavread(hfile);
sound(y,Fs)
h4=y(1:1000);
h5=x+h4';
s=zeros(1,1000);
s(1,:)=x;
s(2,:)=y1;
s(3,:)=z;
s(4,:)=f;
s(5,:)=g;
s(6,:)=h;
17/19
Chapitre 2 Notions de Variables Aléatoires
s(7,:)=h1;
s(8,:)=h4;
s(9,:)=h5;
for nn=1:9
s1=s(nn,:); s1=s1-mean(s1);
vr=var(s1); s1=s1/sqrt(vr);
s(nn,:)=s1;% la somme de plusieurs données de pdfs différentes
end;
S=sum(s);
hist(S); colormap('cool');
300
250
200
150
100
50
0
-15 -10 -5 0 5 10 15
S
[heights,centers] = hist(S);
hold on
ax = gca;
ax.XTickLabel = [];
n = length(centers);
w = centers(2)-centers(1);
t = linspace(centers(1)-w/2,centers(end)+w/2,n+1);
p = fix(n/2);
fill(t([p p p+1 p+1]),[0 heights([p p]),0],'w')
plot(centers([p p]),[0 heights(p)],'r:')
h = text(centers(p)-.2,heights(p)/2,' h');
dep = -70;
tL = text(t(p),dep,'L');
tR = text(t(p+1),dep,'R');
hold off
dt = diff(t);
Fvals = cumsum([0,heights.*dt]);
F = spline(t, [0, Fvals, 0]);
DF = fnder(F); % computes its first derivative
h.String = 'h(i)';
18/19
Chapitre 2 Notions de Variables Aléatoires
tL.String = 't(i)';
tR.String = 't(i+1)';
hold on
fnplt(DF, 'r', 2)
hold off
ylims = ylim;
ylim([0,ylims(2)]);
300
250
200
150
h
100
50
0
-15 -10 -5 0 5 10 15
L R
Fig. 2.5 Exemple du théorème de la limite centrale CLT
19/19