Académique Documents
Professionnel Documents
Culture Documents
Introduction
Signaux aléatoires
Signaux Aléatoires Définitions
Signaux aléatoires Description d’un signal aléatoire
Description complète
Description à un et deux instants
R. Flamary Stationnarité
Stationnarité stricte
Stationnarité au sens faible
Ergodicité
3 septembre 2018 Corrélation et inter-corrélation
2 / 16
3 / 16 4 / 16
Description à un instant Description à deux instants (1)
X1 X1 , X2
X(t, ω) X(t, ω)
t t
t1 t1 t2
Définition Définition
On connaı̂t X(t, w) à un instant si ∀t1 on connaı̂t la loi de X(t1 , w), c’est à dire de la On connaı̂t X(t, w) à deux instants si ∀t1 , t2 on connaı̂t la loi conjointe des v.a.
variable aléatoire X1 à l’instant t1 . X(t1 , w) et X(t2 , w) :
Remarques Définition
On dit qu’un signal aléatoire est stationnaire si ses propriétés statistiques sont
I Xc (t, w) = X(t, w) − mX (t) est le signal centré.
invariantes par translation dans le temps.
I Corrélation et covariance sont des caractérisations à l’ordre 2.
Stricte stationnarité
Lorsque le signal aléatoire est connu la stationnarité stricte se traduit par
Indépendances entre X1 et X2
pX(t1 ),...,X(tk ) = pX(t1 −τ ),...,X(tk −τ ) ∀τ ∈ R. (8)
pX1 ,X2 (x1 , x2 ) = pX1 (x1 )pX2 (x2 ) (7)
7 / 16 8 / 16
Stationnarité au sens faible (1) Stationnarité au sens faible (2)
X(0) X(t1 ) X(t1 − τ ) X(t1 ), X(t2 ) X(t1 − τ ), X(t2 − τ )
X(t, ω) X(t, ω)
t t
t1 t1 − τ t1 t2 t1 − τ t2 − τ
τ
Stationnarité pour la description à un instant Stationnarité pour la description à deux instants
La distribution conjointe ne dépend plus que de l’écart entre les deux instants
pX(t1 ) = pX(t1 −τ ) = pX(0) ∀τ ∈ R (9)
pX(t1 ),X(t2 ) = pX(t1 −τ ),X(t2 −τ ) = pX(t1 −t2 ),X(0) ∀τ ∈ R (11)
I La corrélation devient donc
I Toutes les variables aléatoires X(t) suivent la même loi ∀t ∈ R.
I Les moments RX (t1, t2) = E(X(t1 )X ∗ (t2 )) = E(X(t1 −t2 )X ∗ (0)) = E(X(t)X ∗ (t−τ )) (12)
(n)
E(X(t1 )n ) = E(X(t1 − τ )n ) = mX (t) = mX
(n)
∀n ∈ N (10) I On définit la fonction d’autocorrélation comme
9 / 16 10 / 16
11 / 16 12 / 16
Signaux stationnaires et ergodiques Corrélation et intercorrélation
Rappels
I L’ergodicité permet de calculer une espérance mathématique en effectuant une Pour des signaux aléatoires stationnaires et ergodiques X(t, x) et Y (t, w).
moyenne temporelle.
I Corrélation ou auto-corrélation
I Au premier ordre, les moyennes d’ensembles et temporelles sont égales : Z T /2
xn = EX(t, w)n n
= E(X(t, w) ) =
(n)
mX (17) RX (τ ) = RXX (τ ) = E(X(t, w)X ∗ (t−τ, w)) = lim X(t, w)X ∗ (t−τ, w)dt
i T →∞ −T /2
(19)
I Important en pratique car plusieurs réalisations d’un signal sont rares. Mesure une relation linéaire entre deux instants d’un signal.
I On mesure des signaux temporels longs pour estimer leur moyennes, variance, I Inter-corrélation
covariance. Z T /2
I Pour un signal stationnaire au second ordre et ergodique : RXY (τ ) = E(X(t, w)Y ∗ (t − τ, w)) = lim X(t, w)Y ∗ (t − τ, w)dt (20)
T →∞ −T /2
Z
1
RX (τ ) = E(X(t)X ∗ (t − τ )) = lim X(t, w)X ∗ (t − τ, w)dt (18) Permet de quantifier les relations linéaires existantes entre deux signaux aléatoires
T →∞ T |T |
en fonction d’un déphasage.
La corrélation du signal avec lui-même s’appelle également auto-corrélation. I La corrélation et l’inter-corrélation ont un certain nombre de propriétés utiles
pour les calculs.
13 / 16 14 / 16
∗ Symétrie Hermitienne
RX (τ ) = RX (−τ ) (21) X
λi λj RX (τi − τj ) ≥ 0, ∀i, j ∗
i,j
RXY (τ ) = RXY (−τ ) (26)
Centrage (24)
Maximum
Coefficient de corrélation On peut utiliser l’inégalité de Schwartz pour montrer que
RX (τ ) = RXc (τ ) + m2X (22)
RX (τ )
ρ(τ ) = (25) |RXY (τ )|2 ≤ RXX (0) ∗ RY Y (0) (27)
RX (0)
Puissance et donc
Mémoire |RX (τ )| ≤ RX (0) (28)
PX = RX (0) (23)
Processus à mémoire finie : L’auto-corrélation est maximale en 0
Par définition RX (0) > 0
∃Tmax tel que ρ(t) = 0 pour |t| > Tmax
15 / 16 16 / 16