Vous êtes sur la page 1sur 8

TRAITEMENT DU SIGNAL

37

CHAPITRE 3

Signaux aléatoires

1. Analyse spectrale des processus aléatoires

Pour la théorie de l'information un signal déterministe ne comporte pas d'information car il est certain. Par contre les signaux aléatoires en contiennent un grand nombre. Dans la pratique, les signaux utiles sont perturbés par des bruits qui ont pour modèles des processus aléatoires.

Nous ne possédons pas d'outils analogues à la transformée de Fourier pour analyser les processus aléatoires. Le raisonnement se fera sur les moments statistiques du signal en le supposant stationnaire au sens large.

La représentation spectrale dans le domaine des fréquences remplace le signal aléatoire par un signal déterministe : sa fonction d'autocorrélation.

2. Corrélation

2.1. Processus aléatoire à plusieurs variables

Il convient lorsqu'on traite de processus aléatoire à plusieurs variables de déterminer le genre de relation logique existant entre les variables. La fonction de répartition est-elle composée ou conditionnelle?

Considérons X 1 (t) et X 2 (t) deux variables à valeurs dans R définies par

Fonction de répartition

F(x 1 , x 2 ) = p(X 1 < x 1 , X 2

< x 2 )

38

Densité de probabilité

f (x 1 ,x 2 ) =

F(x 1 , x

2

)

=

2 F(x 1 , x 2 )

x 1 x 2

∫ ∫

x

2

−∞

x 1

− ∞

f (x 1 , x 2 )dx 1 dx 2

Lorsqu'il y a indépendance statistique, on a

f (x 1 ,x 2 ) = f (x 1 ) f (x 2 )

2.2. Covariance

Signaux aléatoires

On adoptera la notation suivante pour les moments

m ij = E(X 1 i , X 2 j )

Les moments d'ordre 1 et 2 de X 1 (t) et X 2 (t) sont

m

m

m

10

01

11

E(

= E(

=

X 1 ) X 2 )

= E(X 1 , X 2 ) =

∫ ∫

+ ∞

− ∞

+ ∞

−∞

x 1 x 2 f (x 1 , x 2 )dx 1 dx 2

µ 20 = E((X 1 m 10 ) 2 ) est la variance de X 1 (t)

µ 02 = E((X 2 m 01 ) 2 ) est la variance de X 2 (t)

µ 11 = E((X 1 m 10 )(X 2 m 01 )) est la covariance de X 1 (t) et X 2 (t)

Lorsque les variables sont indépendantes leur covariance est nulle

2.3. Cœfficient de corrélation

Le cœfficient de corrélation est donné par

ρ =

µ 11

µ 20 µ 02
µ 20 µ 02

ou

ρ =

µ 11

σ 1 σ 2

Le cœfficient de corrélation de deux variables indépendantes est nul. Les variables sont alors dites non corrélés. La réciproque n'est en général pas vraie :

deux variables non corrélées ne sont pas nécessairement statistiquement indépendantes. Le seul cas où la réciproque est vrai concerne le cas de variables mutuellement gaussiennes. Il ne faut pas confondre le cœfficient de corrélation avec la fonction de corrélation.

TRAITEMENT DU SIGNAL

3.

Stationnarité

39

Les caractéristiques probabilistiques d'un signal aléatoire dépendent de la nature des moyennes d'ensembles et des moyennes temporelles.

3.1. Moyennes d'ensembles ou moments statistiques

Les moyennes d'ensembles sont relatives aux ensembles des échantillons du même phénomène relevés par un ensemble de N appareils de même nature.

La moyenne statistique est E( x (t 0 ,ω))

La

fonction d'autocorrélation statistique R x (t 1 ,t 2 ,ω) = E(x(t 1 ,ω)x * (t 2 ,ω))

3.2. Moyennes temporelles ou moments temporels

Les moyennes temporelles sont relatives à un ensemble d'échantillons d'un phénomène relevés par un appareil fiable.

Le moment d'ordre 1 ou moyenne temporelle est défini par

x(t,ω 0 ) = lim

T − > ∞

1

T

T / 2

T /2

x(t,ω 0 )dt

Le moment d'ordre 2 ou fonction d'autocorrélation temporelle est défini par

R x (τ,ω 0 ) = lim

T −> ∞

1

T

T /2

T / 2

x(t,ω 0 )x * (t τ,ω 0 )dt

3.3. Stationnarité au sens strict

Un processus aléatoire est dit stationnaire au sens strict lorsque toutes ces caractéristiques statistiques c'est à dire tous ses moments sont indépendants de l'origine du temps.

La stationnarité au sens strict implique la stationnarité au sens large, mais la réciproque n'est pas vraie.

3.4. Stationnarité au sens large (ou d'ordre 2)

Un processus aléatoire est dit stationnaire du second ordre lorsque seuls les moments d'ordres 1 et 2 sont indépendants du temps.

E( x (t) ) = Cste R x (t 1 ,t 2 ) = R x (t 1 t 2 )

40

Signaux aléatoires

4. Ergodicité

Un processus aléatoire est dit ergodique lorsque les moyennes temporelles de tous les échantillons existent et sont indépendantes de l'échantillon.

phénomène aléatoire est ergodique et

stationnaire, on peut mesurer avec un seul appareil fiable à partir de n'importe quel instant.

D'un point de vue pratique lorsqu'un

Le théorème de Birkhoff indique que si un phénomène aléatoire est ergodique et stationnaire alors les moments temporels et statistiques sont égaux.

L'intérêt de ce théorème réside dans le fait que les propriétés statistiques des processus stationnaires et ergodiques peuvent être obtenue par l'observation d'une seule réalisation.

5. Processus gaussien

Très fréquemment, on rencontre des signaux modélisable par une loi de Gauss.

5.1. Variable et densité de probabilité gaussienne

Le processus est Gaussien si pour chaque ensemble fini d'instants les variables aléatoires ont une densité de probabilité Gaussienne.

p(x) =

( x − m 1 ) 2 1 ( − 2 ) 2 σ 2
(
x − m 1 ) 2
1 ( −
2 )
2 σ
2 πσ e

Cette densité dépend des instants auxquels on observe le processus.

5.2. Propriétés des processus Gaussien

La densité d'ordre n ne dépend que des moments d'ordre 1 et 2. Par conséquent, la stationnarité d'ordre 2 entraîne la stationnarité au sens strict. dans le cas des processus Gaussien les deux notions de stationnarité sont équivalentes.

Un processus Gaussien conserve son caractère Gaussien pour toute transformation linéaire. Cette propriété est intéressante pour le filtrage linéaire de telle signaux.

Pour qu'un processus Gaussien stationnaire soit ergodique, il existe une condition suffisante. Son spectre de puissance doit être continue. Il faut donc que sa fonction d'autocorrélation soit intégrable

+ ∞

− ∞

R x (τ) dτ

< +∞

TRAITEMENT DU SIGNAL

41

La plupart des phénomènes physiques résultant d'un nombre très élevé de causes sensiblement indépendantes est Gaussien.

6.

Bruits

Ce sont des signaux indésirables qui se superposent au signal utile.

6.1. Bruit blanc

Un bruit blanc est un signal aléatoire β(t) stationnaire au second ordre dont la densité spectrale de puissance est constante sur tout l'axe des fréquences

S ββ ( f ) = N 0

2

pour tout f

R ββ (τ) = N 0

2

δ(τ)

Ce

bruit

est

physiquement.

de

puissance

moyenne

infinie.

Il

n'est

pas

réalisable

On assimilera à un bruit blanc tout signal dont la densité spectrale est constante dans une bande beaucoup plus large que la bande d'observation.

6.2. Bruit pseudo-blanc ou bruit blanc filtré

Un bruit blanc à bande limité est définit par :

S

ββ (

f

) =

S

R

ββ

ββ

(

f

(

τ

)

)

=

=

N

0

2

0

N

0

2

.

N B

0

f

< B

ailleurs

rect

sin

2

c

f

)

B

(

B

(

2

π

τ

)

Lorsque B tend vers l'infini, ce bruit converge vers un bruit blanc.

Un bruit blanc à bande limitée à comme puissance P = N 0 B

Tout bruit sera considéré comme un processus aléatoire stationnaire d'ordre deux, centré, additif et indépendant du signal aléatoire utile auquel il vient se superposer.

Souvent, l'hypothèse supplémentaire d'un bruit blanc gaussien est faite. Le bruit thermique produit par un résistance relève de ce dernier cas. En fait, aux propriétés énergétiques du bruit blanc on adjoint celles statistiques du processus gaussien.

42

Signaux aléatoires

7. Propriétés énergétique des processus stationnaires d'ordre 2

Les propriétés énergétiques de ces processus ne dépendent que de la fonction d'autocorrélation. Nous ne retiendrons que les processus stationnaires d'ordre 2 réels.

7.1. Propriétés de la fonction de corrélation

La fonction de corrélation est paire R x (τ ) = R x (τ )

Valeur à l'infini : si x (t) ne contient ni composante périodique ni composante indépendante du temps, lorsque τ − > ∞ les variables x (t) et x (t + τ ) deviennent statistiquement indépendantes.

lim

τ

− >

R x (τ ) =

lim

τ − > ∞

E(x(t)x(t + τ )) = E 2 (x(t))

Valeur à l'origine : R x (0) = E(x 2 )

La variance est la différence entre les valeurs de la fonction d'autocorrélation à l'origine et à l'infini.

2

σ x

=

R x (0) R x ()

La fonction est maximum à l'origine R

x

(

)

0

R

x

(

τ

)

d'autocorrélation

identiques. La connaissance de la fonction d'autocorrelation ne définit pas totalement un processus.

Deux

processus

différents

peuvent

avoir

des

fonctions

Cœfficient de corrélation

ρ x (τ ) =

R x (τ ) E 2 (x)

2

σ x

Le cœfficient de corrélation est maximum à l'origine

ρ x (0) = 1

Il peut s'annuler pour des valeurs finies de τ , x (t) et x (t τ ) sont alors non corrélés. Lorsque le processus est gaussien x (t) et x (t τ ) sont statistiquement indépendants. Si ρ ( τ )− > 0 lorsque τ − > ∞ alors le processus est purement aléatoire.

TRAITEMENT DU SIGNAL

43

Dans ce cas, il existe une valeur τ 0 au delà de laquelle les échantillons peuvent être pratiquement considérés comme non corrélés. τ 0 est appelé temps de corrélation, il est défini par

τ 0

=

1

2

=

+ ∞

− ∞

ρ x (τ )

dτ

+ ∞

0

ρ x (τ )

dτ

Lorsque le cœfficient de corrélation tend vers zéro à l'infini, cela représente une présomption en faveur de l'ergodicité.

7.2. Théorème de Wiener-Khintchine

La densité spectrale de la puissance moyenne est définie par

S x ( f ) =

+ ∞

− ∞

R x

(τ )e i 2 πfτ dτ

S x ( f ) est le spectre de puissance, il représente la distribution en fonction de la fréquence de la puissance moyenne du processus. La moyenne est prise statistiquement sur l'ensemble des réalisations possibles du processus.

Ce théorème fonde l'interprétation énergétique de la fonction d'autocorrélation qui est la transformée de Fourier inverse du spectre de puissance.

TF {R x (τ )} = S x ( f )

La puissance moyenne totale du processus est

+

P x =

P x = R x (0)

S x

( f )df

Comme le spectre représente une moyenne sur l'ensemble des réalisations possibles du processus, une réalisation particulière peut toujours avoir un spectre de puissance différent de S x ( f ).

Si le processus est ergodique S x ( f ) représente le spectre de puissance de n'importe qu'elle réalisation

P x =

P x =

+

S x

lim

T −> +∞

( f )df

1

T

+ T / 2

T / 2

x

2

i

(t)dt

x i (t) est une réalisation de x(t)

44

Signaux aléatoires

8.

Exercices

4.1 - Soient deux signaux aléatoires indépendants x(t)et y(t)à distribution uniforme entre zéro et un

p

rect

1

(

x

1

2

1

)

x (

x

) =

p

Montrer que la densité de probabilité de leur somme est p z (

y (

y

) =

rect

1

(

y

2

)

z

=

x

+

y

) = Λ (

1

z

1

)

4.2 - Un signal z(t) est le résultat de la somme de deux signaux indépendants x(t) et y(t). Les amplitudes de x(t) sont uniformément distribuées avec une valeur

moyenne m

uniformément distribuées avec une valeur moyenne m

1

1 ( ) = 0 et une variance V (x) =

x

3

V 2 . Les amplitudes de y(t)sont aussi

1 ( ) = 2.5 et une variance

y

V (x) =

3 2 . Déterminer la probabilité pour que z(t) dépasse un seuil de 3 Volts.

4 V