Académique Documents
Professionnel Documents
Culture Documents
Les notes qui suivent portent sur les signaux dépendant d’une variable monodimensionnelle.
Il faut cependant insister sur le fait que, formellement, ces résultats sont exactement les
mêmes quand on les développe pour les signaux d’une variable bidimensionnelle ou même
tridimensionnelle, les transformées de Fourier, produits de convolution, fonctions d’inter et
autocorrélations étant à prendre alors au sens 2D où 3D.
1.Définition :
2.Moyenne d’un SA X :
C’est la fonction mX (t ) = E ( X (t )), t ∈ R .
Si mX (t ) prend une même valeur m pour tout t on dit que la suite m X est stationnaire ou
encore que X est de moyenne stationnaire.
3.SA X C associé à un SA X :
c’est le SA X C (t ) = X (t ) − mX (t ), t ∈ R .
4.Covariance d’un SA X :
c’est la fonction de 2variables :
ΓX (τ ) = C X (t , t − τ ) .
Si la covariance est stationnaire cette quantité est évidemment constante au cours du temps.
Dans le cas où sa covariance est stationnaire la DSP du SA X, notée γ X , est définie comme
étant égale à la transformée de Fourier de la fonction ΓX :
γ X ( f ) = ∫ ΓX (τ )e −2πifτ dτ , f ∈ R
Remarque : La transformation de Fourier peut être prise si nécessaire au sens des distributions
Remarque : Il est cohérent physiquement que γ X soit appelée densité spectrale de puissance
car en l’intégrant par rapport à f on obtient la puissance statistique moyenne. Si X (t )
s’exprime en Volts la DSP s’exprime donc en Volts par Hertz
1 ˆ
Elle peut s’écrire, en utilisant la relation de Parseval : ∫
2
XT ( f ) df
T
1 ˆ 2
où l’intégrande X ( f ) (qui à f fixé est une VA) est appelé périodogramme et est noté
T
T
PX ( f ) . On a ainsi, de fait, introduit une fonction aléatoire (qui dépend de f au lieu de t ) :
PXN : Ω × R → R +
(ω , f ) → PXT (ω , f )
MIT 2002-2003 3/14
Introduction aux signaux aléatoires (JJ Bellanger)
Théorème (Wiener-Kintchine) :
Dans la mesure où l’une des limites suivantes existe (l’existence de l’une impliquant
l’existence de l’autre) on montre que :
TF T
1 1
lim E ( PXT ( f )) , f ∈ R ↔ C X (τ ) = lim ∫ C X (t , t − τ )dt ,τ ∈ R
N →∞ T T →∞ T
t =0
1
Si la covariance de X est stationnaire alors C X (τ ) = ΓX (τ ) et lim E ( PXT ( f )) coïncide avec
N →∞ T
γ X ( f ) définie plus haut. Si la covariance n’est pas stationnaire mais que sa moyenne
T
1
T →∞ T ∫
temporelle C X (τ ) = lim C X (t , t − τ )dt ,τ ∈ R existe la transformée de Fourier de cette
t =0
dernière est prise comme étant égale par définition à la densité spectrale de puissance. Ceci
permet d’élargir le champ de la première définition à des signaux pour lesquels par exemple
C X (t , t − τ ) est périodique en t . Ces derniers interviennent couramment dans la modélisation
de signaux du type modulations numériques et sont appelés signaux de covariance
cyclostationnaire.
γ X ,Y ( f ) = ∫ ΓX ,Y (τ )e −2πifτ dτ , f ∈ R
γX C ,YC ( f ) = ∫ ΓX C ,YC (τ )e −2πifτ dτ , f ∈ R
1 ˆ
En introduisant le périodogramme croisé PXT,Y ( f ) = X T ( f )YˆT ( f ), f ∈ R on a :
*
T
TF T
1 1
lim E ( PXT,Y ( f )) , f ∈ R ↔ C X ,Y (τ ) = lim ∫ C X ,Y (t , t − τ )dt ,τ ∈ R
N →∞ T T →∞ T
t =0
(la version centrée du théorème s’obtenant en remplaçant X et Y par leurs versions centrées )
1.Définition :
Un signal aléatoire en temps discret (SAD) X correspond à une suite de variables aléatoires
(VA) X [n], n ∈ Z .
Les X [n] seront considérées comme pouvant être à valeurs dans R ou dans C .
Il en découle que :
- à n fixé on est amené à considérer la loi de probabilité et les moments de la VA X [n]
- à n et p fixés on est amené à considérer la loi de probabilité conjointe (bidimensionelle)
et les moments conjoints de la paire de VA ( X [n], X [ p ]) , en particulier leur coefficient
de corrélation
- à n , p , q , fixés ….
- à ω ∈ Ω fixé la suite X ω [n] = X [n](ω ), n ∈ Z se ramène à une suite de nombres réels ou
complexes et est appelée réalisation X ω de X .
ΓX [ p ] = C X [n, n − p ], p ∈ Z .
Si la covariance est stationnaire cette quantité est évidemment constante au cours du temps.
qui est une fonction de la fréquence f de période 1 (ce qui permet de ne la décrire que sur un
intervalle de longueur unité). Dans le cas où la somme ci-dessus converge au sens des
fonctions sur R il est possible (et souvent pratique) d’introduire la transformée en Z bilatérale
de la suite des corrélations. Cette transformée qui inclut le cercle unité dans son anneau de
convergence est alors appelée DSP en Z :
+∞
γ XZ ( z ) = ∑ Γ X [n] z − n , r1 < z < r2 où r1 < 1 < r2
−∞
Pour retrouver les fonctions de corrélation il suffit d’utiliser les formules d’inversion pour la
TFS ou pour la TZ :
MIT 2002-2003 6/14
Introduction aux signaux aléatoires (JJ Bellanger)
1
∫ γ Xd ( f ) e 2π ipf df , p ∈ Z Γ X [ p] = ∫unité γ X ( z ) z dz, p ∈ Z
n −1
Γ X [ p] =
2π i cercle!
z
[ −1/ 2,1/ 2[
1/ 2
1 ˆ
∫
2
Elle peut s’écrire, en utilisant la relation deParseval : XN (f ) df
−1 / 2
N
où l’intégrande (qui à f fixé est une VA) est appelé périodogramme et est noté PXN ( f ) .
On a ainsi, de fait, introduit une fonction aléatoire (qui dépend de f au lieu de t ) :
PXN : Ω × [−1 / 2,1 / 2[→ R +
(ω , f ) → PXN (ω , f )
Théorème (Wiener-Kintchine) :
Dans la mesure où l’une des limites suivantes existe (l’existence de l’une impliquant
l’existence de l’autre) on montre que :
N −1
∑ C [k , k − p] , p ∈ Z
1 TF 1
lim E ( PXN ( f )) , f ∈ [−1 / 2,1 / 2[ ↔ C X ( p ) = lim X
N →∞ N N →∞ N
k =0
1
Si la covariance de X est stationnaire C X [ p] = ΓX [ p], p ∈ Z et lim E ( PXN ( f )) coïncide
N N →∞
alors avec γ X ( f ) définie plus haut. Si la covariance n’est pas stationnaire mais que sa
d
1 N −1
moyenne temporelle C X [ p ] = lim ∑ C X [k , k − p ] existe la transformée de Fourier de cette
N →∞ N
k =0
dernière est prise comme étant égale par définition à la densité spectrale de puissance. Ceci
permet d’élargir le champ de la première définition à des signaux pour lesquels par exemple
C X [n, n − p] est périodique en n . Ces derniers interviennent couramment dans la
modélisation de signaux du type modulations numériques et sont appelés signaux de
covariance cyclostationnaire.
Elle est en tout point semblable à celle d’une paire de SA en temps continu. On se reportera
donc à cette dernière en faisant les adaptations nécessaires
MIT 2002-2003 7/14
Introduction aux signaux aléatoires (JJ Bellanger)
Théorème :
1 ˆ 2 TF −1 1
T /2
T −T∫/ 2
lim T →∞ E ( X T ( f ) ) , f ∈ R → C X (τ ) = lim T →∞ C X (t , t − τ )dt τ ∈ r
T
Preuve :
T /2 2 T /2 T /2
1 2 1 1
∫ X ( t )e ∫ X (t )e dt. ∫X
− 2πift − 2πift
E ( Xˆ T ( f ) ) = E ( dt ) = E ( *
(t )e + 2πift dt )
T T −T / 2
T −T / 2 −T / 2
T /2 T /2
1
= E( . ∫ ∫ X (t )e −2πift X * (t ' )e + 2πift ' dt dt ' )
T t = − T / 2 t '= − T / 2
1
= . ∫ ∫ PT (t ) PT (t ' ) C X (t , t ' ) e −2πif ( t −t ') dt dt ' où PT (t ) = 1[ − T :2,T :2 ] (t )
T t∈R t '∈R
1
= . ∫ ∫ PT (t ) PT (t − τ ) C X (t , t − τ ) e −2πif (τ ) dt dτ
T t∈R τ ∈R
la dernière égalité étant obtenue par le changement de variable (t , t ' ) → (t , τ ) où τ = t − t '
qui correspond à une transformation de jacobien égal à 1 (ce qui permet de substituer dt.dτ à
dt.dt ' ).
L’intégrale double ainsi obtenue peut encore s’écrire ( on considère pouvoir appliquer le
théorème de Fubini) :
t = min( T / 2 +τ ,T / 2 )
1 1
∫ ( ∫ PT (t ) PT (t − τ ) C X (t , t − τ ) dt ) e dτ = ∫ ( ∫ C X (t , t − τ ) dt ) e −2πifτ dτ
− 2πifτ
τ ∈R
T t∈R τ ∈R
T t = max( − T / 2+τ , −T / 2 )
et en remarquant que
t = min( T / 2 +τ ,T / 2 )
1
T ∫ Cτ X (t , t − τ ) dt ) → C X (τ ), τ ∈ R
t = max( − T / 2 + , − T / 2 )
T →∞
on aboutit à (en admettant de pouvoir échanger la prise de limite et l’intégration par rapport à
τ , ce qui est vrai par exemple si la limite ci-dessus existe dans l’espace des distributions S’
car alors lim(TF)=TF(lim)) :
t = min(T / 2 +τ ,T / 2 )
1 2 1
E ( Xˆ T ( f ) ) = ∫ ( ∫ C X (t , t − τ ) dt ) e − 2πifτ dτ , f ∈ R T→ Cˆ X ( f ), f ∈ R
→∞
T τ ∈R
T t = max( −T / 2+τ , −T / 2)
cqfd
MIT 2002-2003 8/14
Introduction aux signaux aléatoires (JJ Bellanger)
Autres cas
La démonstration de ce théorème est point à point similaire quand on considère le cas du
temps discret et lorsqu’on étend au cas des densités spectrales croisées que ce soit en temps
continu où en temps discret.
1.Covariances
2.Fonctions de corrélation
ΓX (u ) = ΓX* (−u ),
Si X SSL alors ΓX (u ) = ΓX C (u ) + m X
2
Si X , Y conjointement SSL
ΓX ,Y (u , v) = ΓX C ,YC (v, u ) + m X mY*
ΓX +Y (u ) = ΓX (u ) + ΓY (u ) + ΓX ,Y (u ) + ΓY , X (u )
si ΓX C ,YC ( v ) = 0, (u ) ∈ R alors
ΓX +Y (u, v ) = ΓX (u ) + ΓY (u ) + m X mY* + mY m *X
3.Densités spectrales
Si X (t ) ∈ R alors γ X ( − f ) = γ X ( f ), f ∈ R
Si X SSL et si pas de terme en δ 0 dans γ X alors m X = 0
γ X ,Y ( f ) = γ Y* , X ( f ), f ∈ R
Si X , Y conjointement SSL alors γ X ,Y ( f ) = γ X C ,YC ( f ) + m X mY* δ 0 ( f ) , f ∈ R
La transformation de la loi de probabilité est un problème très complexe sauf dans des cas
particuliers . Parmi ces derniers le plus important en pratique est celui où le signal d’entrée
suit une loi gaussienne auquel cas on peut montrer que le signal de sortie et le signal d’entrée
suivent une loi conjointement gaussienne ce qui implique que la loi marginale du signal de
sortie est elle aussi gaussienne .
a.Transformation de la moyenne
Soit le signal aléatoire X filtré par un système linéaire et homogène de réponse
impulsionnelle H et soit Y le signal aléatoire obtenu en sortie. La relation entre les
réalisations du signal d’entrée et celle du signal de sortie est :
tandis que la relation entre variables aléatoires s’écrit à l’identique en effaçant le symbole de
réalisation ω .
En admettant (ce que l’on peut montrer sous des conditions non restrictives du point de vue
des sciences de l’ingénieur) que l’on puisse commuter les opérateurs E ( ) et ∫ ainsi que les
opérateurs E ( ) et ∑ , on obtient :
mY (t ) = E (Y (t )) = ∫ H (u ) E ( X (t − u )du = ( H * m X )(t ), t ∈ R
R
Dans le cas où m X est stationnaire (c’est à dire égale à une constante) ces formules
deviennent :
mY (t ) = E (Y (t )) = m X Hˆ (o) = cte ∀t
mY [n ] = E (Y [n ]) = m X Hˆ (o ) = cte ∀n
b.Transformation de la covariance
Nous allons considérer d’emblée le filtrage linéaire de deux signaux aléatoires X 1 et X 2 que
l’on présente respectivement sur les entrées de deux filtres linéaires de réponses
impulsionnelles H 1 et H 2 . En admettant toujours que l’on puisse échanger les opérateurs
espérance mathématique et somme il vient pour le calcul de la covariance croisée entre les
deux sorties :
∫∫ H (u) H ( v ) E ( X 1 (t − u ) X 2 (t − τ − v ))dudv
* *
1 2
RxR
ce qui conduit à :
Dans le cas où la covariance croisée entre les entrées est stationnaire et où on a donc une
fonction d’intercorrélation, la covariance croisée entre les sorties est également stationnaire et
l’on obtient une fonction d’intercorrélation en sortie :
Si les covariances ne sont pas stationnaires mais qu’elles sont stationnarisables les 2
formules ci-dessus restent valables en remplaçant respectivement Γ X1 , X 2 et Γ X i par C X1 , X 2 et
CXi .
Des formules analogues peuvent être obtenues dans le cas du temps discret :
CYi [n, n − p ] = ∑ ∑ H i [l ]H i* [ j ] C X i [n − l , n − p − j ], n ∈ Z , p ∈ Z , i = 1, 2
( l , j )∈Z 2
ΓYi [ p ] = (COR ( H i , H i ) * Γ X i )[ p ], p ∈ Z , i = 1, 2
Si les covariances ne sont pas stationnaires mais qu’elles sont stationnarisables les 2 formules
ci-dessus restent valables en remplaçant respectivement Γ X1 , X 2 et Γ X i par C X1 , X 2 et C X i .
En considérant les définitions les plus générales des DSP, γ S1 ,S2 = TF (CS1 ,S2 ), γ S = TF (CS ) (ce
qui recouvre le cas où les covariances sont stationnaires puisqu’il suffit alors de remplacer
respectivement C X1 , X 2 , C X par Γ X1 , X 2 , Γ X ) et en prenant la TF des 2 membres de
dans le cas du temps discret on aboutit aux expressions suivantes des DSP croisées et non
croisées (en appliquant les propriétés de la TF (et de la TFS) concernant les opérations
COR(.,.) et convolution dans le domaine temporel, voir partie du cours sur signaux
déterministes) :
en temps continu :
en temps discret :
Toutes les formules (exprimant les relations quand on passe de(s) l’entrée(s) à la (aux)
sortie(s) des filtres entre covariances , entre corrélations et entre densités spectrales) restent
valables lorsque ces quantités sont remplacées par leurs versions centrées. Ceci est évident
puisque les formules développées le sont pour des m X (fonctions ou suites) quelconques et
restent donc vraies pour des m X nulles.
VI-BRUIT BLANC
L’appellation bruit blanc à son origine dans la lumière blanche qui est considérée en physique
comme présentant une répartition de puissance uniforme sur l’ensemble des longueurs d’onde
du spectre électromagnétique et par conséquent sur l’ensemble des fréquences, ce qui
correspond à une fonction égale à une constante sur l’axe des fréquences.
On appelle bruit blanc discret (BBD) tout SAD X admettant une DSP centrée égale à une
constante (évidemment réelle positive) :
γ Xd ( f ) = a ∈ R + , − 1/ 2 ≤ f < 1/ 2
c
Remarque : suivant les auteurs un bruit blanc est considéré ou non comme étant centré. La
définition adoptée ici, clairement , ne suppose pas le caractère centré.
N0 N
γX (f)= ∈ R + , − ∞ ≤ f < +∞ où la notation 0 est celle usitée dans la littérature dans le
c
2 2
domaine des télécommunications (on peut évidemment choisir un symbole quelconque pour
désigner cette constante). Si le bruit blanc est supposé admettre une fonction de corrélation
centrée, celle ci devant correspondre à la transformée inverse de la DSP centrée prend alors la
forme :
N
Γ X C (τ ) = 0 δ 0 (τ ), τ ∈ R où δ 0 désigne ici (comme l’indiquent les parenthèses) la
2
distribution de Dirac à l’origine.
Considérer la puissance statistique moyenne d’un bruit blanc de covariance stationnaire (en
N
temps continu ) mène à une inconsistance physique : PSM ( X ) = 0 δ 0 (0) = ∞ (rappelons que
2
PSM ( X )(t ) = E ( X (t ) ) ).Un tel SA n’est pas un SA d’ordre 2 et n’admet donc pas de
2
N0
γX(f)= + m X δ 0 ( f ), − ∞ < f < +∞ en temps continu et
2
2
un peigne de Dirac de période unité et d’amplitude m X ).
MIT 2002-2003 14/14
Introduction aux signaux aléatoires (JJ Bellanger)