Académique Documents
Professionnel Documents
Culture Documents
ENERGIE ET PUISSANCE
DES SIGNAUX
FONCTIONS DE CORRELATION
exemples:
x(t)=δ(t) ⇒ {x0=1 ; xk≠0=0} ⇒ Exx=1.
y(t)=[e e(t) échantillonnée ; α∈R ; α>0 ] soit tel que {yk<0=0 ; yk≥0=e
-αt -αkTs
}
+∞
⇒ Eyy= ∑e
k =0
−2αkTs
= 1
1−e−2αTs
Eyx=1
ou en utilisant la transformée en Z:
+∞ +∞
TZ[x(t)]= ∑x z
k = −∞
k
−k
z j
=exp( →s)
2πfT TF[x(t)]= ∑x e
k =−∞
k
− j2πkTsf
j2πfTs
La transformée de Fourier de x(t) est une fonction de e et en appelant X(z) la transformée en Z, la
j2πfTs jωTs
notation retenue pour la transformée de Fourier sera X(e ) ou X(e ).
Connaissant la transformée de Fourier (qui est périodique dans le cas d'un signal discret), nous sommes
capables de calculer les échantillons du signal par la formule d'inversion soit :
fs fs ∫
x k = 1 X(e j2πfTs )e j2πkTsf df =Ts ∫
1/ Ts
X(e j2πfTs )e j2πkTsf df
Ce résultat est immédiatement généralisable au cas de l’échange d’énergie entre deux signaux et définit
une densité spectrale d’énergie interspectre :
+∞
Exy = ∑ x y = f1 ∫
k = −∞
k k
s (fs )
X(e j2πfTs ) Y(e j2πfTs )df
2
⇒ la densité spectrale d'énergie de x(t) : Sxx = X(e j2πfTs )
TF[y(t)]= ∑e
k =0
−αkTs − jωkTs
e = 1
1−e−αTs e− jωTs
⇒Syy(f)= 1
1−2e−αTs cos(ωTs)+e−2αTs
Syx(f)= 1
1−e−αTs e− jωTs
Démonstration:
Calculons l’énergie d’un signal en faisant intervenir la transformée de Fourier :
+∞ +∞ +∞
Exx = ∑ x x = ∑ f1 ∫
k = −∞
k k
k = −∞ s (fs)
X(e j2πfTs )e j2πkTsf df xk = 1
fs (fs)k =−∞ ∫ ∑
[x k e j2πkTsf ]X(e j2πfTs )df
1 j2πfTs 2
∫ ∫ ∫
j2πfTs j2πfTs 1 1
= X(e )X(e )df = X(e ) df = S (f)df
fs (fs) fs (fs) fs (fs) xx
Si cette série admet une limite nous avons un signal à puissance moyenne finie celle-ci étant calculable
par :
+N
Pxx = lim 1
N→+∞
2N +1 ∑
k = −N
x k 2
Cette notion est aussi généralisable à l’interaction entre deux signaux à puissance finie :
+N
Pxy = lim 1
N→+∞
∑
2N +1k =−N
x k yk
Exemple:
x(t) = (échelon d'Heaviside e(t) échantillonné) ⇒ { xk<0=0 ; xk≥0=1 }
Exx = ∞ mais Pxx=1/2:
Pxx = lim 1
N→+∞
2N +1
+N
∑
x k 2 = lim 1
2 N +1
+N
1 2= lim N +1 = 1
∑ 2N +1 2
[ ]
k =−N N→+∞ k =0 N→+∞
En reprenant la même démarche que pour les signaux à énergie finie et en posant:
TF[x(t,N)]=X(N, e j2πfTs ) ⇒
+∞ +∞
1
Pxx(N)= 1
2N +1k=−∞ ∑ x(t,N)k x(t,N)k = 1 ∑ ∫
2N +1k =−∞ fs (fs)
X(N,e jωTs )e j2πkTsf df x(N)k
1 +∞ 1 1
∫ ∑ ∫
j2πkTsf jωTs
= 1 [x(t,N)k e ]X(N,e )df = X(N,e )X(N,e jωTs )df
jωTs
2N +1 fs (fs)k =−∞ 2 N +1 fs (fs)
2
=1
fs ∫ 1
(fs) 2N +1
X(N,e jωTs ) df
Le calcul est immédiat à reprendre pour le cas de deux signaux et permet de définir la densité spectrale
de puissance interspectre comme :
+∞
Pxy = lim 1
N →+∞ 2N +1
k = −∞
∑
x(N)k y(N)k
Sxy(f)= lim 1
N →+∞ 2N +1
[X(N,e jωTs
) Y(N,e jωTs ) ]
La définition des fonctions d’autocorrélation et d’intercorrélation est légèrement différente selon le fait
que l’on s’intéresse à des signaux à énergie finie ou à des signaux à puissance moyenne finie.
Une interprétation physique consiste à remarquer qu’il s’agit d’une généralisation de la notion d’énergie
qui est ici calculée entre le signal y(t) et le signal x(t+nTs) version décalée de n périodes d’échantillonnage du
signal x(t). Nous retrouvons donc l’énergie pour le cas particulier où:
n=0 → Exy=Rxy(0) .
Du point de vue mathématique il suffit de remarquer qu’il s’agit d’un produit scalaire entre les vecteurs
x(t+nTs) et y(t). Il réalise la projection de l’un sur l’autre et quantifie leur degré de similitude. Ce produit scalaire
est nul lorsque les deux vecteurs sont orthogonaux : on parle d’orthogonalité entre les deux signaux. Deux
signaux orthogonaux pour n = 0 n’ont aucune « similitude ».
L’intercorrélation est dépendante du temps de manière discrète t = nTs (décalage entre les deux
signaux) => elle peut être vue elle-même comme un signal temporel discret dont les échantillons sont les
+∞
{Rxy(n)} : R xy(t)= ∑R
n = −∞
xy(n)δ(t −nTs)
L’autocorrélation est un cas particulier de comparaison d’un signal avec lui-même ou sa version décalée.
+∞ +∞
R xx (t)= ∑R
n =−∞
xx (n)δ(t −nTs) R xx(n)= ∑x
n =−∞
k +n xk
n=0 → Exx=Rxx(0)
exemples:
x(t)=δ(t) ⇒ {x0=1 ; xk≠0=0} ⇒ Rxx(0)=1 ; Rxx(n≠0)=0 ⇒ Rxx(t)=δ(t).
y(t)=[e e(t) échantillonnée ; α∈R ; α>0 ] soit {yk= e
-αt -αkTs -αkTs
e(k)} tel que {yk<0=0 ; yk≥0=e }
+∞
⇒ R yy(n)= ∑e
k = −∞
−α(k + n)Ts
e(k+n)e−αkTs e(k)
+∞ −αnTs
Pour n>0: R yy(n)= ∑e
k =0
−α(k + n)Ts −αkTs
e = e −2αT
1−e s
+∞ αnTs
Pour n<0: R yy(n)= ∑e
k =−n
−α(k + n)Ts −αkTs
e = e −2αT
1−e s
s −α n T
Soit globalement ∀n: R yy(n)= e −2αT
1−e s
+∞
intercorrélation: R yx(n)= ∑e
k =−∞
−α(k + n)Ts
e(k+n)x k =e−αnTs e(n)
n =−∞
+∞ +∞ +∞ +∞
= ∑∑
n = −∞k = −∞
x k+ n yk e− j2πfnTs = ∑ ∑x
n =−∞k = −∞
k + n yk e
− j2πf(k + n)Ts j2πfkTs
e
+∞ +∞ +∞ +∞
= ∑∑
m= −∞n = −∞
x m yk e − j2πfmTs j2πfkTs
e = ∑ ∑
k =−∞ m=−∞
x m e− j2πfmTs yke j2πfkTs
jωTs jωTs
=X(e ).Y(e )=Sxy(f)
exemples:
x(t)=δ(t) ⇒ {x0=1 ; xk≠0=0} ⇒ Rxx(0)=1 ; Rxx(n≠0)=0 ⇒ Rxx(t)=δ(t).
TF[Rxx]=1 ce qui est bien égal à Sxx(f).
y(t)=[e e(t) échantillonnée ; α∈R ; α>0 ] soit {yk= e
-αt -αkTs -αkTs
e(k)} tel que {yk<0=0 ; yk≥0=e }
s −α n T
R yy(n)= e −2αT
1−e s
+∞ −α n Ts
TF[R yy]= ∑ 1e−e
n = −∞
− 2αTs
e− jnωTs
0 +∞
=
1−e
1
e se
−2αTs
n = −∞
∑αn T − jnωTs
n =0
∑
+ e−αnTs e− jnωTs −1
+∞ +∞
= −12αT e
1−e s
1
∑
− α n Ts
e s+
jn ωT
e − α
∑
n Ts
e − jn ωTs
−1
n =044244 3 1 n =044244 3
série n°1 complexe conjuguée de n°1
= −12αT −α1T jωT + −α1T jωT −1
1−e s
1−e e
s s
1−e s e s
= 1 =Syy(f)
1−2e−αTs cos(ωTs)+e−2αTs
intercorrélation:
R yx(n)=e−αnTs e(n)
+∞
TF[R yx]= ∑e
n =0
−αnTs − jnωTs
e = 1
1−e−αTs e− jωTs
=Syx(f)
Pour des signaux à énergie finie, la transformée de Fourier de la fonction de corrélation est égale à la
densité spectrale d’énergie :
[ ]
TF R xy(t) =X(e jωTs ).Y(e jωTs )=Sxy(f)
remarque : la fonction de corrélation étant un signal discret, la DSE est une fonction continue de la
fréquence et elle est périodique. Elle ne s’étudie que sur la bande de fréquence de Shannon.
Transformée en Z de la fonction de corrélation :
La transformée en Z permet de généraliser le résultat précédent et est un outil de calcul intéressant en
particulier dans le cas du filtrage. Pour éviter les ambiguïtés de notation, nous ne développerons que le cas des
signaux réels ( xk ∈ R ∀k)
+∞ +∞ +∞
[
TZ R xy(t) = ] ∑R xy(n)z−n = ∑ ∑xk+n ykz−n
n = −∞ n = −∞k = −∞
+∞ +∞ +∞ +∞ +∞ +∞
−m
= ∑ ∑x
n = −∞k = −∞
k + n y kz
−(n + k) k
z = ∑ ∑x
m=−∞k =−∞
m y kz
−m k
z = ∑ ∑x
k =−∞ m=−∞
mz ykz
k
=X(z).Y( 1 )
z
d’où le résultat : [ ]
TZ R xy(t) =X(z).Y( 1 )
z
Par généralisation la TZ[Rxy(t)] est aussi parfois appelée « DSE » des signaux.
Les interprétations sont similaires à celles présentées pour les signaux à énergie finie. Nous retrouvons
donc la puissance moyenne pour le cas particulier où :
n=0 → Pxy=Rxy(0) .
L’intercorrélation est dépendante du temps de manière discrète t=nTs => elle peut être vue elle-même
comme un signal temporel discret dont les échantillons sont les {Rxy(n)} :
+∞
R xy(t)= ∑R
n = −∞
xy(n)δ(t −nTs)
L’autocorrélation est un cas particulier de comparaison d’un signal avec lui-même ou sa version décalée.
+∞ +N
R xx (t)= ∑R
n =−∞
xx (n)δ(t −nTs) R xx(n)= lim 1
N →+∞ 2N +1
k = −N
∑
x k+ n xk n=0 → Pxx=Rxx(0)
n =−∞ n = −∞ k = −N
+∞ +∞
= ∑ lim 2N1+1 ∑x(t,N)
n = −∞
N →+∞
k = −∞
k + n y(t,N)k e
− j2πfnTs
+∞ + ∞ − j2πfnTs
= lim 1
N→+∞ 2N +1
n = −∞ k = −∞
∑ ∑
x(t,N)k +n y(t,N)k e
+∞ +∞
= lim 1
N→+∞ 2N +1∑∑
n = −∞k =−∞
x(t,N)k+ n y(t,N)k e− j2πf(k +n)Ts e j2πfkTs
+∞ +∞
= lim 1 ∑ ∑x(t,N) y(t,N) e − j2πfmTs j2πfkTs
e
2N +1
N→+∞
m= −∞k =−∞
m k
+∞ + ∞
= lim 1 ∑ ∑x(t,N) y(t,N) e − j2πfmTs j2πfkTs
e
2N +1
N→+∞
k = −∞m=−∞
m k
+∞ +∞
= lim 1
N→+∞ 2N +1
k = −∞ m= −∞
∑ ∑
x(t,N)m e− j2πfmTs y(t,N)ke j2πfkTs
= lim 1 X(N,e jωTs ).Y(N,e jωTs )=Sxy(f)
N→+∞ 2N +1
Pour des signaux à puissance finie, la transformée de Fourier de la fonction de corrélation est égale à la
densité spectrale de puissance :
[
TF R xy(t) = lim ] N→+∞ 2N1+1X(N,e jωT ).Y(N,e jωT )=Sxy(f)
s s
TF[R xx(t)]= lim 1 X(N,e jωTs ).X(N,e jωTs )= lim 1 X(N,e jωTs ) 2 =S (f)
N →+∞ 2N +1 N →+∞ 2N +1 xx
Exemple:
x(t) = (échelon d'Heaviside e(t) "échantillonné") ⇒ { xk<0=0 ; xk≥0=1 }
+∞
R xx(t) = 1 ∑ δ(t − nTs)
2 n = −∞
Sxx(f) = TF[R xx] ⇒ Sxx(f) ≈ δ(f) dans la bande de fréquences de Shannon
Transformée de Fourier
x(t),y(t) X(N,f),Y(N,f)
Le calcul mené nous donne
deux définitions ou deux manières
de calculer la DSP d’un signal. Produit et limite
Nous pouvons représenter cela sur
le schéma ci-contre.
Cependant après le calcul du
Transformée de Fourier
produit des transformées de
Rxy(t) Sxy(f)
Fourier, le passage à la limite
N→+∞ n’est pas toujours définie (fonction sign(t) par exemple).
Pour l’intercorrélation : [ ]
Sxy(f)=TF R xy(t)
La DSP provient par transformée de Fourier d’un signal de corrélation qui est discret. Elle dépend donc
de manière périodique de la fréquence et s’étudie ainsi uniquement dans la bande de fréquences de Shannon.
Transformée en Z de la fonction de corrélation:
Au prix de calculs un peu plus lourds en utilisant les signaux tronqués du paragraphe précédent le
résultat est identique à celui établit pour les signaux à énergie finie :
+∞
[
TZ R xy(t) =] ∑R xy(n)z−n
n =−∞
+∞ +N +∞ +∞
= ∑ Nlim
n =−∞
1
→+∞ 2N +1 ∑
k = −N
∑
x k + n y k z − n =
n = −∞
lim 1
N→ +∞ 2N +1∑k =−∞
x(N)k+ n y(N)k z − n
+∞ +∞ +∞ +∞
= lim 1
N →+∞ 2N +1 ∑ ∑ x(N)k + n y(N)k z = Nlim
n =−∞ k =−∞
− n 1
∑∑
→ +∞ 2N +1
n =−∞ k =−∞
x(N)k + n y(N)k z −(n+ k)z k
+∞ +∞ +∞ +∞
= lim
N →+∞ 2N +1
1
∑∑
m = −∞ k = −∞
x(N)m y(N)k z z = lim −m k 1
N →+∞ 2N +1∑∑k =−∞ m =−∞
x(N)m y(N)k z − mz k
+∞ +∞
= lim 1
N →+∞ 2N +1 ∑ ∑
k =−∞ m =−∞
x(N)m z − m y(N)kz k = lim 1 X(N,z).Y(N, 1 )
N →+∞ 2N +1 z
Par généralisation la TZ[Rxy(t)] est aussi parfois appelée « DSP » des signaux.
Pour l’autocorrélation ce résultat devient :
on parle ici de corrélation circulaire. La transformée de Fourier d’un signal périodique et discret est un
signal discret et périodique => la DSP d’un signal périodique discret est discrète et périodique et se calcule
rigoureusement en utilisant la TFD de la fonction de corrélation.
Sxx(f)=TFD[Rxx(t)]
III.1. Parité :
+N +N
R xy(n)= lim 1
N →+∞ 2N +1
k = −N
∑
x k + n yk => R xy(−n)= lim 1
N →+∞ 2N +1
k = −N
∑
x k − n yk
+N − n
⇒ R xy(−n)= lim 1
N →+∞ 2N +1 ∑
x m ym+n =R yx(n)
m = −N − n
⇒ R xy(−n)=R yx(n)
[ ]
R xx(−n)=R xx(n) ⇒ Re R xx(n) est paire
Im[R xx(n)]estimpaire
Si x(t) est un signal réel comme cela est le cas de beaucoup de signaux usuels, sa fonction
d’autocorrélation est nécessairement réelle. Elle est donc paire et cette remarque simplifie le calcul de celle-ci
grâce à cette symétrie.
En utilisant la propriété de la transformation de Fourier on en déduit :
Pour un signal réel la fonction de corrélation est réelle et paire et sa DSP (ou DSE) aussi.
Le trinôme en α étant non négatif, ses deux racines sont obligatoirement complexes conjuguées : α1=β+jγ et α2β-jγ => (α-
α1)( (α-α2)=(α-β)2+γ2 toujours positif ou nul. Pour cela le discriminant doit être négatif ou nul ce qui établit l’inégalité de
Schwartz :
2
∑a b ≤∑ a b ≤∑ a .∑ b
2 2 2
i i i i i i
i i i i
2
⇒ R xy(n) ≤R xx(0).R yy(0)
Le carré du module de la fonction d’intercorrélation est borné supérieurement par le produit des
puissances moyennes des deux signaux.
Cas de l’autocorrélation :
R xx(n) ≤R xx(0)
Le module de la fonction de corrélation est borné supérieurement par sa valeur en zéro c’est à dire par la
puissance moyenne du signal.
Si le signal est réel, la fonction de corrélation est réelle et ce sera donc la fonction de corrélation qui
aura comme borne supérieure sa valeur en zéro.
La seconde propriété peut être légèrement étendue car elle est induite par la condition d’existence
d’une transformée de Fourier au sens des fonctions. Si on étend ceci aux distributions on peut ajouter à la
fonction de corrélation une constante.
Compte tenu des remarques et propriétés précédentes, la fonction d’intercorrélation entre deux signaux
réels et la fonction d’autocorrélation d’un signal réel ont les allures suivantes :
t t
Intercorrélation Autocorrélation
Remarque :
Tous ces résultats établis pour les fonctions de corrélation temporelles sont aussi, grâce à l'hypothèse
d'ergodicité, valables pour les fonctions de corrélation statistiques des signaux aléatoires.
Pour deux signaux indépendants, la fonction d’intercorrélation est constante et égale au produit des
valeurs moyennes des signaux.
Rxy(n) = <x> <y>
Signal centré :
Un signal centré est un signal dont la valeur moyenne est nulle.
Lorsque deux signaux sont indépendants, si l’un des deux est centré, leur fonction d’intercorrélation est
nulle.
Intercorrélation entre un signal quelconque et un signal constant :
Résultat intermédiaire utile par la suite :
+N
R xy(n)= lim 1
N→+∞ 2N +1 ∑
k = −N
x k + n yk
⇒R xy(n)=γ<y>
xm =cste=γ
IV.3. Covariance :
Tout signal peut être décomposé en la superposition d’un signal centré et d’un signal constant égal à sa
valeur moyenne : x(t) = xc(t) + <x>.
La fonction d’intercorrélation entre les deux signaux se décomposera comme suit :
R xy(n)=R (xc+<x>)(yc+<y>)(n)=R x cyc (n)+ R <x > yc(n)+R x c <y>(n)+R <x ><y>(n)
=R x cyc(n)+<x><yc >+<xc ><y>+<x><y>=Cxy(n)+<x><y>
Il apparaît la fonction d’intercorrélation entre les deux signaux centrés xc(t) et yc(t) qui est par définition la
fonction d’intercovariance Cxy(n) entre les deux signaux x(t) et y(t). Ce résultat est applicable à l’autocorrélation
d’un signal et on définit la fonction d’autocovariance du signal comme étant la fonction d’autocorrélation du
signal centré.
V. QUELQUES APPLICATIONS.
Pour les systèmes linéaires invariants, la sortie y(t) peut toujours être calculée à partir de l’entrée x(t) et
de la réponse impulsionnelle h(t) du système grâce au produit de convolution discret :
y(t)=h(t)⊗x(t) ⇔ Y(z)=H(z).X(z)
C'est cette formulation qui a permis jusqu'ici de développer la théorie du filtrage. Comment reformuler le
problème si les seules grandeurs connues des signaux sont les grandeurs énergétiques ?
H(z)
Le signal x(t) n'est connu que par sa fonction d'autocorrélation Rxx(t). L'effet du filtre sera complètement
caractérisé si nous savons calculer deux grandeurs :
Ryy(t) la fonction d'autocorrélation de la sortie
Ryx(t) la fonction d'intercorrélation entre la sortie et l'entrée
Valeur moyenne :
La valeur moyenne du signal de sortie est la valeur moyenne du signal d’entrée multipliée par le gain
statique du filtre:
yn = ∑ h k x n - k
k
<y>= ∑ y =∑ ∑h n k x n -k = ∑h ∑x k =
n -k ∑ h <x> formule déjà vue en filtrage
k
n n k k 3
n 24
1
4 k
<x>
<y(t)> ≡
∑h <x(t)> =
k
k H(z)
1
424 z =1
3
<x(t)>
Gain statique
Signaux centrés :
Si le signal x(t) est centré (<x> = 0), le signal de sortie y(t) le sera aussi si le gain statique du système est
fini. Puisque nous raisonnons sur des systèmes linéaires, le problème du filtrage d’un signal peut toujours se
décomposer en deux parties :
• Filtrage de la valeur moyenne par le gain statique du filtre.
• Filtrage du signal centré par le filtre.
La seconde partie est la plus intéressante et justifie le fait que nous nous intéressions plus spécialement à
des signaux centrés, le cas du signal non centré s’en déduisant aisément
R yy(k)== ∑h h R
i, j
i j xx (k+ j−i)
-1
En utilisant l'opérateur retard q :
R yy(k)= ∑h h R
i, j
i j xx (k + j−i)= ∑h h q
i, j
i j
−i j
q R xx(k)
⇒ R yy(t)=
∑h h q
i, j
i j
−i j
q R xx(t)
Les fonctions de corrélation sont des "signaux", à partir de la formule précédente la transformée en Z
fournit une troisième formulation équivalente :
[ ]
TZ R yy =H(z).H( 1)TZ[R xx ]
z
L’inversion de la transformée en Z founit une méthode de calcul de l’autocorrélation du signal de sortie
y(t) :
[ ]
TZ R yy =H(z).H( 1)TZ[R xx ]
z
⇒R yy(k)= ∑ [z k −1
z
]
H(z).H( 1)TZ[R xx ]
résidus / pôles
Enfin, nous pouvons nous intéresser à l'analyse spectrale et la densité spectrale de puissance Syy(f) du
signal de sortie peut se déduire de Sxx(f) celle du signal d'entrée :
2
Syy(f)= H(e jωTs ) Sxx(f)
R yx(k)== ∑h R
i
i xx (k−i)
-1
En utilisant l'opérateur retard q :
R yx(k)= ∑h R
i
i xx (k −i)= ∑h q
i
i
−i
R xx(k)
−i
⇒ R yx(t)=
∑h qi
i R xx(t)
En utilisant la transformée en Z :
[ ]
TZ R yx =H(z).TZ[R xx ]
résidus / pôles
H(z).TZ[R xx ] ]
Enfin, nous intéresser à l'analyse spectrale et la densité spectrale de puissance interspectre Syx(f)
sortie-entrée :
Remarque pratique :
Le calcul des fonctions de corrélation lorsqu’il est fait grâce à la transformée en Z nécessite l’utilisation
de la transformée en Z bilatérale. En effet ces fonctions du temps s’étendent théoriquement sur
τ=[-∞,+∞].
Dans le cas de la fonction d’autocorrélation d’un signal réel, nous avons établi sa propriété de parité et
donc le calcul peut se faire grâce à la transformation monolatérale sur [0,+∞] et complété par cette propriété de
symétrie. Il n’en est pas de même pour une fonction d’intercorrélation où les deux parties du calcul deviennent
nécessaires sauf dans certaines applications importantes où nous établirons que cette fonction est nulle pour
τ<0.
VI.4. Applications :
L'intérêt majeur de cette approche est qu'elle est la seule permettant d'aborder le traitement des
signaux aléatoires.
Dans le cas de mélange aléatoire-déterministe elle devient donc incontournable. Les applications seront
vues dans le cours du signal aléatoire.
Un petit exemple :
Prenons le cas de la réponse impulsionnelle : x(t) = δ(t)
La fonction de corrélation est immédiate :
Rxx(0) = 1
Rxx(k≠0) = 0
⇒ Rxx(t) = δ(t) ⇒ TZ[Rxx] = 1 ⇒ Sxx(f) = 1
En appliquant les formules démontrées pour l'intercorrélation sortie-entrée :
Syx(f) = H(e ω )
j Ts
Ryx(k) = hk TZ[Ryx] = H(z)
Toutes ces formules expriment la même chose : la réponse impulsionnelle permet d'obtenir la fonction de
transfert du système = elle permet d'identifier le système. Ceci était déjà bien connu.
Dans cette approche, la propriété essentielle de x(t) = δ(t) est que sa propre fonction d'autocorrélation est
δ(t). Nous verrons qu'il y a d'autres signaux qui possèdent cette propriété et de ce fait ils pourront être utilisés
pour l'identification.