Vous êtes sur la page 1sur 13

Chapitre I Notions de corrélation et de convolution

Chapitre I : Notions de corrélation et de convolution


I.1. Les principaux types des signaux
Les signaux déterministes
Il s’agit de signaux dont le modèle mathématique est connu. Leur évolution en fonction du
temps peut donc être parfaitement prédite. Ce signal est une fonction d’une ou plusieurs
variables servant de support à la transmission d’une commande ou d’une information.
Un signal déterministe est généralement dénoté s(t), t ∈ ℜ .
La classification des signaux déterministes peut se faire selon :
Les variables de dépendance :
o Le temps (les signaux temporels), l’espace (image fixe).
o L’espace et le temps (les signaux spatio-temporels, ex : les ondes
électromagnétiques).
Les valeurs des signaux déterministes sont définis, soit : scalaires, vectorielles, réelles
ou complexes. Ainsi par des distributions telles que les impulsions de Dirac. Il s’agit
de signaux déterministes idéaux qui sont utilisés comme des modèles théoriques et ne
peuvent être physiquement réalisables.
Les principaux signaux déterministes sont :
Les signaux périodiques.
Les signaux sinusoïdaux.
Les signaux non périodiques.
Les signaux transitoires.
La figure suivante montre un exemple de signal déterministe.

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 1


Chapitre I Notions de corrélation et de convolution

Les signaux aléatoires


Il s’agit de signaux dont le modèle mathématique n’est pas connu. Leur évolution en fonction
du temps imprévisible. La description de ces signaux est sujette à des observations statistiques
ou probabilistes.
Un signal aléatoire sera désigné par x(t), t ∈ ℜ . La figure suivante montre un exemple de
signal aléatoire.

Signaux

Déterministes Aléatoires

Périodiques Non-Périodiques Stationnaire Non-Stationnaire

Sinusoïdaux Pseudopériodiques Ergodiques

Complexe ou Transitoires Non-ergodiques


composites

-Signaux déterministes périodiques : s(t)=s(t+T) avec T la période.


 2π 
 2π   2π  j t +φ 
-Signaux sinusoïdaux : x(t ) = A sin  t + φ  , y (t ) = A cos t + φ  , z (t ) = A.e  T 
 T   T 

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 2


Chapitre I Notions de corrélation et de convolution

-Signaux non périodiques se composent d’une part des signaux pseudopériodiques formés
d’une somme de sinusoïdes des périodes différentes et d’autres parts des signaux transitoires
dont l’existence est limités dans le temps.
-Pour les signaux aléatoires, ils sont dits stationnaires lorsque les valeurs moyennes
statistiques sont indépendantes du temps.
-Un signal ergodique : si ses moyennes temporelles sont identiques pour toutes les
réalisations.
-Les signaux aléatoires stationnaires sont ergodiques, lorsque les valeurs moyennes
statistiques et temporelles sont identiques, d’un point de vue pratique lorsqu’un phénomène
aléatoire et ergodique et stationnaire, on peut mesurer les paramètres du signal avec un seul
appareil fiable à partir de n’importe quel instant.
I.2. Importance des modèles et méthodes statistiques
Par nature, l’information a un caractère aléatoire: seul ce qui est imprévisible est porteur de
messages. Les signaux vecteurs d’information sont donc naturellement aussi de type aléatoire.
Mis à part certaines formes d’interférences d’origine industrielle (influence du réseau de
distribution d’énergie électrique, etc.), les bruits doivent aussi être considérés comme des
phénomènes aléatoires.
Il n’est donc pas étonnant que les méthodes de traitement des signaux fassent largement appel
à des concepts statistiques (calcul des probabilités, processus aléatoires, etc.).
I.3. Energie et puissance des signaux
On distingue deux grandes classes des signaux selon leur nature énergétique :
-Les signaux à énergie finie.
-Les signaux à puissance moyenne finie qui ne sont pas physiquement réalisables.
La première catégorie comprend tous les signaux de type transitoire, qu’ils soient
déterministes ou aléatoires. La deuxième catégorie englobe presque tous les signaux
périodiques, quasi-périodiques et les signaux aléatoires permanents.
I.3.1. Energie d’un signal
+∞
E= ∫ x(t )
2
dt Pour le cas continu (I.1)
−∞

n = +∞

∑ x ( n)
2
E= Pour le cas discret (I.2)
n = −∞

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 3


Chapitre I Notions de corrélation et de convolution

Un signal x(t) (ou x(n)) à énergie finie non nulle est un signal pour lequel les équations (I.1) et
(I.2) restes finies quand le domaine s’étendre de − ∞ à + ∞ . En d’autre terme, il vérifie la
condition suivante :
0< E <∞ (I.3)
I.3.2. Puissance d’un signal
La puissance moyenne d’un signal x(t) quelconque dans l’intervalle de temps [t1, t2] est
définie par :
t2
1
P= ∫ x(t )
2
dt (I.4)
t1 − t 2 t1

Un signal x(t) à puissance moyenne finie non nulle est celui pour lequel la relation (I.4) reste
finie quand le domaine d’intégration s’étendront de − ∞ à + ∞ . En d’autre terme il vérifie la
condition suivante :
t2
1
0< P= ∫ x(t ) dt < ∞
2
(I.5)
t1 − t 2 t1

Pour un signal périodique, on peut néanmoins définir la puissance d’un signal x(n) périodique
de période k par :
1 k / 2−1 1 k

∑ ∑
2 2
P= x(n) , ou P = x( n) (I.6)
k −k / 2 2.k + 1 − k
Pour les signaux périodiques, on parle de signaux à puissance moyenne finie définie par:
1 k / 2−1 1 k

∑ ∑
2 2
P = lim x(n) , ou P = lim x( n) (I.7)
k →∞ k k →∞ 2.k + 1
−k / 2 −k

I.4. Produit de convolution


L’opération de convolution est très utilisée en traitement du signal. Il est associé à l’opération
de filtrage d’un signal x(t) par un filtre de réponse impulsionnelle h(t). La sortie du filtre, y(t),
vaut alors :
y(t)=x(t)∗h(t). (I.8)
Le produit de convolution entre deux fonctions x(t) et h(t), noté par le symbole ∗, est défini
par les intégrales :
+∞
y (t ) = ∫ x(τ )h(t − τ )dτ
−∞
(I.9)

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 4


Chapitre I Notions de corrélation et de convolution

Propriétés
A partir de la définition du produit de convolution, on montre facilement que le produit de
convolution est :
–Commutatif : x1(t)∗x2(t)=x2(t)∗x1(t),
–Associatif : x1(t)∗(x2(t)∗x3(t))=(x1(t)∗x2(t))∗x3(t),
–Distributif par rapport à l’addition : x1(t)∗(x2(t)+x3(t))=x1(t)∗x2(t)+x1(t)∗x3(t).
–La transformée de Fourier d’un produit de
Distribution de Dirac :
–Si x(t) est la distribution de Dirac δ(t), on a simplement :
y(t)=δ(t)∗h(t)=h(t).
On remarque que h(t) est la réponse du filtre excité par une impulsion de Dirac, d’où le nom
de réponse impulsionnelle du filtre donné à h(t).
- x(t).δ(t-t0)=x(t0).δ(t-t0)
- x(t)∗δ(t-t0)=x(t-t0)
I.5. Rappels sur la Transformée de Fourier
La transformée de Fourier est une technique mathématique permettant de déterminer le
spectre de fréquences d’un signal (par exemple un son). La définition mathématique est la
suivante :
+∞ +∞
X ( f ) = TF {x(t )} = ∫ x(t ).e
− j 2πft
dt et x(t ) = TF −1
{X ( f )} = ∫ X ( f ).e j 2πft df (I.10)
−∞ −∞

x(t) et X(f) sont deux descriptions équivalentes du même signal. Ainsi, tous les signaux à
énergie finie possède une transformée de Fourier. Cette dernière est une fonction complexe
même si x(t) est réel.
Les deux domaines de description du signal :
1) Le domaine de description temporel caractérisé par sa durée, sa période fondamentale,
amplitude.
2) Le domaine fréquentiel, dans ce domaine de représentation le signal peut être
caractérisé par : la bande passante, la fréquence fondamentale, la phase.
Ces deux représentations sont différentes mais complémentaires. La transformée de Fourier
c’est un opérateur réversible, permet de passer de l’une à l’autre.
-Si X(f)=fonction réel ⇔ x(t) est paire.
-Si X(f)=fonction imaginaire pure ⇔ x(t) est impaire.

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 5


Chapitre I Notions de corrélation et de convolution

Propriétés
-Linéarité : ax1 (t ) + bx2 (t ) →
TF
aX 1 ( f ) + bX 2 ( f )

-Décalage temporel: x(t − t 0 ) →


TF
X ( f )e − j 2πft0

-Décalage fréquentiel: x(t )e − j 2πf0t →


TF
X ( f − f0 )

1 f 
-Changement d’échelle : x(at ) →
TF
X 
a a

∂ n x(t ) TF
→( j 2πf ) X ( f )
n
-Dérivation :
∂t n

-Inversion et conjugaison : x(−t ) →


TF
X (− f )

x * (t ) →
TF
X *( f )

-Convolution : x(t ) * h(t ) →


TF
X ( f ).H ( f ) et x(t ).h(t ) →
TF
X ( f )* H ( f )
TF au sens des distributions
Dirac : TF {δ (t − t 0 )} = e − j 2πft0 ⇒ TF {δ (t )} = 1

- TF {1} = δ ( f )

{ }
- TF e j 2πf0t = δ ( f − f 0 )

-Echelon: TF {u (t )} =
1 1
+ δ( f )
j 2πf 2

-Signe : TF {sgn(t )} =
1
jπf

 +∞  1 +∞
-Peigne de Dirac : TF  ∑ δ (t − nT ) = ∑ δ ( f − nf 0 )
n= −∞  T n= −∞

- TF {cos(2πf 0 t )} =
1
[δ ( f − f 0 ) + δ ( f + f 0 )]
2

- TF {sin(2πf 0 t )} =
1
[δ ( f − f 0 ) − δ ( f + f 0 )]
2j
I.6. Théorie des systèmes linéaires et invariants discrets (SLID)
Un système linéaire est un modèle de système qui applique un opérateur linéaire à un signal
d’entrée. C’est une abstraction mathématique très utile en automatique, traitement du signal,
mécanique et télécommunications. Les systèmes linéaires sont ainsi fréquemment utilisés
pour décrire un système non linéaire en ignorant les petites non-linéarités. Un système est
discret, si à la suite d’entrée discrète x(n) correspond une suite de sortie discrète y(n).

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 6


Chapitre I Notions de corrélation et de convolution

x(n) Système discret y(n)

Si l’entrée x(n) produit une sortie y(n), quand on applique une entrée k.x(n), la sortie sera
k.y(n), k est une constante arbitraire. Si deux entrées α1 x1 (n) et α 2 x2 (n) engendrent deux
sorties α1 y1 (n) et α 2 y 2 (n) alors α1 x1 (n) + α 2 x2 (n) engendrera α 1 y1 (n) + α 2 y 2 (n) , α1 .et α 2
sont deux constantes.

α 1 x1 ( n ) + α 2 x 2 ( n ) α 1 y1 ( n ) + α 2 y 2 ( n )
Système discret

-Système invariant dans le temps : s’il y a invariance dans le temps, une translation de l’entrée
x(n-m) se traduira par une même translation dans le temps de la sortie y(n-m).

x(n-m) Système discret y(n-m)

Système numérique invariant dans le temps caractérisé par le produit de convolution discrète
ou h(n).
k = +∞
y (n) = ∑ x(n).h(n − k ) = x(n) * h(n)
k = −∞
(I.11)

x(n) h(n) y(n)

Propriétés :
On peut facilement montrer que les deux systèmes suivants montés en cascade ou parallèle
sont équivalents à un système unique de réponse impulsionnelle h(n).

x(n) h1(n) h2(n) y(n)

h ( n ) = h1 ( n ) * h2 ( n )

x(n) h(n) y(n)

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 7


Chapitre I Notions de corrélation et de convolution

h1(n)

x(n) y(n) x(n) h(n) y(n)

h2(n)
h ( n ) = h1 ( n ) + h2 ( n )

Remarque : Même principe dans le cas des systèmes linéaire et invariant dans le temps (LIT)
analogique.
I.7. Corrélation et auto-corrélation
I.7.1. Signaux à énergie finie
On définit la fonction d’inter-corrélation entre deux signaux à énergie finie par :
+∞
Rx , y (τ ) = ∫ x(t ) y (t − τ )dt
*
(I.12)
−∞

Par un changement de variable t ' = t − τ ⇒ t = t '+τ , dt = dt '


+∞ +∞
Donc Rx , y (τ ) = ∫ x(t '+τ ) y (t ' )dt ' =
*
∫ y (t ) x(t + τ )dt
*

−∞ −∞

La fonction d’inter-corrélation est donnée par :


+∞ +∞
Rx , y (τ ) = ∫ x(t ) y (t − τ )dt =
*
∫ y (t ) x(t + τ )dt
*
(I.13)
−∞ −∞

La fonction d’auto-corrélation de signal x(t) définit par :


+∞ +∞
Rx (τ ) = ∫ x(t ) x (t − τ )dt =
*
∫ x (t ) x(t + τ )dt
*
(I.14)
−∞ −∞

Si la translation est nulle, τ =0 :


+∞ +∞
R x ( 0) = ∫ x(t ) x (t )dt = ∫ x(t ) dt = E x : L’énergie contenue dans le signal. On peut
* 2

−∞ −∞

démontrer que la fonction d’auto-corrélation vérifie : Rx (τ ) ≤ Rx (0) .

-Le lien qu’il existe entre les deux opérations de convolution et de corrélation :
+∞ +∞
Le produit de convolution : x(t ) * x(t ) = ∫ x(t ) x(t − τ )dτ = ∫ x (t ) x(t + τ )dt
*

−∞ −∞

+∞ +∞
Inter-corrélation Rxy (τ ) = ∫ x(t ) y (t − τ )dt = ∫ x(t ) y (−(τ − t ))dt
* *

−∞ −∞

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 8


Chapitre I Notions de corrélation et de convolution

⇒ Rxy (τ ) = x(τ ) * y * (−τ )

Auto-corrélation : Rx (τ ) = x(τ ) * x * (−τ )


Dans le cas des signaux discret, la fonction d’inter-corrélation Rx,y(k) est définie par:
n = +∞
Rx , y (k ) = ∑ x (n) y ( n − k )
n = −∞
*
(I.15)

L’inter-corrélation entre x(n) et y(n) atteint un maximum pour un retard k si x(n)=y(n-k).


Pour l’auto-corrélation, on remplace y(n) par x(n) on obtient l’expression de l’auto-corrélation
pour les signaux à énergie finie:
n = +∞
Rx , y ( k ) = ∑ x ( n) x ( n − k )
n = −∞
*
(I.16)

L’inter-corrélation est obtenue en décalant l’un des signaux, en multipliant le signal décalé
par l’autre signal et puis en intégrant le produit obtenu.
La fonction de corrélation traduit la similitude d’un signal ou de deux signaux au niveau de la
forme et la position en fonction du paramètres de translation τ .
Dans le cas de la fonction d’auto-corrélation, c’est une étude de la ressemblance du processus
avec lui-même au cours du temps, si le signal est périodique la fonction d’auto-corrélation
permettra de détecter cette périodicité.
Propriétés :
- R x (τ ) = R x (−τ ) , pour les signaux réels, la fonction d’auto-corrélation est paire.
+∞ +∞
Rx (τ ) = ∫ x(t ) x(t − τ )dt = ∫ x(t ) x(t + τ )dt = R (−τ ) .
x
−∞ −∞

- Rx (τ ) ≤ Rx (0) .

- R x (τ ) = x(τ ) * x * (−τ ) → TF {Rx (τ )} = X ( f ). X * ( f ) = X ( f ) = S x ( f )


TF 2

La transformée de Fourier d’auto-corrélation est égale à la densité spectrale d’énergie (DSE) :

S x ( f ) = TF {Rx (τ )} = X ( f ). X * ( f ) = X ( f )
2

+∞ +∞

∫ x(t ) y (t )dt = ∫ X ( f )Y
* *
D’après le théorème de Perseval : ( f )df , et par analogie avec la
−∞ −∞

densité spectrale d’énergie, on trouve la relation de la densité spectrale d’énergie d’inter-


corrélation (DSEI) :
S xy ( f ) = TF {Rxy (τ )} = X ( f ).Y * ( f ) . (I.17)

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 9


Chapitre I Notions de corrélation et de convolution

-Si R xy (τ ) = 0 , les signaux x(t) et y(t) sont dites non-corrélés.

- Rxy (τ ) ≠ R yx (τ )

I.7.2. Signaux à puissance moyenne finie


Considérons x(t) et y(t) deux signaux d’énergie finie, la fonction d’inter-corrélation Rxy (τ ) est

définie par:
+T / 2
1
Rxy (τ ) = lim ∫ x(t ) y (t − τ )dt
*
(I.18)
T →∞ T
−T / 2

La fonction d’auto-corrélation est donnée par :


+T / 2
1
Rx (τ ) = lim ∫ x(t ) x (t − τ )dt
*
(I.19)
T →∞ T
−T / 2

La densité spectrale des signaux à puissance moyenne finie (DSP) :

S xy ( f ) = TF {Rxy } = lim
1
X T ( f ).YT ( f ) (I.20)
T →∞ T

avec X T ( f ) = TF {xT (t )} et xT (t ) = x(t ).rectT / 2 (t )


La densité spéctrale de puissance de signal x(t) est :

S x ( f ) = TF {R x } = lim
1 2
XT ( f ) (I.21)
T →∞ T
Dans le cas des signaux discret, la fonction d’inter-corrélation Rx,y(k) est définie par:
1 n= + N
Rx , y (k ) = lim
N → ∞ 2. N + 1

n =− N
x (n) y * (n − k ) (I.22)

Exemple: Soient un signal aléatoire et sa version décalée de 50s. On remarque que les
signaux se ressemblent le plus quand y(n) est décalé de 50 secondes.

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 10


Chapitre I Notions de corrélation et de convolution

L’auto-corrélation permet de détecter des régularités, des profils répétés dans un signal
comme un signal périodique perturbé par beaucoup de bruit.
Propriétés :
- Pour k= 0, on retrouve l’énergie du signal Rxx(0)=Ex et Rxx(k) est maximale en k=0.
- Si x(n) est réel, l’auto-corrélation est réelle et paire.
- L’auto-corrélation d’un signal de durée N aura une taille 2*N-1.
Auto-corrélation des signaux périodiques : Le calcul sur une seule période suffit. L’auto-
corrélation d’un signal périodique est elle même périodique. Par définition, le signal
périodique ressemble parfaitement à lui même, décalé d’une ou plusieurs périodes.
I.8. Introduction physique à la notion de corrélation
Considérons deux groupes (fonctions) de gradueurs x(t) et y(t) d’une même variable (le
temps), qui représentent des phénomènes physiques de nature identique. S’il existe une
relation entre les processus physique, donc on peut relier la grandeur x(t) et y(t) par un
coefficient ‘‘a’’, pour calculer ‘‘a’’ en minimise l’erreur entre les deux grandeurs. Si la
fonction d’inter-corrélation ( R xy ) est max, on dit que les grandeurs sont totalement corrélés.

Sinon R xy ≠ 0 , les processus ne sont pas corrélés.

Remarque : deux fonctions ne sont pas corrélées ne signifie pas qu’elles sont indépendantes,
mais seulement qu’elles ne présentent pas d’énergie mutuelle d’interaction. Dans le cas
contraire, si les deux fonctions sont indépendantes, leur corrélation est nulle.
Physiquement, il ne peut y’avoir échange d’information sans échange d’énergie.
Energie d’interaction nulle ⇒ aucune information sur l’autre signal.
La corrélation est largement utilisée dans les systèmes radar. Ainsi, pour détecter un avion, on
envoie une impulsion, puis on reçoit une version retardée, atténuée et bruitée de cette
impulsion. L’inter-corrélation su signal reçu et émis présentera un pic à l’instant
correspondant au retard.
Aussi utiliser dans les systèmes des télécommunications telles que : radio mobiles, pour
trouver le degré de correspondance entre deux séquences, le système de positionnement par
satellite, GPS.
I.8.1. Application : Traitement d’écho radar
Pour détecter la présence et la distance d’une cible, le radar émet un signal x(t) qui est réfléchi
par la cible, revient à l’émetteur après une durée t1 proportionnelle à deux fois la distance de
l’émetteur à la cible (temps d’aller et de retour).

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 11


Chapitre I Notions de corrélation et de convolution

Cible
Bruit

Radar

Le signal en retour, x(t) est évidemment affaibli et bruité : y (t ) = a.x(t − t1 ) + b(t ) , 0 < a < 1 ,
b(t) est le bruit.
-La fonction d’inter-corrélation utilisé pour estimé le temps t1 :
-Pour t=t1 : présence de la cible, la distance d = v.(2.t1 ) , avec v est la vitesse de propagation
de l’onde électromagnétique.
-Si le signal émis est réfléchi, la fonction d’intercorrélation R yx est maximum. Dans le cas

contraire (le signal x(t) n’est pas réfléchi), la fonction d’inter-corrélation est nulle R yx = 0 .

On utilise la fonction d’inter-corrélation :


R yx (t ) = y (t ) * x * (−t ) = y (t ) * x(−t ) , supposant que le signal x(t) est réel.

R yx (t ) = [a.x(t − t1 ) + b(t )] * x(−t ) = a.x(t − t1 ) * x(−t ) + b(t ) * x(−t )

On a x(t − t1 ) = δ (t − t1 ) * x(t ) ,
d’où la relation :
R yx (t ) = a.δ (t − t1 ) * {x(t ) * x(−t )}+ b(t ) * x(−t )
= a.δ (t − t1 ) * Rx (t ) + Rbx (t )
= a.Rx (t − t1 ) + Rbx (t )

Le bruit b(t) et le signal x(t) non corrélé pas, l’inter-corrélation est nulle Rbx (t ) = 0 .

On trouve R yx (t ) = a.Rx (t − t1 )

Rx (t − t1 ) est maximum pour t=t1, donc R yx est maximum pour t=t1.

I.9. Identification des systèmes linéaire :


I.9.1. Identification par corrélation :
Considérons un filtre ou d’une façon plus générale un système linéaire invariant dans le temps
(LIT), de réponse temporelle h(t) et de réponse fréquentielle H(f) (fonction de transfert). La
relation temporelle qui relie la sortie y(t) à l’entrée x(t) est la suivante :

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 12


Chapitre I Notions de corrélation et de convolution

+∞
y (t ) = x(t ) * h(t ) = ∫ x(τ )h(t − τ )dτ
−∞

h(t) (ou H(f)) est inconnue, pour identifie ce système la méthode la plus directe c’est d’utiliser
une impulsion très courte et très intense que l’on peut modéliser par la distribution de Dirac
δ(t).

x(t)=δ(t) LIT y(t)=h(t)

Théoriquement, comme l’impulsion de Dirac a un spectre constant pour toutes les fréquences,
on peut envisager que la réponse impulsionnelle h(t) décrive complètement le système linéaire
à toutes les fréquences qui lui sont accessibles.
Les inconvénients de cette méthode (utiliser une impulsion de Dirac à l’entrée de système):
(1) système instable, (2) difficile de réaliser physiquement une impulsion de Dirac, (3)
mauvais rapport signal sur bruit.
Une autre méthode basée sur la fonction de corrélation, comme représenté dans la figure
suivante :

x(t) Système à identifie y(t)

Corrélateur Ryx(t)

R yx (t ) = y (t ) * x * (−t ) = h(t ) * x(t ) * x * (−t ) = h(t ) * Rx (t )

Il est difficile de générer un signal approchant à une impulsion de Dirac, la solution est
d’utiliser les signaux aléatoires (le bruit blanc).
Si le signal x(t) est un bruit blanc, c’est-à-dire Rx (t ) = δ (t ) , on a :

R yx (t ) = δ (t ) * h(t ) = h(t )

Matière: Signaux aléatoires et processus stochastiques (Enseignant F. Douak) 13

Vous aimerez peut-être aussi