Académique Documents
Professionnel Documents
Culture Documents
Lecture 00
Lecture 00
Jacob Benesty
INRS-EMT J. Benesty
Plan du cours
Introduction Partie I: Concepts de base Processus stochastiques et mod`les e Valeurs propres et dcomposition e Partie II: Filtrage linaire optimal e Filtrage de Wiener Prdiction linaire e e Partie III: Filtrage adaptatif Algorithme du gradient dterministe (steepest e descent) Algorithme du gradient stochastique (least-meansquare LMS)
INRS-EMT J. Benesty 1
Variantes de lalgorithme LMS Lalgorithme LMS par bloc exact (block exact LMS BELMS) Mthode des moindres carrs (least squares LS) e e Algorithme des moindres carrs rcursif MCR e e (recursive least-squares RLS) Algorithme des moindres carrs rcursif rapide e e MCRR (fast recursive least-squares FRLS) Algorithmes en treillis Introduction aveugle ` a la dconvolution/identication e
INRS-EMT J. Benesty
Manuels de rfrence: ee [1] S. Haykin, Adaptive Filter Theory. Fourth Edition, Prentice Hall, 2002. [2] J. G. Proakis and D. G. Manolakis, Digital Signal Processing: Principles, Algorithms and Applications. Third Edition, Macmillan, 1996, Chap. 12. [3] Notes + Articles, http://externe.inrs-emt.uquebec.ca/users/benesty/
INRS-EMT J. Benesty
Session: 10 janvier au 15 avril 2005. Horaires du cours: Lundi et vendredi de 9h15 ` 10h45. a Evaluation: Projet. Fin fvrier 2005 Description initiale (max. e pages). (Titre, problmatique, objectif, plan.) e 2
Mi mars 2005 Version prliminaire du rapport e nal. Prsentations orales. e Fin avril 2005 Rapport nal.
INRS-EMT J. Benesty
Suggestions pour les projets: Beamforming Blind source separation Single-channel acoustic echo cancellation Multichannel acoustic echo cancellation Noise reduction Adaptive algorithms Blind equalization and identication Time delay estimation Hearing aids Voice activity detector
INRS-EMT J. Benesty
Notations
x, x, X: scalaire, vecteur, matrice. x(n): signal scalaire de n. x(n): signal vecteur de n. x(n) = x(n) x(n 1) est un vecteur de longueur L. n reprsente le temps discret. e Filtre RIF ` L coecients: a h(n) = h0(n) h1(n) hL1(n)
T T
x(n L + 1)
INRS-EMT J. Benesty
Un ltrage est rendu adaptatif si ses param`tres, les e coecients, sont modis selon un crit`re donn, d`s e e e e quune nouvelle valeur du signal devient disponible. Ces modications doivent suivre lvolution des syst`mes e e dans leur environnement aussi rapidement que possible. Le ltrage adaptatif est gnralement associ avec un e e e fonctionnement en temps rel. e
x(n)
ENTREE
FILTRE PROGRAMMABLE
y(n)
- +
d(n)
REFERENCE
e(n)
ERREUR
INRS-EMT J. Benesty
Les ltres adaptatifs peuvent tre classs en fonction e e des choix qui sont faits sur les points suivants: le crit`re doptimisation, e lalgorithme de mise ` jour des coecients, a la structure du ltre programmable, le type de signal trait, mono ou multidimensionnel. e Il existe deux classes importantes de ltres linaires e optimaux: ltrage de Wiener (o` les signaux considrs d(n) u ee et x(n) sont stationnaires), ltrage de Kalman (qui est une gnralisation du e e ltre de Wiener valable aussi dans le cas de processus (ou de signaux) non stationnaires).
INRS-EMT J. Benesty
Choix de lalgorithme
Le choix de lalgorithme se fera en fonction des crit`res e suivants: la rapidit de convergence qui sera le nombre e ditrations ncessaires pour converger assez pr`s e e e de la solution optimale, la mesure de cette proximit entre cette solution e optimale et la solution obtenue, la capacit de poursuite (tracking) des variations e (non-stationnarits) du syst`me, e e la robustesse au bruit, la complexit, e la structure (modularit, paralllisme, ...), e e les proprits numriques (stabilit et prcision) ee e e e dans le cas dune prcision limite sur les donnes e e e et les cocients du ltre. e
INRS-EMT J. Benesty 9
Applications
Le ltrage adaptatif est un outil puissant en traitement du signal, communications numriques, et contrle e o automatique. Les applications sont diverses mais prsentent les caractristiques suivantes: on dispose e e dune entre x(n) ainsi que de la rponse dsire e e e e (rfrence) d(n) et lerreur e(n), qui est la dirence ee e entre d(n) et la sortie du ltre y(n), sert ` contrler a o (adapter) les valeurs des coecients du ltre. Ce qui direncie essentiellement les applications provient de e la faon de dnir la rponse dsire d(n). On peut c e e e e distinguer quatre grandes classes dapplications: lidentication de syst`mes, e la prdiction, e la modlisation inverse, e lannulation dinterfrences. e
INRS-EMT J. Benesty
10
1. Identication de syst`mes: e d(n) est la sortie du syst`me que lon souhaite e identier.
FILTRE ADAPTATIF
y(n) e(n)
+
x(n)
SYSTEME
d(n)
INRS-EMT J. Benesty
11
2. Prdiction: e d(n) est le signal ` linstant n et y(n) le signal a prdit ` partir du signal aux instants prcdents e a e e [d(n 1), d(n 2), ].
z 1
FILTRE ADAPTATIF
y(n) e(n)
+
d(n)
INRS-EMT J. Benesty
12
3. Modlisation inverse: e d(n) est lentre (retarde) du syst`me que lon cherche e e e ` inverser. a
d(n)
SYSTEME
FILTRE ADAPTATIF
y(n) e(n)
+
d(n )
INRS-EMT J. Benesty
13
4. Annulation dinterfrences: e d(n) est un signal contenant le signal utile et les interfrences ` annuler. x(n) est un signal dnu (ou e a e e presque) dinformation et obtenu par un capteur proche des interfrences. e
x(n)
bruit
FILTRE ADAPTATIF
y(n) e(n)
+
d(n) signal+bruit
INRS-EMT J. Benesty
14
Le dbut dune thorie sur lestimation dans laquelle e e plusieurs tentatives sont faites pour minimiser une fonction derreur remonte ` Galileo Galilei en 1632. a Lorigine de la thorie sur lestimation linaire est e e crdite ` Gauss qui en 1795 inventa la mthode e e a e des moindres carrs. e Les premi`res tudes utilisant lerreur quadratique e e moyenne dans les processus stochastiques sont dues ` Kolmogorov, Krein, et Wiener vers la n des a annes 1930. e Wiener formula (en temps continu) le probl`me de e ltrage pour estimer un processus corrompu par du bruit. En 1947, Levinson formula le ltre de Wiener en temps discret. Swerling et Kalman, en 1958 et 1960 respectivement, frent les premiers ` sattaquer aux u a processus non stationnaires.
INRS-EMT J. Benesty 15
Les premiers travaux sur les ltres adaptatifs ont commenc vers la n des annes 1950. e e Lun de ces premiers algorithmes est lalgorithme du gradient stochastique ou LMS (least-mean-square) conu par Widrow et Ho en 1959. c Le LMS est tr`s proche du concept dapproximation e stochastique dvelopp par Robbins et Monro en e e 1951 en statistiques. Lalgorithme RLS (recursive least-squares) standard ft invent par Plackett en 1950. u e La premi`re version rapide du RLS ft dveloppe e u e e par Morf en 1974.
INRS-EMT J. Benesty
16