Académique Documents
Professionnel Documents
Culture Documents
Thème
Commande et diagnostic
Application du filtre deVolterra
non linéaire de la machine
à la
réduction
asynchrone du bruitd'observateur
à l'aide
Soutenu publiquement
Le:../../2016
Devant le jury :
A elle qui me donné la vie ,le symbole de s'adresse ;qui s'est sacrifiée pour
mon bonheur et
Ma réussite ,à ma mère
A mon père , ,pour ses encouragements son soutient , surtout pour son
sacrifice
A mes chers amis Fatima, Yamina ,djihane , nessiba ,samiha, khaoula et mes
amis à l'université kasdi merbah ouargla et mes professeurs.
Rania
Liste des figures
Chapitre I
Figure I.1 : Filtrage de Wiener 2
Chapitre II
Figure II.1:filtre linéaire adaptatif transversal 11
Figure II.2 : Configuration d' un égaliseur adaptatif 13
FigureII.3 : Application type de l'algorithme 17
Figure II.4 : Courbes d'apprentissage de l'algorithme des moindres carrés moyens 17
Figure II.5 : Schéma bloc d'un système anti-parasite adaptatif 23
Figure II.6 : Courbes d’apprentissage de l’algorithme à pas d’adaptation fixe 24
Figure II.7 : Signal de référence, ∆𝑓𝑙 = 5% dans la région d’itération 5000-5100 25
Figure II.8 : Signal primaire du filtre adaptatif 26
Figure II.9 : Courbes d’apprentissage du filtre à pas d’adaptation fixe, ∆𝑓𝑙 = 5 27
Figure II.10 : Courbes d'apprentissage du filtre à pas adaptation variable 27
Figure II.11 : Performance en poursuite du LMS à pas d’adaptation fixe 28
Figure II.12 : Performance en poursuite du filtre à pas d’adaptation variable 28
Figure II.13 : Comparaison des courbes d'apprentissage pour un même ordre de filtre 29
Figure II.14 : Signal de référence avec∆𝑓𝑠 = 5% 29
Figure II.15 : Signal Primaire du filtre adaptatif 30
Figure II.16 : Courbes d’apprentissage de l’algorithme à pas d’adaptation
variable, ∆𝑓𝑠 = 5% 30
Figure II.17 : Performance en poursuite du LMS à pas d’adaptation fixe 31
II.18 : Performance en poursuite de l’algorithme à pas d’adaptation variable 31
Figure II.19 : Comparaison des courbes d’apprentissage pour un même ordre de filtre 32
Figure II.20 : Signal de référence, avec déviation aléatoire de la fréquence (∆𝑓𝑅 ) 32
Figure II.21 : Signal primaire du filtre adaptatif 33
Figure II.22 : Courbes d’apprentissage de l’algorithme à pas d’adaptation variable, ∆𝑓𝑅 33
Figure II.23 : Performance en poursuite du LMS à pas d’adaptation fixe 34
Figure II.24 : Performance en poursuite de l’algorithme à pas
d’adaptation variable 34
Figure II.25 : Comparaison des courbes d’apprentissage 35
Figure II.26 : Erreur d’ajustement normalisée 35
Chapitre III
Figure III.1 : Signal ECG de la mère 38
Figure III.2 : Signal ECG de la fœtus 39
Figure III.3 : Signal mesuré 40
Figure III.4 : Signal de référence 41
Figure III.5 : convergence de l'ANC 42
Figure III.6 : estimation du signal ECG du fœtus 42
ABREVIATIONS
ECG Electrocardiographe.
I. Introduction:
Dans le premier chapitre, L’ingénieur doit souvent considérer le cas courant, à partir
d’un message brut ou signal observé contenant un signal utile et un bruit, à déterminer le
meilleur récepteur permettant de discriminer le signal du bruit. Par récepteur ou filtre optimal,
nous entendons un filtre qui satisfait certains critères d’optimalité , Par un filtre adaptatif
(numérique) dont les coefficients évoluent en fonction des signaux reçus. Ces coefficients
seront estimés par des algorithmes récursifs, au sens d’un certain critère,. dans ce chapitre on
parlons juste pour le filtre de Wiener qui traité le bruit, algorithme LMS et application ECG.
Page | 1
Chapitre I Filtrage adaptatif linéaire
On admet que le signal mesuré y(n), causé par l’excitation x(n), peut être modélisé à
𝑝_1
𝑦𝑝 (n) = 𝑘=0 𝑤𝑘 x(n−k)
La recherche d’une solution consiste à rendre 𝑦𝑤 (n) aussi proche que possible du
signal 𝑦𝑝 (n) en minimisant l’erreur quadratique moyenne (Mean Square Error= MSE) par
Il est important de bien comprendre que si la solution exacte est trouvée, le signal
d’écart 𝜀(n) n’est pas nul, mais égal au bruit de la mesure e(n).
le processus est décrit par 3 paramètres (l’extension à une dimension plus grande se fait sans
difficulté)
Page | 2
Chapitre I Filtrage adaptatif linéaire
𝑤0
W= 𝑤1 (I.1)
𝑤2
Le problème ainsi posé est proche de celui de la régression linéaire que l’on a étudié
pour les systèmes statiques (ou sans mémoire). Dans le cas des systèmes dynamiques, les
signaux évoluent temporellement. L’erreur est alors une fonction du temps que l’on cherche à
réduire en minimisant sa valeur quadratique moyenne ; cela se fait en variant les coefficients
inconnus 𝑤𝑘 .
On pose donc :
(n) = y(n)−𝑦𝑤 (n) (I.3)
𝑁−1
J = 𝑁1 𝑛 =0 (𝑦(𝑛) − 𝑦𝑤 (𝑛))2 (I.4)
Tenant compte de l’équation (I.2), il vient
𝑁−1
J (𝑤0 ,𝑤1 ,𝑤2 ) = 𝑁1 𝑛=0 (𝑦(𝑛) − w0 𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2))2 (I.5)
Le calcul des dérivées partielles de J (𝑤0 ,𝑤1 ,𝑤2 ) par rapport à chacun des coefficients
inconnus𝑤𝑘 donne
𝜕𝐽 𝑁−1
=2
𝜕𝑤 0 𝑁 𝑛=0 (𝑥(𝑛)𝑦(𝑛) − 𝑤0 𝑥(𝑛)𝑥(𝑛) − 𝑤1 𝑥(𝑛)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛)𝑥(𝑛 − 2)) (−𝑥(𝑛))
𝑁−1
= − 𝑁2 𝑛=0 (𝑥(𝑛)𝑦(𝑛) − 𝑤0 𝑥(𝑛)𝑥(𝑛) − 𝑤1 𝑥(𝑛)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛)𝑥(𝑛 − 2))
𝜕𝐽 𝑁−1
𝜕𝑤 1
= 𝑁2 𝑛=0 (𝑦(𝑛) − 𝑤0 𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2)) (−𝑥(𝑛 − 1))
𝑁−1
= − 𝑁2 𝑛=0 (𝑥(𝑛 − 1)𝑦(𝑛) − 𝑤0 𝑥(𝑛 − 1)𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 1)𝑥(𝑛 − 2))
𝜕𝐽 𝑁−1
𝜕𝑤 2
= 𝑁2 𝑛=0 (𝑦(𝑛) − 𝑤0 𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2)) (−𝑥(𝑛 − 2))
𝑁−1
= − 𝑁2 𝑛=0 (𝑥(𝑛 − 2)𝑦(𝑛) − 𝑤0 𝑥(𝑛 − 2)𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 2)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2)𝑥(𝑛 − 2))
Tenant compte de la définition de la fonction de corrélation
𝑁−1 𝑁−1
𝑟𝑥𝑦 (k) = 𝑁1 𝑛=0 𝑥(𝑛)𝑦(𝑛 + 𝑘) = 1
𝑁 𝑛=0 𝑥(𝑛 − 𝑘)𝑦(𝑛) = 𝑟𝑥𝑦 (−𝑘) (I,6)
𝜕𝐽
𝜕𝑤 0
= −2(𝑟𝑥𝑦 (0)−𝑤0 𝑟𝑥𝑥 (0)−𝑤1 𝑟𝑥𝑥 (−1)−𝑤2 𝑟𝑥𝑥 (−2))
𝜕𝐽
𝜕𝑤 1
= −2(𝑟𝑥𝑦 (+1)− 𝑤0 𝑟𝑥𝑥 (+1)− 𝑤1 𝑟𝑥𝑥 (0)−𝑤2 𝑟𝑥𝑥 (−1))
𝜕𝐽
𝜕𝑤 2
= −2(𝑟𝑥𝑦 (+2)− 𝑤0 𝑟𝑥𝑥 (+2)− 𝑤1 𝑟𝑥𝑥 (+1)− 𝑤2 𝑟𝑥𝑥 (0))
Comme l’erreur quadratique obtenue est minimum lorsque ces dérivées s’annulent, on obtient
finalement un ensemble de 3 équations à 3 inconnues
Page | 3
Chapitre I Filtrage adaptatif linéaire
Les calculs que l’on vient d’exposer peuvent être présentés dans une écriture plus
𝑤0 𝑥(𝑛)
𝑤1 𝑥(𝑛 − 1)
W = ⋮ X(n) = (I,10)
⋮
𝑤𝑝_1 𝑥(𝑛 − 𝑝 + 1)
on obtient :
𝑝_1
𝑦𝑤 (n) = 𝑖=0 𝑤𝑖 𝑥 𝑛 − 𝑖 = 𝑊𝑇𝑋 𝑛 = 𝑋 𝑛 𝑇𝑊 (I.11)
Page | 4
Chapitre I Filtrage adaptatif linéaire
d’où
𝑇
J(W) = 𝑟𝑦𝑦 (0)−2𝑟𝑋𝑦 W+𝑊 𝑇 𝑅𝑥𝑥 W (I.15)
𝑑𝐽
= −2𝑟𝑥𝑦 +2𝑅𝑥𝑥 W (I,16)
𝑑𝑊
Les applications du filtrage de Wiener diffèrent par la manière dont est extraite la
réponse désirée.
de Wiener :
3. la prédiction linéaire qui, sur la base des échantillons précédents, permet d’estimer une
valeur à venir ;
Dans ce qui suit, compte tenu du cadre dans lequel est présentée cette note, on se
contentera d’illustrer comment on peut supprimer une perturbation grâce au filtrage adaptatif.
Page | 5
Chapitre I Filtrage adaptatif linéaire
I.2.Choix de l'algorithme :
Le choix de l’algorithme se fera en fonction des critères suivants:
• La robustesse au bruit,
• La complexité,
• Les propriétés numériques (stabilité et précision) dans le cas d’une précision limitée sur les
données et les coefficients du filtre.[03]
• l’identification de systèmes,
• la prédiction,
• la modélisation inverse,
• l’annulation d’interférences.[03]
Page | 6
Chapitre I Filtrage adaptatif linéaire
Le but de cette technique est de réduire au minimum une fonction de coût quadratique
en mettant à jour itérativement des poids de sorte qu’ils convergent à la solution optimale.
où :
e2 (n) est l'erreur quadratique moyenne entre la sortie xˆ(n) et le signal de référence x(n) ;
Où
Et
Page | 7
Chapitre I Filtrage adaptatif linéaire
h∇=−2𝛷𝑦𝑥 +2𝛷𝑦𝑦
Dans la méthode du gradient descendant, le plus gros problème est le calcul impliqué
dans la recherche des valeurs𝛷𝑦𝑦 et𝛷𝑦𝑥 des matrices en temps réel. Pour y remédier,
l'algorithme LMS utilise les valeurs instantanées des matrices de covariance𝛷𝑦𝑦 et𝛷𝑦𝑥 au lieu
de leurs valeurs réelles c'est-à-dire :
Par conséquent, la mise à jour du vecteur de poids d’égalisation peut être donnée par
l'équation suivante:
L'algorithme LMS est engagé à démarrer avec une valeur arbitraire h(0) pour le
vecteur de poids à n = 0.
Initialiser avec :
h(0)=0
Page | 8
Chapitre I Filtrage adaptatif linéaire
L'algorithme LMS engagé avec certaines valeurs arbitraires pour le poids est perçu
comme vecteur de convergence :
Si μ est choisie pour être très faible alors l'algorithme converge très lentement.
Une grande valeur de μpeut conduire à une accélération de convergence, mais peut-
être moins stable, autour de la valeur minimale. Habituellement μest choisie dans la marge
[04 et 05] :
2
0< 𝜇 < ג (I.24)
𝑚𝑎𝑥
Pour des valeurs propres de 𝛷𝑦𝑦 quisont très répandues, la convergence peut être lente.
I .5 Conclusion :
Page | 9
Chapitre II
Etude l'algorithme LMS
Chapitre II Etude l’algorithme LMS
II. Introduction:
généralement , l'égaliseur implémenté dans le récepteur utilise une structure fixe .Des
travaux préliminaires ont montré, qu' il est judicieux d'évaluer l'apport effectif de l'égalisation
avant de mettre en œuvre ce traitement sur un message reçu .
L'objectif de cette thèse est de concevoir une structure d'égaliseur reliant deux aspects
: une loi itérative d'adaptation du pas de convergence et les statistique d'ordre supérieur .Une
première approche sera de considérer des structures optimales , dérivées de l'algorithme de
Wiener-Hopf .Les structures proposées permettront la mise en place de critères pertinents
d'adaptation des traitements mis en œuvre afin d'obtenir le meilleur compromis entre la
vitesse de convergence et meilleur compromis entre la vitesse de convergence et l'erreur
d'ajustement .
La figure II.1 montre le schéma block d' un filtre adaptatif transversal 𝐻𝑘 dans le
contexte d'estimation d'une séquence désirée𝑑𝑘 basé sur un signal de référence𝑥𝑘 , obtenus en
échantillonnant les signaux d(t) et x(t) respectivement .la sortie du filtre , à l'instant k ,est𝑦𝑘 et
l'erreur d'estimation est𝑒𝑘 avec N étant l'ordre du filtre . Quand l'erreur d'estimation tend vers
zéro ,la sortie du filtre tend vers la séquence désirée .
Pour obtenir la configuration optimale du filtre , une méthode directe consiste à choisir
une fonction appropriée de l'erreur d'estimation (parfois appelée fonction de performance ou
fonction cout) qui permet d'obtenir les coefficients du filtre (𝐻𝑘 ) de telle sorte à optimiser
cette fonction dans un certain sens . plusieurs fonctions cout permettent d'achever des
objectifs différent . pour un processus déterministe , on peut minimiser l'erreur des moindres
carrés (least square errore ou LSE) , alors que pour un processus stochastique ,on minimise
l'erreur quadratique moyenne (mean square error ou MSE) .D'autres situations peuvent nous
amener à vouloir maximiser le rapport signal- bruit (SNR) ou récupérer l'enveloppe du signal
[06].
Page | 10
Chapitre II Etude l’algorithme LMS
Dans le cas du filtre optimal de Wiener , cette fonction cout , dénommée J ,est donnée
par le carré de l'erreur d'estimation . la fonction J est aussi appelée erreur quadratique
moyenne.
J= E[ 𝑒𝑘 2 ] (II.1)
Les coefficients du filtre optimal (H*)sont obtenus en annulant le gradient de (II.1) par
rapport aux coefficient du filtre .
𝜕𝐽 𝜕e
∇𝑗 = 𝜕𝐻 =2E (𝑒𝑘 ∂Hk ) (II.4)
𝐾 k
Page | 11
Chapitre II Etude l’algorithme LMS
RH*=p (II.6)
L'expression (II.6) permet d'aboutir au optimal de Wiener H* donné par (II.7) plus connue
sous le nom représentation matricielle de l'équation de Wiener _Hopf [07],
H*= 𝑅 −1 p (II.7)
Une première approche pour résoudre l'équation de Wiener _Hopf (II.7) consiste à utiliser
l'algorithme du gradient déterministe .
Ou' 𝜇 est une constante positive qui contrôle le taux de convergence et communément
dénommée facteur de convergence ou pas d'adaptation.
Page | 12
Chapitre II Etude l’algorithme LMS
Le signal primaire X(n) est la somme d'un signal porteur d'information S(n) et d'un bruit
additif W(n) formant le signal donné par (II.10)
Qui alimente l'entre de l'égaliseur pour obtenir Le signal de sortie du filtre y(n) .le signal
d'erreur e(n) donné par (II.2) est utilisé pour mettre à jour ,à chaque itération (ou instant) k ,
Le vecteur des coefficients (poids) du filtre 𝐻𝑘 .la séquence désirée d(n), est parfois
dénommée en littérature signal de référence ou signal d'entrainement.
A chaque instant k ,on veut adapter les coefficients du filtre (𝐻𝑘 ) selon certains critères
comme l'erreur quadratique moyenne donné par (II.1) afin d'éliminer au mieux le bruit additif
.
- Signal stationnaire, ou' les paramètres statistique du signal d'entre (i.e., moyenné et écart type)
ne changent pas avec le temps . le critère le plus important d'un signal stationnaire est que sa
fonction d'autocorrélation ne change pas avec le temps (dépond uniquement des décalage) .
- Signal non stationnaire, principalement du aux dépassements transitoires .
- Déconvolution aveugle ou absence du Signal d'entrainement .
Dans notre cas, on s'intéresse aux deux premières approches . le dernière approche concernant
l'entamer la discussion de l'algorithme des moindres carrés moyens , nous allons d'abord
présenter les critère d'évaluation d'un filtre adaptatif .
Page | 13
Chapitre II Etude l’algorithme LMS
Taux de convergence :
Dans un système adaptatif , une convergence rapide vers la solution optimale est un critère
désiré .cependant, une convergence ne peut être considéré seul mais en conjonction avec
d'autre critère . par conséquent , il faut retenir que la convergence rapide :
Indique dans quelle mesure le système est apte à exécuter sa tache de filtrage .
Une MMSE faible indique que le système adaptatif a ≪ 𝑝𝑟é𝑐𝑖𝑠é𝑚𝑒𝑛𝑡 ≫convergé vers la
solution désirée . les paramètres qui peuvent affecter ce critère sont , mais ne se limitent pas à:
l'ordre du système adaptif , l'erreur de quantification et le bruit de mesure .L'erreur
quadratique moyenne excédante (excédante MSE)est définie comme étant la différence entre
l'erreur quadratique moyenne (MSE) réelle à la sortie du filtre adaptatif et ce qu' elle devrait
être si les coefficients du filtre adaptatif étaient maintenus à leurs valeurs optimales .
La précision de l'estimation des coefficients du filtre est plutôt importante dans la mesure
ou' elle permet des condition acceptables de l'erreur d'ajustement .
Page | 14
Chapitre II Etude l’algorithme LMS
Charge de calcul :
Une faible charge de calcul est particulièrement intéressante pour une implémentation
matérielle en temps réel (DSP) et les application ou' une faible consommation d'énergie est
exigée.
Stabilité :
Les filtres RIF sont intrinsèquement stables aussi longtemps que le facteur de
convergence et constantes de gain sont appropriés . la stabilité devient un problème majeur
lorsqu' il s'agit de filtres RII .
Robustesse :
Ordre du filtre :
L'ordre du filtre ,désigne par N , est intrinsèquement relié aux autres critères
d'évaluation de la performance. Il indique à quel degré de précision le filtre adaptatif peut
modéliser le système.
Pour les systèmes surdéterminés, (l'ordre du filtre est supérieur à l'ordre du système)
,ou autrement, quand il y' a trop de pôles/zéros dans le model du système , l'erreur quadratique
moyenne aura la possibilité de converger vers zéro mais au prix d'une charge de calcul
excessive . de la même manière, lorsque le système est sous déterminé, (l'ordre du filtre est
inférieur à l'ordre du système), peu de calculs seront nécessaires. Par contre, l'erreur
quadratique moyenne va converger vers une constante non nulle. Un traitement sur la
détermination de l'ordre du filtre est donné par [08].
Une solution itérative de (II.7) peut être dérivée à partir du concept des moindres
carrés.
Page | 15
Chapitre II Etude l’algorithme LMS
Cette approche itérative permet de réduire la charge de calcul O(𝑁 3 ) pour l'inversion
de la matrice d'autocorrélation R . La version de base de l'algorithme des moindres carrés
moyens ou LMS est donné par [07],[ 09]
𝑦𝐾 = XkT 𝐻𝑘
𝑒𝑘 =𝑑𝑘 - 𝑦𝑘 (2.11)
𝐻𝑘+1 = 𝐻𝑘 + 2 𝜇𝑒𝑘 𝑋𝑘
D'autre variantes de cet algorithme ont été proposées dans la littérature , voir tableau
II.1 , dans l'espoir d'améliorer un ou plusieurs des critères d'évaluation vus précédemment .
Cependant, l' algorithme LMS et ses différentes variantes souffrent des problèmes de
faible performance en poursuite et de convergence notamment en milieu
En plus, les deux dernières variantes du tableau II.1 présentent une erreur conséquente
d'ajustement et sont, par conséquent, susceptbles de diverger [13] .
Page | 16
Chapitre II Etude l’algorithme LMS
La figure II.2 illustre une application type du LMS dans le domaine d'annulation
d'interférence .
Dans ce cadre, différentes simulation sont conduites pour illustrer notamment, les
effets de la valeur du pas de convergence et l'ordre du filtre sur la vitesse de convergence,
l'erreur d'ajustement tels illustrés dans la figure II.4. on déduit que la vitesse de convergence,
l'erreur d' ajustement et l'ordre du filtre sont proportionnels au pas d'adaptation de l'
algorithme .
Page | 17
Chapitre II Etude l’algorithme LMS
Mais puisque ces paramètres sont à priori inconnus , leur estimation devient
nécessaire.
Pour assurer la convergence de l' algorithme ,le pas d'adaptation (𝜇) doit être,
généralement, une constante scalaire choisie dans l'intervalle]0 1/ [ 𝑥𝑎𝑚ג,ou' 𝑥 𝑎𝑚גreprésente
la valeur propre maximale de la matrice d'autocorrélation R [01],[09].
Le filtrage adaptatif classique via l' algorithme LMS utilise un pas d'adaptation fixe.
Cette approche a donné lieu à des limitation de l' algorithme notamment lorsqu' il s'agit de
poursuite de non stationnarité ou de faire face à des processus non linéaire.
Dans cette section ,on va développer une loi adaptative ,sous forme récursive pour
effectuer la mise à jour du pas d'adaptation . Cette méthode permet d'obtenir un meilleur
filtrage adaptatif en particulier dans un environnement non stationnaire . elle permet aussi de
maintenir un niveau de charge de calcul acceptable, notamment en utilisant une loi sous forme
récursive qui concorde avec la solution itérative de (II.7) permettant d'éviter l'inversion de la
matrice d'autocorrélation R .
L'utilisation de l' algorithme des moindres carrées moyens (LMS) allait crescendo
depuis son introduction par Widrow et al. Durant les années 1960, et ce dans différents
domaines d'application comme mentionné dans [07], [09],[14],[01] et [15]. Cette utilisation
grandissante est due principalement à une formulation simple du LMS et une facilité de son
implémentation pratique . certains problèmes , le choix critique du pas de convergence et la
dépendance de la convergence de la dispersion des valeurs propres de la matrice
d'autocorrélation . Ces poursuite et une convergence très lente , voire une divergence . Pour
pallier à ces problèmes , plusieurs techniques traitant le pas de convergence ont été proposées
dans la littérature .
Une expression du pas de convergence en fonction des données d'entrée a été formulée
par [16], cependant , l' algorithme a été seulement testé avec des données blanches et l'analyse
a été restreinte à des signaux d'entrée stationnaires à moyenne nulle et de type Gaussien. [17]
a montré la dépendance de la dimension du pas optimal du degré de non stationnarité.
Page | 18
Chapitre II Etude l’algorithme LMS
Dans d'autre méthodes, comme [20]et [21], la valeur optimale du pas de convergence
est obtenue en minimisant l'erreur quadratique moyenne par rapport à ce paramètre
.Cependant, ces méthodes nécessitent des charges de calculs conséquent ,ne peuvent être
appliqués en temps réel .même l' algorithme proposé par [22] et repris un peu plus tard par
[23]n' échappe pas à cette limitation [21]. [24] propose une loi de convergence sous forme
matricielle variable dans le temps incluant implicitement les problèmes de détermination de la
norme et du déterminant de la matrice .
Dans cette partie , l'objectif est de présenter une nouvelle formulation récursive du pas
d'adaptation tout en essayant de garder une simplicité de l' algorithme est testée dans des
environnements stationnaire et non stationnaire .
𝑦𝐾 = XkT 𝐻𝑘
𝑒𝑘 =𝑑𝑘 - 𝑦𝑘
𝐻𝑘+1 = 𝐻𝑘 + 2 𝜇𝑒𝑘 𝑋𝑘
Ou' 𝑦𝐾 est la sortie du filtre à l'instant k, 𝐻𝑘 est le vecteur des coefficients , 𝑋𝑘 est la
séquence de données d'entrée , 𝑑𝑘 est la réponse désirée et 𝑒𝑘 le signal d'erreur .
Page | 19
Chapitre II Etude l’algorithme LMS
H*= 𝑅 −1 p (II.13)
Ou' p est le vecteur d'intercorrélation entre réponse désirée du filtre et les éléments du
vecteur données d'entrée.
𝜀𝐾 = E [𝑒 2 𝑘]
Ou' 𝜀𝑚𝑖𝑛 est l'erreur quadratique moyenne minimale à la solution optimale de Wiener .
l'équation (II.14) montre que lorsque𝐻𝑘 cherche à atteindre le vecteur optimum des
coefficients H∗ , 𝜀𝐾 tend vers 𝜀𝑚𝑖𝑛
𝜀 𝐾 −𝜀 𝑚𝑖𝑛
M= 𝜀 𝑚𝑖𝑛
𝑁
𝜇𝑖ג
𝑖=1
1 − 𝜇𝑖ג
= II. 15
𝜇𝑖ג
1− 𝑁
𝑖=1
1 − 𝜇𝑖ג
Quand le facteur de convergence𝜇 est plus petit que 1/ 𝑥𝑎𝑚ג, une approximation de la
valeur de M est donnée par (II.16)
𝑁
M=𝜇 𝑖=1 𝑖ג = 𝜇.tr[R] (II.16)
Page | 20
Chapitre II Etude l’algorithme LMS
1
𝜇𝑘 = 1 𝑁 𝑋2
(II.17)
+ 𝑖=1 (𝑘−𝑖)
𝜇0
Après les premières N itération d'initialisation ,une expression récursive pour le pas de
convergence peut s'écrire comme suit :
𝑘 𝜇 −1
𝜇𝑘 = 1+∆𝜇
𝑘 −1
Avec ∆ = 𝑋 2 𝑘 − 𝑋 2 𝑘_𝑁 ,
∆𝜇 2
𝑘
𝜇𝑘 = 𝜇𝑘_1 − 1+∆𝜇
𝑘
1
En effectuant le changement de variable 𝜇𝑘′ = 𝜇 ,une forme plus simplifiée de
𝑘
(II.18)peut être obtenue . Ainsi, durant les premières N itérations,𝜇𝑘′ peut s'écrire sous la forme
récursive donnée par(II.19)
𝜇𝑘 ′=𝜇′𝑘−1 +𝑋 2 𝑘 (II.19)
Et pour les itération suivantes (k>N) , la mise à jour de 𝜇𝑘′ s'effectue sous la forme décrite par
(II.20)
Page | 21
Chapitre II Etude l’algorithme LMS
Nombre de
Pas d'adaptation Nombre d'addition
multiplication
Formule d[20] 3N 1N
Version1(II.18) 4N 2N
Version2(II.20) 1N 3N
La figure II.5 illustre un schéma bloc d' un circuit anti-parasite adaptatif (ANC) .
Le signal primaire X se compose d'un signal désiré D contaminé par un signal bruit
n1qui est une version "filtrée" du signal secondaire (signal bruit de référence) n2 . le signal D
Page | 22
Chapitre II Etude l’algorithme LMS
est généré de façon à être statistiquement indépendant de n1 et n2 .le filtre adaptatif donne une
estimation yk de la composante bruit de signal primaire (dans ce cas le signal bruit n1) , de
telle sorte que le signal d'erreur ek est donné par ek =X - yk = 𝐷 ≈ 𝐷
Le signal bruit n1 est génère par le passage d'un signal sinusoïdal (de référence) non
stationnaire n2 , ayant la forme n2 = sin (2𝜋𝑓𝑘 𝑛)+ cos (𝜋𝑛/5) , à travers un autre système tout
pôles de fonction de transfert G(z) . le tableau 2.3 donne les valeurs des paramètres utilisé
pour lesquelles , F(z) aura des pôles complexes placés à (0.64 ±𝑗 0.712) .
Tableau II.3 :Modèles autorégressifs pour la génération des signaux d'entrée du filtre
Page | 23
Chapitre II Etude l’algorithme LMS
Cet ordre sera retenu pour les comparaisons ultérieures des performances en poursuite avec la
nouvelle formulation de l’algorithme adaptatif.
Page | 24
Chapitre II Etude l’algorithme LMS
Iteration number
Iteration number
Figure II.7:Signal de référence, ∆𝑓𝑙 = 5% dans la région d’itération 5000-5100
Page | 25
Chapitre II Etude l’algorithme LMS
Le signal primaire X, décrit dans la figure II.5, est illustré dans la figure II.8.
Primary, singal,linear frequency deviation
Iteration number
Iteration number
Figure II.8:Signal primaire du filtre adaptatif
Page | 26
Chapitre II Etude l’algorithme LMS
La figure II.10 montre les mêmes courbes d’apprentissage, moyenne d’ensemble sur
100 réalisations, du filtre utilisant une loi variable pour le pas de convergence. Une déviation
linéaire de fréquence (∆𝑓𝑙 )de 5% est effectuée dans la région d’itération 5000- 5100. L’ordre
du filtre N=12 donne la meilleure performance, cependant pour la comparaison, on va
maintenir N=6 afin de ne pas désavantager l’algorithme à pas d’adaptation fixe.
Page | 27
Chapitre II Etude l’algorithme LMS
L’analyse des courbes de poursuite aussi bien du signal désiré que du signal bruit,
figures II.11 et II.12, montre un retard (décalage) dans la poursuite de l’algorithme à pas
d’adaptation fixe, principalement dans la zone de non stationnarité, par rapport à l’algorithme
utilisant un pas d’adaptation variable.
Dans cette partie de simulation, on fait subir à la fréquence du signal de référence (n2), une
déviation sinusoïdale (∆𝑓𝑙 ) durant l’intervalle d’itération (5000-5100) comme illustré dans la
figure II.14. La figure II.15 montre le signal primaire du filtre.
Page | 29
Chapitre II Etude l’algorithme LMS
Page | 30
Chapitre II Etude l’algorithme LMS
Pour un même ordre de filtre N=6, la figure II.19 met en évidence l’avantage de
l’algorithme à pas d’adaptation variable au vu de la vitesse de convergence et l’erreur
d’ajustement.
Page | 31
Chapitre II Etude l’algorithme LMS
En dernier lieu, une déviation aléatoire de fréquence (∆𝑓𝑅 ) du signal de référence (n2)
est effectuée durant l’intervalle de temps (5000-5100) comme illustré dans la figure II.20. Le
signal primaire du filtre est donné dans la figure II.21.
Page | 33
Chapitre II Etude l’algorithme LMS
Page | 34
Chapitre II Etude l’algorithme LMS
Page | 35
Chapitre II Etude l’algorithme LMS
II.2.4.4. Conclusion:
Dans cette section, nous avons décrit une nouvelle formulation de l’algorithme LMS
en le dotant d’une loi d’adaptation variable. Cette formulation du facteur de convergence «
immunise » l’algorithme contre différentes formes de non stationnarité ce qui n’était pas le
cas pour l’algorithme de [17]. Cette nouvelle formulation du facteur de convergence,
présentée sous forme unique et itérative, se conjugue parfaitement avec l’inversion itérative
de la matrice d’autocorrélation, et permet une implémentation beaucoup plus simple et
compacte que l’approche à pas multiple de [28].
Page | 36
Chapitre III
Filtrage adaptatif appliqué
à l’électrocardiographe
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe
III . Introduction:
Dans la troisième chapitre , la Bruit adaptative Annulation (ANC) appliquée à fœtal
électrocardiographie cette démonstration illustre l'application de filtres adaptatifs à une
pression du bruit en utilisant le bruit adaptatif annulation[29].
En bruit adaptatif annulation, un signal mesuré d (n) contient deux signaux:
- Un signal inconnu d'intérêt v (n)
- Un signal d'interférence u (n)
L'objectif est de supprimer le signal d'interférence de la mesure signal en utilisant un
signal de référence x (n) qui est fortement corrélé avec du signal d'interférence. L'exemple
considéré ici est une application des filtres adaptatifs à l'électrocardiographie du fœtus, dans
lequel une maternelle le signal de battement de cœur est enlevée de manière adaptative à
partir d'un capteur de rythme cardiaque du fœtus signal.
Page | 37
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe
Page | 38
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe
Page | 39
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe
Page | 40
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe
Page | 41
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe
Page | 42
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe
III.8 Conclusion
Page | 43
Conclusion générale
Conclusion générale
L'objectif de ce travail de mémoire est d'etudier le filtrage adaptatif en générale ,et les
filtres non linéaires combinés aux statistique d' ordre supérieur pour des applications de type
réduction adaptative de bruit .
En premier lieu , nous avons essayé de démontrer les mérites du filtrage adaptatif
linéaire dans des application aux systémes dont la relation entrée / sortie est défini par une
simple relation de convolution . le filtrage adaptatif , dans son ensemble , a été étudie dans des
systémes linéaire , particuliérement l'algorithme des différents paramétres . Le signal d'entrée
est une séquence binaire pseudo aléatoire (SBPA) avec une densité spectrale homogéne
couvrant l'ensemble de la bande passante du systéme . les résultats de simulation ont
démontre la supériorité de l'algorithme à pas d'adaptation variable par rapport à pas fixe dans
la poursuite des signaux . Ensuite , l' algorithme pas d'adaptation variable a été étendu aux
systémes non linéaire .
Les résultats de simulation , montrent que ce dernier offre une bonne capacité de
poursuite d'une SBPA , en dotant ses parties linéaire et quadratique de lois d'adaptation
différentes , ce qui permet d'avoir plus de degrés de liberté dans l'ajustement des coefficientes
de filtre .
Une application aux signaux ECG du filtre non linéaire à pas d'adaptation variable ,
pour la réduction de bruit a démontré ses capacités en poursuite . la réduction de bruit
adaptatif revient à un probléme d'identification de filtre . donc ,il suffit d'estimer le filtre réel
qui engendre le bruit , ce qui donne en sortie du filtre une estimation du signal utile .
Bibliographie
Bibliographie
[01] Haykin_01, S. Haykin, Adaptive Filter Theory. Englewood Cliffs, NJ: Prentice-Hall, 4th
édition, ISBN 0-130-90126-1, 2001.
[03] Traitement des signaux numériques – II Filtrage adaptatif et analyse spectrale Jacob
Benesty Session: 10 janvier au 15 avril 2005.
[04] Wei_02, Paul C. Wei, J. Huan, J.R. Zeidler, W.H. Ku, “Tracking performance of the
LMS and RLS algorithms for chirped narrowband signal recovery,” IEEE Trans. on Signal
Processing, vol. 50, no. 7, pp. 1602-1609, July 2002.
[05] Soo-Pang_91, J.-S. Soo and K.K. Pang, “A multistep size (MSS) frequency domain
adaptive filter,” IEEE Trans. on Signal Processing, vol. 39, no. 1, pp. 115-121, January 1991.
[06] Proakis_02, John G. Proakis , Charles M , Fuyun Ling ,Chrysostomos L,Nikias ,Marc
Moonen , Lan K, Proudler ,Algorithms for Statistical Signal Processing .
[09] Shah_94, Abhijit A. Shah, Advisor: Dr. Tufts, Development and Analysis of Techniques
for Order Détermination and Signal Enhancement, PhD dissertation, University of Rhod
Islands, 1994.
[11] Cilke-Etter_92, J. Thomas Cilke and Delores M. Etter, “A new adaptive algorithm to
reduce weight fluctuations caused by high variance data,” IEEE Trans. on Signal Processing,
vol. 40, no. 9, pp. 2324-2327, September 1992.
[12] Bermudez-Bershad_96b, J.C.M. Bermudez and N.J. Bershad, “Transient and tracking
performance analysis of the quantized LMS algorithm for time-varying
[13] Eweda_99, Eweda Eweda, “Transient and tracking performance bounds of the sign- sign
algorithm,” IEEE Trans. on Signal Processing, vol. 47, no. 8, pp. 2200-2210, August 1999.
.[14] Cowan-Grant_85] C.F.N. Cowan and P.M. Grant (Editors), Adaptive Filters, Englewood
Cliffs, NJ: Prentice-Hall, 1985. [15] Sayed_03, Ali H. Sayed, Fundamentals of Adaptive
Filtering, Wiley-IEEE Press, ISBN 0-471-46126-1, 2003
[16] Bershad_86, Neil J. Bershad, “Analysis of the normalized LMS algorithm with Gaussian
inputs,” IEEE Trans. on ASSP, vol. ASSP-34, no. 4, pp. 793-806, August 1986
[18] Lee-Un_86, J. C. Lee and C.K. Un, “Performance of transform-domain LMS adaptive
digital filters,” IEEE Trans. ASSP, vol. ASSP-34, no. 3, pp. 499-510, June 1986.
[19] Bershad-Macchi_91, N.J. Bershad and O.M. Macchi, “Adaptive recovery of a chirped
sinusoid in noise, part 2: performance of the LMS algorithm,” IEEE Trans. on Signal
Processing, vol. 39, no. 3, pp. 595-602, March 1991.
[20] Kwong-Johnston_92, R.H. Kwong and E.W. Johnston, “A variable step size LMS
algorithm,” IEEE Trans. on Signal Processing, vol. 40, no. 7, pp. 1633-1642, July 1992.
[22] Chiang-Nikias_88, H. H. Chiang and C. K. Nikias, “Adaptive filtering via cumulants and
the LMS algorithm,” in Proceedings ofthe IEEE ICASSP’88 Conférence, pp. 1479- 1482.
[23] Bakrim_94, M’Hamed Bakrim, Driss Aboutajdine, and Mohamed Najim, “New
cumulant-based approaches for non-Gaussian time varying AR models,” Signal Processing,
vol. 39,nos. 1/2, pp. 107-115, September 1994
[24] Aboutajdine_96,Driss Aboutajdine, A. Adib, and A. Meziane, “Fast adaptive algorithms
for AR parameters estimation using higher order statistics,” IEEE Trans. on Signal
Processing, vol. 44, no. 8, pp. 1998-2009, Oct. 1996.
System identification,” IEEE Trans. on Signal Processing, vol. 44, no. 8, pp. 1990-1997,
August 1996.
[25] . Rupp-Cezanne_00, Markus Rupp and Jürgen Cezanne, “Robustness conditions of the
LMS algorithm with time-variant matrix step size,” Signal Processing, Elsevier Science B.V.,
vol. 80, pp. 1787-1794, 2000
[27] Ho_96, K.C. Ho, “A minimum misadjustment adaptive FIR filter,” IEEE Trans. on
Signal Processing, vol. 44, no. 3, pp. 577-585, March 1996.
[28] Widrow_76, B.Widrow, J. McCool, M. Larimore, and R. Johnson Jr., “Stationary and
non stationary leaming characteristics of the LMS adaptive filter,” Proc. IEEE, vol. 64, pp.
1151-1162, August 1976.
[29] Widrow, et al, «bruit adaptatif Annulation:... Principes et applications, "Proc IEEE (R),
vol 63, n ° 12, Pp. 1692-1716, Décembre de 1975.
Résumé
Le travail effectué ,dans ce mémoire , consiste à étudier le filtrage adaptatif et les statistiques d'ordre
supérieur pour améliorer les performances de ces filtres ,par extension du cas linéaire aux filtres non
linéaire, via les séries de Volterra
Cette étude 'est, principalement , axée sur :
Le choix du pas d'adaptation et les conditions de convergence
Le taux de convergence
L'expression du pas de convergence , d'une manière adaptative , en fonction du signal d'entré.
L'application de ces filtres adaptatifs à des signaux de parole réels ,a démontre leur capacité en de
poursuite, tout en gardant une complexité de calcul relativement appréciable
Mots clés : Facteur de convergence , filtrage adaptatif, egalisation ,filtres non linéaires ,séries de
Volterra ,traitement de la parole
Abstract
The performed job, in this memo , consists in studying adaptive filters higher ordre statistics to
ameliorate their performances ,by extension of linear case to non linear filters via volterra series
.
This study is ,principally, axed on :
Choice of the adaptation step and convergence conditions
Convergence rate
Adaptive variation of the convergence factor , according to the entrance signal .
The obtained results ,with real signals ,have shown computationally efficient and numerically
stable algorithms for adaptive nonlinear filtering while keeping relatively simple computational
complexity .
Keywords ; convergence factor ,adaptive filtering ,equalization , higher order statistics linear
filters , volterra series
:ممخص
، من اجل تحسين ادائها، تتكون في دراسة المرشحات التكييفية واالحصاءات ذات الدرجات العالية، في هذه المذكرة،المهمة المنجزة
بتحويمها من اجالة الخطية الى غير الخطية سمسمة فولتي ار
: هذه الدراسة مرتكزة اساسا عمى
اختيار خطوة التكيف وظروف التقارب
معدل التقارب
وفقا الشارة المدخل،التغيير التكيفي لمعامل التقارب
حفاظا عمى كفاءة واستقرار عددي، قد اظهرت بشكل حسابي قدرتها عمى التبعية، مع اشارت حقيقية،النتائج المحصل عميها
مع ابقاء تعقيد عددي بسيط نسبيا، لمخوارزميات التكيفية
سمسمة فولتي ار، المرشحات التكييفية، االحصاءات ذات الدرجات العالية، التعديل، الترشح التكيفي، معامل التقارب: الكممات المفتاحية