Vous êtes sur la page 1sur 62

UNIVERSITE KASDI MERBAH OUARGLA

Faculté des Nouvelles technologies de


l’information et de la communication
Département D’Electronique et communication

Mémoire MASTER ACADEMIQUE


Domaine : Sciences et Technologies
Filière : Electronique
Spécialité : contrôle industriel

Présenté par: FEKIH Raina

Thème

Commande et diagnostic
Application du filtre deVolterra
non linéaire de la machine
à la
réduction
asynchrone du bruitd'observateur
à l'aide
Soutenu publiquement
Le:../../2016

Devant le jury :

M. Mekimah Boualem MAA Président UKM Ouargla

M. Manseur Abdelghani MAA Encadreur/Rapporteur UKM Ouargla

M. Belhdri Abdelkrim MAB Examinateur UKM Ouargla

Mme Chenina Hachemi MAB Examinateur UKM Ouargla

Année universitaire 2015-2016


Remerciement

Mon premier remerciement va a Allah Soubhanouwatahala.


Je tenais à remercier vivement mes encadreurs, Manseur
Abdelghani Mekimah(p),et Belhdri et Chenina, pour sa
gentillesse,
sa disponibilité et sa contribution générale à
L’élaboration de ce travail.

Je souhaiterais également remercier mes enseignants de la


faculté des novelles technologies d'information et de la
communication et

Et toutes les équipes de la faculté des hydrocarbures et science


appliqué.

Enfin, j’adresse mes plus sincères remerciements à tous mes


proches et amis qui m’ont toujours soutenu et encouragé au de
la réalisation de ce mémoire.
Dédicace

J'ai le grand plaisir de dédier ce modeste travail:

A elle qui me donné la vie ,le symbole de s'adresse ;qui s'est sacrifiée pour
mon bonheur et

Ma réussite ,à ma mère

A mon père , ,pour ses encouragements son soutient , surtout pour son
sacrifice

Afin que rien n'enlrave le déroulement de mes éludes ,merci père

Conjugal prospectif (youcef)

A mes adorables sœurs

A mon seul frère chouaib

A ma famille surtout ma grande mère

A mes cousin et cousine

A mes chers amis Fatima, Yamina ,djihane , nessiba ,samiha, khaoula et mes
amis à l'université kasdi merbah ouargla et mes professeurs.

Tout ceux que j'aime et je respecte.

Rania
Liste des figures

Chapitre I
Figure I.1 : Filtrage de Wiener 2

Chapitre II
Figure II.1:filtre linéaire adaptatif transversal 11
Figure II.2 : Configuration d' un égaliseur adaptatif 13
FigureII.3 : Application type de l'algorithme 17
Figure II.4 : Courbes d'apprentissage de l'algorithme des moindres carrés moyens 17
Figure II.5 : Schéma bloc d'un système anti-parasite adaptatif 23
Figure II.6 : Courbes d’apprentissage de l’algorithme à pas d’adaptation fixe 24
Figure II.7 : Signal de référence, ∆𝑓𝑙 = 5% dans la région d’itération 5000-5100 25
Figure II.8 : Signal primaire du filtre adaptatif 26
Figure II.9 : Courbes d’apprentissage du filtre à pas d’adaptation fixe, ∆𝑓𝑙 = 5 27
Figure II.10 : Courbes d'apprentissage du filtre à pas adaptation variable 27
Figure II.11 : Performance en poursuite du LMS à pas d’adaptation fixe 28
Figure II.12 : Performance en poursuite du filtre à pas d’adaptation variable 28
Figure II.13 : Comparaison des courbes d'apprentissage pour un même ordre de filtre 29
Figure II.14 : Signal de référence avec∆𝑓𝑠 = 5% 29
Figure II.15 : Signal Primaire du filtre adaptatif 30
Figure II.16 : Courbes d’apprentissage de l’algorithme à pas d’adaptation
variable, ∆𝑓𝑠 = 5% 30
Figure II.17 : Performance en poursuite du LMS à pas d’adaptation fixe 31
II.18 : Performance en poursuite de l’algorithme à pas d’adaptation variable 31
Figure II.19 : Comparaison des courbes d’apprentissage pour un même ordre de filtre 32
Figure II.20 : Signal de référence, avec déviation aléatoire de la fréquence (∆𝑓𝑅 ) 32
Figure II.21 : Signal primaire du filtre adaptatif 33
Figure II.22 : Courbes d’apprentissage de l’algorithme à pas d’adaptation variable, ∆𝑓𝑅 33
Figure II.23 : Performance en poursuite du LMS à pas d’adaptation fixe 34
Figure II.24 : Performance en poursuite de l’algorithme à pas
d’adaptation variable 34
Figure II.25 : Comparaison des courbes d’apprentissage 35
Figure II.26 : Erreur d’ajustement normalisée 35
Chapitre III
Figure III.1 : Signal ECG de la mère 38
Figure III.2 : Signal ECG de la fœtus 39
Figure III.3 : Signal mesuré 40
Figure III.4 : Signal de référence 41
Figure III.5 : convergence de l'ANC 42
Figure III.6 : estimation du signal ECG du fœtus 42
ABREVIATIONS

AR Autorégressif (Auto Regressive).

ANC Adaptiv Noise Cancelling(Annulation Adaptative de Bruit).

ECG Electrocardiographe.

LMS Least Mean Square (Moindres Carrés Moyens).

MA Moyenne Ajustée (Moving Average).

MCM Moindres Carrés Moyens.

MMSE Minimal Mean Square Error (Erreur Quadratique Moyenne Minimale).

MSE Mean Square Error (Erreur Quadratique Moyenne).

NLMS Normalized Least Mean Square (Moindres Carrés Moyens Normalisés).

RIF Réponse Impulsionnelle Finie.

RII Réponse Impulsionnelle Infinie.

SNR Signal ti Noise Ratio (Rapport signal sur bruit).

LSE Least square erreur .

ADSL Asymptotic digital subscriber line

DSP Digital signal processing

GSM Global system for mobile communications

HDTV High definition television

HOS High order statistics


Sommaire
Symbols et Notions .........................................................................................................
Introduction générale: .....................................................................................................
Chapitre I
I. Introduction : .............................................................................................................1
I.1Filtrage de Wiener: ...................................................................................................1
I.1.1 Définition du problème : ...................................................................................... 1
I.1.2 Résolution au sens des moindres carrés : ............................................................. 3
I.1.3 Description matricielle : ....................................................................................... 4
I.1.4 Applications du filtrage de Wiener: .....................................................................5
I.2 Choix de l'algorithme : ............................................................................................ 6
I.3 Applications du filtrage adaptatif : .........................................................................6
I.4. Algorithme LMS : ..................................................................................................7
I.4.1. Convergence et stabilité de l'algorithme LMS : .................................................9
I.5 Conclusion : ............................................................................................................9
Chapitre II
II. Introduction : ..........................................................................................................10
II.1Filtre optimal de Wiener: ...................................................................................... 10
II.2. Problème d'égalisation adaptative : .....................................................................12
II.2.1 critères d'évaluation de performance d' un filtre adaptatif : .............................. 14
II.2.2 L'algorithme des moindres carrés moyens (MCM ou LMS):........................ 15
II.3 Nouvelle formulation d'une loi adaptation itérative : ...........................................18
II.3.1 Loi itérative de mise à jour du pas de convergence : ...................................21
II.3.2 Résultats de simulation: .................................................................................... 22
II.3.3 Performance en Poursuite: .............................................................................24
II.3.3.1.Non stationnarité linéaire: ............................................................................... 25
II.3.3.2.Non stationnarité sinusoïdale : ................................................................ 29
II.3.3.3.Non stationnarité aléatoire : ....................................................................32
II.4 Conclusion : .........................................................................................................36
Chapitre III
III.1 : Introduction.......................................................................................................37
III.2 : Création de la ECG de la mére ........................................................................37
III.3: Création de l' ECG fœtus ................................................................................... 38
III.4 : Mesure de l'ECG du fœtus ................................................................................39
III.5 : Mesure de l'ECG du mére.................................................................................40
III.6 : Application de l'annulation adaptative de bruit (ANC) ....................................41
III.7 Récupération du signal ECG du fœtus:............................................................... 42
III.8 Conclusion : ........................................................................................................43
Conclusion générale :......................................................................................................
Bibliographie : ................................................................................................................
Introduction générale
Introduction générale

Les systèmes modernes de communication exigent de plus en plus l'utilisation de


techniques adaptatives. Ces dernières permettent de surmonter les divers problèmes
rencontrés pendant le procédé de transmission / réception de données à travers un canal de
communication [01].
La théorie de filtrage linéaire basée sur le filtre de Wiener est bien connue. Elle est
largement utilisée dans beaucoup de domaines de traitement d’images et de signaux.
Cependant, l'usage de filtre linéaire est généralement associé avec leurs approximations
implicites.
Dans le concept classique de filtrage, les signaux utiles se trouvent dans une bande de
fréquence spécifique alors que les interférences et le bruit se trouvent dans une autre.
L'introduction d'outils statistiques a permis de développer d'avantage le concept de
filtrage.
Ces outils permettent de dissocier les signaux utiles de ceux non désirés, en utilisant
leurs différentes propriétés statistiques.
Les théories modernes de filtrage (Wiener, Kalaman) sont fondamentalement basées
sur le critère de l'erreur quadratique moyenne. Cela a fait que les statistiques d'ordre deux
(auto corrélation) sont largement plus utilisées. L’information, contenue dans la séquence de
corrélation ou dans les spectrogrammes de puissance, décrit entièrement la statistique de type
gaussien. Cependant, dans les situations ou' les signaux présentent d'autres distributions
statistiques ou que les systèmes considérés une sont pas linéaires, les statistiques d'ordre
supérieur à deux (Higher ordre statistics ou HOS) sont alors nécessaires. Dans le domaine des
communications, les applications des statistiques d'ordre supérieur sont utilisées pour lutter
contre la dégradation des signaux
La modélisation non linéaire des systèmes devient un sujet crucial. Les problèmes
rencontrés sont essentiellement les effets non linéaires sur les données. Dans cette situation,
les méthodes linéaires ne peuvent fournir de bons résultats. Cependant, les modèles non
linéaire que nous traitons sont linéaire par rapport à certains paramètres si bien que le critère
bien connu de l'erreur quadratique moyenne minimale (MMSE), avec tous ses avantages
(solution adaptatives). Reste valable.
Chapitre I
Filtrage adaptatif linéaire
Chapitre I Filtrage adaptatif linéaire

I. Introduction:

Dans le premier chapitre, L’ingénieur doit souvent considérer le cas courant, à partir

d’un message brut ou signal observé contenant un signal utile et un bruit, à déterminer le

meilleur récepteur permettant de discriminer le signal du bruit. Par récepteur ou filtre optimal,

nous entendons un filtre qui satisfait certains critères d’optimalité , Par un filtre adaptatif

(numérique) dont les coefficients évoluent en fonction des signaux reçus. Ces coefficients

seront estimés par des algorithmes récursifs, au sens d’un certain critère,. dans ce chapitre on

parlons juste pour le filtre de Wiener qui traité le bruit, algorithme LMS et application ECG.

I.1. Filtrage de Wiener :

Dans de nombreuses applications, les signaux temporels sont entachés d’une


interférence ou d’un bruit non désiré.
Il faut alors trouver une solution permettant de supprimer ou tout au moins réduire ces
composantes perturbatrices. Dans le cas où le spectre du signal désiré et celui du signal
perturbateur se superposent, il n’est pas possible de recourir au filtrage classique.
Le filtre de Wiener apporte une solution à ce problème lorsque le processus est stationnaire.
I.1.1 Définition du problème :
On considère ici le schéma de la figure I.1 dans lequel on trouve :
1. le signal d’excitation x(n) connu ou mesuré ;
2. le signal de sortie du processus 𝑦𝑝 (n) inatteignable ;
3. le signal de sortie mesuré y(n) entâché d’un bruit e(n) inconnu ;
4. le signal modélisé 𝑦𝑤 (n) à l’aide des paramètres𝑤𝑘 ;
5. le signal d’écart 𝜀(n) entre le modèle 𝑦𝑤 (n) et la mesure y(n) .

Page | 1
Chapitre I Filtrage adaptatif linéaire

Figure I.1 : Filtrage de Wiener

On admet que le signal mesuré y(n), causé par l’excitation x(n), peut être modélisé à

l’aide d’un modèle MA (Moving Average= moyenne glissante) d’ordre p représentant un

processus stationnaire inconnu :

𝑝_1
𝑦𝑝 (n) = 𝑘=0 𝑤𝑘 x(n−k)

Le but poursuivi est de trouver les coefficients 𝑤𝑘 du modèle MA à partir de la mesure

des signaux d’entrée x(n) et de sortie y(n).

La recherche d’une solution consiste à rendre 𝑦𝑤 (n) aussi proche que possible du

signal 𝑦𝑝 (n) en minimisant l’erreur quadratique moyenne (Mean Square Error= MSE) par

ajustage des coefficients𝑤𝑘 .

Il est important de bien comprendre que si la solution exacte est trouvée, le signal

d’écart 𝜀(n) n’est pas nul, mais égal au bruit de la mesure e(n).

Afin d’alléger l’écriture de ce qui suit, on se contentera de traiter le cas particulier où

le processus est décrit par 3 paramètres (l’extension à une dimension plus grande se fait sans

difficulté)

Page | 2
Chapitre I Filtrage adaptatif linéaire

𝑤0
W= 𝑤1 (I.1)
𝑤2

Dans ce cas, l’estimateur 𝑦𝑤 (n) du signal 𝑦𝑝 (n) vaut :

𝑦𝑤 (n) =𝑤0 x(n) + 𝑤1 x(n−1) + 𝑤2 x(n−2) 0≤ 𝑛 ≤N −1 (I.2)

I.1.2 Résolution au sens des moindres carrés :

Le problème ainsi posé est proche de celui de la régression linéaire que l’on a étudié
pour les systèmes statiques (ou sans mémoire). Dans le cas des systèmes dynamiques, les
signaux évoluent temporellement. L’erreur est alors une fonction du temps que l’on cherche à
réduire en minimisant sa valeur quadratique moyenne ; cela se fait en variant les coefficients
inconnus 𝑤𝑘 .
On pose donc :
(n) = y(n)−𝑦𝑤 (n) (I.3)
𝑁−1
J = 𝑁1 𝑛 =0 (𝑦(𝑛) − 𝑦𝑤 (𝑛))2 (I.4)
Tenant compte de l’équation (I.2), il vient
𝑁−1
J (𝑤0 ,𝑤1 ,𝑤2 ) = 𝑁1 𝑛=0 (𝑦(𝑛) − w0 𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2))2 (I.5)
Le calcul des dérivées partielles de J (𝑤0 ,𝑤1 ,𝑤2 ) par rapport à chacun des coefficients
inconnus𝑤𝑘 donne
𝜕𝐽 𝑁−1
=2
𝜕𝑤 0 𝑁 𝑛=0 (𝑥(𝑛)𝑦(𝑛) − 𝑤0 𝑥(𝑛)𝑥(𝑛) − 𝑤1 𝑥(𝑛)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛)𝑥(𝑛 − 2)) (−𝑥(𝑛))
𝑁−1
= − 𝑁2 𝑛=0 (𝑥(𝑛)𝑦(𝑛) − 𝑤0 𝑥(𝑛)𝑥(𝑛) − 𝑤1 𝑥(𝑛)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛)𝑥(𝑛 − 2))
𝜕𝐽 𝑁−1
𝜕𝑤 1
= 𝑁2 𝑛=0 (𝑦(𝑛) − 𝑤0 𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2)) (−𝑥(𝑛 − 1))
𝑁−1
= − 𝑁2 𝑛=0 (𝑥(𝑛 − 1)𝑦(𝑛) − 𝑤0 𝑥(𝑛 − 1)𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 1)𝑥(𝑛 − 2))
𝜕𝐽 𝑁−1
𝜕𝑤 2
= 𝑁2 𝑛=0 (𝑦(𝑛) − 𝑤0 𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2)) (−𝑥(𝑛 − 2))
𝑁−1
= − 𝑁2 𝑛=0 (𝑥(𝑛 − 2)𝑦(𝑛) − 𝑤0 𝑥(𝑛 − 2)𝑥(𝑛) − 𝑤1 𝑥(𝑛 − 2)𝑥(𝑛 − 1) − 𝑤2 𝑥(𝑛 − 2)𝑥(𝑛 − 2))
Tenant compte de la définition de la fonction de corrélation
𝑁−1 𝑁−1
𝑟𝑥𝑦 (k) = 𝑁1 𝑛=0 𝑥(𝑛)𝑦(𝑛 + 𝑘) = 1
𝑁 𝑛=0 𝑥(𝑛 − 𝑘)𝑦(𝑛) = 𝑟𝑥𝑦 (−𝑘) (I,6)
𝜕𝐽
𝜕𝑤 0
= −2(𝑟𝑥𝑦 (0)−𝑤0 𝑟𝑥𝑥 (0)−𝑤1 𝑟𝑥𝑥 (−1)−𝑤2 𝑟𝑥𝑥 (−2))
𝜕𝐽
𝜕𝑤 1
= −2(𝑟𝑥𝑦 (+1)− 𝑤0 𝑟𝑥𝑥 (+1)− 𝑤1 𝑟𝑥𝑥 (0)−𝑤2 𝑟𝑥𝑥 (−1))
𝜕𝐽
𝜕𝑤 2
= −2(𝑟𝑥𝑦 (+2)− 𝑤0 𝑟𝑥𝑥 (+2)− 𝑤1 𝑟𝑥𝑥 (+1)− 𝑤2 𝑟𝑥𝑥 (0))

Comme l’erreur quadratique obtenue est minimum lorsque ces dérivées s’annulent, on obtient
finalement un ensemble de 3 équations à 3 inconnues

Page | 3
Chapitre I Filtrage adaptatif linéaire

𝑤0 𝑟𝑥𝑥 (0)+𝑤1 𝑟𝑥𝑥 (−1)+𝑤2 𝑟𝑥𝑥 (−2) =𝑟𝑥𝑦 (0)

𝑤0 𝑟𝑥𝑥 (+1)+𝑤1 𝑟𝑥𝑥 (0)+𝑤2 𝑟𝑥𝑥 (−1) =𝑟𝑥𝑦 (+1)

𝑤0 𝑟𝑥𝑥 (+2)+𝑤1 𝑟𝑥𝑥 (+1)+𝑤2 𝑟𝑥𝑥 (0) =𝑟𝑥𝑦 (+2)

que l’on écrit sous la forme matricielle suivante


𝑟𝑥𝑥 (0) 𝑟𝑥𝑥 (−1) 𝑟𝑥𝑥 (−2) 𝑤0 𝑟𝑥𝑦 (0)
𝑟𝑥𝑥 (+1) 𝑟𝑥𝑥 (0) 𝑟𝑥𝑥 (−1) 𝑤1 = 𝑟𝑥𝑦 (1) (I.7)
𝑤2 𝑟𝑥𝑦 (2)
𝑟𝑥𝑥 (+2) 𝑟𝑥𝑥 (+1) 𝑟𝑥𝑥 (0)
Cette matrice d’auto corrélation est obligatoirement symétrique car la fonction d’auto
corrélation est paire.
En représentant la matrice d’auto corrélation par le symbole𝑅𝑥𝑥 , le vecteur des paramètres par
W et le vecteur d’inter corrélation par𝑟𝑥𝑦 , ce résultat s’écrit plus succinctement sous la forme
𝑅𝑥𝑥 W = 𝑟𝑥𝑦 (I.8)
−1
Dont la solution est : W = 𝑅𝑥𝑥 𝑟𝑥𝑦 (I.9)
Cette équation porte le nom d’équation normale ou de Wiener-Hopf.
I.1.3 Description matricielle :

Les calculs que l’on vient d’exposer peuvent être présentés dans une écriture plus

concise fréquemment utilisée.

Définissant tout d’abord les vecteurs colonnes suivants [02] :

𝑤0 𝑥(𝑛)
𝑤1 𝑥(𝑛 − 1)
W = ⋮ X(n) = (I,10)

𝑤𝑝_1 𝑥(𝑛 − 𝑝 + 1)

on obtient :

– le signal estimé 𝑦𝑤 (n)

𝑝_1
𝑦𝑤 (n) = 𝑖=0 𝑤𝑖 𝑥 𝑛 − 𝑖 = 𝑊𝑇𝑋 𝑛 = 𝑋 𝑛 𝑇𝑊 (I.11)

– l’erreur d’estimation 𝜀(n)

𝜀 (n) = y(n)−𝑦𝑤 (n) = y(n)−𝑋 𝑛 𝑇 𝑊 (I.12)

– l’erreur quadratique 𝑒 2 (n)

𝑒 2 (n) = ( 𝑦(𝑛) − 𝑋 𝑛 𝑇 𝑊)2 (I.13)

Page | 4
Chapitre I Filtrage adaptatif linéaire

𝑒 2 (n) = 𝑦 2 (n)−2y(n)𝑋 𝑛 𝑇 𝑊+𝑊 𝑇 X(n)𝑋 𝑛 𝑇 𝑊 (I.14)

– l’erreur quadratique moyenne J(W) fonction des paramètres W

J(W) = E{𝑒 2 (n)} = E{( 𝑦(𝑛) − 𝑋 𝑛 𝑇 𝑊)2 }

= E{𝑦 2 (n)}−2E{y(n)𝑋 𝑛 𝑇 𝑊 }+E{𝑊 𝑇 X(n) 𝑋 𝑛 𝑇 𝑊 }

d’où
𝑇
J(W) = 𝑟𝑦𝑦 (0)−2𝑟𝑋𝑦 W+𝑊 𝑇 𝑅𝑥𝑥 W (I.15)

– le gradient de J(W) par rapport au vecteur W des coefficients 𝑊 𝑘

𝑑𝐽
= −2𝑟𝑥𝑦 +2𝑅𝑥𝑥 W (I,16)
𝑑𝑊

– le vecteur des paramètres optimaux qui annule le gradient


_1
W = 𝑅𝑋𝑋 𝑟𝑥𝑦 (I.17)

I.1.4 Applications du filtrage de Wiener :

Les applications du filtrage de Wiener diffèrent par la manière dont est extraite la

réponse désirée.

Dans ce contexte, on peut distinguer quatre classes fondamentales utilisant le filtrage

de Wiener :

1. l’identification de processus ; dans ce cas, on souhaite trouver la réponse impulsionnelle

w (n) représentant au mieux le processus inconnu ;

2. la modélisation inverse avec laquelle on tente de reconstruire un signal ;

3. la prédiction linéaire qui, sur la base des échantillons précédents, permet d’estimer une

valeur à venir ;

4. la suppression d’un signal perturbateur.

Dans ce qui suit, compte tenu du cadre dans lequel est présentée cette note, on se

contentera d’illustrer comment on peut supprimer une perturbation grâce au filtrage adaptatif.

Page | 5
Chapitre I Filtrage adaptatif linéaire

I.2.Choix de l'algorithme :
Le choix de l’algorithme se fera en fonction des critères suivants:

• La rapidité de convergence qui sera le nombre d’itérations nécessaires pour converger


“assez prés” de la solution optimale,

• La mesure de cette “proximité” entre cette solution optimale et la solution obtenue,

• La capacité de poursuite (tracking) des variations(non-stationnarités) du système,

• La robustesse au bruit,

• La complexité,

• La structure (modularité, parallélisme, ...),

• Les propriétés numériques (stabilité et précision) dans le cas d’une précision limitée sur les
données et les coefficients du filtre.[03]

I.3.Applications du filtrage adaptatif:

Le filtrage adaptatif est un outil puissant en traitement du signal, communications


numériques, et contrôle automatique.

Les applications sont diverses mais présentent les caractéristiques suivantes: on


dispose d’une entrée x(n) ainsi que de la réponse désirée (référence) d(n) et l’erreur e(n), qui
est la différence entre d(n) et la sortie du filtre y(n), sert `a contrôler (adapter) les valeurs des
coefficients du filtre.

Ce qui différencie essentiellement les applications provient de la façon de définir la


réponse désirée d(n).

On peut distinguer quatre grandes classes d’applications:

• l’identification de systèmes,

• la prédiction,

• la modélisation inverse,

• l’annulation d’interférences.[03]

Page | 6
Chapitre I Filtrage adaptatif linéaire

I.4. Algorithme LMS :


L’algorithme LMS (Least Mean Squares) est un choix populaire dans beaucoup
d’applications exigeant le filtrage adaptatif.

Deux raisons principales de sa popularité :

Simplicité et complexité informatique réduite. En outre, il y a plusieurs variantes de


l’algorithme qui peuvent être employées spécifiquement afin de résoudre différents types de
problèmes qui sont inhérents à certaines applications.

La version de base du LMS est un cas spécial du filtre adaptatif du gradient


descendant (steepestdescent) bien connu.

Le but de cette technique est de réduire au minimum une fonction de coût quadratique
en mettant à jour itérativement des poids de sorte qu’ils convergent à la solution optimale.

De la méthode de gradient descendant, le vecteur de poids d’égalisation est donné par


l'équation suivante :

h(n +1) = h(n)+1/2μ[−∇(E( 𝑒 2 (n)))] (I.18)

où :

μ est un paramètre crucial affectant la stabilité et le taux de convergence de l’algorithme


LMS.

Il représente le pas de descente de l'algorithme.

e2 (n) est l'erreur quadratique moyenne entre la sortie xˆ(n) et le signal de référence x(n) ;

Elle est donnée par la formule suivante :

e2 (n) =[𝑥 ∗ (𝑛) − ℎ 𝑇 𝑦(𝑛)]2 (I.19)

e(n) = x(n)− 𝑥 (n)

Et

𝑥 (n)= ℎ 𝑇 𝑦 𝑛 ⇔ 𝑥 (n)= 𝑦 𝑇 (n)h

Page | 7
Chapitre I Filtrage adaptatif linéaire

Le vecteur gradient est donné par :

h∇=−2𝛷𝑦𝑥 +2𝛷𝑦𝑦

Dans la méthode du gradient descendant, le plus gros problème est le calcul impliqué
dans la recherche des valeurs𝛷𝑦𝑦 et𝛷𝑦𝑥 des matrices en temps réel. Pour y remédier,
l'algorithme LMS utilise les valeurs instantanées des matrices de covariance𝛷𝑦𝑦 et𝛷𝑦𝑥 au lieu
de leurs valeurs réelles c'est-à-dire :

𝛷𝑦𝑦 =E[y(n)𝑦 𝑇 (n)] (I.20)

𝛷𝑦𝑥 =E[y(n)𝑥 ∗ (𝑛)] (I.21)

Par conséquent, la mise à jour du vecteur de poids d’égalisation peut être donnée par
l'équation suivante:

h (n +1) = h(n) +μ.y (n) [𝑥 ∗ (𝑛)− 𝑦 𝑇 (n)h(n)] (I.22)

h(n +1) = h(n) +μ.y(n)e(𝑛)∗ (I.23)

L'algorithme LMS est engagé à démarrer avec une valeur arbitraire h(0) pour le
vecteur de poids à n = 0.

Les rectifications successives du vecteur de poids finalement conduisent à la valeur


minimale de l'erreur quadratique moyenne.

Par conséquent, l'algorithme LMS peut se résumer par ces équations :

Initialiser avec :

h(0)=0

pour toute séquence n=1,2,……..Faire:

𝑥 (n)= ℎ𝑇 (n-1) y(n)

e(n)= x(n)− 𝑥 (n)

h(n) = h(n+1) +2 μ y(n) e(n)

Page | 8
Chapitre I Filtrage adaptatif linéaire

I.4.1 Convergence et stabilité de l'algorithme LMS :

L'algorithme LMS engagé avec certaines valeurs arbitraires pour le poids est perçu
comme vecteur de convergence :

Si μ est choisie pour être très faible alors l'algorithme converge très lentement.

Une grande valeur de μpeut conduire à une accélération de convergence, mais peut-
être moins stable, autour de la valeur minimale. Habituellement μest choisie dans la marge

[04 et 05] :

2
0< 𝜇 < ‫ג‬ (I.24)
𝑚𝑎𝑥

Où ‫ 𝑥𝑎𝑚ג‬représente la valeur propre maximale de la matrice d’auto corrélation𝛷𝑦𝑦 .

La convergence de l'algorithme est inversement proportionnelle à la propagation des


valeurs propres de la matrice d’auto corrélation𝛷𝑦𝑦 .

Pour des valeurs propres de 𝛷𝑦𝑦 quisont très répandues, la convergence peut être lente.

I .5 Conclusion :

Le filtrage adaptatif une part importante du traitement des signaux aléatoires.


L’évolution des processeurs de traitement du signal a rendu son réalisation aisée, et son
permet d’agir sur des signaux rapides, à large spectre. Son principal intérêt consiste à éliminer
un bruit dont les caractéristiques évoluent dans le temps par des déférentes algorithmique.
.

Page | 9
Chapitre II
Etude l'algorithme LMS
Chapitre II Etude l’algorithme LMS

II. Introduction:

généralement , l'égaliseur implémenté dans le récepteur utilise une structure fixe .Des
travaux préliminaires ont montré, qu' il est judicieux d'évaluer l'apport effectif de l'égalisation
avant de mettre en œuvre ce traitement sur un message reçu .

L'objectif de cette thèse est de concevoir une structure d'égaliseur reliant deux aspects
: une loi itérative d'adaptation du pas de convergence et les statistique d'ordre supérieur .Une
première approche sera de considérer des structures optimales , dérivées de l'algorithme de
Wiener-Hopf .Les structures proposées permettront la mise en place de critères pertinents
d'adaptation des traitements mis en œuvre afin d'obtenir le meilleur compromis entre la
vitesse de convergence et meilleur compromis entre la vitesse de convergence et l'erreur
d'ajustement .

II.2.1 Filtre optimal de Wiener :

La figure II.1 montre le schéma block d' un filtre adaptatif transversal 𝐻𝑘 dans le
contexte d'estimation d'une séquence désirée𝑑𝑘 basé sur un signal de référence𝑥𝑘 , obtenus en
échantillonnant les signaux d(t) et x(t) respectivement .la sortie du filtre , à l'instant k ,est𝑦𝑘 et
l'erreur d'estimation est𝑒𝑘 avec N étant l'ordre du filtre . Quand l'erreur d'estimation tend vers
zéro ,la sortie du filtre tend vers la séquence désirée .

Pour obtenir la configuration optimale du filtre , une méthode directe consiste à choisir
une fonction appropriée de l'erreur d'estimation (parfois appelée fonction de performance ou
fonction cout) qui permet d'obtenir les coefficients du filtre (𝐻𝑘 ) de telle sorte à optimiser
cette fonction dans un certain sens . plusieurs fonctions cout permettent d'achever des
objectifs différent . pour un processus déterministe , on peut minimiser l'erreur des moindres
carrés (least square errore ou LSE) , alors que pour un processus stochastique ,on minimise
l'erreur quadratique moyenne (mean square error ou MSE) .D'autres situations peuvent nous
amener à vouloir maximiser le rapport signal- bruit (SNR) ou récupérer l'enveloppe du signal
[06].

Page | 10
Chapitre II Etude l’algorithme LMS

Figure II.1:filtre linéaire adaptatif transversal

Dans le cas du filtre optimal de Wiener , cette fonction cout , dénommée J ,est donnée
par le carré de l'erreur d'estimation . la fonction J est aussi appelée erreur quadratique
moyenne.

J= E[ 𝑒𝑘 2 ] (II.1)

Ou' le signal d'erreur, à l'instant k , 𝑒𝑘 est donné par (II.2) .

𝑒𝑘 = 𝑑𝑘 - 𝑦𝑘 = 𝐻𝐾𝑇 𝑋K =𝑑𝑘 - 𝐻𝐾𝑇 𝐻𝑘 (II.2)

Utilisation (II.2), le développement de (2.1)nous donne

J= E[ 𝑒𝑘 2 ] - 2 𝑃𝑇 𝐻𝑘 +𝐻𝐾𝑇 R𝐻𝑘 (II.3)

Ou' on reconnait la variance du signal désiré E[ 𝑒𝑘 2 ] =𝜎𝑑2 .

Les coefficients du filtre optimal (H*)sont obtenus en annulant le gradient de (II.1) par
rapport aux coefficient du filtre .

𝜕𝐽 𝜕e
∇𝑗 = 𝜕𝐻 =2E (𝑒𝑘 ∂Hk ) (II.4)
𝐾 k

Pour ∇𝑗 = 0 ,on aura

Page | 11
Chapitre II Etude l’algorithme LMS

E (𝑋𝑘 XkT )H* =E (𝑋𝑘 𝑑k ) (II.5)

Qu' on peut réécrire sous la forme

RH*=p (II.6)

L'expression (II.6) permet d'aboutir au optimal de Wiener H* donné par (II.7) plus connue
sous le nom représentation matricielle de l'équation de Wiener _Hopf [07],

H*= 𝑅 −1 p (II.7)

Avec H* étant le vecteur optimum des coefficients ,

R= E [𝑋𝑘 XkT ] est la matrice d'autocorrélation du signale d'entre 𝑋𝑘

R est symétrique, définie positive, de Toeplitz,

P= E [𝑋𝑘 𝑑k ] est le vecteur d'intercorrélation entre le signal d'entre 𝑋𝑘 et le signal désiré 𝑑𝑘

Une première approche pour résoudre l'équation de Wiener _Hopf (II.7) consiste à utiliser
l'algorithme du gradient déterministe .

Afin de minimiser la puissance du signal d'erreur E[ 𝑒𝑘 2 ] , on utilise la méthode de la plus


grande pente , qui consiste à recherche à chaque itération la direction de la descente maximale
(ou plus grande pente ) ,pour obtenir les coefficients du filtre 𝐻𝑘

La combinaison de (II.3) et (II.7) permet d'obtenir l'algorithme du gradient par (II.8)

𝐻𝑘+1 = 𝐻𝑘 - 𝜇 (𝜕E[𝑒 2 (k)]/𝜕𝐻𝑘 )

= 𝐻𝑘 - 2𝜇𝐸(𝑒𝑘 𝜕𝑒𝑘 /𝜕𝐻𝑘 )

Qu' on peut récrire ,en utilisant (II.4) sous la forme

𝐻𝑘+1 = 𝐻𝑘 - 1/2𝜇 (𝜕𝐽/𝜕𝐻𝑘 )

Ou' 𝜇 est une constante positive qui contrôle le taux de convergence et communément
dénommée facteur de convergence ou pas d'adaptation.

II.2.2 Problème d'égalisation adaptative :

Le problème d'égalisation adaptative peut être décrit utilisant la figure II.2

Page | 12
Chapitre II Etude l’algorithme LMS

Figure II.2: configuration d' un égaliseur adaptatif

Le signal primaire X(n) est la somme d'un signal porteur d'information S(n) et d'un bruit
additif W(n) formant le signal donné par (II.10)

X(n) = S(n) + W(n) (II.10)

Qui alimente l'entre de l'égaliseur pour obtenir Le signal de sortie du filtre y(n) .le signal
d'erreur e(n) donné par (II.2) est utilisé pour mettre à jour ,à chaque itération (ou instant) k ,

Le vecteur des coefficients (poids) du filtre 𝐻𝑘 .la séquence désirée d(n), est parfois
dénommée en littérature signal de référence ou signal d'entrainement.

A chaque instant k ,on veut adapter les coefficients du filtre (𝐻𝑘 ) selon certains critères
comme l'erreur quadratique moyenne donné par (II.1) afin d'éliminer au mieux le bruit additif
.

Selon la nature du signal d'entrée et le type d'application en question , trois approches


principales peuvent être considérées .

- Signal stationnaire, ou' les paramètres statistique du signal d'entre (i.e., moyenné et écart type)
ne changent pas avec le temps . le critère le plus important d'un signal stationnaire est que sa
fonction d'autocorrélation ne change pas avec le temps (dépond uniquement des décalage) .
- Signal non stationnaire, principalement du aux dépassements transitoires .
- Déconvolution aveugle ou absence du Signal d'entrainement .

Dans notre cas, on s'intéresse aux deux premières approches . le dernière approche concernant
l'entamer la discussion de l'algorithme des moindres carrés moyens , nous allons d'abord
présenter les critère d'évaluation d'un filtre adaptatif .

Page | 13
Chapitre II Etude l’algorithme LMS

II.2.2.1 Critères d'évaluation de performance d' un filtre adaptatif :

 Taux de convergence :

Dans un système adaptatif , une convergence rapide vers la solution optimale est un critère
désiré .cependant, une convergence ne peut être considéré seul mais en conjonction avec
d'autre critère . par conséquent , il faut retenir que la convergence rapide :

- ne veut pas forcément dire meilleure solution .


- est recommande pour des application à haute fréquence (radiocommunications mobiles,
téléphone portable (GSM), télévision numérique à haute définition ou HDTV et Asymptotic
Digital Subscriber line ou ADSL).
- est un critère important pour évaluer la performance d' un algorithme .
 Erreur quadratique moyenne minimale (Minimum Mean Square Error, MMSE) :

Indique dans quelle mesure le système est apte à exécuter sa tache de filtrage .

Une MMSE faible indique que le système adaptatif a ≪ 𝑝𝑟é𝑐𝑖𝑠é𝑚𝑒𝑛𝑡 ≫convergé vers la
solution désirée . les paramètres qui peuvent affecter ce critère sont , mais ne se limitent pas à:
l'ordre du système adaptif , l'erreur de quantification et le bruit de mesure .L'erreur
quadratique moyenne excédante (excédante MSE)est définie comme étant la différence entre
l'erreur quadratique moyenne (MSE) réelle à la sortie du filtre adaptatif et ce qu' elle devrait
être si les coefficients du filtre adaptatif étaient maintenus à leurs valeurs optimales .

 L'erreur d'ajustement (misadjustment) dépend essentiellement de :


- Bruit du gradient ,
- La sensibilité des coefficients à l'effet de quantification (distorsion) ,
- L'ordre du filtre adaptatif ,
- L'amplitude (grandeur) du bruit de la mesure .
 Précision de l'estimation des paramètres du filtre :

La précision de l'estimation des coefficients du filtre est plutôt importante dans la mesure
ou' elle permet des condition acceptables de l'erreur d'ajustement .

Page | 14
Chapitre II Etude l’algorithme LMS

 Charge de calcul :

Une faible charge de calcul est particulièrement intéressante pour une implémentation
matérielle en temps réel (DSP) et les application ou' une faible consommation d'énergie est
exigée.

 Stabilité :

Les filtres RIF sont intrinsèquement stables aussi longtemps que le facteur de
convergence et constantes de gain sont appropriés . la stabilité devient un problème majeur
lorsqu' il s'agit de filtres RII .

 Robustesse :

Il difficile de mesurer quantitativement ce critère tant robustesse est directement reliée


avec la stabilité du système adaptatif . elle indique à quelle mesure le système peut résister
aussi bien aux aléas du signal d'entrée qu' aux effets de quantification .

 Ordre du filtre :

L'ordre du filtre ,désigne par N , est intrinsèquement relié aux autres critères
d'évaluation de la performance. Il indique à quel degré de précision le filtre adaptatif peut
modéliser le système.

Pour les systèmes surdéterminés, (l'ordre du filtre est supérieur à l'ordre du système)
,ou autrement, quand il y' a trop de pôles/zéros dans le model du système , l'erreur quadratique
moyenne aura la possibilité de converger vers zéro mais au prix d'une charge de calcul
excessive . de la même manière, lorsque le système est sous déterminé, (l'ordre du filtre est
inférieur à l'ordre du système), peu de calculs seront nécessaires. Par contre, l'erreur
quadratique moyenne va converger vers une constante non nulle. Un traitement sur la
détermination de l'ordre du filtre est donné par [08].

II.2.2.2 L'algorithme des moindres carrés moyens (MCM ou LMS) :

Une solution itérative de (II.7) peut être dérivée à partir du concept des moindres
carrés.

Page | 15
Chapitre II Etude l’algorithme LMS

Cette approche itérative permet de réduire la charge de calcul O(𝑁 3 ) pour l'inversion
de la matrice d'autocorrélation R . La version de base de l'algorithme des moindres carrés
moyens ou LMS est donné par [07],[ 09]

𝑦𝐾 = XkT 𝐻𝑘

𝑒𝑘 =𝑑𝑘 - 𝑦𝑘 (2.11)

𝐻𝑘+1 = 𝐻𝑘 + 2 𝜇𝑒𝑘 𝑋𝑘

Ou' 𝑦𝐾 est la sortie du filtre à l'instant k

𝐻𝑘 est le vecteur des coefficients du filtre ,

𝑋𝑘 est la séquence observée de donné d'entrée,

𝑑𝑘 est le signal désiré

Et 𝑒𝑘 est le signal d'erreur comme illustré dans la figure II.2;

T étant l'opérateur de la transposée .

D'autre variantes de cet algorithme ont été proposées dans la littérature , voir tableau
II.1 , dans l'espoir d'améliorer un ou plusieurs des critères d'évaluation vus précédemment .

Cependant, l' algorithme LMS et ses différentes variantes souffrent des problèmes de
faible performance en poursuite et de convergence notamment en milieu

Non stationnaire [10],[11]et [12] .

En plus, les deux dernières variantes du tableau II.1 présentent une erreur conséquente
d'ajustement et sont, par conséquent, susceptbles de diverger [13] .

Tableau II.1: variantes classique du LMS

Algorithme Mise à jour vecteur coefficients


LMS 𝐻𝑘+1 = 𝐻𝑘 + 2𝜇𝑒𝑘 × 𝑋𝑘
Sign_data LMS 𝐻𝑘+1 = 𝐻𝑘 + 2𝜇𝑒𝑘 × sgn( 𝑋𝑘 )
Sign_error LMS 𝐻𝑘+1 = 𝐻𝑘 + 2𝜇 sgn(𝑒𝑘 ) × 𝑋𝑘
Sign_Sign LMS 𝐻𝑘+1 = 𝐻𝑘 + 2𝜇sgn(𝑒𝑘 ) × sgn( 𝑋𝑘 )

Page | 16
Chapitre II Etude l’algorithme LMS

La figure II.2 illustre une application type du LMS dans le domaine d'annulation
d'interférence .

Figure II.3:Application type de l' algorithme

Dans ce cadre, différentes simulation sont conduites pour illustrer notamment, les
effets de la valeur du pas de convergence et l'ordre du filtre sur la vitesse de convergence,
l'erreur d'ajustement tels illustrés dans la figure II.4. on déduit que la vitesse de convergence,
l'erreur d' ajustement et l'ordre du filtre sont proportionnels au pas d'adaptation de l'
algorithme .

(a) Effet du pas de convergence (b) Effet de l'ordre du filtre

Figure II.4:courbes d'apprentissage de l' algorithme des moindres carrés


moyens

Page | 17
Chapitre II Etude l’algorithme LMS

II.2.2 Nouvelle formulation d'une loi adaptation itérative :

Dans(II.11), le pas d'adaptation ou le facteur de convergence (𝜇) est normalement


déterminé à partir des valeurs propres (‫ ) 𝑖ג‬de la matrice de corrélation d'entrée (R) .

Mais puisque ces paramètres sont à priori inconnus , leur estimation devient
nécessaire.

Pour assurer la convergence de l' algorithme ,le pas d'adaptation (𝜇) doit être,
généralement, une constante scalaire choisie dans l'intervalle]0 1/ ‫[ 𝑥𝑎𝑚ג‬,ou' ‫ 𝑥 𝑎𝑚ג‬représente
la valeur propre maximale de la matrice d'autocorrélation R [01],[09].

Le filtrage adaptatif classique via l' algorithme LMS utilise un pas d'adaptation fixe.
Cette approche a donné lieu à des limitation de l' algorithme notamment lorsqu' il s'agit de
poursuite de non stationnarité ou de faire face à des processus non linéaire.

Dans cette section ,on va développer une loi adaptative ,sous forme récursive pour
effectuer la mise à jour du pas d'adaptation . Cette méthode permet d'obtenir un meilleur
filtrage adaptatif en particulier dans un environnement non stationnaire . elle permet aussi de
maintenir un niveau de charge de calcul acceptable, notamment en utilisant une loi sous forme
récursive qui concorde avec la solution itérative de (II.7) permettant d'éviter l'inversion de la
matrice d'autocorrélation R .

L'utilisation de l' algorithme des moindres carrées moyens (LMS) allait crescendo
depuis son introduction par Widrow et al. Durant les années 1960, et ce dans différents
domaines d'application comme mentionné dans [07], [09],[14],[01] et [15]. Cette utilisation
grandissante est due principalement à une formulation simple du LMS et une facilité de son
implémentation pratique . certains problèmes , le choix critique du pas de convergence et la
dépendance de la convergence de la dispersion des valeurs propres de la matrice
d'autocorrélation . Ces poursuite et une convergence très lente , voire une divergence . Pour
pallier à ces problèmes , plusieurs techniques traitant le pas de convergence ont été proposées
dans la littérature .

Une expression du pas de convergence en fonction des données d'entrée a été formulée
par [16], cependant , l' algorithme a été seulement testé avec des données blanches et l'analyse
a été restreinte à des signaux d'entrée stationnaires à moyenne nulle et de type Gaussien. [17]
a montré la dépendance de la dimension du pas optimal du degré de non stationnarité.

Page | 18
Chapitre II Etude l’algorithme LMS

Pour augmenter la vitesse de convergence de l' algorithme , une expression du pas


variable avec le temps a été proposée dans [18], mais encore , la méthode souffre de
l'augmentation substantielle de sa complexité de calcul . [19] propose un algorithme à pas
d'adaptation fixe capable de poursuivre un signal non stationnaire mais celui-ci doit avoir une
amplitude constante .

Dans d'autre méthodes, comme [20]et [21], la valeur optimale du pas de convergence
est obtenue en minimisant l'erreur quadratique moyenne par rapport à ce paramètre
.Cependant, ces méthodes nécessitent des charges de calculs conséquent ,ne peuvent être
appliqués en temps réel .même l' algorithme proposé par [22] et repris un peu plus tard par
[23]n' échappe pas à cette limitation [21]. [24] propose une loi de convergence sous forme
matricielle variable dans le temps incluant implicitement les problèmes de détermination de la
norme et du déterminant de la matrice .

Dans cette partie , l'objectif est de présenter une nouvelle formulation récursive du pas
d'adaptation tout en essayant de garder une simplicité de l' algorithme est testée dans des
environnements stationnaire et non stationnaire .

On rappelle que l' algorithme LMS est donné par (II.11)

𝑦𝐾 = XkT 𝐻𝑘

𝑒𝑘 =𝑑𝑘 - 𝑦𝑘

𝐻𝑘+1 = 𝐻𝑘 + 2 𝜇𝑒𝑘 𝑋𝑘

Ou' 𝑦𝐾 est la sortie du filtre à l'instant k, 𝐻𝑘 est le vecteur des coefficients , 𝑋𝑘 est la
séquence de données d'entrée , 𝑑𝑘 est la réponse désirée et 𝑒𝑘 le signal d'erreur .

Avec la supposition que𝐻𝑘 et 𝑋𝑘 sont statistiquement indépendante , et prenant


l'espérance mathématique des deux cotés de l'équation de mise à jour du vecteur des
coefficients de (II.11) , on obtient

𝐸 𝐻𝑘+1 = 𝐸 𝐻𝑘 + 2𝜇𝑒𝑘 𝑋𝑘 = 𝐸 𝐻𝑘 + 2𝜇 𝐸 𝑑𝑘 𝑋𝑘 − 𝐸 𝑋𝑘𝑇 𝐻𝑘 𝑋𝑘 (II.12)

Ou' E [.]est l'opérateur d'espérance mathématique.

On peut facilement démontrer que (II.12) converge vers la solution optimale de


Wiener donnée par (II.12) ,

Page | 19
Chapitre II Etude l’algorithme LMS

H*= 𝑅 −1 p (II.13)

Ou' p est le vecteur d'intercorrélation entre réponse désirée du filtre et les éléments du
vecteur données d'entrée.

Durant le processus d'adaptation , à l' itération k , l'erreur quadratique moyenne (MSE) 𝜀𝐾


peut être représentée par (II.14)

𝜀𝐾 = E [𝑒 2 𝑘]

= 𝜀𝑚𝑖𝑛 + (𝐻𝑘 − 𝐻 ∗)𝑇 𝑅(𝐻𝑘 − 𝐻 ∗) (II.14)

Ou' 𝜀𝑚𝑖𝑛 est l'erreur quadratique moyenne minimale à la solution optimale de Wiener .
l'équation (II.14) montre que lorsque𝐻𝑘 cherche à atteindre le vecteur optimum des
coefficients H∗ , 𝜀𝐾 tend vers 𝜀𝑚𝑖𝑛

L'erreur d'ajustement de la convergence M ,est définie comme étant le rapport de


l'erreur quadratique moyenne excédante (excess MSE) par 𝜀𝑚𝑖𝑛 [01].

𝜀 𝐾 −𝜀 𝑚𝑖𝑛
M= 𝜀 𝑚𝑖𝑛

𝑁
𝜇‫𝑖ג‬
𝑖=1
1 − 𝜇‫𝑖ג‬
= II. 15
𝜇‫𝑖ג‬
1− 𝑁
𝑖=1
1 − 𝜇‫𝑖ג‬

Quand le facteur de convergence𝜇 est plus petit que 1/‫ 𝑥𝑎𝑚ג‬, une approximation de la
valeur de M est donnée par (II.16)

𝑁
M=𝜇 𝑖=1 ‫𝑖ג‬ = 𝜇.tr[R] (II.16)

Ou' tr[R] est la trace de la matrice d'autocorrélation R . la vitesse de convergence et


l'erreur d'ajustement sont directement proportionnelles à la valeur du pas de convergence .
L'utilisation d' un pas de convergence constant, diminue la performance de poursuite du LMS
qui reste essentiellement la même que durant la phase initiale de convergence . Par
conséquent , une expression variable du pas de convergence , assurant un compromis entre
une convergence rapide et une erreur d'ajustement faible , sera privilégiée[25].

Page | 20
Chapitre II Etude l’algorithme LMS

II.2.2.1 Loi itérative de mise à jour du pas de convergence :

Le propriétés de convergence de l' algorithme à pas d'adaptation variable décrites ci-


dessous concernent la charge de calcul (complexité mathématique), les limites du pas de
convergence et la vitesse d'adaptation .

La loi d'adaptation itérative du pas de convergence , dépendant des caractéristique


précédentes du signal d'entrée du filtre [26], est représentée par (II.17)

1
𝜇𝑘 = 1 𝑁 𝑋2
(II.17)
+ 𝑖=1 (𝑘−𝑖)
𝜇0

Ou' N représente le nombre de coefficients (ordre) du filtre et 𝜇0 étant un facteur de


régulation .

Après les premières N itération d'initialisation ,une expression récursive pour le pas de
convergence peut s'écrire comme suit :

𝑘 𝜇 −1
𝜇𝑘 = 1+∆𝜇
𝑘 −1

Avec ∆ = 𝑋 2 𝑘 − 𝑋 2 𝑘_𝑁 ,

Ou encore sous la forme donnée par (II.18),

∆𝜇 2
𝑘
𝜇𝑘 = 𝜇𝑘_1 − 1+∆𝜇
𝑘

Dans l'expression (II.18),la mise à jour du vecteur de coefficients nécessite un nombre


supplémentaire de multiplication de l'ordre de 4N par rapport à la version classique du filtre
ayant un pas de convergence constant .

1
En effectuant le changement de variable 𝜇𝑘′ = 𝜇 ,une forme plus simplifiée de
𝑘

(II.18)peut être obtenue . Ainsi, durant les premières N itérations,𝜇𝑘′ peut s'écrire sous la forme
récursive donnée par(II.19)

𝜇𝑘 ′=𝜇′𝑘−1 +𝑋 2 𝑘 (II.19)

Et pour les itération suivantes (k>N) , la mise à jour de 𝜇𝑘′ s'effectue sous la forme décrite par
(II.20)

Page | 21
Chapitre II Etude l’algorithme LMS

𝜇𝑘 ′=𝜇′𝑘−1 +[𝑋 𝑘 − 𝑋(k-N)][𝑋 𝑘 − 𝑋(k+N)] (II.20)

Par rapport à (II.11) , l'équation (II.20) montre que le nombre d'opération


mathématique supplémentaires introduites pour la mise à jour du vecteur des poids , se réduit
à une seule multiplication et trois additions . Le tableau II.2 donne une comparaison des
différentes expressions du pas de convergence par rapport au nombre requis d'opérations
mathématiques, sachant que la multiplication représente une charge de calcul plus importante
que celle de l'addition .Dans le cas ou N est choisi comme étant une puissance de 2,la version
2du tableau II.2 ne nécessitera alors que des additions.

Tableau II.2: Complexité mathématique des algorithmes

Nombre de
Pas d'adaptation Nombre d'addition
multiplication
Formule d[20] 3N 1N

Version1(II.18) 4N 2N

Version2(II.20) 1N 3N

Peur assurer la convergence de l'algorithme ,le pas de convergence 𝜇𝑘 doit vérifier


l'inéquation 0 <𝜇𝑘 <1/‫ג‬max. En utilisant l'expression de 𝜇𝑘 ',on obtient 𝜇𝑘 ′>‫ ג‬max.

L'équation d'adaptation ou mise à jour du vecteur des coefficients peut se réécrire


comme

Hk+1=Hk+(2/𝜇𝑘 ′)ekXk (II.21)

De manière similaire , l'erreur d'ajustement peut se réécrire comme

M= ( 1/𝜇𝑘 ′)tr[R] (II.22)

Des équation (II.21) et (II.22) , on déduit que la vitesse de convergence et l'erreur


d'ajustement sont inversement proportionnelles à 𝜇𝑘 ′.

II.2.3.2 Résultats de simulation :

La figure II.5 illustre un schéma bloc d' un circuit anti-parasite adaptatif (ANC) .

Le signal primaire X se compose d'un signal désiré D contaminé par un signal bruit
n1qui est une version "filtrée" du signal secondaire (signal bruit de référence) n2 . le signal D

Page | 22
Chapitre II Etude l’algorithme LMS

est généré de façon à être statistiquement indépendant de n1 et n2 .le filtre adaptatif donne une
estimation yk de la composante bruit de signal primaire (dans ce cas le signal bruit n1) , de
telle sorte que le signal d'erreur ek est donné par ek =X - yk = 𝐷 ≈ 𝐷

Figure II.5:schéma bloc d'un système anti-parasite adaptatif

Pour illustrer le comportement de la nouvelle formulation du filtre , on génére une


séquence désirée par le passage d'un bruit blanc D . à moyenne nulle et variance unité , à
travers un système de type tout pôles (AR) de fonction de transfert F(z) , voir tableau II.3.

Le signal bruit n1 est génère par le passage d'un signal sinusoïdal (de référence) non
stationnaire n2 , ayant la forme n2 = sin (2𝜋𝑓𝑘 𝑛)+ cos (𝜋𝑛/5) , à travers un autre système tout
pôles de fonction de transfert G(z) . le tableau 2.3 donne les valeurs des paramètres utilisé
pour lesquelles , F(z) aura des pôles complexes placés à (0.64 ±𝑗 0.712) .

Tableau II.3 :Modèles autorégressifs pour la génération des signaux d'entrée du filtre

Forme du Modèle AR Paramètres pour F(z) Paramètres pour G(z)


𝑎0
F(z), G(z) =𝑏 −1 + 𝑏 −2
𝑎0 =1, 𝑎0 =5,
0 +𝑏1 𝑧 2𝑧
𝑏0 =1,𝑏1 = -1.28, 𝑏2 =0.9137 𝑏0 =1,𝑏1 =0.07,
𝑏2 = -0.4544
Dans un premier temps et pour le même type de signaux d’entrée (primaire et
référence), on va déterminer l’ordre du filtre optimum en termes de taux de convergence et
erreur d’ajustement en milieu stationnaire pour l’algorithme à pas d’adaptation fixe.
Comme l’illustre la figure II.6, sur un ensemble de 100 réalisations, l’ordre du filtre N=6
donne la meilleure performance en termes de taux de convergence et d’erreur d’ajustement.

Page | 23
Chapitre II Etude l’algorithme LMS

Cet ordre sera retenu pour les comparaisons ultérieures des performances en poursuite avec la
nouvelle formulation de l’algorithme adaptatif.

Figure II.6:Courbes d’apprentissage de l’algorithme à pas d’adaptation fixe

II.2.4 Performance en Poursuite :


Les algorithmes adaptatifs qui présentent de bonnes propriétés de convergence dans un
environnement stationnaire, ne donnent pas nécessairement des performances en poursuite
satisfaisantes dans un environnement non stationnaire [27], [01], [26]. En effet, le
comportement de convergence d’un algorithme adaptatif est un phénomène transitoire alors
que sa performance en poursuite est une propriété stationnaire.

Afin d’évaluer la performance en poursuite de l’algorithme à pas d’adaptation


variable, on le soumet à différentes formes de non stationnarité en faisant subir,
successivement, des déviations linéaire, sinusoïdale et aléatoire à la fréquence du signal de
référence comme le résume le tableau II.4

Page | 24
Chapitre II Etude l’algorithme LMS

Tableau II.4 Formes de non stationnarités de la fréquence du signal de référence

Type de déviation de Equation Valeur utilisées


fréquence
Linéaire 𝑓𝑘 =(1+a ∆𝑓𝑙 ) /b a=1,b=20
∆𝑓𝑙 = ∆𝑓𝑙 +0.05 ∆𝑓𝑙 = 5
Sinusoidal 𝑓𝑘 =[1+asin(2𝜋∆𝑓𝑠 (k-1))]/b a=1,b=20
∆𝑓𝑠 = ∆𝑓𝑠 +0.05 ∆𝑓𝑠 = 5
Aléatoire 𝑓𝑘 =(1+a ∆𝑓𝑅 ) /b a=5,b=20
∆𝑓𝑅 = rand-0.5
II.2.4.1.Non stationnarité linéaire :
Un glissement linéaire de fréquence (∆𝑓𝑙 )du signal de référence (n2) est effectué durant
l’intervalle de temps (5000-5100) comme illustré dans la figure II.7.
Reference singal,linear frequency deviation

Iteration number

Iteration number
Figure II.7:Signal de référence, ∆𝑓𝑙 = 5% dans la région d’itération 5000-5100

Page | 25
Chapitre II Etude l’algorithme LMS

Le signal primaire X, décrit dans la figure II.5, est illustré dans la figure II.8.
Primary, singal,linear frequency deviation

Iteration number

Iteration number
Figure II.8:Signal primaire du filtre adaptatif

La figure II.9 montre l’effet de changement de l’ordre du filtre sur la courbe


d’apprentissage, utilisant un pas de convergence fixe. Comme dans le cas stationnaire,
(figure II.6), l’ordre du filtre N=6 donne la meilleure performance en termes de taux de
convergence et d’erreur d’ajustement

Page | 26
Chapitre II Etude l’algorithme LMS

Figure II.9:Courbes d’apprentissage du filtre à pas d’adaptation fixe, ∆𝑓𝑙 = 5%

La figure II.10 montre les mêmes courbes d’apprentissage, moyenne d’ensemble sur
100 réalisations, du filtre utilisant une loi variable pour le pas de convergence. Une déviation
linéaire de fréquence (∆𝑓𝑙 )de 5% est effectuée dans la région d’itération 5000- 5100. L’ordre
du filtre N=12 donne la meilleure performance, cependant pour la comparaison, on va
maintenir N=6 afin de ne pas désavantager l’algorithme à pas d’adaptation fixe.

Figure II.10:courbes d'apprentissage du filtre à pas adaptation variable

Page | 27
Chapitre II Etude l’algorithme LMS

Poursuite du signal désiré Poursuite du bruit

Figure II.11:Performance en poursuite du LMS à pas d’adaptation fixe

L’analyse des courbes de poursuite aussi bien du signal désiré que du signal bruit,
figures II.11 et II.12, montre un retard (décalage) dans la poursuite de l’algorithme à pas
d’adaptation fixe, principalement dans la zone de non stationnarité, par rapport à l’algorithme
utilisant un pas d’adaptation variable.

Poursuite du signal désiré Poursuite du bruit dans la région de non stationnarité


Figure II.12:Performance en poursuite du filtre à pas d’adaptation variable

La figure II.13 met en évidence l’avantage de l’algorithme à pas d’adaptation variable


au vu de la vitesse de convergence et l’erreur d’ajustement, où on a représenté les deux
courbes d’apprentissage de deux versions d’algorithmes (pas de convergence fixe et variable)
pour un même ordre de filtre N=6. L’algorithme à pas d’adaptation variable converge plus
rapidement.
Page | 28
Chapitre II Etude l’algorithme LMS

Figure II.13:Comparaison des courbes d'apprentissage pour un même ordre de


filtre

II.2.4.2.Non stationnarité sinusoïdale:

Dans cette partie de simulation, on fait subir à la fréquence du signal de référence (n2), une
déviation sinusoïdale (∆𝑓𝑙 ) durant l’intervalle d’itération (5000-5100) comme illustré dans la
figure II.14. La figure II.15 montre le signal primaire du filtre.

Figure II.14:Signal de référence avec∆𝑓𝑠 = 5%

Page | 29
Chapitre II Etude l’algorithme LMS

Figure II.15:Signal Primaire du filtre adaptatif


La figure II.16 illustre les courbes d’apprentissage du filtre à pas d’adaptation variable
lorsqu’on fait subir à la fréquence du signal de référence une déviation sinusoïdale de l’ordre
de 5% dans la région d’itération 5000-5100. L’ordre du filtre N=12 donne la meilleure
performance, cependant on va maintenir N=6 pour la même raison citée pour la figure II.10.

Figure II.16:Courbes d’apprentissage de l’algorithme à pas d’adaptation


variable, ∆𝑓𝑠 = 5%
Les courbes de poursuite du signal désiré et du signal bruit, figures II.17 et II.18,
montrent de façon similaire aux figures II.11 et II.12, une meilleure performance du filtre à
pas d’adaptation variable.

Page | 30
Chapitre II Etude l’algorithme LMS

Pour un même ordre de filtre N=6, la figure II.19 met en évidence l’avantage de
l’algorithme à pas d’adaptation variable au vu de la vitesse de convergence et l’erreur
d’ajustement.

Poursuite du signal désiré Poursuite du bruit dans la région de non stationnarité


Figure II.17:Performance en poursuite du LMS à pas d’adaptation fixe

Poursuite du signal désiré Poursuite du bruit dans la région de non stationnarité


Figure II.18:Performance en poursuite de l’algorithme à pas d’adaptation
variable

Page | 31
Chapitre II Etude l’algorithme LMS

Figure II.19:Comparaison des courbes d’apprentissage pour un même ordre de


filtre
II.2.4.3.Non stationnarité aléatoire:

En dernier lieu, une déviation aléatoire de fréquence (∆𝑓𝑅 ) du signal de référence (n2)
est effectuée durant l’intervalle de temps (5000-5100) comme illustré dans la figure II.20. Le
signal primaire du filtre est donné dans la figure II.21.

Figure II.20:Signal de référence, avec déviation aléatoire de la fréquence (∆𝑓𝑅 )


Page | 32
Chapitre II Etude l’algorithme LMS

Figure II.21:Signal primaire du filtre adaptatif


La figure II.22 illustre les courbes d’apprentissage du filtre à pas d’adaptation variable
lorsqu’on fait subir au signal de référence une déviation aléatoire de fréquence dans la région
d’itération 5000-5100. Alors que l’ordre du filtre N=12 donne la meilleure performance,
cependant on va utiliser N=6 pour le comparer au filtre à pas d’adaptation fixe.

Figure II.22:Courbes d’apprentissage de l’algorithme à pas d’adaptation


variable, ∆𝑓𝑅
Les courbes des figures II.23 et II.24 montrent, une meilleure performance du filtre à
pas d’adaptation variable aussi bien dans la poursuite de la séquence désirée que du signal
bruit.

Page | 33
Chapitre II Etude l’algorithme LMS

Poursuite du signal désiré Poursuite du bruit


Figure II.23:Performance en poursuite du LMS à pas d’adaptation fixe

Poursuite du signal desire Poursuite du bruit


Figure II.24 :Performance en poursuite de l’algorithme à pas d’adaptation
variable

La figure II.25 montre la performance de poursuite de l’algorithme à pas d’adaptation variable


qui converge plus rapidement et ce pour un même ordre de filtre.

Page | 34
Chapitre II Etude l’algorithme LMS

Figure II.25:Comparaison des courbes d’apprentissage


La figure II.26 illustre l’erreur d’ajustement des deux algorithmes. Pour la déviation
linéaire (∆𝑓𝑙 ) ,l’algorithme à pas d’adaptation fixe présente une performance qui rivalise avec
celle de l’algorithme à pas d’adaptation variable. Par contre, l’écart des performances
s’accroît à mesure que la déviation de fréquence s’écarte du caractère linéaire (type
sinusoïdale, ∆𝑓𝑠 ou aléatoire, ∆𝑓𝑅 ).

Figure II.26-:Erreur d’ajustement normalisée

Page | 35
Chapitre II Etude l’algorithme LMS

II.2.4.4. Conclusion:

Dans cette section, nous avons décrit une nouvelle formulation de l’algorithme LMS
en le dotant d’une loi d’adaptation variable. Cette formulation du facteur de convergence «
immunise » l’algorithme contre différentes formes de non stationnarité ce qui n’était pas le
cas pour l’algorithme de [17]. Cette nouvelle formulation du facteur de convergence,
présentée sous forme unique et itérative, se conjugue parfaitement avec l’inversion itérative
de la matrice d’autocorrélation, et permet une implémentation beaucoup plus simple et
compacte que l’approche à pas multiple de [28].

L’algorithme à pas d’adaptation variable offre de meilleures performances de


poursuite, tout en gardant une expression mathématique relativement simple. Même les
différentes variantes de l’algorithme LMS (pas d’adaptation fixe) introduites par [04],
présentent des performances moindres en poursuite en plus du fait que ces variantes
nécessitent des déviations lentes du processus à poursuivre.

Page | 36
Chapitre III
Filtrage adaptatif appliqué
à l’électrocardiographe
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe

III . Introduction:
Dans la troisième chapitre , la Bruit adaptative Annulation (ANC) appliquée à fœtal
électrocardiographie cette démonstration illustre l'application de filtres adaptatifs à une
pression du bruit en utilisant le bruit adaptatif annulation[29].
En bruit adaptatif annulation, un signal mesuré d (n) contient deux signaux:
- Un signal inconnu d'intérêt v (n)
- Un signal d'interférence u (n)
L'objectif est de supprimer le signal d'interférence de la mesure signal en utilisant un
signal de référence x (n) qui est fortement corrélé avec du signal d'interférence. L'exemple
considéré ici est une application des filtres adaptatifs à l'électrocardiographie du fœtus, dans
lequel une maternelle le signal de battement de cœur est enlevée de manière adaptative à
partir d'un capteur de rythme cardiaque du fœtus signal.

III.2 Création de la ECG de la mére :


Dans cet exemple, on doit simuler les formes de l'électrocardiogramme pour la mère
et le fœtus. Les commandes suivantes créent un signal d'électrocardiogramme que le cœur
d'un a mother pourrait produire en supposant
Un taux d'échantillonnage de 4000 Hz. La fréquence cardiaque pour ce signal est
d'environ 89 battements par minute, et la amplitude maximale de crête du signal est de 3,5
Milli volts figure (III.1).

Page | 37
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe

Figure III.1: Signal ECG de la mére

III.3 Création de l' ECG fœtus :


Le cœur d'un fœtus bat sensiblement plus rapide que celui de sa mère, Avec des taux
allant de 120 à 160 battements par minute. L'amplitude du De l'électrocardiogramme foetal
est également beaucoup plus faible que celle de la mère Donc,on série de commandes
suivante crée un Signal d'électrocardiogramme correspondant à un taux de 139 battements par
cœur Minute et une amplitude maximale de crête de 0,25 millivolts figure (III.2)

Page | 38
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe

Figure III.2: Signal ECG de la fœtus

III.4 Mesure de l'ECG du fœtus:


Le signal d' électrocardiogramme foetal mesuré à partir de l'abdomen de la mère, est
généralement dominé par le signal de rythme cardiaque de la mère qui se propage .
Par rapport à la cavité thoracique à l'abdomen. Nous allons décrire cette propagation
chemin comme un filtre FIR linéaire avec 10 % de coefficients aléatoires . Dans Outre, nous
allons ajouter une petite quantité de bruit gaussien décarrelé Simuler toutes les sources de
bruit à large bande au sein de la mesure. Pouvez-vous déterminer le rythme cardiaque fœtal en
regardant ce signal mesuré ?

Page | 39
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe

Figure III.3: Signal mesuré

III.5 Mesure de l'ECG du mére:


Le signal d' électrocardiogramme maternel est obtenu à partir de la poitrine du
mère. L'objectif du suppresseur de bruit adaptatif dans cette tâche est de Supprimer de
manière adaptative le signal de pulsation maternelle du fœtus signal d' ECG .
Annulerai besoin d'un signal de référence, généré à partir d'un électrocardiogramme
maternel pour effectuer cette tâche . Juste
Comme le signal d'électrocardiogramme fœtal , l'électrocardiogramme maternel
signal contiendra un peu de bruit à large bande additif.

Page | 40
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe

Figure III.4: Signal de référence

III.6 Application de l'annulation adaptative de bruit (ANC):


Le bruit d'annulation adaptatif peut utiliser la plupart de toute procédure d'adaptation
aux accomplir sa tâche. Pour plus de simplicité, nous utiliserons la moyenne quadratique
moins Filtre ( LMS ) adaptatif avec 15 coefficients et une taille de pas de 0,00007 .
Avec ces paramètres, le suppresseur de bruit adaptatif converge raisonnablement.
Bien après quelques secondes d'adaptation - certainement un délai raisonnable d'attendre étant
donné cette application de diagnostic particulier.

Page | 41
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe

Figure III.5: convergence de l'ANC

III. 7 Récupération du signal ECG du fœtus:

Le signal de sortie y ( n ) du filtre adaptatif contient le estimé signal de rythme


cardiaque de la mère, qui est pas le signal d'intérêt ultime .
Ce qui reste dans le e signal d'erreur ( n) après que le système a convergé est une
estimation du rythme cardiaque du fœtus signal de mesure résiduel avec bruit.
En utilisant le signal d'erreur , pouvez-vous estimer le taux du cœur Fœtus ?

Figure III.6: estimation du signal ECG du foetus

Page | 42
Chapitre III Filtrage adaptatif appliqué à l’électrocardiographe

III.8 Conclusion

Dans ce chapitre, on a décomposition en bosses des battements cardiaques est une


méthode originale de modélisation.
Dans ce travail, le critère de qualité d’une modélisation satisfaisante n’est pas un
critère numérique, comme une erreur quadratique : c’est la pertinence de la représentation de
l’information contenue dans le signal, qui doit permettre d’appliquer, le plus facilement
possible, la connaissance experte :
C’est donc un critère cognitif qui permet de définir la qualité de la modélisation
réalisée.
En outre, cette méthode permet d’exprimer le signal sous forme de descripteurs qui
portent un sens pour le praticien : ici, une fonction boss représente une onde caractéristique de
l’ECG.

Page | 43
Conclusion générale
Conclusion générale

L'objectif de ce travail de mémoire est d'etudier le filtrage adaptatif en générale ,et les
filtres non linéaires combinés aux statistique d' ordre supérieur pour des applications de type
réduction adaptative de bruit .

En premier lieu , nous avons essayé de démontrer les mérites du filtrage adaptatif
linéaire dans des application aux systémes dont la relation entrée / sortie est défini par une
simple relation de convolution . le filtrage adaptatif , dans son ensemble , a été étudie dans des
systémes linéaire , particuliérement l'algorithme des différents paramétres . Le signal d'entrée
est une séquence binaire pseudo aléatoire (SBPA) avec une densité spectrale homogéne
couvrant l'ensemble de la bande passante du systéme . les résultats de simulation ont
démontre la supériorité de l'algorithme à pas d'adaptation variable par rapport à pas fixe dans
la poursuite des signaux . Ensuite , l' algorithme pas d'adaptation variable a été étendu aux
systémes non linéaire .

Les résultats de simulation , montrent que ce dernier offre une bonne capacité de
poursuite d'une SBPA , en dotant ses parties linéaire et quadratique de lois d'adaptation
différentes , ce qui permet d'avoir plus de degrés de liberté dans l'ajustement des coefficientes
de filtre .

Une application aux signaux ECG du filtre non linéaire à pas d'adaptation variable ,
pour la réduction de bruit a démontré ses capacités en poursuite . la réduction de bruit
adaptatif revient à un probléme d'identification de filtre . donc ,il suffit d'estimer le filtre réel
qui engendre le bruit , ce qui donne en sortie du filtre une estimation du signal utile .
Bibliographie
Bibliographie

[01] Haykin_01, S. Haykin, Adaptive Filter Theory. Englewood Cliffs, NJ: Prentice-Hall, 4th
édition, ISBN 0-130-90126-1, 2001.

[02] Introduction au filtrage adaptatif, fmy/janvier 2005

[03] Traitement des signaux numériques – II Filtrage adaptatif et analyse spectrale Jacob
Benesty Session: 10 janvier au 15 avril 2005.

[04] Wei_02, Paul C. Wei, J. Huan, J.R. Zeidler, W.H. Ku, “Tracking performance of the
LMS and RLS algorithms for chirped narrowband signal recovery,” IEEE Trans. on Signal
Processing, vol. 50, no. 7, pp. 1602-1609, July 2002.

[05] Soo-Pang_91, J.-S. Soo and K.K. Pang, “A multistep size (MSS) frequency domain
adaptive filter,” IEEE Trans. on Signal Processing, vol. 39, no. 1, pp. 115-121, January 1991.

[06] Proakis_02, John G. Proakis , Charles M , Fuyun Ling ,Chrysostomos L,Nikias ,Marc
Moonen , Lan K, Proudler ,Algorithms for Statistical Signal Processing .

[07] Widrow_75, B. Widrow, J.R. Glover, J. McCool, J. Kaunitz, C. Williams, R. Heam, J.


Zeidler, E. Dong, and R. Goodlin, “Adaptive noise cancelling: Principles and applications,”
Proc, ofthe IEEE, vol. 63, no. 12, pp. 1692-1716, December 1975.

[08] Widrow-Stearns_85, Bernard Widrow and Samuel D. Stearns, Adaptive Signal


Processing, Englewood Cliffs, NJ: Prentice-Hall, 1985

[09] Shah_94, Abhijit A. Shah, Advisor: Dr. Tufts, Development and Analysis of Techniques
for Order Détermination and Signal Enhancement, PhD dissertation, University of Rhod
Islands, 1994.

[10] Friedlander-Smith_84, B. Friedlander and Juliuso Smith, “Analysis and performance


évaluation of an adaptive filter,” IEEE Trans. on Information Theory, vol. IT-30, no. 2, pp.
283-295, March 1984.

[11] Cilke-Etter_92, J. Thomas Cilke and Delores M. Etter, “A new adaptive algorithm to
reduce weight fluctuations caused by high variance data,” IEEE Trans. on Signal Processing,
vol. 40, no. 9, pp. 2324-2327, September 1992.
[12] Bermudez-Bershad_96b, J.C.M. Bermudez and N.J. Bershad, “Transient and tracking
performance analysis of the quantized LMS algorithm for time-varying

[13] Eweda_99, Eweda Eweda, “Transient and tracking performance bounds of the sign- sign
algorithm,” IEEE Trans. on Signal Processing, vol. 47, no. 8, pp. 2200-2210, August 1999.

.[14] Cowan-Grant_85] C.F.N. Cowan and P.M. Grant (Editors), Adaptive Filters, Englewood
Cliffs, NJ: Prentice-Hall, 1985. [15] Sayed_03, Ali H. Sayed, Fundamentals of Adaptive
Filtering, Wiley-IEEE Press, ISBN 0-471-46126-1, 2003

[16] Bershad_86, Neil J. Bershad, “Analysis of the normalized LMS algorithm with Gaussian
inputs,” IEEE Trans. on ASSP, vol. ASSP-34, no. 4, pp. 793-806, August 1986

[17] Gardner_87, W.A. Gardner, “Nonstationary learning characteristics of the LMS


algorithm,” IEEE Trans. on Circuits and Systems, vol. CAS-34, no. 10, pp. 1199-1207,
October 1987.

[18] Lee-Un_86, J. C. Lee and C.K. Un, “Performance of transform-domain LMS adaptive
digital filters,” IEEE Trans. ASSP, vol. ASSP-34, no. 3, pp. 499-510, June 1986.

[19] Bershad-Macchi_91, N.J. Bershad and O.M. Macchi, “Adaptive recovery of a chirped
sinusoid in noise, part 2: performance of the LMS algorithm,” IEEE Trans. on Signal
Processing, vol. 39, no. 3, pp. 595-602, March 1991.

[20] Kwong-Johnston_92, R.H. Kwong and E.W. Johnston, “A variable step size LMS
algorithm,” IEEE Trans. on Signal Processing, vol. 40, no. 7, pp. 1633-1642, July 1992.

[21] Azimi-Sadjadji_94, M.R. Azimi-Sadjadji and H. Pan, “Two-dimensional block diagonal


LMS adaptive filtering,” IEEE Trans. on Signal Processing, vol. 42, no. 9, pp. 2420-2429,
September 1994.

[22] Chiang-Nikias_88, H. H. Chiang and C. K. Nikias, “Adaptive filtering via cumulants and
the LMS algorithm,” in Proceedings ofthe IEEE ICASSP’88 Conférence, pp. 1479- 1482.

[23] Bakrim_94, M’Hamed Bakrim, Driss Aboutajdine, and Mohamed Najim, “New
cumulant-based approaches for non-Gaussian time varying AR models,” Signal Processing,
vol. 39,nos. 1/2, pp. 107-115, September 1994
[24] Aboutajdine_96,Driss Aboutajdine, A. Adib, and A. Meziane, “Fast adaptive algorithms
for AR parameters estimation using higher order statistics,” IEEE Trans. on Signal
Processing, vol. 44, no. 8, pp. 1998-2009, Oct. 1996.

System identification,” IEEE Trans. on Signal Processing, vol. 44, no. 8, pp. 1990-1997,
August 1996.

[25] . Rupp-Cezanne_00, Markus Rupp and Jürgen Cezanne, “Robustness conditions of the
LMS algorithm with time-variant matrix step size,” Signal Processing, Elsevier Science B.V.,
vol. 80, pp. 1787-1794, 2000

[26] . Meghriche-Derras_96, K. Meghriche, B. Derras, “Tracking behavior of the LMS


algorithm in a nonstationary environment,” Proceedings of the 2e Conférence Maghrébine
dAutomatique, d'Electrotechnique et d’Electronique Industrielle, COMAEP96, Algerian
Journal of technology (AJOT), vol. 4, pp. 283-288, Tlemcen, Algeria, 3-5 December 1996.

[27] Ho_96, K.C. Ho, “A minimum misadjustment adaptive FIR filter,” IEEE Trans. on
Signal Processing, vol. 44, no. 3, pp. 577-585, March 1996.

[28] Widrow_76, B.Widrow, J. McCool, M. Larimore, and R. Johnson Jr., “Stationary and
non stationary leaming characteristics of the LMS adaptive filter,” Proc. IEEE, vol. 64, pp.
1151-1162, August 1976.

[29] Widrow, et al, «bruit adaptatif Annulation:... Principes et applications, "Proc IEEE (R),
vol 63, n ° 12, Pp. 1692-1716, Décembre de 1975.
Résumé
Le travail effectué ,dans ce mémoire , consiste à étudier le filtrage adaptatif et les statistiques d'ordre
supérieur pour améliorer les performances de ces filtres ,par extension du cas linéaire aux filtres non
linéaire, via les séries de Volterra
Cette étude 'est, principalement , axée sur :
Le choix du pas d'adaptation et les conditions de convergence
Le taux de convergence
L'expression du pas de convergence , d'une manière adaptative , en fonction du signal d'entré.
L'application de ces filtres adaptatifs à des signaux de parole réels ,a démontre leur capacité en de
poursuite, tout en gardant une complexité de calcul relativement appréciable
Mots clés : Facteur de convergence , filtrage adaptatif, egalisation ,filtres non linéaires ,séries de
Volterra ,traitement de la parole

Abstract
The performed job, in this memo , consists in studying adaptive filters higher ordre statistics to
ameliorate their performances ,by extension of linear case to non linear filters via volterra series
.
This study is ,principally, axed on :
Choice of the adaptation step and convergence conditions
Convergence rate
Adaptive variation of the convergence factor , according to the entrance signal .
The obtained results ,with real signals ,have shown computationally efficient and numerically
stable algorithms for adaptive nonlinear filtering while keeping relatively simple computational
complexity .
Keywords ; convergence factor ,adaptive filtering ,equalization , higher order statistics linear
filters , volterra series

:‫ممخص‬
،‫ من اجل تحسين ادائها‬،‫ تتكون في دراسة المرشحات التكييفية واالحصاءات ذات الدرجات العالية‬،‫ في هذه المذكرة‬،‫المهمة المنجزة‬
‫بتحويمها من اجالة الخطية الى غير الخطية سمسمة فولتي ار‬
: ‫هذه الدراسة مرتكزة اساسا عمى‬
‫اختيار خطوة التكيف وظروف التقارب‬
‫معدل التقارب‬
‫ وفقا الشارة المدخل‬،‫التغيير التكيفي لمعامل التقارب‬
‫ حفاظا عمى كفاءة واستقرار عددي‬،‫ قد اظهرت بشكل حسابي قدرتها عمى التبعية‬، ‫ مع اشارت حقيقية‬،‫النتائج المحصل عميها‬
‫ مع ابقاء تعقيد عددي بسيط نسبيا‬، ‫لمخوارزميات التكيفية‬
‫ سمسمة فولتي ار‬،‫ المرشحات التكييفية‬،‫ االحصاءات ذات الدرجات العالية‬،‫ التعديل‬،‫ الترشح التكيفي‬،‫ معامل التقارب‬: ‫الكممات المفتاحية‬

Vous aimerez peut-être aussi