Vous êtes sur la page 1sur 47

Universite Joseph Fourier, Grenoble

Master Recherche Mathematiques Appliquees


Approches mathematiques pour la
decomposition modale empirique
Thomas Oberlin
Matres de stage : Valerie Perrier, Sylvain Meignen
Remerciements
Je tiens `a remercier mes tuteurs Sylvain et
Valerie, pour mavoir aide, soutenu et encou-
rage tout au long de ce stage. Je les remer-
cie egalement pour la conance quils mac-
cordent en me proposant une th`ese.
Je remercie egalement les thesards du LJK
pour leur sympathie et leur convivialite, ainsi
que tout le personnel pour son accueil.
Table des mati`eres
Introduction 2
1 Decomposition modale empirique : motivations, presentation 3
1.1 Analyse temps-frequence, temps-echelle, frequence instantannee . . . . . . . . . . 3
1.1.1 Transformee de Fourier `a fenetre . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 La frequence instantanee . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 LEMD : une denition algorithmique . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Prolongement et eets de bord . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.4 Crit`eres darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Proprietes fondamentales de lEMD . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.1 Quasi-orthogonalite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Banc de ltres dyadiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Limitations, exemples de nouvelles approches . . . . . . . . . . . . . . . . . . . . 17
1.4.1 Aspects theoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Pobl`emes lies `a linterpolation . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Contributions 19
2.1 Moyenne locale integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Motivation, denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Un Sifting par moyenne integrale . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.3 Rappels sur les B-splines . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.4 Position du probl`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.5 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Etude du crit`ere dintegrale nulle entre deux extrema . . . . . . . . . . . . . . . . 25
2.2.1 Schema iteratif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.2 Ameliorations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Un crit`ere de symetrie des enveloppes pour loptimisation . . . . . . . . . . . . . 33
2.3.1 Symetrie des enveloppes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.2 Mod`ele et algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.3 Resultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Conclusion 42
1
Introduction
Ce rapport presente le travail realise en stage de M2R au laboratoire Jean Kuntzmann `a
Grenoble, sous la direction de Sylvain Meignen et Valerie Perrier. Il porte sur la decomposition
modale empirique (EMD pour Empirical Mode Decomposition), qui est une methode adaptative
danalyse de signaux uni-dimensionnels.
Bien quintroduite recemment en 1998 par Huang et. al dans [1], lEMD a dej` a ete appliquee
avec succ`es dans de nombreux domaines : sismologie, acoustique, oceanographie... En eet, sa
nature adaptative et algorithmique la rend `a meme de traiter des signaux non stationnaires issus
de processus non lineaires, de mani`ere simple et avec un co ut algorithmique tr`es raisonnable.
Cependant, si son interet nest plus `a demontrer, la methode ne poss`ede pas de formalisation
mathematique precise : certaines proprietes de la decomposition sont admises, mais `a cause
du manque de cadre theorique, aucune nest demontree rigoureusement. Malgre de nombreuses
tentatives et de nouvelles approches, aucun formalisme propose ces derni`eres annees na reussi
`a conserver la generalite de lEMD.
Dans ce travail, nous avons cherche `a modier lEMD pour ameliorer sa formalisation mathematique,
mais en conservant son adaptativite et son bon comportement pour une classe de signaux la plus
large possible.
Ce rapport presentera tout dabord la methode et ses principales caracteristiques et pro-
prietes. Ensuite, nous ferons un bilan des recentes tentatives damelioration. Enn, nous presenterons
notre apport, en le situant dans le contexte actuel.
2
Chapitre 1
Decomposition modale empirique :
motivations, presentation
1.1 Analyse temps-frequence, temps-echelle, frequence instan-
tannee
La tr`es grande majorite des signaux physiques qui nous entourent sont complexes et dicile-
ment exploitables tels quels. Depuis la theorie de Fourier, de nombreux outils ont ete developpes
pour analyser de tels signaux : les principaux sont la transformee de Fourier `a fenetre (ou de
Gabor), les distributions temps-frequence quadratiques (de Wigner-Ville, ou encore la classe de
Cohen), ou encore les ondelettes.
On netudiera pas ces outils en detail, mais il semble utile de les rappeler ici, dans la mesure
o` u lEMD partage les memes probl`ematiques et, en partie du moins, une vision commune.
1.1.1 Transformee de Fourier `a fenetre
On rappelle lexpression de la transformee de Fourier dune fonction f de L
1
(R) :

f() =
_
R
f(t)e
2it
dt.
Gr ace `a ses bonnes proprietes, ainsi qu`a lexistence de la transformee de Fourier rapide
(FFT) qui permet de traiter des signaux discrets en un temps quasi-lineaire, cet outil est devenu
omnipresent dans de nombreux domaines.
Cependant, la transformee de Fourier nest utile que pour des signaux stationnaires : d`es lors
que lon veut analyser des phenom`enes transitoires, on doit recourir `a dautres methodes.
En 1946, pour pallier cette limitation, Gabor introduit la transformee de Fourier `a fenetre.
Pour cela, il construit des atomes temps-frequence `a partir dune fenetre g, en la translatant
en temps et en frequence :
g
u,
(t) = g(t u)e
it
.
La transformee de Fourier de ces atomes est donnee par :
g
u,
() = g( )e
iu()
.
On note
t
(respectivement

) la variance ou dispersion temporelle (resp. frequentielle) de


f :

2
t
=
1
f
2
_

|tf(t)|
2
dt
3

=
1
2 f
2
_

|

f()|
2
d.
Alors, dapr`es le principe dincertitude dHeisenberg, ces valeurs verient :


1
4
.
On peut montrer que ce produit atteint son minimum et sa borne si et seulement si g est
une Gaussienne. On a represente dans la gure (1.1) deux atomes de Gabor dans le plan temps-
frequence.
Fig. 1.1 Deux atomes de Gabor dans le plan temps-frequence. Les rectangles representent la
distribution denergie des atomes, leur aire est minoree dapr`es le principe dincertitude.
Ainsi, la transformee de Gabor dune fonction f secrit :
G
f
(u, ) =
_
R
f(t)g

u,
(t) dt =
_
R
f(t)g(t u)e
it
dt.
Denition 1.1.1.1 On appelle spectrogramme dun signal s le graphe du module au carre de sa
transformee de Fourier ` a fenetre : cest une image
SG : (t, ) |G
f
(t, )|
2
.
On exprime generalement ce resultat en decibel (dB).
La transformee de Fourier `a fenetre permet ainsi une localisation dans le plan temps-frequence
de signaux lineaires non-stationnaires. Un cas decole illustre ces deux notions : la gure suivante
(FIG. 1.2) montre les decompositions du signal :
s(t) = sin(20t)
|[0,0.5]
+ sin(44t)
|[0.5,1]
+1
4
3
4
,
en notant
X
la fonction caracteristique de lensemble X, et la masse de Dirac.
4
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
1
0.5
0
0.5
1
1.5
Signal test
temps
a
m
p
l
i
t
u
d
e
30 20 10 0 10 20 30 40
0
50
100
150
200
250
Transformee de Fourier
frequence
a
m
p
l
i
t
u
d
e
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
0
20
40
60
80
100
120
140
160
180
200

Time

F
r
e
q
u
e
n
c
y

(
H
z
)
140
120
100
80
60
40
20
Fig. 1.2 De haut en bas : le signal s, sa transformee de Fourier, et le spectrogramme issu de
sa transformee de Fourier `a fenetre. On voit comment le changement de frequence est localise
dans la transformee `a fenetre. En revanche, les deux diracs sont mal localises.
1.1.2 Ondelettes
Si la transformee de Fourier `a fenetre est utile dans certaines applications, car elle ore un
compromis entre localisation en temps et en frequence, elle ne permet cependant pas danalyser
des signaux transitoires quelconques, car la taille de la fenetre est xe. La theorie des ondelettes,
en introduisant la notion dechelle dans la decomposition, y remedie.
5
Dans le cas reel, la transformee en ondelettes continue dune fonction f de L
2
(R) secrit :
W
f
(a, b) =
1
_
|a|
_
R
f(t)(
t b
a
)dt,
o` u est une fonction de L
2
(R) L
1
(R) appelee ondelette m`ere, et veriant la condition dad-
missibilite :
C

=
_
R
|

()|
2
||
d < .
La decomposition en ondelettes, gr ace au param`etre dechelle a, est une methode danalyse
fondamentalement multi-echelles. Ainsi, elle permet de traiter des signaux comportant de fortes
singularites, et est notamment adaptee pour lanalyse fractale. Comme pour la transformee de
Fourier, des algorithmes rapides et une theorie pour les signaux discrets ont contribue au succ`es
des ondelettes dans de nombreux domaines.
1.1.3 La frequence instantanee
On a vu que le principe dincertitude interdit la localisation simultanee en temps et en
frequence : la notion de frequence instanee parat donc peu pertinente. Cependant, cest une
notion intuitive : ainsi le musicien entend-t-il les notes dans une pi`ece musicale, cest-`a-dire des
frequences precises, qui evoluent dans le temps. De plus, cest un concept qui est primordial dans
certaines applications physiques.
Considerons le signal s(t) = a(t)cos((t)t + ). On suppose que sa frequence oscille autour
dune valeur
0
. On peut alors ecrire =
0
+ (t). Pour caracteriser facilement la frequence
instanee de s, les variations de a et doivent etre faibles sur des intervalles de temps de
lordre de la periode centrale T
0
=
2

0
. Autrement dit, les spectres de a et sont inclus dans
des supports [B, B] avec B f
0
=
1
T
0
.
De tels signaux sont dits quasi-monochromatiques, ou encore `a bande etroite, et on caracterise
facilement lamplitude instantanee a(t) et la frequence instanee (t). Pour des signaux fortement
non-monochromatiques, le raisonnement suivant nest plus valable.
Plusieurs denitions dierentes et parfois complementaires ont ete proposees pour la frequence
instantanee. Nous allons ici presenter la plus commune, celle dite du signal analytique, qui ore
rigueur et coherence.
Le probl`eme revient `a trouver un signal analytique s
a
qui se decomposera de mani`ere unique
sous sa forme polaire :
s
a
(t) = a(t)e
i(t)
.
Ce signal analytique devra verier les proprietes suivantes :
Le signal analytique de s(t) = cos(t) est s
a
(t) = e
it
, > 0.
Loperation qui transforme s en s
a
doit etre homog`ene. Par extension, il est naturel dim-
poser que cette operation soit un ltrage lineaire.
Loutil naturel de ce probl`eme est alors la transformee de Hilbert.
Denition 1.1.3.1 La transformee de Hilbert dun signal s est denie par :
H{s} = y(t) =
1

V P
__

s()
t
d
_
= lim
0
_
|t|>
s()
t
d,
6
V P designant la valeur principale au sens de Cauchy. On peut aussi voir la transformee de
Hilbert comme la convolution par le noyau h(t) =
1
t
.
Denition 1.1.3.2 On appelle signal analytique s
a
de s le signal deni par :
s
a
= s +iH{s}.
En notant y = H{s}, le signal analytique secrit, modulo 2, sous la forme :
s
a
(t) = a
s
(t)e
i
s
(t)
.
On peut alors denir lamplitude instantanee et la phase instantanee :
a
s
(t) =
_
x
2
(t) +y
2
(t) et
s
(t) = arctan
y(t)
s(t)
.
La frequence instantanee est la derivee de la phase instantanee
s
, et secrit :
=
sy

y
a
2
s
.
Cette methode construit donc bien une frequence instantanee unique. Mais, pour que le
resultat ait un sens physiquement, le signal doit verier certaines hypoth`eses. Le theor`eme
suivant donne une condition importante.
Theor`eme 1.1.1 E. Bedrosian, 1962 Soit a > 0 et f, g L
2
(R). Si
supp(

f) (a, a) et supp( g) (, a) (a, ),
alors la transformee de Hilbert de la fonction fg satisfait lidentite de Bedrosian :
H{fg} = f H{g}.
En ecrivant g(t) = cos((t)), on peut de plus trouver des conditions sur , de telle sorte que :
H{a(t) cos((t))} = a(t) sin((t)).
On ne donnera pas ici plus de precisions, mais lEMD sinspire directement de ces conditions :
elle decompose un signal quelconque en modes qui se comporteront bien avec la transformee
de Hilbert.
1.2 LEMD : une denition algorithmique
Si les transformees de Fourier `a fenetre ou en ondelettes ont permis des avancees dans lana-
lyse temps-frequence des signaux, aucune de ces methodes nest adaptee pour traiter correc-
tement des signaux non-stationnaires et non-lineaires dont on ne connat pas a priori les ca-
racteristiques. De plus, ces methodes nexploitent pas ou peu les caracteristiques intrins`eques du
signal (meme si, pour les ondelettes par exemple, il existe de nombreuses bases plus ou moins
adaptees `a tel ou tel signal, ou des methodes de poursuite pour la construction des bases).
Au contraire, on va voir ici que lEMD est intrins`equement adaptative : elle decompose le
signal en modes construits au fur et `a mesure `a partir du signal lui-meme.
7
1.2.1 Denitions
LEMD postule que tout signal reel s se decompose en une moyenne locale m et une
composante fortement oscillante h
1
. On a ainsi :
s = h
1
+m.
On peut ensuite extraire le mode oscillant de m : h
2
, et iterer le procede jusqu`a nobtenir quun
residu non oscillant, r. La decomposition totale secrit alors :
s =

i
h
i
+r.
Cette decomposition est par nature exacte. Mais les notions de moyenne locale et de mode
oscillant, bien quassez intuitives, sont tr`es oues.
Denition 1.2.1.1 La moyenne locale dun signal f est la demi-somme de ses enveloppes
superieures et inferieures, qui sont obtenues par interpolation des maxima et des minima res-
pectivement.
Il existe dierentes methodes dinterpolation pour les enveloppes. La plus utilisee est lin-
terpolation spline cubique, et nous considererons dans la suite la denition des enveloppes avec
cette methode.
Denition 1.2.1.2 Une IMF (pour Intrinsic Mode Function) est une fonction oscillante
de moyenne nulle, cest-` a-dire une fonction :
dont tous les maxima sont positifs, et tous les minima negatifs.
dont la moyenne locale, au sens de la denition precedente, est nulle en tout point.
Denition 1.2.1.3 On appelle Sifting Process (SP) loperateur qui consiste ` a soustraire ` a
un signal sa moyenne locale, plusieurs fois de suite jusqu` a obtenir une moyenne (quasi) nulle.
On note ainsi m = SP(s).
On remarque que cette denition de loperateur SP est dej` a imprecise, mais algorithmique-
ment simple : pour construire m = SP(s), on realise lalgorithme suivant :
Algorithme 1.2.1 Sifting process (SP)
Entree : signal s.
Sortie : moyenne m, IMF h.
Algorithme :
1. h := s.
2. Tant que le crit`ere darret nest pas satisfait, calculer E
sup
et E
inf
les enveloppes superieures
et inferieures de h, interpolant les maxima et les minima respectivement. Eectuer
h := h
E
sup
+E
inf
2
.
3. Poser m := s h.
Le gros probl`eme pose par cet algorithme est celui de la convergence. En eet, en supposant
quil sarrete, on obtient alors bien un mode h de moyenne locale nulle, et la moyenne m, telles
que s = m+h, par denition.
Lalgorithme de lEMD est alors extremement simple :
8
Algorithme 1.2.2 EMD
Entree : signal s.
Sorties : IMFs h
1
, h
2
, . . . , h
N
, residu r.
Algorithme :
1. r := s ; i = 0.
2. Tant que r poss`ede plus de 3 extrema, i := i + 1. Calculer m = SP(r). Poser h
i
:= r m
et r := m.
3. Renvoyer les IMF h
i
, ainsi que le residu r.
1.2.2 Exemples
Voyons ici le comportement de lEMD sur des exemples simples. On consid`ere ici des signaux
dont on connat a priori les dierentes IMF, par construction. On verra comment lEMD retrouve
remarquablement bien les dierentes composantes. Cest loccasion de presenter trois signaux-
tests, qui seront utilises dans tout ce rapport. On travaillera toujours sur lintervalle [0, 1].
Signal-test 1 : melange de sinusodes (FIG. 1.3) :
s
1
(t) =
3

i=1
sin(2
i
t),
avec
1
= 28,
2
= 13 et
3
= 4.
Signal-test 2 : melange de sinusodes modulees AM/FM (FIG. 1.4) :
s
2
(t) =
3

i=1
a
i
(t) sin(
i
(t)t).
On ne donnera pas lecriture analytique des amplitudes et frequences instanees de chaque
composante, mais on pourra se reporter `a la gure.
Signal-test 3 : Signal oscillant discontinu (FIG. 1.5).
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
3
2
1
0
1
2
3
s
t
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
1
0
1
s
1
t
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
1
0
1
s
2
t
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
1
0
1
s
3
t
Fig. 1.3 Le signal-test 1 : melange de sinusodes. En haut : le signal. En bas : ses trois
composantes.
9
0 1 2 3 4 5 6 7
3
2
1
0
1
2
3
s
t
0 1 2 3 4 5 6 7
5
10
15
20
25
30
35
temps
fre
q
u
e
n
ce
Diagramme tempsfrequence et amplitude du signal test s2


amplitude
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
0 1 2 3 4 5 6 7
2
0
2
s
1
t
0 1 2 3 4 5 6 7
1
0
1
s
2
t
0 1 2 3 4 5 6 7
1
0
1
s
3
t
Fig. 1.4 Le signal-test 2 : melange de sinusodes modulees AM/FM. En haut : le signal,
representation temporelle et dans le plan temps/frequence. En bas : ses trois composantes.
0 0.5 1 1.5 2 2.5 3 3.5 4
4
3
2
1
0
1
2
3
s
t
0 0.5 1 1.5 2 2.5 3 3.5 4
2
0
2
s
1
t
0 0.5 1 1.5 2 2.5 3 3.5 4
1
0
1
s
2
t
0 0.5 1 1.5 2 2.5 3 3.5 4
2
0
2
s
3
t
Fig. 1.5 Le signal-test 3 : melange de sinusodes modulees avec des sauts damplitude et de
frequence. En haut : le signal. En bas : ses trois composantes.
Pour chacun de ces signaux, on connat la composante de plus haute frequence : on lappellera
dans la suite la composante reelle de la decomposition : cest lIMF que lon voudrait obtenir
par lEMD.
On realise ici une analyse qualitative : pour chaque signal-test, on donnera sa decomposition
EMD et on comparera chaque IMF `a la composante reelle connue a priori. On donnera
egalement le nombre diterations de SP realisees pour chaque mode. On verie facilement que
les resultats correspondent aux composantes reelles, avec toutefois un decalage non negligeable,
sur certains exemples.
10
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
5
0
5
Signal original
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
2
1
0
1
2
IMF 1 : 3 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
1
0.5
0
0.5
1
IMF 2 : 3 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
2
1
0
1
2
IMF 3 : 1 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
0.1
0.05
0
0.05
0.1
Residu
Fig. 1.6 Resultat de lEMD sur le signal-test 1. Pour chaque IMF, on donne le resultat obtenu
(trait plein, en bleu) et le resultat attendu (trait pointille, noir).
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
5
0
5
Signal original
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
2
1
0
1
2
IMF 1 : 5 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
1
0.5
0
0.5
1
IMF 2 : 7 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
1
0.5
0
0.5
1
IMF 3 : 3 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
0.2
0.1
0
0.1
0.2
Residu
Fig. 1.7 Resultat de lEMD sur le signal-test 2. Pour chaque IMF, on donne le resultat obtenu
(trait plein, en bleu) et le resultat attendu (trait pointille, noir).
1.2.3 Prolongement et eets de bord
Comme dans beaucoup de techniques danalyse ou dapproximation des signaux, il se pose le
probl`eme de la gestion des bords. Pour lEMD, ce probl`eme concerne linterpolation des extrema :
11
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
5
0
5
Signal original
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
2
1
0
1
2
IMF 1 : 2 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
4
2
0
2
IMF 2 : 4 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
2
1
0
1
IMF 3 : 10 iterations
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
0.1
0.05
0
0.05
0.1
Residu
Fig. 1.8 Resultat de lEMD sur le signal-test 3. Pour chaque IMF, on donne le resultat obtenu
(trait plein, en bleu) et le resultat attendu (trait pointille, noir).
ainsi, la spline interpolant les minima nest denie qu`a partir du premier minimum du signal,
et jusquau dernier. Or on a besoin de la calculer sur tout le signal. De plus, il faut eviter la
creation dartefacts, car literation du Sifting Process pourra les aggraver et les propager : le
probl`eme localise aux bords deviendra global.
Plusieurs techniques de prolongement ont ete envisagees, dont Rilling a fait une etude assez
exhaustive dans sa th`ese ([2]). Parmi les nombreuses approches, il distingue les techniques utili-
sant une fonction fenetre, celles consistant `a prolonger le signal, et celles prolongeant uniquement
les extrema. La technique preconisee est un prolongement par symetrie miroir des extrema : au
lieu de travailler sur le signal (on nen a pas besoin), il sut de prolonger quelques extrema en
eectuant une symetrie miroir par rapport au dernier : cest plus simple, et cela permet de gerer
les cas particuliers.
Cependant, meme avec un bon prolongement, on peut creer des eets de bord. Ce phenom`ene
est par exemple visible sur la gure (1.6). Dans cet exemple, le nombre diterations du SP est
faible, les eets de bord ne se propagent donc pas `a tout le signal.
1.2.4 Crit`eres darret
On a vu quune IMF est une fonction oscillante de moyenne locale nulle. En fait, pour
lEMD et lapplication de la transformee de Hilbert, si la condition les maxima sont positifs et
les minima negatifs est fondamentale, la condition de symetrie des enveloppes (ie de moyenne
locale nulle) na pas besoin detre respectee strictement.
Dailleurs, Sharpley et Vatchev remarquent dans [3] que les modes que lon souhaite obtenir,
cest-`a-dire des sinusodes modulees, ne verient pas strictement la condition de symetrie des
enveloppes. Algorithmiquement, cela revient `a xer un crit`ere darret pour le procede de tamisage
(SP).
12
Dans la suite, on notera h
1
, . . . , h
k
, . . . , h
K
les IMFs de s. Pour tout k, on note h
i
k
le resultat
de la i-`eme iteration du SP lors du calcul de h
k
. Le crit`ere propose `a lorigine ([1]) consiste `a
mesurer lecart entre h
i1
k
et h
i
k
, au moyen de la valeur :
SD =
_
T
0
_
h
i
k
(t) h
i1
k
(t)
_
2
dt
_
T
0
(h
i1
k
(t))
2
dt
.
Lorsque h
i
k
oscille bien autour de 0 et a un SD tr`es faible, on est proche de la convergence donc
on peut sarreter.
Meme si ce crit`ere fonctionne bien en pratique, ce nest pas le plus pertinent :
On teste avec un crit`ere de type Cauchy si lon est proche de la convergence, mais on ne
verie pas directement que h
i
k
satisfait les conditions dune IMF.
Ce crit`ere est une mesure globale, qui evalue levolution en norme L
2
. Cependant, on peut
avoir des dierences signicatives sur un intervalle petit, qui rendent SD grand alors que
lon aimerait sarreter.
Il parait alors judicieux de choisir un crit`ere local, controlant directement les proprietes de
lIMF, muni dune tolerance sur des intervalles de mesure petite. Le crit`ere suivant, propose dans
[4], propose darreter le processus de sifting d`es que :
Les minima sont strictement negatifs et les maxima strictement positifs.
Les enveloppes courantes E
sup
et E
inf
verient, sur un ensemble de mesure superieure `a
(1 )T :
|E
sup
(t) +E
inf
(t)| |E
sup
(t) E
inf
(t)|.
Ces memes enveloppes verient, sur toute la duree du signal [0, T] :
|E
sup
(t) +E
inf
(t)|
2
|E
sup
(t) E
inf
(t)|.
Autrement dit, on verie que la condition de moyenne locale nulle est veriee partout `a
pr`es, sauf eventuellement sur un ensemble de mesure petite, o` u lon tol`ere un seuil
2
> . Les
valeurs typiques de ces param`etres sont = 0.05 et (,
2
) = (0.05, 0.5). Cela signie que lon
impose la symetrie des enveloppes ` a 5 % pr`es, sur 95% de la duree du signal.
Linteret de ce crit`ere est double : il permet de realiser moins diterations et ainsi reduit le
temps de calcul. Mais il evite aussi de creer trop dartefacts en iterant le SP `a cause de quelques
singularites pour lesquelles la condition de moyenne nulle, localement, nest pas respectee.
La gure suivante (1.9) illustre limportance du crit`ere darret dans lEMD.
13
0 500 1000 1500 2000 2500
2
0
2
Signal original
0 500 1000 1500 2000 2500
5
0
5
IMF 1 : 1 iterations
0 500 1000 1500 2000 2500
0.2
0
0.2
IMF 2 : 12 iterations
0 500 1000 1500 2000 2500
0.2
0
0.2
IMF 3 : 3 iterations
0 500 1000 1500 2000 2500
0.05
0
0.05
IMF 4 : 1iteration
0 500 1000 1500 2000 2500
2
0
2
Signal original
0 500 1000 1500 2000 2500
5
0
5
IMF 1
0 500 1000 1500 2000 2500
0.5
0
0.5
IMF 2
0 500 1000 1500 2000 2500
0.2
0
0.2
IMF 3
0 500 1000 1500 2000 2500
0.1
0
0.1
IMF 4
Fig. 1.9 Illustration de limportance du crit`ere darret sur un exemple simple. Le signal est
une sinusode avec saut damplitude, et on donne ses 4 premi`eres IMFs. En haut, on utilise
le crit`ere darret de [4]. En bas, on realise arbitrairement 50 iterations pour chaque mode. Les
deux decompositions presentent des oscillations parasites, et on voit bien quelles se propagent
lorsquon it`ere trop le SP.
1.3 Proprietes fondamentales de lEMD
Loperateur de Sifting, apparemment simple et intuitif, se rev`ele dicile `a etudier mathematiquement.
Ainsi, aucune propriete importante de lEMD na ete demontree. Pourtant, certaines proprietes
empiriques importantes font consensus. Nous allons ici en presenter quelques unes.
1.3.1 Quasi-orthogonalite
Les IMFs sont extraites au fur et `a mesure de la decomposition. Etant deduites algorith-
miquement, on ne peut les etudier comme des bases Hilbertiennes. Cependant, de nombreuses
etudes ont montre le caract`ere quasi-orthogonal de la decomposition EMD. Intuitivement, cela
vient du fait que deux ondes oscillant `a des frequences distinctes sont globalement orthogo-
14
nales. Cependant, plusieurs phenom`enes peuvent nuire `a lorthogonalite de la decomposition :
les non-stationnarites dune part, mais aussi le fait que la moyenne locale nulle nentraine pas
lannulation de lintegrale entre deux extrema successifs.
Pour quantier cette pseudo-orthogonalite, on aura besoin dun indice.
Denition 1.3.1.1 On appelle Indice dorthogonalite associe ` a lEMD (h
1
, . . . , h
N
, r) du
signal s le reel :
IO =

i<j
h
i
, h
j

s, s
.
Cet indice mesure bien la propriete dorthogonalite de la decomposition, en ponderant les
produits scalaires des IMFs par leur energie. Letude experimentale montre que cet indice reste
tr`es faible dans la grande majorite des decompositions, mais aucune theorie ne la quantie
precisement.
1.3.2 Banc de ltres dyadiques
On a vu que lEMD est une decomposition multi-echelles : elle extrait les modes du plus
oscillant au moins oscillant, donc lechelle caracteristique des modes augmente au cours du
temps : on part des echelles nes pour arriver aux echelles grossi`eres, puis au residu (tendance
moyenne du signal).
Dans [5], Flandrin et. al essaient de caracteriser la decroissance de cette echelle caracteristique,
et montrent que lEMD imite dans une certaine mesure le comportement de bancs de ltres dya-
diques. Cette propriete m`ene `a plusieurs applications : lestimation de lexposant de Hurst dun
bruit fractionnaire, lanalyse spectrale adaptative, ou encore le debruitage.
Dans lexemple suivant (FIG. 1.10), on a decompose un bruit blanc Gaussien. On observe
que les modes sont de plus en plus reguliers, et oscillent bien de moins en moins rapidement.
La gure 1.11 precise cette observation : elle montre la densite spectrale moyenne pour un bruit
blanc Gaussien : on voit bien, notamment dans la representation logarithmique, que cest un
comportement en banc de ltres dyadiques : les pics semblent relativement equidistants.
15
0 200 400 600 800 1000 1200
5
0
5
Signal original
0 200 400 600 800 1000 1200
5
0
5
IMF 1 : 9 iterations
0 200 400 600 800 1000 1200
2
0
2
IMF 2 : 19 iterations
0 200 400 600 800 1000 1200
2
0
2
IMF 3 : 12 iterations
0 200 400 600 800 1000 1200
1
0
1
IMF 4 : 9
0 200 400 600 800 1000 1200
1
0
1
IMF 5 : 7
0 200 400 600 800 1000 1200
1
0
1
Residu
Fig. 1.10 Decomposition dun bruit blanc gaussien : lechelle caracteristique augmente avec
les IMFs.
0 0.5 1 1.5 2 2.5
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Bancs de filtres equivalents
frequence normalisee
D
e
n
s
it
e

s
p
e
c
t
r
a
le


IMF 1
IMF 2
IMF 3
IMF 4
IMF 5
IMF 6
3.5 3 2.5 2 1.5 1 0.5 0 0.5
2.5
2
1.5
1
0.5
Bancs de filtres equivalents
frequence normalisee (log)
D
e
n
s
it
e

s
p
e
c
t
r
a
le

(
lo
g
)


IMF 1
IMF 2
IMF 3
IMF 4
IMF 5
IMF 6
Fig. 1.11 Comportement en banc de ltres : on represente la densite spectrale moyenne des
IMFs dechantillons gaussiens, en echelle lineaire (haut) et logarithmique (bas). On a utilise
10000 echantillons de longueur 512.
16
1.4 Limitations, exemples de nouvelles approches
LEMD, et notamment le Sifting Process, sont des constructions assez simples, intuitives.
Mais, si elles sont aisees `a mettre en place algorithmiquement, leur etude mathematique est
complexe. De plus, elles comportent certains defauts, lies notamment `a linterpolation. Nous
donnerons ici un aper cu des principales limites de la methode originale, et de quelques approches
tentant de les depasser.
1.4.1 Aspects theoriques
Labsence de cadre mathematique est la grande lacune de lEMD : les proprietes evoquees au
paragraphe precedent nont aucune justication rigoureuse. Pire, il nexiste aucune garantie de
la convergence de lalgorithme, meme pour une classe de signaux reduite ! Plusieurs approches
ont ete proposees pour pallier cette lacune, chacune essayant dadapter lEMD `a un formalisme,
en conservant au maximum la generalite et les bonnes proprietes de la methode. On va presenter
ici trois methodes qui sappuient sur trois outils dierents : loptimisation sous contraintes, les
equations aux derivees partielles et la recherche du noyau dun operateur.
EMD par optimisation sous contraintes
Une premi`ere approche consiste `a denir la premi`ere IMF comme solution dun probl`eme
doptimisation quadratique sous contraintes ([6]). Le principe est de chercher la moyenne locale
dans lespace des polyn omes de degre 3 par morceaux sur la subdivision des extrema, avec
raccord C
1
. Par rapport aux splines, cela permet de gagner un degre de liberte. On peut alors
ajouter des contraintes sur cette moyenne, et minimiser son energie.
Ainsi, on resout le probl`eme de la convergence du SP. Cependant, rien ne garantit la completude
de la decomposition. De plus, on observe experimentalement que sur des signaux reels, cette ap-
proche reagit moins bien, donnant par exemple des enveloppes moins symetriques.
EMD par EDP
Dautres approches ont essaye de modeliser le Sifting Process par une equation devolution
([7],[8]). Dans lapproche de Diop et al., le SP est remplace par une equation de la chaleur
retrograde : en notant x la variable du signal et t la variable devolution, la methode consiste `a
resoudre :
_
h
t
+
1

2
h +
1
2

2
h
x
2
= 0 (x, t) [0, L] [0, T]
h(x, 0) = s(x) x [0, L].
La variable devolution est ici lequivalent continu de la variable discr`ete comptant le nombre
diterations du SP.
Ici encore, le probl`eme de la convergence du SP est resolu, et on evite les probl`emes din-
terpolation. Toutefois, plusieurs questions restent en suspens, notamment le choix du temps
darret T, ainsi que du coecient de diusion .
Notons cependant que ces approches par EDP orent des perspectives interessantes pour
lextension en 2 dimensions ou plus, car elles se prolongent bien plus naturellement que lEMD
originale.
17
1.4.2 Pobl`emes lies `a linterpolation
Dautres approches nont pas cherche `a resoudre directement le probl`eme de la convergence du
SP, et se sont focalisees sur dautres defauts de lEMD. Plusieurs probl`emes, aussi bien theoriques
que pratiques, proviennent de linterpolation des enveloppes : la moyenne locale est ainsi sensible
au bruit, et presente les defauts de linterpolation spline. En particulier, des overshoots ou
undershoots peuvent se produire lors de linterpolation : cela signie que le maximum de
lenveloppe superieure (ou le minimum de lenveloppe inferieure) ne correspond pas `a lextrema,
mais est decale. Ce phenom`ene engendre des artefacts qui pourront etre propages par le SP.
Pour contourner ce probl`eme, certains auteurs ont propose lutilisation dune moyenne locale
au sens integral. Lapproche de Hong et al. ([9]) utilise ainsi le Sifting en changeant la denition
de la moyenne. Dautres approches, comme [10], recherchent les IMF dans le noyau doperateurs,
ce qui contourne egalement le probl`eme du SP.
On a ici evoque quelques probl`emes theoriques et pratiques poses par la denition actuelle
de lEMD. Cette liste nest bien s ur pas exhaustive, et il existe dautres defauts de la methode,
qui engendrent autant de perspectives de recherche. Les solutions evoquees resolvent certaines
de ces lacunes, mais ont tendance `a perdre en partie le bon comportement de lEMD.
Les approches presentees dans la partie suivante tenteront de conserver au maximum ce bon
comportement, en contournant les defauts de lEMD standard. On sattachera particuli`erement
`a la convergence du SP, ou du processus qui le remplacera.
18
Chapitre 2
Contributions
2.1 Moyenne locale integrale
2.1.1 Motivation, denitions
Nous lavons vu dans le chapitre precedent : la notion centrale de lEMD est celle de moyenne
locale. La denition originale de cette moyenne (demi-somme des enveloppes splines) est pra-
tique : elle sappuie dune part sur des outils simples (les splines), et dautre part, avec cette
denition, lannulation de la moyenne locale implique la symetrie des enveloppes. Ce dernier
point est important, on la vu, lorsquon utilise ensuite la transformee de Hilbert.
Cependant, cette denition est egalement dicile `a manipuler : letude du Sifting est limitee,
du fait de la reinterpolation aux extrema : les changements successifs de subdivision sont un
handicap. De plus, on a dej` a evoque plusieurs probl`emes directement lies `a linterpolation spline.
Pour changer cette denition de moyenne locale, il est naturel de chercher dabord une
integrale locale, qui calculerait la veritable moyenne du signal dans un voisinage. Se pose alors
le probl`eme de lechelle, qui, en prenant exemple sur lEMD, pourrait etre calculee `a partir des
extrema locaux. Ainsi, Peng et al., dans [10], proposent la denition suivante :
m(t) =
_
t+(t)
t(t)
s(x)dx,
le param`etre dechelle , variant au cours du temps, etant calcule par la formule suivante :
(t) =
1
4
|I
j1
| +
1
2
|I
j
| +
1
4
|I
j+1
|,
en notant I
j
= [
j
,
j+1
] lintervalle delimite par les extrema de s, et contenant t.
Remarque : La determination de lechelle locale par la distance entre extrema suppose quil
ny a pas dextrema caches : les extremas du signal correspondent `a ceux de la premi`ere IMF.
Nous ferons cette hypoth`ese durant tout ce rapport.
Ici, (t) est donc une moyenne ponderee des longueurs des intervalles autour de t. Le principal
probl`eme de cette denition est la regularite de lenveloppe : la fonction t (t) etant discontinue
`a chaque
i
, on introduit de fortes discontinuites. Dans la gure suivante (2.1), on montre un
signal et son enveloppe moyenne denie ainsi.
19
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2.5
2
1.5
1
0.5
0
0.5
1
1.5
2
2.5
Un signal et son enveloppe integrale


signal s
enveloppe m
Fig. 2.1 Moyenne integrale au sens de Peng. On voit bien les discontinuites.
2.1.2 Un Sifting par moyenne integrale
Lapproche de Hong et al., dont nous avons dej` a parle, propose une autre denition de la
moyenne locale, egalement basee sur la moyenne locale integrale.
Denition 2.1.2.1 Soit un signal s, on note
i
ses extrema. Les points dinterpolation de la
moyenne (t
i
, x
i
) sont donnes par :
_
_
_
x
i
=
1

i+1

i
_

i+1

i
s(t) dt
t
i
=
R

i+1

i
t|s(t)x
i
|
2
dt
R

i+1

i
t|s(t)x
i
|
2
dt
.
La moyenne locale au sens de Hong est la spline cubique interpolant ces points.
Autrement dit, on construit un point de la moyenne entre deux extrema : la valeur de ce point
est la moyenne du signal, et son abscisse est determinee par un moment dordre deux (FIG. 2.2).
Ensuite, linterpolation spline permet, comme dans lEMD, de lisser la moyenne. Cependant,
si les points dinterpolation ont du sens, le fait dinterpoler fait perdre le sens physique de la
moyenne, et reduit les possibilites danalyse.
Mais cette approche, qui fonctionne bien en pratique et qui ore certainement quelques
avantages par rapport `a lEMD standard, garde la structure du Sifting Process, et linterpolation
spline sur des points qui se deplacent au cours des iterations nous ram`ene aux memes dicultes.
2.1.3 Rappels sur les B-splines
Dans toute cette partie, nous allons travailler avec des B-splines : elles ont en eet lavantage
de secrire et se manipuler facilement. De plus, elles poss`edent plusieurs bonnes proprietes, qui
conviennent bien au sujet. Enn, dans [11], Chen et al. ont montre que les B-splines orent de
bonnes proprietes pour la transformee de Hilbert. Ce paragraphe rappellera quelques denitions
et proprietes des B-splines.
Dans la suite, on designe par = (
1
, . . . ,
N
) une subdivision de [0, 1] veriant : 0 <
1
<
. . . <
N
< 1.
20
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4
2
1.5
1
0.5
0
0.5
1
1.5
2
t


Signal s
points (ti,xi)
enveloppe constante pm
enveloppe spline
Fig. 2.2 Illustration : la moyenne locale integrale de Hong et al.
Denition 2.1.3.1 Les fonctions B-splines de degre n, B
n
j
, sont denies par :
_

_
B
0
j
(t) =
|
j
,
j+1
B
n
j
(t) =
t
j

j+n

j
B
n1
j
(t) +

j+n
t

j+n

j+1
B
n1
j+1
(t) n > 0.
Comme on travaillera en periodique, on pose
N+i
= 1 +
i
, i [N + 1 . . . N +n].
Denition 2.1.3.2 On appelle B-spline periodique de degre n sur la subdivision toute com-
binaison lineaire des B
n
j,
.
Proprietes Les B-splines verient les proprietes classiques suivantes :
La famille (B
n
1
, . . . , B
n
N
) est une base de lespace des splines periodiques de degre n sur la
subdivision .
Chaque spline B
n
j
est un polyn ome par morceaux de degre n, de classe C
n1
, positive et
nulle en dehors de lintervalle [
j
,
j+n+1
].
La famille (B
n
j
) forme une partition de lunite sur [0, 1] :
t [0, 1],
N

j=1
B
n
j
(t) = 1.
La derivee de B
n
j
verie la relation de recurrence suivante :
d
dt
B
n
j
(t) =
n

j+n

j
B
n1
j

n

j+n+1

j+1
B
n1
j+1
.
2.1.4 Position du probl`eme
On a vu precedemment que la moyenne locale au sens de lEMD pourrait etre avantageuse-
ment remplacee par une moyenne integrale. D`es lors, il faudrait changer la denition dune IMF
et ladapter `a cette denition. Ce paragraphe va introduire les notations.
21
Considerons une subdivision
i
sur [0, 1]. On cherche une B-spline cubique h sur cette sub-
division, de coecients H :
h(t) =
N

j=1
H
j
B
3
j,
(t).
On impose de plus que lintegrale de h sur [
i
,
i+1
] soit nulle ; pour cela, on va annuler la
fonctionnelle :
J
1
(h) =
N

i=1
__

i+1

i
h(t)dt
_
2
.
On peut egalement ecrire :
J
1
(H) = H
T
V
T
V H,
avec V la matrice denie par :
V
ij
=
_

i+1

i
B
3
j,
(t)dt.
Cette fonctionnelle J
1
etant quadratique en H, on peut facilement la minimiser. Mais aupa-
ravant, on va ajouter un terme de rappel aux donnees : pour cela on construit une ebauche h
0
,
qui approxime le mode h. Par simplicite, on utilise lEMD originale : h
0
sera linterpolee spline
du signal aux extrema moins sa moyenne locale, au sens de lEMD standard. On pose alors
J
2
(h) = h h
0

2
.
On peut alors denir clairement la subdivision (
i
) : elle est donnee par les extrema de
lebauche h
0
.
En notant M la matrice de masse denie par :
M
ij
=< B
i,
, B
j,
>=
_
T
0
B
i,
(t)B
j,
(t) dt,
On peut ecrire, en notation matricielle : J
2
(H) = (H H
0
)
T
M(H H
0
).
La fonctionnelle J = J
1
+J
2
secrit nalement :
J(H) = (H H0)
T
M(H H
0
) +H
T
V
T
V H.
J etant quadratique donc strictement convexe, elle admet un minimum. Calculons son gra-
dient :
J(H) = 2(H H
0
)
T
M + 2H
T
V
T
V.
J(H) = 0
_
M +V
T
V
_
H = MH
0
J(H) = 0 H =
_
I +M
1
V
T
V
_
1
H
0
,
en supposant la matrice (I +M
1
V
T
V ) inversible.
22
2.1.5 Un exemple
Ce premier mod`ele a lavantage de donner une solution unique et explicite pour le premier
mode. Cependant, il soure de nombreux defauts :
On initialise la subdivision
k
avec les extrema de h
0
, qui peuvent etre assez eloignes des
extrema de lIMF reelle.
Le terme de rappel aux donnees nest pas tr`es pertinent : h
0
peut etre assez eloignee en
norme L
2
de lIMF reelle, dans le cas dun decalage des extrema par exemple.
On ne tient pas compte des echelles cachees : la subdivision est calculee seulement `a partir
des extrema du signal.
La derni`ere critique va sappliquer `a toutes les methodes developpees ici, mais ce probl`eme
des echelles cachees pourrait etre resolu avec un pre-traitement.
La gure suivante (2.3) illustre la methode sur un cas simple. Si les erreurs commises par h
0
sont bien compensees, on reste relativement loin du resultat attendu. Cela est notamment du `a
un mauvais decalage des extrema de h, qui fausse le resultat. Pour comparer, on trace la meme
gure mais en choisissant pour subdivision les extrema de la composante reelle (FIG. 2.4). Dans
ce dernier cas, les extrema sont bien places, mais le resultat general, bien que meilleur, nest pas
parfait.
0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8
2
1.5
1
0.5
0
0.5
1
1.5
2
t


h0
h
imf reelle
Fig. 2.3 Un exemple doptimisation sur des B-splines, avec le crit`ere dintegrale locale nulle.
Le signal utilise est le signal-test 2. On a zoome sur un intervalle pour une meilleure observation.
23
0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85
1.5
1
0.5
0
0.5
1
1.5


h0
h
imf reelle
Fig. 2.4 Meme test que FIG. 2.3 mais en changeant linitialisation de la subdivision : on choisit
les extrema de la composante reelle.
24
2.2 Etude du crit`ere dintegrale nulle entre deux extrema
On a vu precedement que loptimisation directe ne permettait pas dapprocher susamment
le premier mode. Ainsi, il apparat dicile de ne pas tenir compte du decalage des extrema
durant le SP, alors meme que ce decalage intervient sur des exemples tr`es simples, pour des
signaux reguliers. Ici, on tentera de raner la methode : on va mettre en place des algorithmes
iteratifs, plus souples et plus generaux, toujours bases sur ce crit`ere dintegrale locale nulle.
2.2.1 Schema iteratif
La premi`ere piste est inspiree par le SP : si lon ne parvient pas au mode souhaite en une
iteration, on peut construire une suite h
k
qui convergera vers le mode. Cela permettra peut-etre
de resoudre le probl`eme de decalage des extrema dune part, et le mauvais terme de rappel aux
donnees dautre part.
Mod`ele
On consid`ere un signal s, et on note par h
0
la pseudo-IMF donnee par une iteration du SP
(methode originale). On consid`ere ensuite linterpolee B-spline cubique H
0
de h
0
dans la base
de ses extrema. On construit une suite (H
k
)
k
veriant :
H
k+1
= argmin(J
k
(H)),
avec la fonctionnelle
J
k
(H) = (H H
k
)
T
M
k
(H H
k
) +H
T
V
k
T
V
k
H.
o` u la matrice M
k
est la matrice de masse et V
k
la matrice dintegrales, associees aux
extrema de h
k
: en notant (
k
i
)
i
les extrema de h
k
, elles secrivent :
V
k
ij
=
_

k
i+1

k
i
B
j,
k(t) dt
M
k
ij
=
_
B
i,
k(t)B
j,
k(t) dt.
Comme precedemment, on peut calculer le gradient, et trouver la solution minimale : on a
alors
H
k+1
=
_
I +(M
k
)
1
V
k
T
V
k
_
1
H
k
.
Algorithme 2.2.1
1. Construire H
0
.
0
= extrema de H
0
. k := 0.
2. Tant que la subdivision (
k
) bouge et que H
k
evolue :
Calculer M
k
et V
k
associees ` a
k
.
Calculer H
k+1
=
_
I +(M
k
)
1
V
k
T
V
k
_
1
H
k
.

k+1
:= extrema de H
k+1
. k := k + 1.
3. Renvoyer H
K
.
25
On remarque quil y a, comme dans lEMD originale, un seuil `a xer pour larret de la boucle
interne : si lon realise trop diterations, on aura tendance `a se rapprocher dun sinus simple, qui
annulera strictement le terme H
T
V
k
T
V
k
H.
On prendra egalement soin de bien xer le param`etre de mani`ere `a garantir linversibilite
de la matrice. En pratique, pour des valeurs raisonnables de , cette matrice reste inversible.
Proprietes
Avant dexposer les resultats, il convient danalyser le mod`ele : a-t-on resolu, du moins en
partie, les probl`emes de convergence ? Nous allons ici exposer et demontrer quelques proprietes
de lalgorithme.
La matrice M : Soit
k
une subdivision xee. On note
n

lespace des B-splines de degre


n sur la subdivision
k
. On note (B
n
j,
k
)
j
la base classique de ce sous-espace de L
2
(R). M
k
est
une matrice de masse :
M
k
ij
=< B
n
i,
k
, B
n
j,
k
> .
Elle est donc symetrique et inversible d`es lors que les noeuds ne sont pas confondus, ce qui
nest jamais le cas : chaque noeud correspond `a un extremum. On fera attention cependant au
comportement asymptotique (si deux extrema se rapprochent).
La matrice V et son noyau
Si lalgorithme converge vers une solution que lon note H

, avec des

i
distincts, il est
clair que M
1

V
T

= 0. La matrice M etant inversible, on obtient H

Ker(V

). On a
donc une condition necessaire de convergence ; verions quelle est realisable, cest-`a-dire que V
poss`ede un noyau non nul, dans le cas general.
Cas uniforme :
On note N la taille de la subdivision, a et b les valeurs :
a =
_

i+1

i
B
i
(t) dt
b =
_

i+2

i+1
B
i
(t) dt
La matrice V est circulante, et secrit :
V =
_
_
_
_
_
_
_
_
_
_
_
_
a a b b
b
.
.
.
.
.
.
b
b
.
.
.
.
.
.
(0) a
a
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(0)
.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
_
_
_
_
_
_
_
26
En notant J la matrice :
J =
_
_
_
_
_
_
_
_
_
0 1 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0
.
.
.
1
1 0 . . . . . . 0
_
_
_
_
_
_
_
_
_
,
on peut ecrire V = a(J
0
+ J
N3
) + b(J
N1
+ J
N2
). Comme J
N
= I, V est diagonalisable
dans la base de Fourier : on verie sans peine que pour k [0..N 1], le vecteur
X
k
=
_
_
_
_
_
_
1
e
2ik
N
e
2ik
N
2
.
.
.
_
_
_
_
_
_
est vecteur propre de J associe `a la valeur propre e
2ik
N
. En notant = e
2i
N
la racine primitive
N-i`eme de lunite, les valeurs propres de V sont donnees par :

k
= a(
0
+
k(N3)
) +b(
k(N1)
+
k(N2)
).
Pour une B-spline cubique, `a un facteur de normalisation pr`es, on a a = 1 et b = 11. V
admet une valeur propre nulle si et seulement si il existe k [0..N 1] tel que :
1 +e
2ik(N3)
N
+ 11(e
2ik(N1)
N
+e
2ik(N2)
N
) = 0.
Cette expression est bien nulle pour k =
N
2
, dans le cas o` u N est pair. On verie facilement que
cest la seule solution possible. Le vecteur propre associe est alors :
XN
2
=
1

N
_
_
_
_
_
_
_
1
1
1
.
.
.
1
_
_
_
_
_
_
_
Cas non uniforme
On ne peut plus utiliser ici largument des matrices circulantes. La condition V H = 0
equivaut `a :
i
N

j=1
H
j
_

i+1

i
B
j
(t) dt = 0
Dans la gure suivante (FIG. 2.5), on a trace la spline unitaire solution de V H = 0 pour
dierents (
i
). On remarque que pour des subdivisions susamment reguli`eres, la subdivision
correspond `a peu pr`es aux extrema de la spline solution. Malheureusement, cela nest plus
vrai pour des subdivisions fortement irreguli`eres. Cest pourquoi il est important de decaler
iterativement la subdivision : sil y a convergence, les extrema de la spline seront situes sur la
subdivision, assurant le crit`ere de moyenne locale nulle.
27
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.25
0.2
0.15
0.1
0.05
0
0.05
0.1
0.15
0.2
0.25


coefficients vp nul
spline associee
Subdivision
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.5
0.4
0.3
0.2
0.1
0
0.1
0.2
0.3
0.4
0.5


coefficients vp nul
spline associee
Subdivision
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.5
0.4
0.3
0.2
0.1
0
0.1
0.2
0.3
0.4
0.5


coefficients vp nul
spline associee
Subdivision
Fig. 2.5 Pour dierentes subdivisions, on trace la spline unitaire H telle que V H = 0. De haut
en bas : subdivisions constante, modulee, aleatoire.
Resultats et critiques
Un premier exemple (FIG. 2.6) montre le resultat de la methode sur un melange de modes
AM/FM. On observe experimentalement une convergence assez rapide. Le resultat obtenu est
bien meilleur que dans la methode sans iteration. Cependant on ne parvient pas `a converger
vers le mode reel. On ne donnera pas ici plus de tests, puisque lexemple montre clairement que
28
lalgorithme nest pas susament precis, meme pour des signaux simples.
0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8
2
1.5
1
0.5
0
0.5
1
1.5
2
t


h0
h
imf reelle
Fig. 2.6 Mise en oeuvre de lalgorithme iteratif sur le signal-test 2. La forme du mode obtenu
est tr`es proche de lIMF reelle. En revanche les extrema se sont mal decales, et le resultat est
decevant.
En fait, par construction, cette methode cree des modes dintegrale nulle entre deux extrema,
exactement. Il sagit donc de sinusodes pures ou modulees speciques. Pour obtenir une decomposition
adaptative il faudrait que, comme dans lEMD originale, on sarrete d`es que le crit`ere est su-
sament satisfait.
Mais ici, le crit`ere est global, alors quon a besoin dun crit`ere local : verie en tout point
mais avec un seuil , pour ne pas trop contraindre lIMF. Le paragraphe suivant introduit un tel
crit`ere local, et sinteresse au reglage du seuil.
2.2.2 Ameliorations
On doit donc encore raner notre algorithme : on garde encore le crit`ere dintegrale locale
nulle, mais on va modier certains points, pour ameliorer les resultats. Ainsi, on va evoluer
vers un probl`eme doptimisation sous contraintes, on cherchera non plus lIMF mais la moyenne
comme une spline, puis on modiera la fonctionnelle.
Bien s ur, ces ameliorations se sont deroulees de mani`ere incrementale. Mais on ne presentera
que les resultats naux, pour ne pas surcharger ce rapport dexemples.
Minimisation sous contrainte
On a vu precedemment la necessite de disposer dun crit`ere local, verie partout mais pas
trop contraignant. On propose ici une approche de minimisation sous contrainte. On garde les
memes notations : h
0
est linterpolee de la premi`ere iteration du SP,
k
i
designe labscisse du
i-`eme extrema de h
k
. On construit la suite (h
1
, . . . , h
K
) en resolvant :
h
k+1
=
_
_
_
argminJ
k
(h)

k
i+1

k
i
h(t) dt

.
29
La fonctionnelle sera ici encore un terme de rappel J
k
(h) = h h
k

2
. Quant au seuil , il
doit dependre de lamplitude de lIMF courante : on pose ainsi

k
=
_

k
i+1

k
i
|h
k
(t)| dt.
Travail sur la moyenne
On continue `a raner notre decomposition : on a vu depuis le debut quil est illusoire de
vouloir representer lIMF dans la base de ses extrema, alors quelle peut etre non reguli`ere. Ainsi,
pour des signaux discontinus, lEMD originale capte toutes les discontinuites dans la premi`ere
IMF, puisquelle construit une enveloppe lisse.
On va donc egalement travailler directement sur la moyenne locale m = sh. Cela permettra
de plus dajouter plus naturellement un terme de regularite (raideur) de lenveloppe dans la
fonctionnelle.
Le probl`eme avec ses contraintes secrit alors :
m
k+1
=
_
argminJ
k
(m)
_

k
i+1

k
i
s(t) dt
k
i

_

k
i+1

k
i
m(t) dt
_

k
i+1

k
i
s(t) dt +
k
i
Ici encore, le seuil
k
i
doit etre adaptatif, et dependre de lamplitude de lIMF :

k
i
=
_

k
i+1

k
i
|m
k
(t) s(t)| dt.
On va egalement rajouter des termes regularisants dans la fonctionnelle, qui secrit alors :
J
k
(m) = mm
k

2
+
1
_
_
m

_
_
2
+
2
_
_
m

_
_
2
.
Resultats
On presente ici quelques resultats de cette approche par minimisation quadratique sur len-
veloppe moyenne. On verra que ces ameliorations autorisent un comportement plus n de lal-
gorithme.
La gure suivante (FIG. 2.7) montre le resultat qualitatif de cet algorithme. Si les extrema
de lIMF reelle sont bien conserves, le crit`ere dintegrale nulle tend `a deformer la composante
reelle : ainsi, on observe quune augmentation de la frequence provoque une augmentation de
lamplitude, et vice-versa. Mais, par rapport au resultat precedent (FIG. 2.6), cest quand meme
bien mieux.
Ce crit`ere ne parat donc pas tout `a fait adapte. Pour en etre s ur, on realise une etude sur
les seuils : peut-etre quun bon reglage du seuil permet plus de souplesse, meme avec ce crit`ere
contraignant. Ainsi, la gure suivante (FIG. 2.8) presente lerreur L
2
du resultat en fonction de
literation, pour dierents choix de . Pour les valeurs intermediaires de , lerreur diminue bien
en fonction des iterations. En revanche, un trop petit ou trop grand entrane une stagnation
voire une augmentation de lerreur, car les contraintes deviennent soit trop fortes soit trop
generales.
Par ailleurs, il peut etre interessant de diminuer le crit`ere au cours des iterations : cela permet
daner lIMF, une fois que les extrema sont bien places. On va donc choisir pour seuil :

k
i
=

1
1 +k
2
_

k
i+1

k
i
|h
k
(t) s(t)| dt.
30
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
1.5
1
0.5
0
0.5
1
1.5
2
IMF


imf reelle
h
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2.5
2
1.5
1
0.5
0
0.5
1
1.5
2
2.5
Enveloppe


signal
enveloppe
Fig. 2.7 Mise en oeuvre de loptimisation sous contraintes sur la moyenne.
1 2 3 4 5 6 7 8
10
20
30
40
50
60
70
80
k : iterations
E
r
r
e
u
r

L
2


alpha = 0.5
alpha = 0.1
alpha = 0.05
alpha = 0.01
Fig. 2.8 Norme L
2
de lerreur en fonction de literation.
On montre dans la gure suivante (FIG. 2.9) lerreur du resultat pour dierentes valeurs de
2
.
On remarque quun bon choix de ce param`etre ameliore la convergence.
Enn, on a regarde linuence des param`etres de la fonctionnelle :
1
et
2
. La gure 2.10
montre ainsi lerreur en fonction de
1
=
2
. On a egalement etudie linuence de ces param`etres
separement. Dans tous les tests realises, on observe que ces valeurs nont pas beaucoup dim-
portance : la spline est en eet fortement contrainte, la solution est donc faiblement dependante
des variations de la fonction-objectif.
31
1 2 3 4 5 6 7 8 9 10
10
15
20
25
30
35
40
45
50
55


alpha2 = 0
alpha2 = 0.5
alpha2 = 1
alpha2 = 2
alpha2 = 5
Fig. 2.9 Visualisation de lerreur pour dierentes valeurs de
2
. On a pose
1
= 0.1.
100 80 60 40 20 0 20 40 60 80 100
12.2
12.4
12.6
12.8
13
13.2
13.4
13.6
lambda1 = lambda 2 (log)
e
r
r
e
u
r
L
2
Fig. 2.10 Visualisation de lerreur pour dierentes valeurs de
1
=
2
.
Conclusion
Par ranements successifs, on a pu ameliorer les resultats de cette approche, qui consiste `a
resoudre un probl`eme de minimisation sur un espace de splines, de dimension restreinte. Mais
malgre ces ranements et une etude des param`etres, les resultats de cette methode restent
bien moins bons que ceux de lEMD originale. Cela nous conduit `a remettre en cause le crit`ere
dintegrale quasi-nulle entre extrema.
Cependant, les approches precedentes ont mis en evidence le bon comportement des schemas
iteratifs. Dans la partie suivante, nous allons donc reutiliser ces schemas, mais en revenant au
crit`ere original de symetrie des enveloppes.
32
2.3 Un crit`ere de symetrie des enveloppes pour loptimisation
2.3.1 Symetrie des enveloppes
Presentation
Etant donne le signal s, on cherche toujours une B-spline h sur la subdivision
i
comme
solution dun probl`eme doptimisation sous contraintes. En nommant x
i
les abscisses des extrema
de h (que lon ne connait pas), on note
i
le point de meme abscisse que x
i
, mais situe sur
lenveloppe opposee. Notre contrainte consistera `a imposer, `a un certain seuil pr`es, la symetrie
de (x
i
, h(x
i
)) et de (x
i
,
i
).
Plus precisement, on construit les enveloppes par interpolation lineaire (cf. 2.11). On a donc :

i
=
h(x
i+1
) h(x
i1
)
x
i+1
x
i1
(x
i
x
i1
) +h(x
i1
).
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
h(x
i1
)
h(x
i+1
)
h(x
i
)

i
Fig. 2.11 LIMF h, un minimum (x
i
, h(x
i
)) et son oppose sur lenveloppe : (x
i
,
i
). Ici, mani-
festement lenveloppe nest pas symetrique.
Choix du seuil
Les contraintes secrivent, pour i [1 . . . N] :
|h(x
i
) +
i
| .
On a donc 2N contraintes lineaires dinegalite. En revanche, le choix du seuil est tr`es
important : on est ramene aux memes problematiques que dans lEMD standard, avec le choix
du seuil pour larret du SP. En sinspirant de lEMD originale, il est naturel de poser un seuil
relatif dependant de lamplitude :

i
= |h(x
i
)
i
|.
Le probl`eme est que, contrairement `a lEMD originale, on ne connat pas h. Pour garder des
contraintes lineaires, on va encore realiser un schema iteratif explicite, decrit dans le paragraphe
suivant.
33
2.3.2 Mod`ele et algorithme
Description
Pour mettre cette idee en pratique, il faut resoudre deux probl`emes : on ne connat a priori
ni la subdivision x
i
des extrema de h, ni les valeurs de ces extrema h(x
i
). Or on a besoin de ces
valeurs. Ici encore, on va devoir mettre en place un schema iteratif explicite : on construira une
suite m
k
= s h
k
quon voudra faire converger vers la moyenne locale du signal.
Comme dans la partie precedente, on note m
0
la pseudo-moyenne locale donnee par une
iteration de SP. On construira la suite m
k
en posant :
m
k+1
=
_
argminJ
k
(m)
i |
i
+ (s m)(x
k
i
)| |(s m
k
)(x
k
i
)
k
i
|
o` u les
k
i
, denis dans le paragraphe precedents, dependent lineairement de m
k
.
Comme dans la section precedente, on utilise la fonctionnelle :
J
k
(m) = mm
k

2
+
1
_
_
m

_
_
2
+
2
_
_
m

_
_
2
.
Pour le crit`ere darret en revanche, plut ot que de considerer m
k
m
k1
, on raisonne sur les
extrema de h
k
: lorsquils ne bougent plus, on sait que lon a converge. La quantite `a considerer
sera donc :
_
_
_x
k
x
k1
_
_
_ =
_
N

i=1
(x
k
i
x
k1
i
)
2
_
1
2
.
Algorithme 2.3.1
1. Calculer m
0
, la subdivision
i
.
2. Tant que m evolue (
_
_
x
k
x
k1
_
_
> ) :
Extraire les extrema x
k
i
de h
k
= s m
k
Construire les
k
i
Calculer m
k+1
.
3. Retourner lIMF h = s m
K
.
Probl`eme de la convergence
Avant dobserver les resultats, il est important de verier que lon a ameliore le probl`eme de
la convergence. En fait, pour ce schema, ce nest pas evident. Mais on verra dans la suite que la
convergence est atteinte quasiment en une iteration : d`es lors, le probl`eme de la convergence du
SP est resolu.
2.3.3 Resultats
Premi`eres observations
On va ici observer qualitativement le comportement de cet algorithme, sur des exmples
simples. Dans les gures, on donnera le signal, h
0
lebauche, h notre resultat, ainsi que la com-
posante reelle que lon souhaite retrouver.
Pour ces tests, on a choisi = 0.01 et = 10
8
. Une etude plus approfondie de linuence
de ces param`etres suivra. On remarque dej` a que pour les signaux-tests continus, lalgorithme
separe parfaitement les composantes (FIG. 2.12, 2.13). Le crit`ere de symetrie semble ainsi bien
34
plus adapte que celui dintegrale nulle entre extrema. En revanche lorsquil y a des changements
discontinus damplitude, la methode tend `a lisser les enveloppes (FIG. 2.14) : comme dans
lEMD, on ne retrouve pas exactement la composante reelle.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2
1
0
1
2
t
IMF


h0
h
imf reelle
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2
1
0
1
2
t
Enveloppe


e0
e
env reelle
Fig. 2.12 Resultat de la methode sur le signal-test 1 (zoom) (5 iterations). Lalgorithme separe
parfaitement les sinusodes.
35
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2
1
0
1
2
t
IMF


h0
h
imf reelle
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2
1
0
1
2
t
Enveloppe


e0
e
env reelle
Fig. 2.13 Resultat de la methode sur le signal-test 2 (7 iterations). Le resultat est quasiment
parfait. On peut le comparer avec celui de la methode precedente (FIG. 2.7).
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2
1
0
1
2
t
IMF


h0
h
imf reelle
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
3
2
1
0
1
2
t
Enveloppe


e0
e
env reelle
Fig. 2.14 Resultat de la methode sur le signal-test 3 (8 iterations). Le changement de frequence
est tr`es bien traite. En revanche un changement brutal damplitude, comme dans lEMD origi-
nale, cause une reconstruction imparfaite du mode.
36
Convergence et crit`ere darret
Le crit`ere darret secrit :
x
k
x
k1
> .
Il mesure levolution des extrema du mode que lon extrait : lorsquils ne bougent plus, on a
converge. Il est interessant dobserver la vitesse de la convergence de cet algorithme : on va ainsi
sinteresser `a lecart en norme L
2
(FIG. 2.15), ainsi qu`a levolution des extrema (FIG. 2.16), au
cours des iterations. On observe que :
La convergence est tr`es rapide : apr`es 2 iterations, la solution ne change quasiment plus.
On peut alors penser quiterer le processus est inutile, et que lon pourrait supprimer les
iterations.
Une valeur raisonnable pour serait 10
4
.
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
1.38
1.385
1.39
1.395
1.4
1.405
Nombre diterations
E
r
r
e
u
r

L
2

(
l
o
g
)
Erreur L2 en fonction des iterations
Fig. 2.15 Trace de lerreur L2 `a la composante reelle en fonction des iterations, pour le signal-
test 2.
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
9.5
9
8.5
8
7.5
7
6.5
6
5.5
5
Nombre diterations (log)
E
r
r
e
u
r

L
2

(
l
o
g
)
Erreur L2 en fonction des iterations
Fig. 2.16 Trace de x
k
x
k1
en fonction du nombre diterations, pour le signal-test 2.
37
Enn, pour mieux se rendre compte de lecacite de lalgorithme, on a trace, sur un meme
graphe, les courbes de convergence pour cette methode ainsi que pour lEMD standard (FIG.
2.17). Clairement, notre resultat est bien meilleur, et sugg`ere de ne realiser quune seule iteration.
1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6
1
1.5
2
2.5
3
3.5
Iterations
E
r
r
e
u
r

L
2

(
l
o
g
)


Optimisation
EMD originale
Fig. 2.17 Trace de lerreur L
2
en fonction du nombre diterations, pour le signal-test 2, et les
deux methodes.
Etude des seuils
Comme dans la section precedente, on va realiser une etude des seuils pour les contraintes,
ainsi que pour la terminaison de lalgorithme. Les contraintes secrivent ainsi, `a literation k :
|
i
+h(x
k
i
)|
k
i
|h
k
(x
k
i
)
k
i
|
avec

k
i
=

1
1 +k
2
On commence par xer
2
= 0. Le seuil
k
i
est alors constant au cours des iterations, on
regarde linuence de
1
: ainsi, la gure 2.18 trace lerreur L
2
`a la composante reelle en fonction
de ce param`etre. On verie bien que les valeurs optimales sont sensiblement les memes que dans
lEMD standard.
Comme dans la partie precedente, il peut etre interessant daner le seuil au fur et `a mesure
des iterations. On ne realise pas une etude exhaustive, mais seulement quelques tests. La gure
2.19 montre ainsi lerreur en fonction de
2
, les autres param`etres etant xes.
38
7 6 5 4 3 2 1 0
0.5
1
1.5
2
2.5
3
3.5
4
alpha1 (log)
E
r
r
e
u
r
L
2
(
lo
g
)
Fig. 2.18 Erreur en fonction de
1
. La valeur optimale est ici obtenue pour
2
= 0.005.
2.5 2 1.5 1 0.5 0 0.5 1 1.5 2
0.8
1
1.2
1.4
1.6
1.8
2
2.2
2.4
2.6
2.8
alpha2 (log)
E
r
r
e
u
r
L
2
(
lo
g
)
Fig. 2.19 Erreur en fonction de
2
. On a xe
1
= 0.05. On observe que lorsque
2
devient
trop grand, on seloigne de la solution reelle : les contraintes sont trop fortes.
Decompositions enti`eres
Jusqu`a present, on ne sest interesse qu`a la premi`ere IMF : pourtant, cette approche per-
met une decomposition enti`ere, de meme que lEMD originale. On va ici eectuer plusieurs
decompositions, en comparant avec les resultats donnes par lEMD. Pour chaque exemple, on
donnera lindice dorthogonalite de la decomposition, et on pourra juger qualitativement du
resultat.
Dans ces decompositions, on na eectue quune iteration de lalgorithme, ce qui resout le
probl`eme de convergence. Pour le signal-test 2 (FIG. 2.20), on observe qualitativement que les
modes sont bien separes. Cependant, deux sinus en opposition de phase se creent sur les modes
3 et 4 ; Cela peut provenir des conditions periodiques que lon continue dimposer.
Test sur du bruit
On reprend le test sur un bruit blanc Gaussien : la gure 2.21 montre la decomposition de
ce bruit, et compare le resultat avec celui donne par lEMD standard. On remarque que notre
approche cree plus de modes. De plus, lindice dorthogonalite est leg`erement superieur : 0.074
contre 0.051 pour lEMD standard. Enn, on observe des artefacts, crees notamment par la
condition aux limites periodique.
Cependant, cette decomposition montre que notre methode reagit remarquablement bien :
en reglant plus nement les param`etres, il est s urement possible de lameliorer, pour obtenir une
decomposition de qualite comparable `a lEMD originale.
39
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
5
0
5
Signal original
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2
0
2
IMF 1 : 4 iterations
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
1
0
1
IMF 2 : 4 iterations
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
1
0
1
IMF 3 : 4 iterations
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.5
0
0.5
IMF 4 : 4 iterations
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.2
0
0.2
Residu
Fig. 2.20 Decomposition modale par optimisation quadratique sous contraintes, pour le signal-
test 2. Lindice dorthogonalite vaut 0.0359, contre 0.0385 pour lEMD standard. On se reportera
`a la gure 1.7 pour une comparaison.
40
0.2 0.3 0.4 0.5 0.6 0.7 0.8
5
0
5
Signal original
0.2 0.3 0.4 0.5 0.6 0.7 0.8
5
0
5
IMF 1
0.2 0.3 0.4 0.5 0.6 0.7 0.8
2
0
2
IMF 2
0.2 0.3 0.4 0.5 0.6 0.7 0.8
1
0
1
IMF 3
0.2 0.3 0.4 0.5 0.6 0.7 0.8
1
0
1
IMF 4
0.2 0.3 0.4 0.5 0.6 0.7 0.8
0.5
0
0.5
IMF 5
0.2 0.3 0.4 0.5 0.6 0.7 0.8
5
0
5
Signal original
0.2 0.3 0.4 0.5 0.6 0.7 0.8
5
0
5
IMF 1 : 9 iterations
0.2 0.3 0.4 0.5 0.6 0.7 0.8
2
0
2
IMF 2 : 16 iterations
0.2 0.3 0.4 0.5 0.6 0.7 0.8
1
0
1
IMF 3 : 9 iterations
0.2 0.3 0.4 0.5 0.6 0.7 0.8
1
0
1
IMF 4 : 11 iterations
0.2 0.3 0.4 0.5 0.6 0.7 0.8
0.5
0
0.5
IMF 5 : 10 iterations
Fig. 2.21 EMD dun bruit blanc gaussien. A gauche, methode par optimisation. A droite,
methode standard.
41
Conclusion
Bilan
Dans ce travail, on a pu explorer dierentes approches alternatives pour la decomposition
modale empirique. Le choix dapproches par optimisation sest impose assez vite : cest une for-
mulation assez intuitive et simple `a mettre en oeuvre. Pour egaler le Sifting Process en pratique,
on a du complexier les idees originelles, perdant ainsi en clarte et en formalisme.
La premi`ere tentaive a permis dexplorer assez exhaustivement la notion de moyenne locale
integrale denie par lechelle des extrema. On a vu ainsi un algorithme qui extrait les modes
de moyenne locale integrale nulle. Mais, malgre tous nos eorts, ce crit`ere est reste trop
contraignant pour une decomposition aussi generaliste que lEMD.
Aussi dans une seconde partie, on a pu mettre en oeuvre lapproche par optimisation sous
contrainte en changeant la denition de lenveloppe moyenne pour se rapprocher de celle de
lEMD standard. Cette tentative a eu plus de succ`es, et a permis detudier en detail le role de
la symetrie des enveloppes.
Enn, meme si notre methode est plus co uteuse et donne des resultats experimentaux sen-
siblement moins bons, elle a le merite dorir un formalisme dans lequel la convergence est plus
aisee `a demontrer. De plus, parmi toutes les variantes de lEMD, cest une des rares approches
qui peut etre utilisee sur des signaux reels.
Perspectives
La deuxi`eme approche presentee dans ce rapport a ete elaboree peu avant la redaction, et
na pu etre autant etudiee que la premi`ere. Durant la n de ce stage, on essaiera de nir cette
etude, notamment concernant le choix de lebauche et des points de la subdivision.
Dans une vision plus generale, il faudrait aussi sinteresser `a des methodes de selection de
points optimaux, qui permettraient deectuer la decomposition en une ou deux iterations, tout
en tenant compte des echelles cachees qui ne creent pas dextrema. Enn, certaines theories
comme le Lifting Scheme ([12]), fortement liees `a lEMD, meriteraient une etude approfondie.
Ce sera peut-etre une partie dun futur travail de th`ese.
42
Bibliographie
[1] N.E. Huang, Z. Shen, S.R. Long, M.C. Wu, H.H. Shih, Q. Zheng, N.C. Yen, C.C. Tung, and
H.H. Liu. The empirical mode decomposition and the Hilbert spectrum for nonlinear and
non-stationary time series analysis. Proceedings : Mathematical, Physical and Engineering
Sciences, 454(1971) :903995, 1998.
[2] Gabriel Rilling. Decompositions Modales Empiriques. Contributions ` a la theorie, lalgorith-
mie et lanalyse de performances. PhD thesis, ENS Lyon, 2007.
[3] R.C. Sharpley and V. Vatchev. Analysis of the intrinsic mode functions. Constructive
Approximation, 24(1) :1747, 2006.
[4] G. Rilling, P. Flandrin, and P. Gon calv`es. On empirical mode decomposition and its algo-
rithms. In IEEE-EURASIP workshop on nonlinear signal and image processing NSIP-03,
Grado (I), 2003.
[5] P. Flandrin, G. Rilling, and P. Goncalves. Empirical mode decomposition as a lter bank.
IEEE signal processing letters, 11(2) :112114, 2004.
[6] S. Meignen and V. Perrier. A new formulation for empirical mode decomposition based on
constrained optimization. IEEE Signal Processing Letters, 14(12) :932935, 2007.
[7] E. Delechelle, J. Lemoine, and O. Niang. Empirical mode decomposition : an analytical
approach for sifting process. IEEE Signal Processing Letters, 12(11) :764767, 2005.
[8] S.D. El Hadji, R. Alexandre, and AO Boudraa. Analysis of Intrinsic Mode Functions : A
PDE Approach. IEEE SIGNAL PROCESSING LETTERS, 17(4), 2010.
[9] H. Hong, X. Wang, and Z. Tao. Local Integral Mean-Based Sifting for Empirical Mode
Decomposition. IEEE Signal Processing Letters, 16(10) :841, 2009.
[10] S. Peng and W.L. Hwang. Adaptive signal decomposition based on local narrow band
signals. IEEE Transactions on Signal Processing, 56(7 Part 1) :26692676, 2008.
[11] Q. Chen, N. Huang, S. Riemenschneider, and Y. Xu. A B-spline approach for empirical
mode decompositions. Advances in Computational Mathematics, 24(1) :171195, 2006.
[12] W. Sweldens. The lifting scheme : A construction of second generation wavelets. 1998.
[13] G. Rilling and P. Flandrin. One or two frequencies ? The empirical mode decomposition
answers. IEEE Transactions on Signal Processing, 56(1) :8595, 2008.
[14] S. Mallat. Une exploration des signaux en ondelettes. Editions Ecole Polytechnique, 2000.
[15] H. Prautzsch, W. Boehm, and M. Paluszny. Bezier and B-spline techniques. Springer Verlag,
2002.
43