Vous êtes sur la page 1sur 7

Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009

Etude comparative de méthodes de fusion d’images satellitaires


S. Massout 1, N. Habili, W. Kettab, N. Ouarab, Y. Smara2

Laboratoire de Traitement d’Images et Rayonnement, Faculté d’Électronique et d’Informatique


Université des Sciences et de la Technologie Houari Boumediene
BP 32 El-Alia Bab Ezzouar, 16111 Alger Algérie
1
af_samia@yahoo.fr.
2
yousmara@yahoo.com.

Résumé— la fusion d’images consiste à combiner des images pectrales. Dans cette section, nous présentons le principe
de différentes sources afin de synthétiser de nouvelles images d’outils mathématiques que nous allons exploiter par la
plus riche en information. Plusieurs méthodes de fusion ont été suite pour la fusion.
développées pour l’amélioration de la résolution spatiale des
Ces outils sont la pyramide morphologique la transformée
images multispectrales. Dans cette article, nous présentons des
méthodes de fusion d’images en exploitant la pyramide mor- en IHS et l’analyse multirésolution associée aux ondelettes.
phologique, la transformée en IHS, l’analyse multirésolution Dans un premier temps nous présentons le principe de la
associée aux ondelettes et la combinaison de la transformée en pyramide morphologique.
IHS et les ondelettes. Les méthodes étudiées et mis en œuvre
sont appliquées sur les images de satellites SPOT représentant A. Pyramide morphologique
la région d’Alger. Les résultats de la fusion sont évalués de
point de vue information spatiale et spectrale. La pyramide morphologique est l’association des algorith-
mes pyramidaux et la morphologie mathématique. Cette
Mots clefs — fusion d’images, analyse multirésolution, trans- méthode nécessite deux étapes [1] :
formée en IHS. La première est la décomposition pyramidale. Elle consiste
à construire une pyramide morphologique telle que la base
de la pyramide soit représentée par l’image haute résolu-
I. INTRODUCTION tion. Les images des différents niveaux sont les approxima-
tions de l’image originale obtenues en utilisant des opéra-
La plupart des satellites d’observation de la terre fournis- teurs morphologiques et des algorithmes d’échantillonnage.
sent des images de différentes résolutions spatiales, spectra- Une deuxième pyramide est générée, elle est appelée pyra-
les et temporelles. Afin de mieux exploiter ces données, il mide des détails qui représentent les hautes fréquences cal-
est apparu nécessaire de les fusionner. La fusion de données culées à partir des images de deux niveaux successifs.
est un ensemble de techniques, d’outils et de moyens utili- La deuxième étape est la recomposition pyramidale. Elle
sées afin d’avoir de nouvelles images plus riche en informa- permet d’avoir l’image originale.
tion. La fusion de données peut être exécutée à trois ni- ¾ Principe de décomposition
veaux différents à savoir le niveau pixel, le niveau caracté- Le principe de décomposition consiste en une itération
ristiques et le niveau décision. d’une transformation qui permet le passage d’un niveau de
Dans le but d’améliorer la résolution spatiale des images pyramide à un autre (de la base de la pyramide vers le som-
multispectrales, plusieurs méthodes de fusion aux niveaux met). Cette transformation est composée d’un filtre morpho-
pixels et caractéristiques ont été développées dans la littéra- logique et d’un algorithme de sous échantillonnage afin de
ture [1]. Dans cet article, nous présentons les techniques de réduire la taille de l’image.
fusion d’images en exploitant les outils suivants ; la trans- Le passage à un niveau supérieur se fait en réalisant les qua-
formée en IHS (Intensity, Hue and Saturation), l’analyse tre étapes suivantes :
multirésolution associée aux ondelettes, la combinaison de - application d’un filtrage morphologique ;
la transformée en IHS et les ondelettes et la pyramide mor- - calcul de la différence entre l’image initiale et l’image fil-
phologique. trée ;
Pour tester et évaluer les résultats de la fusion, nous avons - application d’un algorithme de sous échantillonnage ;
utilisé les images de satellite SPOT (une image de haute ré- - calcul de la différence entre l’image avant et après échna-
solution spatiale et trois images multispectrales de faible tillonnage.
résolution). Puis nous avons comparé les images synthéti- • Filtrage
sées avec les images originales en utilisant des paramètres Cette étape consiste à appliquer un filtre morphologique sur
l’image originale Ι (x k , y l ) où :
statistiques (évaluation spatiale et spectrale) et un deuxième i
type d’évaluation visuelle en utilisant la composition colo- i est l’indice de l’image originale,
rée. (x k , yl) est l’indice du pixel sur la grille de l’image,
k et l sont respectivement le nombre de lignes et de colon-
II. OUTILS MATHEMATIQUES nes.
Cette opération est donnée par :
Plusieurs méthodes de fusion ont été testées pour
IF i (x ki , y li ) = FM B , i (I i (x ki , y li )) (1)
l’amélioration de la résolution spatiale des images multis-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009

Où : B. Transformée en IHS
IF i est l’image filtrée de Ii au niveau i ; La transformée en IHS permet le passage de l’espace de
FM est le filtre morphologique ; couleur RVB (Rouge, vert et bleu) vers l’espace IHS (In-
B est l’élément structurant associé au filtre morphologique. tensité, Teinte et Saturation). Elle donne la possibilité de
• Calcul des détails dus au filtrage séparer l’information spatiale dans l’image intensité et
Après l’opération de filtrage, quelques structures de l’image l’information spectrale dans les images teinte et saturation.
originale n’apparaissent pas dans l’image filtrée. Cette par- Nous avons effectué plusieurs tests avec les différents mo-
tie, séparée de l’image initiale, est la composante haute fré-
dèles de la transformée en IHS et nous avons constaté que
quence éliminée par le filtrage et qui représente les détails.
le modèle triangulaire donne des meilleurs résultats par rap-
Les deux équations suivantes permettent le calcul des dé-
port aux autres modèles. Ce modèle est donné par les for-
tails répartis en Dsup, filtre, i et Dinf, filtre, i au niveau i :
mules suivantes [2]:
D sup, filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) } − IFi (X ki , Y li ) 1
I = I′ (6)
(2) 3
I′ = R + G + B
D inf,filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) }− Ii (X ki , Y li ) G − 3B I′ − 3B
H= , S= , si B est minimum
(3) I′ − 3B I′
B−R I′ − 3R
∀ X ki ∈ [1,..., ki], ∀ Y li ∈ [1,..., li] H= + 1, S = , si R est minimum
I′ − 3R I′
Où : R −G I ′ − 3G
Dsup,filtre,i correspond aux zones plus claires sur l’image H= + 2, S = , si G est minimum (7)
I ′ − 3G I′
initiale que sur l’image filtrée, La transformée inverse est donnée par :
Dinf, filtre,i correspond aux zones plus sombres sur l’image ⎧ 1
⎪R = 3 I′(1 + 2S − 3SH )
initiale que sur l’image filtrée. ⎪
• Sous échantillonnage ⎪ 1 Lorsque B est minimum (8)
⎨G = I′(1 − S + 3SH )
Le sous échantillonnage est appliqué sur l’image filtrée. Il ⎪ 3
⎪ 1
⎪B = 3 I′(1 − S)
permet de réduire la taille de l’image en allant d’un niveau
de la pyramide à un niveau supérieur. ⎩
Le sous échantillonnage dépend de deux paramètres qui ⎧ 1
sont : ⎪R = 3 I′(1 − S)

- Le pas de sous échantillonnage ; ⎪ 1 Lorsque R est minimum (9)
- L’algorithme de sous échantillonnage. ⎨G = I′(1 + 5S − 3SH )
⎪ 3
Après l’opération de sous échantillonnage, nous calculons ⎪ 1
les détails dus à cette opération. ⎪B = 3 I′(1 − 4S + 3SH )

• Détail dus au sous échantillonnage ⎧ 1
Pour ne pas perdre d’informations lors de la décomposition, ⎪R = 3 I′(1 − 7S + 3SH )
il est nécessaire de calculer les détails dus au sous échantil- ⎪
⎪ 1 Lorsque G est minimum (10)
lonnage. Ces détails sont calculés par la différence entre ⎨G = I′(1 − S)
⎪ 3
l’image avant et après sous échantillonnage, c'est-à-dire en-
⎪ 1
tre l’image filtrée et l’image sous échantillonnée. ⎪B = 3 I′(1 + 8S − 3SH )
Après avoir interpolé l’image sous échantillonnée à la ⎩
même taille que celle de l’image filtrée, on calcule deux Après avoir donné le principe de la transformée en IHS,
images de détails avec les équations suivantes : nous allons présenter les étapes de l’analyse multirésolution
Dsup, deci, i (x ki , yli) = sup[IFi (x ki , yli), Ii +1, int (x ki , yli)] − Ii +1, int(x ki , yli) associés aux ondelettes.
(4) C. Analyse multirésolution associé aux ondelettes
Dinf, deci, i (X ki , y li) = sup[IFi (x ki , y li), Ii + 1, int (x ki , yli)] − IFi (x ki , yli)
(5) La transformée en ondelettes est un outil mathématique qui
∀ x ki ∈[1,..., ki], ∀ y li ∈[1,..., li] détecte les caractéristiques locales dans le traitement du si-
¾ Principe de la recomposition gnal. Elle également utilisée dans la décomposition des si-
La recomposition de la pyramide morphologique est basée gnaux bidimensionnels (image numérique) à différents ni-
sur l’itération de deux opérations de base : veaux de résolutions [3], [4], [5] et [6]. Les coefficients (dé-
- Sur échantillonnage ; tails) de la transformée en ondelettes discrète sont calcu-
- Ajout des détails. lés par l’utilisation d’une série de filtre passe bas h, filtre
Après avoir présenté le principe de la pyramide morpholo- passe haut g, et un sous échantillonnage des lignes et colon-
gique. Nous allons donner le principe de la transformée en nes.
IHS. Le processus de décomposition par les ondelettes est appli-
qué sur une image de niveau j pour donner une image de
basse fréquence (approximation) et trois images des hautes
fréquences (les détails dans les directions verticales, hori-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009

zontales et diagonales). - Spécification de l’histogramme de l’image haute résolu-


En passant d’un niveau j à j+1 la taille de l’image approxi- tion spatial au celui des images multispectrales ;
mation et des images de détails (coefficients) est réduite de - Décomposer de l’image panchromatique en une image
4. d’approximation et trois coefficients d’ondelettes ;
La recomposition permet de retrouver l’image originale à - Remplacer chacune approximation de l’image panchroma-
partir de l’image approximation et des images de détails. tique par l’image multispectrale ;
- La transformée en ondelettes inverse permet de synthétiser
III. TECHNIQUES DE FUSION D’IMAGES les images multispectrale à haute résolution spatiale.

Dans le processus de fusion d’images, les données à combi- AP


Hp
ner doivent représenter la même zone géographique. Avant
d’appliquer le processus de fusion, il est nécessaire de faire Ab
un prétraitement des données. Ce prétraitement consiste en Vp Dp
H
correction radiométrique et géométrique. Une fois la correc-
tion est faite, nous applique la technique de fusion. Dans P Vp Dp
cette partie, nous présentons le principe des quelques mé-
thodes de fusion en utilisant les outils presentes précédem- Ab Hb
ment.

A. Fusion d’image par la transformée en IHS Vb Db


Sur la figure (1), nous présentons le schéma de fusion Band
d’images par la transformée en IHS [2]. Le processus de
fusion par cette méthode est résumé dans les étapes suivan-
tes : Fig.2 Schéma de fusion d’images par les ondelettes
- Reéchantillonnage des images multispectrales à la taille de L’exploitation de la transformée en IHS et l’analyse multi-
l’image haute résolution ;
résolution associé aux ondelettes permet de donner une
- Application de la transformée IHS sur les images multis-
nouvelle méthode de fusion d’images. Cette méthode
pectrales ;
consiste à combiner les deux outils. Le principe de fusion
- Spécification de l’histogramme de l’image haute résolu-
tion par rapport à celui de l’image d’intensité et remplace d’images par cette combinaison est évoqué dans la partie
l’image intensité par l’image de haute résolution ; suivante.
- Application de la transformée en IHS inverse.
C. Fusion d’images par la combinaison de la transformée en
R Pan ‘histo- ondelettes et IHS
I gramme spéci-
B Le processus de fusion par cette méthode est résumé dans
fié
H les points suivants :
V
S H - Reéchantillonnage des images multispectrales à la taille de
S
l’image de haute résolution spatiale ;
- Application de la transformée en IHS sur les images mul-
tispectrales ;
Transformée en IHS - Application de l’analyse multirésolution associée aux on-
R* delettes sur les images de haute résolution (panchromatique
B* et intensité) ;
- Application de la transformée en ondelettes inverse sur
V* l’approximation de l’image intensité et les coefficients
Transformée
en IHS in- d’ondelettes de l’image panchromatique.
verse L’application des méthodes de fusion d’images citées ci-
dessus permet de synthétiser des images multispectrales à
Fig.1 Schéma de fusion d’images par la transformée en IHS
haute résolution comme est illustré dans la figure (3).
Cette méthode présent l’avantage d’introduire l’information
spatiale, mais l’inconvénient de cette méthode de fusion ré-
side dans la limitation du nombre d’images à fusion. Pour
cela, nous présentons une autre méthode de fusion d’images
basée sur les ondelettes.

B. Fusion d’images par les ondelettes


Le schéma de la figure (2) montre le concept de processus
de fusion par les ondelettes. La fusion d’images par cette
méthode s’effectue en respectant les étapes suivantes [7] :
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009

MS1 S PAN
MS2 IHS T

MS 3 I

Histogramme spécifié

PAN2

Décomposition en Ondelettes

LH’ LL’

LHp LLp
Substitution
HH’ HL’

HHp HLp
LHp LL’
IHS Inverse
HHp HLp

Bande N
Ondelettes inverse
Bande 2

Bande 1
I’

Fig.3 Schéma de fusion d’images par la combinaison de la transformée en IHS et les ondelettes
nombre de niveaux de la pyramide morphologique est don-
D. Fusion d’images par la pyramide morphologique né par le rapport des résolutions entre l’image haute résolu-
Nous nous sommes inspirés des travaux de F. Lapoterie [8], tion spatiale et l’image de basse résolution ainsi que le pas
pour étudier et mettre en œuvre les algorithmes de fusion de sous échantillonnage.
d’images par la pyramide morphologique. Le principe de Le processus de recomposition permet de synthétiser
cette méthode est schématisé par la figure (4). l’image multispectrale à haute résolution spatiale, nous ap-
Le principe de cette méthode consiste à appliquer le proces- pliquons une interpolation de l’image basse résolution (mul-
sus de décomposition sur l’image haute résolution spatiale tispectrale) et un ajout de détails calculés lors de la décom-
pour séparer les hautes fréquences qui représentent les ima- position de l’image haute résolution.
ges de détails des différents niveaux de la pyramide des Une fois les images multispectrales sont synthétisées à la
basses fréquences représentées par les approximations de haute résolution spatiale disponible. La prochaine étape
l’image d’entrée. consiste à tester et à évaluer les différentes méthodes de fu-
sion d’images citées antérieurement.
Image Haute
Résolution
Spatiale Image Fusionnée
IV. EVALUATION DES RESULTATS DE FUSION

Décomposition A. Images utilisées


par la Pyramide Calcul des Détails +
Morphologique Pour la mise en œuvre pratique, nous avons exploité les
images prises sur la région d’Alger : une image panchroma-
Image Basse Image Basse tique à haute résolution spatiale et une image multispectrale
Résolution Calculée Résolution à trois bandes (XS1, XS2, XS3) à basse résolution spatiale
par la Pyramide Spatiale (5). Ces images sont issues du capteur HRV du satellite
SPOT et représentent la zone Est de la baie d’Alger (sur une
zone qui couvre la région de Bab-Ezzouar).
Fig.4 Synoptique de fusion d’images par la pyramide morphologique
L’image sur la région d’Alger est constituée d’un milieu
urbain et périurbain et elle est acquise le 01 Avril 1997. La
Le processus de décomposition de l’image haute résolution scène est très structurée et hétérogène.
spatiale est défini par une itération de filtrage (filtre mor- Les caractéristiques (résolutions spectrales, spatiales et di-
phologique) et d’un algorithme de sous échantillonnage. Le
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009

mensions en pixels) de ces images sont données dans le ta- 100 1 N 2


bleau ( 1). RASE = ∑ RMSE (Bi ) (12)
M N i =1
Dans la formule de RASE, M est la moyenne radiance des
N bandes spectrales ( Bi ) des bandes MS originales. Une
faible valeur de RASE indique une conservation de
l’information spectrale.
- Paramètre ERGAS
Erreur relative globale dimensionnelle dans la synthèse (Re-
lative Dimensionless Global Error in Synthesis) permet de
calculer la distorsion (déformation) spectrale dans l’image.
Il est donné par la formule suivante :
h 1 N ⎡ (RMSE (B k ))2 ⎤
ERGAS = 100 ∑⎢ ⎥ (13)
l N k =1 ⎢⎣ (M k )2 ⎥⎦
5. a. Image panchromatique originale Où :
h est le rapport entre la taille de pixel de l’image pan-
l
chromatique et de l’image multispectrale,
N est le nombre de bandes.
Plus la valeur de l’ERGAS est proche de zéro plus il y a
conservation de l’information spectrale.
Pour évaluer la qualité spatiale des images fusionnées, nous
comparons les hautes fréquences de l’image panchromati-
que et les hautes fréquences de chacune des images fusion-
nées. Pour cela, nous utilisant la méthode proposée par
5. b. Composition colorée des images XS originales
Fig.5 Images d’Alger (SPOT) Zhou en 1999 [10]. Pour l’extraction des données hautes
fréquences, nous appliquons le mask de convolution pour
Bandes spec- Résolutions Dimensions l’image :
trales spatiales (pixels) ⎡− 1 − 1 − 1⎤
mask = ⎢⎢− 1 8 − 1⎥⎥
Panchromatique 0.51-0.73 μm 10 m 660×660
XS1 0.51-0.59 μm 20 m 330×330
(14)
XS2 0.61-0.68 μm 20 m 330×330 ⎣⎢− 1 − 1 − 1⎦⎥
XS3 0.79-0.89 μm 20 m 330×330
Tab. 1. Caractéristiques des images d’Alger Nous comparons les résultats des images filtrées, en utili-
sant un coefficient de corrélation entre les hautes fréquen-
- Paramètres d’évaluation
ces de l’image panchromatique et celle de l’image fusion-
Pour l’évaluation de la qualité spectrale des images synthé-
née. Un coefficient de corrélation proche de 1 indique une
tisées, nous utilisons les paramètres suivants : coefficient de
similarité entre les structures de l’image panchromatique et
corrélation, RASE (Relative Average Spectral Error),
ERGAS (Relative Dimensionless Global Error in Synthesis) l’image fusionnée et proche de 0 (zéro) une faible similari-
[9]. té.
- Coefficient de corrélation
B. Evaluation quantitative
Le coefficient de corrélation entre l’image fusionnée et
l’image originale est donné par la formule suivante : Les résultats de fusion d’images en utilisant la transformée
∑ mn (A mn − A )(Bmn − B) en IHS, l’analyse multirésolution associée aux ondelettes, la
CC(A, B) = (11) combinaison des deux méthodes et la pyramide morpholo-
(∑ mn (A mn − A ) 2 )(∑ mn (Bmn − B) 2 ) gique sont présentés dans la figure (6).
Où A et B indiquent les valeurs moyennes de jeu de don- L’aspect visuel de la composition colorée des images syn-
née correspondant, et CC est un calcul global de l’image thétisées nous permet de constater que l’information spa-
entier. Le résultat de cette équation indique la similarité en- tiale est mieux introduite avec la transformée en IHS tout en
tre les petites structures de l’image originale et l’image fu- réduisant la conservation de l’information spectrale puisque
sionnée lorsque le coefficient de corrélation est proche de 1 cette méthode a l’avantage de séparer l’information spatiale
et une faible similarité pour un coefficient de corrélation dans l’image intensité et qui a été remplacée par l’image
proche de 0 (zéro). panchromatique. Cependant, la fusion d’images en exploi-
- Paramètre RASE tant la transformée en ondelettes et la combinaison de la
Ce paramètre estime la qualité spectrale globale des images transformée en IHS et les ondelettes conserve mieux
fusionnées. L’expression de paramètres RASE est donnée l’information spectrale puisque ces méthodes utilisent des
comme suit : filtres linéaires et l’analyse multirésolution.
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009

6. a. Composition colorée des 6. b. Composition colorée des 6. c. Composition colorée des 6. d. Composition colorée des
images synthétisées avec la trans- images synthétisées avec les onde- images synthétisées avec la trans- images synthétisées avec la pyra-
formée en IHS lettes formée en IHS et les ondelettes mide morphologique

6. e. Zoom d’une région de la 6. f. Zoom d’une région de la 6. g. Zoom d’une région de la 6. h. Zoom d’une région de la
composition colorée des images composition colorée des images composition colorée des images composition colorée des images
synthétisées avec la transformée synthétisées avec les ondelettes synthétisées avec la combinaison synthétisées avec la pyramide
en IHS de la transformée en IHS et les morphologique
ondelettes
Fig.6 Résultats de fusion avec les différentes méthodes
l’utilisant les ondelettes. Donc la fusion d’images par
L’utilisation de la pyramide morphologique permet à la fois l’analyse multirésolution associée aux ondelettes permet de
d’introduire l’information spatiale et de conserver conserver l’information spatiale.
l’information spectrale. Les valeurs données dans le tableau suivant représentent les
résultats des coefficients de corrélation entre les hautes fré-
C. Evaluation quantitative quences de l’image panchromatique et les hautes fréquences
Dans le tableau suivant, nous présentons les valeurs des pa- des images fusionnées.
ramètres statistiques de l’évaluation spectrale. XS1 XS2 XS3
IHS 98,055 % 96,960 % 96,118 %
XS1 XS2 XS3
Ondelettes 8,753 % 10,423 % 6,117 %
CC 96,124 % 95,968 % 36,388 %
HIS Combinaison 14,224 % 12,198 % 6,821 %
RASE 24,818
Pyramide morpho-
ERGAS 10,999 92,866 % 94,328 % 88,607 %
logique
CC 86,559 % 82.434 % 79,835 %
Tab. 3 Evaluation de l’information spatiale
Ondelettes RASE 3,777
ERGAS 1,771 Nous remarquons que les meilleurs valeurs de coefficient de
CC 87,838 % 89,905 % 83,472 % corrélation (proches de 100 % ou de 1) sont obtenues lors
Combinaison RASE 22,981 de l’utilisation de transformée en IHS. Donc cette méthode
ERGAS 10,202 converse mieux l’information spatiale lors de processus de
CC 92,043 % 86,073 % 84,729 %
Pyramide mor- fusion d’images.
RASE 3,488
phologique
ERGAS 1.652
Tab. 2 Evaluation de l’information spectrale des images synthétisées V. CONCLUSION
Dans le tableau (Tab. 2), nous avons présenté deux types de
paramètre statistique. Le premier est le coefficient de corré- Dans cet article nous avons présenté et comparé des métho-
des de fusion d’images satellitaires en exploitant la trans-
lation qui est calculé pour chaque bande. L’utilisation de ce
formée en IHS, l’analyse multirésolution associée aux onde-
paramètre pour comparer chaque image synthétisée par rap-
lettes, la combinaison de la transformée en IHS et les onde-
port à l’image originale, nous permet de constater que lettes et la pyramide morphologique. Nous avons remarqué
l’utilisation de la transformée en IHS donne des résultats que l’utilisation de la méthode basée sur la transformée en
encourageants pour les bandes 1 et 2 (XS1 et XS2), cepen- IHS introduit mieux l’information spatiale cependant
dant la combinaison de la transformée en IHS et les ondelet- l’information spectrale n’est pas bien préservée.
tes donne de meilleur résultat pour la bande 3 (XS3). L’utilisation de cette méthode IHS est limitée à trois (03)
Le deuxième type de paramètre statistique contient le RASE images en entrée. Les méthodes de fusion par les ondelettes
et l’ERGAS. Ces deux paramètres permettent d’évaluer et la combinaison ondelettes et IHS conservent
l’ensemble des bandes. Nous remarquons que les valeurs du l’information spectrale, mais introduisent moins
RASE et de l’ERGAS obtenues sont meilleurs lors de l’information spatiale. La méthode basée sur l’analyse mul-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009

tirésolution associée aux ondelettes est limitée au rapport


dyadique entre les images d’entrées. Cependant la méthode
de combinaison est limitée au rapport dyadique et trois ima-
ges en entrée. Puis nous avons appliqué ces méthodes sur
les images du satellite SPOT représentant la région d’Alger.
Pour l’évaluation des résultats de la fusion, nous nous som-
mes basés sur un aspect visuel et statistique.

VI. REFERENCES
[1] F. Laporterie, G. Flouzat & O. Amram, “Mathematical morphology
multi-level analysis of trees patterns in savannas”, IEEE In : IGARSS,
Sydney, Australia, 2001.
[2] Y. Zhang & G. Hong, “An IHS and wavelet integrated approach to
improve pan-sharpening visual quality of natural colour IKONOS and
QuickBird images,” Information Fusion 6, 2005, 225-234.
[3] S. G. Mallat, “A theory for multirésolution signal decomposition the
wavelet representation”, Comm. Pure Appl. Math, vol 41, 1988, 674-
693.
[4] L. Wald & T. Ranchin “The ARSIS concept in image fusion : an an-
swer to users needs”, IEEE Information fusion ISIF, 2003, 168-173.
[5] J. Nunez, X. Otazu, O. Fors, A. Prades, V. Pala & R. Arbiol, “Mul-
tiresolution-based image fusion with additive wavelet decomposi-
tion’’, IEEE Transactions on Geoscience and Remote Sensing, vol.
37, no. 3, May 1999, 1204- 1211.
[6] S. Mallat, “Wavelets for a vision”, Proceedings of the IEEE, vol. 84,
no. 4, April, 1996, 604- 614.
[7] H. Ma, C. Jia & S. Liu, ‘’ Multisource image fusion based on wavelet
transform’’, International journal of information technology, vol. 11,
no. 7, 2005, 18- 91.
[8] F. Laporterie & G. Flouzat, “Fusion de données multirésolution et
multitemporelle par la pyramide morphologique. Application a la fu-
sion SPOT 4 HRVIR/ Végétation” Bulletin SFPT, no 168, 2003, 64-
72.
[9] L. Wald, “ Data fusion definitions and architectures, fusion of im-
ages of different spatial resolution”, Ecole des Mines de Paris, ISBN:
2-911762-38-x, 2002, 198 p.
[10] Y. Zhang, “A new merging method and its spectral and spatial ef-
fects”, Int. J. Remote Sens., vol 20, May 1999, 2003-2014.

Vous aimerez peut-être aussi