Académique Documents
Professionnel Documents
Culture Documents
Résumé— la fusion d’images consiste à combiner des images pectrales. Dans cette section, nous présentons le principe
de différentes sources afin de synthétiser de nouvelles images d’outils mathématiques que nous allons exploiter par la
plus riche en information. Plusieurs méthodes de fusion ont été suite pour la fusion.
développées pour l’amélioration de la résolution spatiale des
Ces outils sont la pyramide morphologique la transformée
images multispectrales. Dans cette article, nous présentons des
méthodes de fusion d’images en exploitant la pyramide mor- en IHS et l’analyse multirésolution associée aux ondelettes.
phologique, la transformée en IHS, l’analyse multirésolution Dans un premier temps nous présentons le principe de la
associée aux ondelettes et la combinaison de la transformée en pyramide morphologique.
IHS et les ondelettes. Les méthodes étudiées et mis en œuvre
sont appliquées sur les images de satellites SPOT représentant A. Pyramide morphologique
la région d’Alger. Les résultats de la fusion sont évalués de
point de vue information spatiale et spectrale. La pyramide morphologique est l’association des algorith-
mes pyramidaux et la morphologie mathématique. Cette
Mots clefs — fusion d’images, analyse multirésolution, trans- méthode nécessite deux étapes [1] :
formée en IHS. La première est la décomposition pyramidale. Elle consiste
à construire une pyramide morphologique telle que la base
de la pyramide soit représentée par l’image haute résolu-
I. INTRODUCTION tion. Les images des différents niveaux sont les approxima-
tions de l’image originale obtenues en utilisant des opéra-
La plupart des satellites d’observation de la terre fournis- teurs morphologiques et des algorithmes d’échantillonnage.
sent des images de différentes résolutions spatiales, spectra- Une deuxième pyramide est générée, elle est appelée pyra-
les et temporelles. Afin de mieux exploiter ces données, il mide des détails qui représentent les hautes fréquences cal-
est apparu nécessaire de les fusionner. La fusion de données culées à partir des images de deux niveaux successifs.
est un ensemble de techniques, d’outils et de moyens utili- La deuxième étape est la recomposition pyramidale. Elle
sées afin d’avoir de nouvelles images plus riche en informa- permet d’avoir l’image originale.
tion. La fusion de données peut être exécutée à trois ni- ¾ Principe de décomposition
veaux différents à savoir le niveau pixel, le niveau caracté- Le principe de décomposition consiste en une itération
ristiques et le niveau décision. d’une transformation qui permet le passage d’un niveau de
Dans le but d’améliorer la résolution spatiale des images pyramide à un autre (de la base de la pyramide vers le som-
multispectrales, plusieurs méthodes de fusion aux niveaux met). Cette transformation est composée d’un filtre morpho-
pixels et caractéristiques ont été développées dans la littéra- logique et d’un algorithme de sous échantillonnage afin de
ture [1]. Dans cet article, nous présentons les techniques de réduire la taille de l’image.
fusion d’images en exploitant les outils suivants ; la trans- Le passage à un niveau supérieur se fait en réalisant les qua-
formée en IHS (Intensity, Hue and Saturation), l’analyse tre étapes suivantes :
multirésolution associée aux ondelettes, la combinaison de - application d’un filtrage morphologique ;
la transformée en IHS et les ondelettes et la pyramide mor- - calcul de la différence entre l’image initiale et l’image fil-
phologique. trée ;
Pour tester et évaluer les résultats de la fusion, nous avons - application d’un algorithme de sous échantillonnage ;
utilisé les images de satellite SPOT (une image de haute ré- - calcul de la différence entre l’image avant et après échna-
solution spatiale et trois images multispectrales de faible tillonnage.
résolution). Puis nous avons comparé les images synthéti- • Filtrage
sées avec les images originales en utilisant des paramètres Cette étape consiste à appliquer un filtre morphologique sur
l’image originale Ι (x k , y l ) où :
statistiques (évaluation spatiale et spectrale) et un deuxième i
type d’évaluation visuelle en utilisant la composition colo- i est l’indice de l’image originale,
rée. (x k , yl) est l’indice du pixel sur la grille de l’image,
k et l sont respectivement le nombre de lignes et de colon-
II. OUTILS MATHEMATIQUES nes.
Cette opération est donnée par :
Plusieurs méthodes de fusion ont été testées pour
IF i (x ki , y li ) = FM B , i (I i (x ki , y li )) (1)
l’amélioration de la résolution spatiale des images multis-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
Où : B. Transformée en IHS
IF i est l’image filtrée de Ii au niveau i ; La transformée en IHS permet le passage de l’espace de
FM est le filtre morphologique ; couleur RVB (Rouge, vert et bleu) vers l’espace IHS (In-
B est l’élément structurant associé au filtre morphologique. tensité, Teinte et Saturation). Elle donne la possibilité de
• Calcul des détails dus au filtrage séparer l’information spatiale dans l’image intensité et
Après l’opération de filtrage, quelques structures de l’image l’information spectrale dans les images teinte et saturation.
originale n’apparaissent pas dans l’image filtrée. Cette par- Nous avons effectué plusieurs tests avec les différents mo-
tie, séparée de l’image initiale, est la composante haute fré-
dèles de la transformée en IHS et nous avons constaté que
quence éliminée par le filtrage et qui représente les détails.
le modèle triangulaire donne des meilleurs résultats par rap-
Les deux équations suivantes permettent le calcul des dé-
port aux autres modèles. Ce modèle est donné par les for-
tails répartis en Dsup, filtre, i et Dinf, filtre, i au niveau i :
mules suivantes [2]:
D sup, filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) } − IFi (X ki , Y li ) 1
I = I′ (6)
(2) 3
I′ = R + G + B
D inf,filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) }− Ii (X ki , Y li ) G − 3B I′ − 3B
H= , S= , si B est minimum
(3) I′ − 3B I′
B−R I′ − 3R
∀ X ki ∈ [1,..., ki], ∀ Y li ∈ [1,..., li] H= + 1, S = , si R est minimum
I′ − 3R I′
Où : R −G I ′ − 3G
Dsup,filtre,i correspond aux zones plus claires sur l’image H= + 2, S = , si G est minimum (7)
I ′ − 3G I′
initiale que sur l’image filtrée, La transformée inverse est donnée par :
Dinf, filtre,i correspond aux zones plus sombres sur l’image ⎧ 1
⎪R = 3 I′(1 + 2S − 3SH )
initiale que sur l’image filtrée. ⎪
• Sous échantillonnage ⎪ 1 Lorsque B est minimum (8)
⎨G = I′(1 − S + 3SH )
Le sous échantillonnage est appliqué sur l’image filtrée. Il ⎪ 3
⎪ 1
⎪B = 3 I′(1 − S)
permet de réduire la taille de l’image en allant d’un niveau
de la pyramide à un niveau supérieur. ⎩
Le sous échantillonnage dépend de deux paramètres qui ⎧ 1
sont : ⎪R = 3 I′(1 − S)
⎪
- Le pas de sous échantillonnage ; ⎪ 1 Lorsque R est minimum (9)
- L’algorithme de sous échantillonnage. ⎨G = I′(1 + 5S − 3SH )
⎪ 3
Après l’opération de sous échantillonnage, nous calculons ⎪ 1
les détails dus à cette opération. ⎪B = 3 I′(1 − 4S + 3SH )
⎩
• Détail dus au sous échantillonnage ⎧ 1
Pour ne pas perdre d’informations lors de la décomposition, ⎪R = 3 I′(1 − 7S + 3SH )
il est nécessaire de calculer les détails dus au sous échantil- ⎪
⎪ 1 Lorsque G est minimum (10)
lonnage. Ces détails sont calculés par la différence entre ⎨G = I′(1 − S)
⎪ 3
l’image avant et après sous échantillonnage, c'est-à-dire en-
⎪ 1
tre l’image filtrée et l’image sous échantillonnée. ⎪B = 3 I′(1 + 8S − 3SH )
Après avoir interpolé l’image sous échantillonnée à la ⎩
même taille que celle de l’image filtrée, on calcule deux Après avoir donné le principe de la transformée en IHS,
images de détails avec les équations suivantes : nous allons présenter les étapes de l’analyse multirésolution
Dsup, deci, i (x ki , yli) = sup[IFi (x ki , yli), Ii +1, int (x ki , yli)] − Ii +1, int(x ki , yli) associés aux ondelettes.
(4) C. Analyse multirésolution associé aux ondelettes
Dinf, deci, i (X ki , y li) = sup[IFi (x ki , y li), Ii + 1, int (x ki , yli)] − IFi (x ki , yli)
(5) La transformée en ondelettes est un outil mathématique qui
∀ x ki ∈[1,..., ki], ∀ y li ∈[1,..., li] détecte les caractéristiques locales dans le traitement du si-
¾ Principe de la recomposition gnal. Elle également utilisée dans la décomposition des si-
La recomposition de la pyramide morphologique est basée gnaux bidimensionnels (image numérique) à différents ni-
sur l’itération de deux opérations de base : veaux de résolutions [3], [4], [5] et [6]. Les coefficients (dé-
- Sur échantillonnage ; tails) de la transformée en ondelettes discrète sont calcu-
- Ajout des détails. lés par l’utilisation d’une série de filtre passe bas h, filtre
Après avoir présenté le principe de la pyramide morpholo- passe haut g, et un sous échantillonnage des lignes et colon-
gique. Nous allons donner le principe de la transformée en nes.
IHS. Le processus de décomposition par les ondelettes est appli-
qué sur une image de niveau j pour donner une image de
basse fréquence (approximation) et trois images des hautes
fréquences (les détails dans les directions verticales, hori-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
MS1 S PAN
MS2 IHS T
MS 3 I
Histogramme spécifié
PAN2
Décomposition en Ondelettes
LH’ LL’
LHp LLp
Substitution
HH’ HL’
HHp HLp
LHp LL’
IHS Inverse
HHp HLp
Bande N
Ondelettes inverse
Bande 2
Bande 1
I’
Fig.3 Schéma de fusion d’images par la combinaison de la transformée en IHS et les ondelettes
nombre de niveaux de la pyramide morphologique est don-
D. Fusion d’images par la pyramide morphologique né par le rapport des résolutions entre l’image haute résolu-
Nous nous sommes inspirés des travaux de F. Lapoterie [8], tion spatiale et l’image de basse résolution ainsi que le pas
pour étudier et mettre en œuvre les algorithmes de fusion de sous échantillonnage.
d’images par la pyramide morphologique. Le principe de Le processus de recomposition permet de synthétiser
cette méthode est schématisé par la figure (4). l’image multispectrale à haute résolution spatiale, nous ap-
Le principe de cette méthode consiste à appliquer le proces- pliquons une interpolation de l’image basse résolution (mul-
sus de décomposition sur l’image haute résolution spatiale tispectrale) et un ajout de détails calculés lors de la décom-
pour séparer les hautes fréquences qui représentent les ima- position de l’image haute résolution.
ges de détails des différents niveaux de la pyramide des Une fois les images multispectrales sont synthétisées à la
basses fréquences représentées par les approximations de haute résolution spatiale disponible. La prochaine étape
l’image d’entrée. consiste à tester et à évaluer les différentes méthodes de fu-
sion d’images citées antérieurement.
Image Haute
Résolution
Spatiale Image Fusionnée
IV. EVALUATION DES RESULTATS DE FUSION
6. a. Composition colorée des 6. b. Composition colorée des 6. c. Composition colorée des 6. d. Composition colorée des
images synthétisées avec la trans- images synthétisées avec les onde- images synthétisées avec la trans- images synthétisées avec la pyra-
formée en IHS lettes formée en IHS et les ondelettes mide morphologique
6. e. Zoom d’une région de la 6. f. Zoom d’une région de la 6. g. Zoom d’une région de la 6. h. Zoom d’une région de la
composition colorée des images composition colorée des images composition colorée des images composition colorée des images
synthétisées avec la transformée synthétisées avec les ondelettes synthétisées avec la combinaison synthétisées avec la pyramide
en IHS de la transformée en IHS et les morphologique
ondelettes
Fig.6 Résultats de fusion avec les différentes méthodes
l’utilisant les ondelettes. Donc la fusion d’images par
L’utilisation de la pyramide morphologique permet à la fois l’analyse multirésolution associée aux ondelettes permet de
d’introduire l’information spatiale et de conserver conserver l’information spatiale.
l’information spectrale. Les valeurs données dans le tableau suivant représentent les
résultats des coefficients de corrélation entre les hautes fré-
C. Evaluation quantitative quences de l’image panchromatique et les hautes fréquences
Dans le tableau suivant, nous présentons les valeurs des pa- des images fusionnées.
ramètres statistiques de l’évaluation spectrale. XS1 XS2 XS3
IHS 98,055 % 96,960 % 96,118 %
XS1 XS2 XS3
Ondelettes 8,753 % 10,423 % 6,117 %
CC 96,124 % 95,968 % 36,388 %
HIS Combinaison 14,224 % 12,198 % 6,821 %
RASE 24,818
Pyramide morpho-
ERGAS 10,999 92,866 % 94,328 % 88,607 %
logique
CC 86,559 % 82.434 % 79,835 %
Tab. 3 Evaluation de l’information spatiale
Ondelettes RASE 3,777
ERGAS 1,771 Nous remarquons que les meilleurs valeurs de coefficient de
CC 87,838 % 89,905 % 83,472 % corrélation (proches de 100 % ou de 1) sont obtenues lors
Combinaison RASE 22,981 de l’utilisation de transformée en IHS. Donc cette méthode
ERGAS 10,202 converse mieux l’information spatiale lors de processus de
CC 92,043 % 86,073 % 84,729 %
Pyramide mor- fusion d’images.
RASE 3,488
phologique
ERGAS 1.652
Tab. 2 Evaluation de l’information spectrale des images synthétisées V. CONCLUSION
Dans le tableau (Tab. 2), nous avons présenté deux types de
paramètre statistique. Le premier est le coefficient de corré- Dans cet article nous avons présenté et comparé des métho-
des de fusion d’images satellitaires en exploitant la trans-
lation qui est calculé pour chaque bande. L’utilisation de ce
formée en IHS, l’analyse multirésolution associée aux onde-
paramètre pour comparer chaque image synthétisée par rap-
lettes, la combinaison de la transformée en IHS et les onde-
port à l’image originale, nous permet de constater que lettes et la pyramide morphologique. Nous avons remarqué
l’utilisation de la transformée en IHS donne des résultats que l’utilisation de la méthode basée sur la transformée en
encourageants pour les bandes 1 et 2 (XS1 et XS2), cepen- IHS introduit mieux l’information spatiale cependant
dant la combinaison de la transformée en IHS et les ondelet- l’information spectrale n’est pas bien préservée.
tes donne de meilleur résultat pour la bande 3 (XS3). L’utilisation de cette méthode IHS est limitée à trois (03)
Le deuxième type de paramètre statistique contient le RASE images en entrée. Les méthodes de fusion par les ondelettes
et l’ERGAS. Ces deux paramètres permettent d’évaluer et la combinaison ondelettes et IHS conservent
l’ensemble des bandes. Nous remarquons que les valeurs du l’information spectrale, mais introduisent moins
RASE et de l’ERGAS obtenues sont meilleurs lors de l’information spatiale. La méthode basée sur l’analyse mul-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
VI. REFERENCES
[1] F. Laporterie, G. Flouzat & O. Amram, “Mathematical morphology
multi-level analysis of trees patterns in savannas”, IEEE In : IGARSS,
Sydney, Australia, 2001.
[2] Y. Zhang & G. Hong, “An IHS and wavelet integrated approach to
improve pan-sharpening visual quality of natural colour IKONOS and
QuickBird images,” Information Fusion 6, 2005, 225-234.
[3] S. G. Mallat, “A theory for multirésolution signal decomposition the
wavelet representation”, Comm. Pure Appl. Math, vol 41, 1988, 674-
693.
[4] L. Wald & T. Ranchin “The ARSIS concept in image fusion : an an-
swer to users needs”, IEEE Information fusion ISIF, 2003, 168-173.
[5] J. Nunez, X. Otazu, O. Fors, A. Prades, V. Pala & R. Arbiol, “Mul-
tiresolution-based image fusion with additive wavelet decomposi-
tion’’, IEEE Transactions on Geoscience and Remote Sensing, vol.
37, no. 3, May 1999, 1204- 1211.
[6] S. Mallat, “Wavelets for a vision”, Proceedings of the IEEE, vol. 84,
no. 4, April, 1996, 604- 614.
[7] H. Ma, C. Jia & S. Liu, ‘’ Multisource image fusion based on wavelet
transform’’, International journal of information technology, vol. 11,
no. 7, 2005, 18- 91.
[8] F. Laporterie & G. Flouzat, “Fusion de données multirésolution et
multitemporelle par la pyramide morphologique. Application a la fu-
sion SPOT 4 HRVIR/ Végétation” Bulletin SFPT, no 168, 2003, 64-
72.
[9] L. Wald, “ Data fusion definitions and architectures, fusion of im-
ages of different spatial resolution”, Ecole des Mines de Paris, ISBN:
2-911762-38-x, 2002, 198 p.
[10] Y. Zhang, “A new merging method and its spectral and spatial ef-
fects”, Int. J. Remote Sens., vol 20, May 1999, 2003-2014.