P. 1
Theme VoIP, Imagerie Satellitaire

Theme VoIP, Imagerie Satellitaire

|Views: 268|Likes:
Publié pardzcsconf

More info:

Published by: dzcsconf on Mar 06, 2011
Droits d'auteur :Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

02/01/2013

pdf

text

original

ARiPhone

« Augmented Reality iPhone »

Ammar Sidhoum
1
, El-Hadi Soltani
1
et Haroun Djaghloul
2


1
Université Ferhat Abbas Sétif, UFAS
si_amar2000@yahoo.fr

1
Université Ferhat Abbas Sétif, UFAS
yclic_web@yahoo.fr

2
Université Ferhat Abbas Sétif, UFAS
djaghloul@yahoo.fr


Résumé— Cet article présente le domaine de la réalité
augmentée, dans lequel des objets virtuels 3D sont intégrés
dans un environnement réel en temps réel.
L’objectif de notre travail est le développement d’un système
interactif de réalité augmentée, pour cela on a proposé un
combiné augmenté qu’on a désigné par ARiPhone
« Augmented Reality iPhone » qui permet la numérotation
sans utiliser son appareil de téléphone portable.

Mots clés— Réalité augmentée, Marqueurs, ARToolKit,
Reconnaissance des formes, Bluetooth.

Abstract— This paper surveys the field of Augmented Reality,
in which 3D virtual objects are integrated into a 3D real
environment in real time.
The objective of our work is the development of an interactive
augmented reality system, we have proposed an augmented
handset phone that we have designated by ARiPhone
"Augmented Reality iPhone", it allows the composition of
numbers without using the mobile phone.

Key words— Augmented reality, Patterns, ARToolKit, Pattern
recognition, Bluetooth.

I. Introduction

La réalité augmentée est une nouvelle technologie qui
suscite de plus en plus d’intérêt auprès des scientifiques. Sa
capacité d’enrichir le monde réel par l’ajout d’entités
virtuelles lui offre un grand potentiel et ouvre ainsi les
portes à de nouvelles applications. Depuis quelques années,
de nombreux systèmes de réalité augmentée ont vu le jour.
Cependant, dans leur grande majorité, ces systèmes sont
destinés à des environnements intérieurs restreints et
contrôlables qui limites les problèmes souvent rencontrés
en RA (variation de luminosité, gestion des occultations,
alignement 3D, etc.).
Les avancées enregistrées dans le domaine de la vision par
ordinateur et dans l’informatique mobile, ont rendu possible
la mise en œuvre d’applications de RA de plus en plus
complexes.
La réalité augmentée a pour but d’améliorer notre
perception du monde réel par ajout d’éléments qui ne sont
pas a priori perceptibles par l’œil humain.
Dans son état de l’art, Azuma [1] définit la réalité
augmentée comme un système capable de combiner des
images réelles et les images virtuelles, en 3D et en temps
réel, c'est-à-dire que nous devons disposer d’objets virtuels
modélisés en 3D et positionnés dans un repère 3D associé a
la scène. La définition concerne donc principalement les
applications d’immersion où l’utilisateur perçoit des objets
virtuels en même temps que l’environnement réel dans
lequel il évolue.

La réalité augmentée est un système ayant trois
caractéristiques :
• Combine le monde réel et le monde virtuel.
• Interactif en temps réel.
• Calibré en 3D.

II. Travaux connexes

Des recherches antérieures dans la réalité augmentée ont
abordés une variété de domaines d'application, par exemple
le cockpit de l'avion de contrôle [2], l'assistance en
chirurgie médicale [3], la construction d'infrastructures [4],
l'entretien et la réparation [5], les pièces d'assemblage [6] et
d’autre efforts [7], [8], [9], [10].
Notre travail met l'accent sur la combinaison des nouvelles
technologies (PC, téléphone portable, Bluetooth, webcam,
etc.) et la réalité augmentée. Nous décrivons une
application qui utilise un combiné augmenté pour la
composition d’un numéro de téléphone et faire des appels
sans utiliser le téléphone portable.

III. Le suivi d’un organe humain (la main)

Le plus grand problème dans le domaine de RA c’est le
problème suivi, pour ce la on a utilisé des marqueurs carrés,
ce qui rend le travail relativement faisable.

 
Fig.1 Le suivi de la main.
 
 
CNTA ’09 Université A.MIRA BEJAIA
IV. ARiPhone

La multiplication des ordinateurs et la généralisation de
l’utilisation des dispositifs mobiles (Téléphone portable,
PDA …) nous a apporté l’idée de développement de notre
combiné augmenté ARiPhone qui a pour but la
numérotation directe avec le doigt ou n’importe quel objet
sans utilisé l’appareil de son téléphone portable.

Comme tout autre système de réalité augmentée évolue,
ARiPhone nécessite une Webcam, des marqueurs 2D, un
PC et un téléphone portable équipés d’un périphérique
Bluetooth pour assurer la liaison sans fils entre eux et
finalement une oreillette Bluetooth pour faire des
communications. Voici la liste détaillé des exigences de
« ARiPhone » :

• Webcam : indispensable pour un système de
réalité augmentée.
• Marqueurs : ce sont des imprimés sous formes de
carré.
• PC : équipé d’un périphérique Bluetooth pour
gérer le système ainsi que la communication sans
fils avec le téléphone portable.
• Téléphone portable : n’import quel appareil dédié
d’un périphérique Bluetooth.
• Oreillette Bluetooth : pour faire des
communications.

 
Fig.2 Les exigences de « ARiPhone ».

V. Le combiné

Le combiné ARiPhone se constitue de onze (11) marqueurs
différents dont chacun représente un numéro de téléphone,
avec une interface ergonomique très élégante tirée de
l’iPhone l’un des meilleures produits disponible sur le
marché annoncé par Apple.

ARiPhone a une dimension de 16.5 cm x 8.7 cm, en plus de
ça c’est une simple image qu’il faut l’imprimer sur n’import
quel papier et la mettre sous le champ de vue du Webcam
pour laisser le programme correspondant faire son travail et
faire des communication avec son oreillette en toute
sécurité.



 
Fig.3 Le combiné ARiPhone.

Les marqueurs ont une dimension de 2.0 cm x 2.0 cm
comme suivant :

 
Fig.4 Les marqueurs du combiné.

Pour chaque marqueur, un bouton virtuel va le remplacer
une fois le combiné est sous le champ de vue de la webcam
et cela se fait d’une façon ou on voit juste les boutons
virtuels sur le combiné, donc les marqueurs ne sont plus
perceptibles sur l’écran.

 
Fig.5 les boutons virtuels.
CNTA ’09 Université A.MIRA BEJAIA
VI. Fonctionnement de « ARiPhone »

D’abord le chargement des boutons virtuels correspondant a
chaque marqueur s’effectué après la vérification de
l’identificateur de ce dernier, après cela on règle la lumière
et l’éclairage des boutons associés aux différents
marqueurs. Ensuite on active le mode de texture et le point
de vue de l’utilisateur par rapport aux objets, et le placage
du bouton sur le Carré après l’appel d’une fonction qui
charge nos différents objets utilisés.

Ensuite on a introduit le son lors du click pour les boutons
par l’utilisation d’une fonction de la bibliothèque
d’OpenGL, et la capture de la vidéo continue après avoir
redessiné les boutons d’interactions et récupéré le numéro
correspondant dans le presse papier qui sera utilisé comme
intermédiaire pour la numérotation.

Finalement on a apporté des modifications sur le type du
presse papier pour passer au mode texte et récupérer le
numéro composé dans le buffer et l’envoyé au téléphone
portable via Bluetooth pour la numérotation après avoir
vider et fermer le presse papier.

Pour la numérotation via Bluetooth, il faut que le téléphone
portable soit déjà couplé avec le PC et que liaison reste
toujours sur le profile DUN (Dial Up Network) qu’on peut
le choisir facilement dans les options du programme venant
avec le Bluetooth.

VII. Implémentation

L’application a été implémenté et développé avec Microsoft
Visual Studio 2005, avec l’intégration de la bibliothèque de
la réalité augmentée ARToolKit « Augmented Reality
ToolKit » [11].

A. ARToolKit

ARToolKit est une bibliothèque de logiciels écrite en
C/C++ qui permet aux programmeurs de développer
facilement des applications de réalité augmentée qui est la
superposition des images virtuelles sur des images du
monde réel.
L’une des principales difficultés dans la mise au point des
applications de réalité augmentée est le problème de suivi.
ARToolKit utilise des algorithmes de vision par ordinateur
pour résoudre ce problème, le suivi de la bibliothèque de
ARToolKit calcule la véritable position de camera et
l’orientation par rapport à l’intégrité physique des
marqueurs en temps réel, cela permet la facilité de
développement d’applications de réalité augmentée.

B. Principe de fonctionnement de « ARToolKit »

ARToolKit permet à des images virtuelles de se superposer
sur la vidéo en directe du monde réel.

Bien que cela semble magique, il ne l’est pas. Le secret est
dans les carrés noirs utilisés comme marqueurs de suivi, le
suivi d’ARToolKit fonctionne comme suivant :

• L’appareil capture la vidéo du monde réel et
l’envoie à l’ordinateur.
• Le logiciel sur l’ordinateur cherche n’importe
quelle forme de carré.
• Si une place est trouvée, le logiciel utilise des
mathématiques pour calculer la position de la
caméra par rapport au carré noir.
• Une fois la position de caméra est appelée, un
modèle de l’infographie est tiré de cette même
position.
• Ce modèle est tiré au-dessus de la vidéo du monde
réel et semble bloqué sur la place du marqueur.
• Le résultat final est affiché sur l’écran de
l’ordinateur et la superposition de graphique se
voit sur ce dernier.

 
Fig.5 ARToolKit « principe de base ».

VIII. Tests

D’abord il faut imprimer le combiné et le mettre sous le
champ de vu de la Webcam.

 
Fig.6 ARiPhone.

Ensuite activer le périphérique Bluetooth de PC et de
téléphone portable et lancer l’application.

 
Fig.7 ARiPhone augmenté.
CNTA ’09 Université A.MIRA BEJAIA
Ensuite l’appel s’effectuée parfaitement en cliquant sur le
bouton virtuel correspondant.

 
Fig.8 Appel en cours.

IX. Conclusion

Parmi plusieurs technologies actuelles dans la vision par
ordinateur, synthèse d’images et l’interface homme-
machine, la réalité augmentée est vraiment un domaine très
vaste et compliqué mais aussi prometteur.

La réalité augmentée utilise les images de synthèse et les
images tridimensionnelles qui consistent à générer des
images d’un objet ou d’une scène tridimensionnelle à l’aide
d’un algorithme de rendu appliqué à un modèle 3D
construit à l’aide d’un logiciel de modélisation.
Tout au long de ce travail, on a essayé de faire le point sur
tout un ensemble de techniques qui se rapport directement
au plan de la réalité augmenté et les dispositifs mobiles. A
titre d’exemple on a réussi à développer notre propre
système de réalité augmentée qui combine plusieurs
technologies en même temps (PC et téléphone portable
équipés d’un périphérique Bluetooth, Webcam, oreillette
Bluetooth).

La réalité augmentée est un domaine passionnant parce
qu’elle peut faire tout ce qu’on ne peut pas imaginer
auparavant, tout cela devient réaliste avec la réalité
augmentée où les frontières entre le réel et le virtuel sont
effacées.

X. Références

[1] Ronald T. Azuma. A Survey of Augmented reality.
Hughes Research Laboratories.

[2] T. Furness. The super cockpit and its human factors
challenges. In Proc. Human Factors Society 30th Annual
Meeting , pages 48–52, Santa Monica, CA, 1986.

[3] A. State, M. Livingston, W. Garrett, G. Hirota, M.
Whitton, E. Pisano, and H. Fuchs. Technologies for
augmented reality systems: Realizing ultrasound-guided
needle biopsies. In Proc. SIGGRAPH’96, pages 439–446,
New Orleans, LA, August 4–9 1996.
[4] S. Feiner, A. Webster, T. Krueger, B. MacIntyre, and E.
Keller. Architectural anatomy. Presence, 4(3):318–325,
Summer 1995.

[5] S. Feiner, B. MacIntyre, and D. Seligmann. Knowledge-
based augmented reality. Communic. ACM, 36(7):52–62,
July 1993.

[6] T. Caudell and D. Mizell. Augmented reality: An
application of heads-up display technology to manual
manufacturing processes. In Proceedings of the Hawaii Int.
Conf. on Sys. Sci, Hawaii, January 1992.

[7] A. Webster, S. Feiner, B. MacIntyre, W. Massie, and T.
Krueger. Augmented reality in architectural construction,
inspection and renovation. In Proc. ASCE Third Congress
on Computing in Civil Engineering , pages 913–919,
Anaheim, CA, June 17–19 1996.

[8] R. Azuma and G. Bishop. Improving static and dynamic
registration in an optical see-through hmd. In Proc. ACM
SIGGRAPH ’94, pages 197–204, Orlando, FL, July 24–29
1994.

[9]  A. State, G. Hirota, D. Chen, W. Garrett, and M.
Livingston. Superior augmented reality registration by
integrating landmark tracking and magnetic tracking. In
Proc. SIGGRAPH ’96, pages 429–438, New Orleans, LA,
August 4–9 1996.

[10] A. Janin, D. Mizell, and T. Caudell. Calibration of
head-mounted displays for augmented reality applications.
In Proc. IEEE VRAIS’93, pages 246–255, Seattle, WA,
September 18–22 1993.

[11] H. Kato and M. Billinghurst. Marker tracking and hmd
calibration for a video-based augmented reality
conferencing system. In IWAR ’99 : Proceedings of the 2nd
IEEE and ACM International Workshop on Augmented
Reality, page 85, Washington, DC, USA, October 1999.
IEEE Computer Society.

CNTA ’09 Université A.MIRA BEJAIA
EMISSIVITE DE LA REGION DE BEJAIA A PARTIR D’UNE IMAGE
LANDSAT TM 5

e-mail :
Faid Ali
Dpt de Physique, Faculté des Sciences
Exactes,
Université de Bejaia
a_faid@yahoo.fr

Raul Rivas
Dpt Thermodinamica, facultad de fisica,
Burjassot, Valencia
España.

Youcef Smara
Dpt Electronique,
Faculté Informatique et electronique,
Université de Bab Ezzouar

Vicenté Caselles
Dpt Thermodinamica, facultad de fisica,
Burjassot, Valencia,
España.

RESUME /L’obtention de l’émissivité (ε) de la superficie est fondamental pour la
détermination de la température réelle du système, elle est obtenue à partir de la mesure radio
métrique du capteur à bord de satellite ou avion.
Dans ce travail une méthodologie simple pour l’obtention d’une carte émissivité de surface à
partir d’un pourcentage de végétation (P
v
) est utilisée. La valeur de p
v
représente la fraction
de végétation dans un pixel, alors que (1-p
v
Pour la détermination de ce paramètre on utilise l’indice de végétation de différence normalisé
(NDVI) le plus appliqué et plus simple d’utilisation.
) représente lui la fraction de sol nu.
Lorsque les valeurs de p
v
ε = ε
sont obtenues on applique l’équation d’émissivité effective ou du
pixel suivante :
v
* p
v
+ ε
s
* (1-p
v
) + 4*dε * p
v
(1- p
v
Où :
)
ε : Emissivité effective de surface
ε
v
ε
: Emissivité de la végétation
s
dε : terme de cavité, représentant l’erreur
: Emissivité du sol

Pour cela nous avons sélectionné une image landsat TM5 d’hiver représentant 441 Km
2
En fin, on présente la carte émissivité effective des différentes couvertures présentes, ces
valeurs sont comprises entre 0.985 (pour les pixels complètement couverts) et 0.96 (pour les
pixels sols nus).
et
nous lui avons appliqué la méthodologie.

Mot clés : Télédétection, Indice de végétation, émissivité, Température.







CNTA ’09 Université A.MIRA BEJAIA
I. INTRODUCTION :
Le présent travail a comme objectif principal
d’exposer les étapes nécessaires pour
l’obtention d’une carte d’émissivité de
surface.
Pour mesurer la température de surface par
télédétection, le capteur embarqué sur satellite
donne la radiance émise par une superficie
visée est observée dans un rang spectral plus
ou moins complet.
Généralement, la radiance thermique se
mesure dans l’infrarouge thermique dans la
région
8-14 m µ du spectre électromagnétique qui
est la zone où se trouve le maximum
d’émission de la part de la terre.
La mesure radioactive au niveau du satellite
ne correspond pas seulement à celle de la
surface, sinon, pour arriver à obtenir la valeur
de celle-ci, il faudra tenir compte de
l’atmosphère et du caractère émissif de la
surface observée.
Le principe physique régissant l’émission
d’énergie par une surface est la loi de Planck,
qui détermine la radiation monochromatique
émise par un corps noir (considéré comme un
radiateur parfait) en fonction de sa
température.
La plus part des surfaces naturelles émettent
moins d’énergie que le corps noir.
En plus, il est important de tenir compte du
fait que émissivité change spectrale ment.
émissivité est le concept physique qui
représente cette particularité. Elle peut être
définie comme étant la capacité d’un corps à
émettre un rayonnement, à une température
donnée, en relation au corps noir.
Mathématiquement c’est le rapport entre la
radiation émise par une surface à celle
qu’émettrait un corps noir à la même
température selon :
ε=Ls(λ)/L0(λ) 1≥ε≥ 0
L0(λ) :luminance du corps noir
Ls(λ) :luminance d’une surface S
Il est donc fondamental de connaître ce
paramètre pour la détermination de la
température, comme il est aussi nécessaire de
corriger l’image des effets atmosphériques.
Ce présent travail est axé sur l’obtention
d’une carte émissivité de surface.
II. METHODOLOGIE :
Pour la détermination de émissivité de surface
on a sélectionné une image Landsat 5 TM
( avril 87 correspondante au printemps de la
zone Béjaia). Elle couvre donc la partie nord
de la vallée de la Soummam de superficie
presque de 21*21 Km
2
On dispose de sept bandes et des coefficients
de calibration correspondant à chaque bande
excepté la bande 6.
où prévaut à ce
moment une certaine activité agricole.
Ces derniers sont directement fournis dans les
têtes de fichiers de l’image.
En premier lieu on réalise les transformations
des comptes numériques en radiances puis en
réflectances ( ) λ ρ pour chaque bande
spectrale, excepté pour la bande 6. L’équation
linéaire appliquée pour l’obtention de la
radiance est :
L0(λ) = a(λ) CN (λ) + b(λ) (1)
Avec :
L0(λ) : radiance reçue par le capteur ,
a(λ), b(λ) : coefficients de calibration
caractéristiques du capteur et propres à
chaque bande.

Par la suite on transforme les valeurs de
radiances en réflectances au niveau du sol.
Pour cette dernière transformation on
applique l’équation suivante (Gilabert et
al ;1986) :
ρ
s
(λ)=BπL0(λ) /E
o
(λ)cos(θ
0
ρ
) (2)
s
E
(λ) : réflectivité de la surface pour une
longueur d’onde λ
o
θ
(λ) : éclairement au top atmosphère
0
:

angle d’incidence
CNTA ’09 Université A.MIRA BEJAIA
B : facteur d’excentricité de l’orbite solaire
En second lieu on réalise la correction
atmosphérique en appliquant le modèle
nommé de correction de l’histogramme par
valeurs minimales (Chavez ;1988).
Pour ce faire on soustrait les valeurs
minimales des surfaces à forte absorption (
par exemple l’eau) sur la bande 1 ( qui est la
plus affectée par l’effet absorption) au reste
des bandes.
Cette méthode est utilisée pour l’avantage de
requérir seulement l’information contenue
dans l’image.
En troisième lieu on calcule l’indice de
végétation des différences normalisées
(NDVI) pour la zone d’étude, le NDVI qu’on
notera dorénavant par i pour simplifier est
donné par Rouse et al ;1974 (Rouse et al ;
1974) comme suit :
NDVI =
3 4
3 4
ρ ρ
ρ ρ
+

(3)
4 ρ : Réflectance dans le proche infrarouge
3 ρ : Réflectance dans le rouge
Sur la zone que nous étudions on relève le
NDVI minimum et le NDVI maximum,
comme on ressort les parcelles complètement
couvertes de végétation et celles dénudées
afin de déterminer le NDVI du sol nu NDVI
s
et celui de la végétation NDVI
v
et ceci pour
trouver la proportion végétale p
v
On résume cette opération par le tableau ci
dessous :

Table 1 : statistiques correspondantes au
NDVI, NDVI
s
et NDVI

v

Min Max Moy Déviation Parcelle
NDVI 0 0.73 0.35 0.11 Toute
l’image
NDVI 0.09
s
0.13 0.03 0.01 Sols nus
NDVI 0.57
v
0.72 0.61 0.03 Sols
couverts

En quatrième lieu nous déterminons donc le
pourcentage de végétation p
v
On considère que le pixel mixte possède une
proportion végétale p
en supposant
qu’un pixel est mixte ie composé de
végétation et de sol nu (Price 1990).
v
et une proportion du
sol nu (1-p
v
n ρ
) et nous pouvons écrire donc
ceci :
= n ρ p
v
n ρ + (1-p
v

) (4)
n ρ est la réflectance du pixel mesurée
dans la bande n, puis en remplaçant n ρ dans
l’équation donnant le NDVI , on obtient la
proportion végétale à partir de l’équation
suivante :
p
v
) 1 ( ) 1 ( 1
v s s NDVI
NDVI
K
NDVI
NDVI
NDVI
NDVI
− − − − =
(5)
avec :
s s
v v
K
3 4
3 4
ρ ρ
ρ ρ

=

(6)
Où v 4 ρ et s 4 ρ sont les réflectances dan le
proche infrarouge de la végétation et du sol et
v 3 ρ
et s 3 ρ sont les réflectances dan le rouge de la
végétation et du sol aussi.
Les valeurs de NDVI
s
et NDVI
v
La valeur de K se maintient constante pour
toute l’image est s’obtient à partir des valeurs
de réflectances dans la bande proche
infrarouge et rouge pour des surfaces
purement couvertes ou nues.
peuvent
être déterminée sur l’image par
reconnaissance des surfaces complètement
couvertes par la végétation et celles nues
(sol) ( par exemple des pixels ayant NDVI
maximum et NDVI minimum tout en
s’assurant que ceux ci ne représentent pas
une surface d’eau ou autre , ce qui fausserait
tout calcul).
En dernier on applique l’équation opérative
pour l’obtention de émissivité--- dans le rang
spectral 10.5-12.5 (Valor et Caselles 1996).
ε = ε
v
p
v
+ ε
s
(1-p
v
) + 4 dε p
v
(1-p
v
Où :
) (7)

ε
v
ε
: émissivité de la végétation
s
dε : effet de cavité.
: émissivité du sol nu
CNTA ’09 Université A.MIRA BEJAIA
Le troisième terme de cette équation tient
compte des effets pouvant être produits par
des réflexions internes, un exemple de cet
effet peu arriver dans un zone montagneuse.

Pour notre zone d’étude dε est nul, puisque le
type de couverture végétale présent ne produit
pas d’effet de cavité (*).
L’équation précédent s’écrira alors comme
suit :
ε = ε
v
p
v
+ ε
s
(1-p
v
Les valeurs de ε
) (8)
v
etε
s
III. RESULTATS :
correspondent à celles
proposées par (Valor et Caselles 1996) pour
l’obtention de l’équation opérative.
Sur la figure 1 on montre la carte du NDVI en
niveau de gris pour la zone, obtenue à partir
des valeurs de réflectances corrigées dans les
canaux proche infrarouge (canal4) et rouge
(canal3). Les couleurs obscure et grise
dominent en conséquence du calendrier
agricole pour cette période de l’année. Les
valeurs moyennes maximales et minimales et
les déviations standard de NDVI, NDVI
s
et
NDVI
v
Figure 1 : carte du NDVI
sont présentées sur la table1
précédente.




















Pour les surfaces choisies, nous avons des
NDVI assez grands puisque ceci correspond à
une bonne activité chlorophyllienne.
Les valeurs maximales correspondent aux
parcelles cultivées en plus forte activité et les
valeurs minimales aux sols nus ou avec
culture récente.
Il est a noter que les NDVI
s
correspondent à
des parcelles avec sol complètement nu ou
moins cultivé de façon que la reflectance
mesurée correspond en majeur partie au sol
nu qu’a la végétation et le contraire se produit
pour le NDVI
v
Les NDVI
.
v
et NDVI
s
représentent donc la
valeur maximale et minimale , respectivement
, de la proportion végétale p
v
Dans la table 2 on montre les valeurs de
reflectance dans le proche infrarouge et le
rouge pour des secteurs sol nus et couverts.
.
La valeur obtenue pour le coefficient K est
5.1.

Table 2 : Valeurs moyennes des réfléctances
(%) pour sol nu et couvert dans les bandes 3
et 4
Sol nu Sol couvert
R ( bande 3) 6 9
PIR ( bande4) 10 40.7

La figure 2 montre ensuite la carte de
proportion végétale obtenue après application
de l’équation (5).

Figure2 : carte P

v


















CNTA ’09 Université A.MIRA BEJAIA
Il est possible d’observer ici que les parcelles
claires représentent une couverture végétale
élevée, et elle correspond à un NDVI
relativement haut sur la figure 1.
Dans la figure 3 on trace en image la carte
émissivité pour la zone étudiée en appliquant
l’équation (8).
Il est à remarquer que les valeurs obtenues
varient entre 0.96 et 0.985. On attribue la
première valeur au sol nu et la deuxième au
sol couvert par la végétation.

Figure 3 : carte de l’émissivité.




















Les valeurs correspondantes au sol nu varient
avec le contenu en eau, du moment que si
celui-ci augmente la valeur de émissivité
augmente également.
L’augmentation de émissivité peut être due
aussi à la composition argileuse du sol ou à
son contenu en matière organique ou bien aux
deux à la fois en plus du contenu en eau. Il est
intéressant de faire des mesures sur site de
émissivité et voir réellement à quoi
correspond cette variation.


IV. CONCLUSION :
La surface étudiée présente quand même une
faible proportion végétale comme le montre la
figure 2.
L’obtention de ce résultat est du
essentiellement à ce que la réponse spectrale
du capteur soit une combinaison des
réflectances sol et végétation.
Le fait de considérer la mesure comme telle,
permet d’évaluer avec fermeté la contribution,
au niveau du pixel de la végétation et du sol
nu. La carte émissivité, ainsi obtenue présente
des valeurs comprises entre 0.960 (sol nu) et
0.985 (végétation active) (figure 3).
Les valeurs intermédiaires représentent des
surfaces à différentes couvertures végétales et
sols à différente contenance en humidité.
Cette carte peut nous permettre de corriger
l’image température pour l’effet de émissivité
en utilisant l’équation monocanal SPLIT-
WINDOW.

BIBLIOGRAPHIE :
[1]Chavez, P. S. , 1988, Remote sensing of
environment,24:459-479.
[2]Gilabert, M.A., et al, 1986, obres publiques
:237-250.
[3]Kerdiles, H. , et al, 1996, Agricultural and
forest meteorology, 79 :157-182.
[4]Price, J. C, 1990, IEEE transactions on
geosciences and Remote sensing 28 (5) :940-
948.
[5]Rouse, J., et al, 1974, final report, grenbelt,
MD, 371 pp.
[6]Valor, E. et al, 1996, Remote sensing of
environment 57:167-184.







CNTA ’09 Université A.MIRA BEJAIA
Comparaison des Méthodes Markoviennes
Paramétriques et non Paramétriques pour la
Classification des Images SAR

Assia Kourgli
a_kourgli@lycos.com

, Aichouche Belhadj-Aissa
Laboratoire de Traitement d’Images, Faculté d’Electronique et d’Informatique, U.S.T.H.B,
B.P.32, El-Alia, Bab-Ezzouar, 16111, Alger, Algérie.

Résumé— Nous proposons, dans cet article, de comparer les
performances des modèles markoviens paramétriques et non
paramétriques pour la classification texturale des images SAR.
Le premier modèle, très largement employé en analyse de
texture par les champs de Markov, est le modèle Gaussien.
Quant au modèle non paramétrique, il s’agit d’un modèle
établi sur la base d’une mesure de similitude, celle-ci est
incorporée dans le calcul de probabilité de l’intensité d’un
pixel étant donné un voisinage et un échantillon de texture.
Dans un premier temps, nous donnons les résultats de
classification obtenus en utilisant des textures naturelles
extraites de l’album de Brodatz puis, nous les généralisons en
employant des images radar SAR. Cette comparaison met en
exergue l’apport de la classification texturale non
paramétrique pour la reconnaissance thématique dans les
images SAR.
Mots-Clés— Texture, Modélisation, Markov, Classification,
Images SAR.
I. INTRODUCTION
La texture, liée aux variations d’intensité dans un
voisinage, est quasi omniprésente dans les images
satellitaires. En imagerie radar, elle est étroitement liée à la
rugosité des états de surface. En effet, les variations
d’intensité qui caractérisent la texture dans une image radar
sont généralement dues aux propriétés physiques
(rétrodiffusion) de la cible et modéliser ces variations
s’avère très délicat.
Il existe une diversité d’approches et techniques
d’analyse de textures [1-6] selon la manière dont la texture
est perçue. Ainsi, bien que l'on reconnaisse une texture dès
qu'on la voit, il est néanmoins plus difficile de la définir et
de la modéliser. Cette difficulté est mise en évidence par les
nombreuses définitions et modèles de texture rencontrés
dans la littérature allant des modèles classiques dits
paramétriques (modèles autorégressifs [7,8], Markoviens
[9], fractal [10], etc.) aux modèles multi-résolutions non
paramétriques basées entre autres sur les ondelettes ou les
filtres [11-16] en passant par l'échantillonnage par pixel
[17,18] ou par bloc [19]. Les premiers se sont révélés
inadéquats pour la modélisation texturale du fait que les
textures naturelles ne soient pas stationnaires. Quant aux
modèles non paramétriques, ils sont plus adaptés pour la
synthèse et sont rarement exploitables pour la classification.
Dans ce contexte, la présente étude a pour objectif de mettre
à jour les avantages et limites de la modélisation texturale
Markovienne paramétrique et non paramétrique pour la
classification des images naturelles et plus particulièrement
des images SAR. A cet effet, la deuxième section est
consacrée à la modélisation Markovienne classique et au
modèle de texture proposé, nous y explicitons les
modifications introduites dans la formulation de la
probabilité markovienne et présentons les résultats de
synthèse obtenus. La segmentation texturale basée sur la
théorie Bayesienne fait l’objet de la troisième section, nous
y exposons les résultats obtenus et donnons quelques
éléments d’interprétation. Une conclusion et des
perspectives à ce travail clôturent ce papier.
II. MODÈLES MARKOVIENS
Les modèles markoviens sont très largement utilisés en
traitement d’images depuis quelques années déjà,
notamment pour les problèmes de modélisation [9,20,21],
de synthèse [22,23], d'identification [24], de restauration
[25], de détection de contours [26], la segmentation et la
classification [27,28].
De part leur formulation, ces modèlent intègrent de façon
explicite la notion de voisinage. Ainsi, dans les images
réelles, les pixels voisins ont des niveaux de gris similaires
et l'atout majeur des champs markoviens est leur capacité de
modéliser des interactions entre pixels de façon simple, à
travers un modèle probabiliste. D'un point de vue global,
tous les pixels sont mutuellement dépendants à travers des
combinaisons successives d'interactions locales. En outre,
les algorithmes d'optimisation (Métropolis ou
CNTA ’09 Université A.MIRA BEJAIA
échantillonneur de Gibbs) qui leurs sont associés se prêtent
facilement à une implémentation parallèle. En analyse de
texture, ils permettent de quantifier l’information texturale
locale via un modèle paramétré.
A. Modélisation paramétriques
Rappelons que X∈Ω est un champ aléatoire de Markov
par rapport à un système de voisinage N si et seulement si :
La fonction de probabilité Π(x) satisfait les propriétés
suivantes [29]:
Positivité:

. 0 ) ( Ω ∈ ∀ > = Π x x X
(1)

Propriété de Markov:

S s x N r x X x X
s r S r x X x X
S r r S S S
r r S S S
∈ Ω ∈ ∀ ∈ = = Π
= ≠ ∈ = = Π
, ) , / (
) , , / (
(2)
La deuxième propriété du champ de Markov, notée plus
simplement P(x
s
/x
r
, r∈N
s
) signifie que la connaissance d’un
voisinage du pixel est suffisante pour le traiter.
L’équivalence entre champs markoviens et champs de Gibbs
[30] (établie par Hammersley et Clifford au début des
années 1970) a permis de définir les champs Markoviens par
la donnée d’un système de cliques C
s
et d’une fonction
énergétique associée U(x) qui s’écrit sous forme de
potentiels d’interactions V
c
Soit :
(x).




Α ∈
− =
∈ =

= ∈
S
S
C c
C
S r S S
S
S r S
x V x U et
N r x P Z avec
Z
x U
N r x x P
) ( ) (
) , / (
)) ( exp(
) , / (
α
α
(3)
Ces fonctions potentiels doivent être adaptées aux
données tout en demeurant les plus générales possible. En
analyse de texture, les modèles les plus utilisés sont les
automodèles (H. Derin, Ising généralisé, Gaussien ou auto-
binomial) dont l'énergie s'exprime sous la forme de cliques
simples ou double-cliques (d'ordre 1 et 2) :

∑ ∑ ∑



− − =
− =
s
r s r s
N r
r s
s
s s s
C c
C
x x f x x x f x x U
x V x U
S
S
) , ( ) ( ) (
) ( ) (
,
(4)
Dans ce cas, on suppose que la réalisation (la texture) X
est constituée de m variables aléatoires. Chaque variable
aléatoire prend ses valeurs dans l’ensemble A = {0……L},
ensemble des niveaux de gris. Chaque clique liant le pixel
central à son voisin dans un système de voisinage N
s
, sera
identifiée par une fonction f
s,r
s'exprimant en fonction d'un
paramètre β
s,r
, appelé aussi coefficient de pondération. Ce
paramètre prend ses valeurs dans l’ensemble R. Quant à la
fonction f
s
Pour les textures naturelles, on adopte le plus souvent le
modèle Gaussien car il permet d’obtenir des textures
synthétisées présentant quelques similitudes avec celles
modélisées bien qu’on ne retrouve que la structure globale
et prédominante de la texture (voir Fig.1).
, elle exprime l'attache aux données [29].




Fig.1. Textures naturelles à gauche et textures synthétisées à droite
Ces différences notables entre les textures modélisées et
les textures synthétisées sont dues, entre autres, au fait que
par l’application d’un modèle paramétré, nous supposons
que la probabilité P(x
s
/x
r
, r∈N
s
) est la même pour tous les
pixels s (β
s,r

r
) et par la même occasion, on occulte le
caractère aléatoire de la texture en considérant qu'il est
possible qu'elle soit générée par un modèle unique,
déterminé par des paramètres uniques β
r
B. Modélisation non paramétrique
. Or les primitives
des textures naturelles se ressemblent mais ne sont point
identiques d’où l'émergence des modèles non paramétriques
qui permettent de pallier ce problème de non sationnarité. A
cet effet, nous proposons, dans ce qui suit, un modèle de
texture Markovien non paramétrique basé sur une
quantification de voisinage.
La modélisation texturale non paramétrique et le concept
d'analyse texturale multi-échelles se sont intensément
développés ces quinze dernières années que ce soit pour la
synthèse texturale [11,12,18] la modélisation texturale [14],
la compression d'images ou la segmentation texturale [24,
32, 33]
CNTA ’09 Université A.MIRA BEJAIA
L'idée de quantifier le voisinage pour établir un modèle
de synthèse non paramétrique a déjà été utilisée par Effros
[17,19]. Il a proposé d'utiliser une mesure de distance
(norme) pondérée par une Gaussienne pour rechercher les
voisinages similaires. Pour notre part, nous avons retenu le
principe de la théorie Markovienne. Ainsi, notre objectif est
de rechercher la configuration la plus vraisemblable pour un
pixel de posséder une intensité étant données les intensités
des pixels qui lui sont voisins mais en prenant en
considération la non sationnarité des textures naturelles. A
cet fin, nous avons modifié l'expression de la probabilité
P(x
s
/x
r
, r∈N
s
Pour formuler une expression non paramétrique de la
probabilité P(x
) de telle sorte qu'elle ne dépende plus d'une
formulation mathématique figée (βr) mais qu'elle prenne en
compte les différences entre primitives (non stationnarité).
Donc, au lieu de considérer un voisinage unique qui pourrait
se révéler non représentatif, nous avons considéré les
voisinages de tout l'échantillon. Nous restons donc bien
dans un cadre markovien.
s
/x
r
, r ∈N
s
), nous avons utilisé une mesure
de similitude entre voisinages. Ainsi, on compare le
voisinage Ns du pixel x
S

à tous les voisinage Ny compris
dans l'échantillon de texture Y en respectant l'ordre
lexicographique. La mesure de similitude (MS) pour un
voisinage Ns est, alors, formulée comme suit :
( )
2
,
_ ) , (

∈ ∈

− =
S r y r
N x N y
r r Y y S
x y N N MS
(5)
Cette mesure est une fonction énergie où les potentiels
qui régissent les relations entre les intensités sont exprimés
par les différences d'intensité (y
r
- x
r
), ce qui nous donne
l’expression suivante de P(x
s
/x
r
, r∈N
s

) :
∑ ∈

− =

= ∈
t
Y y t S
S
Y y s
S r S
N N MS Z avec
Z
N N MS
N r x x P
) , ( exp(
) , ( exp(
) , / (
(6)
Ainsi maximiser P(x
s
/x
r
, r ∈N
s
) revient à minimiser
U(x) soit MS(N
s
,N
y∈Y
). Pour déterminer x
S
, il suffit de
calculer cette mesure pour tous les voisinages N
y
∈Y et
retenir le voisinage permettant d'obtenir la plus petite
mesure de similitude. L’intensité du pixel central du
voisinage retenu constituera la nouvelle valeur de x
Pour tester, dans un premier temps, la validité et la
robustesse de cette modélisation non paramétrique, nous
avons considéré des textures de Brodatz [34] et avons
généré des textures par le biais d'un algorithme de synthèse
multi-échelles itératif inspiré de l'échantillonneur de Gibbs.
Les résultats obtenus sont illustrés à la Fig.2.
S

Nous remarquons que les textures synthétisées par le
modèle markovien non paramétrique sont plus proches des
textures naturelles du fait que ce dernier prend en compte la
non stationnarité de la texture.



Fig.2. Textures naturelles à gauche et textures synthétisées à droite
Pour l'aspect classification, nous nous sommes, d'abord,
intéressés à la segmentation des textures naturelles puis,
nous avons procédé à la classification des images SAR.
III. CLASSIFICATION
Les modèles Markoviens ont été utilisés principalement
pour la segmentation et/ou la classification supervisée, où le
nombre et/ou les types de classes de textures présentes sont
connus a priori [8,33,35]. Ces méthodes utilisent les
modèles de Markov pour définir la probabilité qu’une
portion de texture soit similaire à une texture source. La
classification supervisée permet de discriminer les
différentes classes de textures source à partir d’une image.
Geman et Graffigne [36] ont utilisé l’approche
Bayésienne pour classifier la texture. Dans ce sens, la
classification des textures est basée sur un modèle a priori.
L’image à classifier est notée X et l’image étiquette est
notée X
C

. A chaque pixel correspond une étiquette C. La
classification est alors faite sur la base de la maximisation
de la probabilité combinée via la formule de Bayes :
) (
) ( ) / (
) / (
x P
x P x x P
x x P
C C
C
=
(7)
Où P(x) est une constante car c’est une réalisation du
processus observé, P(x/x
C
) est la probabilité de réalisation
d’une configuration donnée conditionnellement à
l’étiquetage, et P(x
C
) représente la probabilité associée à
CNTA ’09 Université A.MIRA BEJAIA
l’image étiquette X
C
appelée aussi probabilité a priori et
P(x
C
Le but de la procédure de segmentation/classification est
de trouver l’image x
/x) étant la probabilité a posteriori.
C
qui maximise la probabilité P(x
C
/x). À
partir de l’équation 7, cette probabilité est maximisée en
maximisant P(x/x
C
) et P(x
C
) à la fois. La probabilité P(x)
représente la probabilité d’obtenir x. Comme nous ne
disposons que d'une seule réalisation de x, on ignore P(x).
La probabilité P(x
C
) inclut des facteurs relatifs à la manière
dont des pixels de même étiquette se regroupent. Il ne reste
que la probabilité P(x/x
C
Si X est un champ Markovien, alors :
) à formuler.

) ( ) / ( x x x P
C
Π =
(8)
Ainsi, P(x/x
C
) est déterminée uniquement par les
probabilités conditionnelles locales. En général, on classifie
de petites régions de l’image en supposant qu’elles sont
homogènes. Afin de déterminer quel type de modélisation
est le plus adapté pour l'identification et la classification des
images SAR, nous avons mené une première série de tests
sur des mosaïques d'images naturelles. Les résultats obtenus
sont illustrés respectivement aux Fig.3 et 4 et les taux de
classification sont donnés, aussi respectivement, aux tables
1 et 2.

a)

b)

c)

Fig.3. Classification de a) l'image " mosaïque 1" avec b) le modèle
markovien para métrique et c) le modèle non paramétrique

TABLE 1: TAUX DE CLASSIFICATION DE MOSAÏQUE 1.
Textures Modèle
paramétrique
Modèle non
paramétrique
Texture 1 77.96% 98.00%
Texture 2 77.23% 98.78%
Texture 3 69.51% 98.17%


a)

b) c)
Fig.4. Classification de a) l’image "mosaïque 2" avec a) le modèle
markovien para métrique et c) le modèle non paramétrique

TABLE 2: TAUX DE CLASSIFICATION DE MOSAÏQUE 2.
Textures Modèle
paramétrique
Modèle non
paramétrique
Texture 1 61.32% 97.87%
Texture 2 70.38% 69.27%
Texture 3 71.07% 96.10%
Texture 4 71.35% 80.14%
Texture 5 17.07% 84.36%

Les taux de classification obtenus avec le modèle non
paramétrique sont nettement supérieurs à ceux issus de la
modélisation paramétrique. Ces résultats montrent que le
modèle non paramétrique s'adapte mieux à la nature des
textures. En effet, pour l'image "mosaïque 1", le taux moyen
de classification est de 98.45% et de 85.58% pour
"mosaïque 2" du fait que le nombre de textures mises en jeu
soit plus important.
Pour les images SAR, ils existent divers travaux montrant
l'apport de l'analyse texture pour l'identification des
différents couverts [37-43]. Notre étude s'inscrit dans ce
contexte. Ainsi, nous avons tenté de classifier une image
SAR par les deux modèles. Il s'agit une image amplitude
SAR acquise dans la bande P. La nature de cette bande
permet aux ondes électromagnétiques, lorsqu'il s'agit d'une
zone forestière, de traverser les feuilles et le branchage des
arbres. La zone d'étude "Oberpfaffenhofen" est située à
Wesling près de Munich en Allemagne. Nous avons pris une
imagette de taille 600×600 pixels, elle englobe une zone
forestière avec des arbres de différents âges, des champs et
de l'urbain (Fig.5). Nous avons extrait quatre échantillons de
taille 60×60, le premier représente des forêts dense
CNTA ’09 Université A.MIRA BEJAIA
(conifères), le deuxième de l'herbe, le troisième de jeunes
forêts et le quatrième du bâti.

Fig.6. Image amplitude SAR
Les résultats de classification obtenus sont donnés aux
Fig.6 et 7

Fig.6. Image SAR classifiée par le modèle paramétrique
La classification de l'image SAR par le bais d'un modèle
paramétrique (Fig. 6) fournit une image segmentée de façon
peu précise avec des classes qui se chevauchent. Quant à
l'emploi du modèle non paramétrique pour la classification
(Fig. 7), il s'est révélé plus satisfaisant en fournissant une
image classifiée proche de la réalité (voir Fig.8).
Ainsi, le modèle non paramétrique est plus indiqué pour
l'identification des textures réelles, il est à même de
caractériser et de cartographier les différentes thèmes
présents dans une image SAR.



Fig.7. Image SAR classifiée par le modèle non paramétrique


Fig.8. Image Google Earth d"Oberpfaffenhofen"
IV. CONCLUSION
Dans cet article, nous nous sommes intéressés à la
caractérisation de la texture par le biais de deux modèles
Markoviens, l'un paramétrique et l'autre non paramétrique.
Le premier modèle est Gaussien et le deuxième est basé sur
une quantification de voisinage. Les différents tests menés
montrent que lorsqu'il s'agit de textures naturelles, l'aspect
non paramétrique d'un modèle de texture permet de travailler
sur les données brutes sans faire de supposition à priori
(stationnarité et érgodicité) et de tenir compte, ainsi, des
similitudes des variations spatiales d'intensité. L'approche
non paramétrique proposée s'adapte bien aux problèmes
d'identification et de classification des images SAR. En effet,
les images radar peuvent contenir une multitude de textures
et en dresser une base d'entraînement exhaustive n'est pas
chose aisée. C'est la que réside l'intérêt principal de
l'approche que nous avons développée. En utilisant
CNTA ’09 Université A.MIRA BEJAIA
directement l'échantillon de texture, on peut l'identifier sur la
même image ou sur d'autres images aisément.
REFERENCES
[1] R. M. Haralick, “Statistical image texture analysis”, In Handbook of
pattern recognition and image processing. New York: Academic
Press, 1986.
[2] A. Materka, M. Strzelecki, “Texture analysis methods-a review”,
Technical University of Lodz, COST B11 Report, 1998.
[3] T. R. Reed, J. M. H. Du Buf, “ A review of recent texture
segmentation and feature extraction techniques”, CVGIP: Image
Understanding, vol. 57 (3), pp. 359-372, 1993.
[4] M. Tuceyran, , A. K. Jain, “Texture analysis”, In C. H. Chen, L. F.
Pau, & P. S. P. Wang (Eds.), in Handbook of pattern recognition and
computer vision. Singapore: World Scientific pp. 235-276, 1998.
[5] M.Sharma, Performance evaluation of image segmentation a nd
texture extraction methods in scene analysis, Master thesis,
University of Exeter, UK, 2001.
[6] M Singh, S. Singh, S. “Spatial texture analysis: A comparative
study”, Proceedings of the 15th IEEE International Conference on
Pattern Recognition (ICPR’02), Quebec, Canada , pp. 676-679,
August 2002.
[7] R. Chellappa, R. L. Kashyap, B. S. Manjunath, “Model-based texture
segmentation and classification”, in Handbook of Pattern Recognition
and Computer Vision (C. H. Chen, L. F. Pau, And P. S. P. Wang,
Eds.), Singapore: World Scientic, 1993, pp.277-310.
[8] R. Chellappa, R. L. Kashyap, “Texture synthesis using 2-D noncausal
autoregressive models”, IEEE Transactions on Acoustic, Speech,
Signal Processing, Assp-33, pp. 194–203, 1985
[9] D. A. Bader, J. Jaja, R. Chellapa, “Scalable data parallel algorithms
for texture synthesis using gibbs random fields”. IEEE Transactions
on Image Processing, vol. 4 (10), pp. 1456-1460, 1995.
[10] R. F. Voss, “Fractals in nature: from characterisation to simulation”,
in The Science Of Fractal Images. H-O. Peitgen & D. Saupe (Eds.),
Springer Verlag, 1988, pp.21-70.
[11] J. De Bonet, P. Viola, “A non-parametric multi-scale statistical model
for natural images”, in Advances In Neural Info Processing, vol. 9.
Mit Press, 1988.
[12] D. J. Heeger, J. R. Bergen, “Pyramid based texture
analysis/synthesis”, International Conference on Computer Graphics
and Interactive Techniques, ACM SIGGRAPH, Los-Angeles,
California, pp. 229–238, August 6-10, 1995.
[13] J. Portilla, J, E. Simoncelli, “A parameter texture model based on
joint statistics of complex wavelet coefficients”, International Journal
of Computer Vision , vol. 40 (1), pp.49–71, 1999.
[14] G. Menegaz, “DWT based non parametric texture modelling.
Proceeding of the International Conference on Image Processing
(Icip'01), Thessalonica, Greece, October 3-5, 2001, pp. 173-176.
[15] A. C. Copeland, G. Ravichandran, M. M. Trivedi, “Texture synthesis
using gray-level co-occurrence models: algorithms, experimental
analysis, and psychophysical support”, Optical Engineering, vol. 40
(11), pp.2655-2673, 2001.
[16] J. Dong, Three-dimensional surface texture synthesis. Phd Thesis,
University Of Heriot Watt, U.K., 2003
[17] A. A. Efros, T. Leung, “Texture synthesis by non-parametric
sampling”, IEEE International Conference on Computer Vision,
vol.2, Corfu, Greece, pp. 1033-1038, September 21-22, 1999.
[18] L. Y. Wei, M. Levoy, “Fast texture synthesis using tree vector
quantization”, Proceedings of International Conference on Computer
Graphics and Interactive Techniques ACM SIGGRAPH 00, New
Orleans, Louisiana, USA, pp.479–488, 23-28 July 2000.
[19] A. A. Effros, W. T. Freeman, “Image quilting for texture synthesis
and transfer”, Proceedings of International Conference on Computer
Graphics And Interactive Techniques, Acm Siggraph, vol. 6, Los
Angeles, California, pp. 341-34, August 12-17, 2001.
[20] I. M. Elfadel, R. W. Picard, "Gibbs random fields, cooccurences, and
texture modelling", IEEE Transactions on Pattern Analysis and
Machine Intelligence, vol. 16 (1), pp.24-37, 1994.
[21] J. Bennet, A. Khotanzad, "Maximum likelihood estimation methods
for multispectral random field image models", IEEE Transactions on
Pattern Analysis and Machine Intelligence, vol. 21(6), pp.537-543,
1999.
[22] R. E. Ghozi, B. C. Levy, "Phase transitions and multi-scale Markov
random fileds: Application to texture synthesis", IEEE Conference
Record of The Twenty-Seventh Asilomar on Signals, Systems and
Computers, 1-5, Pacific Grove, California, October 28- November 1,
1993.
[23] J. K. Tugnait, "Texture synthesis using asymmetric 2-D noncausal
AR models", IEEE Signal Processing Workshop on Higher-Order
Statistics, pp.71-75, 1993.
[24] R. Paget, I. D. Longstaff, “Texture synthesis via a noncausal
nonparametric multiscale Markov random field”, IEEE Transactions
on Image Processing, Vol. 7 (6), 1998.
[25] A. Jalobeanu, L. Blanc-Féraud, J. Zerubia, "Hyperparameter
estimation for satellite images restoration using MCMC maximum
likelihood method", Pattern Recognition, vol. 2 (35), pp.341-352,
2002.
[26] F. Destrempes, M. Mignotte, "A statistical model for contours in
images", IEEE Transactions on Pattern Analysis and Machine
Intelligence, vol. 26 (5), pp.626-638, 2004.
[27] K. S. Thyagarajan, T. Nguyen, T., C. E Persons, "Maximum
likelihood approach to image texture and acoustic signal
classification", IEE Vision, Image and Signal Processing, vol. 46 (1),
pp.34-39, 199.
[28] X. Descombes, M. Sigelle, " Estimating Gaussian Markov random
field parameters in a non sationnary framework: Application to
remote sensing imaging", IEEE Transactions on Image Processing,
vol. 8 (4), pp.490-503, 1999.
[29] S. Z. Li, “Modeling image analysis problems using random markov
field”, in Handbook of Statistics, vol. 20. Elsevier Science, 2000, pp.
1-43.
[30] J. H. Hammersley, P. Clifford, “Markov field on finite graphs and
attices”, Technical Report, Unpublished, 1971.
[31] H. Derin, H. Elliott, “Modelling And Segmentation Of Noisy And
Textures Images Using Gibbs Random Fields”, IEEE Transactions Of
Pattern Analysis And Machine Intelligence, Pami-9 (1), pp. 39-55,
1987.
[32] C. A. Bouman, M. Shapiro, “A multiscale random field model for
bayesian image segmentation”. IEEE Transactions on Image
processing, vol. 3 (2), pp.162-177, 1994.
[33] S. Krishnamachari, “Multiresolution Gauss–Markov random field
models for texture segmentation. IEEE Transactions on Image
Processing, vol. 6 (2), pp.251-267, 1997.
[34] P. Brodatz, “Textures: a photographic album for artists and
designers”, New York: Dover Publications, 1966.
[35] B. Aiaiazzi, L. Alparone, S. Baronti, G. Cuozzo, C. D’elia, C.
Schirinzi, “SAR image classification via tree-structured markov
random fields and information-theoretic heterogeneity features”,
ESA-EUSC 2005 Image Information Mining - Theory And
Applications To Earth Observation, Proceedings Of The Workshop,
At Esa-Esrin, Frascati, Italy,5-7 October 2005.
[36] S. Geman, D. Geman, “Stochastic relaxation, gibbs distributions, and
the bayesian restoration of images”, IEEE Transactions of Pattern
Analysis and Machine Intelligence, vol. 6 (6), pp. 721-741, 1984.
[37] R. S. Gill, R. T. Tonboe, “Classification of greenice SAR data using
fuzzy screening method in arctic sea ice thickness: past, present and
future”, Edited By Peter Wadhams And Georgios Amanatidis.
Climate Change And Natural Hazards Series, Brussels, 2006.
[38] A. M. Jacob, E. M. Hemerly, D. Fernandes, “SAR Image
Classification Using Supervised Neural Classifiers”, Anais Xi Sbsr,
Belo Horizonte, Brasil, pp. 2047 – 2054, 05 - 10 April 2003.
CNTA ’09 Université A.MIRA BEJAIA
[39] Karathanassi, “SAR texture analysis for the extraction of sea waves
direction”, 5T European On Synthtetic Aperture Radar, Ulm,
Germany, 25-27 May 2004.
[40] P. Li, S. Fang, , “SAR image classification based on its texture
features”, Geo-Spatial Information, vol. 6 (3), pp.16-19, 2003.
[41] L-K. Soh, C. Tsatsoulis, “Texture analysis of sar sea ice imagery
using gray level co-occurrence matrices”, IEEE Transactions on
Geoscience and Remote Sensing, vol. 37 (2), March 1999.
[42] M. Törmä, J. Lumme, J. U. Pyysalo, N. Patrikainen, K. Luojus,
“Tree species classification using ers sar and modis ndvi images”,
Proceedings of XXth ISPRS Congress, Istanbul, Turkey, 12-23 July
2004.
[43] P. M. Treitz, P.J. Howarth, O. Rotunno Filo, E.D. Soulis,
“Agricultural crop classification using SAR tone and texture
statistic”s, Canadian Journal of Remote Sensing, vol. 26 (1), pp.18-
29, 2000.

CNTA ’09 Université A.MIRA BEJAIA
VERS LE DEVELOPPEMENT D’UN SYSTEME
D’IFONRAMTION SOLAIRE A PARTIR DES IMAGES
METEOSAT

Rezzagui abdelhak (1) Bachari.Nour el islam (2) et Ziani Mohamed Khadi (2)

1- O.N.M Dar el Beida
2- L.A.A.R Département de physique U.S.T.Oran
3- Université de Laghouat

INTRODUCTION
La cartographie du bilan d’énergie à l’interface sol-atmosphère est nécessaire pour la gestion
optimale des ressources naturelles. Les cartes solaires sont ét ablies soit à partir des mesures
radiométriques au sol, soit à partir des mesures climatiques ou e n fonction d’une hypothèse
de répartition zonale pour les régions sans réseau des mesures radiométriques et climatiques.
L’Algérie est un pays vaste, sa topographie est accidentée, son climat variant de Sud vers le
Nord et son réseau de mesures radiomètriques est de faible densité, ce qui rend les techniques
citées non pratique pour car tographie l es i rradiations s olaires. L’image s atellite pa r s a
fréquence (une image par ¼ heures) et sa couverture spatiale (toute l’Afrique et l’Europre) se
présente c omme le mo yen le pl us pr atique po ur le s uivi s patio-temporel de s di fférentes
composantes du r ayonnement s olaire. Les m odèles dé veloppés pou r l ’extraction de s
irradiations s olaires à partir de s ima ges s ont classés en deux cat égories, les m odèles
statistiques e t l es modèles physiques s ont généralement développés pour cartographie l e
rayonnement global.
Dans not re travail, no us pr oposons un m odèle pour l a car tographie de s di fférentes
composantes du rayonnement solaires en se basant sur la transformation des images brutes en
images ennuagement. Les i mages e nnuagement s ont t ransformées e n i mages de pot entiel
énergétique à différents niveaux de gris.
Le grand défi pour réaliser ce travail est le stockage d’information.
Les images M.S.G (meteosat second generation)


2. DONNEES
Pour él aborer ce t ravail nous avons ut ilisé l es i mages du satellite Européen météosat et des
données radiomètriques acquises au sol par deux stations en Algérie.

2.1 Images satellites
L’image m étéosat, se p résente s ous f orme d’ une m atrice num érique, à cha que pi xel de
coordonnées (x, y) est attribuée un compte numèrique CN(x ,y) codée sur 10 bits. Le satellite
météosat est un satellite géosatationnaire qui observe l e di sque t errestre ( Afrique et Europe)
dans douze bandes spectrales, visible, va peur d’eau et infrarouge. Les i mages sont acqui ses
par une station qui fonctionne en temps réelle réalisée au niveau du l aboratoire d’analyse du
rayonnement ( L.A.A.R). Les pr emières i mages capt ées l e 07 -04-2007 e ntre13h00-13h15
Temps Local (MSG-1 > Meteosat 8) sont montrées dans la figure suivante :





CNTA ’09 Université A.MIRA BEJAIA













Figure.1 Images M.S.G acquises par la station L.A.A.R

3. Modèle conceptuel et du traitement

3.1 Modèle conceptuel des données :
Les images (M. S. G) nous offre chaque ¼ heures une acquisition avec un volume en espace
mémoire de 1.5 G.O cela s e t raduit par 6 G .O par heure et 144 G.O par j our. Estimer l es
composantes du r ayonnement s olaire c ela i mpose un s tockage de s i mages da ns une t able
(heures, jours). Pour une année l es i mages stockées occupent un espace mémoire d’ordre de
540 G.O cela se traduit par un défi d’optimisation d’espace mémoire sans perte d’information.
Un algorithme de trie spectrale, trie spatiale est mis en place pour optimiser au maximum les
images à analyser selon la t hématique voul ue. Un deuxième al gorithme de compression est
développée pou r l e s tockage de s i mages t raitées. Le d euxième al gorithme es t dé veloppée
selon un processus physique.

3.2 Modèle conceptuel du traitement
Dans les modèles classiques les paramètres clé pour déterminer la radiation solaire au sol sont
le pot entiel r adiatif à c iel c lair e t la f raction d’insolation. Par a nalogie entre l es modèles
classiques et les modèles satellitaires ; l e paramètre cl é est le taux de couverture d’un pixel
par l es nu ages dé finit pa r l e facteur E nnuagement. Plusieurs m odèles s pectraux et
paramétriques s ont développés par l es chercheurs pour cal culer l es di fférentes composantes
du r ayonnement s olaire a u sol à c iel c lair [1]. D ans not re c as, nous r etenons l e modèle
proposé par l’WMO (World Meteorological Organization) [3]. Ce modèle est valable pour les
régions de s ba sses et de s moyennes l atitudes ce qui es t l e cas de not re z one d’ étude. La
présence de s nua ges da ns l e doubl e t rajectoire du rayonnement s oleil-sol et s ol-satellite est
très c omplexe pour l a mettre e n é vidence, nous pr oposons une a pproche s tatistique pour
corriger un modèle physique.
3.2.1 Irradiance diffuse
Dans l e cas du ciel cl air l e r ayonnement di ffus D
skc
dé pend du t rouble atmosphèrique, de
masse a tmosphèrique et de l ’anisotropie du di ffus. Le facteur d’ anisotropie K j oue l e r ôle
d’un r égulateur pour l es f aibles hauteurs du s oleil[4].En pr ésence des nuages, l ’irradiation
diffuse qui atteint l e s ol au gmente d ’une façon no n-linéaire av ec l e t aux d’ ennuagement.
L’analyse s tatistique e ntre l es donné es s ol et l ’ennuagement nous a donné l a r elation
suivante :

CNTA ’09 Université A.MIRA BEJAIA

D
n
= D
skc
(1+0.65.K.N.e
αN
) Wm
-2

(4)
3.2.2 Irradiance globale
L’irradiance globale au sol G
skc

dépend du trouble atmosphèrique et la masse atmosphèrique à
ciel clair. En présence des nuages l’irradiance globale au sol n’est que l’irradiance directe qui
atteint l e ha ut de s nua ges e t di ffusée pa r c es de rniers e n di rection du s ol. En pr ésence de s
nuages br isés, l’irradiance globale au sol es t l a s omme de s de ux pa rties s elon le t aux de
couverture de s pi xels pa r l es nu ages. E n se b asant s ure l es t ravaux de R ashke et al et
d’Immamura et al [4] et par suite d’une analyse statistique des données mesurées au sol nous
proposons la relation suivante :
) ) N exp( 1 ( K I ) N 1 ( G G
skc skc n
β − − + − = (8)
3.23 Irradiance directe

L’irradiance di recte qui at teint l e s ol es t en f onction d’irradiance di recte à ci el cl air I et
d’ennuagement N. Dans le cas du ciel totalement couvert l’irradiance directe est egale à zéro
et en présence de s nu ages el le di minue d’ une f açon considérable. Pour f aciliter l a t âche et
pour donner un s ens homogène au modèle t out s implement nous avons calculé l ’irradiance
globale à partir des irradiations globale et diffuse.
) ( h
n n
n
z Cos
D G
I

= Wm
-2
(9)



L’architecture générale du modèle développée est présentée dans la figure suivante :


Figure.2 Architecture générale du M.C.T


3.3 Couches d’information produites

Pour un lieu donné les données brutes se transforment en couches d’information :
1- Couche Astronomique
2- Couche Atmosphérique
3- Couche occupation du sol
CNTA ’09 Université A.MIRA BEJAIA
4- Couche énergétique (visible et infrarouge)

Les cou ches crées pr ésentent un a utre ha ndicap de s tockage d ’information ut ile e t pa rfois
nécessaire. Devant ces problèmes à l a f ois i nformatiques et t hématiques de s i mages nous
proposons une solution S.I.S qui se résument en :

1- Technologique présenté par une réalisation des stations d’acquisition des images M.S.G

2- Informatique qui fonctionne en t emps réel pour l a création de l a base de données i mages
sans perte d’information composé des modules suivant:
2.1- Un outil de gestion de la base de données
2.2- Un outil d’extraction des paramètres utiles selon la thématique
2.3- Un outil d’analyse statistique
2.4-Un outil d’affichage et de cartographie

L’ensemble des modules sera i ntégré dans l e système d’ acquisition des i mages à t emps r éel
par la station [5]



Figure.3 Information du sortie



4. Conclusion

Pour réaliser un S.I.S deux volets sont mis en place :

1- Technologique qui consiste à réaliser une station d’acquisition des images satellite M.S.G.
Cette phase rentre dans le pr ogramme de recherche du L.A.A.R depuis cinq ans el le est en
phase bien avancée.
CNTA ’09 Université A.MIRA BEJAIA

2. Traitement : cet te pa rtie es t en phase de dé veloppement de s al gorithmes s pécifiques.
Certains sont réalisées et testés par contre d’autres sont en phase d’étude préliminaire.


Bibliographie

[1] Nour el islam Bachari, Abdelhak Razagui. Estimation et Cartographie des Différentes
Composantes du Rayonnement Solaire à Partir des Images Météosat. Vol.4 (2001) P. 35-47

[2] N.Bachari. N.Benabadji. A.Razagui et A.H.Belbachir : Développement d’une
méthodologie pour Déterminer et Cartographie du Rayonnement Thermique du Sol. Numéro
Spécial pp JITH 2003 Pp39-46.

[3] W.M.O, ‘Meteorology aspects of utilisation of solar radiation as an energy source’, N°

[4] M.S.IMAMURA, R.HULSTROM a nd C.COOKSON, ‘Definition s tudy of phot ovoltaic
residential prototype system’ U.S. Departement of Commerce, Report No. N 77-13533. 1976..

[5] N.BACHARI, N.BEANABADJI, et A.A BDELLAOUI, Développement d’ un l ogiciel
d’analyse s pectrale et t emporelle de s i mages s atellitales t ype SP OT, LANDSAT et
METEOSAT, A.M.S.E, J Volume.38, N° 1,2, pp15-34,1997.


[6] OUMBE A., WALD L., 2008. S imple pa rameterisations o f ve rtical pr ofile of s olar
irradiance in clear sky. Solar Energy, revised version, submitted April 2008.


[7] LEFÈVRE M., WALD L., DIABATÉ L., 2007. Using reduced data sets ISCCP-B2 from
the Meteosat satellites to assess surface solar irradiance. Solar Energy, 81, 240-253.


[8] RIGOLLIER C., LEFÈVRE M., WALD L., 2004. T he method Heliosat-2 for d eriving
shortwave solar radiation data from satellite images. Solar Energy, 77(2), 159-169.


[9] REMUND J., WALD L., LEFEVRE M., RANCHIN T., Page J., 2003. Worldwide Linke
turbidity i nformation. Proceedings of ISES Solar World Congress, 16-19 June 2003, G?org,
Sweden











CNTA ’09 Université A.MIRA BEJAIA

CNTA ’09 Université A.MIRA BEJAIA

Méthodes de Déroulement de Phase Radar
Interférométrique : Application à la
Génération de MNT

Faiza Hocine, Afifa Haddoud, Mostéfa Belhadj aissa,
Mounira Ouarzeddine & Aichouche Belhadj-Aissa
Laboratoire de Traitement d’Images et Rayonnement
(LTIR) h.belhadj@mailcity.com
Faculté d’Electronique et d’Informatique (FEI),
Université des Sciences et de la Technologie Houari
Boumediene, BP. 32, El Alia, Bab Ezzouar, 1611, Alger,
Algérie.
faiza_ho@yahoo.fr
Résumé—L’exploitation de la différence de phases de deux
images radar de type SLC constitue, actuellement une source
efficace p our l a g énération de Modèles N umériques de
Terrain (MNT). Néanmoins, les techniques de traitement de
ces données restent très complexes et donnent naissance à un
axe d e re cherche à part entière dit i nterférométrie radar
SAR(INSAR). Le déroulement de phase est l’étape essentielle
dans ce traitement i nterférométrique, il consiste à retrouver
la phase absolue à partir d’une phase ambigüe, (modulo 2π).
Notre point d’intérêt dans ce travail est f ocalisé sur l ’étape
de dé roulement de phase et nous présentons, à cet ef fet, l es
méthodes que n ous a vons d éveloppées e n mettant l ’accent
sur l eur complexité et l es p roblèmes d e f aisabilité
interférométrique posés pa r chaque méthode. L es t ests de
ces m éthodes ont été ef fectués s ur u n c ouple ra dar S AR
acquis par les satellites européens ERS1 et ERS2 en tandem
et couvrant la zone d’Alger et la Mitidja.
Mots-clés : Interférométrie radar SAR, déroulement de
phase, Modèle Numérique de Terrain, résidus, cut-
Brunch, modélisation markovienne.

I. INTRODUCTION
La connaissance numérique du relief, généralement
traduit sous forme de modèle numérique de terrain
(MNT), est un élément essentiel dans diverses
applications des sciences de la terre, des
télécommunications, de la navigation aérienne, etc. Le
MNT est un concept plus complexe et plus global qui ne
traite pas seulement la hauteur et l'élévation mais d'autres
éléments géographiques comme les rivières, les crêtes et
les bassins versants. Si, dans un premier temps, on a fait
usage de photographies aériennes stéréoscopiques, pour
la génération des MNT il a fallu attendre 1986 avec le
lancement du satellite SPOT et grâce à sa visée latérale,
pour pouvoir disposer des couples stéréoscopiques
d’images satellitaires et voire se développer des
techniques de corrélation automatique intégrées dans des
processus de photogrammétrie automatique pour la
génération de MNT. Actuellement, les images satellitaires
radar de type SLCI et l’exploitation de la différence de
phase pour deux acquisitions constituent une source
efficace pour l’obtention des MNT. Néanmoins, le
traitement de ces données reste très complexe et donne
naissance à un axe de recherche à part entière dit
interférométrie radar SAR(INSAR). En effet, les
techniques interférométriques radar combinent une large
couverture à une haute résolution spatiale. Elles
permettent l’estimation de l’altitude d’un point au sol et la
détection des faibles mouvements de terrain à partir de la
différence de phases de deux signaux radar acquis par
deux capteur séparés par une distance dite ‘baseline’.
Dans ce contexte, le travail que nous présentons, dans
cette communication porte sur l’étape de déroulement de
phase dans un processus interférométrique qui consiste à
retrouver la phase absolue à partir d’une phase ambigüe
(modulo 2π). Nous avons d éveloppé , à cet effet deux
méthodes. La première est dite locale, elle déroule la
phase de proche en proche mais pose le problème de
discontinuités des phases dans l’interférogramme qui sont
dues aux bruits de diverses sources (géométrie
d’acquisition, topographie de la scène éclairée, milieu de
propagation de l’onde radar, etc..). La deuxième méthode
considère la phase comme une fonction d’énergie
d’interactions locales qu’il faut optimiser pour retrouver la
vraie phase (absolue). Cette méthode est basée sur une
modélisation markovienne. Elle pose le problème de
l’initialisation, qui doit être une configuration proche de la
solution et du choix de l’algorithme d’optimisation qu’il
faut adapter à la nature de l’information interférométrique.
Nous les avons testées sur un interférogramme généré à
partir d’un couple SLC acquis par les satellites ERS1 et
ERS2 de la région d’Alger et la mitidja.
Après cette introduction, nous présenterons, dans la
deuxième section le principe et la géométrie d’acquisition
interférométrique. Dans la section III, nous exposerons le
principe et les approches de déroulement de phase en
s’attardant sur les méthodes développées dans ce travail et
nous présenterons, ensuite les résultats obtenus en les
commentant. Nous terminerons ce papier par une
conclusion et les références bibliographiques relative à ce
travail.

II. L’INTERFEROMETRIE RADAR SAR

Le principe de l’interférométrie est basé sur l’utilisation
de deux images (SLCI : Single Look Complex Image)
radar SAR de la même scène, acquises à partir de deux
orbites séparés par une distance dite ‘baseline’. La
géométrie d’acquisition du couple interférométrique est
donnée par la figure 1. Soit P, une cible localisée dans la
scène et a une hauteur h, R
A
et R
B
sont les distances
CNTA ’09 Université A.MIRA BEJAIA
respectives entre les capteurs et la cible. Les signaux
) ( p S
A
et
) ( p S
B
des ondes radar rétrodiffusées par la cible P
et mesurées par les capteurs radar sont donnés par les
expressions suivantes :

) (
) ( ) (
p j
A A
A
e p p S
φ
ρ =
(1)

) (
) ( ) (
p j
B B
B
e p p S
φ
ρ =
(2)


















La phase ) (
,
p
B A
ϕ de chaque signal est donnée par :


B A
bruit
B A
propre
B A
trajet
B A
p
, , , ,
) ( ϕ ϕ ϕ ϕ + + = (3)

La phase est composée, principalement de trois termes :
• ) (
,
p
B A
trajet
ϕ : dépend du trajet aller-retour de l’onde
radar entre le capteur et la cible, elle est
proportionnelle à l’élévation de la cible.
• ) (
,
p
B A
propre
ϕ : est une phase proportionnelle aux
caractéristiques de réflectivité du terrain.
• ) (
,
p
B A
bruit
ϕ est une phase due aux bruits introduits
par l’électronique du système d’acquisition, le
milieu de propagation qui est l’atmosphère et la
géométrie topographique de la scène.
Le produit interférométrique complexe est donné par la
relation suivante :

〉 〈 〉 〈
〉 〈 〉 〈
=

2 2
) ( ) (
) ( * ) (
) ( * ) (
) (
p S p S
e p e p
p
B A
p j
B
p j
A
B A
ϕ ϕ
ρ ρ
η
(4)
Chaque cible (pixel) doit avoir la même localisation dans
les deux images. Pour ce faire, une étape de correction
géométrique et de superposition des deux images est
effectuée au préalable. La précision de cette étape de
traitement conditionne fortement les résultats
interférométriques ultérieurs. Les images générées de ce
produit interférométriques sont :

) ( p η
: qui représente le coefficient de corrélation
des deux images, sa valeur est incluse dans
l’intervalle[ ] 1 , 0 . Cette image, dite image de
cohérence mesure la qualité des données
interférométrique. Plus elle est proche de un (1)
meilleurs sont les résultats interférométriques.
Cependant la décorrélation entre les deux signaux
est due principalement aux changements de l’angle
de visé des deux satellites (décorrélation spatiale),
aux changements de l’état de surface entre les deux
acquisitions (décorrélation temporelle) ainsi
qu’aux bruits électronique et atmosphérique
(décorrelations termiques)[1].

) (
B A
ϕ ϕ ϕ − = ∆
est l’argument de l’expression du
produit interférométrique, il est calculé pour toutes
les cibles (pixels) de la scène commune entre les
deux images. Cette image ou interférogramme est
formée de franges représentant des différences de
phases appartenant à l’intervalle
[ ] π 2 , 0
.
Ces franges contiennent deux types d’informations : la
première information, dépend de la topographie de la
scène (altitude h). Elle est représentée par des franges
topographiques. La deuxième information, indépendante
de l’altitude h de la cible est appelée phase de terrain plat.
Elle est proportionnelle à la composante horizontale du
baseline B, est représentée par les franges orbitales. Cette
dernière doit être retranchée de la phase globale afin de
restituer que la phase proportionnelle à l’élévation h.
Nous donnons, à la figure 2 l’image de cohérence
interférométrique et à la figure 3 l’interférogramme
correspondant.




Nous soulignons que les zones sombres dans l’image de
cohérence présentent une décorrélation du couple
interférométrique. Nous remarquons aussi que
l’interférogramme présente deux régions, une région
accidentée, modélisée par des franges très étroites et
resserrées (bas de l’image, figure 3) et une région plate
modélisée, pratiquement par deux franges larges.
Cependant la phase interférométrique (topographique) est
mesurée modulo π 2 , donc pour connaître l’élévation réelle
de chaque point, nous devons passer par une étape de
déroulement de phase (unwrapping phase).

III. DEROULEMENT DE PHASE
Le principe de déroulement de phase consiste donc à
calculer ou estimer la phase absolue
φ
pour chaque cible
(pixel) à partir de la phase mesurée ϕ . Cela consiste à
trouver le facteur K qui vérifie l’équation :

π ϕ φ K 2 + =
(5)
Figure 2 : Image de Cohérence
Figure 3 : Interférogramme
corrigé des franges orbitales
Avec : B
//
et B

sont respectivement la
composante du baseline parallèle et
perpendiculaire verticale, α est l’angle
du baseline par rapport à l’horizontal
et θ est l’angle de visé.
Figure 1 : Modèle géométrique de l’interférométrie radar SAR

H
S
A

α
B


P
RA
RB
B
B┴
θ
SB
h
CNTA ’09 Université A.MIRA BEJAIA
Plusieurs méthodes ont été étudiées et proposées par les
chercheurs du domaine de l’interférométrie radar SAR
[2],[3],[4],[5]. Ces méthodes ont été regroupées,
essentiellement en trois approches :
• L’approche locale. Elle est basée sur le déroulement
de proche en proche selon un parcours d’intégration
• L’approche globale basée sur une minimisation une
fonction d’erreur globale.
• L’approche mixte (hybride). Les méthodes de cette
approche sont basées sur la minimisation d’une
énergie d’interaction dans un voisinage aproprié. Ces
méthodes sont itératives et font appel à des
algorithmes d’optimisation déterministes,
heuristiques ou métaheuristiques [4] [6].
Pour notre part, nous avons développé une méthode
locale de déroulement de proche en proche avec évitement
de résidus et une méthode hybride avec une modélisation
markovienne.

III.1. Méthode P.P. avec évitement des résidus

La méthode de proche en proche cherche la phase
absolue par la différence de phases de deux points
adjacents selon un chemin emprunté. Elle permet
d’obtenir un résultat cohérent et identique quelque soit le
chemin choisi si l’interférogramme est non bruité (il ne
présente pas des irrégularités). Malheureusement, tout
interférogramme réel est entaché de phases erronées ou le
déroulement de P.P donne des résultats erronés. Pour
résoudre le problème des irrégularités plusieurs
chercheurs [2][7] ont essayé de modéliser ces bruits, et
d’adapter, par la suite les méthodes locales au
déroulement des interférogrammes réels. L’idée principale
de cette adaptation est de localiser les zones bruitées
(quantifier les irrégularités) et les éviter lors du
déroulement. En effet, la première étape consiste à
détecter les pixels incohérents qui sont appelés résidus [7].
Un résidu est détecté si la somme des dérivés selon un
parcours fermé est égale à 1 ou -1, si la somme est nulle
on dit que les pixels du chemin emprunté ne sont pas
bruités. La figure 4 représente l’image des résidus de
l’interférogramme de la figure 3.













Une fois les résidus calculés, la méthode Cut-Brunch
proposé par Goldstein [1] consiste à relier les résidus de
signes opposés en supposant qu’un bruit sur l’image
interférométrique peut engendrer un couple de résidu (+1
et -1). Les lignes les plus courtes qui relient les résidus
sont appelées coupures. Les extrémités des coupures sont
reliées aux bordures de l’image si la somme dans une
coupure n’est pas nulle (le nombre des résidus positifs est
différent au nombre des résidus négatifs dans une
coupure). Lorsque tous les résidus sont reliés et les
coupures tracées (Figure 5.a), le déroulement devient
indépendant du chemin du parcours choisi ; il faut
seulement éviter de franchir une coupure (figure 5.b)
Malheureusement si les branches se ferment sur elles
mêmes, elles créent des zones isolées non accessibles lors
du déroulement de phase de P.P. Ce problème est
l’inconvénient majeur de la méthode cut-brunch.














Pour remédier à ce problème nous avons proposé une
procédure d’ouverture des coupures par l’utilisation de
l’image de cohérence, en supposant que si un pixel
présente une cohérence élevée alors il n’entraine pas
d’erreur dans l’image interférométrique. Alors nous
pouvons franchir les coupures à travers ces pixels. Nous
avons procédé par un choix d’un seuil de cohérence, selon
la précision désirée et la nature de la région étudiée (à fort
relief ou à relief moyen), le seuil de cohérence est
décrémenté, parallèlement au déroulement jusqu’à
l’ouverture des branches. Le résultat de notre méthode
améliorée est donné par la figure 6, nous remarquons que
les discontinuités dans la phase déroulée de la figure 5
sont très atténuées dans l’image de la figure 6 (voir les
zones encerclées).














III.2. Déroulement de phase par modélisation
markovienne
Dans cette approche le déroulement de phase peut être
formulé comme un problème d’étiquetage. Les méthodes
markoviennes formalisent bien le problème en considérant
Figure 4 : L’image des résidus avec un agrandissement du carré
Figure 5.a : Image des
branches
Figure 5.b : Image des
étiquettes de l’image déroulé


Figure 6 : Image des étiquettes de l’image déroulé
déroulé après l’élimination des coupures fermées
CNTA ’09 Université A.MIRA BEJAIA
que chaque pixel de l’image est un nœud que l’on doit
classer. Les classes sont des étiquettes qui sont, dans
notre cas, le nombre ‘K’ correspondant aux multiples de
π 2 recherchés sur l’ensemble des sites (pixels) de
l’interférogramme. La fonction d’énergie que nous avons
utilisée est :

( )
∑ ∑
∈ ∈
Φ − Φ = = Φ
C c C c
c
p p V U ) ( ) ( ) (
2 1
(6)
Avec
} {
2 1
, p p
les sites (pixels), C est l’ensemble des
cliques.

Le système de voisinage que nous avons utilisé est de 4
connexités et le traitement se fait sur les cliques d’ordre 2.
Pour trouver la solution la plus optimale, par minimisation
de l’énergie de l’expression (6) il faut appliquer un
algorithme d’optimisation. Le choix de l’algorithme
d’optimisation est lié, d’une part aux caractéristiques de
l’interférogramme et d’autre part, au modèle utilisé et à la
configuration initiale.
Pour les algorithmes d’optimisation déterministes les
résultats sont fortement liés à l’initialisation de l’image
des étiquettes. Cette image doit être le plus proche
possible du résultat attendu. Contrairement aux
algorithmes d’optimisation stochastiques, tels que le recuit
simulé, ils peuvent garantir, sous certaines conditions, une
convergence vers une solution optimale qu’elle que soit
l’image initiale mais avec un temps de calcul très
important. Pour notre part, puisque nous disposons d’un
résultat, obtenu par la méthode P.P présentée ci-dessus et
pour optimiser le temps de calcul, nous avons utilisé un
algorithme déterministe (ICM) pour retrouver la meilleure
configuration qui représentera la solution optimale, il
s’agit de l’image de la phase déroulée. Le résultat est
donné par la figure 7.















La figure 8 représente un zoom des résultats obtenus sur
une petite zone.
En comparant les résultats de déroulement par rapport à
l’interférogramme, nous remarquons que les étiquettes
sont mieux organisées dans la figure 8.c (résultat obtenu
après l’optimisation markovienne) que dans la figure 8.a
(résultat initial obtenu par le cut-brunch).






















Représentation 3D de résultat obtenue :




III. CONCLUSION

La méthode de proche en proche avec évitement de
résidus (cut-branch) peut être bien adaptée au déroulement
phase dans les régions moins bruitées et moins
accidentées. Néanmoins, la présence de zones piégées par
des contours fermés donne des résultats discontinus. La
solution que nous avons proposée dans ce travail est une
amélioration de l’algorithme de P.P. Nous avons utilisé la
valeur de la cohérence comme un moyen de minimisation
des résidus et réduction des branches longues et repliées
sur elles. D’autres solutions sont envisageables dans des
travaux ultérieurs. Pour la deuxième méthode qui est une
méthode hybride, elle voit le problème de déroulement de
phase comme un problème global (une solution globale)
qui est ramené à une solution locale grâce aux propriétés
des champs de Markov et son équivalence à un champ de
Gibbs. Nous avons initialisé l’algorithme de cette
méthode par une solution globale générée par l’algorithme
de P.P que nous avons améliorée par la minimisation de
l’énergie d’interaction locale entre les différentes phases
dans un contexte prédéfini (4-connexité). Les résultats
obtenus sont intéressants comme on peut le constater sur
le Modèle Numérique de Terrain en 3D (relatif à la
première valeur de la phase déroulée).



Figure 6 : Image des
étiquettes de l’image
déroulé après l’élimination
de toutes les coupures
fermées
Figure7 : résultat de
déroulement après
l’application de la
modélisation Markovienne
La direction de visée du
satellite
Figure 9 : Altitude relative à la phase déroulée en

a

b

c
Figure8 : a : Déroulement
par le cut-brunch. b :
Interférogramme bruit. c :
Déroulement par Markov
CNTA ’09 Université A.MIRA BEJAIA
REFERENCES

[1] Ramon F. Hanssen: Radar Interferometry. Data Interpretation and
errorAnalysis. Kluwer Academic Publishers 2002, 298p.
[2] Sandwell and Evelyn J. Price: Phase gradient approch to stacking
interferograms. Institut of geophysics and planetary physics,
Journal of Geophysical Research, vol103. N°B12, pages 30.183-
204,1998.
[3] Labrousse D. : modélisation markovienne pour le déroulement de
phases interférometriques sar. Thèse de doctorat. Université de
Nice Sophia Antipolis,1996.



















































[4] Pritt and Jerome S. Shipman: Laest-Squares Two-Dimentional
phase Unwrapping Using FFT. IEEE Transaction onn geoscience
and remote sensing, VOL.32, N°3, may 1994.
[5] Igor. L : Unwrapping circular interferograms, Optical Society of
America.,2000.
[6] Huot. E & Cohen. I & Herlin. I :Unwrapping Method for
interfrometric images, INRIA, 2001.
.[7] Zebker H. A. & Lu Y: Phase unwrapping algorithms for radar
interferometry: residue-cut, least squares, and synthesis algorithms,
Journal of optical society American, vol. 15, no. 3, pp. 586-598,
March 1998









































CNTA ’09 Université A.MIRA BEJAIA
LA SURVEILLANCE MARITIME MODERNE :
LA CARTE ELECTRONIQUE (ECDIS)

DERARDJA Djamel(1), khireddine abdelkrim(2)
(1) ISM Institut Supérieur Maritime, Bou Ismail, Algérie
derardj abba@yahoo.fr
(2) Facult é de la Technologie, Universit é A/ Mira, Béj aia
Khier_2000@yahoo.fr



Résumé— La ca rte él ectronique (ECDIS) e st un o util
fondamental et incontournable pour la surveillance maritime
avec des applications diverses, complexes, permettant l a mise
en exergue des co ncepts de v isualisation et i mageries
modernes, dont l es utilisations s ont multiples, q ue s e s oit a u
niveau de la télédétection, l’évaluation des bases de données et
cartographies. D es a pplications p ratiques à t erre co mme en
mer permettent d’améliorer la sécurité maritime dans son sens
large. (Abstract)
Mots Clés : Ecdis, télédétection, visualisation, l’imagerie,
cartographie, surveillance maritime.

I. INTRODUCTION
Plus de la moitié du transport de marchandises à travers le
monde se fait par voie maritime. Un des outils permettant
d’assurer la sécurité de la navigation des navires et de
minimiser le risque de collision entre eux, et par conséquent
d’éviter des catastrophes de pollution en mer est la carte
marine. La problématique est liée à l’intégration de données
cartographiques numériques et de données de télédétection,
leur présentation assemblée, l’analyse et la production des
cartes, cartes image et autres outils de visualisation des
zones de navigation.

La carte marine est très riche en information et devisée en
trois types de data, tels que les informations sur la sécurité
maritime (trait de côte, accès aux ports et aux chenaux,
laisse de basse mer, etc.), le deuxième point est relatif à la
localisation de la cible choisie, comme le positionnement
par satellite et observé sur le visu. Sur la frange côtière
(Phares, reliefs aperçus en mer sur la côte, etc.) et le type de
service attendu du navigateur entrant dans un voisinage d’un
port ou son mouillage sont également traités par numérique.
Une carte marine de qualité et à jour limite les risques et
périls de la mer (collision, naufrage, pollution, autres).
La majorité des officiers de la marine marchande utilisent
les cartes marines sous forme « papier », mais depuis
quelques années un organisme international (OHI) de
cartographie s’est lancé dans la production de cartes
numériques qui sont gérées par un système informatique et
automatisé, nommé ECDIS (Electronic Chart Display
Information).

L’événement relatif à la catastrophe du pétrolier Exxon
Valdez a mis en exergue les erreurs d’interprétation des
cartes marine et leurs conséquences dramatiques sur
l’environnement. L’enquête nautique qui s’en est suivie a
révélée la nécessité de l’utilisation des cartes électroniques,
d’une formation et entraînement à l’intention des utilisateurs
auraient pu minimiser ou éviter ce type d’incident ayant
abouti à une catastrophe majeure pour l’industrie maritime,
l’environnement et les chaînes alimentaires. Les limites
d’utilisation des systèmes en se basant sur les tous les
modèles et concepts existants, permettent de visualiser et
d’interpréter les informations en temps réel, mais le facteur
humain et les prises de décisions sont sujets à une multitude
de paramètres complexes, affectant la fiabilité et l’efficacité
de tels systèmes retenus dans le secteur maritime.

II. PRÉSENTATION DU SYSTÈME ECDIS
C’est un système électronique capable de visualiser la
position d’un mobile sue la présentation d’une carte à
l’écran. Le système est établi par un organisme international
(Organisation Internationale Maritime) en qualité de normes
à travers une résolution (OMI, A.817 (19)).
Ce système peut remplacer la carte de navigation sous forme
de papier, mais ce dernier doit être certifié et doit
accompagner le système de sauvegarde. Il est à la fois un
système d’information géographique et un système
d’expertise nautique, capable de :
CNTA ’09 Université A.MIRA BEJAIA
1. Afficher toutes les informations géographiques
nécessaire à la sécurité de la navigation ;
2. Alléger le travail de l’officier de quart à la passerelle
par le positionnement continu ; par la flexibilité de la
planification et le suivi de son plan de route ;
3. Déclencher des alarmes en fonction des dangers de
navigation ;
4. Faciliter la mise à jour des cartes électroniques ;
5. Enregistrer et sauvegarder les informations liées aux
voyages planifiés.

Figure 1. « Objet sur une carte matricielle, exemple de carte matricielle (à gauche) et l’exemple de carte vectorielle avec symbole d’un navire au centre (à
droite) ». 1

Figure 2. « Organigramme des organismes intervenant dans le cheminement des normes ». 2
1
Ces cartes ont été publiées en vue de pouvoir cerner la différence entre carte matricielle et carte vectorielle. Source :

www.iho.int.
2
Les abréviations utilisées dans cet organigramme ont été énumérées comme suit:
OHI : Organisation hydrographique internationale
OMI : Organisation maritime internationale
MSC : Comité de sécurité maritime
NAV : Sous-comité de la sécurité de la navigation
HGE : Groupe d'harmonisation sur les ECDIS
WEND : Base de données mondiale pour la carte électronique de navigation
CNTA ’09 Université A.MIRA BEJAIA
CHRIS : Comité sur les besoins hydrographiques pour les systèmes d’information
CEI : Commission électrotechnique internationale
TC80 : Comité de la CEI sur la navigation maritime et sur les systèmes et équipements de radiocommunications
WG7 : Groupe de travail de la CEI sur les ECDIS
DGIWG : Groupe de travail sur les informations géographiques numériques
ISO : Organisation internationale pour la normalisation. Source : www.imo.org.
Il existe deux types de carte électroniques disponibles dans
le domaine maritime : Les cartes matricielles (RASTER) et
les cartes vectorielles. Une carte matricielle est l’image
numérisée scannée, tandis qu’une carte vectorielle
correspond à une analyse numérique par objets (points,
lignes, région, etc.).
L’ECDIS est lié à des capteurs de navigation, de
positionnement, de vitesse et de cap en temps réel.
Les fonctionnalités du système sont définies par des normes
internationales de l’Organisme Hydrographique
International (OHI). Le système comprend deux éléments
importants:
1. Une base de données, appelée carte électronique de
navigation ou ENC (Electronic Navigation Chart) qui
contient sous forme numérique adaptée toutes les
informations géographiques nécessaires à la sécurité de
la navigation.
2. Le format des ENC est de type vecteur, défini par la
norme S57 de l’OHI.
Les ENC sont produites, tenues à jour et diffusés aux
utilisateurs avec la responsabilité du service hydrographique
(OHI), et sont organisées en gammes d’échelles, de la
cartographie détaillée à la cartographie générale.
L’utilisateur peut passé d’une ENC à l’autre en temps réel et
est transparent au cours de son expédition maritime. Aussi,
il est possible de zoomer et de se déplacer sur la zone de la
carte affichée sur l’écran en utilisant les différents outils
disponibles pour ce système.
III. APPLICATION DU SYSTÈME DANS LE TRANSPORT
MARITIME
L’équipement ECDIS est défini de la manière suivante dans
les normes de fonctionnement des ECDIS de l’OMI
,(Résolution OMI, A.817 (19)) : Par « S ystème d e
visualisation de s c artes é lectroniques e t d’ information
(ECDIS) », on e ntend un s ystème de renseignements sur la
navigation qui, assorti de dispositifs de sauvegarde
appropriés, peut être accepté comme équivalant à la carte
tenue à j our requise aux termes des règles V/19 et V/27 de
la C onvention SO LAS de 1 974 e t qui , e n af fichant de s
renseignements s électionnés d’ une c arte é lectronique de
navigation fonctionnelle (SENC), les données sur la position
fournies par de s c apteurs de nav igation e t, s i né cessaire,
d’autres r enseignements l iés à l a nav igation, aide l e
navigateur à planifier et à surveiller la route.
Un ECDIS doit satisfaire à quatre types de normes :
• en tant qu'équipement électronique embarqué prévu par
les dispositions de la convention internationale sur la
sauvegarde de la vie humaine en mer (SOLAS), il
relève des normes de fonctionnement de l'Organisation
Maritime Internationale (OMI résolution A/817(19) du
15 décembre 1995 - amendée en mars 1999) ;
• en tant que carte marine, il relève des spécifications
relatives au contenu cartographique du ressort de
l'Organisation Hydrographique Internationale (OHI),
objet des publications spéciales S-52 (5ème édition -
décembre 1996) et S-57 (3ème édition - novembre
1996) ;
• en tant qu'équipement électronique, il relève des
prescriptions et procédures d'essais de la Commission
Electrotechnique Internationale (CEI), objet de la
publication IEC 61174 (août 1998) ;
• en tant qu'équipement embarqué, il relève des
procédures d'homologation définies par les
administrations nationales.
Compte tenu des nouvelles capacités technologiques et des
besoins d’interopérabilités, on doit pouvoir les utiliser sur
toutes les océans et mers du globe terrestre, quelque que soit
le système ECDIS approuvé, et dans toutes les conditions
météorologiques et climatiques des lieux de
positionnements, en tenant compte en temps réel des
mouvements relatifs et vrais du navire en déplacement. Le
besoin en matière de sécurité maritime a favorisé
l’établissement d’un accord général, encadrée par des
normes Internationales; celles-ci sont requises pour
permettre l’application de la convention Internationale
(SOLAS), ratifiée par l’Algérie et qui est relative à la
présence de cartes marine à bord sous toutes les formes
approuvées. L’acheminement des informations
cartographiques à l’échelle Internationale relative à la carte
électronique s’articule autour de trois pôles identifiés:
1. L’organisation Hydrographique Internationale (OHI),
qui regroupe plus de soixante agences
gouvernementales, produisant des données
cartographiques et assurant l’expertise dans le domaine.
2. L’organisation Maritime Internationale (OMI),
l’expression des besoins de la navigation et
l’établissement des règlements et règles prescrites à
mettre en œuvre par les Gouvernements Contractants.
3. Organisations Industrielles, la Commission
Electrotechnique Internationale (CEI) et le Comité
International Radio Maritime.
CNTA ’09 Université A.MIRA BEJAIA
IV. L’INTERFACE AVEC AIS- SÉCURITÉ MARITIME
Le système ECDIS est lié à autre système d’identification
des navires à une portée de 200 nautiques, qui permet aux
utilisateurs de visualiser les navires équipés par un
équipement nommé, « AIS » (Automatic Identification
System) sur la carte électronique et les données affichées sur
le système de visualisation. Cet équipement auxiliaire aux
systèmes de navigation classique permet le suivi des
informations sur des cibles identifiées et leurs
enregistrements en temps réel avec de multiples applications
en matière de sécurité maritime et de protection de
l’environnement, y compris la surveillance maritime le long
des côtes d’un pays donné. D’autres capteurs et données ont
été injectés dans le système ECDIS, tels que ceux utilisés
par l’AIS et LRIT (Long Range Identification Tracking),
STS (Ship Tracking System), et autres.
V. RECHERCHE ET PERSPECTIVES
Depuis le début du lancement du projet ECDIS, notre
agence représentative au sein de l’Organisme
Hydrographique International en collaboration avec
l’Administration Maritime au niveau des différentes tutelles
doivent être actifs dans le développement et la réalisation de
ces outils de navigation, de la mise en œuvre effectives des
différents instruments ratifiés. La modernisation de l’ECDIS
va envisager une meilleur prise en charge de la sécurité
maritime, la protection de l’environnement et du littoral
algérien, en s’aidant de ces outils modernes à applications
multiples, en se basant sur la superposition d’informations
complémentaires, permettant une meilleure prise en charge
de la sécurité de la navigation et sûreté maritime. La
télédétection et les techniques d’imageries satellitaires avec
multiples applications en positionnements, tels que le
système géodésique (WGI 84), reconnu dans le système
ECDIS par l’OMI. Ce système est capable de combiner
plusieurs types d’informations textuelles et audiovisuelles
qui ouvrent de nouvelles perspectives à une navigation
assistée par ordinateurs et traitements divers en qualité
d’imageries.
VI. CONCLUSION : SUGGESTIONS ET RECOMMANDATIONS
L’utilisation de ce système présente de multiples
applications à terre, que ce soit au niveau de la gestion du
trafic maritime (VTS et VTMIS), la protection du milieu
marin et du littoral le long des côtes algériennes, ouvrant de
nouveaux champs de recherches dans des domaines divers
de la science et technologie.
Recommandations:
 Collecter les informations nautiques pour enrichir une
base de données fiable, sécurisée et accessible aux
chercheurs algériens;
 Créer des centres régionaux Est, Centre et Ouest pour
la collecte et la mise a jour des cartes marines en
s’aidant des nouvelles technologies en la matière ;
 Développer la cartographie maritime électronique pour
les besoins des plaisanciers et le secteur de la pêche, la
surveillance maritime et la protection du littoral;
 Développer la télédétection spatiale en Algérie pour
l’observation terrestre et maritime, gérer l’information
géographique en temps réel pour la mise en place de
nouveaux modèles et concepts mathématiques
permettant de sécuriser les données diverses s’y
référant.

REFERENCES
[1] Organisation maritime internationale (OMI) : www.imo.org ;
[2] Organisation Hydrographique internationale (OHI) : www.ohi.int ;
[3] Commission électrotechnique internationale (CEI) : www.iec.ch ;
[4] Convention internationale de 1974 pour la sauvegarde de la vie
humaine en mer (SOLAS), telle qu’amendée ;
[5] Résolution OMI A817 (19) : Normes de fonctionnement des ECDIS ;
[6] CEI 61174 (2001-10) : Système de visualisation de cartes
électroniques et d’information (ECDIS),
[7] conditions requises pour les tests opérationnels et de performance, et
résultats des tests demandés ;
[8] OHI S-57 : Normes de l'OHI pour le transfert de données
hydrographiques numériques, édition 3.1 ;
[9] OHI S-52: Spécifications pour le contenu cartographique et les
modalités d'affichage des ECDIS, édition 4.2, appendice 2 :
Spécifications pour les couleurs et symboles des ECDIS.


CNTA ’09 Université A.MIRA BEJAIA
Classification non supervisée des images satellitaires :
de l’algorithme K-means à l’algorithme AntClass

Radja Khedam
Laboratoire de Traitement d’Images et Rayonnement (LTIR)
Faculté d’Electronique et d’Informatique (FEI), USTHB.
BP. 32, El Alia, Bab Ezzouar, 16111, Alger, Algérie.
radjakhedam@lycos.com
Aichouche Belhadj-Aissa
Laboratoire de Traitement d’Images et Rayonnement (LTIR)
Faculté d’Electronique et d’Informatique (FEI), USTHB.
BP. 32, El Alia, Bab Ezzouar, 16111, Alger, Algérie.
h.belhadj@lycos.com


Résumé—Dans cet a rticle, n ous p résentons u n no uvel
algorithme d e cl assification automatique des d onnées
numériques. I l s’agit d’ un classifieur à base d’ une c olonie de
fourmis, a ppelé AntClass. C’ est u ne métaheuristique assez
récente inspirée du comportement intelligent des fourmis pour
le tri collectif du couvain quand il est dérangé. Contrairement
aux algorithmes c lassiques, t els que K-means qui r equiert e n
entrée l ’introduction du n ombre de cl asses re cherchées,
AntClass d écouvre a utomatiquement ce n ombre d e cl asses.
Après la validation de AntClass en utilisant une image simulée,
il a été appliqué sur une image satellitaire multispectrale. Les
résultats o btenus p ar AntClass sont sa tisfaisants e t plus
intéressants par rapport à ceux obtenus par le K-means.
I. INTRODUCTION
La classification fait partie des méthodes couramment
utilisées en télédétection pour exploiter les images
satellitaires d’observation de la terre. Elle consiste à affecter
à chaque pixel de l’image une étiquette indiquant son
appartenance à une classe thématique particulière, telle que,
la végétation, l’urbain, le sol, les routes, etc.
Des efforts considérables sont déployés pour élaborer de
nouveaux algorithmes de classification, d’une part pour
contourner les contraintes des méthodes classiques
(connaissance du modèle de distribution des données), et
d’autre part pour arriver à des algorithmes classifieurs
universels qui supportent tout type de données avec le
minimum de paramètres à contrôler. La plupart de ces
algorithmes sont inspirés de modèles classifieurs naturels et
sont communément désignés par « métaheuristiques ». Les
métaheuristiques sont des algorithmes stochastiques itératifs,
qui progressent vers l’optimum par échantillonnage d’une
fonction dite « objectif ». Elles se comportent comme des
algorithmes de recherche, tentant d’apprendre les
caractéristiques du problème afin d’en trouver une
approximation de la meilleure solution. Il existe un grand
nombre de métaheuristiques différentes, allant de la simple
recherche locale à des algorithmes complexes de recherche
globale. Ces méthodes utilisent cependant un haut niveau
d’abstraction, leur permettant d’être adaptées à une large
gamme de problèmes différents. Les métaheuristiques sont
souvent inspirées par des systèmes naturels, qu’ils soient pris
en physique (ex. le récuit simulé), en biologie (ex. les
algorithmes génétiques, le système immunitaire), ou en
éthologie (ex. colonies de fourmis, optimisation par essaims
particulaires) [1].
Le but de ce travail est d’abord, de présenter le nouvel
algorithme AntClass inspiré du comportement intelligent des
fourmis face à un couvain dérangé. Par la suite, une
adaptation de cet algorithme pour résoudre le problème de la
classification non supervisée des images satellitaires sera
effectuée. Une étude comparative des résultats obtenus avec
ceux obtenus avec l’algorithme classique K-means sera
finalement établie. Cet article est structuré comme suit. La
prochaine section est consacré à la présentation du problème
de la classification d’images satellitaires, et à rappeler les
principes de base des méthodes de classification classiques.
Dans la troisième section, nous présentons le concept de
l’auto-organisation chez les insectes sociaux et l’algorithme
AntClass qui en découle. Dans la quatrième et cinquième
section, nous exposons le principe de la classification avec
les fourmis et l’algorithme que nous avons développé et
adapté au problème de la classification non supervisée des
images satellitaires. La sixième section est dédiée à
l’application, l’évaluation et l’interprétation des résultats
obtenus en appliquant notre algorithme sur une image
simulée et une image réelle. Dans cette section une étude
comparative K-means – AntClass est aussi effectuée. Enfin,
nous terminons cet article par une conclusion et les
perspectives éventuelles à cette recherche.
II. CLASSIFICATION D’IMAGES
La classification est une procédure de décomposition qui
consiste à partitionner l’image en un nombre de sous-
ensembles disjoints appelés classes. Les méthodes de
classification les plus communes peuvent être séparées en
deux grandes catégories : les méthodes de classification
CNTA ’09 Université A.MIRA BEJAIA
supervisée et les méthodes de classification non supervisée.
Si le nombre de classes et leurs règles d’appartenance sont
fixés au départ, on parle de classification supervisée. Si, par
contre, on désire réaliser une classification sans
connaissances a pr iori du nombre de classes ou de leurs
caractéristiques, on effectue alors une classification dite non
supervisée. Dans les deux cas, le problème de la
classification est de construire la procédure adéquate,
appelée «modèle décisionnel», permettant d'associer une
classe à un objet.
A. Approches de classification supervisée
Lors de l'utilisation d'une méthode de classification
supervisée, l'analyste identifie des échantillons assez
homogènes de l'image qui sont représentatifs de différents
types de classes d'information. Ces échantillons forment un
ensemble de données d’apprentissage. La sélection de ces
données est basée sur les connaissances a priori de l'analyste
sur la région. Les échantillons de chaque classe sont utilisés
pour entraîner le système à définir les classes et ensuite
reconnaître des régions aux propriétés similaires à chaque
classe. Les méthodes de classification supervisée les plus
utilisées, sont des méthodes statistiques basées sur la théorie
des probabilités associée à la théorie de Bayes. Parmi ces
méthodes, figurent la méthode du maximum de
vraisemblance et la méthode du minimum de distance de
Mahalanobis [2]. L’inconvénient majeur de ces méthodes est
la nécessité de connaître le modèle de distribution des pixels
dans chaque classe. Pour pallier cet inconvénient, différentes
autres méthodes métaheuristiques ont été proposées et qui
s’inspirent pour la plupart des mécanismes biologiques des
êtres vivants, nous citons par exemple [3] : les réseaux de
neurones, les algorithmes génétiques, le réseau immunitaire,
etc. Cependant, ces nouvelles méthodes sont fortement
dépendantes de plusieurs paramètres de contrôle qui
conditionnent la qualité des résultats de la classification.
B. Approches de classification non supervisée
Dans les approches non supervisées, l’utilisateur
n’intervient qu’une fois la classification est effectuée pour
interpréter le contenu des classes en considérant celles-ci
comme étant un ensemble de points de même signature
spectrale mais sans faire appel à d’autres hypothèses sur les
données. Donc, les méthodes non supervisées ne nécessitent
pas (ou très peu) d’information a priori sur les classes. Le
groupement des pixels est réalisé d’une manière automatique
sur la base d’une fonction de similarité et il est généralement
conditionné par le choix du nombre de classes. Les méthodes
de classification non supervisée les plus utilisées, sont des
méthodes stochastiques basées sur le tirage aléatoire des
premiers centroïdes des classes dont le nombre est introduit
par l’utilisateur. Le groupement des pixels autour de ces
moyennes est effectué suivant une mesure de distance entre
les centroïdes des classes et le pixel à classifier. Parmi ces
méthodes, nous citons la méthode ISODATA et la méthode
des K-means (ou K moyennes) dont le principe est rappelé
comme suit [4] :
1. P rendre a léatoirement K premières données d e
l’ensemble à partitionner comme centres d e g ravité
provisoires de la première partition ;
2. Affecter le reste des données aux classes sur la base du
plus pr oche noyau. Après c haque af fectation, recalculer le
nouveau noyau ;
3. Après l’affectation de toutes les données à l’étape 2, il
faut prendre l es nouvelles partitions comme les noyaux des
classes et affecter chaque donnée au plus proche noyau ;
4. L’algorithme s’arrête l orsque de ux i térations
successives c onduisent à l a même partition a u c ritère d e
précision p rès. Ce cr itère peut êt re défini et fixé d e d eux
manières :
a). S oit on f ixe a pr iori l e nombre d ’itérations sans
regarder les changements de la partition de j-1 à j ;
b). Soit on se base sur les mouvements des pixels entre
les classes de l’itération j-1 à l’itération j et on fixe un seuil
correspondant au nombre total des pixels ayant changé de
classes entre deux itérations successives. Plus ce nombre est
petit, plus le nombre d’itération est grand.
L’inconvénient majeur de ce type de méthodes est que le
résultat final est fortement dépendant du tirage aléatoire des
premiers noyaux, d’où la possibilité du piégeage dans un
minimum local. Pour remédier à ce problème, plusieurs
autres méthodes ont été proposées et qui s’inspirent
également de phénomènes biologiques observés dans la
nature chez les animaux, tels que : les fourmis, les insectes
volants, les oiseaux, les poissons, etc. Ces phénomènes
découlent du concept de l’auto-organisation [5].
III. CONCEPT DE L’AUTO-ORGANISATION
L’auto-organisation est un phénomène décrit dans
plusieurs disciplines, notamment en biologie dans la branche
qu’est l’éthologie (étude des comportements des espèces
animales dans leurs environnements). Une définition a été
proposée par Deneubourg [6] : «l’auto-organisation e st un
processus dans lequel, un modèle de niveau global émerge
uniquement, d ’un grand no mbre d’ interactions e ntre les
composants de bas ni veau d u s ystème. De p lus, l es r ègles
spécifiant les interactions entre ces composants sont suivies
en ut ilisant un iquement de s informations locales, sans
références a u modèle g lobal ». Autrement dit, l’auto-
organisation explique l’émergence d’un comportement
collectif macroscopique par des interactions simples au
niveau microscopique.
L‘auto-organisation n’exclut pas la complexité au niveau
individuel. Elle suppose simplement qu’à un certain niveau,
les individus se comportent comme des entités simples [7].
Depuis longtemps déjà, des comportements auto-organisés
ont été découverts dans la nature. Par exemple : 1) dans une
colonie de fourmis, on peut observer différentes castes
spécialisées dans un certain nombre de tâches : élevage de
couvain, recherche de nourriture, construction de nid, etc.
Aussi, le nid est construit sans que les insectes soient dirigés,
ils répondent à un certain nombre de stimuli provenant de
leur environnement, 2) dans le cas d'une formation d'oiseaux
migrateurs, chaque oiseau essaie simplement de rester près
de son voisin tout en évitant la collision avec lui. De plus,
CNTA ’09 Université A.MIRA BEJAIA
contrairement à ce que l'on pourrait penser, il n'y a pas de
chef, chaque oiseau pouvant se trouver en tête de formation,
au milieu ou à l'arrière de la formation. La forme
caractéristique en V de telles populations n'est donc en rien
calculée, elle résulte uniquement de l'émergence d'une forme
stable étant donné des comportements individuels simples.
D’importantes recherches ont eu pour intérêt principal
l’étude de ces comportements intelligents afin de savoir
comment ces populations interagissaient, accomplissaient
des tâches et évoluaient. Ces recherches ont abouti à des
modélisations qui caractérisent ce que l’on dénomme
« l’intelligence en essaims » [8]. Ainsi, on retrouve deux
types d’algorithmes [1] : 1) les algorithmes à base des
fourmis artificielles inspirés du processus d’auto-
organisation observé chez les fourmis pour l’organisation
collective de la colonie (construction du nid, recherche de la
nourriture, tri du couvain, etc.) et 2) les algorithmes
d’optimisation à essaim de particules inspirés du processus
d’auto-organisation observé chez certaines espèces volantes
(oiseaux, criquets, etc.) pour un déplacement harmonieux et
ordonné dans un essaim stable.
Dans cet article, nous nous intéressons à l’algorithme
AntClass basé sur le concept de l’auto-organisation dans une
colonie de fourmis.
IV. CLASSIFICATION AVEC LES FOURMIS
Dans la nature, les fourmis réelles offrent un modèle
stimulant pour le problème du partitionnement et de la
classification. La constitution de cimetières, le tri collectif du
couvain quand il est dérangé, et le rassemblement des œufs
en fonction de leur état de développement, sont les exemples
les plus marquants.
Certains travaux expérimentaux montrent que certaines
espèces de fourmis sont capables d’organiser spatialement
divers éléments du couvain : les œufs, les larves et les
nymphes. La Fig. 1 illustre, à travers quatre images,
l’expérience menée par Deneubourg et ses collègues [6], [7]
qui a consisté à analyser dans un couvain, le comportement
des fourmis de l’espèce Messor sancta. L’expérience a duré
26 heures.










Ces chercheurs sont arrivés à entrevoir les règles utilisées
par les fourmis et qui sont relativement simples : lorsqu’une
fourmi rencontre un élément du couvain, la probabilité
qu’elle s’en empare est d’autant plus grande que cet élément
est isolé. Lorsqu’une fourmi transporte un élément du
couvain, elle le dépose avec une probabilité d’autant plus
grande que la densité d´éléments du même type dans le
voisinage est grande. Ainsi, la classification fait partie de ces
problèmes pour lesquels un algorithme à base de fourmis
suggère des heuristiques très intéressantes.
A. Algorithme AntClass
AntClass est un nouvel algorithme de classification non
supervisée. Il découvre automatiquement les classes dans des
données numériques sans connaître le nombre de classes a
priori, sans partition initiale et sans paramétrages délicat.
Pour classer des données, ou partitionner un ensemble
d’objets, de nombreux algorithmes classiques, tels que les
centres mobiles ou Isodata, requièrent qu’une partition
initiale soit donnée en entrée. C’est l’inconvénient majeur de
ces méthodes : la partition obtenue à partir de cette
initialisation risque d’être localement optimale et le seul
moyen d’y remédier est de relancer la méthode avec une
partition initiale différente. En outre, le nombre de classes
exigé par ces méthodes diminue leur intérêt pour un expert
cherchant justement à connaître ce nombre de classes.
L’algorithme AntClass utilise les principes exploratoires
stochastiques d’une colonie de fourmis. Ces dernières se
déplacent sur une grille à deux dimensions et peuvent
transporter des objets. La saisie ou le dépôt d’un objet sur un
tas dépend de la similarité entre cet objet et les objets du tas.
B. Heuristiques de AntClass [7]
1. Quand la fourmi transporte un objet, elle explore les
huit cases de son entourage. Si elle trouve une case contenant
un ou plusieurs objets, sa probabilité P
d
(o
i
, T) de déposer
l’objet o
i
( )
( ) ( ) ( )
( ) ( )
( )
¦
¦
¹
¦
¦
´
¦
¦
)
¦
`
¹
¦
¹
¦
´
¦
|
|
.
|

\
|


=
sinon 1 ,
,
min 9 . 0 1
, si 1
,
2
*
k
center i
Ocenter center i
i d
T d
T O o d
T d T O o d
T o P
sur le tas T est donnée par :

(1)
Où k
2
est un paramètre réel positif permettant de contrôler la
forme de la densité de P
d
(o
i
a. Si l’objet o
, T). Deux cas se présentent :
i
transporté par la fourmi est moins éloigné
du centre de gravité du tas T que l’objet du tas le plus éloigné
de ce centre, elle dépose systématiquement o
i
b. Si la capacité de la fourmi est supérieure à 1 et qu’elle
transporte plusieurs objets, la probabilité de déposer le tas T
. Sinon, plus la
distance entre l’objet et le centre du tas est grande par
rapport à la distance moyenne entre les objets de la base, plus
la probabilité de le déposer sera faible.
1

qu’elle transporte sur le tas T
2
est calculée de la même façon
que pour un objet unique en remplaçant o
i
par le centre de
gravité des objets transportés.
Figure 1. Expérience du tri du couvain chez les Messor sancta. 4 images
prises (de gauche à droite) à l’état initial, 2 heures, 6 heures et 26 heures
après le début de l’expérience

CNTA ’09 Université A.MIRA BEJAIA
2. Quand une fourmi a
k
( )
( )
( )
( )
( )
¦
¦
¦
¦
¹
¦
¦
¦
¦
´
¦
|
|
.
|

\
|
¦
)
¦
`
¹
¦
¹
¦
´
¦
|
|
.
|

\
|
+
+

=
=
=
sinon 9 . 0 1
2 si 1 , min
1 si 1
1
*
1
k
Ocenter
Ocenter
k
Ocenter
p
T d
T d
T
T d
T d
T
T P
ε
ε
ne transporte pas d’objet, elle
cherche un objet à ramasser en considérant les huit cases de
son voisinage. Dès qu’un objet ou un tas d’objet ait été
trouvé, sa probabilité de ramasser cet objet ou ce tas est
donnée par le système d’équations suivant :

(2)
Où T est le nombre d’objets dans le tas, k
1
est un paramètre
réel positif permettant de contrôler la forme de la densité de
P
p
1 〉 T (T) quand et ε est une valeur positive. La fourmi
ramasse l’objet le plus éloigné du centre de gravité du tas.
Les cas suivants se présentent :
a. Si la case ne contient qu’un seul objet ( ) 1 = T , il est
systématiquement ramassé par la fourmi.
b. Si la case contient un tas de deux objets ( ) 2 = T , la
probabilité de ramasser l’un des deux objets dépend de la
distance entre les deux objets et le centre de gravité et la
distance moyenne entre tous les objets ( ) ) (T d .
c. Enfin, si le tas se compose de plus de deux objets, la
probabilité P
p
C. Structure de AntClass
est proche de 1 quand la distance moyenne au
centre est négligeable devant la distance au centre de l’objet
le plus éloigné. Si la capacité de la fourmi est supérieure à 1,
elle ramasse autant d’objets que sa capacité le lui permet.
La structure générale de l’algorithme AntClass est
donnée comme suit :
Début
Pour t = 1 à F faire /* F est le nombre de déplacement */
Pour k =1 à N faire /* N est le Nombre de fourmis a
k
Déplacer a
*/
k
Si il y a un tas d’objets T sur la même case que a
sur une case non occupée par une autre fourmi
k
Si la fourmi a
alors
k
transporte un objet o
i
Déposer l’objet o
alors
i
sur le tas T avec la probabilité P
d
(o
i
sinon /* la fourmi ne transporte pas d’objet */
, T)
Ramasser l’objet o
i
le plus dissimilaire du t as T jusqu’à ce
que la capacité de la fourmi soit atteinte ou que le tas soit
vide, selon la probabilité P
p
Finsi
(T)
Finsi
Finpour
Finpour
Retourner à la grille G.
Fin
Dans le but d’accélérer la convergence du processus de
classification, les paramètres T
create
et T
remove
a. Une fourmi ne pourra ramasser un objet d’un tas que si
la dissimilitude de cet objet avec le centre de gravité de ce
tas est supérieure à un seuil fixé T
ont été rajoutés
dans l’algorithme. Ce sont des heuristiques simples mais qui
permettent d’obtenir des tas plus homogènes, ce qui limite
les erreurs de classification :
remove
b. Une fourmi ne pourra déposer un objet sur un tas que
si l’objet qu’elle transporte est suffisamment similaire au
centre de gravité du tas par rapport à un seuil fixé T
.
create
c. Le nombre de classes généré par l’algorithme AntClass
est toujours surestimé (des petits tas très homogènes), surtout
lorsque les données à classifier sont importantes. Pour
réduire ce nombre de classes, l’algorithme AntClass prévoit
une deuxième étape dans le processus de classification. Cette
étape dont le but est l’affinage du résultat de la première
étape, consiste à considérer les petits tas comme des objets
eux-mêmes et appliquer les fourmis sur ces objets
nouvellement définis. Pour traiter les tas d’objets par les
fourmis, on a simplement adapté l’algorithme décrit
précédemment : les fourmis seront désormais capables de
transporter un tas entier d’objets.
.
V. ADAPTATION DE ANT CLASS POUR LA CLASSIFICATION
DES IMAGES SATELLITAIRES
L’algorithme AntClass que nous avons adapté à la
classification des images satellitaires [1] se déroule en deux
étapes.
A. Première étape – AntClass stochastique
Cette étape consiste en une application directe de
l’algorithme AntClass décrit précédemment. La colonie de
fourmis est disposée suivant une loi aléatoire uniforme sur
la grille contenant les pixels de l’image à classifier. Les
règles et les heuristiques qui simulent le comportement
naturel des fourmis restent sensiblement les mêmes, les
principales modifications se situent au niveau des points
suivants :
a. La génération de la grille spécifiée initialement par
AntClass entraîne un temps de traitement très important.
Pour notre application, et dans le but de réduire le temps de
calcul, l’image multispectrale à classifier est assimilée à la
grille bidimensionnelle sur laquelle se déplaceront les
fourmis. Sa taille est donc déterminée automatiquement en
fonction des dimensions de cette image.
b. AntClass suggère l’utilisation d’une grille toroïdale de
manière à ce que les fourmis passent d’un côté à un autre
côté de la grille en un seul pas. Dans le cas contraire,
l’algorithme peut provoquer des effets de bords indésirables.
Pour simuler la forme toroïdale de la grille, nous avons
simplement relié virtuellement les bords de l’image
multispectrale. Quand une fourmi atteint un bord de la
grille, elle disparaît et réapparaît du côté opposé de la grille.
CNTA ’09 Université A.MIRA BEJAIA
c. Les paramètres T
create
et T
remove
Cette première étape est un processus itératif qui
s’achève lorsque le taux d’exploration des pixels est de
100% ou égal à un seuil fixé (par exemple 90%, 95%, etc.).
A la fin de cette étape une image étiquetée est obtenue.
Cependant, cette image risque de présenter les deux
problèmes cités précédemment, à savoir : 1) un nombre
élevé des classes trouvées, et 2) le déplacement des fourmis
étant aléatoire, il y a risque de présence de pixels non
classifiés (pixels libres). La réutilisation de AntClass peut
s’avérer judicieuse pour la résolution du premier problème,
c'est-à-dire, réduire le nombre de tas. Cependant, vu que le
déplacement des fourmis reste strictement aléatoire, le
problème des pixels libres pourrait réapparaître. La
meilleure solution serait d’adapter AntClass aux deux
problèmes précédents. Pour cela, nous avons effectué une
seconde étape de classification en utilisant toujours les
fourmis.
sont déterminés d’une
manière empirique relativement à l’image à classifier. La
capacité de transport des fourmis est égale à 1.
B. Deuxième étape – AntClass déterministe
Cette deuxième étape dont le but est, d’une part,
d’octroyer une étiquette à chaque pixel libre, et d’autre part,
de réduire le nombre de classes trouvé initialement,
s’effectue à travers un algorithme déterministe à base de
fourmis ayant les caractéristiques suivantes :
- La colonie se compose d’une seule fourmi ;
- Le déplacement de la fourmi est déterministe ;
- La fourmi dispose d’une mémoire interne propre ;
- La capacité de transport de la fourmi est infinie ;
- Les règles heuristiques de base sont adaptées pour
permettre à la fourmi de manipuler des tas entiers ;
- Les paramètres T
create
et T
remove
VI. APPLICATION, RESULTATS ET EVALUATION
sont aussi considérés.
L’application de Antclass requiert principalement la
spécification de trois paramètres : le nombre de fourmis et
T
create
et T
remove
. Les fourmis dont le nombre varie selon le
nombre d’objet à classer, vont manipuler des pixels de
valeurs comprises entre 0 et 255. Donc, la valeur minimale
de T
create
est égale à 0. Quant à la valeur maximale de
T
remove
, elle est égale à 255(Nb_bandes)
1/2
où Nb-bandes est
le nombre de bandes spectrales de l’image à classifier. De ce
fait, plus T
create
est faible (tend vers 0), plus la création de
tas (ou classes) homogènes est assurée, et plus T
remove
A. Application sur des données simulées
est
élevé (tend vers 1), plus la possibilité de destruction de tas
(ou classes) homogènes est faible.
Nous avons construit une image multibande qui simule
une image à 03 canaux spectraux avec 05 classes distinctes :
l’eau, la végétation dense, le sol nu, l’urbain et la végétation
moins dense. Lors de la simulation, nous avons essayé de
respecter la signature spectrale de chaque classe. Ces
données sont présentées par la Fig.2.a La partition initiale de
cette image est donnée par la Fig.2.b. Les résultats de la
classification en fonction du nombre de fourmis et de T
create

(0.01) et T
remove

(0.09) sont donnés par les Fig.3.a, b, c et d.




































Suite à différents tests, nous avons remarqué, qu’une
fourmi est capable de détecter 19 sous classes contenues
dans les 05 classes principale de l’image simulée, mais, elle
n’arrive à scruter que 2% des pixels de l’image et laisse,
donc, 98% de pixels libres. Avec 100 fourmis (Fig.3.a), le
nombre de classes trouvées passe à 30 et le nombre de
pixels libres chute à 9%. Avec 300 fourmis tous les pixels
sont visités (0% pixels libres), mais le nombre de classes
reste constant. Ceci s’explique par le fait que d’une part, une
fourmi ne regarde pas un pixel déjà étiqueté par la fourmi
précédente, et d’autre part, le mode de fonction de AntClass
est décentralisé, c'est-à-dire, chaque fourmi dispose d’une
vision locale de son environnement, et ne continue pas le
travail d’une autre fourmi. Ainsi, nous avons fixé le nombre
de fourmis à 250 (Fig.3.b) et nous avons introduit
l’algorithme AntClass déterministe pour d’abord, classifier
les quelques pixels libres non encore testés (Fig.3.c),
ensuite, fusionner les classes similaires pour diminuer le
nombre de classes surestimé et aboutir à la classification
finale avec 05 classes uniquement (Fig.3.d).
a). Image simulée

b). Partition initiale
Figure 2. Données de test simulée
b). AntClass avec 250 fourmis



a). AntClass avec 100 fourmis
c). Classification des pixels libres d). Classification finale
Figure 3. Résultats de AntClass sur les données simulées
CNTA ’09 Université A.MIRA BEJAIA
B. Application sur des données réelles
Nous avons choisi une image multispectrale couvrant la
région nord-est de la ville d’Alger, acquise par le capteur
ETM+ du satellite Landsat-7, le 03 juin 2001. L’image
comporte six bandes spectrales avec une résolution spatiale
de 30mx30m et une taille de 256x256 pixels (Fig.4).
















La considération de l’image de télédétection a nécessité
d’autres valeurs pour les paramètres T
create
et T
remove



























Avec 250 fourmis, la plus grande partie des pixels est
classifiée dans l’une des 123 classes découvertes
initialement. Les 0.8% pixels libres dont la majorité est
située sur le bord droit et le bord inférieur, sont étiquetés au
second tour durant lequel la partition finale est aussi obtenue
par l’agrégation des classes similaires (Fig.5) et l’arrivée
ainsi, à 07 classes bien séparables. Comparé au résultat de
K-means (Fig.6), AntClass présente deux grands avantages :
d’abord, il ne nécessite aucune spécification du nombre de
classes à l’entrée, et puis les fourmis sont très sensibles aux
faibles variations spectrales des classes, d’où la richesse
structurelle et texturale du résultat obtenu (notamment la
bonne discrimination du réseau routier).
. Nous
les avons fixées d’une manière empirique à 0.008 et 0.96
respectivement. Etant donné que le nombre de pixels à
classifier est le même que pour l’image simulée (256x256),
alors le nombre de 250 fourmis a été retenu. Le résultat final
est présenté par la Fig.5 et est comparé au résultat obtenu
par l’algorithme K-means (07 classes) donné par la Fig.6.
VII. CONCLUSION ET PERSPECTIVES
Dans cet article, nous avons présenté un nouvel
algorithme de classification automatique « AntClass »
s’inspirant du comportement d’auto-organisation d’une
colonie de fourmis. Suite aux résultats obtenus, nous
pouvons dire que AntClass est un classifieur très intéressant.
Il découvre automatiquement les classes dans des données
numériques sans connaître le nombre de classes a pr iori,
sans partition initiale et sans paramétrages délicat. Nous
avons de démontré qu’il peut être adapté efficacement à la
classification contextuelle (il intègre le contexte spatial) des
données satellitaires multispectrales. Cependant, et comme
cette efficacité dépend des paramètres T
create
et T
remove
REFERENCES
, nous
proposons pour la suite de nos travaux de recherche, de
revoir l’introduction de ces paramètres dans l’algorithme. Il
serait, peut être, judicieux de les calculer d’une manière
automatique en fonction des données à classifier, ou alors, de
les déclarer comme des variables incrémentales avec le
passage de chaque fourmi. Aussi, il est important de valider
sur le plan spectral la nature thématique des classes obtenues.
[1] R. Khedam, « Contribution au développement de méthodologies de
fusion/classification d’images satellitaires multisources », Thèse de
Doctorat en Eléctronique, USTHB, 2008, p.200.
[2] J. A, Richards, “Remote Sensing Digital Image Analysis”, An
Introduction. 2
nd
[3] L. Jourdan, « Métaheuristiques pour l’extraction de connaissances :
application à la génomique ». Thèse pour obtenir le grade de Docteur
de l’U.S.T.L. Discipline : Informatique. Université des Sciences et
Technologies de Lille, Lille, 2003, p. 224.
Edition, Springer-Verlag, Berlin, 1993.
[4] G. Celleux, E. Diday, G. Govaert, Y. Lechevallier, H.
Ralambondrainy, « Classification automatique des données.» Editions
Dunod Informatique, Paris, 1989.
[5] J. Dréo, A. Pétrowski, P. Siarry, E. Taillard, « Métaheuristiques pour
l’optimisation difficile ». Edition Eyrolles, 2003, Chapitre 4, pp. 115-
141.
[6] J. Deneubourg, « Application de l’ordre par fluctuations à la
description de certaines étapes de la construction du nid chez les
termites ». Insectes Sociaux, (1977), pp. 117-130.
[7] N. Monmarché, « Algorithmes de fourmis artificielles : applications à
la classification et à l’optimisation ». Thèse de Doctorat de
l’université de Tours. Discipline : Informatique. Université François
Rabelais, Tours, 2000, p. 231.
[8] E. Bonabeau, G. Theraulaz, Intelligence collective, Hermes, 1994.

Figure 4. Composition colorée de l’image de test
El Hamiz
Bab
Ezzouar
Dar El
Beida
Aéroport
d’Alger
Végétation

Sol nu
Figure 5. Résultat final de AntClass
Figure 6. Résultat de K-means en spécifiant 07 classes et 05 itérations
CNTA ’09 Université A.MIRA BEJAIA

Modélisation de la pollution marine de la baie d’Alger sous SIG

Mennad Moussa
1
Houma Fouzia
2
. Bachari Nour el islam
1


1)F.S.B Université des Sciences et Technologie Houari Boumediene (U.S.T.H.B) Alger

2)Institut des Sciences de la mer et Aménagement du littoral (I.S.M.A.L)

ABSTRACT

Ce travail a pour but la mise en place d’un système d’intégration des données multisources pour
le suivi de la pollution marine des zones côtières. Le modèle conçu fonctionne en parallèle entre
les donné es RASTER et l es donné es ve ctorielles. Le s ystème de gestion de ba se de donn ées
choisie est le MSOFFICE pour faciliter l’application et la rendre disponible à tout utilisateur. En
ce qui concerne l a partie i mage nous avons développé une t echnique qui permet la création du
trait de côt e à pa rtir de s ima ges s atellites r apidement. D’autre pa rt l e s ystème dé veloppé es t
conviviale pui sque est communication a vec t out l ogiciel S IG pr ofessionnel. P our l ’analyse
thématique des cartes de l a concentration des métaux l ourds sont développées. Une vue directe
des différentes cartes nous montre que la partie centrale de la baie d’Alger présente un taux élevé
des di fférents pol luants. L’analyse s tatistique es t ef fectuée pa r Excel en communicant ave c l a
banque de données.

Key Words : Modélisation, Conception banque de données, Analyse thématique

1 INTRODUCTION
L’Algérie possède une côte de 1300 km de longueur. Pratiquement 60-70% de la population
vive dans les zones côtières. Ces zones sont en transformation rapide en occupation du sol cela à
des cons équences di rectes s ur l a qua lité de s e aux marines sous l es ef fets na turelles et act ions
humaines. Le suivi des transformations s’effectue :
(i) directement par observation spatiale (photos aériennes ou images satellites)
(ii) indirecte en étudiant les qualités des eaux côtières.
L’approche spatiale offre une vue synoptique globale de la région qui peut servir comme un fond
de car te num érique d’ une pa rt m ais aus si ces i mages pe uvent s e t ransformer en certains
paramètres indicateurs de la pollution et de la pression démographique. L’utilisation simultanée
des i mages s atellites et des mesures l ocales nou s pe rmet d ’effectuer un e ét ude qu antitative et
qualitative (Bachari N. I & Houma F., 2006).

2. ZONE D’ETUDE
La baie d’ Alger se situe au cœur du l ittoral a lgérois, elle s’inscrit en creux dans l a pl aine de
Mitidja, caractérisée par sa forme semi circulaire, délimitée au nord par l a mer méditerranée, à
l’ouest par la pointe Pescade (3°00’E) et cap Matifou (3°18’E) à l’est (Fig1). Elle s’étale sur une
surface de 7Km de nord au sud et de 18 Km d’est en ouest. Nous avons oued El Hamiz et oued
El Harrach, dr ainent l es eaux usées domestiques et i ndustrielles, les eaux de ruissellement et
d'irrigation des zones de la Mitidja qu'ils traversent. Les eaux usées urbaines de la ville d'Alger,
des vi lles côtières et des uni tés industrielles s ont dr ainées vers le port ou la baie d'Alger s ans
traitement : 70 points de rejets dont 26 rejets dans le port d'Alger. Dans cette zone, le facteur de
dégradation lié aux act ivités a nthropiques est i mportant. En effet, les rejets di rects pa r l es
CNTA ’09 Université A.MIRA BEJAIA
émissaires ur bains et i ndustrielles ai nsi que l es r ejets charriés p ar l es oueds, représentent l es
facteurs de dégradation.


SITUATION GEOGRAPHIQUE
7 km
18 km
Cap Matifou
Pointe Pescade
Port d’Alger
Oued El Harrach
Oued El Hamiz
6.67 KM
2.01 KM
Ras Acrata
Sidi Fredj
Oued Beni
Messous

Figure.1 Baie d’Alger avec toutes les informations spécifiques

3. Modélisation conceptuel des données
3.1 Schéma conceptuel :
Notre but es t l a con ception d’un système d’ analyse d es donné es r elatives à l ’analyse s patiale
pour l e s uivi de l a pol lution marine. P our r éaliser un t el s ystème nous a vons dé veloppé un
schéma conceptuel général qui a pour objet l’intégration des données spatiale et données in-situ
dans la base de données (Bordins P., 2002.).
















Figure.2 Schéma conceptuel du système développé
Acquisition des données
Données spatialement
référencées
Données descriptives
Cartes
existantes
Capteurs
(ex :satellite)
Observation in-situ
Fichier de données Numérisation Digitalisation
Prétraitement
Mise en relation des données spatiales et descriptives
Stockage Manipulation et
analyse de données
Edition
Mise à jour
Requête
Gestion de données
Visualisation
Ecran Imprimante Fichier de
données
CNTA ’09 Université A.MIRA BEJAIA
3.2 Cartes et images satellites :
Les images satellites de la baie d’Alger disponible datent de 1976 réalisée par le satellite
LANDSAT MSS sur support papier ; mais les premières vues sur support numérique datent de
1986. Et depuis des différentes prises par des différents capteurs sont disponibles. Les images
satellites sont caractérisées par une richesse multi échelle spatiale et spectrale. La banque des
images crée selon les deux critères la hiérarchie suivante : Date, Région, Nom du capteur,
Spectre, paramètres. Exemple (Avril, 2007, Ikonos, Bleu, Réflectance). L’accès à la banque
d’images s’effectue par une requête selon les différentes informations.
3.2.1 Image trait de côte :
Les images satellites disponibles sont toutes callées en premier lieu. S’ajoute à ces images une
image t rait de côt e développé par la mr ohologie ma thématique e n ut ilisant le log iciel
PCSATWIN ( Bachari et a l, 1997 -2007). Cette o pération est appl iquée s ur une i mage à h aute
résolution spatiale avec une vue globale d’Alger. Nous avons utilisés l’image panchromatique du
satellite SPOT pr ise da ns de ux da tes di fférents 1990 e t 2005. L’image résultante t rait de côte
Baie d’Alger est réalisée sur 120 km avec un coût en temps record cinq minutes (Figure.3).

Figure.3 Trait de côte tracé à partir de prétraitement d’image
3.2.2 Cartes fond marin :
Les cartes fond marin sont digitalisées directement à l’aide d’outil numérisation. L’intérêt de la
digitalisation numérique est la production d’une carte thématique ou toutes les parties conçues
sont présentes avec une option de changer ou d’intégrer d’autres informations comme présence
de posidonie (Rebzani-Zahaf C., 2003). Aussi une carte bathymétrique est crée en utilisant
l’appui de 200 mesures et l’interpolation spatiale par la technique du Krigeage (Bachari N. I &
Houma F., 2006)

Figure.3 Cartes fond marin avec les informations numériques des différentes classes


CNTA ’09 Université A.MIRA BEJAIA
3.3 Répertoire données.
Pour la partie mesure in-situ l’archivage des données mesurées est hiérarchisées selon le critère
suivant : Date de prise d’échantillon, responsable de la sortie, engin de transport
(caractéristiques), échantillonnage, paramètres mesurées in-situ, paramètres mesurées au
laboratoire (appareillages et technique).
3.2.1 Classification des études :
Pour r éaliser ce t ravail nous avons ef fectué une col lecte de s r ésultats de s di fférents travaux
réalisés dans la baie d’Alger. Nous avons pris trois groupes d’études selon la nature de pollution :
Pollution biologique, pollution par les métaux lourds et pollution par les hydrocarbures.
3.2.2 Création de la banque de données :
Pour les différentes études, nous avons archivé les stations avec les paramètres mesurés et leurs
coordonnées géographiques. P our l es é tudes qui ne pos sèdent p as de s c oordonnées
géographiques nous avons utilisé les cartes existantes et nous avons transformé ces dernières en
cartes géo- référenciées. Le système d’information géographique utilisé est le MAPINFO7. Les
projections en espace de toutes les stations sont présentées dans la figure suivante (Fig.4) :

Figure.4 Intégration des mesures in-situ sur une image satellite
4. Traitement d’information.
4.1 Traitement statistique
Pour t oute a nalyse t hématique nous a vons be soin d’effectuer une analyse s tatistique à t itre
quantitative/qualitative. Cette analyse est importante afin d’observer les différentes corrélations
et les comparaisons spatiales/temporelles entre les paramètres physico-chimiques.










Figure.5 Schéma d’analyse statistique
ANALYSE DES PARAMETRES
PHYSI CO-CHI MI QUES

Analyse st at ist iques:
Anal yse Thémat i ques
1- Cart e MES
2-Cart e o2 ect …
3-Cart e Chlorophyll e
1-Descrept i ve
2-Test
3-ANOVA
4-ACP

CNTA ’09 Université A.MIRA BEJAIA

Pour rendre notre système souple et puissant une communication avec l’outil Excel est effectuée.
Cette communication permet d’ échanger l es don nées ent re l es de ux s ystèmes et i ntégrées l es
résultats da ns l e s ystème d’ affichage de s ca rtes t hématiques. A t itre d’ exemple nous a vons
comparé l es paramètres physico-chimiques mesurées i n-situ entre les r égions Est et Ouest par
l’ANOVA ou les résultats nous donnent un rejet d’égales des moyennes au seuil de 5%.

4.1.2 Analyse de la répartition des métaux traces dans les sédiments superficiels


Afin de mettre en évidence le lien entre les variables et les stations de prélèvement dans la baie
d’Alger, une ACP a été réalisée à partir des valeurs des métaux obtenus dans 16 stations.

Variables Pb Cd Cr Zn Cu Mn
Pb 1
Cd 0,2757 1
Cr 0,69059 0,10951 1
Zn 0,18798 -0,03366 0,29071 1
Cu 0,92678 0,30143 0,74272 0,20803 1
Mn 0,35713 0,43187 0,48841 0,32164 0,61474 1
Min- Max 17.50-117 0.15- 1.79 11.4- 83.60 71.5- 322.10 14.25- 80.5 108.55- 349.9
Moyennes 43,875 0,8775 34,86875 190,60625 33,10625 234,7625
Ecarts-t 25,96119 0,45654 16,13038 69,50953 15,43661 58,73617
Nb Obs. 16
Cv % 59,17 52,03 46,26 36,47 46,63 25,02

Tableau.1 corrélation inter variables


Les r ésultats de c orrélation montrent que t outes l es va riables s ont c orrélées pos itivement, et
seulement une corrélation est négative celle du Zinc (Zn) et le Cadmium (Cd). La corrélation est
bonne entre l e pl omb, l e cuivre et l e Chrome, l e r este des variables pr ésentes des corrélations
faibles. Le coefficient de va riation nous m ontre, que l a di spersion e st bonne ( distribution
homogène autour de l a moyenne) pour l es variables Pb, Cd, Cr, Cu et Zn, et elle est modérée
pour le Mn (distribution hétérogène autour de la moyenne). Les résultats obtenus montrent que
les trois premières composantes principales contiennent environ 86.77 % de l’information (axe I:
53.14%, axe II: 17.98% et axe III: 15.64%).La question suivante est quelle est l a variable qui
contribue l e pl us à l a f ormation des axes. L'examen du t ableau des contributions des variables
montre que les variables qui ont un r ôle dominant dans l a formation des axes sont: Axe I : le
plomb, le cuivre et le Chrome ; Axe II : Le cadmium ; Axe III .

4.1.3 Interprétation

En examinant la projection des variables sur les trois axes principales, on constate :
1. Aucune va riable n'a un r ôle dominant dans l 'orientation des ax es f actoriels. Le groupe de s
variables Cu, Pb, Cr et Mn semble bi en expliqués par l ’axe I, par contre les variable Cd et Zn
sont bien expliquées par l’axe II et enfin le Zn est bien individualisé par l’axe III.
2. La projection des stations mis en évidence la dominance de la station B3 dans la formation de
l’axe I. Cette station présente l es concentrations maximales des métaux : Cu, Pb, Cr et Mn. La
station A2 est bien représentée par l’axe II, elle possède la concentration maximale du cadmium.
L’axe III est expliqué par la station CD2, elle aussi présente la concentration maximale du zinc.

CNTA ’09 Université A.MIRA BEJAIA
L’ACP nous a pe rmis de r essortir l es s tations le s pl us pol luées e t l ’origine des éléments
polluants. La station B3 présente un maximum de pollution par les métaux Cu, Pb, Cr et Mn, et
les stations A2 et CD2 est plus polluées successivement par le Cd et le Zn.
4.2 Analyse thématique des cartes fond marins

Les SIG nous offrent tous les outils modernes pour créer des cartes, y intégrer des informations
résoudre de s pr oblèmes complexes, présenter e fficacement nos i dées e t mettre en place d es
solutions ef ficaces com me j amais aupa ravant (Borda L . B ., 2003 ). La r eprésentation ou
visualisation des résultats sous forme cartographique constitue, en quelque sorte, la finalité de la
démarche d’évaluation de la qualité des eaux côtière, qui représente l’information géographique
d’une manière visuelle et accessible à tous. La représentation d’un paramètre peut permettre à
l’utilisateur de tr ouver r apidement une explication a u ph énomène étudié (AIEA., 2001 ).
L’interpolation e st t rès e fficace pour i dentifier l es r égions ou l es c oncentrations s ont
particulièrement élevées.

4.2.1. Plomb :





Il ressort d a l a pr emière vue qu e l a r épartition du pl omb e st hé térogène. La c oncentration
maximale se situe, au droit de l’embouchure d’oued El Harrach autour de la station B3, ainsi, la
partie occidentale et centrale présente des concentrations élevées. La forte variation de ce métal
témoigne de s r ejets urbains et i ndustriels ( métallurgie oued Smar, chaudronnerie de l ’Hussein
Dey). P lus l es s ources a tmosphériques ( utilisation du pl omb t étraméthyle). Les fortes
concentrations sont dans la partie ouest et centrale de la baie.



4.2.2 Cadmium :




Figure 6. Distribution spatiale du plomb dans la baie d’Alger
Figure .7. Distribution spatiale du cadmium dans la baie d’Alger

CNTA ’09 Université A.MIRA BEJAIA
Les c oncentrations l es plus é levées s e t rouvent a u ni veau du por t d ’Alger, d ans l a pa rtie
occidentale ( Bab El Oued) et da ns l a pa rtie or ientale ( Bordj E l B ahri), l a z one cent rale es t
caractérisé p ar de s con centrations f aibles. Ce métal s e r épartie uni formément da ns l a ba ie, il
semble être lié aux r ejets littoraux (oueds, égouts urbains, métallurgie au niveau de oued Smar,
industrie pl astique d’ El-Harrach, papeterie et i mprimerie….) et à la p ollution atmosphérique
(production du ciment au niveau d’Alger et Rais-Hamidou).

4.2.3 Chrome :




Les t eneurs m aximales du c hrome s e t rouvent a u ni veau de l a s tation B 3, a u dr oit de
l’embouchure d’oued El Harrach, ainsi qu’au niveau de l’embouchure d’oued Hamiz mais avec
moins d’ampleur. Les concentrations les plus élevées se situent au niveau de Oued El-Harrach et
Oued El-Hamiz. Les f ortes concentrations sont issues des r ejets industriels di rects ou indirects
dans ces Oued des uni tés s uivantes (unité S .N.I.C-Reghaia, Rouïba, métallurgie Oued S mar,
céramique Kouba Alger).

4.2.4 Zinc:



Les conc entrations l es p lus él evées s e s ituent da ns l a pa rtie or ientale de l a ba ie autour d e l a
station CD2, pas loin de l’embouchure de oued Hamiz, ainsi que dans les stations B3 et B4 au
droit de l’embouchure de oued El Harrach. Les teneurs les plus faibles, se situent dans la partie
occidentale de l a ba ie e t l es pl us é levées s ’observent a u dr oit de l ’embouchure de Oued El-
Harrach et dans la partie orientale de la baie. Les sources de ce métal sont liées au rejet industriel
tel que (industrie plastique El-Harrach, industrie de papier (C E L PAP) Oued Smar, fabrication
de câbles électriques Rouïba, Oued Smar).





Figure.8. Distribution spatiale du chrome dans la baie d’Alger
Figure 9. Distribution spatiale du zinc dans la baie d’Alger
CNTA ’09 Université A.MIRA BEJAIA
4.2.5 Cuivre :



Figure.10. Distribution spatiale du cuivre dans la baie d’Alger
Les t eneurs du cuivre s ont é levées da ns l a pa rtie oc cidentale a u ni veau du por t d’ Alger, e t
atteignent le maximum au droit de l’embouchure d’oued El Harrach. Les fortes concentrations à
l’ouest de la baie prés des principaux émissaires d’eaux résiduaire et du port d’Alger. Par contre
les teneurs les moins élevées sont au centre de la baie. Les industries responsables de rejet de ce
métal sont (unité SN metal-Alger ; fondrie-Braki, El-Harrach ; unité CEL PAP du pa pier- Oued
Smar).

4.2.6 Manganèse :



Figure.11. Distribution spatiale du manganèse dans la baie d’Alger

A part les teneurs faibles du large, le manganèse se répartir uniformément dans la baie d’Alger.
Les fortes concentrations à l ’ouest de la baie prés des principaux émissaires d’eaux résiduaire et
du port d’Alger. Par contre les teneurs les moins élevées sont au centre de la baie. Les industries
responsables de rejet de ce métal sont (unité SN metal-Alger ; fondrie-Braki, El-Harrach ; unité
CEL PAP du papier- Oued Smar).

4.3 Discussion
Les di fférentes c artes r éalisées ( avec di fférentes va riables) ont montrés de s f ortes va riations
locales pour l e pl omb, l e chrome, le cuivre et l e z inc, ainsi une r épartition homogène pour l e
cadmium et le manganèse. Cette irrégularité de la répartition des métaux peut être expliquée par
le comportement spécifique de chaque él ément, ainsi que par l a pr ovenance et l e cont enue des
rejets dans la baie d’Alger.

L’interprétation de s c artes obt enues de la r épartition des m étaux en f onction du faciès
sédimentaire, nous a montré : Les t eneurs en cuivre et en plomb sont él evées da ns l es va ses.

CNTA ’09 Université A.MIRA BEJAIA
Pratiquement, i l n’ existe a ucune r elation de concentration du c hrome, du c admium, d u
manganèse et du zinc avec le faciès sédimentaire.


5. CONCLUSION

Ce travail a pour objet la mise en place d’un système d’intégration des données RASTER avec
des donné es ve ctorielles pour l a c réation d’ une ba se de donné es s pécifiques à l ’analyse
numérique d es mesures in-situ a vec une r eprésentation c artographique adéquate. Nous a vons
conçus un s chéma conceptuel pour l ’intégration des données qui f onctionne en parallèle d’une
part l es i mages et d’autre part l es donné e acquises i n-situ.. Pour l a réalisation de not re t ravail
notre c hoix a é té opt é pour de s l ogiciels MSOFFICE vu l eurs di sponibilités da ns t outes les
machines. Nous avons opté à r éaliser de s communications avec d es S IG pr ofessionnels pou r
toute ét ude géoréférenciées. Notre appr oche consiste à cr éer de s obj ets SIG préparées pour l a
région pour f aciliter l ’intégration de s donné es n umériques e n donné es c artographiques. Cette
étude, nous a permis d’établir une banque de données géoréferenciées sur les concentrations des
différents polluants de la baie d’Alger. L’analyse spatiale des cartes des polluants métaux lourds
montre que la distribution de ces métaux est hétérogène dans la baie avec une forte concentration
au c entre de l a b aie. La f orte concentration da ns l e c entre de ba ie s ’explique pa r l a f orme
topographique de la baie et par la circulation de l’eau dans la baie.
Notre travail n’est qu’un essai de conception d’un outil qui peut remédier à ce problème, il peut
aider l’ utilisateur s ’il d ispose de donné es à le s int égrer facilement, avec la pos sibilité de
sécuriser les données, de les mettre à j our et en plus de les représenter et les vi sualiser sur des
cartes, effectuer de s analyses s ur c es donné es pour obt enir une ba se de donné e t ouristique
enrichie d’informations.


Bibliographie

AIEA., 2001 . T he pe rformance s tudy f or M edpol: de termination of t race e lements a nd
methylmercury in estuarine sediment sample

Bachari N; Benbadji N et Abdellaoui A., 1997. Développement du logiciel d'analyse spectrale
et temporelle des images satellite type SPOT, LANDSAT et METEOSAT. A.M.S.E.J Volume 38,
N° 1,2. p 15-38.


Bachari N. I & Houma F., 2006. Approche SIG pour l'analyse de la pollution marine de la baie
d'Alger. Proceeding du premier c ongrès Méditerranéen d'Océanologie, du 20 -22 N ovembre
2006, Sidi Fredj- Alger Algérie. P:58.

Bachari N. I & Houma F., 2006. Détermination des cartes bathymétriques des zones côtières à
partir des images satellites. Rapport du premier congrès Méditerranéen d'Océanologie, du 20-22
Novembre 2006, Sidi Fredj- Alger Algérie. P:16.

Rebzani-Zahaf C., 2003. Les peuplements macrobenthiques des milieux por tuaires de l a côt e
algériennes: Alger, Bejaia et Skikda. Thèse Doctorat. Océanographie. USTHB, Alger. 244p.

Borda L. B ., 2003. Apport des systèmes d’information géographique (SIG) pour la surveillance
et l’évaluation de la qualité des eaux côtières. Une cont ribution à la gestion intégrée de la zone
côtière Colombienne. Thèse de Doctorat en science technique. Ecole Polytechnique Fédérale de
Lausanne (EPFL). 213p.

Bordins P., 2002. SIG concepts, outils et données. Lavoisier. 259p
CNTA ’09 Université A.MIRA BEJAIA



CNTA ’09 Université A.MIRA BEJAIA
Service Multimedia Mobile
Studies of some protocols to implement a new videoconference platform using wired and wireless networks

UAli Hassoune, M.U* , Bouazza M.A. and Mekkakia Z.
Department of Computer Engineering, Faculty of Science, University of Science and Technology. P.O.B. 29031
U.S.T.O., Oran 31036, Algeria.
Fax: 00 213 41 325936 Email: alihassounea@yahoo.fr



Résumé - Le service multimédia mobile connaît une extension
phénoménale s urtout dans l e domaine des nouvelles t echnologies
de l ’information et de la communication. Pour la mise en œuvre
de ce s ervice, une ét ude comparative des différents protocoles de
signalisation, m obilité a insi q ue l es d ifférentes a rchitectures
client/ serveur s’avère plus que nécessaire.
Le choix a ét é orienté vers deux protocoles: Le premier étant
SIP p our la s ignalisation, et c ela p our sa s implicité, r apidité et
légèreté d’utilisation t out en ét ant très complet par rapport à ces
concurrents ( MGCP et H 323). L e d euxième p rotocole ét ant
RTP/RTCP p our l e co ntrôle d es flux multimédia en t emps réel,
basée sur une architecture point à point.
Notre a pplication SMAV rep résente une p late-forme p our
toute application multimédia. Elle es t portable s ur l es d ifférents
types d e rés eaux ( filaire et s ans f il). Elle est co nstituée d e trois
modules disjoints où chacun a une fonction précise.
SMAV peut êt re étendu à une architecture Client/Serveur en
incluant le mode multicast.
L’intégration de l a co nversion d’adresses I P s elon l e
mécanisme N AT ren d l a p late-forme o pérationnelle s ur les
réseaux étendus.

Mots clés : SIP, RTP/RTCP, Client/Serveur, Mobilité, VoixIP,
visioconférence



INTRODUCTION
La fonctionnalité multimédia impose des exigences au réseau
comme (Temps réel , Q oS et ordonnancement …). Pour
satisfaire ces exigences, des protocoles ont vu le jour. Ces
protocoles ont été classés selon leur fonction première. Il y a
ceux de signalisation tels que SIP (Session Initialisation
Protocol), H323, MGCP (Media Gateway Control Protocol),
et il y a ceux qui gèrent le contrôle des flux tels que
RTP/RTCP (Real Time Protocol / Real Time Control
Protocol).
Les contraintes citées ci-dessus ne restent pas les seules, vu la
migration des réseaux vers de nouvelles technologies de
liaisons. Cette migration est caractérisée par l’apparition des
réseaux sans fils. Ces réseaux ne cessent de se développer
citant les réseaux satellitaires, les réseaux radio et les réseaux
WIFI. Toutes ces nouvelles technologies ont entraîné
l’apparition d’une nouvelle classe d’utilisateurs, dit les
ordinateurs mobiles, qui se déplacent d’un réseau à un autre
en entraînant à leur tour de nouvelles contraintes : des
problèmes de routage et de transport. Pour palier à ces
nouvelles contraintes il fallait aussi développer un protocole
ayant pour fonction la gestion de ces technologies mobiles
comme le MIP (Mobile Internet Protocol).
Tout au long de ce présent mémoire nous allons citer les
mécanismes de fonctionnement de certains protocoles dédiés
au transport du multimédia (Audio et Vidéo) et à la gestion
de la mobilité.
C’est dans cette thématique que vient s’inscrire notre
manuscrit qui est « Le Service Multimédia Mobile ».
À cet effet, notre présent manuscrit est organisé comme suit :
Partie1 : présente les différents protocoles de signalisation
Partie2 : présente la notion de la mobilité et les protocoles qui
gère la mobilité
Partie4 : Conception et implémentation du SMAV

Nous concluons notre travail par une synthèse sur l’étude
faite, l’approche retenue et d’éventuelles perspectives.

I.1.1 Présentation de MGCP
MGCP est le sigle de Media Gateway Control Protocol,
développé par Telecordia et Level 3 Communications. Il est
défini dans le RFC 2705 en 1998. C'est un protocole
(Client/Serveur) de VoIP (Voice Over IP). Il sert à l'échange
de messages de signalisation entre un contrôleur de
passerelles de médias et des passerelles réparties dans un
réseau IP. Pour l'établissement et la libération des
connexions, MGCP se sert de signaux et d'événements.
Les différents éléments qui utilisent MGCP sont:

• Le Media GateWay (MGW) : est le point d’entrée ou
de sortie des flux média à l’interface avec les réseaux IP et
téléphoniques. Le MGW effectue la conversion des médias
entre le mode circuit (téléphonique) en le mode paquet (IP).
• Le Media Gateway Controller (MGC) ou Call Agent :
se charge de l’enregistrement, la gestion et les contrôles des
ressources des Media Gateway. Il coordonne l’établissement,
le contrôle et la fin des flux média qui transitent par la Media
Gateway.
• Le Signalling Gateway : qui réalise l’interface entre le
réseau de téléphonie (signalisation SS7) et le réseau IP.
La standardisation de MGCP a été stoppée pour faire place à
MEGACO/H.248 (MEdia GAteway COntrol protocol).
CNTA ’09 Université A.MIRA BEJAIA
I.1.2 Présentation de MEGACO/H.248
MEGACO (MEdia GAteway COntrol protocol) et H.248
sont des noms équivalents pour le même protocole étant
développé conjointement entre l'IETF(Internet Engineering
Task Force) et l'ITU (International Telecommunication
Union); MEGACO est le nom de l’IETF et H.248 est le nom
de l’ ITU. C’est un standard permettant la communication
entre les Media Gateway Controller (MGC) et les Media
GateWay (MGW). Il est dérivé de MGCP et possède des
améliorations par rapport à celui-ci :
• Support de services multimédia et de vidéoconférence.
• Possibilité d’utiliser UDP ou TCP.
• Utilise le codage en mode texte ou binaire.
Une première version de MEGACO a été adoptée en juin
2000 (RFC 3015). L’implémentation de MEGACO permet
une grande modularité ; en effet, ce protocole est étendu par
des « packages » répondant à des besoins spécifiques. Ce
système permet de couvrir un nombre très important
d’applications, mais complique aussi grandement les inters
fonctionnements d’équipements d’origines différentes. Ainsi
un constructeur peut implémenter, suivant ses besoins, tel ou
tel « package » qui ne sera pas obligatoirement choisi par un
autre constructeur.
Le contrôleur de passerelles contient également la
fonctionnalité de passerelle de signalisation. Les passerelles
de médias convertissent les flux de paquets IP contenant le
signal audio en des flux synchrones à 64 kbit/s, et
inversement. La signalisation mise en oeuvre entre le RNIS
(Réseau Numérique à Intégration de Service) et la passerelle
de signalisation est basée sur le système de signalisation SS7.
I.2 H323
H.323 est un protocole de communication englobant un
ensemble de normes utilisé pour l’envoi de données audio et
vidéo sur Internet. Il existe depuis 1996 et a été initié par
l’ITU.
Concrètement, il est utilisé dans des programmes tels que
Microsoft Netmeeting, ou encore dans des équipements tels
que les routeurs Cisco.
Le protocole H.323 est utilisé pour l’interactivité en temps
réel, notamment la visioconférence (signalisation,
enregistrement, contrôle d’admission, transport et encodage).
C’est le leader du marché pour la téléphonie IP. Il s’inspire
du protocole H.320 qui proposait une solution pour la
visioconférence sur un réseau numérique à intégration de
service (RNIS ou ISDN en anglais), comme par exemple le
service numéris proposé par France Telecom. Le protocole
H.323 est une adaptation de H.320 pour les réseaux IP.
I.3 RTP/ RTCP
RTP (Real Time Transport Protocol) est un protocole qui a
été développé par l’ IETF afin de facilité le transport temps
réel de bout en bout des flots de données audio et vidéo sur
les réseaux IP, c’est à dire sur les réseaux de paquets. RTP
utilise le protocole de transport UDP (User Datagram
Protocol), qui permet d’atteindre plus facilement le temps
réel. Les applications temps réels comme la parole numérique
ou la visioconférence constituent un véritable problème pour
Internet. Qui dit application temps réel, dit présence d’une
certaine qualité de service (QoS) que RTP ne garantit pas.
I.4 Session Initiation Protocol (SIP)
Le SIP est un protocole de signalisation normalisé et
standardisé par l’IETF (RFC 3261 et 2543) appartenant à la
couche application du modèle OSI. Son rôle est d’ouvrir,
modifier et libérer les sessions.
L’ouverture de ces sessions permet de faire de l’audio, vidéo
conférence, l’enseignement à distance, de la voix (téléphonie)
et de la diffusion multimédia sur IP essentiellement.
Pour ouvrir une session, un utilisateur émet une invitation
transportant un descripteur de session permettant aux
utilisateurs souhaitant communiquer de s’accorder sur la
compatibilité de leur média en utilisant le protocole SDP
I.5 Synthèse
Différents protocoles de signalisation ont été décrits : MGCP
- MEGACO/H248, H323, et SIP.
Ils sont conçus pour répondre aux besoins de contrôle de
session et de fonctions de signalisation dans une architecture
de contrôle d'appel distribuée. Bien qu’ils soient aussi prévus
pour permettre à des stations sans intelligence embarquée de
communiquer, ils prennent toute leur puissance quand ils sont
utilisés par des terminaux performants.
Le tableau ci-dessous donne une comparaison de ces trois
protocoles :
Aspect
SIP H.323
MEGACO/H.24
8
Constructeur IETF ITU IETF et ITU
Authentificatio
n et sécurité
SIP/SDP et
infrastructure
s web
H.235 H.248
Signalisation
des appels
SIP Q.931 SS7
Transport en
support
audio/vidéo
RTP RTP
TCP, UDP, SCTP sur IP
ou ATM ou MTP

Services et
intelligence du
réseau
Fournis par
les serveurs
(Proxy,
Redirect,
Registrar)
Fournis par
les
gatekeepers
Fournis pas les MGC
Modèle
Internet /
WWW
Téléphonie Téléphonie
Protocoles de
Transport
UDP ou TCP
TCP (UDP
est
optionnel
dans la
version 3)
TCP et UDP
Nombre
d'échanges
pour établir la
connexion
1,5 aller-
retour
6 à 7 aller-
retour
11
Maintenance
du c ode
protocolaire
Simple par sa
nature
textuelle à
l'exemple de
http
Complexe
et
nécessitant
un
compilateur
Codage Texte (ABNF)
Binaire (ASN1)
Evolution du
protocole
Protocole
ouvert à de
nouvelles
fonctions
Ajout
d'extension
s
propriétaire
s sans
concertatio
n entre
vendeurs
Protocole ouvert à de
nouvelles fonctions
Fonction de
conférence
Distribuée
Centralisée
par l'unité
MCU
Distribuée
Détection d'un
appel en boucle
Oui
Inexistante
sur la
version 1
un appel
routé sur
Oui
CNTA ’09 Université A.MIRA BEJAIA
l'appelant
provoque
une infinité
de requêtes
Signalisation
Multicast
Oui, par
défaut
Non Oui
Tableau 2. Comparaison entre SIP, H.323 et MEGACO/H.248
I.6 Conclusion
La simplicité, la rapidité et la légèreté d’utilisation, tout en
étant très complet, du protocole de signalisation SIP sont
autant d’arguments qui pourraient permettre à SIP de
convaincre les investisseurs. Pour le contrôle des flux de
données audio et vidéo en temps réel sachant qu’ils sont
transportés par le protocole UDP, le protocole RTP/RTCP est
le mieux adapté.
II. La mobilité
II.2 Le protocole Mobile IP (MIP)

C’est un protocole développé par l’ IETF et défini dans le
RFC3220. Son objectif principal est le maintien des
communications existantes entre la station mobile et ses
correspondants, même pendant les déplacements du mobile .
Les spécifications de ce protocole cherchent également à
optimiser le routage le plus direct possible entre le mobile et
ses correspondants ainsi que le support de l’acheminement
des paquets multipoint entre le(s) mobile(s) et le reste des
participants à une communication de groupe.
Quand un mobile se déplace, à l’aide des techniques de
transmission sans fil, il est amené à s’attacher à des points
d’accès divers situés généralement dans des (sous-)réseaux
distincts. Cette contrainte entraîne pour le mobile un
changement d’adresse IP. En effet, un équipement IP est
généralement identifié par une adresse appartenant au réseau
sur lequel il se trouve. Ce changement d’adresse entraîne
généralement la rupture des communications au niveau
transport.
À travers le protocole IP Mobile, l’ IETF permet de masquer
ce changement aux applications utilisées entre le mobile et
ses correspondants. Ceci consiste en premier lieu en
l’utilisation de deux adresses IP pour un mobile:
• La ho me a ddress (Adresse m ère): est une adresse
permanente utilisée pour identifier de manière unique l'hôte
sur l'Internet.
• La Care Of Address (COA) : est une adresse temporaire
utilisée pour router les datagrammes destinés à l'hôte mobile
au point d'attachement actuel de cet hôte.

II.2.2 La Mobilité IP
Chaque station mobile est toujours identifiée par l'adresse
(mère) de son point d'attache originel indépendamment de
son point de raccordement courant à Internet. Lorsqu'une
station mobile est séparée de son point d'attache, elle négocie
une adresse temporaire de réexpédition (ou adresse
temporaire primaire) qui permet de connaître sa localisation
en cours. Les paquets IP à destination de l'adresse mère d'une
station mobile sont routés de façon transparente vers son
adresse temporaire primaire par l'agent mère de la station
mobile. Le protocole permet aux nœuds IP de mémoriser la
correspondance entre l'adresse mère d'une station mobile et
son adresse temporaire primaire afin qu'ils puissent envoyer
directement les paquets destinés à la station mobile.
II.2.3 Principales Fonctions de MIP
On peut décrire les fonctions de MIP comme suit:
• Découverte d'agent
• Enregistrement
• Le routage

II.3 Hierarchic Mobile IP(HMIP)
HMIP est une amélioration du protocole MIP. Il a été créer à
cause des inconvénients de MIP, surtout le temps perdu
lorsque un mobile s'enregistre auprès de son agent mère à
chaque fois qu'il se déplace.
Son but est de compléter les fonctionnalités de MIP pour
offrir une micromobilité aux utilisateurs et de réduire le
temps d'enregistrement du mobile en utilisant des
enregistrements régionaux.
Le mobile peut se déplacer à l’intérieur du réseau visité sans
informer son agent mère de son déplacement. Le réseau visité
dispose d'un GFA (Gateway Foreign Agent) et un ou
plusieurs FA (Agent relais – Foreign Agent).

II.4 Conclusion
Suite à l’exposé des quelques notions de base de la mobilité,
le principe de fonctionnement du protocole MIP et HMIP
avec leurs différentes techniques de gestion de la mobilité
comme la découverte d'agent, l'enregistrement et le routage,
nous avons opté pour le modèle sans infrastructure (point à
point) qui semble être le plus approprié vu le manque de
ressources matériels.

III Conception & Implémentation de SMAV

III.1 Introduction
Suite à notre étude, le protocole SIP a été retenu comme
solution pour la signalisation. C’est un protocole complet,
simple, modulaire, ouvert et rapide par rapport aux autres
protocoles étudiés dans la 1
ère
partie. Aussi, Nous avons choisi
le protocole RTP/RTCP pour le contrôle de flux de données.
Notre application multimédia voix/vidéoconférence "SMAV"
conçu selon une architecture point à point (sans infrastructure)
qui est la plus appropriée où les terminaux sont connectés aux
réseaux via une interface Bluetooth.


III.2 Présentation de l'application SMAV

SMAV (SIP Mobile Audio Vidéo) est une application
multimédia voix/vidéo sur IP (Voice/Video Over IP) dont la
signalisation est basée sur le protocole SIP. L'envoi et la
réception des flux audio et vidéo se fait en temps réel grâce au
protocole UDP sous RTP/RTCP. Elle est, en même temps, un
client (User Agent Client) pour envoyer les requêtes et un
serveur pour les recevoir (User Agent Server).
Elle a été développée pour fonctionner sur des réseaux filaires
ainsi que sur des réseaux sans fils.
L'environnement de programmation choisi est Java en utilisant
le compilateur NetBeans de Sun MicroSystems .
Elle supporte plusieurs formats Audio (G723, GSM, PCMU,
DVI4_16000, PCMA, G728, G729) et Vidéo (H263, JPEG,
H261).
CNTA ’09 Université A.MIRA BEJAIA
III.3 Structure modulaire de SMAV

Notre application tourne autour de trois modules dont chacun
est responsable d'une tâche précise, tout en communicant entre
eux.
Ces modules sont: Module principale, SipManager, et
MediaManager





III.3.1 Module Principal

Il est constitué de deux sous modules:
Le module d' affichage (Interface Utilisateur) et le module
NetworkAdressManager qui détecte et gère les adresses IP
des participants.
Il fait appel à d'autres modules comme le SipManager et le
MediaManager.

III.3.2 SIPManager
Il est responsable de la signalisation. Il permet de faire des
transactions telle que l'ouverture d'une sessions en manipulant
les objets SIPFactory, SIPStak, SIPProvider, SIPListener qui
représentent les abstractions de l'API "JAIN-SIP".




Figure31. Architecture de SIPManager

III.3.3 MediaManager

Ce module détecte les périphériques de capture de multimédia
connectés au terminal qui vont être utilisés comme source de
la voix et de la vidéo. Il assure aussi leur transport à travers le
réseau.
Ce module est composé en deux sous modules:
AVTransmitter et AVReceiver
AVTransmitter : est responsable de l'envoi des flux audio et
vidéo en utilisant le protocole RTP/RTCP.

AVReceiver: est chargé de la réception des flux audio et
vidéo.

III.4 SMAV et le modèle OSI
Comme nous avons déjà mentionné que "SMAV" est
composée de trois modules principaux (Le module principal,
le SipManager et le MediaManager).
L’application multimédia se situe au niveau de la 7ème
couche du modèle OSI. Le SipManager se situe au niveau de
la 6ème et 5éme couches, car la signalisation SIP est à ce
niveau .Le MediaManager se situe au niveau de la 4ème
couche (Couche Transport), car le RTP /RTCP se situe dans
cette même couche juste au dessus de UDP.
Le média utilisé que soit filaire: un câble réseau, ou sans fil:
Bluetooth, se situe au niveau de la 1ère couche (Couche
Physique).


Figure32. SMAV sur modèle OSI


III.5 Mise en œuvre de SMAV

Selon la correspondance SMAV/ OSI, nous pouvons déduire
que la signalisation et le transfert des données en temps réel
sont indépendants du type de réseaux (filaire ou sans fil), car
la couche physique est indépendante de la couche application
et la couche transport. De ce fait, notre application est portable
sur tout type de réseaux.

III.5.1 Sur un réseau filaire
Nous avons implémenté notre application sur un réseau LAN
dont le câble utilisé est un câble coaxial et les débits de
connexions utilisés sont 10 et 100 Mbps. Le délai de
transmission de données est négligeable. Nous l'avons
implémentée aussi sur le réseau Internet, où les deux postes
sont connectés à travers le même fournisseur d’accès à
Internet. Nous avons utilisé le même fournisseur car la
signalisation avec SIP nécessite que les adresses IP des deux
postes utilisés doivent être publiques ou d’un même
fournisseur. Nous avons constaté que le délai de transmission
de données varie entre 0 et 1 seconde.

III.5.2 Sur un réseau sans fil
Pour mettre en œuvre notre application sur un réseau sans fil,
nous avons utilisé des clés Bluetooth. Tout d’abord, il faut
créer un PLAN (Personal Local Area Network) pour affecter à
chacun des deux postes une adresse IP. Pour ce faire, nous
avons utilisé le "Bluetooth Soleil d’ IVT Corporation" comme
logiciel de gestion de connexion entre les clés Bluetooth. Le
délai de transmission de données dans les réseaux sans fil
Fi gur e. St r uct ure modulair e du " SMAV"
CNTA ’09 Université A.MIRA BEJAIA
varie entre 1 et 3 secondes et cela selon la distance entre les
deux nœuds mobiles qui varie entre 0 et 20 mètres.

III.6 Conclusion

Notre application "SMAV" de voix/vidéoconférence sur IP est
basée sur le protocole SIP. Nous l'avons implémentée sur les
réseaux filaires ainsi que sur les réseaux sans fil sur une
architecture point à point. Elle est composée de plusieurs
modules programmés dans un environnement Java en utilisant
plusieurs librairies tels que JMF et JAIN-SIP.

Conclusion générale et perspectives

Tout au long de notre travail, nous avons commencé par
l’étude du principe de fonctionnement de quelques protocoles
de signalisation ayant une relation directe avec le service
multimédia mobile, pour choisir les protocoles les plus
appropriés à notre thématique à travers une étude
comparative.
Notre choix a été orienté vers deux protocoles. Le premier
étant SIP pour la signalisation, et cela pour sa simplicité,
rapidité et légèreté d’utilisation tout en étant très complet par
rapport à ces concurrents (MGCP et H323). Le deuxième
protocole étant RTP/RTCP pour le contrôle des flux
multimédia en temps réel.
Ensuite nous avons illustré les différentes architectures
client/serveur et leur fonctionnement dans le but de choisir
l’architecture la plus appropriée à notre application (SMAV).
Ceci fait nous avons opté pour une architecture point à point
où les terminaux communiquent entre eux sans intermédiaire
(serveur Proxy ou middleware).
Dans un soucis de modularité et afin que notre application soit
une plateforme pour toute application multimédia portable sur
différents types de réseau, nous avons conçu notre
environnement selon une architecture point à point basée sur
une signalisation SIP en intégrant RTP/RTCP pour le contrôle
du flux multimédia temps réel. De ce fait, la conception ne
peut être que modulaire. SMAV est décomposée en trois
modules disjoints où chacun a des fonctionnalités bien
précises.
Pour des projets futurs, l’architecture de SMAV peut être
orientée vers une architecture client/serveur tout en incluant
un mode de communication multipoint (multicast) ainsi la
plateforme devient utilisable dans différents domaines
d’application des NTIC tel que le E-Learning.
De même, le problème de reconnaissance des adresses IP peut
être résolu en intégrant un mécanisme NAT rendant SMAV
extensible vers des réseaux étendus.
Références
[1] "Media Gateway Control Protocol (MGCP)", RFC 3435,
Janvier 2003
[2] "MEGACO Protocol Version 1.0", RFC 3015,
Novembre 2000
[3] "Megaco / H.248 Gateway Control Protocol", Marko
Pyhäjärvi, University of Helsinki, 11-05-2004
[4] "OPEN H323", « www.openh323.org », 15-09-2005
[5] "H323", L’encyclopédie WIKIPEDIA
«http://fr.wikipedia.org/wiki/H323 », 12-09-2005
[6] "FrameIP TCP/IP",
«http://www.frameip.com/toip »,12-09-2005
[7] "RTP: a transport Protocol for Real-Time Applications",
RFC 1889, Janvier 1996
[8] "Session Initiation Protocol", RFC 3261, Juin 2001
[9] SIP Center, « www.SIPcenter.com », 15-08-2005
[10] SIP Foundry , « www.SIPfoundry.com », 15-08-2005
[11] " IP Mobility Support", RFC 2002, Octobre 1996
[12] "Mobility Support for IPv4" , RFC 3220 , Janvier 2002
[13] Julien Danjou et Renaud Galante, "Mobile IP", 10-05-
2006
[14] "Mobile IP et autres compagnons de voyage", Cartigny
Julien, Université de Lille 1, LIFL / équipe RD2P, 12-
05-2006
[15] "HMIPv6: A Hierarchical Mobile IPv6 Proposal",
Claude Castelluccia,
«http://citeseer.nj.nec.com/castelluccia00hmipv.html»
,10-05-2006
[16] "Client- Serveur",«http://fr.wikipedia.org/wiki/client-
serveur »,06-12-2005
[17] "Le CLIENT –SERVEUR" , Georges et Oliviers ,
Eyrolles, 2000
[18] "Client-
Serveur",«http://www.pps.jussieu.fr/Livres/ora/DA-
OCAML/book-ora188.html»,23-12-2005



CNTA ’09 Université A.MIRA BEJAIA
Modélisation bidimensionnelle de la propagation du
streamer négatif dans l'azote

A. Flitti
Département d'Electrotechnique
Université des Sciences et de la Technologie d'Oran
Oran, Algeria
A. Hamid
Département d'Electrotechnique
Université des Sciences et de la Technologie d'Oran
Oran, Algeria

Résumé— La modélisation des s treamers c onsiste à rés oudre
les équations de continuité du plasma pour l es électrons et l es
ions. L eur r ésolution s e f ait d ans une c onfiguration
bidimensionnelle par la méthode à pas fractionnaires (splitting
method) e n utilisant l e s chéma numérique amélioré d e
Kulikovsky. Le traitement numérique de l'équation de Poisson
pour l e c alcul du c hamp é lectrique e st r éalisé e n ut ilisant un
schéma d'ordre él evé t el q ue l a méthode n umérique Bi-
Conjugate G radient S tabilized M ethod. O n pr ésente
l'évolution d e l a d ensité él ectronique s uivant l 'axe d e
propagation ( en une dimension) et en deux di mensions et cela
pour différents instants.

I. INTRODUCTION

Durant les vingt dernières années, les technologies des
décharges filamentaires haute pression (décharges
streamers) sont devenues un sujet de recherche intéressant
en vue de nouvelles applications telles que le traitement des
effluents gazeux contenant les réactifs précurseurs (NO
x
,
SO
x
II. MODELE MATHEMATIQUE

Le modèle mathématique utilisé pour simuler la
propagation du streamer négatif dans l’azote moléculaire N
, COV), la génération de l’ozone bénéfique, le
traitement de surface et la stérilisation médicale.
Théoriquement, la modélisation des streamers consiste à
résoudre les équations de continuité du plasma pour les
électrons et les ions. Les paramètres de transport et les
termes sources dépendent du champ électrique; l'équation de
Poisson fait aussi partie du système à résoudre. L'équilibre
avec le champ local est supposé toujours réalisé. La
résolution se fait alors dans l’approximation fluide
complète. Compte tenu des difficultés, une simplification est
apportée d'emblée: la décharge filamentaire est supposée à
symétrie de révolution autour de l'axe de propagation de la
décharge. Pour tenir compte de l'évolution du rayon, la
décharge doit être étudiée dans une géométrie
bidimensionnelle [1-4].
Avant de procéder à l'étude de la modélisation
bidimensionnelle du streamer négatif ou anode- directed
streamer (ADS) dans l'azote, nous présentons le modèle
utilisé.

2
2 e
e e e e e e
n
.(w n ) D n n v
t

+∇ − ∇ = α


est le modèle fluide d’ordre un donné par exemple par Dhali
et Williams [5] et Potin [6]. On couple de façon auto-
cohérente entre les équations de continuité des particules
chargées (électrons et ions positifs) et l'équation de Poisson
pour le calcul du champ de charge d'espace:

(1)
p 2
p p p p e e
n
.(w n ) D n n v
t

+∇ − ∇ = α

(2)
2
e p e 0
q (n n ) / ∇ Φ = − − ε (3)

e e e p p p
n , w , D , n , w et D représentent la densité des
particules, la vitesse de dérive et la diffusion pour les
électrons et les ions positifs respectivement.
e
v est le
module de
e
w , α est le premier coefficient de Townsend,
e
q la charge de l’électron, Φ le potentiel et
0
ε représente
la permittivité du vide. On considère aussi que la décharge
filamentaire prend naissance entre deux électrodes
métalliques circulaires, planes et parallèles et de rayon R.
Ces deux électrodes sont espacées d’une distance d. Dans
cette configuration cylindrique, il existe une symétrie de
révolution autour de l'axe de propagation de la décharge
filamentaire.



CNTA ’09 Université A.MIRA BEJAIA


Figure 1. Domaine de simulation

Les équations de continuité pour les électrons (ions) peuvent
s'écrire:

z r
e
J (rJ ) n 1
n v
t z r r
∂ ∂ ∂
+ + = α
∂ ∂ ∂
(4)

z
J et
r
J représentent dans l'équation (4) respectivement les
composantes axiale (suivant l’axe Oz), et radiale (suivant
l’axe Or) du flux électronique ou ionique. On rappelle que le
flux J est donné par la formule:
J nw D n = − ∇ (5)
w E = −u pour les électrons (6)
w E = u pour les ions (7)
III. DENSITE INITIALE ET PARAMETRES DE
TRANSPORT


Dans cette simulation, la décharge est initiée par deux
densités électronique et ionique de profil gaussien:
2 2 8
exp( ( ) ( ) ) 10 − − +
σ σ
0
z r
z r
n(z, r, t = 0) = n
-3
cm
14
0
n = 10 ,
r
σ = 0.021 cm et =
z
σ 0.027cm

En plaçant les densités initiales électronique et ionique à la
cathode (z=0, axe de symétrie), on peut simuler la
propagation d'un streamer négatif se déplaçant de la cathode
vers l'anode.
Les paramètres de transport tels que le coefficient
d’ionisation, les mobilités électronique et ionique, les
coefficients de diffusion radiale et axiale des électrons sont
donnés respectivement par [5] et [6]:

-260P/E
5.7 P e α = (cm
-1
5
e
2.9 10 /P u =
)
(cm
-2
5
p
2.6 10 /P u =
/Vs)
(cm
-2
D
/Vs)
A
=1800 (cm
2
D
/s)
R
=2190 (cm
2

/s)
On néglige la diffusion des ions positifs (pour les ions, les
coefficients de diffusion axial et radial sont pris égaux à 10
cm
2
Le gaz utilisé est l’azote moléculaire (N
/s. Cette condition est nécessaire pour l'algorithme
utilisé). La pression est en Torrs et le champ électrique en
V/cm.
2

) à la pression
atmosphérique (760 Torrs) et à la température ambiante
(293 °K). La distance inter-électrodes est de 0.5 cm et le
potentiel U appliqué à l'électrode de droite (anode) est de 26
kV. Cela correspond à un champ de 52 kV/cm (soit 193 Td
à la pression atmosphérique) et à une surtension de 47 % par
rapport à la tension de claquage statique.
IV. RESOLUTION DE L'EQUATION DE CONTINUITE
PAR LA METHODE A PAS FRACTIONNAIRES

La résolution bidimensionnelle des équations de
continuité pour les particules chargées est réalisée en
utilisant la méthode à pas fractionnaires donnée par Potin
[6] et Bessières [7]. Cette méthode consiste à remplacer
l’équation bidimensionnelle du transport (4) par une
succession d’équations monodimensionnelles dans chacune
des directions de l’espace conformément aux expressions
suivantes:
z
r
e
J (z, r, t) n(z, r, t)
0
t z
(rJ (z, r, t)) n(z, r, t) 1
0
t r r
n(z, r, t)
n v
t
∂ ∂ ¦
+ =
¦
∂ ∂
¦
¦
¦
∂ ∂ ¦
+ =
´
∂ ∂
¦
¦
¦

¦
= α
¦ ∂
¹
(9)
Dans l'équation (9), le flux est calculé numériquement par
le schéma amélioré de Kulikovsky SG0 développé dans la
communication [8].





r
Anode Cathode
z

R
d
O
CNTA ’09 Université A.MIRA BEJAIA
V. TEST DE VALIDITE DU SCHEMA SG0 DANS
UNE CONFIGURATION BIDIMENSIONNELLE
Pour ces tests de validité, on résout l'équation (9) sans
terme source et avec une diffusion des particules chargées
négligeable. La densité initiale de profil gaussien utilisée
dans ce test est de la forme:

2 2
0 0
1 2
(z z ) (r r )
n(z, r, t 0) n exp
− + −
= =

σ

(10)
Avec n
1
0
r , ,
0
z et
2
σ qui prennent respectivement les
valeurs 10
12

, 0.9, 0.9 et 0.04 (ua).









Figure 2: Profil gaussien de la densité initiale










Figure 3. Propagation du profil de la densité par le schéma SG0

Le profil de la propagation de la densité issu du schéma
amélioré SG0 pour un même nombre de points en position
axial et radial égal à 100, un nombre de pas en temps égal à
400 et pour un CFL égal à 0.4 est donné en figure (12). On
remarque que le profil de la densité initiale se propage
comme convenu suivant la diagonale de l'espace inter-
électrodes. Ce profil est quasi identique à la propagation
d'une décharge filamentaire haute pression.
VI. ETUDE D'UNE DECHARGE FILAMENTAIRE EN
2D

Dans notre code 2D, les équations de continuité sont
résolues par le schéma amélioré de Scharfetter et Gummel
d’ordre zéro (SG0). Le domaine de simulation, le gaz
utilisé, la densité initiale et les paramètres de transport ont
été donnés au paragraphe (3). En plaçant les densités
initiales électronique et ionique à la cathode (z=0, axe de
symétrie), on peut simuler la propagation d'un streamer
négatif se déplaçant de la cathode vers l'anode.
VII. RESULTATS
Les résultats sont présentés sous deux formes: La
première consiste à observer l’évolution de la densité
électronique et du champ électrique axial sur l’axe de
propagation du filament ou streamer. Ces courbes
fournissent des informations sur la vitesse de propagation du
streamer. Une autre description du filament est apportée par
les courbes de niveau en deux dimensions de la densité
électronique. La figure (4) montre l'évolution de la densité
électronique suivant l'axe de propagation et cela pour
différents instants. On voit que la variation de la densité
électronique au niveau du front de propagation est
extrêmement rapide et que le streamer arrive à l'anode en un
temps inférieur à 3 ns.
Position (cm)
0.0 0.1 0.2 0.3 0.4 0.5
D
e
n
s
i
t
é

é
l
e
c
t
r
o
n
i
q
u
e

(
c
m
-
3
)
10
7
10
8
10
9
10
10
10
11
10
12
10
13
10
14
10
15


Figure 4. Evolution de la densité électronique suivant l'axe de propagation

On représente aussi en deux dimensions l'évolution de la
densité électronique pour les instants 1.5 et 2.5 ns.





Position radiale (ua)
0.0 0.2 0.4 0.6 0.8
P
o
s
i
t
i
o
n

a
x
i
a
l
e

(
u
a
)
0.0
0.2
0.4
0.6
0.8
0
2e+11
4e+11
6e+11
8e+11
1e+12
Position radiale (ua)
0.0 0.2 0.4 0.6 0.8
P
o
s
i
t
i
o
n

a
x
i
a
l
e

(
u
a
)
0.0
0.2
0.4
0.6
0.8
5e+11
1e+12
1e+12
2e+12
CNTA ’09 Université A.MIRA BEJAIA
Position radiale (cm)
0.00 0.05 0.10 0.15 0.20 0.25
0.0
0.1
0.2
0.3
0.4
0.5
10
9
10
10
10
11
10
12
10
13
10
14
-0.25 -0.20 -0.15 -0.10 -0.05 0.00
P
o
s
i
t
i
o
n

a
x
i
a
l
e

(
c
m
)
0.0
0.1
0.2
0.3
0.4
0.5


Figure 5. Courbe de niveau de la densité électronique à 1.5 ns en cm

-3

Position radiale (cm)
0.00 0.05 0.10 0.15 0.20 0.25
0.0
0.1
0.2
0.3
0.4
0.5
10
9

10
10
10
11
10
12
10
13
10
14
-0.25 -0.20 -0.15 -0.10 -0.05 0.00
P
o
s
i
t
i
o
n

a
x
i
a
l
e

(
c
m
)
0.0
0.1
0.2
0.3
0.4
0.5


Figure 6. Courbe de niveau de la densité électronique à 2.5 ns en cm

-3

Les courbes de niveau (figures (5) et (6)) montrent
l'expansion radiale de la décharge. La densité électronique
au niveau du front d'ionisation croit de manière régulière. Le
nombre d'électrons créés par ionisation va donc augmenter.

VIII. CONCLUSION

Nous avons utilisé pour résoudre l'équation de continuité
en 2D par la méthode des pas fractionnaires. Nous avons
aussi simulé la propagation du streamer négatif dans l'azote
moléculaire N
2
Références:
par couplage auto- cohérent des équations
de continuité des particules chargées (électrons et ions
positifs) avec l'équation de Poisson. Nous avons mis en
évidence la bonne adaptation de notre code numérique pour
l'étude de la propagation d'une décharge filamentaire en
polarité négative et en champ homogène. Les courbes de la
densité électronique suivant l'axe de propagation ont montré
les variations extrêmement rapides de ces paramètres au
niveau du front de propagation. Les courbes de niveaux ont
montré l'expansion radiale de la décharge filamentaire.

[1]

N. Y Babaeva et G. V.Naidis,'' Two dimensional modeling of
positive streamer dynamics in non uniform electric fields in
air'', J. Phys. D: Appl. Phys; Vol 29, pp 2423-31, 1996
[2]

A. A. Kulikovsky,'' The structure of streamers in N2
[3]
: Two
dimensional simulation'', J. Phys. D: Appl. Phys. Vol 27, pp
2564-9, 1994

A. A.Kulikovsky '' Two dimensional simulation of the
positive streamer in N2
[4]
between parallel-plate electrodes'', J.
Phys. D: Appl. Phys; Vol 28, pp1483-93,1995

S. Pancheshnyi et A. Yu Starikovskii, '' Two dimensional
modeling of the cathode directed streamer development in a
long gap voltage'', J. Appl. Phys., 36, pp 2683-2691,.2003

[5] S. K. Dhali et P. F.Williams,'' Two dimensional studies in
gases'', J. Appl. Phys., Vol 62, n°12, pp 4696-4707, 1987.
[6] J. Potin, "Modélisation numérique d’une décharge
filamentaire contrôlée par barrière diélectrique dans l’azote à
la pression atmosphérique", thèse doctorat, Toulouse,
Sabatier, 2001

[7] D. Bessières, "Modélisation des décharges électriques
filamentaires", Thèse de doctorat à l'Université de Pau, 2006
[8] A. Flitti et A. Hamid A. " Two dimensional numerical
resolution of the drift-diffusion equation: application to
negative streamer propagation", International Conference On
Electrical Design And Engineering Technologies,
ICEEDT'08, 8-10 November, Tunisia, 2008.





Author mailing: flittiche@yahoo.fr











CNTA ’09 Université A.MIRA BEJAIA

You're Reading a Free Preview

Télécharger
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->