Vous êtes sur la page 1sur 61

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/316473815

Traitement des images RSO interférométriques à haute résolution spatiale pour


la surveillance des barrages et digues par télédétection radar : validation de la
chaine opérationnell...

Research · April 2017


DOI: 10.13140/RG.2.2.32581.04328

CITATION READS

1 2,569

2 authors, including:

Gabriel Vasile
GIPSA-lab
176 PUBLICATIONS   1,743 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Polarimetric Classification of Highly Textured SAR Images View project

Traitements des signaux RSO multidimensionnels pour l'estimation de l'équivalent en eau du manteau neigeux par télédétection radar en bande X View project

All content following this page was uploaded by Gabriel Vasile on 26 April 2017.

The user has requested enhancement of the downloaded file.


Traitement des images RSO
interférométriques à haute résolution spatiale
pour la surveillance des barrages et digues
par télédétection radar

Tărîţă Laura-Ionela

GRENOBLE
2011

NESECRET
Page 1 of 60
NESECRET
Page 1 of 60
Table des matières

Introduction
Erreur ! Signet non défini.

1. Principes de la télédétection radar


1.1. Généralités de la télédétection
1.1.1. Éléments de physique du rayonnement électromagnétique
1.1.2. Polarisation de l’onde électromagnétique
1.1.3. Les capteurs en télédétection
1.2. Considérations techniques sur les systèmes de télédétection
1.2.1. Les satellites
1.2.2. Catégories des Systèmes satellitaires
1.3. Imagerie Radar à Synthèse d’Ouverture. Les principes du radar imageur
1.3.1. Physique du signal radar
1.3.2. Le système radar imageur
1.3.3. Géométrie d’acquisition des images radar
1.3.4. Notions de résolution
1.4. La formation de l’image RSO
1.4.1. La compression d’impulsion
1.4.2. La synthèse d’ouverture
1.4.3. « Speckle » ou chatoiement
1.5. Le Satellite TerraSAR X
2. Interférométrie RSO
2.1. Principes de l’interférométrie
2.1.1. Analyse géométrique des données
2.1.2. Phase et interférence
2.1.3. Construction d’un produit interférométrique
2.1.4. Complexe multivues (multi-looking)
2.2. Critères de sélection d’images RSO interférométriques
2.3. Applications et limites de l’interférométrie
2.3.1. Applications de l’interférométrie
2.3.2. Limitations de l’interférométrie
3. Interférométrie différentielle (DInSAR). Mesure de mouvement de terrain
3.1. Détection des cibles
3.2 Modélisation des interférogrammes. Covariance et corrélation : Estimation de la
cohérence
3.2. Facteurs des performances et contraintes de l’interférométrie différentielle
3.2.1. Les facteurs liés aux caractéristiques du système
3.2.2. Les facteurs liés à l’environnement d’acquisition
3.2.3. Les facteurs opérationnels
3.3. Mesure de déplacement de terrain par interférométrie différentielle

NESECRET
Page 2 of 60
3.3.1. Projection du déplacement
3.3.2. Déformation dans le temps
3.3.3.
3.4. Bilan des composantes de la phase interférométrique
4. Application de l’interférométrie différentielle pour la surveillance des
barrages et digues
4.1. Zone d’étude et données utilisées
4.2. Détection des cibles
4.3. Analyse visuelle des images de phase et de cohérence
4.4. Calcul de déplacement
4.4.1. Calcul de déplacement en ligne de visée
4.4.2. Mesure du déplacement 3D

NESECRET
Page 3 of 60
INTRODUCTION

La télédétection consiste à acquérir de l’information sur un objet ou un phénomène, par


l’intermédiaire d’un instrument n’ayant pas de contact avec l’objet étudié. Ce type de méthode
d’acquisition utilise généralement la mesure du rayonnement électromagnétique émis ou réfléchis
par les objets étudiés dans un certain domaine de fréquence.
En ce qui concerne le sujet de cette étude, la télédétection est un outil bien adapté pour la
caractérisation géométrique et cinématique des mouvements de terrain, et cela permet d’avoir une
vision globale du déplacement à différentes échelles spatiales et temporelles, même s’ils existent
encore des contraintes qui doivent être soigneusement maitrises.
La disponibilité croissante des données de télédétection incite EDF à sʼinterroger sur
lʼintérêt de ces nouvelles technologies pour le développement de nouvelles techniques de
surveillance et de contrôle permettant de vérifier lʼintégrité des ouvrages du groupe EDF ainsi
que dʼoptimiser leur exploitation.
Le sujet principal de la présente étude est une application particulière de
l’interférométrie radar, l'interférométrie radar différentielle, pour l’estimation des déplacements
verticaux et/ou horizontaux sur des cibles artificiels (coin réflecteur) par télédétection RSO
satellitaire en bande X. L’interférométrie différentielle utilise l’information de phase contenue
dans les images RSO comme moyen de mesure très sensible des variations de distances entre le
capteur et la cible.
Le premier chapitre de cette étude consiste tout d’abord en une présentation des
principes de télédétection et de l’imagerie RSO. La télédétection par des radars à synthétique
d’ouverture (RSO) est maintenant une technique mature qui a démontré ses potentiels pour
l’observation de la terre grâce à l’amélioration de la résolution spatiale. Cette amélioration est
due à l’utilisation d’une antenne courte qui peut simuler une antenne virtuelle de longueur très
importante et donc affiner la résolution spatiale des images. Les systèmes radars ont des
applications dans de multiples domaines comme la détection des mouvements de surface
par interférométrie (activité sismique, glissements de terrain, subsidence), la géologie(
l’exploration minière et pétrolier), l’hydrologie (la cartographie de la neige, la cartographie des
inondations,…), la fabrication des Modèles Numériques de Terrain (MNT),etc. Pour notre
propos, quatre acquisitions du satellite TerraSAR X ont été traitées afin de mettre en ouvre une
méthodologie générale pour le calcul des déplacements.
Dans le deuxième chapitre on présente les principales caractéristiques de l’interférométrie
qui exploite la différence de phase de signaux RSO rétrodiffusés pour mesurer les variations de
distances entre le capteur et la cible illuminée. Le principe de l’interférométrie n’est pas
nouveau et n’est nullement réservé à l’imagerie RADAR. En effet, le premier
interféromètre est apparu en 1881, inventé par l’américain Michelson, et le principe est
applicable à tout type d’éclairement cohérent. En astronomie par exemple, les ondes radios
sont utilisées pour améliorer la résolution des télescopes.

NESECRET
Page 4 of 60
En imagerie RSO, l’interférogramme est obtenu grâce à deux images SLC (Singe Look
Complex) radar de la même scène, acquises à partir de deux orbites séparées par une distance dite
« base interférométrique ». Aujourd'hui, de nombreux laboratoires utilisent l'interférométrie (ou
simplement la cohérence de phase qui en est un sous-produit) pour leurs applications, elles-
mêmes très nombreuses en géophysique, topographie, géologie, glaciologie, hydrologie,
volcanologie, foresterie, etc.
Le troisième chapitre de cette étude est dédié à l’analyse des caractéristiques de
l’interférométrie différentielle qui constitue la partie de l’interférométrie qui s’occupe avec la
mesure des déplacements de terrain. Nous nous intéressons aux principaux facteurs qui peuvent
influences les mesures et aux pas qui doivent être suivi pour obtenir les résultats qui nous
intéressent.

NESECRET
Page 5 of 60
Chapitre 1

Principes de la télédétection radar

1.1 Généralités de la télédétection

La télédétection, dans son acception la plus large, est un ensemble des connaissances et
techniques qui permettent l’acquisition d’informations sur un objet ou un phénomène n’ayant pas
de contact avec l’objet étudié. Le processus de détection consiste à capter et enregistrer l’énergie
de rayonnement des ondes électromagnétiques émis ou réfléchis des objets étudiés.
La télédétection est devenue possible le jour du premier vol en ballon en 1783. Cet
événement historique, jumelé à l'invention de la plaque photographique par Daguerre et Niepce
en 1839, a permis à Félix Tournachon de prendre, en 1858, la première photographie aérienne de
Paris. Ceci consiste le point de départ de tout un cheminement qui jettera les bases de la
télédétection contemporaines. Le développement des techniques de la télédétection résulte de la
conjonction entre l'invention des ballons, avions ou satellites, permettant de s'éloigner de la
surface du sol ou de la Terre dans son ensemble, et le constant perfectionnement des capteurs,
c'est à dire des instruments permettant d'enregistrer l’énergie radiative pour reconstituer les
caractéristiques de la surface (terre ou océan) ou d’étudier le comportement des cibles selon un
plan d'échantillonnage dans l'espace.
La variété de instruments de télédétection est grande, tout comme leur gamme
d’applications. Certains instruments comme les altimètres permettent d’obtenir des acquisitions
monodimensionnelles, c'est-à-dire localisées spatialement sur la surface terrestre le long d’une
ligne située à la verticale de la trajectoire du satellite qui le porte. Pour la problématique qui nous
concerne, nous nous intéressons toutefois ici uniquement aux systèmes imageurs, qui permettent
des acquisitions bidimensionnelles sous forme d’images de la surface observée.
Par ses possibilités en matière de répétitivité, les données de télédétection deviennent une
source privilégiée pour la mise à jour de documents divers, qu'ils soient numériques ou
analogiques. De plus, la diversité des plateformes disponibles fait en sorte qu'il est possible
maintenant d'obtenir des informations utiles de l'échelle locale à l'échelle planétaire et ça,
sous n'importe quelle condition climatique.
En ce qui concerne le sujet de cette étude, la télédétection est un outil bien adapté pour la
caractérisation géométrique et cinématique des mouvements de terrain, et cela permet d’avoir une
vision globale du déplacement à différentes échelles spatiales et temporelles, même s’ils existent
encore des contraintes qui doivent être soigneusement maitrises.

NESECRET
Page 6 of 60
1.1.1 Éléments de physique du rayonnement électromagnétique

Tout corps dont la température est supérieure au zéro absolu est un émetteur de
rayonnement électromagnétique. Le rayonnement émis par ce corps (rayonnement incident) qui
arrive sur une surface est réfléchi, absorbé ou transmis par réfraction suivant le type de
surface rencontrée (figure 1.1).

Figure 1.1 Absorption, réflexion et transmission

L’onde électromagnétique se compose d'un champ électrique (E) qui varie en ampleur
dans une direction perpendiculaire à la direction dans laquelle le rayonnement voyage, et un
champ magnétique (M) orienté perpendiculairement au champ électrique. Les deux ces champs
voyage à la vitesse de la lumière (c).
Chaque onde est caractérisée par sa fréquence (ν) ou par sa longueur d'onde (λ), les deux
étant liés (ν = v/λ, v étant la vitesse de propagation des ondes dans le milieu considéré).
La longueur d’onde (figure 1.2) est équivalente à la distance entre deux crêtes successives
d’une onde et elle est mesurée en mètres ou en l’un de ses sous-multiples tels que les nanomètres
−9 −6 −2
( 10 mètre), micromètres (µm, 10 mètre) ou centimètre (cm, 10 mètre).
La fréquence représente le nombre d’oscillations par unité de temps. La fréquence est
normalement mesurée en Hertz.

Figure 1.2 Onde électromagnétique

NESECRET
Page 7 of 60
1.1.2 Polarisation de l’onde électromagnétique

Un autre aspect important dans l'utilisation des rayonnements électromagnétiques est


la polarisation d’onde. La polarisation est représentée par les orientations des vecteurs champs
électriques et magnétiques. Parce que le champ magnétique est toujours perpendiculaire à un
champ électrique il est suffisant de se concentrer sur la polarisation du champ électrique seul.
Les composantes du champ électrique dans le plan orthogonal au vecteur d’onde décrivent, en
général, une ellipse (figure 1.3) [1]:

2 2
⎛ Ex ⎞ Ex E y ⎛ Ey ⎞ 2
⎜ ⎟ −2 cos(δ y − δ x ) + ⎜ ⎟⎟ = sin(δ y − δ x )
⎜E
⎝ EOx ⎠ EOx EOy ⎝ Oy ⎠ , (1.1)

Figure 1.3 L’ellipse de polarisation, avec son angle d'orientation,


Ψ et son ellipticité χ

Si l'angle de phase entre les composantes horizontale et verticale est 0° ou π radians,


l'ellipse devient une ligne droite (polarisation linéaire) et s’il est égal à 90˚ l’ellipse devient un
cercle.
La polarisation de chaque émission ou réception peuvent être synthétisé en utilisant des
composantes horizontales (H) et verticales (V) avec une relation bien définie entre eux. Pour
cette raison, couramment on utilise des systèmes qui transmettent et reçoivent les
deux polarisations linéaires. En fonctionne de la polarisation à l’émission et à réception, le
rayonnement interagit et est rétrodiffusé différemment [2].

1.1.3 Les capteurs en télédétection

L'énergie électromagnétique réfléchie peut être détectée par un film sensible à la lumière
(comme dans la photographie aérienne), ou par un réseau de capteurs électroniques. Pour capter
et enregistrer les variations d'énergie, le processus photographique utilise une réaction chimique
sur une surface sensible à la lumière en obtenant des photographies. Les capteurs électroniques

NESECRET
Page 8 of 60
fournissent des images numériques, c’est à dire des représentations graphiques, quels que soit la
longueur d'onde ou le dispositif de télédétection qui a été utilisés pour capter et enregistrer
l'énergie électromagnétique.
En télédétection, l’on utilise de nombreux capteurs qui présentent des sensibilités diverses
au rayonnement, dans les différentes longueurs d’ondes du spectre électromagnétique.
Les deux grandes catégories des capteurs sont : les capteurs passifs et les capteurs actifs
(figure 1.4).

• Un capteur passif (système photographique, balayeur ou scanner) enregistre les


rayonnements naturels sans que lui-même irradie la scène. Dans la plupart des cas
l’énergie est produite par le Soleil. L’énergie comme l’infrarouge thermique, qui est
émis naturellement, peut être détectée jour ou nuit, aussi longtemps que la quantité
d’énergie est suffisamment importante pour être enregistré.

• Un capteur actif (radar) a sa propre source d'éclairement et permet une acquisition de


jour comme de nuit qui n’est pas limitée par les conditions météorologiques, ou
par le couvert nuageux. Il peut être utilisé pour examiner les longueurs d'onde qui ne
sont pas suffisamment fournie par le Soleil, comme les micro-ondes, ou pour
mieux contrôler la façon dont une cible est illuminée.

Figure 1.2 Capteurs en télédétection


N'acquérant pas dans les mêmes domaines spectraux, les conditions d'utilisation de ces
deux types de capteurs sont évidemment différentes.

NESECRET
Page 9 of 60
1.2 Considérations techniques sur les systèmes de télédétection

Selon les données obtenues, on peut partager les systèmes de télédétection en : systèmes
imageurs (caméras aérophotogrammétriques, systèmes de balayage aéroportés ou satellitaires,
systèmes optoélectroniques, optique-mécaniques, etc.) et systèmes non imageurs (spectromètres,
radiomètres, interféromètres - utilisées surtout pour l’enregistrement des signatures spectrales).

Le processus de la télédétection au moyen de systèmes imageurs comporte les suivantes :

- une source d'énergie ou d'illumination pour illuminer la cible


- interaction du rayonnement avec l'atmosphère durant son parcours entre la source
d'énergie et la cible et entre la cible et le capteur.
- interaction avec la cible. Une fois parvenue à la cible, l'énergie interagit avec la
surface de celle-ci. La nature de cette interaction dépend des caractéristiques du
rayonnement et des propriétés de la surface
- enregistrement de l'énergie par le capteur
- transmission, réception et traitement. L'énergie enregistrée par le capteur est
transmise, souvent par des moyens électroniques, à une station de réception où
l'information est transformée en images (numériques ou photographiques).
- interprétation et analyse. L’image traité est interprétée visuelle et/ou numérique pour
extraire l'information que l'on désire obtenir sur la cible.

Un capteur, pour recueillir et enregistrer l’énergie réfléchie ou émise par une cible ou une
surface, doit résider sur une plateforme stable retiré de la cible ou la surface observée. Une
plateforme se définit comme étant tout objet mobile ou immobile qui peut contenir des
instruments (détecteurs ou capteurs) servant à enregistrer des informations spatiales et spectrales
provenant d'objets divers. Ces plateformes peuvent être situées sur le sol, sur un avion ou une
autre plateforme dans l'atmosphère de la Terre, ou sur un satellite à l’extérieur de l’atmosphère
terrestre.
Les capteurs au sol sont souvent utilisés pour enregistrer d’information détaillée sur
la surface. Cette information est comparée après avec l’information recueillie par des capteurs
aériennes ou satellitaires. Ce type de capteurs peut être placé sur une échelle, un
échafaud, immeuble de grande hauteur, grue, plates-formes aéroportées. En ce qui concerne les
plateformes aéroportées, l'utilisation des avions est la plus fréquente car cela facilite la cueillette
de données ou d'images détaillées de la surface de la Terre, exactement à l'endroit et au moment
voulus. [3](Fundamentals of Remote Sensing )
Bien que les plateformes terrestres ou aéroportées soient utilisées, ce sont les satellites qui
fournissent la majeure partie des données recueillies par télédétection de nos jours.

1.2.1 Les satellites

Un satellite est un objet fabriqué par l'homme, envoyé dans l'espace à l'aide
d'un lanceur et gravitant autour d'une planète, en général autour de la Terre. La trajectoire
effectuée par un satellite autour de la Terre est appelée orbite. L'orbite d'un satellite est choisie en
fonction de la capacité des capteurs qu'il transporte et des objectifs de sa mission.

NESECRET
Page 10 of 60
Selon les caractéristiques de l'orbite suivie, on distingue deux grandes familles de
satellites :
- les satellites géostationnaires (ou géosynchrones), qui se trouvent toujours au dessus du
même point du globe terrestre et qui pour remplir cette condition ont une altitude voisine de
36.000 km. Leur résolution spatiale est donc faible, mais leur champ d'observation est
particulièrement vaste. Cinq satellites suffisent à couvrir la quasi-totalité du globe. Les images
recueillies par ce type de satellite sont essentiellement utilisées en météorologie ;
- les satellites à défilement, qui suivent une orbite allant pratiquement du nord au sud ou
vice versa (orbite quasi-polaire). La plupart des satellites sur orbite quasi-polaire ont aussi une
orbite héliosynchrone ce qui signifié qu’ils repassent toujours à la même heure solaire locale au-
dessus d'un point donné du globe. Ces satellites sont à une altitude comprise entre 700 et 900 km
et ils ont une haute résolution.
Des nos jours, la plupart des plateformes satellitaire sont placée sur orbite quasi-polaire.
Quand elles se déplacent vers nord on dit qu’elles ont une orbite ascendante. L’autre moitie de
l’orbite, vers le sud est appelée orbite descendante. Les satellites qui ont des capteurs passifs
recueillent l’information seulement au cours de leur orbite descendante, lorsque le Soleil illumine
la Terre, tandis que les satellites qui sont prévues avec des capteurs actifs ou des capteurs passifs
qui enregistrent l'énergie émise par la planète (l'énergie infrarouge thermique par exemple)
peuvent amasser des données autant lors des orbites ascendantes que descendantes.

Figure 1.5 Orbite ascendante et orbite descendantes

1.2.2 Catégories des Systèmes satellitaires

En fonction de leur mission, les satellites peuvent être classifiés en cinq catégories
principales: recherche, communications, météo, navigation, et observation de la Terre.
• les satellites de recherche mesurent les propriétés fondamentales de l'espace, par

NESECRET
Page 11 of 60
exemple, les champs magnétiques, le flux des rayons cosmiques et les micrométéorites et les
propriétés des objets célestes qui sont difficiles ou impossibles à observer depuis la Terre.
• les satellites de communication sont placés dans l'espace pour des besoins de
télécommunications (fournissent une liaison à travers le monde par radio, téléphone et
télévision). Le premier satellite de communication a été Écho 1.
• les satellites météorologiques, fournissent des informations à jour sur grande
échelle des conditions atmosphériques, tels que la couverture nuageuse et des profils de
température. En cette catégorie on trouve : le satellite Tiros 1(le premier satellite de ce type),
Nimbus, NOAA-13, GOES (Geostationary Operational Environmental Satellites),METEO-SAT,
etc.
• Les satellites de navigation ont été développés principalement pour satisfaire la
nécessité des informations de positionnement de 24 heures à travers le monde. Le plus connu est
le système de positionnement global GPS (en anglais Global Positioning System), mais il existe
aussi des autres systèmes importants comme le système russe GLONASS, le système européen
Galileo, le système Beidou.
• Les satellites d’observation de la Terre sont des satellites en orbite autour de la
Terre qui fournissent des données sur la carte de la Terre, la taille et la forme et peut étudier
les océans et la dynamique de l'atmosphère.
Parmi les satellites les plus connus du début de l’ère spatiale jusque nos jours on trouve :
− Landsat, le premier satellite civil d'observation de la Terre, lancé en 1972. Il
embarquait un capteur MSS (Multi Spectral Scanner) dont les pixels mesuraient environ 80
mètres de côté. Depuis, six autres satellites Landsat ont été envoyés en orbite, mais ils
embarquaient un Thematic Mapper (TM) en plus du MSS.
− SPOT (Satellite Pour l'Observation de la Terre), un groupe des satellites lancés par
Centre National d'Études Spatiales (CNES) et qui peuvent revisiter des sites tous les deux ou trois
jours en moyenne (la fréquence dépend de la latitude).
− SEASAT (lancé en 1978), le premier satellite civile à comporter un capteur RSO qui
fonctionne en bande L (23.5 cm).
− JERS-1, lancé en 1992 par l’agence nationale de développement du Japon et il
fonctionne en bande L avec polarisation HH. La grande longueur d’onde de la bande L permet
une plus grande pénétration de l’énergie radar dans la végétation et autres types de surface.
− ERS-1/2, lancés par l’Agence Spatiale Européenne en 1991, respectivement en 1995.
Ces capteurs fonctionnaient en bande C et leurs principales utilisations étaient la surveillance et
la recherche en océanographie et l’observation de la Terre.
− RADARSAT-1 et RADARSAR-2, lancés par l’Agence Spatiale Canadienne (ASC) à
une différence de 11 ans, le premier en 1995 et le deuxième en 2006, fonctionnent en bande C
avec la polarisation HH et ils fournissent des images de la Terre pour des applications
scientifiques et commerciales.
− TerraSAR X, un satellite bande X, à matrice active, capable d'acquérir des données
jusqu'à 1 m de résolution, quelles que soient les conditions météorologiques, de jour comme de
nuit. Les images traitées dans ce projet sont des acquisitions du satellite Terra SAR X. Les
caractéristiques du satellite sont présentées dans le sous-chapitre suivant.

NESECRET
Page 12 of 60
1.3 Imagerie Radar à Synthèse d’Ouverture (Les principes du radar imageur)

Le principe du Radar (Radio Detection and Ranging), a été énoncé en 1891 par
l’américain Hugo Gernsback et il est basé sur le principe de la propagation des ondes
électromagnétiques. Le radar est un system actif qui émet un rayonnement dirigé vers la cible
observée, puis il capte et mesure le rayonnement réfléchi. Il offre donc l’avantage de pouvoir
prendre des mesures à n’importe quel moment de la journée ou de la saison. Cependant, ces
données ne sont que peu exploitées à cause de deux phénomènes :
- le bruit de speckle (chatoiement) qui affecte la radiométrie et rend difficile
l’interprétation visuelle de la scène
- la géométrie radar qui modifie l’échantillonnage au sol des zones de fort relief.

1.3.1 Physique du signal radar

L'interaction du rayonnement incident avec la surface de la terre détermine les


variations de luminosité dans une image radar et révèle les propriétés de surface d'intérêt.
Le radar fonctionne dans la portion micro-ondes du spectre électromagnétique, au-delà
des régions visible et infrarouge thermique.
Les bandes spectrales utilisées par les radars imageurs sont désignées par un code sous
forme de lettres et la plus importante différence parmi elles est la longueur d’onde. Les plus
utilisées sont :

- Bande L Fréquence 1-2 GHz Longueur d’onde 15 à 30 cm


- Bande C Fréquence 4-8 GHz Longueur d’onde 3,75 à 7,5 cm
- Bande X Fréquence 8-12,5 GHz Longueur d’onde 2,4 à 3,75 cm

La plupart des radars ont été dessinés de façon à transmettre des hyperfréquences avec
une polarisation horizontale (H) ou verticale (V). En fonctionne de la polarisation à
l’émission et à réception, le rayonnement interagit et est rétrodiffusé différemment. Par
conséquent, les images radar recueillies à l'aide de polarisation et des combinaisons de longueur
d'onde différentes peuvent fournir des informations différentes et complémentaires sur les cibles.
[3]
Du point de vue énergétique, les puissances émises et reçues sont reliées par l’équation du
radar [4] :
G 2 λ 2σ
Pr = Pe 3
( 4π ) D4a
, (1.2)
Pr ,puissance reçue, Pe puissance émise, G gain de l’antenne, λ longueur d’onde, σ Surface
Equivalente Radar (SER), a coefficient de perte par absorption, D distance antenne-cible.
La SER est une fonction complexe qui intègre de nombreux paramètres liés à la surface
de réflexion elle-même tels que sa géométrie ou sa constante diélectrique, dépendante de la
fréquence et de la polarisation du signal radar.

NESECRET
Page 13 of 60
1.3.2 Le système radar imageur

Un système Radar est composé de :


- un transmetteur qui génère l’onde EM et la transmet à l’antenne ;
- une antenne qui émet l’onde vers la cible (superficie terrestre ou marine, ou bien
atmosphère) et enregistre le signal de rétrodiffusion ;
- un récepteur qui reçoit l’onde rétrodiffusée, l’amplifie et la traite pour améliorer sa
qualité, et enfin envoie les résultats à la centrale d’enregistrement / stockage ;
- une centrale qui enregistre les signaux reçus à des fins de représentation et de
traitements ultérieurs.
Il existe deux types de systèmes radar : monostatique et bistatique (figure 1.6). Dans la
plupart des cas, les systèmes sont monostatiques ce qui signifie que l’émetteur et le récepteur
partagent une antenne commune. Le système monostatique présent l’avantage que le partage de
l’électronique et de l’antenne réduit l’encombrement et les coûts de synchronisation entre
l’émetteur et le récepteur. Dans le cas d’une configuration bistatique, l’émetteur et le récepteur
sont séparé (soit du point de vue de la distance, soit d'un point de vue angulaire) ce qui signifie
que le récepteur est passif et il est plus facile d’être détecté par un ennemi. [2]

a) b)
Figure 1.6 a) – système bistatique ; b) – système monostatique

En ce déplaçant, l'émetteur génère de courtes impulsions en rafale à intervalles réguliers,


et ces impulsions sont concentrées en faisceau par l'antenne. Le signal électrique recueilli par
l'antenne est appelé « écho » ou « retour ».
Le nombre d’impulsions transmises per seconde s’appelle fréquence de répétition des
impulsions (FRI) et le temps écoulé entre le début de deux impulsions successives représente la
période de répétition des impulsions (PRI). La relation entre ces deux notions est :
1
PRI =
FRI , (1.3)
Ces deux termes, PRI et FRI ont une grande importance parce que la résolution du capteur
est définie par eux.
Pour réaliser une image, le capteur fonctionne successivement en mode émission puis
réception (figure 1.7). Alors, à un instant t donné, une impulsion d’une certaine durée τ est émise
et puis le capteur bascule ensuite en mode réception et enregistre pendant une certaine durée Δt,

NESECRET
Page 14 of 60
les échos renvoyés par la scène observée. Cet enregistrement permet la formation d’une ligne de
l’image. Après une durée égale à PRF, le capteur bascule à nouveau en mode émission et une
1
nouvelle impulsion est émise. Entre l’instant t et ( t + PRF ), le porteur, de vitesse v, se déplace
v
d’une distance PRF , ce qui permet l’acquisition de la ligne suivante et donc le balayage des
colonnes de l’image.

Figure 1.7 Principe de formation d’image radar

1.3.3 Géométrie d’acquisition des images radar

A la différance d’image optique, l’image radar met en œuvre des distances et non des
angles.
Pour éviter le repliement d’image, c'est-à-dire pour éviter que deux points ayant la même
distance se mélangent, le radar vise en direction latérale (figure 1.8). L'angle à partir duquel le
radar illumine la surface est nommé angle de visée (B). En mesurant le temps écoulé entre la
transmission de l’impulsion et la réception de l’écho rétrodiffusé, on peut déterminer la distance
entre le radar et la cible.

Figure 1.8 Géométrie d’acquisition

NESECRET
Page 15 of 60
L'angle entre le faisceau du radar et la normale à la surface du sol (θ) est nommé angle
d’incidence et il augmente graduellement de la portée proximale à la portée distale. La puissance
du signal reçu en retour est dépendante de l’angle d’incidence. En effet, d’un point de vue
géométrique, plus l’angle d’incidence est important et plus le signal en retour sera faible. L’angle
d’incidence dépend donc de l’orientation de la visée du système imageur radar (angle d’émission)
et de l’orientation de l’objet au sol qui rétrodiffuse le signal radar.
Lorsque l’on travaille sur des zones accidentées, le mode d’acquisition des images radar,
tel qu’il est illustré par la figure 1.9, engendre des déformations géométriques en range et des
effets selon l’azimut [5].

Figure 1.9 Les déformations géométriques en distance induites par l’imagerie Radar : (1)
zone de compression, (2) zone de recouvrement, (3) zone d’inversion, (4) zone de dilatation et (5)
zone d’ombre.

Selon l’orientation de la pente par rapport à l’axe de visé du radar, on a deux catégories de
déformations : les zones de compression(1), de recouvrement(2) et d’inversion(3) qui se situent
au niveau des pentes face à visée et les zones des dilatation (4) et d’ombre (5) qui se situent au
niveau des pentes opposées à la visée.
Le phénomène de compression apparaît quand la pente n’est pas trop prononcée et la
distance au niveau du plan image est inférieure à la réalité. Si la pente augmente et devient
perpendiculaire au vecteur visé alors il s’agit du phénomène de recouvrement car tous les échos
sont concentrés en un seul point. L’inversion apparaît quand si la pente augmente au point
d’intervertir les projections de deux points sur le plan image. Quand la pente est douce comme
dans le cas de la zone EF, on observe qu’il a lieu une dilatation(4) du segment dans l’image.
Si la pente est opposée à la visée, alors le faisceau n’est pas capable d’illuminer la surface
du sol et ils apparaissent des régions ombragées(5). Ces régions son facilement identifiables
sur l'image car elles sont plus sombres parce qu’il n’y a pas d’énergie disponible pour la
rétrodiffusion.

NESECRET
Page 16 of 60
1.3.4 Notions de résolution

Il est important de différencier la résolution d’un capteur de la résolution d’une image. La


résolution spatiale d’un système correspond à la distance minimale entre deux réflecteurs au sol
pour qu’ils soient séparés sur une image. La résolution d’une image correspond au pas d’un pixel
c’est à dire à la dimension au sol qu’il représente. Dans les deux directions, cette résolution est
liée aux fréquences d’échantillonnage du signal (PRF et Fe).

La résolution en distance
Considérons deux cibles rapprochées sur le terrain qui produisent des échos radar comme
le montre la figure 1.10. La possibilité de séparer ces cibles, le long du faisceau, dans le signal
reçu par le radar est déterminée par les impulsions de retour (s’ils se distinguent). Si les
cibles sont trop proches, leurs échos se chevauchent et ne peuvent pas être séparés dans le
signal reçu. Les objectifs doivent être plus d'une demi-longueur d'impulsion en dehors pour
n’occupent pas l’impulsion ensemble.

Figure 1.10 Résolution en distance

−1
La différence de temps entre les échos à la réception sera Δt = 2Δrc parce que l’onde
parcourt la distance deux fois. La limite inférieure de Δ t est τ ce qui signifie que
la limite correspondante de la résolution spatiale Δ r dans le sens de la distance oblique est :


Δr = m (1.4)
2

La résolution projetée au sol pour une onde émise sous une incidence θi est donnée par
l’équation :

rs = m
2sin θi (1.5)

NESECRET
Page 17 of 60
La résolution en azimut
La résolution en azimut (figure 1.11) est liée aux principes d’émission, propagation et
réception d’ondes électromagnétiques cohérentes (lois d’antenne déterminées par les dimensions
de l’antenne et la longueur d’onde). Pour que deux cibles soient séparables en azimut, il faut
qu’elles ne soient pas dans le lobe d’antenne au même moment. L’ouverture d’antenne est donnée
en première approximation [Maî01] par l’équation :

λ
B=
L (1.6)

Si R est la distance entre le capteur et la cible (l’angle d’ouverture de l’antenne est


généralement assez petit pour être assimilé à son sinus, étant données les bandes de fréquences de
l’onde émise), on obtient une résolution égale à :

λ
Ra = R
L, (1.7)
L - longueur de l'antenne radar, λ - longueur d'onde du radar, R – distance entre le capteur et la
cible.

Figure 1.11 Résolution azimutale

Selon l’équation (1.7), la résolution azimutale dépend de la distance radiale au capteur et en


théorie elle est non constante sur toute la largeur de la fauchée : les cibles au plus proche (Near
Range) du capteur ont une résolution meilleure que celle au plus loin (Far Range).
Comme la largeur de la fauchée est suffisamment petite devant l’altitude du porteur, on peut
considérer que la résolution azimutale est constante, et dans ce cas elle est donnée par la
formule :

da =
L cos θi (1.8)

NESECRET
Page 18 of 60
On peut remarquer que la résolution en azimut est inverse proportionnelle à la longueur de
l’antenne ce qui mène au fait que pour augmenter la résolution en azimut il faut donc travailler
avec des antennes très grandes.

1.4 La formation de l’image RSO

Après l’acquisition des données, pour obtenir une image RSO on doit suivre deux
étapes :
– le filtrage adapté en distance (la compression d’impulsion)
– la synthèse d’ouverture.

Figure 1.13 Chaîne de formation des images RSO

Ces deux étapes sont des étapes décorrélées ainsi qu’elles peuvent être intervertis dans la
chaîne. Comme on peut voir dans la figure (1.13), le point de départ en la formation des images
RSO est constitué par les images brutes qui sont formées juste après la réception du signal au
niveau de l’appareillage du radar. Les agences spatiales fournissent en général les images brutes.

1.4.1 La compression d’impulsion

Pour envoyer une énergie suffisante, les impulsions doivent être émises pendant une
durée τ relativement longue. La compression d’impulsions permet d’améliorer sensiblement la
résolution en distance en utilisant un « chirp » pour moduler linéairement en fréquence le signal
de durée τ :
⎧ ⎛ ⎡ Kt 2 ⎤ ⎞ τ

⎪ A(t ) = A0 exp⎜ 2 jπ ⎢ f 0t + ⎥ ⎟ si t ≤
⎨ 2 ⎦⎠ ⎟ 2 (1.9)
⎝ ⎣
⎪ A(t ) = 0 sinon

où f 0 est la fréquence centrale de la porteuse. La fréquence instantanée f (dérivées de la phase)
vue par la cible est alors :
f = f 0 + Kt (1.10)
et correspond à une rampe dans le domaine fréquentiel. La largeur de bande du chirp, est appelée
bande utile et vaut Kτ.
La résolution finale peut alors être d’autant plus améliorée que la bande passante du
signal est élargie.

NESECRET
Page 19 of 60
1.4.2 La synthèse d’ouverture

Nous avons vu précédemment que l’amélioration de la résolution azimutale passe par


l’augmentation de la longueur de l’antenne. Puisqu’il est impossible d’augmenter
considérablement l’antenne, l’américain Carl Wiley a eu l’idée d’utiliser le déplacement du
porteur et la cohérence des signaux afin de reconstituer, par calcul, une antenne de grandes
dimensions.
La synthèse d’ouverture suit le même principe que la compression d’impulsions, à la
différence près que la modulation en fréquence n’est plus imposée mais naturelle : on utilise
l’effet Doppler qui fait varier la fréquence de réception de l’onde émise selon la vitesse relative
entre la source des impulsions et une cible donnée.
Parce que le radar se déplace entre deux émissions d’impulsion, en recombinant tous les
échos en phase, on peut synthétiser une antenne réseau de très grande taille (figure 1.12). A
mesure que la plateforme avance, tous les échos rétrodiffusés par la cible sont enregistrés pour
la durée du passage de la cible devant le faisceau. Le moment où la cible quitte le champ du
faisceau détermine la longueur de l’antenne synthétique simulée. Il s’agit d’exploiter la
modulation linéaire de fréquence induite naturellement par l’effet Doppler découlant du
mouvement relatif du porteur par rapport à la scène fixe.

Figure 1.12 Illustration du principe de la synthèse d’ouverture

Cette reconstruction s'appuie sur la connaissance exacte de la trajectoire du porteur. Dans


le cas aéroporté, il faudra en particulier tenir compte des mouvements éventuels de l'avion, sa
trajectoire, affectée de lacet, roulis et tangage, n'étant généralement une trajectoire rectiligne
uniforme.

NESECRET
Page 20 of 60
Une image radar est en fait une matrice de pixels. Chaque pixel est associé à une petite
zone de la surface de la Terre. Les images sont formées ligne par ligne.
Les pixels d’une même ligne ont une distance azimutale identique, en temps que les
pixels d’une même colonne ont une distance radiale commune. Une ligne correspond à une des
impulsions émises par l’antenne à une fréquence de répétition d’impulsion. La réponse à cette
impulsion reçue sur l’antenne en provenance de la cible au sol est échantillonnée temporellement
à une fréquence d’échantillonnage (fe), chaque échantillon représentant un pixel de la ligne,
correspondant à une colonne différente. Chaque pixel donne un nombre complexe qui
porte d’informations sur l’amplitude et la phase du champ micro-onde rétrodiffusée par tous
les diffuseurs (etc. roches, la végétation, bâtiments) qui se trouvent dans la même cellule de
résolution. [12]

1.4.3 « Speckle » ou chatoiement

L’interférence aléatoire, provenant de la diffusion multiple qui se produit dans chaque


cellule de résolution, donne aux images radar une texture « poivre et sel », comme on peut voir
dans la figure 1.14. Cet effet est appelé « speckle » ou chatoiement.
Le chatoiement dégrade la qualité de l’image et peut rendre l’interprétation (visuelle ou
numérique) plus difficile. Cet effet réduit également l’efficacité de la segmentation, de la
classification et d’autres techniques d’extraction de l’information. Il est généralement préférable
de réduire le chatoiement avant l’interprétation et l’analyse des images.

Figure 1.14 Image RSO

Toutefois, le chatoiement peut être réduit considérablement si l’on prend plus d’images de
la même région à des moments différentes ou sous des angles d’incidence légèrement
différentes .En moyennant plusieurs images tend à annuler la variabilité d'amplitude aléatoire et
laisser le niveau d'amplitude uniforme inchangée.

NESECRET
Page 21 of 60
1.5 Le Satellite TerraSAR X

TerraSAR-X est un radar à synthèse d'ouverture (SAR) allemand pour l'observation de la


Terre qui a été lancé en Juin 2007 avec une durée de vie prévue de 5 ans. Sa principale charge
utile est un capteur radar en bande X avec une gamme de modes de fonctionnement différents, ce
qui lui permet d'enregistrer des images avec des largeurs de bande, des résolutions et
des polarisations différentes.
Les principales caractéristiques du satellite Terra SAR X sont :
• Orbite : héliosynchrone
• Inclinaison : 97,44°
• Période de répétition : 11 jours
• Altitude de l’orbite : 514 km
• Capacité de revisite : 2,5 jours suivant la latitude
• Taille de l'antenne : 4,78 m x 0,7 m
• Chirp bande passante : 150 MHz / 300 MHz
• Domaine spectral : Bande X
• Fréquence : 9,65 GHz
• Polarisation : VV, HH ou HH/VV (Spot Light)
VV, HH ou HH/VV, HH/HV, VV/HV ou HH/VV/HV/VH (StripMap)
VV or HH (ScanSAR)

L’angle d’incidence varie de 15° à 60° avec une résolution spatiale de 1 m en


mode « Spotlight », 3 m en mode « StripMap » et 16 m en mode « ScanSAR ». Le mode
d’acquisition qui nous intéresse est StripMap. Dans ce cas, l’antenne radar garde la même
direction de pointage tout au long du trajet de vol. Ce mode permet de former des images de
grande dimension transverse. Le passage rapide d'un mode de prise de vue à l'autre (large fauchée
et/ou haute résolution géométrique) assure des observations détaillées sur de vastes zones et des
produits de diagnostic de risques en quasi-temps réel.

Fig. 1.15 Modes d’acquisitions du satelitte TerraSAR X

L’acquisition en bande X et les différentes polarisations simultanées permettent de


cartographier des caractéristiques des surfaces et de distinguer les éléments de petite taille ce qui

NESECRET
Page 22 of 60
signifie que les données TerraSAR X ont une haute résolution géométrique (détection d’objets de
petite taille) et une haute résolution radiométrique (distinction d'un grand nombre de classes
thématiques). La répétitivité élevée, selon différents angles de vues, indépendamment
des conditions météorologiques et d'éclairement fait que le satellite soit un outil importante pour
les observations fréquentes, la surveillance et les mises à jour de cartes régulières.

NESECRET
Page 23 of 60
CHAPITRE 2

Interférométrie RSO

L’interférométrie est une technique qui exploite la différence de phase de signaux RSO
rétrodiffusés pour mesurer les variations de distances entre le capteur et la cible illuminée. Pour
appliquer cette technologie, on a besoin au moins des deux images complexes provenant d’un
radar à synthèse d’ouverture acquises avec un décalage dans le temps et (ou) une parallaxe
transversale afin d’extraire l'information sur l’altitude ou le mouvement de la surface terrestre.
Aujourd'hui, de nombreux laboratoires utilisent l'interférométrie (ou simplement la
cohérence de phase qui en est un sous-produit) pour leurs applications, elles-mêmes très
nombreuses en géophysique, topographie, géologie, glaciologie, hydrologie, volcanologie,
foresterie, etc.

2.1 Principe de l’interférométrie

Le principe de l’interférométrie n’est pas nouveau et n’est nullement réservé à


l’imagerie RADAR. En effet, le premier interféromètre est apparu en 1881, inventé par
l’américain Michelson, et le principe est applicable à tout type d’éclairement cohérent. En
astronomie par exemple, les ondes radios sont utilisées pour améliorer la résolution des
télescopes.
En imagerie RSO, l’interférogramme est obtenu grâce à deux images SLC (Singe Look
Complex) radar de la même scène, acquises à partir de deux orbites séparées par une distance dite
« base interférométrique ».
Les deux images peuvent être acquises simultanément par des plateformes contenant deux
antennes (une antenne de transmission et une antenne de réception) ou à deux dates différentes
(cas d’une plateforme survolant la scène dans un intervalle d’un jour ou plusieurs jours). La
première technique est appelée monostatique ou mono-passe et présent l’avantage d’éliminer la
décorrélation temporelle, en assurant des grandes valeurs de la cohérence. Ce type d’acquisition
est souvent utilisé avec les capteurs aéroportés. Dans le cas de la deuxième technique, appelée
multi-passe, en fonctionne du temps écoulé entre les deux passages, décorrélation temporelle
apparaître et les paramètres d’orbite sont très difficiles à déterminer. [6]
Supposant qu’une série d'images SAR est disponible sur une zone déterminée, en les
combinant en une série d'interférogrammes différentiels nous permet de suivre les tendances de
déplacement à travers le temps, résultant InSAR multi-temporelle. La géométrie d’acquisition du
couple interférométrique est représentée dans la figure 2.1.

NESECRET
Page 24 of 60
Figure 2. 1 Géométrie d’acquisition InSAR

La cible (P), située à une altitude h est imagée depuis les deux positions du radar S M
(maître) et S S (slave). La distance entre S M et S S représente la base interférométrique B. RM et
RS représentent les distances respectives entre les capteurs et la cible.
L’interférogramme RSO est généré par croisée-multipliant, pixel avec pixel, une image
RSO avec la conjugué complexe de la deuxième. Ainsi, l’amplitude de l’interférogramme est
l’amplitude de la première image multipliée par celle de la seconde, alors que la phase
interférométrique est la différence de phase entre les images.

2.1.1 Analyse géométrique des données

Considérons un plan de repère (Oxz ), orthogonal aux traces des satellites SM , S S , un point
de référence Q = ⎛⎜ X ⎞⎟ et le point P = ⎛⎜ X + x ⎞⎟ .
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝ z ⎠
La première prise de vue corresponde au trace du satellite SM , situé en ⎛⎜ 0 ⎞⎟ , tel que
⎜H ⎟
⎝ ⎠
l’angle d’incidence Ɵ soit défini par tan θ = X , et la deuxième corresponde au trace du satellite S S
H
, situé à une distance ⎛⎜ Bx ⎞⎟ du satellite SM .
⎜B ⎟
⎝ z⎠

NESECRET
Page 25 of 60
Fig. 2.2 Repère interférométrique

Si on calcule les différences de distance entre les capteurs et les deux cibles ΔRi (
ΔRi = RSM i − RSS i , où i représente la cible) et depuis on applique un développement au second
ordre, on obtient l’expression approchée de ΔRi :

B x cos θ + B y sin θ Bortho


ΔRi = (x cos θ + z sin θ ) = (x cos θ + z sin θ ) (2.1)
X2 +H2 X2 +H2

où Bortho est la composante orthogonale de la base par rapport à la direction de visée. Cette
composante a un rôle très important dans la définition d’un couple interférométrique.
L’expression 2.1 peut être séparée en deux termes :
Bortho
− x cosθ qui ne dépend que des positions des deux satellites et la position du
X2 +H2
point visé. Ce terme est à l’origine des franges orbitales, qui sont parallèles à la trajectoire
du porteur ;
Bortho
− z sin θ qui dépend de l’altitude du point visé et qui est à l’origine des franges
X2 +H2
topographiques. Ce terme permet une détermination du relief de la scène.
Afin de pouvoir obtenir le déplacement de terrain, les franges orbitales et topographiques
doivent être élimines.

NESECRET
Page 26 of 60
2.1.2 Phase et interférence

Comme on a vu dans le chapitre 1, les images RSO sont des images complexes, chaque
pixel comportant deux informations : l’amplitude de l’onde, qui représente la capacité du sol à
rétrodiffuser l'onde radar de façon plus ou moins forte, et la phase.
La phase correspond au déphasage entre le signal rétrodiffusé et le signal émis pris
comme référence. Elle dépend de nombreux facteurs de natures différentes : le trajet-aller retour
de l'onde, l'atmosphère traversée, mais aussi la disposition relative des objets constituant la
cellule de résolution et leurs propriétés physiques. De ce fait, la phase est très variable d'un
pixel à l'autre, même sur une surface relativement homogène [11]. En pratique, si on a une seule
image de phase (qui semble complètement aléatoire) on ne peut pas obtenir des informations sur
le milieu observé. Cependant, la phase est une information potentiellement très riche qui est
exploitée par l'interférométrie radar en combinant l'information de phase de deux images.
La figure 2.3 présent l’amplitude d’une image complexe RSO (à gauche) et la phase
obtenue après l’interférence de deux images RSO.

Fig. 2.3 Amplitude et phase d’une image RSO

Soit k M et k S les deux images RSO enregistrées depuis les deux positions :
ki ( r, a ) = ki ( r, a ) e jφi (r ,a)
, (2.2)
où i ∈{M , S}, a est la position en azimut et r la position en distance. La phase φi est composée
des deux termes :
φ = φ propre + φR
(2.3)

φ propre est la phase propre liée au déphasage introduit par l’interaction onde-cible (dépendante de
la nature physique du sol et l’incidence de prise de vue), et φR représente le déphasage dû au
trajet aller-retour de l’onde.
4π r
φR = R
λ (2.4)

NESECRET
Page 27 of 60
r
R est la distance de la source au centre du pixel. Chaque fois que l’onde parcourt une distance
égale à la longueur d’onde λ, sa phase augmente de 2π.
La différence de phase entre les deux images est :

( ) (
∂φ = φ2 − φ1 = φ propre + φR2 − φ propre + φR1 ) (2.5)

En s’appuyant sur le fait que les images sont acquises dans les mêmes conditions
géométriques (même incidence, même chatoiement) et si l’on se place dans l’hypothèse où la
nature du sol n’a pas changé entre les deux acquisitions, on peut considérer que les phases
propres sont égales. Alors, la phase interférométrique ∂ φ est directement proportionnelle avec la
différence du chemin ΔR = R2 − R1

∂ φ = φ R2 − φ R1 = ΔR (2.6)
λ
La phase interférométrique est donc connue avec une précision de l’ordre d’une fraction
de longueur d’onde, mais elle sera repliée (modulo λ ). L’image de ces différences de phase est
appelée interférogramme. Comme on voit dans la figure 2.2 l’interférogramme est constitué de
franges. Une frange est une ligne de phase égale dans l’interférogramme.

Fig.2.4 Interférogramme

NESECRET
Page 28 of 60
2.1.3 Construction d’un produit interférométrique

1 Pour obtenir un produit interférométrique (c'est-à-dire un couple interférométrique


+ image de cohérence) on doit suivre une succession d’étapes (figure 2.5):

Figure 2.5 Construction d’un produit interférométrique

• Le recalage local des images est une transformation géométrique qui a le but de mettre
dans les mêmes conditions les réflecteurs impliqués dans l’image maître et dans l’image
esclave. Dans le cas idéal, tous les réflecteurs élémentaires qui ont contribué à la phase propre
lors de la formation de l’image maître se retrouvent exactement dans le même pixel de l’image
esclave. [1]. Le recalage se fait tout d’abord par une analyse des conditions de la prise de vue,
c'est-à-dire des trajectoires des radars. Les techniques utilisées pour cette étape (ex. corrélation,

NESECRET
Page 29 of 60
maximisation de cohérence, observation des franges) doivent assurer une précision entre un
dixième et un centième de pixel, ce qui nécessite de sur-échantillonner finement le signal. [4]

• Le recalage global des images (registration). Comme l’étape précédente implique une
transformation géométrique (par exemple une translation de paramètres : ∂x et ∂y ) valable au
voisinage d'un pixel (x, y) et qui peut se répéter à travers toute l'image, des transformations
légèrement différentes seront trouvées en les pixels dispersés sur la scène à analyser. Pour obtenir
un recalage subpixellaire en tous les points de la scène, il convient de déterminer une
transformation globale. Diverses méthodes [7] sont utilisables : techniques de corrélation
(déplacement de la fenêtre de corrélation puis interpolation de la corrélation au voisinage du
maximum pour le recalage), utilisation des fréquences locales, calcul des valeurs des paramètres
d’une fonction de cout global, etc.

• La construction de l’interférogramme. A partir des deux images complexes k1 et


k 2 l’interférogramme se calcule en retrouvant le terme de différences de phase ∂φ de la formule
(2.5) en tout point de la scène. Pour ça on calcule la corrélation croisée :
k1k 2*
ρ ( x, y ) = (2.7)
2 2
k1 k 2

L’estimation locale de l’amplitude de la corrélation (en chaque pixel) nous donne


l’expression (2.8). Ce qu’il nous intéresse c’est le terme δφ (x, y ) . [7]

ρ (x, y ) = d (x, y )e jδφ ( x, y ) (2.8)

• La construction de l’image de cohérence. Le terme δφ (x, y ) de l’expression (2.8) est une


bonne mesure de la cohérence. L’image de cohérence reflète en chaque point (x, y) la capacité de
la scène imagée à fournir des phases comparables.

2.1.4 Complexe multivues (multi-looking)

Dans le chapitre 1 nous avons vu que les images RSO sont entachées d’un bruit de
chatoiement qui est le résultat de nombreux facteurs.
L'interférogramme est généralement considéré comme un produit brut parce que sa phase
est plutôt bruyante, au moins dans le cas d’acquisitions à passages répétés qui sont fortement
touchées par décorrélation temporelle. Une pratique courante de réduire le bruit consiste en
moyenner des pixels adjacents dans l'interférogramme complexe. Ce traitement est défini comme
« complexe multivues ». L’algorithme suppose de moyenner L échantillons indépendants sur un
masque fixe, où le masque est généralement de forme rectangulaire et conçue pour avoir la même
taille en azimut et en distance au sol.

NESECRET
Page 30 of 60
1 L
I mv = ∑ Ik (2.9)
L k =1
Cependant, ce technique n'est efficace que si la phase de l'interférogramme est
« constante » (par exemple au sein d'une petite fraction de π) sur la fenêtre et échoue lorsque les
phases varient. Mais le filtre peut être amélioré en fournissant une estimation de la phase de
l'interférogramme dans la fenêtre choisie et en compensant cette phase avant de faire la moyenne
(une sorte d’aplatissement local). Ces techniques ont encore des inconvénients puisque le
moyennage n'a de sens que s'elle est effectué sur des échantillons statistiquement homogènes.
Ce procédé permet de réduire la variance du speckle d’un facteur L dans le cas d’échantillons
réellement décorrélés, mais ce gain en résolution radiométrique s’acquiert au détriment de la
résolution géométrique qui est dégradée d’un facteur L également.

2.2 Critères de sélection d’images RSO interférométriques

La sélection d'images SAR convenable pour l'interférométrie est la première étape à


réaliser pour tout traitement interférométrique. Les critères adoptés pour cette étape ont un impact
profond sur la qualité des résultats finals et ils dépendent de l'application spécifique pour laquelle
les images interférométriques sont nécessaires. Parmi ces critères on compte :

− l’angle et la direction de prise de vue (l’orbite ascendante ou descendante)


− la base géométrique (la base perpendiculaire optimale doit être dans l’intervalle
[150 - 300] m). Cependant, le mieux résultat est obtenu quand on utilise plus
qu’un interférogramme parce que l’interférogramme avec une base petite peut être
exploitée pour aider au déroulement de l’interférogramme avec une grande base.
En outre, interférogrammes différents peuvent être combinés pour éliminer
l’influence de l’atmosphère.
− la base temporelle (un intervalle grand de temps entre les acquisitions entraîne une
décorrélation temporelle du signal)
− le moment d'acquisition (les images prises pendant la nuit sont moins affectées par
les effets atmosphériques)
− la cohérence (une valeur faible de cohérence affecte le processus de calcul de la
phase interférométrique et de son déroulement)
− les conditions météorologiques. Il est recommandé d’éviter les enregistrements
effectues dans des conditions de pluie, neige ou vent fort parce que ces
phénomènes généralement causent la perte de cohérence.

NESECRET
Page 31 of 60
2.3 Applications et limites de l’interférométrie

L’évolution technologique des capteurs, aéro et spatio portés, a permis à cette technique
de se développer et promouvoir diverses applications nécessitant l’information contenue dans
l’interférogramme :

− information sur l'élévation : les franges de l'interférogramme peuvent être


considérées comme un réseau de courbes iso-altitude ;
− information sur le mouvement de terrain : la phase est proportionnelle à la
distance. Si le sol se déforme entre les deux prises de vues radar la modification se
verra directement dans l'interférogramme, avec une précision centimétrique.
L'interférogramme peut alors être interprété comme l'image des mouvements du
terrain où les franges sont des lignes d'iso-déplacement ;
− information sur la cohérence : lorsque la nature physique ou géométrique du sol a
changé, la phase des pixels diffère d'une acquisition à l'autre (chatoiements
différents). La mesure de la stabilité de la phase, appelée cohérence, est un
indicateur très sensible aux changements survenus sur le sol, même subtils.

2.3.1 Applications de l’interférométrie

Considérant l’information exploitée d’un interférogramme, on peut partager


l’interférométrie en deux grandes classes :
• interférométrie conventionnelle (InSAR) quand on mesure l’élévation
• interférométrie différentielle (DInSAR) quand on mesure le mouvement de
terrain
Comme on vu dans le premier chapitre, le rayonnement électromagnétique émis par le
radar rencontre les éléments situés dans la scène d’intérêt et se retourne vers le capteur, ainsi que
les objets situés à des distances différentes de capteur insèrent alors des retards différents du
signal. Ce retard est équivalent à un changement de phase entre le signal émis et le signal
réceptionné. L’interférométrie conventionnelle (InSAR) exploite cette différence, pour extraire
d’information sur l’élévation de la scène imagée. Le produit de cette technique est le modèle
numérique du terrain. La précision altimétrique des MNT ainsi obtenus dépend du niveau de bruit
de l’interférogramme et correspondent généralement à une fraction de l’altitude d’ambiguïté
(altitude qui introduit une tour de phase de 2π).
En ce qui concerne l’interférométrie différentielle (le cas d’acquisitions non simultanées),
l’interprétation de franges différentielles permet de détecter et de localiser les variations
survenues dans la région d’étude. Si entre les deux acquisitions une partie des points de l’image
s’est déplacée, la distance au radar s’est modifiée et la différence de phase est affectée de façon
proportionnelle au déplacement radial (vers le radar) [12]. L’interférométrie radar différentielle

NESECRET
Page 32 of 60
repose sur la suppression de la composante topographique introduite par la présence d’une base
perpendiculaire dans le couple d’acquisitions. En pratique, cette suppression peut se faire de deux
manières différentes. La première méthode consiste à modéliser la composante topographique à
partir d’un Modèle Numérique de Terrain (MNT) et de la connaissance des orbites, et la
deuxième méthode consiste à obtenir la composante topographique à partir d’un interférogramme
où l’on suppose les autres composantes (déplacement, atmosphère) négligeable. [13]
L’interférométrie différentielle (DINSAR) est utilisée depuis de nombreuses années pour
un grand nombre d’applications géophysiques [9] notamment l’étude des cycles sismiques, des
déplacements de glaciers, des déformations de volcans actifs, des glissements de terrain.
Plusieurs études ont également montré sa capacité à détecter et cartographier des affaissements
du sol, pour la plupart anthropiques, liés à des extractions de fluides (gaz, pétrole, eau..) ou à une
activité minière. Tenir compte que l’objectif de cet étude est de mesurer le déplacement par
DInSAR, cette technique sera traitée plus en détail dans le chapitre suivant.

2.3.2 Limitations de l’interférométrie

Même si l’interférométrie est couramment utilisée en plusieurs domaines, ils existent


encore des limites qu’ils la font impraticable dans certaines situations.
Nous avons vu que la construction de la phase dépend de nombreux termes et les
applications interférométriques sont fondées sur des situations où une partie de ceux-ci sont
connus ou maîtrisés.
Une première limite de l’interférométrie est liée à la décorrélation temporelle (la
stabilité temporelle de la distribution spatiale des diffuseurs dans un pixel). Lorsque la surface
est fortement perturbée dans le temps, la répartition spatiale des diffuseurs au sein d'un
pixel change ce qui entraîne la phase interférométrique à varier de façon aléatoire dans le
voisinage du pixel, ou peut même conduire à la destruction de franges. La
décorrélation temporelle fait que les mesures InSAR soient impossibles sur de telles surfaces.
Une autre limite de l’InSAR est lié au gradient spatial car si le déplacement
relatif entre deux pixels voisins dépasse une frange, il ne peut pas être détecté par
l‘interférométrie. Ainsi, le gradient de déformation maximale
détectable est une frange par pixel. Ceci est compréhensible puisque la valeur de
différence de phase dans un interférogramme enveloppé est comprise entre 0 et 2π. Ça signifie
que la différence maximale de la phase entre deux pixels voisins et 2π et correspond à une frange
(longueur de l’onde/2). La détermination du relief ou d’un champ de déplacement nécessite alors
de retrouver la valeur exacte de la phase (figure 2.3).
Toutes ces difficultés ont été décrites en détails dans plusieurs articles de synthèse
(Gabriel and Goldstein, 1988 ; Massonnet and Rabaute, 1993, etc.)

NESECRET
Page 33 of 60
Figure 2.6 Déroulement de la phase

Ces limites n’existent pas dans certaines situations mais même de cet façon, le montant de
déformation déduit du nombre de franges représentent des changements relatives, non pas des
variations absolues. Pour retirer cette limite afin d’obtenir un déplacement absolu de surface, on
doit identifier dans l’interférogramme une surface de référence supposée de zéro (un diffuseur
permanent) ou de la vitesse connue.

NESECRET
Page 34 of 60
Chapitre 3

Interférométrie différentielle (DInSAR).


Mesure de mouvement de terrain

Dans le chapitre précédent on a vu que les applications de l’interférométrie se divisent en


deux grandes catégories : mesure de l’élévation et mesure de mouvement de la terre.
La différence entre les deux catégories est en général « artificiel » parce que
l’interférométrie est intrinsèquement une technique différentielle.
Ce chapitre souligne les principaux problèmes liés à la détection radar des cibles et à la
mesure des déformations du terrain qui ont eu lieu entre les acquisitions d’images.

3.1 Détection des cibles

Avant de voir comme le principe de l’interférométrie différentielle peut être implémenté


pour la mesure de mouvement de terrain en général, et pour la surveillance des barrages et digues
en spécial, on doit faire une courte introduction à la détection radar. On a vu que le signal de
chaque cellule de résolution est la somme cohérente des réponses des diffuseurs élémentaires et
que cette addition cohérente implique un bruit multiplicatif (chatoiement ou speckle). Alors, la
fonction principale d’un radar est de détecter une cible, caractérisée par le signal s connu et
corrompu par un bruit de fouillis. [Ghera]. La dénomination de « fouillis » provient de la
superposions du bruit thermique (généré par l’électronique du radar et considéré comme un
processus aléatoire) aux signaux parasites des réflecteurs constitutifs du sol.
D’un point de vue mathématique, les échos radar sont considérés processus complexes et
il a été démontré que le fouillis du sol peut être modélisé correctement par modèles SIRV
(Spherically Invariant Random Vectors). Un SIRV est le produit d’une variable aléatoire positive
appelée texture dont la densité caractérise spatialement les variations locales de la puissance du
fouillis et d’un vecteur Gaussien appelé speckle qui est représenté par un processus Gaussien
complexe circulaire multidimensionnel, caractéristique des propriétés de cohérence du radar.

NESECRET
Page 35 of 60
Dans la première partie du projet « Traitement des images RSO interférométriques à haute
résolution spatiale pour la surveillance des barrages et digues par télédétection radar » proposé
par la firme EDF, il a été mis en place une technique de détection adaptée à tous les types des
fouillis. Le détecteur adaptatif GLRT-LQ (Generalized Likelihood Ratio test-linear Quadratic )
construit pour la détection des cibles, reste invariant à la variation spatiale de la puissance de
fouillis (la propriété « CFAR-texture »), et en même temps aux éventuelles fluctuations
temporelles du fouillis (la propriété « CFAR-matrice »). La texture et la matrice de covariance
étant inconnues en pratique, pour la construction du détecteur, la matrice de covariance a été
construite avec l’estimateur Point Fixe.

3.2 Modélisation des interférogrammes. Covariance et corrélation : Estimation de la


cohérence

La figure (3.1) montre un masque TFAC rectangulaire utilisée pour l’estimation de la


matrice de covariance. La technique Taux à Fausse Alarme Constante (CFAR en anglais) est très
connu dans la littérature. Le seuil de détection est calculé par blocs, c’est-à-dire d’après la
puissance moyenne d’une fenêtre constituée de quelques pixels de fouillis situés autour du pixel
test.

Figure 3.1 Masque TFAC (CFAR) rectangulaire

Pour chaque case centrale du masque (case de test), la matrice M̂ FP est estime grâce aux
vecteurs kiN de taille N considérés comme données secondaires et entourant la case testée. Ces
vecteurs sont représentés par la formule (3.1) :

⎡ k11 k12 k13 ... ... ... k1N −1 k1N ⎤


⎢ 1 ⎥
k k 22 k 23 ... ... ... k 2N −1 k 2N ⎥
V =⎢ 2
⎢ ... ... ... ... ... ... ... ... ⎥ (3.1)
⎢ 1 ⎥
⎢⎣k m k m2 k m3 ... ... ... k mN −1 k mN ⎥⎦

NESECRET
Page 36 of 60
où sur la ligne on a les données secondaires k i1 , k i2 , … , k iN de chaque image.
La matrice de covariance construite avec l’estimateur Point Fixe est une matrice
symétrique autour de la diagonale principale et on peut voir sa forme dans la relation (3.2) :

⎡N 2
N N N N

⎢∑ k1 ∑ k1k 2* ∑ k1k3* ∑ k1k 4* ..... ∑k k *
1 m ⎥
⎢ i =1 i =1
N
i =1
N
i =1
N
i =1
N ⎥
⎢ 2 * * * ⎥
⎢ ∑k
i =1
2 ∑k k ∑k k
i =1
2 3
i =1
2 4 ..... ∑i =1
k2km

⎢ N
2
N N ⎥
* *
M FP

=⎢ ∑k 3 ∑k k 3 4 ..... ∑ k 3 m ⎥
k

i =1 i =1 i =1 (3.2)
⎢ ..... ..... ..... ⎥
⎢ N
2
N
*

⎢ symetrique ∑k m −1 ∑ k k
m −1 m ⎥
⎢ i =1 i =1 ⎥
N
⎢ 2 ⎥


∑i =1
km ⎥

La matrice de covariance joue un rôle très important dans le traitement des images RSO
interférométrique parce qu’à partir d’elle on calcule le coefficient de corrélation et donc on peut
voir si les images traitées sont cohérentes ou non.
Le coefficient de corrélation ou degré de cohérence est défini comme le rapport entre les
éléments de la matrice de covariance et le produit de leurs leurs écarts-types :
N
*
∑k k
i , j =1
i j

ρi , j = N N
(3.3)
2 2
∑ki =1
i *∑ kj
j =1

Pour calculer la cohérence et la phase empiriques on applique les relations suivantes :

c = abs{C} (3.4)

Φ = arg{C} (3.5)

Intuitivement, la cohérence empirique permet de savoir si les N cellules de résolution de


la première image du couple interférométrique ont des « similitudes » de phase avec les mêmes
N cellules de résolution de la seconde image. La cohérence est élevée si les phases des deux
images sont proches, mais si les phases sont différentes, la cohérence est faible. [8] La valeur de
la cohérence varie entre 0 (la phase d’interférogramme contient seulement du bruit) et 1 (absence
totale du bruit). Dans une interférogramme, la cohérence varie d’une région à l’autre ou même de
pixel à pixel.
La cohérence d’un interférogramme joue un rôle important dans les processus d’analyse.
Une amplitude importante de la cohérence nous apprend que :

NESECRET
Page 37 of 60
− les images disposent d’un bon rapport signal/bruit
− les centres de phases des diffuseurs sont stables
− tous les déplacements sont « organisés » spatialement
Si on exclure le bruit aléatoire, la cohérence est déterminée par le changement de
propriétés de diffusion de la cible dans le temps. Par exemple, une cohérence très basse indique
habituellement l’eau en temps qu’une cohérence élevée indique les villes ou les autres éléments
stables.
En temps que l’amplitude du rayonnement reçu dépend sur la structure électromagnétique
de la cible, la cohérence est liée plus à la stabilité mécanique de la cible.

Fig.3.2 Cohérence

3.3 Facteurs des performances et contraintes de l’interférométrie différentielle

L’interférométrie différentielle (DInSAR) constitue un outil exceptionnel pour mesures


les déplacements de terrain apparus sur de larges zones, avec une précision millimétrique.
Cependant, cette technique ne peut pas être toujours exploitée du fait d’un certain nombre de
contraintes d’application. Dans les sous-chapitres suivants, on fait une courte présentation des
principaux facteurs de faisabilité et de performance de l’interférométrie différentielle. Par
faisabilité, on entend la possibilité d’acquérir les données et d’en extraire un interférogramme
présentant un rapport signal/bruit suffisamment élevé.

3.3.1 Les facteurs liés aux caractéristiques du système

Premièrement, l’interférométrie différentielle dépend des caractéristiques du système. Les


facteurs qui ont une importante influence sont :

a) La base spatiale. Elle agit indirectement en introduisant un effet stéréoscopique dans


l’interférogramme. Cet effet produit une dégradation de la cohérence de phase. Dans le cas où la
base perpendiculaire est nulle (c’est-à-dire que la trajectoire est rigoureusement identique d’un

NESECRET
Page 38 of 60
passage au suivant), l’interférogramme est insensible au relief et donne directement le
déplacement, ou plus exactement la projection de ce dernier sur l’axe de visée. Si la base
perpendiculaire augmente, alors la contribution du relief augmente aussi et devient plus difficile à
éliminer. Une base aussi étroite que possible favorise l’application de l’interférométrie
différentielle pour la mesure de déplacements. Dans ce cas on obtient des franges beaucoup plus
resserrées sur le site en mouvement que sur le reste de a scène, et donc il est plus facile de séparer
les deux systèmes de franges. Les performances de l’interférométrie différentielle sont
difficilement prédictibles avant l’acquisition des données, et pour ce motif, avant d’exploiter les
couples d’images il faut analyser les orbites afin de voir si le principe géométrique de
l’interférométrie par radar est respecté.[11]

b) La base temporelle. L’intervalle de temps entre les deux acquisitions a une double
influence en interférométrie différentielle : la cohérence et l’adéquation aux caractéristiques
dynamiques du phénomène. Pour les bases temporelles longues, quelle que soit la vitesse de
déformation du terrain, en général la cohérence sera faible.

c) La géométrie d’acquisition qui peut être définie par deux paramétrés indépendants :
l’angle d’incidence (par rapport au nadir) et la direction azimutale d’éclairement (déterminée par
l’orbite) qui déterminent en fait la direction de visée.
La direction de visée a un rôle très important en interférométrie différentielle parce que la
géométrie de l’image radar dépend d’elle et les mouvements du terrain sont projetés en direction
de visée. La reconstruction d’un déplacement absolu nécessite une connaissance experte du
phénomène (par exemple la direction de la déformation) ou bien plusieurs interférogrammes. Le
choix de la géométrie d’acquisition (ascendant ou descendent ?quel faisceau ?etc.) doit se faire
très attentif, en tenant compte de l’application pour laquelle les images seront traitées.

d) La résolution spatiale. La mesure de déplacements par interférométrie différentielle


dépend beaucoup de la résolution spatiale. Nous avons vu dans le chapitre précédent que pour
augmenter la précision des mesures on doit dégrader la résolution spatiale par un filtrage
multivue. Dans le cas de mouvements de grande ampleur, ce traitement donne la possibilité
d’accéder à des mesures très précises.

e) La longueur de l’onde. Un rôle majeur dans la prévision des performances de


l’interférométrie différentielle est joue par la longueur de l’onde puisqu’elle permet de traduire
les contraintes de base temporelle en terme spatiaux : une grande longueur d’onde a le même
effet qu’une courte base temporelle et inversement.
Les facteurs énumérés ci-dessus sont des facteurs technologiques, mais l’interférométrie
différentielle est également influencée par d’autres types de facteurs comme ceux
environnementaux et opérationnels.

3.3.2 Les facteurs liés à l’environnement d’acquisition

En fonctionne de la base temporelle, le comportement de l’environnement entre les


acquisitions change en influençant la qualité de l’interférogramme et son aptitude à fournir aussi
bien un MNT (modèle numérique du terrain) qu’une carte de déformations. Par environnement
on fait référence à l’atmosphère, la végétation (croissance et agitation) et le sol (dont les

NESECRET
Page 39 of 60
propriétés géométrique et électromagnétiques varient sous l’effet des actions de l’homme et des
variations naturelles de température et d’humidité).

a) L’atmosphère traversée par le rayonnement émis par le radar peut être très
changeante d’une acquisition à l’autre. Les variations spatiales de l’indice de réfraction
atmosphérique est importante à l’échelle d’une scène mais négligeables à l’échelle de la cellule
de résolution. [11] Beaucoup des études ont démontré que si les deux acquisitions sont prises
dans des conditions atmosphériques différentes il apparaît une variation du trajet de l’onde radar
qui se traduit par des franges parasites sur les interférogrammes.
Les perturbations atmosphériques sont alors une source d’erreur systématique pour
l’estimation des déplacements de terrain car ils rajoutent un déphasage non relié au mouvement.
Pour éliminer cet effet, dans le cas d’interférométrie multi passe, on peut générer et combiner
plusieurs interférogrammes dans lesquels on a au mois un diffuseur qui reste dans la même
position. Ce diffuseur peut être utilise comme référence pour éliminer la contribution de
l’atmosphère.

b) La végétation qui est un milieu très instable, peut produire des effets extrêmement
difficile de caractériser parce qu’ils dépendent d’un grand nombre de facteurs biologiques et
environnementaux. Ces effets peuvent être cohérents (croissance des cultures) ou non cohérents
(agitation de la canopée, dispersion volumique, etc.)

c) Le sol est un autre facteur qui influence l’application de l’interférométrie


différentielle parce qu’il peut également présenter des instabilités, sa probabilité de modification
augmentant généralement avec le temps. Cependant, les changements du sol ne sont pas
forcément irréversibles. Si une surface recouverte par la neige voit ses propriétés complètement
modifiées, après la fonte de la neige elle peut retrouver son état initial.

3.3.3 Les facteurs opérationnels

Une autre catégorie de facteurs inclut la mission du satellite et la formation


professionnelle des operateurs qui interviennent dans la chaîne de traitement des données. La
mission d’un satellite comporte un certain nombre de phases (spécification de besoin,
planification, acquisition, réception, livraison) et un dysfonctionnement même léger, de l’une de
ces phases suffit à compromettre l’ensemble de l’opération.
Comme la plupart des applications de l’interférométrie différentielle représentent un
enjeu économique important, il y a besoin d’opérateurs qualifiés pour superviser les procédures
de traitement des images RSO interférométriques (l’évaluation préliminaire de la qualité des
données, le déroulement des franges, la saisie de points d’appui, l’analyse visuelle des images,
etc.).

3.4 Mesure de déplacement de terrain

Pour l’étude des déplacements, idéalement, le seul paramètre d’acquisition qui doive
changes entre les deux images est la date d’acquisition. Mais comme on a vu dans le sous-
chapitre 3.3, l’application de l’interférométrie différentielle dépend des plusieurs facteurs. Alors,
afin de mesurer le déplacement qui a eu lieu entre les acquisitions il faudra prendre en compte
NESECRET
Page 40 of 60
les différences entre les deux images, causées par les changements de position et d'orientation du
satellite et les changements du milieu observé qui ne sont pas liés purement au déplacement de la
surface.
Si l’on se place dans l’hypothèse de l’immobilité du terrain il signifie que les différences
de phases résultantes sont fonction seulement de l’altitude. Or, si le terrain est animé d’un
déplacement même infime (une fraction de longueur d’onde), le déphasage ∂ φ mesuré est modifié
d’une quantité qui dépend de l’amplitude et de la direction du mouvement (l’équation (2.6)).
Dans le cas général, l’effet du déplacement se superpose à l’effet du relief. Alors, après
élimination des franges orbitales, on obtient deux systèmes des franges qui se superposent, l’un
lié au relief et l’autre lié aux déformations de la surface. Si pour l’instant les déphasages parasites
d’origines diverses qui s’ajoutent à ces deux termes sont négligés, le calcul du déplacement
suppose donc que l’on puisse isoler son effet, en retranchant celui du relief.
Pour éliminer les franges topographiques afin d’obtenir le déplacement, nous avons
besoin d’un modèle numérique de terrain ou d’une autre interférogramme où l’on suppose que les
autres composantes (déplacement, atmosphère) sont négligeables.
La précision requise pour le MNT utilisée dans cette étape est fonction de la base du
couple et du phénomène étudié. Plus la base est grande, plus le MNT devra être précis. Il est très
important de préciser que le modèle numérique de terrain fournit en chaque pixel une altitude
moyenne qui ne correspond pas forcément à celle à laquelle le radar est sensible. Quand la base
interférométrique est très grande, l’utilisation d’un MNT pour la suppression de la topographie
n’est pas indiquée.
L’utilisation d’une autre interférogramme pour éliminer la composante topographique
peut sembler plus naturelle que la première méthode, mais elle présente plusieurs inconvénients.
Premièrement, cette méthode ne peut pas être utilisée que dans le cas où l’on dispose au moins
des trois images, et l’interférogramme de référence doit répondre aux contraintes sévères posées
par l’hypothèse que les autres composantes sont négligeables. En pratique cette hypothèse n’est
jamais vraiment vérifiée dans le cas d’interférométrie multi-passe. [11]

NESECRET
Page 41 of 60
Fig.3.3 Interférométrie différentielle

Pratiquement, l’interférométrie radar différentielle implique une double différence de


phase : temporelle et spatiale. Une première différence (temporelle), s'effectue entre les phases de
deux images RSO, mais cette différence n'est pas directement utilisable en termes de
déplacement, à cause notamment de l'ambiguïté de la phase, de l'incertitude sur les orbites et des
effets atmosphériques à grande longueur d'onde. Alors, pour résoudre ce problème, il est
nécessaire une deuxième différence (spatiale), cette fois entre deux pixels d'un interférogramme.
Cette deuxième différence implique l’existence au moins d’un point de référence qui est resté
fixe entre les acquisitions ou qui a le déplacement réel connu.

3.4.1 Projection du déplacement

Même si l’on obtient des acquisitions avec une géométrie de prise de vue idéale, on
n’échappe pas à une contrainte géométrique majeure: le déphasage des échos radar n’est sensible
qu’à la projection du déplacement sur l’axe de visée (Line of Sight en anglais). Tout mouvement
dans un plan perpendiculaire à l’axe de visée, qui n’affecte pas la distance mesurée, est donc
indétectable par interférométrie. [11]

NESECRET
Page 42 of 60
Figure 3.4 Projection du déplacement sur l’axe de visée

Pour obtenir les trois composantes du vecteur déplacement à partir de la seule projection
sur la direction de visée on a vu qu’il est nécessaire d’avoir une information supplémentaire sur
les caractéristiques du mouvement, notamment sa direction (par exemple vertical, ou horizontal,
ou encore perpendiculaire à la pente du terrain).

Figure 3.4 Projection du vecteur déplacement

Le déplacement obtenu est donné de façon relative. Les valeurs absolues peuvent être
calculées à partir de la connaissance du déplacement réel d’un ou plusieurs points de référence.
La relation entre la phase interférométrique et le déplacement en LOS est donnée par :

NESECRET
Page 43 of 60

dϕ = d LOS (3.7)
λ

3.4 Caractéristiques de la technique

Les sous-chapitres précédents ont montré que lors de la génération de l’interférogramme


en combinant deux images RSO, la phase interférométrique est la somme d’un ensemble de
contributions de phases donnée par l’expression suivante :

ΔΦ = Φorb + Φtopo + Φdepl + Φatm + Φbruit (3.10)

où Φorb est la composante liée au variations de l’orbite, Φtopo est la phase topographique, Φdepl
est la phase du déplacement entre les deux acquisitions (en ligne de visée), Φatm est la phase due à
l'atmosphère, et en dernier lieu Φbruit est la phase des bruits générés par l’instrumentation. Parmi
ces différentes informations, ce que certaines considèrent comme signal peut représenter des
perturbations pour d’autres. Tout dépend de l’objectif de l’étude. Pour notre étude, la déformation
est le signal et les autres composantes sont les perturbations.

Concernant les caractéristiques de la mesure en terme de déplacement il est important de


savoir que :

− l’interférométrie différentielle donne seulement la composante du vecteur déplacement


réel selon la direction de visée du radar, c’est-à-dire le déplacement vers le radar (en
LOS). Une ambiguïté de la mesure et donnée du fait que des déplacements différents
peuvent donner le même déplacement vers le radar.
− le déplacement vers le radar est donné de façon relative : le déplacement en ligne
de visée d'un point est déterminé par rapport à un autre point présent sur
l'interférogramme. Pour ce raison le déplacement d'un pixel par rapport à l'autre doit être
suffisamment fort pour ne pas être masqué par les incertitudes mais en même temps il doit
être suffisamment faible pour permettre l'opération de déroulement. De plus, il
faut que la phase interférométrique due au déplacement varie peu à l'intérieur de
la cellule de résolution. Car en l'absence de stabilité de la phase dans la cellule, une
incertitude, similaire à celle créée par la base, peut être introduite. Ces limites
étant liées à la taille d'une cellule de résolution, elles dépendent fortement du relief
de la zone observée.
− la mesure du déplacement est entachée d'une imprécision qui a de multiples origines et
qui peut être suffisamment grande pour rendre la mesure non significative.

NESECRET
Page 44 of 60
− l’observation de l’évolution temporelle d’un phénomène est limitée par les dates
d’acquisitions des images RSO disponible, parce que l’on a accès seulement aux
déplacements finis entre les deux dates
− l'extension d'un phénomène observable est limitée par la taille de la cellule de résolution
de l'interférogramme, qui est celle des images SAR. Cette taille varie fortement selon la
pente du terrain, suivant la direction des distances. L'extension maximale est limitée
à la zone couverte par le couple d'images SAR utilisé, elle peut être étendue en
concaténant plusieurs scènes.
− selon le relief, la mesure n'est pas accessible en tout point de la zone observée à cause des
zones d'ombre, ou bien elle est difficilement interprétable, à cause de l'ambiguïté des zones
de renversement.
− l'opération de déroulement, nécessaire lorsque des sauts de phase sont présents dans
l'interférogramme, n'est pas possible lorsque le gradient de la phase interférométrique est
trop fort : la variation de la phase doit être inférieure à π entre deux pixels voisins quelle
qu'en soit la cause.

3.4.1 Déformation dans le temps

Dans le cas le plus général, la déformation n'est pas régulière dans le temps alors comme
on a précisé, il n'est pas possible d'obtenir des informations que sur les déplacements cumulés
ayant eu lieu entre les différentes dates d'acquisition successives. Cependant, on peut étudier
l'évolution de ces déplacements cumulés au cours du temps si l’on possède N images RSO
d'une même zone. En combinant ces N image, on peut former N × (N-1)/2 couples
d'interférogrammes. Il est connu le fait que si l'intervalle de temps augmente, la décorrélation
temporelle est plus forte. Pour améliorer l'information fournie par ces interférogrammes très
bruités, on peut reconstituer un interférogramme équivalent mais de meilleure qualité. Par
exemple, on peut prendre 3 images A, B, C et faire les trois couples possibles (AB, BC, AC). On
peut supposer que la somme des premiers deux interférogrammes donne un interférogramme
équivalent à la troisième (AB+BC=AC). Si l’on prendre en considération seulement les erreurs
topographiques, orbitales et atmosphériques cette supposition est bonne, mais en réalité on a
encore les erreurs de décorrélation temporelle ou spatiale. En analysant cette différence qui
apparaît entre les couples interférométrique, on peut trouver des informations liés au modèle de
déformation en temps.

°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°

NESECRET
Page 45 of 60
Chapitre 4

Application de l’interférométrie différentielle à la surveillance des barrages et


digues

Dans la société actuelle, les barrages et les digues devient d'une importance vitale pour
la régulation des ressources d’eau indispensable pour satisfaire des besoins différents, des plus
élémentaires comme l'alimentation de la population à ceux qui ont un contenu économique,
comme l'irrigation, l’usage industriel ou ceux qui ont des fins de loisir.
La présente étude a comme objectif de mettre en place une méthodologie générale pour
l’estimation des déplacements verticaux et/ou horizontaux sur des cibles artificiels (coin
réflecteur) par télédétection radar RSO satellitaire en bande X. Bien que des chaînes de
traitement standard soient utilisées pour certaines applications civiles et militaires, les
particularités liées à la surveillance des barrages et digues constituent un challenge pour
l’imagerie RSO interférométrique.

NESECRET
Page 46 of 60
Après avoir passé en revue les principes et les limites de la mesure des déplacements du
sol par l'interférométrie radar différentielle, le potentiel de cette technique est évalué sur une zone
test, à partir des images RSO acquises par le satellite allemand TerraSAR X.

4.1 Zone d’étude et données utilisées

Pour mettre en évidence la capacité de l’interférométrie différentielle de mesurer le


mouvement de terrain, on fait une analyse sur quatre acquisitions TerraSAR X sur le massif du
Mont Blanc.

Fig.4.1 Argentière, image 05/08/2009


L’écart entre deux passages ascendants du satellite TerraSAR X est de 11 jours, mais les
images traitées dans cette étude ne sont pas toutes consécutives. Les dates des acquisitions sont
présentées dans le tableau 1.

Date Polarisation Passe


05/08/2009 HH Ascendante
16/08/2009 HH Ascendante
27/08/2009 HH Ascendante
21/10/2009 HH Ascendante

Tableau 1 : Dates des acquisitions des images Strimap SLC


du satellite TerraSAR-X sur le massif du Mont Blanc.

Un site expérimental, comprenant un coin réflecteur stable et un coin réflecteur mobile a


été installé au refuge d'Argentière - 2771 m en Haute Savoie. Les positions initiales de ces deux
coins réflecteurs ont été mesurées par GPS différentiel.

NESECRET
Page 47 of 60
Le coin réflecteur mobile est posé sur une table xyz millimétrique et il a été déplace avant
de chaque passage du satellite TerraSAR X. Les coins réflecteurs (fixe et mobile) installés sont
orientés pour des visées ascendantes du satellite.
Le Tableau 2 résume les dates et les déplacements effectués sur le coin réflecteur mobile.

Dates Déplacement X Déplacement Y Déplacement Z


(cm) (cm) (cm)
13/08/09 2 2 1
24/08/09 10 10 1
28/09/09 7,5 7,5 0,8
20/10/09 2 0 0

Tableau 2 : Déplacements du coin réflecteur mobile "bande X" du refuge d'Argentière.

Avec les images RSO, on a reçu en plus :


− 4 fichiers XML contenant les informations sur les orbites du satellite
− les coordonnées géographiques (latitude, longitude, altitude) de la zone étudiée

4.2 Détection des cibles

En appliquant la technique de détection développée dans la première partie de cette étude,


15 points ont été détectés, incluant les deux coins réflecteurs. Leur distribution dans la zone
test est illustrée dans la figure 4.2.

NESECRET
Page 48 of 60
Figure 4.1 La distribution de points détectés sur dans la zone test. Les deux coins réflecteurs se
trouvent dans l’intérieur du rectangle rouge

On peut observer que les 15 points détectés n’ont pas une distribution uniforme et donc la
distance géodésique calculé entre un point pris comme référence et les autres varie beaucoup. En
tenant compte que l’interférométrie différentielle offre des mesures relatives, dans les sous-
chapitres suivants on va voir dans quelle mesure cette distance géodésique influe la précision des
résultats.
Dans l’algorithme développé, il a été mis en place une fonction qui permet de sélectionner
le point de référence en cliquant directement sur le masque détecté. Après la sélection de la
référence, les points sont ordonnés (en ordre croissant) dans une matrice, en fonction de distance
géodésique.

4.3 Analyse visuelle des images de phase et de cohérence

A partir de ces 4 images RSO, six interférogrammes ont été réalise, en combinant toutes
les images deux par deux. Par souci de simplicité, dans la suite nous nous référons à ceux
6 interférogrammes en utilisant les notations suivantes : 0508-1608, 0508-2708, 1608-2708,
0508-1021, 1608-1021, 2708-1021, où chaque groupe de chiffres représente la date d’acquisition
des images. Les bases temporelles de ces interférogrammes sont présentées dans la figure 4.2.

NESECRET
Page 49 of 60
Figure 4.2 Base temporelle

Dans la littérature de spécialité, il pourrait être constaté que l'aspect visuel des franges est
largement utilisé pour indiquer la qualité de l'interférogramme. C'est-à-dire que si les franges
peuvent être observées plus clairement, la qualité de l'interférogramme doit être bonne. Au
contraire, les interférogrammes qui contiennent des franges floues sont difficiles d’exploiter.
L'inspection visuelle de l’interférogrammes peut être considérée comme une sorte d'interprétation
manuelle.
La figure 4.3 montre les phases interférométriques pour tous les interférogrammes
générés. Analysant cette figure, on voit que les franges sont plus claires dans les couples 0508-
1608, 0508-2708 et 1608-2708 où la base temporelle est de 11 jours que dans les couples 0805-
1021 ou 1608-2110 qui ont une base temporelle de 77 respectifs 66 jours. Il est évident que les
premières 3 interférogrammes ont une meilleurs qualité et alors il est souhaitable de les utiliser
dans notre traitement pour obtenir des résultats plus précises.

NESECRET
Page 50 of 60
Fig. 4.3 Phase interférométrique

Un autre indicateur de la qualité de l'interférogramme RSO c’est la cohérence. Comme


on vu dans le troisième chapitre, la cohérence entre les deux images RSO peut théoriquement être
définie comme le coefficient de corrélation entre les pixels des images et il peut prendre des
valeurs dans l'intervalle [0, 1].
Les images de cohérence pour les interférogrammes utilisée dans cette étude peuvent être
visualisées dans la figure 4.4. On observe dans ces images que certaines régions sont plus
brillantes alors que les autres sont plus sombres. Les plus lumineux zones sont des zones où il y
a une bonne cohérence, en temps que les zones sombres présentent une mauvaise cohérence. En
tenant compte du fait que les images sont acquises sur une zone montagneuse où le relief est très
accidenté, on observe que dans le centre d’image, à cause de l’effet d’ombre on n’a pas
d’information et cette zone est pratiquement inexploitable.

NESECRET
Page 51 of 60
Figure 4.4 Images de la cohérence pour tous les 6 interférogrammes construites

Une observation importante est que la cohérence devient plus faible à mesure que la base
temporelle augmente. Une cohérence élevée peut être observée dans l‘interférogramme 0508-
1608, qui a une base temporelle de 11 jours, tandis que le couple 2708-2110, formé par les
images acquises à une différence de 55 jours présente une forte décorrélation temporelle.
En analysant les figures 4.3 et 4.4 ensemble, nous pouvons observer qu’il existe une forte
liaison entre la cohérence et la phase d’un interférogramme. Si l’on prend par exemple le cas
d’interférogramme 1608-2708 on voit que pour une corrélation faible entre deux images, les
franges interférométriques sont totalement floues. La liaison entre la cohérence et la phase peut
être déduite aussi à partir de leurs formules.

4.4 Calcul de déplacement

Le calcul de déplacement par interférométrie différentielle suppose à respecter un certain


nombre de pas. Après la formation des interférogrammes (la première différence de phase) on
calcule la phase interférométrique ∂ φ qui est directement proportionnelle avec la différence du
chemin ΔR = R2 − R1 :

Δϕ = φ R2 − φ R1 = ΔR (4.1)
λ

NESECRET
Page 52 of 60
La longueur de l’onde a une valeur de λ =3,1 cm et elle a été obtenue avec la formule
(4.2) :
vc
λ= , (4.2)
f0
où vc est la vitesse de la lumière et f 0 est la fréquence du satellite TerraSAR X, f 0 =9,65 GHz.
Ayant les coordonnées du satellite et les coordonnées du chaque cible, les différences du
chemin ont été facilement obtenues, en appliquant la formule connue pour le calcul
de distance dans l'espace. On doit préciser que les coordonnées satellitaires

A partir de ceux 4 images, on a construit les vecteurs de données secondaires, et les


matrices de covariance et corrélation en utilisant les relations (3.1)-(3.4).
La matrice de cohérence empirique est :

⎡ 1 ρ12 * e − jΔϕ12 ρ13 * e − jΔϕ13


ρ14 * e − jΔϕ14

⎢ ⎥
1 ρ 23 * e − jΔϕ 23
ρ 24 * e − jΔϕ 24

C=⎢ ⎥ (4.2)
⎢ symetrique 1 ρ 34 * e − jΔϕ 34 ⎥

⎢ ⎥
⎢⎣ 1 ⎥⎦

où ρ ij exprime le dégrée de cohérence empirique, et Δϕ ij est la différence de phase calculée


avec la formule (4.1). Dans le chapitre 3 on a vu que la phase interférométrique s’obtient en
appliquant la formule (3.6). Pour notre application, la matrice de phases a la forme suivante :

⎡ arg{C12 }⎤
⎢ arg{C }⎥
⎢ 13 ⎥

⎢ arg{C14 }⎥
Δϕ = ⎢ ⎥
⎢arg{C 23 }⎥
⎢arg{C 24 }⎥
⎢ ⎥
⎢⎣arg{C 34 }⎥⎦
(4.3)
Les phases obtenues sont repliées et pour transformer l’image de phase repliée en un
champ de déplacement on doit développer la phase 2D. Cette étape est difficile à automatiser, en
particulier dans le contexte des montagnes en raison de nombreuses zones inexploitables. La
question du développement de phase est rarement abordée dans les publications qui présentent
des mesures DInSAR de déplacements. Lorsque les auteurs ne passent pas cette étape sous
silence, ils soulignent généralement la difficulté d’un traitement automatique ou décrivent une
procédure proche d’un traitement manuel.
Pour éviter l’application d’une méthode de déroulement de phase, on a choisir de faire
une seconde différence, cette fois entre les pixels de l’image. Pratiquement, en chaque
interférogramme, pour ne pas appliquer une méthode de déroulement de la phase on a construit
NESECRET
Page 53 of 60
un autre « interférogramme » cette fois pas enter les images, mais entre les pixels. En chaque
point d’intérêt on fait le produit suivant :
ii i i −1
e − jΔϕ1 = e − jΔϕ1 * e jΔϕ1
, (4.4)
i
où Δϕ est la différence de phase interférométrique pour le point i, dans le cas du premier
1
interférogramme.

4.4.1 Calcul de déplacement en ligne de visée

La phase résultante appelée phase différentielle (ou de déplacement) contient seulement


l’information sur le déplacement en LOS des cibles.
(4.5)
λ
d los = Δϕi

Le déplacement in LOS pour les premières 5 cibles est représenté dans la figure 4.4.

Figure 4.4 Déplacement en LOS des premiers 5 points

On doit spécifier que tous les résultats qui sont présentés ici ont été calculés pour le cas
dans lequel le coin réflecteur fixe a été considéré comme référence. La figure 4.4 mettre en
évidence le fait que toutes les mesures qui suivent seront relatives au premier point (son
déplacement en LOS est considéré nul).
Pour obtenir le déplacement sur les 3 axes du système de coordonnée, on a projeté les
résultats sur la direction des vecteurs maîtres.

4.4.2 Mesure du déplacement 3D

La quantité mesurée est le déplacement vers le radar, c’est-à-dire la composante du


vecteur déplacement réel selon la direction de visée. La reconstruction d’un déplacement absolu
nécessite la connaissance apriori du phénomène (la direction de la déformation). Pour cette étude
on a reçu le fichier « déformation.txt » qui contient le model de déformation. Afin d’analyser
l’influence de la direction du déplacement sur les résultats, le fichier « déformation.txt » contient
deux modèles de déplacement.
Deux cas ont été traités. Dans le premier cas on a considéré que les directions de
déplacement données pour chaque point restent le mêmes pour tous les interférogrammes et dans
le deuxième cas on a suppose que les directions de déplacement ont été changés pour les
interférogrammes I(1,4), I(2,4) et I(3,4).
Pour les deux cas, la phase interférométrique a été modifie de telle manière que les
différences entre certains points soient plus grande que π, afin de voir si la méthode appliqué
pour éviter le déroulement de phase offre des résultats véritables. Les valeurs ont été modifié
selon le modèle ci-dessous :

NESECRET
Page 54 of 60
Les notations Δϕ i j représentent les valeurs de la phase calculées avec la relation (4.1).
i = 1..6 est le indice de l’interférogramme.

On a vu dans le chapitre 3 que pour trouve les déplacements absolues on a besoin de


connaître le déplacement réel d’un ou plusieurs points de référence. Dans ce cas, le déplacement
du coin réflecteur mobile sera utilisé pour trouver les déplacements des autres points.

Les images de cohérence ont montré qu’avec l’augmentation de la base temporelle la


décorrélation est plus forte. Pour analyser l’évolution temporelle de ceux 15 points détectés dans
cette application j’ai considéré seulement les premiers 3 interférogrammes (0508-1608, 1608-
2708, 2708-1021) qui ont une corrélation plus forte .

4.5 Analyse de la propagation de déplacements dans le temps et dans l’espace

4.5.1 Propagation des déplacements en temps

Figure 4. Base temporelle

Propagation spatiale

. L’observation de l’évolution spatiale du déplacement a aussi ses limitations. Il est


important de savoir que pour effectuer la deuxième différence il faut que le déplacement d’un
pixel par rapport à l’autre soit suffisamment faible pour permettre l’opération de déroulement et
que la phase interférométrique due au déplacement varie peu à l’intérieur de la cellule de
résolution.

NESECRET
Page 55 of 60
En conclusion, l’interférométrie différentielle permet d’obtenir des déplacements relatifs
qui pourront être calibrés à partir de la connaissance du déplacement réel d’un ou plusieurs points
de référence.

(1) ( 2) ( 3) ( n −1) (n)


dtrue 1
d true 1
dtrue 1
....... ....... dtrue 1
dtrue 1
(1) ( 2) ( 3) ( n −1) (n)
dtrue 2
dtrue 2
dtrue 2
....... ....... dtrue 2
dtrue 2
(1) ( 2) ( 3) ( n −1) (n)
dtrue 3
dtrue 3
dtrue 3
....... ....... dtrue 3
d true 3

Pour supprimer la composante topographique de la phase, on fait une double


interférogramme. Cette méthode suppose d’interfère les phases des deux points consécutifs. On
obtient la phase dans chacun point par référence au point voisin, le premier point ayant la phase
nulle.
( 2) ( 3) ( n −1) (n)
0 d truth 1
d truth 1
....... ....... d truth 1
d truth1
( 2) ( 3) ( n −1) (n)
0 d truth 2
d truth 2
....... ....... d truth 2
d truth 2
( 2) ( 3) ( n −1) (n)
0 d truth 3
d truth 3
....... ....... d truth 3
d truth3

En général, la phase InSAR présente plusieurs termes indépendants : franges orbitales,


franges topographiques, phase de déplacement et artefacts li´es aux changements
atmosphériques [Mass-98]. Les composantes orbitales et topographiques de la phase peuvent
être compensées en utilisant les informations orbitales et un MNT de la scène imagée par le
radar

Afin de mesurer le mouvement de terrain par interférométrie radar différentielle on a


appliqué une double différence de phase : premièrement une différence en temps entre deux
images et depuis une différence spatiale entre deux pixels. Les déplacements résultants seront
relatifs. Ils dépendent dans le même temps du déplacement du point voisin mais aussi du
déplacement du point de référence.
L’observation de l’évolution en temps d’un phénomène est limitée par les dates
d’acquisitions des images RSO disponible, parce qu’on a accès seulement aux déplacements finis
entre les deux dates.

4.6 La quantification des déplacements


NESECRET
Page 56 of 60
Afin d'aller plus loin [16-33] que l'étude précédente dans la quantification des
déplacements, nous avons entrepris de réaliser une compensation de l'ensemble des
interférogrammes. Cette méthode à été décrite dans le chapitre I (section C.2 p. 80). Cette
approche permet de réduire les effets de la décorrélation temporelle, en combinant l'information
d'interférogrammes à plus court intervalle de temps pour reconstituer la déformation à plus long
terme.

2 Bibliographie

[1] G. Vasile, “Interferometric and polarimetric SAR image processing. Application to Alpine
glacier monitoring”, Ph.D. Thesis, Université de Savoie, France, 2007

[2] J.A. RICHARDS “ Remote Sensing with Imaging”,

[3](Fundamentals of Remote Sensing ) Canada Centre for Remote Sensing

[4] H. Maître, F.Adragna, D. Ducrot, R. Garello, J.M Le Caillec, S.Le Hégarat-Mascle, A.


Lopès, J.M Nicolas, E. Trouvé, F.Tupin ‘Le traitement des Images de Radar à Synthèse
d'Ouverture ’

[5] Răducanu, D.- Radargrammetrie, Ed. ATM, Bucureşti, 1998;

[6] Iulia Florina::::::

[7] E.Trouvé ‘Imagerue interférentielle en radar à ouverture synthètique’, Thèse de doctorat


ENST 96E014 (1996)

[8] François Cellier ’’ Reconstruction 3D de bâtiments en interférométrie RSO haute résolution :


approche par gestion d’hypothèses’’ Ph.D Thesis, Office Nationale d'Etudes et de Recherches
Aérospatiales 2007

[9 ]D. MASSONNET and K. FEIGL, 1998, Radar interferometry and its application to changes
in the Earth’s surface. Rev. Geophys., 36(4), 441–500.

[10]= GHERA

[11] L Polidori,M.Kasser, ’L’interférometrie radar peut-elle contribuer au suivi des risques


géologiques?,avril 1999

NESECRET
Page 57 of 60
[12] InSAR Guide

[13] E. PATHIER ‘Apports de l’interférométrie radar différentielle à l’étude de la tectonique


active de Taiwan‘, PhD thesis, UNIVERSITÉ DE MARNE-LA-VALLÉE,2003

[14] Xiaobing Zhou, Ni-Bin Chang, Shusun Li, ‘Applications of SAR Interferometry in Earth and
Environmental Science Research’, ISSN 1424-8220

[15] Noha HOLAH ‘Potentiel des nouveaux capteurs radar multi-polarisation et polarimétrique
pour la caractérisation des états de surface en milieu agricole’, PhD, L’UNIVERSITE
D’ORLEANS 2005

[16] T. Landes, M. Gay, E. Trouvé, J.M. Nicolas, L. Bombrun, G. Vasile, I. Hajnsek,


“Monitoring temperate glaciers by high resolution Pol-InSAR data: first analysis of Argentière E-
SAR acquisitions and in-situ measurements”, IEEE International Geoscience and Remote
Sensing Symposium, Barcelona, Spain, pp. 184-187, July 2007

[17] G. Vasile, J.-P. Ovarlez, F. Pascal, C. Tison, L. Bombrun, M. Gay, E. Trouvé, “Normalized
coherency matrix estimation under the SIRV model. Alpine glacier POLSAR data analysis”,
IEEE International Geoscience and Remote Sensing Symposium, special session on Advanced
Methods for Polarimetric Information Extraction, Boston, USA, July 2008, Vol. 1, pp. I74-I77

[18] N. Besic, G. Vasile, J. Chanussot, S. Stankovic, “Polarimetric Incoherent Target


Decomposition by Means of Independent Component Analysis”, IEEE Transactions on
Geoscience and Remote Sensing, Vol. 53, No. 3, 2015, pp. 1236-1247

[19] N. Besic, G. Vasile, J.-P. Dedieu, J. Chanussot, S. Stankovic, “Stochastic Approach in Wet
Snow Detection using Multitemporal SAR Data”, IEEE Geoscience and Remote Sensing Letters,
Vol. 12, No. 2, 2015, pp. 244-248

[20] N. Besic, G. Vasile, J. Chanussot, S. Stankovic, J.-P. Dedieu, G. d'Urso, Boldo D., J.P.
Ovarlez, “Dry Snow Backscattering Sensitivity on Density Change for SWE Estimation”, IEEE
International Geoscience and Remote Sensing Symposium, Munchen, Germany, pp. 4418-4421,
2012

[21] O. Harant, L. Bombrun, G. Vasile, L. Ferro-Famil, M. Gay, “Displacement Estimation by


Maximum Likelihood Texture Tracking”, IEEE Journal of Selected Topics in Signal Processing,
Vol. 5, No. 3, 2011

[22] A. Anghel, G. Vasile, R. Cacoveanu, C. Ioana, S. Ciochina, “Short-Range Wideband


FMCW Radar For Millimetric Displacement Measurements”, IEEE Transactions on Geoscience
and Remote Sensing, Vol. 52, No. 9, 2014

[23] L. Pralon, G. Vasile, M. Dalla Mura, J. Chanussot, N. Besic, “Evaluation of ICA Based
ICTD for PolSAR Data Analysis Using a Sliding Window Approach: Convergence Rate,
Gaussian Sources and Spatial Correlation”, IEEE Transactions on Geoscience and Remote
Sensing, Vol. 54, No. 7, 2016, pp. 4262-4271
NESECRET
Page 58 of 60
[24] L. Pralon, G. Vasile, M. Dalla Mura, A. Anghel, J. Chanussot, “Spherical Symmetry of
Complex Stochastic Models in Multivariate High-Resolution PolSAR Images”, IEEE
Transactions on Geoscience and Remote Sensing, Vol. 54, No. 7, 2016, pp. 4250-4261

[25] A. Anghel, G. Vasile, C. Ioana, R. Cacoveanu, S. Ciochina, ”Micro-Doppler Reconstruction


in Spaceborne SAR images using Azimuth Time-Frequency Tracking of the Phase History”,
IEEE Geoscience and Remote Sensing Letters, Vol. 13, No. 4, 2016, pp. 604-608

[26] A. Anghel, G. Vasile, R. Boudon, G. d'Urso, A. Girard, D. Boldo, V. Bost, ”Combining


Spaceborne SAR images with 3D Point Clouds for Infrastructure Monitoring Applications”,
ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 111, 2016, pp. 45-61

[27] A. Anghel, G. Vasile, R. Cacoveanu, C. Ioana, S. Ciochina, J-.P. Ovarlez, ”Scattering


Centers Detection and Tracking in Refocused Spaceborne SAR Images for Infrastructure
Monitoring”, IEEE Transactions on Geoscience and Remote Sensing, Vol. 53, No. 8, 2015

[28] A. Anghel, G. Vasile, R. Cacoveanu, ”Infrastructure Monitoring with Spaceborne SAR


Sensors”, SpringerBriefs in Signal Processing, Springer Singapore, ISBN 978-981-10-3216-5
(Print), 978-981-10-3217-2 (Online), 2017

[29] G. Vasile, F. Pascal, J.-P. Ovarlez, P. Formont, M. Gay, “Optimal Parameter Estimation in
Heterogeneous Clutter for High Resolution Polarimetric SAR Data”, IEEE Geoscience and
Remote Sensing Letters, Vol. 8, No. 6, 2011, pp. 1046-1050

[30] A. Julea, G. Vasile, I. Petillot, E. Trouvé, M. Gay, J.M. Nicolas, P. Bolon, “Simulation of
SAR Images and Radar Coding of Georeferenced Information for Temperate Glacier
Monitoring”, International Conference on Optimization of Electrical and Electronic Equipment,
vol. IV, Brasov, Romania, pp. 175-180, May 2006

[31] G. Vasile, E. Trouvé, I. Petillot, P. Bolon, J.-M. Nicolas, M. Gay, J. Chanussot, T. Landes,
P. Grussenmeyer, V. Buzuloiu, I. Hajnsek, C. Andres, M. Keller, R. Horn, “High resolution SAR
interferometry: estimation of local frequencies in the context of Alpine glaciers”, IEEE
Transactions on Geoscience and Remote Sensing, Vol. 46, No. 4, 2008, pp. 1079-1090

[32] G. Vasile, E. Trouvé, M. Ciuc, P. Bolon, V. Buzuloiu, “Intensity-Driven-Adaptive-


Neighborhood Technique for POLSAR Parameters Estimation”, IEEE Geoscience And Remote
Sensing Symposium, Vol. VIII, Seoul, Korea, pp. 5509-5512, July 2005

[33] J.M. Nicolas, G. Vasile, M. Gay, F. Tupin, E. Trouvé, “SAR processing in the temporal
domain: application to direct interferogram generation and mountain glacier monitoring”,
Canadian Journal of Remote Sensing, special issue of the ASAR workshop, Vol. 33, No. 1, 2007,
pp. 52-59

NESECRET
Page 59 of 60

View publication stats

Vous aimerez peut-être aussi