net/publication/316473815
CITATION READS
1 2,569
2 authors, including:
Gabriel Vasile
GIPSA-lab
176 PUBLICATIONS 1,743 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Traitements des signaux RSO multidimensionnels pour l'estimation de l'équivalent en eau du manteau neigeux par télédétection radar en bande X View project
All content following this page was uploaded by Gabriel Vasile on 26 April 2017.
Tărîţă Laura-Ionela
GRENOBLE
2011
NESECRET
Page 1 of 60
NESECRET
Page 1 of 60
Table des matières
Introduction
Erreur ! Signet non défini.
NESECRET
Page 2 of 60
3.3.1. Projection du déplacement
3.3.2. Déformation dans le temps
3.3.3.
3.4. Bilan des composantes de la phase interférométrique
4. Application de l’interférométrie différentielle pour la surveillance des
barrages et digues
4.1. Zone d’étude et données utilisées
4.2. Détection des cibles
4.3. Analyse visuelle des images de phase et de cohérence
4.4. Calcul de déplacement
4.4.1. Calcul de déplacement en ligne de visée
4.4.2. Mesure du déplacement 3D
NESECRET
Page 3 of 60
INTRODUCTION
NESECRET
Page 4 of 60
En imagerie RSO, l’interférogramme est obtenu grâce à deux images SLC (Singe Look
Complex) radar de la même scène, acquises à partir de deux orbites séparées par une distance dite
« base interférométrique ». Aujourd'hui, de nombreux laboratoires utilisent l'interférométrie (ou
simplement la cohérence de phase qui en est un sous-produit) pour leurs applications, elles-
mêmes très nombreuses en géophysique, topographie, géologie, glaciologie, hydrologie,
volcanologie, foresterie, etc.
Le troisième chapitre de cette étude est dédié à l’analyse des caractéristiques de
l’interférométrie différentielle qui constitue la partie de l’interférométrie qui s’occupe avec la
mesure des déplacements de terrain. Nous nous intéressons aux principaux facteurs qui peuvent
influences les mesures et aux pas qui doivent être suivi pour obtenir les résultats qui nous
intéressent.
NESECRET
Page 5 of 60
Chapitre 1
La télédétection, dans son acception la plus large, est un ensemble des connaissances et
techniques qui permettent l’acquisition d’informations sur un objet ou un phénomène n’ayant pas
de contact avec l’objet étudié. Le processus de détection consiste à capter et enregistrer l’énergie
de rayonnement des ondes électromagnétiques émis ou réfléchis des objets étudiés.
La télédétection est devenue possible le jour du premier vol en ballon en 1783. Cet
événement historique, jumelé à l'invention de la plaque photographique par Daguerre et Niepce
en 1839, a permis à Félix Tournachon de prendre, en 1858, la première photographie aérienne de
Paris. Ceci consiste le point de départ de tout un cheminement qui jettera les bases de la
télédétection contemporaines. Le développement des techniques de la télédétection résulte de la
conjonction entre l'invention des ballons, avions ou satellites, permettant de s'éloigner de la
surface du sol ou de la Terre dans son ensemble, et le constant perfectionnement des capteurs,
c'est à dire des instruments permettant d'enregistrer l’énergie radiative pour reconstituer les
caractéristiques de la surface (terre ou océan) ou d’étudier le comportement des cibles selon un
plan d'échantillonnage dans l'espace.
La variété de instruments de télédétection est grande, tout comme leur gamme
d’applications. Certains instruments comme les altimètres permettent d’obtenir des acquisitions
monodimensionnelles, c'est-à-dire localisées spatialement sur la surface terrestre le long d’une
ligne située à la verticale de la trajectoire du satellite qui le porte. Pour la problématique qui nous
concerne, nous nous intéressons toutefois ici uniquement aux systèmes imageurs, qui permettent
des acquisitions bidimensionnelles sous forme d’images de la surface observée.
Par ses possibilités en matière de répétitivité, les données de télédétection deviennent une
source privilégiée pour la mise à jour de documents divers, qu'ils soient numériques ou
analogiques. De plus, la diversité des plateformes disponibles fait en sorte qu'il est possible
maintenant d'obtenir des informations utiles de l'échelle locale à l'échelle planétaire et ça,
sous n'importe quelle condition climatique.
En ce qui concerne le sujet de cette étude, la télédétection est un outil bien adapté pour la
caractérisation géométrique et cinématique des mouvements de terrain, et cela permet d’avoir une
vision globale du déplacement à différentes échelles spatiales et temporelles, même s’ils existent
encore des contraintes qui doivent être soigneusement maitrises.
NESECRET
Page 6 of 60
1.1.1 Éléments de physique du rayonnement électromagnétique
Tout corps dont la température est supérieure au zéro absolu est un émetteur de
rayonnement électromagnétique. Le rayonnement émis par ce corps (rayonnement incident) qui
arrive sur une surface est réfléchi, absorbé ou transmis par réfraction suivant le type de
surface rencontrée (figure 1.1).
L’onde électromagnétique se compose d'un champ électrique (E) qui varie en ampleur
dans une direction perpendiculaire à la direction dans laquelle le rayonnement voyage, et un
champ magnétique (M) orienté perpendiculairement au champ électrique. Les deux ces champs
voyage à la vitesse de la lumière (c).
Chaque onde est caractérisée par sa fréquence (ν) ou par sa longueur d'onde (λ), les deux
étant liés (ν = v/λ, v étant la vitesse de propagation des ondes dans le milieu considéré).
La longueur d’onde (figure 1.2) est équivalente à la distance entre deux crêtes successives
d’une onde et elle est mesurée en mètres ou en l’un de ses sous-multiples tels que les nanomètres
−9 −6 −2
( 10 mètre), micromètres (µm, 10 mètre) ou centimètre (cm, 10 mètre).
La fréquence représente le nombre d’oscillations par unité de temps. La fréquence est
normalement mesurée en Hertz.
NESECRET
Page 7 of 60
1.1.2 Polarisation de l’onde électromagnétique
2 2
⎛ Ex ⎞ Ex E y ⎛ Ey ⎞ 2
⎜ ⎟ −2 cos(δ y − δ x ) + ⎜ ⎟⎟ = sin(δ y − δ x )
⎜E
⎝ EOx ⎠ EOx EOy ⎝ Oy ⎠ , (1.1)
L'énergie électromagnétique réfléchie peut être détectée par un film sensible à la lumière
(comme dans la photographie aérienne), ou par un réseau de capteurs électroniques. Pour capter
et enregistrer les variations d'énergie, le processus photographique utilise une réaction chimique
sur une surface sensible à la lumière en obtenant des photographies. Les capteurs électroniques
NESECRET
Page 8 of 60
fournissent des images numériques, c’est à dire des représentations graphiques, quels que soit la
longueur d'onde ou le dispositif de télédétection qui a été utilisés pour capter et enregistrer
l'énergie électromagnétique.
En télédétection, l’on utilise de nombreux capteurs qui présentent des sensibilités diverses
au rayonnement, dans les différentes longueurs d’ondes du spectre électromagnétique.
Les deux grandes catégories des capteurs sont : les capteurs passifs et les capteurs actifs
(figure 1.4).
NESECRET
Page 9 of 60
1.2 Considérations techniques sur les systèmes de télédétection
Selon les données obtenues, on peut partager les systèmes de télédétection en : systèmes
imageurs (caméras aérophotogrammétriques, systèmes de balayage aéroportés ou satellitaires,
systèmes optoélectroniques, optique-mécaniques, etc.) et systèmes non imageurs (spectromètres,
radiomètres, interféromètres - utilisées surtout pour l’enregistrement des signatures spectrales).
Un capteur, pour recueillir et enregistrer l’énergie réfléchie ou émise par une cible ou une
surface, doit résider sur une plateforme stable retiré de la cible ou la surface observée. Une
plateforme se définit comme étant tout objet mobile ou immobile qui peut contenir des
instruments (détecteurs ou capteurs) servant à enregistrer des informations spatiales et spectrales
provenant d'objets divers. Ces plateformes peuvent être situées sur le sol, sur un avion ou une
autre plateforme dans l'atmosphère de la Terre, ou sur un satellite à l’extérieur de l’atmosphère
terrestre.
Les capteurs au sol sont souvent utilisés pour enregistrer d’information détaillée sur
la surface. Cette information est comparée après avec l’information recueillie par des capteurs
aériennes ou satellitaires. Ce type de capteurs peut être placé sur une échelle, un
échafaud, immeuble de grande hauteur, grue, plates-formes aéroportées. En ce qui concerne les
plateformes aéroportées, l'utilisation des avions est la plus fréquente car cela facilite la cueillette
de données ou d'images détaillées de la surface de la Terre, exactement à l'endroit et au moment
voulus. [3](Fundamentals of Remote Sensing )
Bien que les plateformes terrestres ou aéroportées soient utilisées, ce sont les satellites qui
fournissent la majeure partie des données recueillies par télédétection de nos jours.
Un satellite est un objet fabriqué par l'homme, envoyé dans l'espace à l'aide
d'un lanceur et gravitant autour d'une planète, en général autour de la Terre. La trajectoire
effectuée par un satellite autour de la Terre est appelée orbite. L'orbite d'un satellite est choisie en
fonction de la capacité des capteurs qu'il transporte et des objectifs de sa mission.
NESECRET
Page 10 of 60
Selon les caractéristiques de l'orbite suivie, on distingue deux grandes familles de
satellites :
- les satellites géostationnaires (ou géosynchrones), qui se trouvent toujours au dessus du
même point du globe terrestre et qui pour remplir cette condition ont une altitude voisine de
36.000 km. Leur résolution spatiale est donc faible, mais leur champ d'observation est
particulièrement vaste. Cinq satellites suffisent à couvrir la quasi-totalité du globe. Les images
recueillies par ce type de satellite sont essentiellement utilisées en météorologie ;
- les satellites à défilement, qui suivent une orbite allant pratiquement du nord au sud ou
vice versa (orbite quasi-polaire). La plupart des satellites sur orbite quasi-polaire ont aussi une
orbite héliosynchrone ce qui signifié qu’ils repassent toujours à la même heure solaire locale au-
dessus d'un point donné du globe. Ces satellites sont à une altitude comprise entre 700 et 900 km
et ils ont une haute résolution.
Des nos jours, la plupart des plateformes satellitaire sont placée sur orbite quasi-polaire.
Quand elles se déplacent vers nord on dit qu’elles ont une orbite ascendante. L’autre moitie de
l’orbite, vers le sud est appelée orbite descendante. Les satellites qui ont des capteurs passifs
recueillent l’information seulement au cours de leur orbite descendante, lorsque le Soleil illumine
la Terre, tandis que les satellites qui sont prévues avec des capteurs actifs ou des capteurs passifs
qui enregistrent l'énergie émise par la planète (l'énergie infrarouge thermique par exemple)
peuvent amasser des données autant lors des orbites ascendantes que descendantes.
En fonction de leur mission, les satellites peuvent être classifiés en cinq catégories
principales: recherche, communications, météo, navigation, et observation de la Terre.
• les satellites de recherche mesurent les propriétés fondamentales de l'espace, par
NESECRET
Page 11 of 60
exemple, les champs magnétiques, le flux des rayons cosmiques et les micrométéorites et les
propriétés des objets célestes qui sont difficiles ou impossibles à observer depuis la Terre.
• les satellites de communication sont placés dans l'espace pour des besoins de
télécommunications (fournissent une liaison à travers le monde par radio, téléphone et
télévision). Le premier satellite de communication a été Écho 1.
• les satellites météorologiques, fournissent des informations à jour sur grande
échelle des conditions atmosphériques, tels que la couverture nuageuse et des profils de
température. En cette catégorie on trouve : le satellite Tiros 1(le premier satellite de ce type),
Nimbus, NOAA-13, GOES (Geostationary Operational Environmental Satellites),METEO-SAT,
etc.
• Les satellites de navigation ont été développés principalement pour satisfaire la
nécessité des informations de positionnement de 24 heures à travers le monde. Le plus connu est
le système de positionnement global GPS (en anglais Global Positioning System), mais il existe
aussi des autres systèmes importants comme le système russe GLONASS, le système européen
Galileo, le système Beidou.
• Les satellites d’observation de la Terre sont des satellites en orbite autour de la
Terre qui fournissent des données sur la carte de la Terre, la taille et la forme et peut étudier
les océans et la dynamique de l'atmosphère.
Parmi les satellites les plus connus du début de l’ère spatiale jusque nos jours on trouve :
− Landsat, le premier satellite civil d'observation de la Terre, lancé en 1972. Il
embarquait un capteur MSS (Multi Spectral Scanner) dont les pixels mesuraient environ 80
mètres de côté. Depuis, six autres satellites Landsat ont été envoyés en orbite, mais ils
embarquaient un Thematic Mapper (TM) en plus du MSS.
− SPOT (Satellite Pour l'Observation de la Terre), un groupe des satellites lancés par
Centre National d'Études Spatiales (CNES) et qui peuvent revisiter des sites tous les deux ou trois
jours en moyenne (la fréquence dépend de la latitude).
− SEASAT (lancé en 1978), le premier satellite civile à comporter un capteur RSO qui
fonctionne en bande L (23.5 cm).
− JERS-1, lancé en 1992 par l’agence nationale de développement du Japon et il
fonctionne en bande L avec polarisation HH. La grande longueur d’onde de la bande L permet
une plus grande pénétration de l’énergie radar dans la végétation et autres types de surface.
− ERS-1/2, lancés par l’Agence Spatiale Européenne en 1991, respectivement en 1995.
Ces capteurs fonctionnaient en bande C et leurs principales utilisations étaient la surveillance et
la recherche en océanographie et l’observation de la Terre.
− RADARSAT-1 et RADARSAR-2, lancés par l’Agence Spatiale Canadienne (ASC) à
une différence de 11 ans, le premier en 1995 et le deuxième en 2006, fonctionnent en bande C
avec la polarisation HH et ils fournissent des images de la Terre pour des applications
scientifiques et commerciales.
− TerraSAR X, un satellite bande X, à matrice active, capable d'acquérir des données
jusqu'à 1 m de résolution, quelles que soient les conditions météorologiques, de jour comme de
nuit. Les images traitées dans ce projet sont des acquisitions du satellite Terra SAR X. Les
caractéristiques du satellite sont présentées dans le sous-chapitre suivant.
NESECRET
Page 12 of 60
1.3 Imagerie Radar à Synthèse d’Ouverture (Les principes du radar imageur)
Le principe du Radar (Radio Detection and Ranging), a été énoncé en 1891 par
l’américain Hugo Gernsback et il est basé sur le principe de la propagation des ondes
électromagnétiques. Le radar est un system actif qui émet un rayonnement dirigé vers la cible
observée, puis il capte et mesure le rayonnement réfléchi. Il offre donc l’avantage de pouvoir
prendre des mesures à n’importe quel moment de la journée ou de la saison. Cependant, ces
données ne sont que peu exploitées à cause de deux phénomènes :
- le bruit de speckle (chatoiement) qui affecte la radiométrie et rend difficile
l’interprétation visuelle de la scène
- la géométrie radar qui modifie l’échantillonnage au sol des zones de fort relief.
La plupart des radars ont été dessinés de façon à transmettre des hyperfréquences avec
une polarisation horizontale (H) ou verticale (V). En fonctionne de la polarisation à
l’émission et à réception, le rayonnement interagit et est rétrodiffusé différemment. Par
conséquent, les images radar recueillies à l'aide de polarisation et des combinaisons de longueur
d'onde différentes peuvent fournir des informations différentes et complémentaires sur les cibles.
[3]
Du point de vue énergétique, les puissances émises et reçues sont reliées par l’équation du
radar [4] :
G 2 λ 2σ
Pr = Pe 3
( 4π ) D4a
, (1.2)
Pr ,puissance reçue, Pe puissance émise, G gain de l’antenne, λ longueur d’onde, σ Surface
Equivalente Radar (SER), a coefficient de perte par absorption, D distance antenne-cible.
La SER est une fonction complexe qui intègre de nombreux paramètres liés à la surface
de réflexion elle-même tels que sa géométrie ou sa constante diélectrique, dépendante de la
fréquence et de la polarisation du signal radar.
NESECRET
Page 13 of 60
1.3.2 Le système radar imageur
a) b)
Figure 1.6 a) – système bistatique ; b) – système monostatique
NESECRET
Page 14 of 60
les échos renvoyés par la scène observée. Cet enregistrement permet la formation d’une ligne de
l’image. Après une durée égale à PRF, le capteur bascule à nouveau en mode émission et une
1
nouvelle impulsion est émise. Entre l’instant t et ( t + PRF ), le porteur, de vitesse v, se déplace
v
d’une distance PRF , ce qui permet l’acquisition de la ligne suivante et donc le balayage des
colonnes de l’image.
A la différance d’image optique, l’image radar met en œuvre des distances et non des
angles.
Pour éviter le repliement d’image, c'est-à-dire pour éviter que deux points ayant la même
distance se mélangent, le radar vise en direction latérale (figure 1.8). L'angle à partir duquel le
radar illumine la surface est nommé angle de visée (B). En mesurant le temps écoulé entre la
transmission de l’impulsion et la réception de l’écho rétrodiffusé, on peut déterminer la distance
entre le radar et la cible.
NESECRET
Page 15 of 60
L'angle entre le faisceau du radar et la normale à la surface du sol (θ) est nommé angle
d’incidence et il augmente graduellement de la portée proximale à la portée distale. La puissance
du signal reçu en retour est dépendante de l’angle d’incidence. En effet, d’un point de vue
géométrique, plus l’angle d’incidence est important et plus le signal en retour sera faible. L’angle
d’incidence dépend donc de l’orientation de la visée du système imageur radar (angle d’émission)
et de l’orientation de l’objet au sol qui rétrodiffuse le signal radar.
Lorsque l’on travaille sur des zones accidentées, le mode d’acquisition des images radar,
tel qu’il est illustré par la figure 1.9, engendre des déformations géométriques en range et des
effets selon l’azimut [5].
Figure 1.9 Les déformations géométriques en distance induites par l’imagerie Radar : (1)
zone de compression, (2) zone de recouvrement, (3) zone d’inversion, (4) zone de dilatation et (5)
zone d’ombre.
Selon l’orientation de la pente par rapport à l’axe de visé du radar, on a deux catégories de
déformations : les zones de compression(1), de recouvrement(2) et d’inversion(3) qui se situent
au niveau des pentes face à visée et les zones des dilatation (4) et d’ombre (5) qui se situent au
niveau des pentes opposées à la visée.
Le phénomène de compression apparaît quand la pente n’est pas trop prononcée et la
distance au niveau du plan image est inférieure à la réalité. Si la pente augmente et devient
perpendiculaire au vecteur visé alors il s’agit du phénomène de recouvrement car tous les échos
sont concentrés en un seul point. L’inversion apparaît quand si la pente augmente au point
d’intervertir les projections de deux points sur le plan image. Quand la pente est douce comme
dans le cas de la zone EF, on observe qu’il a lieu une dilatation(4) du segment dans l’image.
Si la pente est opposée à la visée, alors le faisceau n’est pas capable d’illuminer la surface
du sol et ils apparaissent des régions ombragées(5). Ces régions son facilement identifiables
sur l'image car elles sont plus sombres parce qu’il n’y a pas d’énergie disponible pour la
rétrodiffusion.
NESECRET
Page 16 of 60
1.3.4 Notions de résolution
La résolution en distance
Considérons deux cibles rapprochées sur le terrain qui produisent des échos radar comme
le montre la figure 1.10. La possibilité de séparer ces cibles, le long du faisceau, dans le signal
reçu par le radar est déterminée par les impulsions de retour (s’ils se distinguent). Si les
cibles sont trop proches, leurs échos se chevauchent et ne peuvent pas être séparés dans le
signal reçu. Les objectifs doivent être plus d'une demi-longueur d'impulsion en dehors pour
n’occupent pas l’impulsion ensemble.
−1
La différence de temps entre les échos à la réception sera Δt = 2Δrc parce que l’onde
parcourt la distance deux fois. La limite inférieure de Δ t est τ ce qui signifie que
la limite correspondante de la résolution spatiale Δ r dans le sens de la distance oblique est :
cτ
Δr = m (1.4)
2
La résolution projetée au sol pour une onde émise sous une incidence θi est donnée par
l’équation :
cτ
rs = m
2sin θi (1.5)
NESECRET
Page 17 of 60
La résolution en azimut
La résolution en azimut (figure 1.11) est liée aux principes d’émission, propagation et
réception d’ondes électromagnétiques cohérentes (lois d’antenne déterminées par les dimensions
de l’antenne et la longueur d’onde). Pour que deux cibles soient séparables en azimut, il faut
qu’elles ne soient pas dans le lobe d’antenne au même moment. L’ouverture d’antenne est donnée
en première approximation [Maî01] par l’équation :
λ
B=
L (1.6)
λ
Ra = R
L, (1.7)
L - longueur de l'antenne radar, λ - longueur d'onde du radar, R – distance entre le capteur et la
cible.
NESECRET
Page 18 of 60
On peut remarquer que la résolution en azimut est inverse proportionnelle à la longueur de
l’antenne ce qui mène au fait que pour augmenter la résolution en azimut il faut donc travailler
avec des antennes très grandes.
Après l’acquisition des données, pour obtenir une image RSO on doit suivre deux
étapes :
– le filtrage adapté en distance (la compression d’impulsion)
– la synthèse d’ouverture.
Ces deux étapes sont des étapes décorrélées ainsi qu’elles peuvent être intervertis dans la
chaîne. Comme on peut voir dans la figure (1.13), le point de départ en la formation des images
RSO est constitué par les images brutes qui sont formées juste après la réception du signal au
niveau de l’appareillage du radar. Les agences spatiales fournissent en général les images brutes.
Pour envoyer une énergie suffisante, les impulsions doivent être émises pendant une
durée τ relativement longue. La compression d’impulsions permet d’améliorer sensiblement la
résolution en distance en utilisant un « chirp » pour moduler linéairement en fréquence le signal
de durée τ :
⎧ ⎛ ⎡ Kt 2 ⎤ ⎞ τ
⎜
⎪ A(t ) = A0 exp⎜ 2 jπ ⎢ f 0t + ⎥ ⎟ si t ≤
⎨ 2 ⎦⎠ ⎟ 2 (1.9)
⎝ ⎣
⎪ A(t ) = 0 sinon
⎩
où f 0 est la fréquence centrale de la porteuse. La fréquence instantanée f (dérivées de la phase)
vue par la cible est alors :
f = f 0 + Kt (1.10)
et correspond à une rampe dans le domaine fréquentiel. La largeur de bande du chirp, est appelée
bande utile et vaut Kτ.
La résolution finale peut alors être d’autant plus améliorée que la bande passante du
signal est élargie.
NESECRET
Page 19 of 60
1.4.2 La synthèse d’ouverture
NESECRET
Page 20 of 60
Une image radar est en fait une matrice de pixels. Chaque pixel est associé à une petite
zone de la surface de la Terre. Les images sont formées ligne par ligne.
Les pixels d’une même ligne ont une distance azimutale identique, en temps que les
pixels d’une même colonne ont une distance radiale commune. Une ligne correspond à une des
impulsions émises par l’antenne à une fréquence de répétition d’impulsion. La réponse à cette
impulsion reçue sur l’antenne en provenance de la cible au sol est échantillonnée temporellement
à une fréquence d’échantillonnage (fe), chaque échantillon représentant un pixel de la ligne,
correspondant à une colonne différente. Chaque pixel donne un nombre complexe qui
porte d’informations sur l’amplitude et la phase du champ micro-onde rétrodiffusée par tous
les diffuseurs (etc. roches, la végétation, bâtiments) qui se trouvent dans la même cellule de
résolution. [12]
Toutefois, le chatoiement peut être réduit considérablement si l’on prend plus d’images de
la même région à des moments différentes ou sous des angles d’incidence légèrement
différentes .En moyennant plusieurs images tend à annuler la variabilité d'amplitude aléatoire et
laisser le niveau d'amplitude uniforme inchangée.
NESECRET
Page 21 of 60
1.5 Le Satellite TerraSAR X
NESECRET
Page 22 of 60
signifie que les données TerraSAR X ont une haute résolution géométrique (détection d’objets de
petite taille) et une haute résolution radiométrique (distinction d'un grand nombre de classes
thématiques). La répétitivité élevée, selon différents angles de vues, indépendamment
des conditions météorologiques et d'éclairement fait que le satellite soit un outil importante pour
les observations fréquentes, la surveillance et les mises à jour de cartes régulières.
NESECRET
Page 23 of 60
CHAPITRE 2
Interférométrie RSO
L’interférométrie est une technique qui exploite la différence de phase de signaux RSO
rétrodiffusés pour mesurer les variations de distances entre le capteur et la cible illuminée. Pour
appliquer cette technologie, on a besoin au moins des deux images complexes provenant d’un
radar à synthèse d’ouverture acquises avec un décalage dans le temps et (ou) une parallaxe
transversale afin d’extraire l'information sur l’altitude ou le mouvement de la surface terrestre.
Aujourd'hui, de nombreux laboratoires utilisent l'interférométrie (ou simplement la
cohérence de phase qui en est un sous-produit) pour leurs applications, elles-mêmes très
nombreuses en géophysique, topographie, géologie, glaciologie, hydrologie, volcanologie,
foresterie, etc.
NESECRET
Page 24 of 60
Figure 2. 1 Géométrie d’acquisition InSAR
La cible (P), située à une altitude h est imagée depuis les deux positions du radar S M
(maître) et S S (slave). La distance entre S M et S S représente la base interférométrique B. RM et
RS représentent les distances respectives entre les capteurs et la cible.
L’interférogramme RSO est généré par croisée-multipliant, pixel avec pixel, une image
RSO avec la conjugué complexe de la deuxième. Ainsi, l’amplitude de l’interférogramme est
l’amplitude de la première image multipliée par celle de la seconde, alors que la phase
interférométrique est la différence de phase entre les images.
Considérons un plan de repère (Oxz ), orthogonal aux traces des satellites SM , S S , un point
de référence Q = ⎛⎜ X ⎞⎟ et le point P = ⎛⎜ X + x ⎞⎟ .
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝ z ⎠
La première prise de vue corresponde au trace du satellite SM , situé en ⎛⎜ 0 ⎞⎟ , tel que
⎜H ⎟
⎝ ⎠
l’angle d’incidence Ɵ soit défini par tan θ = X , et la deuxième corresponde au trace du satellite S S
H
, situé à une distance ⎛⎜ Bx ⎞⎟ du satellite SM .
⎜B ⎟
⎝ z⎠
NESECRET
Page 25 of 60
Fig. 2.2 Repère interférométrique
Si on calcule les différences de distance entre les capteurs et les deux cibles ΔRi (
ΔRi = RSM i − RSS i , où i représente la cible) et depuis on applique un développement au second
ordre, on obtient l’expression approchée de ΔRi :
où Bortho est la composante orthogonale de la base par rapport à la direction de visée. Cette
composante a un rôle très important dans la définition d’un couple interférométrique.
L’expression 2.1 peut être séparée en deux termes :
Bortho
− x cosθ qui ne dépend que des positions des deux satellites et la position du
X2 +H2
point visé. Ce terme est à l’origine des franges orbitales, qui sont parallèles à la trajectoire
du porteur ;
Bortho
− z sin θ qui dépend de l’altitude du point visé et qui est à l’origine des franges
X2 +H2
topographiques. Ce terme permet une détermination du relief de la scène.
Afin de pouvoir obtenir le déplacement de terrain, les franges orbitales et topographiques
doivent être élimines.
NESECRET
Page 26 of 60
2.1.2 Phase et interférence
Comme on a vu dans le chapitre 1, les images RSO sont des images complexes, chaque
pixel comportant deux informations : l’amplitude de l’onde, qui représente la capacité du sol à
rétrodiffuser l'onde radar de façon plus ou moins forte, et la phase.
La phase correspond au déphasage entre le signal rétrodiffusé et le signal émis pris
comme référence. Elle dépend de nombreux facteurs de natures différentes : le trajet-aller retour
de l'onde, l'atmosphère traversée, mais aussi la disposition relative des objets constituant la
cellule de résolution et leurs propriétés physiques. De ce fait, la phase est très variable d'un
pixel à l'autre, même sur une surface relativement homogène [11]. En pratique, si on a une seule
image de phase (qui semble complètement aléatoire) on ne peut pas obtenir des informations sur
le milieu observé. Cependant, la phase est une information potentiellement très riche qui est
exploitée par l'interférométrie radar en combinant l'information de phase de deux images.
La figure 2.3 présent l’amplitude d’une image complexe RSO (à gauche) et la phase
obtenue après l’interférence de deux images RSO.
Soit k M et k S les deux images RSO enregistrées depuis les deux positions :
ki ( r, a ) = ki ( r, a ) e jφi (r ,a)
, (2.2)
où i ∈{M , S}, a est la position en azimut et r la position en distance. La phase φi est composée
des deux termes :
φ = φ propre + φR
(2.3)
φ propre est la phase propre liée au déphasage introduit par l’interaction onde-cible (dépendante de
la nature physique du sol et l’incidence de prise de vue), et φR représente le déphasage dû au
trajet aller-retour de l’onde.
4π r
φR = R
λ (2.4)
NESECRET
Page 27 of 60
r
R est la distance de la source au centre du pixel. Chaque fois que l’onde parcourt une distance
égale à la longueur d’onde λ, sa phase augmente de 2π.
La différence de phase entre les deux images est :
( ) (
∂φ = φ2 − φ1 = φ propre + φR2 − φ propre + φR1 ) (2.5)
En s’appuyant sur le fait que les images sont acquises dans les mêmes conditions
géométriques (même incidence, même chatoiement) et si l’on se place dans l’hypothèse où la
nature du sol n’a pas changé entre les deux acquisitions, on peut considérer que les phases
propres sont égales. Alors, la phase interférométrique ∂ φ est directement proportionnelle avec la
différence du chemin ΔR = R2 − R1
4π
∂ φ = φ R2 − φ R1 = ΔR (2.6)
λ
La phase interférométrique est donc connue avec une précision de l’ordre d’une fraction
de longueur d’onde, mais elle sera repliée (modulo λ ). L’image de ces différences de phase est
appelée interférogramme. Comme on voit dans la figure 2.2 l’interférogramme est constitué de
franges. Une frange est une ligne de phase égale dans l’interférogramme.
Fig.2.4 Interférogramme
NESECRET
Page 28 of 60
2.1.3 Construction d’un produit interférométrique
• Le recalage local des images est une transformation géométrique qui a le but de mettre
dans les mêmes conditions les réflecteurs impliqués dans l’image maître et dans l’image
esclave. Dans le cas idéal, tous les réflecteurs élémentaires qui ont contribué à la phase propre
lors de la formation de l’image maître se retrouvent exactement dans le même pixel de l’image
esclave. [1]. Le recalage se fait tout d’abord par une analyse des conditions de la prise de vue,
c'est-à-dire des trajectoires des radars. Les techniques utilisées pour cette étape (ex. corrélation,
NESECRET
Page 29 of 60
maximisation de cohérence, observation des franges) doivent assurer une précision entre un
dixième et un centième de pixel, ce qui nécessite de sur-échantillonner finement le signal. [4]
• Le recalage global des images (registration). Comme l’étape précédente implique une
transformation géométrique (par exemple une translation de paramètres : ∂x et ∂y ) valable au
voisinage d'un pixel (x, y) et qui peut se répéter à travers toute l'image, des transformations
légèrement différentes seront trouvées en les pixels dispersés sur la scène à analyser. Pour obtenir
un recalage subpixellaire en tous les points de la scène, il convient de déterminer une
transformation globale. Diverses méthodes [7] sont utilisables : techniques de corrélation
(déplacement de la fenêtre de corrélation puis interpolation de la corrélation au voisinage du
maximum pour le recalage), utilisation des fréquences locales, calcul des valeurs des paramètres
d’une fonction de cout global, etc.
Dans le chapitre 1 nous avons vu que les images RSO sont entachées d’un bruit de
chatoiement qui est le résultat de nombreux facteurs.
L'interférogramme est généralement considéré comme un produit brut parce que sa phase
est plutôt bruyante, au moins dans le cas d’acquisitions à passages répétés qui sont fortement
touchées par décorrélation temporelle. Une pratique courante de réduire le bruit consiste en
moyenner des pixels adjacents dans l'interférogramme complexe. Ce traitement est défini comme
« complexe multivues ». L’algorithme suppose de moyenner L échantillons indépendants sur un
masque fixe, où le masque est généralement de forme rectangulaire et conçue pour avoir la même
taille en azimut et en distance au sol.
NESECRET
Page 30 of 60
1 L
I mv = ∑ Ik (2.9)
L k =1
Cependant, ce technique n'est efficace que si la phase de l'interférogramme est
« constante » (par exemple au sein d'une petite fraction de π) sur la fenêtre et échoue lorsque les
phases varient. Mais le filtre peut être amélioré en fournissant une estimation de la phase de
l'interférogramme dans la fenêtre choisie et en compensant cette phase avant de faire la moyenne
(une sorte d’aplatissement local). Ces techniques ont encore des inconvénients puisque le
moyennage n'a de sens que s'elle est effectué sur des échantillons statistiquement homogènes.
Ce procédé permet de réduire la variance du speckle d’un facteur L dans le cas d’échantillons
réellement décorrélés, mais ce gain en résolution radiométrique s’acquiert au détriment de la
résolution géométrique qui est dégradée d’un facteur L également.
NESECRET
Page 31 of 60
2.3 Applications et limites de l’interférométrie
L’évolution technologique des capteurs, aéro et spatio portés, a permis à cette technique
de se développer et promouvoir diverses applications nécessitant l’information contenue dans
l’interférogramme :
NESECRET
Page 32 of 60
repose sur la suppression de la composante topographique introduite par la présence d’une base
perpendiculaire dans le couple d’acquisitions. En pratique, cette suppression peut se faire de deux
manières différentes. La première méthode consiste à modéliser la composante topographique à
partir d’un Modèle Numérique de Terrain (MNT) et de la connaissance des orbites, et la
deuxième méthode consiste à obtenir la composante topographique à partir d’un interférogramme
où l’on suppose les autres composantes (déplacement, atmosphère) négligeable. [13]
L’interférométrie différentielle (DINSAR) est utilisée depuis de nombreuses années pour
un grand nombre d’applications géophysiques [9] notamment l’étude des cycles sismiques, des
déplacements de glaciers, des déformations de volcans actifs, des glissements de terrain.
Plusieurs études ont également montré sa capacité à détecter et cartographier des affaissements
du sol, pour la plupart anthropiques, liés à des extractions de fluides (gaz, pétrole, eau..) ou à une
activité minière. Tenir compte que l’objectif de cet étude est de mesurer le déplacement par
DInSAR, cette technique sera traitée plus en détail dans le chapitre suivant.
NESECRET
Page 33 of 60
Figure 2.6 Déroulement de la phase
Ces limites n’existent pas dans certaines situations mais même de cet façon, le montant de
déformation déduit du nombre de franges représentent des changements relatives, non pas des
variations absolues. Pour retirer cette limite afin d’obtenir un déplacement absolu de surface, on
doit identifier dans l’interférogramme une surface de référence supposée de zéro (un diffuseur
permanent) ou de la vitesse connue.
NESECRET
Page 34 of 60
Chapitre 3
NESECRET
Page 35 of 60
Dans la première partie du projet « Traitement des images RSO interférométriques à haute
résolution spatiale pour la surveillance des barrages et digues par télédétection radar » proposé
par la firme EDF, il a été mis en place une technique de détection adaptée à tous les types des
fouillis. Le détecteur adaptatif GLRT-LQ (Generalized Likelihood Ratio test-linear Quadratic )
construit pour la détection des cibles, reste invariant à la variation spatiale de la puissance de
fouillis (la propriété « CFAR-texture »), et en même temps aux éventuelles fluctuations
temporelles du fouillis (la propriété « CFAR-matrice »). La texture et la matrice de covariance
étant inconnues en pratique, pour la construction du détecteur, la matrice de covariance a été
construite avec l’estimateur Point Fixe.
Pour chaque case centrale du masque (case de test), la matrice M̂ FP est estime grâce aux
vecteurs kiN de taille N considérés comme données secondaires et entourant la case testée. Ces
vecteurs sont représentés par la formule (3.1) :
NESECRET
Page 36 of 60
où sur la ligne on a les données secondaires k i1 , k i2 , … , k iN de chaque image.
La matrice de covariance construite avec l’estimateur Point Fixe est une matrice
symétrique autour de la diagonale principale et on peut voir sa forme dans la relation (3.2) :
⎡N 2
N N N N
⎤
⎢∑ k1 ∑ k1k 2* ∑ k1k3* ∑ k1k 4* ..... ∑k k *
1 m ⎥
⎢ i =1 i =1
N
i =1
N
i =1
N
i =1
N ⎥
⎢ 2 * * * ⎥
⎢ ∑k
i =1
2 ∑k k ∑k k
i =1
2 3
i =1
2 4 ..... ∑i =1
k2km
⎥
⎢ N
2
N N ⎥
* *
M FP
⎢
=⎢ ∑k 3 ∑k k 3 4 ..... ∑ k 3 m ⎥
k
⎥
i =1 i =1 i =1 (3.2)
⎢ ..... ..... ..... ⎥
⎢ N
2
N
*
⎥
⎢ symetrique ∑k m −1 ∑ k k
m −1 m ⎥
⎢ i =1 i =1 ⎥
N
⎢ 2 ⎥
⎢
⎣
∑i =1
km ⎥
⎦
La matrice de covariance joue un rôle très important dans le traitement des images RSO
interférométrique parce qu’à partir d’elle on calcule le coefficient de corrélation et donc on peut
voir si les images traitées sont cohérentes ou non.
Le coefficient de corrélation ou degré de cohérence est défini comme le rapport entre les
éléments de la matrice de covariance et le produit de leurs leurs écarts-types :
N
*
∑k k
i , j =1
i j
ρi , j = N N
(3.3)
2 2
∑ki =1
i *∑ kj
j =1
c = abs{C} (3.4)
Φ = arg{C} (3.5)
NESECRET
Page 37 of 60
− les images disposent d’un bon rapport signal/bruit
− les centres de phases des diffuseurs sont stables
− tous les déplacements sont « organisés » spatialement
Si on exclure le bruit aléatoire, la cohérence est déterminée par le changement de
propriétés de diffusion de la cible dans le temps. Par exemple, une cohérence très basse indique
habituellement l’eau en temps qu’une cohérence élevée indique les villes ou les autres éléments
stables.
En temps que l’amplitude du rayonnement reçu dépend sur la structure électromagnétique
de la cible, la cohérence est liée plus à la stabilité mécanique de la cible.
Fig.3.2 Cohérence
NESECRET
Page 38 of 60
passage au suivant), l’interférogramme est insensible au relief et donne directement le
déplacement, ou plus exactement la projection de ce dernier sur l’axe de visée. Si la base
perpendiculaire augmente, alors la contribution du relief augmente aussi et devient plus difficile à
éliminer. Une base aussi étroite que possible favorise l’application de l’interférométrie
différentielle pour la mesure de déplacements. Dans ce cas on obtient des franges beaucoup plus
resserrées sur le site en mouvement que sur le reste de a scène, et donc il est plus facile de séparer
les deux systèmes de franges. Les performances de l’interférométrie différentielle sont
difficilement prédictibles avant l’acquisition des données, et pour ce motif, avant d’exploiter les
couples d’images il faut analyser les orbites afin de voir si le principe géométrique de
l’interférométrie par radar est respecté.[11]
b) La base temporelle. L’intervalle de temps entre les deux acquisitions a une double
influence en interférométrie différentielle : la cohérence et l’adéquation aux caractéristiques
dynamiques du phénomène. Pour les bases temporelles longues, quelle que soit la vitesse de
déformation du terrain, en général la cohérence sera faible.
c) La géométrie d’acquisition qui peut être définie par deux paramétrés indépendants :
l’angle d’incidence (par rapport au nadir) et la direction azimutale d’éclairement (déterminée par
l’orbite) qui déterminent en fait la direction de visée.
La direction de visée a un rôle très important en interférométrie différentielle parce que la
géométrie de l’image radar dépend d’elle et les mouvements du terrain sont projetés en direction
de visée. La reconstruction d’un déplacement absolu nécessite une connaissance experte du
phénomène (par exemple la direction de la déformation) ou bien plusieurs interférogrammes. Le
choix de la géométrie d’acquisition (ascendant ou descendent ?quel faisceau ?etc.) doit se faire
très attentif, en tenant compte de l’application pour laquelle les images seront traitées.
NESECRET
Page 39 of 60
propriétés géométrique et électromagnétiques varient sous l’effet des actions de l’homme et des
variations naturelles de température et d’humidité).
a) L’atmosphère traversée par le rayonnement émis par le radar peut être très
changeante d’une acquisition à l’autre. Les variations spatiales de l’indice de réfraction
atmosphérique est importante à l’échelle d’une scène mais négligeables à l’échelle de la cellule
de résolution. [11] Beaucoup des études ont démontré que si les deux acquisitions sont prises
dans des conditions atmosphériques différentes il apparaît une variation du trajet de l’onde radar
qui se traduit par des franges parasites sur les interférogrammes.
Les perturbations atmosphériques sont alors une source d’erreur systématique pour
l’estimation des déplacements de terrain car ils rajoutent un déphasage non relié au mouvement.
Pour éliminer cet effet, dans le cas d’interférométrie multi passe, on peut générer et combiner
plusieurs interférogrammes dans lesquels on a au mois un diffuseur qui reste dans la même
position. Ce diffuseur peut être utilise comme référence pour éliminer la contribution de
l’atmosphère.
b) La végétation qui est un milieu très instable, peut produire des effets extrêmement
difficile de caractériser parce qu’ils dépendent d’un grand nombre de facteurs biologiques et
environnementaux. Ces effets peuvent être cohérents (croissance des cultures) ou non cohérents
(agitation de la canopée, dispersion volumique, etc.)
Pour l’étude des déplacements, idéalement, le seul paramètre d’acquisition qui doive
changes entre les deux images est la date d’acquisition. Mais comme on a vu dans le sous-
chapitre 3.3, l’application de l’interférométrie différentielle dépend des plusieurs facteurs. Alors,
afin de mesurer le déplacement qui a eu lieu entre les acquisitions il faudra prendre en compte
NESECRET
Page 40 of 60
les différences entre les deux images, causées par les changements de position et d'orientation du
satellite et les changements du milieu observé qui ne sont pas liés purement au déplacement de la
surface.
Si l’on se place dans l’hypothèse de l’immobilité du terrain il signifie que les différences
de phases résultantes sont fonction seulement de l’altitude. Or, si le terrain est animé d’un
déplacement même infime (une fraction de longueur d’onde), le déphasage ∂ φ mesuré est modifié
d’une quantité qui dépend de l’amplitude et de la direction du mouvement (l’équation (2.6)).
Dans le cas général, l’effet du déplacement se superpose à l’effet du relief. Alors, après
élimination des franges orbitales, on obtient deux systèmes des franges qui se superposent, l’un
lié au relief et l’autre lié aux déformations de la surface. Si pour l’instant les déphasages parasites
d’origines diverses qui s’ajoutent à ces deux termes sont négligés, le calcul du déplacement
suppose donc que l’on puisse isoler son effet, en retranchant celui du relief.
Pour éliminer les franges topographiques afin d’obtenir le déplacement, nous avons
besoin d’un modèle numérique de terrain ou d’une autre interférogramme où l’on suppose que les
autres composantes (déplacement, atmosphère) sont négligeables.
La précision requise pour le MNT utilisée dans cette étape est fonction de la base du
couple et du phénomène étudié. Plus la base est grande, plus le MNT devra être précis. Il est très
important de préciser que le modèle numérique de terrain fournit en chaque pixel une altitude
moyenne qui ne correspond pas forcément à celle à laquelle le radar est sensible. Quand la base
interférométrique est très grande, l’utilisation d’un MNT pour la suppression de la topographie
n’est pas indiquée.
L’utilisation d’une autre interférogramme pour éliminer la composante topographique
peut sembler plus naturelle que la première méthode, mais elle présente plusieurs inconvénients.
Premièrement, cette méthode ne peut pas être utilisée que dans le cas où l’on dispose au moins
des trois images, et l’interférogramme de référence doit répondre aux contraintes sévères posées
par l’hypothèse que les autres composantes sont négligeables. En pratique cette hypothèse n’est
jamais vraiment vérifiée dans le cas d’interférométrie multi-passe. [11]
NESECRET
Page 41 of 60
Fig.3.3 Interférométrie différentielle
Même si l’on obtient des acquisitions avec une géométrie de prise de vue idéale, on
n’échappe pas à une contrainte géométrique majeure: le déphasage des échos radar n’est sensible
qu’à la projection du déplacement sur l’axe de visée (Line of Sight en anglais). Tout mouvement
dans un plan perpendiculaire à l’axe de visée, qui n’affecte pas la distance mesurée, est donc
indétectable par interférométrie. [11]
NESECRET
Page 42 of 60
Figure 3.4 Projection du déplacement sur l’axe de visée
Pour obtenir les trois composantes du vecteur déplacement à partir de la seule projection
sur la direction de visée on a vu qu’il est nécessaire d’avoir une information supplémentaire sur
les caractéristiques du mouvement, notamment sa direction (par exemple vertical, ou horizontal,
ou encore perpendiculaire à la pente du terrain).
Le déplacement obtenu est donné de façon relative. Les valeurs absolues peuvent être
calculées à partir de la connaissance du déplacement réel d’un ou plusieurs points de référence.
La relation entre la phase interférométrique et le déplacement en LOS est donnée par :
NESECRET
Page 43 of 60
4π
dϕ = d LOS (3.7)
λ
où Φorb est la composante liée au variations de l’orbite, Φtopo est la phase topographique, Φdepl
est la phase du déplacement entre les deux acquisitions (en ligne de visée), Φatm est la phase due à
l'atmosphère, et en dernier lieu Φbruit est la phase des bruits générés par l’instrumentation. Parmi
ces différentes informations, ce que certaines considèrent comme signal peut représenter des
perturbations pour d’autres. Tout dépend de l’objectif de l’étude. Pour notre étude, la déformation
est le signal et les autres composantes sont les perturbations.
NESECRET
Page 44 of 60
− l’observation de l’évolution temporelle d’un phénomène est limitée par les dates
d’acquisitions des images RSO disponible, parce que l’on a accès seulement aux
déplacements finis entre les deux dates
− l'extension d'un phénomène observable est limitée par la taille de la cellule de résolution
de l'interférogramme, qui est celle des images SAR. Cette taille varie fortement selon la
pente du terrain, suivant la direction des distances. L'extension maximale est limitée
à la zone couverte par le couple d'images SAR utilisé, elle peut être étendue en
concaténant plusieurs scènes.
− selon le relief, la mesure n'est pas accessible en tout point de la zone observée à cause des
zones d'ombre, ou bien elle est difficilement interprétable, à cause de l'ambiguïté des zones
de renversement.
− l'opération de déroulement, nécessaire lorsque des sauts de phase sont présents dans
l'interférogramme, n'est pas possible lorsque le gradient de la phase interférométrique est
trop fort : la variation de la phase doit être inférieure à π entre deux pixels voisins quelle
qu'en soit la cause.
Dans le cas le plus général, la déformation n'est pas régulière dans le temps alors comme
on a précisé, il n'est pas possible d'obtenir des informations que sur les déplacements cumulés
ayant eu lieu entre les différentes dates d'acquisition successives. Cependant, on peut étudier
l'évolution de ces déplacements cumulés au cours du temps si l’on possède N images RSO
d'une même zone. En combinant ces N image, on peut former N × (N-1)/2 couples
d'interférogrammes. Il est connu le fait que si l'intervalle de temps augmente, la décorrélation
temporelle est plus forte. Pour améliorer l'information fournie par ces interférogrammes très
bruités, on peut reconstituer un interférogramme équivalent mais de meilleure qualité. Par
exemple, on peut prendre 3 images A, B, C et faire les trois couples possibles (AB, BC, AC). On
peut supposer que la somme des premiers deux interférogrammes donne un interférogramme
équivalent à la troisième (AB+BC=AC). Si l’on prendre en considération seulement les erreurs
topographiques, orbitales et atmosphériques cette supposition est bonne, mais en réalité on a
encore les erreurs de décorrélation temporelle ou spatiale. En analysant cette différence qui
apparaît entre les couples interférométrique, on peut trouver des informations liés au modèle de
déformation en temps.
°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°
NESECRET
Page 45 of 60
Chapitre 4
Dans la société actuelle, les barrages et les digues devient d'une importance vitale pour
la régulation des ressources d’eau indispensable pour satisfaire des besoins différents, des plus
élémentaires comme l'alimentation de la population à ceux qui ont un contenu économique,
comme l'irrigation, l’usage industriel ou ceux qui ont des fins de loisir.
La présente étude a comme objectif de mettre en place une méthodologie générale pour
l’estimation des déplacements verticaux et/ou horizontaux sur des cibles artificiels (coin
réflecteur) par télédétection radar RSO satellitaire en bande X. Bien que des chaînes de
traitement standard soient utilisées pour certaines applications civiles et militaires, les
particularités liées à la surveillance des barrages et digues constituent un challenge pour
l’imagerie RSO interférométrique.
NESECRET
Page 46 of 60
Après avoir passé en revue les principes et les limites de la mesure des déplacements du
sol par l'interférométrie radar différentielle, le potentiel de cette technique est évalué sur une zone
test, à partir des images RSO acquises par le satellite allemand TerraSAR X.
NESECRET
Page 47 of 60
Le coin réflecteur mobile est posé sur une table xyz millimétrique et il a été déplace avant
de chaque passage du satellite TerraSAR X. Les coins réflecteurs (fixe et mobile) installés sont
orientés pour des visées ascendantes du satellite.
Le Tableau 2 résume les dates et les déplacements effectués sur le coin réflecteur mobile.
NESECRET
Page 48 of 60
Figure 4.1 La distribution de points détectés sur dans la zone test. Les deux coins réflecteurs se
trouvent dans l’intérieur du rectangle rouge
On peut observer que les 15 points détectés n’ont pas une distribution uniforme et donc la
distance géodésique calculé entre un point pris comme référence et les autres varie beaucoup. En
tenant compte que l’interférométrie différentielle offre des mesures relatives, dans les sous-
chapitres suivants on va voir dans quelle mesure cette distance géodésique influe la précision des
résultats.
Dans l’algorithme développé, il a été mis en place une fonction qui permet de sélectionner
le point de référence en cliquant directement sur le masque détecté. Après la sélection de la
référence, les points sont ordonnés (en ordre croissant) dans une matrice, en fonction de distance
géodésique.
A partir de ces 4 images RSO, six interférogrammes ont été réalise, en combinant toutes
les images deux par deux. Par souci de simplicité, dans la suite nous nous référons à ceux
6 interférogrammes en utilisant les notations suivantes : 0508-1608, 0508-2708, 1608-2708,
0508-1021, 1608-1021, 2708-1021, où chaque groupe de chiffres représente la date d’acquisition
des images. Les bases temporelles de ces interférogrammes sont présentées dans la figure 4.2.
NESECRET
Page 49 of 60
Figure 4.2 Base temporelle
Dans la littérature de spécialité, il pourrait être constaté que l'aspect visuel des franges est
largement utilisé pour indiquer la qualité de l'interférogramme. C'est-à-dire que si les franges
peuvent être observées plus clairement, la qualité de l'interférogramme doit être bonne. Au
contraire, les interférogrammes qui contiennent des franges floues sont difficiles d’exploiter.
L'inspection visuelle de l’interférogrammes peut être considérée comme une sorte d'interprétation
manuelle.
La figure 4.3 montre les phases interférométriques pour tous les interférogrammes
générés. Analysant cette figure, on voit que les franges sont plus claires dans les couples 0508-
1608, 0508-2708 et 1608-2708 où la base temporelle est de 11 jours que dans les couples 0805-
1021 ou 1608-2110 qui ont une base temporelle de 77 respectifs 66 jours. Il est évident que les
premières 3 interférogrammes ont une meilleurs qualité et alors il est souhaitable de les utiliser
dans notre traitement pour obtenir des résultats plus précises.
NESECRET
Page 50 of 60
Fig. 4.3 Phase interférométrique
NESECRET
Page 51 of 60
Figure 4.4 Images de la cohérence pour tous les 6 interférogrammes construites
Une observation importante est que la cohérence devient plus faible à mesure que la base
temporelle augmente. Une cohérence élevée peut être observée dans l‘interférogramme 0508-
1608, qui a une base temporelle de 11 jours, tandis que le couple 2708-2110, formé par les
images acquises à une différence de 55 jours présente une forte décorrélation temporelle.
En analysant les figures 4.3 et 4.4 ensemble, nous pouvons observer qu’il existe une forte
liaison entre la cohérence et la phase d’un interférogramme. Si l’on prend par exemple le cas
d’interférogramme 1608-2708 on voit que pour une corrélation faible entre deux images, les
franges interférométriques sont totalement floues. La liaison entre la cohérence et la phase peut
être déduite aussi à partir de leurs formules.
NESECRET
Page 52 of 60
La longueur de l’onde a une valeur de λ =3,1 cm et elle a été obtenue avec la formule
(4.2) :
vc
λ= , (4.2)
f0
où vc est la vitesse de la lumière et f 0 est la fréquence du satellite TerraSAR X, f 0 =9,65 GHz.
Ayant les coordonnées du satellite et les coordonnées du chaque cible, les différences du
chemin ont été facilement obtenues, en appliquant la formule connue pour le calcul
de distance dans l'espace. On doit préciser que les coordonnées satellitaires
C=⎢ ⎥ (4.2)
⎢ symetrique 1 ρ 34 * e − jΔϕ 34 ⎥
⎢ ⎥
⎢⎣ 1 ⎥⎦
⎡ arg{C12 }⎤
⎢ arg{C }⎥
⎢ 13 ⎥
⎢ arg{C14 }⎥
Δϕ = ⎢ ⎥
⎢arg{C 23 }⎥
⎢arg{C 24 }⎥
⎢ ⎥
⎢⎣arg{C 34 }⎥⎦
(4.3)
Les phases obtenues sont repliées et pour transformer l’image de phase repliée en un
champ de déplacement on doit développer la phase 2D. Cette étape est difficile à automatiser, en
particulier dans le contexte des montagnes en raison de nombreuses zones inexploitables. La
question du développement de phase est rarement abordée dans les publications qui présentent
des mesures DInSAR de déplacements. Lorsque les auteurs ne passent pas cette étape sous
silence, ils soulignent généralement la difficulté d’un traitement automatique ou décrivent une
procédure proche d’un traitement manuel.
Pour éviter l’application d’une méthode de déroulement de phase, on a choisir de faire
une seconde différence, cette fois entre les pixels de l’image. Pratiquement, en chaque
interférogramme, pour ne pas appliquer une méthode de déroulement de la phase on a construit
NESECRET
Page 53 of 60
un autre « interférogramme » cette fois pas enter les images, mais entre les pixels. En chaque
point d’intérêt on fait le produit suivant :
ii i i −1
e − jΔϕ1 = e − jΔϕ1 * e jΔϕ1
, (4.4)
i
où Δϕ est la différence de phase interférométrique pour le point i, dans le cas du premier
1
interférogramme.
On doit spécifier que tous les résultats qui sont présentés ici ont été calculés pour le cas
dans lequel le coin réflecteur fixe a été considéré comme référence. La figure 4.4 mettre en
évidence le fait que toutes les mesures qui suivent seront relatives au premier point (son
déplacement en LOS est considéré nul).
Pour obtenir le déplacement sur les 3 axes du système de coordonnée, on a projeté les
résultats sur la direction des vecteurs maîtres.
NESECRET
Page 54 of 60
Les notations Δϕ i j représentent les valeurs de la phase calculées avec la relation (4.1).
i = 1..6 est le indice de l’interférogramme.
Propagation spatiale
NESECRET
Page 55 of 60
En conclusion, l’interférométrie différentielle permet d’obtenir des déplacements relatifs
qui pourront être calibrés à partir de la connaissance du déplacement réel d’un ou plusieurs points
de référence.
2 Bibliographie
[1] G. Vasile, “Interferometric and polarimetric SAR image processing. Application to Alpine
glacier monitoring”, Ph.D. Thesis, Université de Savoie, France, 2007
[9 ]D. MASSONNET and K. FEIGL, 1998, Radar interferometry and its application to changes
in the Earth’s surface. Rev. Geophys., 36(4), 441–500.
[10]= GHERA
NESECRET
Page 57 of 60
[12] InSAR Guide
[14] Xiaobing Zhou, Ni-Bin Chang, Shusun Li, ‘Applications of SAR Interferometry in Earth and
Environmental Science Research’, ISSN 1424-8220
[15] Noha HOLAH ‘Potentiel des nouveaux capteurs radar multi-polarisation et polarimétrique
pour la caractérisation des états de surface en milieu agricole’, PhD, L’UNIVERSITE
D’ORLEANS 2005
[17] G. Vasile, J.-P. Ovarlez, F. Pascal, C. Tison, L. Bombrun, M. Gay, E. Trouvé, “Normalized
coherency matrix estimation under the SIRV model. Alpine glacier POLSAR data analysis”,
IEEE International Geoscience and Remote Sensing Symposium, special session on Advanced
Methods for Polarimetric Information Extraction, Boston, USA, July 2008, Vol. 1, pp. I74-I77
[19] N. Besic, G. Vasile, J.-P. Dedieu, J. Chanussot, S. Stankovic, “Stochastic Approach in Wet
Snow Detection using Multitemporal SAR Data”, IEEE Geoscience and Remote Sensing Letters,
Vol. 12, No. 2, 2015, pp. 244-248
[20] N. Besic, G. Vasile, J. Chanussot, S. Stankovic, J.-P. Dedieu, G. d'Urso, Boldo D., J.P.
Ovarlez, “Dry Snow Backscattering Sensitivity on Density Change for SWE Estimation”, IEEE
International Geoscience and Remote Sensing Symposium, Munchen, Germany, pp. 4418-4421,
2012
[23] L. Pralon, G. Vasile, M. Dalla Mura, J. Chanussot, N. Besic, “Evaluation of ICA Based
ICTD for PolSAR Data Analysis Using a Sliding Window Approach: Convergence Rate,
Gaussian Sources and Spatial Correlation”, IEEE Transactions on Geoscience and Remote
Sensing, Vol. 54, No. 7, 2016, pp. 4262-4271
NESECRET
Page 58 of 60
[24] L. Pralon, G. Vasile, M. Dalla Mura, A. Anghel, J. Chanussot, “Spherical Symmetry of
Complex Stochastic Models in Multivariate High-Resolution PolSAR Images”, IEEE
Transactions on Geoscience and Remote Sensing, Vol. 54, No. 7, 2016, pp. 4250-4261
[29] G. Vasile, F. Pascal, J.-P. Ovarlez, P. Formont, M. Gay, “Optimal Parameter Estimation in
Heterogeneous Clutter for High Resolution Polarimetric SAR Data”, IEEE Geoscience and
Remote Sensing Letters, Vol. 8, No. 6, 2011, pp. 1046-1050
[30] A. Julea, G. Vasile, I. Petillot, E. Trouvé, M. Gay, J.M. Nicolas, P. Bolon, “Simulation of
SAR Images and Radar Coding of Georeferenced Information for Temperate Glacier
Monitoring”, International Conference on Optimization of Electrical and Electronic Equipment,
vol. IV, Brasov, Romania, pp. 175-180, May 2006
[31] G. Vasile, E. Trouvé, I. Petillot, P. Bolon, J.-M. Nicolas, M. Gay, J. Chanussot, T. Landes,
P. Grussenmeyer, V. Buzuloiu, I. Hajnsek, C. Andres, M. Keller, R. Horn, “High resolution SAR
interferometry: estimation of local frequencies in the context of Alpine glaciers”, IEEE
Transactions on Geoscience and Remote Sensing, Vol. 46, No. 4, 2008, pp. 1079-1090
[33] J.M. Nicolas, G. Vasile, M. Gay, F. Tupin, E. Trouvé, “SAR processing in the temporal
domain: application to direct interferogram generation and mountain glacier monitoring”,
Canadian Journal of Remote Sensing, special issue of the ASAR workshop, Vol. 33, No. 1, 2007,
pp. 52-59
NESECRET
Page 59 of 60