Vous êtes sur la page 1sur 12

Télédétection et images numériques -1-

Laboratoire de systèmes d'information géographique (LaSIG)

Télédétection et images
numériques

Notes de cours
rassemblées par R. Caloz et F. Golay

version provisoire du 8.6.07


Télédétection et images numériques -2-

Les principes de la télédétection (TD)


En référence à l'étymologie du terme, la télédétection (angl.: remote sensing - RS) se
traduirait, de manière générale, par "observation à distance". Elle recouvre, dans ce sens,
tous les moyens qui permettent d'acquérir des informations sur un objet sans contact matériel
direct avec lui. Un bruit, une odeur, peuvent être suffisamment caractéristiques pour identifier
la nature de la source et pour fournir quelques informations sur son état. Cependant,
aujourd'hui, le terme télédétection se réfère à l'observation à distance basée sur le
rayonnement électromagnétique. C'est de cette dernière uniquement qu'il est question
dans ces notes, et plus particulièrement de l'observation de la terre (Earth Observation)
depuis une plate-forme satellitaire ou aéroportée.

Dans ce cadre, la Télédétection se définit comme

la technique d'observation à distance par la mesure et le


traitement du rayonnement électromagnétique émis ou réfléchi
par l'objet étudié dans le but d'en tirer des informations
concernant sa nature, ses propriétés et son état.

Par le nombre de paramètres et de phénomènes qui interagissent, la télédétection forme un


système duquel il convient, pour clarifier les idées, de dégager quatre éléments ou "acteurs"
principaux.

• le rayonnement électromagnétique: c'est le vecteur de l'information relative à


l'objet étudié ou pour utiliser une terminologie plus imagée: le messager
• l'objet étudié appelé également cible ou scène. Il réfléchit le rayonnement
électromagnétique et émet son propre rayonnement en "greffant" sur lui des
informations le concernant.
• L'observateur. Il représente à la fois les instruments de mesures du rayonnement,
les systèmes d'acquisitions et de traitement des données et l'homme qui, en bout de
chaîne, interprète les informations recueillies et décide de leur usage.
• Le milieu perturbateur: l'atmosphère, l'environnement qui absorbent, diffusent,
réfléchissent partiellement le rayonnement électromagnétique et introduisent ainsi
des parasites. Ils diminuent d'autant la capacité de détecter sur le rayonnement qui
parvient au capteur les informations provenant uniquement de la scène.

Principe de la télédétection spatiale

Luminance
Télédétection et images numériques -3-

L'unité de mesure de la puissance émise dans une direction par une unité de surface de sol
est dénommée luminance. Ses dimensions sont des Watts par m2, par seconde et par unité
-2 -1 -1
d'angle solide, soit [W.m .s .sr ]

Les effets atmosphériques


Le satellite se trouvant hors de l'atmosphère terrestre, le rayonnement qui lui parvient subit
des perturbations au cours du trajet. Il est diffusé et absorbé dans une proportion qui dépend
des conditions atmosphériques et de la longueur d'onde, par exemple le bleu est davantage
diffusé que le vert ou le rouge de sorte que le ciel (sans nuage!) se colore en bleu.
Ces différentes interactions limitent les plages de longueurs d'onde exploitables en
télédétection. Elles sont, en définitive, au nombre de trois : les hyperfréquences (ondes
centimétriques exploitées par les radars), l'infrarouge thermique, le visible et proche
infrarouge.

Les résolutions
Un radiomètre qui produit des images de la surface terrestre est caractérisé par trois, voire
quatre résolutions :
Résolution radiométrique
La résolution radiométrique est définie comme le seuil de sensibilité du radiomètre, c.-à-d. la
plus faible intensité que le capteur est capable de détecter dans chaque bande spectrale. En
photographie, il s'agit de la sensibilité de la pellicule.
Résolution spatiale
La résolution spatiale est communément appelée pixel,
contraction de picture element. Elle correspond au côté
exprimé en m d'un élément de sol admis de forme carrée.
Exemples :

SPOT panchromatique, Lansat TM,


résolution spatiale 10 m résolution spatiale 30 m

Résolution spectrale
La résolution spectrale se réfère à la plus petite largeur
de bande que le radiomètre est capable de mesurer. La
résolution spectrale des radiomètres destinés aux
satellites d’observation des ressources terrestres est de
l’ordre de 0.1. Notre système visuel perçoit les
longueurs comprises entre 0.4 et 0.7 m, de sorte que
la bande comprise entre 0.4 et 0.5 m correspond au
bleu.
Télédétection et images numériques -4-

Résolution temporelle
Certains auteurs définissent encore la résolution temporelle d’un satellite, qui traduit le temps
que prend un satellite pour effectuer un cycle orbital complet (intervalle entre 2 passages au
nadir d’un point de la surface terrestre). Cette période est généralement de quelques jours. Il
faut donc quelques jours à un tel satellite pour qu'il puisse observer de nouveau exactement
la même scène à partir du même point dans l'espace. La résolution temporelle absolue du
système de télédétection est donc égale à cette période.
Exemples : 16 jours pour Landsat TM, 3 jours pour SPOT.
Certains satellites ont aussi la possibilité de pointer leurs capteurs en direction du même
point pour différents passages du satellite. La résolution temporelle effective du satellite
dépend donc d'une variété de facteurs dont la grandeur de la zone de chevauchement entre
les couloirs-couverts adjacents, la capacité du satellite et de ses capteurs et également la
latitude.

Télédétection active et passive


La télédétection exploite deux catégories de radiomètre. les premiers, dénommés passifs
mesurent, tels les appareils de photos, l'énergie réfléchie ou émise par la surface du sol, les
deuxièmes dits actifs, représentés principalement par les radars, "éclairent" le sol et
mesurent le signal qui est réfléchi dans leur direction

capteur capteur capteur


Emetteur

Rayonnement réfléchi Rayonnement émis

TD active Schéma de principe TD passive.

La réflectance ou pouvoir réfléchissant de la surface terrestre


La végétation, les sols et l'eau sont perçus par nos yeux ou par un radiomètre selon leur
pouvoir réfléchissant en fonction de la longueur d'onde. La figure ci-dessous représente ce
que l'on appelle les propriétés spectrales de la végétation, des sols et de l'eau

70
Absorption par vapeur d’eau
60
Réfl ectance (%)

sable sec
50
végétation verte
40

30
eau sable 8 - 10 % d’humidité p.

20

10

0
0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6
Longueur d’onde ( m)
B V R
Visible (VIS) Proche infrarouge (PIR) Infrarouge moyen (MIR)
Télédétection et images numériques -5-

Les orbites des satellites

Caractéristiques orbitales
De la mission d'un satellite d'observation de la Terre découle ses caractéristiques orbitales.
Pour comprendre les tableaux récapitulatifs présentés plus loin, voici brièvement résumés les
paramètres qui caractérisent une orbite.

i : inclinaison : angle formé par le plan orbital et le plan équatorial


o : orbite . Elle peut être elliptique ou circulaire. Périgée : l'altitude la plus basse (petit axe de
l'ellipse) ; apogée : l'altitude la plus élevée ( grand axe).
L’ensemble des paramètres décrivant la position en orbite du satellite définissent son
attitude
Période de révolution : Durée d'une révolution : de l'ordre d'une centaine de minutes pour
les satellites à défilement. A ne pas confondre avec la périodicité d'une prise de vue relative à
une même région au sol. Le satellite opère également une rotation sur lui-même à chaque
révolution pour présenter toujours la même face en direction de la Terre.
Satellites géostationnaires.
L'orbite est dans le plan équatorial (i=o). L'altitude est telle que le satellite accomplit une
révolution équivalente au jour sidéral de la Terre de manière à paraître immobile à un
observateur situé sur la Terre. L'altitude est d'environ 36'000 Km au-dessus du sol.
Satellites à défilement
Tout satellite ayant une orbite d'inclinaison supérieure à 0° et inférieur à 90°. L'orbite est
inclinée de manière que le satellite couvre périodiquement la frange de la Terre comprise
entre les latitudes maximales nord et sud (environ 60°).
Satellites à défilement polaires
Leur orbite est caractérisée par une inclinaison proche de 90o qui est dite en conséquence
polaire. En général, les satellites d'observation de la terre décrivent des orbites
héliosynchrones c'est-à-dire qu'ils survolent une même région du globe à la même heure. De
cette manière, les conditions d'éclairement varient peu au cours de l'année et ne créent pas
un handicap pour l'interprétation des images.
Télédétection et images numériques -6-

Les catégories d'image produites par les satellites


Les radiomètres imageurs embarqués sur satellite
construisent l'image ligne par ligne comme un texte sur
une page. On appelle fauchée, la largeur de la bande
au sol représentée sur l'image. Pour le radiomètre
Thematic Mapper du satellite Landsat, la fauchée est
de 180 km, elle n'est que de 11 km pour Quickbird.

Par ordre croissant en résolution :

Météosat
Résolution à l’équateur :
1 Km pour le visible, 3 pour
les autres bandes
Fréquence des images :
chaque 15’
Bandes spectrales : 12 dont
4 dans l’IRT

NOAA
Résolution : 1 km
Fréquences : chaque jour
Fauchée : 3600 km
5 bandes spectrales

Landsat
Résolution : 30 m
Fréquence : 16 jours
Fauchée 180 km
7 bandes spectrales
T
Télédétection et images numériques -7-

ASTER
Résolution : 15 m
Fréquence 18 jours
Fauchée 60 km
3 bandes (V, R, PIR) et 2
bandes dans l'IR

IKONOS
Résolution 1m en N/B, 4 m
en multispectral
Fauchée : 11 km
4 bandes (B, V, R, PIR)

ERS + _ Radar
Résolution : 25 m
Télédétection et images numériques -8-

L'image numérique
L'image numérique est l'équivalent de l'image analogique où chaque point image qui devient
le pixel est remplacé par la valeur de luminance.
Chaque image est ainsi composée d’une matrice (raster) de cellules (pixels), auxquelles une
valeur numérique est associée.
Exemple de Landsat TM, bande 2 :

On peut aussi donner une définition plus scientifique de l’image :


“Projection plane d’une scène tridimensionnelle sur un support physique capable de
restituer les valeurs de luminance en chacun de ses points” (Pun, 1982)
L'information contenue est donc
1. le ton (valeur comprise entre 0 et 2255 pour une image codée en 8 bits)
2. la bande ou valeur spectrale
Si l'on l'on prend simultanément une image dans chaque bande spectrale, l'image est dite
multibande. Ci-dessous les 7 bandes du Thematic mapper de Landsat 5.

Notons que les bandes spectrales en soi n'ont pas de couleur. La couleur correspond à notre
système visuel. Les bandes spectrales sont transformée en couleur par l'intermédiaire d'un
tableau de correspondance : à chaque compte numérique, on associe une intensité et une
couleur à l'imprimante ou à l'écran!
Télédétection et images numériques -9-

Les images raster multi-bandes sont ainsi souvent présentées comme des images en
couleurs (composées de rouge, vert et bleu). Cette configuration des bandes peut ainsi
profiter des caractéristiques des écrans numériques, qui appliquent un modèle de rendu de
trois signaux rouge / vert / bleu :
 une bande est assignée à la couleur bleue
 une bande est assignée à la couleur verte
 une bande est assignée à la couleur rouge
Trois bandes constituent ainsi une image en couleurs composées :

Image rouge / vert / bleu des bandes Landsat TM respectives 4, 3 et2 :


Télédétection et images numériques - 10 -

Fichier numérique par bande et image


L’image numérique est donc une matrice rectangulaire où chaque élément représente la
luminance d’une portion élémentaire du sol (le pixel). Elle est constituée de deux éléments :
l’en-tête et la matrice numérique

L'image numérique s'exprime, généralement, par des valeurs comprises entre 0 et 255
(codage 8 bits)

Traitement des images issues de la télédétection


Les données acquises par télédétection sont affectées par les conditions atmosphériques, la
topographie de la surface, la distance focale du système optique et la géométrie du capteur.
Ces erreurs doivent être corrigées. La nature, les caractéristiques et les phénomènes propres
à la surface terrestre peuvent ensuite être mesurés, interprétés et cartographiés par des
processus d’inteprétation manuels ou par des processus de transformation numériques
assistés par l’ordinateur. L’ensemble de ces processus de correction et de traitement peuvent
être classés en 4 catégories :
 Prétraitement
 Rehaussement de l'image
 Transformation de l'image
 Classification et analyse de l'image

On appelle fonctions de prétraitement les opérations qui sont normalement requises avant
l'analyse principale et l'extraction de l'information. Les opérations de prétraitement se divisent
en corrections géométriques et en corrections radiométriques :
 Les corrections géométriques comprennent la correction pour les distorsions
géométriques dues aux variations de la géométrie Terre-capteur, et la transformation
des données en vraies coordonnées (par exemple en latitude et longitude) sur la
surface de la Terre. La transformation la plus aboutie est l'orthoimage, c'est-à-dire la
transformation qui fait coïncider chaque élément de l'image à la carte topographique
correspondante.
 Les corrections radiométriques comprennent entre autres, la correction des
données à cause des irrégularités du capteur, des bruits dus au capteur ou à
l'atmosphère, et de la conversion des données afin qu'elles puissent représenter
précisément le rayonnement réfléchi ou émis mesuré par le capteur. Les capteurs du
radiomètre voient souvent une modification de leur sensibilité au cours du temps. Ce
défaut produit souvent un défaut appelé lignage. Une correction radiométrique
consiste par exemple à réduire cet effet indésirable (délignage) :
Télédétection et images numériques - 11 -

Les fonctions de rehaussement ont pour but d'améliorer l'apparence de l'imagerie pour aider
l'interprétation et l'analyse visuelles. Les fonctions de rehaussement permettent l'étirement
des contrastes pour augmenter la distinction des tons entre les différents éléments d'une
scène, et le filtrage spatial pour rehausser (ou éliminer) les patrons spatiaux spécifiques sur
une image.

L'exemple ci-dessous est dénommé anamorphose d'histogramme par une fonction linéaire :

Les transformations d'images sont des opérations similaires à celles de rehaussement de


l'image. Cependant, alors que le rehaussement de l'image qui est normalement appliqué à
une seule bande de données à la fois, la transformation de l'image combine le traitement des
données de plusieurs bandes spectrales. Des opérations arithmétiques (c'est-à-dire addition,
soustraction, multiplication, division) sont faites pour combiner et transformer les bandes
originales en de "nouvelles" images qui montrent plus clairement certains éléments de la
scène.
Ces tranformations ont pour objectif essentiel d’extraire les nombreuses informations qu’une
image peut révéler à un interprète avisé. Il associe, par exemple une masse végétale
(biomasse) en reconnaissant les catégories de végétation recouvrant le sol. On s'est aperçoit
qu'une combinaison de bandes spectrales peut être un bon indicateur d'une propriété
biophysique de la couverture du sol. C'est le cas de l'Indice de végéation de la différence
normalisée (Normalised different vegetation index) connu sous le sigle NDVI
NDVI = (PIR-R)/R+PIR)
Télédétection et images numériques - 12 -

Exemple indice de végétation cqlculé sur une image TM de Landsat

Classification
Les opérations de classification et
d'analyse d'image sont utilisées pour
identifier et classifier numériquement
des pixels sur une image. La
classification est habituellement faite
sur des banques de données
multispectrales (A), et ce procédé
donne à chaque pixel d'une image une
certaine classe ou thème (B) basé sur
les caractéristiques statistiques de la
valeur de l'intensité du pixel. Il existe une variété d'approches prises pour faire une
classification numérique, de type supervisé (confrontation à la vérité-terrain) ou non
supervisé (sur la base du seul calcul numérique).

Vous aimerez peut-être aussi