Vous êtes sur la page 1sur 162

COURS DE TELEDETECTION SPATIALE

ARID Hassan

Cours au profit des étudiants de deuxième année de


l’Ecole Nationale de l’Industrie Minérale

Année 2009-2010
Introduction à la télédétection
-Principes physiques de la télédétection
-Acquisition des données satellites :
-Plates formes et capteurs
-Caractéristiques des images
-Produits images

-Traitement des images satellites


(produits satellites)
-Intégration de la TD et SIG
Principes physiques de la TD
DEFINITION DE LA TELEDETECTION
Télédétection : Remote Sensing
Définition:
« … Ensemble des techniques permettant d ’obtenir de l’information sur un objet,
un territoire, ou un phénomène géographique à travers l’analyse de données
acquises à distance sans contact direct avec cet objet, ce territoire ou ce
phénomène géographique .» (Lillesand et Kiefer, 1994)

La TD est la technique qui, par l ’acquisition d ’images permet d’obtenir de


l’information, sur la surface de la terre sans contact direct avec celle-ci. La
télédétection englobe tout le processus qui consiste à capter et à enregistrer
l’énergie d’un rayonnement électromagnétique émis ou réfléchi, à traiter et
analyser l ’information, pour ensuite mettre en application cette information »
Principales étapes du processus de la télédétection (imageur)
Source d ’énergie Enregistrement de
7 étapes : ou d’illumination l ’énergie par le capteur

1) La source d’énergie ou Applications


d ’illumination ( A) : est à
l’origine du processus
Transmission
(illumination de la source) réception
Rayonnement
et atmosphère et traitement Interprétation
et analyse
2) Rayonnement et
atmosphère ( B ) : interaction
du rayonnement incident et
réfléchi avec l ’atmosphère

Interaction
avec la cible

3) Interaction avec la cible ( C ) : interaction de l’énergie reçue avec la surface illuminée


Dépend : 1)des caractéristiques du rayonnement 2) des propriétés de la surface

4) Enregistrement de l ’énergie par le capteur ( D ) : l ’énergie diffusée ou émise par la


surface ( cible ) est captée à distance par un capteur ( radiomètre ) pour être enregistrée.
Principales étapes du processus de la télédétection (imageur) (2/2)
Source d ’énergie
Enregistrement de
ou d’illumination
l ’énergie par le capteur

Applications
5) Transmission,
Transmission
réception et traitement réception
( E ) l’énergie captée et et traitement
Interprétation
enregistrée par le capteur est et analyse
Rayonnement
transmise à une station de et atmosphère
réception où l ’information est
transformée en images
(numériques ou
photographiques)
Interaction
avec la cible

6) Traitement, interprétation et analyse ( F ) : interprétation visuelle et / ou numérique de


l ’image traitée pour l ’extraction de l ’information désirée;

7) Applications ( G ) : utilisation de l ’information extraite de l ’image pour comprendre un


phénomène donné, découvrir ses différents aspects et aider à résoudre un problème particulier.
Télédétection Active et Passive
Les flux radiatifs mesurés directement par
la télédétection passive sont :
- Le flux solaire incident direct et diffus en courtes longueurs d ’ondes ( 0,2 à 4 µm )

- Le flux terrestre en grandes L.O. ( 4 - 100 µm ) : ce flux est proportionnel à la température du corps
émetteur.

Le type d ’interaction du rayonnement dépend des caractéristiques du milieu de propagation


(atmosphère, eau, végétation ) et de l’onde (fréquence, polarisation ).

On distingue souvent 3 mécanismes principaux d ’interaction :

l’absorption, la réflexion et la transmission (émission)

un rayonnement de puissance E ( W.m-2) incident sur un milieu est en partie :

- Absorbé : l’énergie absorbée

- Réfléchi ou renvoyé vers l’espace.

- Transmis ou ré émis:
Mécanismes d ’Interactions du Rayonnement
1- LA REFLEXION
C ’est le renvoi dans le milieu incident d’une partie du rayonnement électromagnétique reçu, sans
modification de L.O.
Dans la télédétection passive, c ’est la fraction de l ’énergie solaire incidente réfléchie par le corps.
La réflexion est fonction des effets de l’albédo.
Le rayonnement capté par le satellite ( L = luminance ), est proportionnel au rayonnement incident et au
pouvoir réfléchissant de la cible ( r ).
L = r I, I = éclairement solaire
Elle varie selon 1) la L.O. des radiations solaires; 2) la nature de la surface
La T.D. s’intéresse surtout à la quantité et à la répartition de l’énergie réfléchie par les objets.
Le signal mesuré par le capteur varie d’une classe d’onde à une autre en fonction de la nature des objets.

Ex : - Forte végétation : absorbe beaucoup et réfléchie peu dans le visible ( inversement dans le PIR)
- Les sols nus : réflexion élevée dans le visible et faible dans le PIR.
- La mer : absorbe tout et ne réfléchie pas dans le visible.
- La neige : réflexion totale du rayonnement solaire incident dans le visible ( couleur blanche ).
Mécanismes d ’Interactions du Rayonnement
2. ABSORPTION
La partie non réfléchie du signal électromagnétique reçu est absorbée

Absorption par la surface de la terre

Absorption atmosphérique

Le coefficient d’absorption α E, « chauffe » le milieu et contribue donc


à son émission thermique
En effet, pour un corps en équilibre thermodynamique local (soumis aux seuls
effets radiatifs), le rayonnement absorbé se transforme en chaleur (et donc va être
restitué vers l ’espace sous forme de rayonnement thermique de G. L.O)
(émission).
coef. d ’absorption α = E ( absorbée )/ E ( reçue ) < 1
Mécanismes d ’Interactions du Rayonnement
3. EMISSION
La terre émet un flux radiatif correspondant à sa température.
Émission proportionnelle au pouvoir émissif du corps. Elle est fonction de la L.O. et la de la T°
de l’objet et de son émissivité.
Emissivité : rapport radiatif de l’énergie émise par un corps à celle qui serait émise par un corps noir à la
même température.

* L ’émission se fait à des L.O. # de celles d’absorption (L.O grandes ( IR )).

* Emission est une indication de l’état thermique de l’objet émetteur.


La fonction de Planck permet de déterminer sa température.
2hc 2 λ − 5 c : vitesse de la lumière = 3 x 108 m/s
M=
 hc  k : cte de boltzmann = 1,38x 10-23 J/K
exp  −1 h : cte de Planck = 6,62 x 10-34 J.s
 kλ T 
T T°en °K

N.B. Une partie de ce rayonnement émis est interceptée par l’atmosphère (qui rayonne à son
tour vers l’espace) avant d ’atteindre le capteur (nécessité de corrections atmosphériques )
LE SPECTRE ELECTROMAGNETIQUE ET LES
LONGUEURS D’ONDES UTILISEES EN TELEDETECTION
Le spectre E.M. s ’étale sur une étendue de L.O. des rayons cosmiques de P.L.O. ( Gamma ) : ( 10-10 µm
aux ondes herteziennes de G.L.O de G.L.O. (1010 µm ).
- Plusieurs domaines de ce spectre E.M. sont inutilisables en T.D. (forte absorption et / ou diffusion de
l ’atmosphère : ozone, VE, … )
Les fenêtres où l’absorption atmosphérique du rayonnement incident est totale :
Les rayons Gamma : L.O. < 0.03 nm
Les rayons X : 0.03 à 3 nm
Les rayons UV : 3 à 400 nm
- La T.D ne s’intéresse qu ’à une gamme du spectre E.M :

Du visible aux hyperfréquences


Même dans cette gamme, l’atmosphère absorbe sélectivement de nombreux rayonnements en provenance
de la surface de la terre.
Seules quelques portions de L.O. sont exploitables (zones de moindre absorption ) : « fenêtre
atmosphérique de transmission ».
1. LE SPECTRE
ELECTROMAGNETIQUE

S’étend des courtes longueurs


d’onde ( gamma et X ) aux
grandes longueurs d’onde
(micro-ondes et ondes radio ).
2. L’ULTRAVIOLET

Les plus petites longueurs d ’onde


utilisées pour la télédétection se
situent dans l ’ultraviolet . ( au-
delà du violet de la partie du
spectre visible ).
Certains matériaux de la surface
terrestre, surtout des roches et
minéraux, entrent en fluorescence
ou émettent de la lumière visible
quand ils sont illuminés par un
rayonnement ultraviolet.
1/2
3. LE SPECTRE VISIBLE

 La lumière décelée par nos yeux : «


spectre visible».

 Le spectre visible est une petite partie de


l ’ensemble du spectre.

 Une grande partie du rayonnement


électromagnétique qui nous entoure est
invisible à l ’œil nu.

 Les longueurs d ’onde visibles


s ’étendent de 0,4 à 0,7 µm.

 La couleur qui possède la plus grande


longueur d ’onde est le rouge, alors que le
violet a la plus courte.
3. LE SPECTRE VISIBLE 2/2
 Les couleurs d ’onde du spectre visible
que nous percevons comme des couleurs
communes sont :
Violet : 0.4 - 0.446 µm
Bleu : 0.446 - 0.500 µm
Vert : 0.500 - 0.578 µm
Orange : 0.592 - 0.620 µm
Rouge : 0.620 - 0.7 µm

N.B.
Le bleu, le vert et le rouge = couleurs
primaires (ne peuvent être créées par deux
autres couleurs, mais toutes les autres
couleurs peuvent être créées en combinant les
couleurs primaires )
4. L ’INFRAROUGE

• ~ de 0,7 à 100 mm (~100 fois plus


large que le spectre visible).

 Deux catégories :

1) IR réfléchi (de 0,7 à 3 µm): utilisé


en télédétection de la même façon que le
rayonnement visible

2) IR émis ou thermique (de 3 à 100


µm) est très # du visible et de l ’IR
réfléchi. C ’est un rayonnement qui est
émis sous forme de chaleur par la surface
de la Terre
5. LA REGION DES
HYPERFREQUENCES

 Suscite beaucoup d ’intérêt en


télédétection dans ces derniers temps.
 Comprend les plus grandes λ
utilisées en TD : 1 mm à 1 m.
 Les plus courtes possèdent des
propriétés semblables à celles de
l ’infrarouge thermique.
 Les longueurs d ’onde les plus
grandes ressemblent aux ondes radio.
FENETRES ATMOSPHERIQUES DE TRANSMITTANCE
 Les gaz et les particules, absorbant l’énergie électromagnétique dans des régions spécifiques du
spectre, influencent le choix de L.O. utilisées en télédétection.
 Les régions du spectre non influencées (donc utiles pour la télédétection ) : fenêtres atmosphériques

 Comparer les caractéristiques des deux sources d’énergie les plus communes ( le Soleil et la Terre )
avec les fenêtres atmosphériques disponibles et identifier les λ les plus utiles pour la télédétection.

 Visible : fenêtre au niveau maximal d’énergie solaire.


 Énergie thermique émise par la Terre : fenêtre de 10 µm dans l’infrarouge thermique.
 Hyperfréquences : grande fenêtre pour des λ de plus de 1 mm.
INTERACTIONS RAYONNEMENT - CIBLE
 Le rayonnement non absorbé ou non diffusé dans l’atmosphère peut atteindre et interagir
avec la surface de la terre
 Supposons une cible (surface) soumise à un rayonnement solaire :

-une partie est absorbée ( A ) (et se


transforme en chaleur ).
- une partie est transmise ( T ) :
(l’énergie du rayonnement passe à
travers la cible)
- une partie est réfléchie ( R ) :(la cible
redirige l’énergie du rayonnement)
Énergie incidente : I = A+ R + T
 Interaction avec la surface selon l’une ou
l’autre de ces trois modes ou selon leur
combinaison.
 La proportion de chaque interaction dépendra de λ de l’énergie, ainsi que de la nature et des
conditions de la surface
 En TD, c’est le rayonnement réfléchi par une cible qui est mesuré
LES MESURES DE TELEDETECTION
ET SIGNATURE SPECTRALE DES OBJETS

 Hypothèse de la télédétection : chaque matière possède un spectre


électromagnétique qui lui est propre.
 La télédétection ne mesure que le flux radiatif net (hors atmosphère)

 Ce flux fait appel à trois composantes principales :


- Le rayonnement solaire
- L’émission terrestre
- L’émission atmosphérique
 Chaque corps réagit différemment selon les niveaux de l’illumination pour
chaque longueur d’onde.
Il possède sa propre « identité spectrale » : c’est « la réponse
spectrale » d ’un objet
SIGNATURES SPECTRALES

SIGNATURE SPECTRALE : la façon avec laquelle une surface


« réagit » aux ondes électromagnétiques

Elle varie suivant les caractéristiques physiques et chimiques de la cible

POTENTIEL POUR LA DISCRIMINATION DE DIVERS TYPES DE SURFACES

La Signature spectrale est basée sur la réflectance ( % ) : la proportion de l’énergie refléchie


par une surface pour une longueur d’onde donnée.

Exemple : si le capteur est l’œil humain :


- les nuages réfléchissent toutes les L.O. visibles (apparaissent en blanc)
- la végétation réfléchit plus la lumière verte ( vue en vert )

discrimination de 2 types de surfaces différentes.


SIGNATURES SPECTRALES
Exemples de cibles de la surface de la terre et leur signatures spectrales
1. Les Signatures spectrales
des surfaces naturelles
Roches et sols : réflectance
est affectée par : minéraux,
altération de surface, texture,
structure, contenu en eau

Végétation : réflectance liée à


l’activité photosynthétique
(phénologie de la plante),
morphologie de la plante, forme de
la feuille et contenu en eau

Eau : réflectance faible : la


plupart de la radiation est absorbée
ou transmise. La réfléctance est
affectée de façon non négligeable
par les matériaux en suspension
(vase, algues) et par la profondeur
1. Les Signatures
spectrales des
surfaces naturelles
1. Les Signatures spectrales des surfaces naturelles
Signatures spectrales des roches dans le visible et le PIR

Mise en évidence des sols dégradés


Cultures de
bananes

Cultures endommagées

Différentes cultures

Unités géologiques
SPOT
Acquisition des données satellite
Capteurs et satellites
DETECTION PASSIVE ET ACTIVE Passif
Capteur passif :

 Détection de l’énergie réfléchie lorsque le Soleil


illumine la Terre.
 Détection de l’énergie dégagée naturellement
(l’infrarouge thermique ) peut être perçue le jour et la
nuit. (radiomètre, spectromètre, ...)

Capteur actif :
 Produit sa propre énergie pour illuminer la cible
(énergie artificielle).
 Mesure le rayonnement de même nature réfléchi
par la cible: hyperfréquences (radar,
diffusiomètre,…)
 Avantage de pouvoir prendre des mesures à
n ’importe quel moment de la journée de la saison.
 Inconvénient : produire une énorme quantité
d’énergie pour bien illuminer une cible.
 Exemples : laser fluoromètre et le Radar à
Synthèse d ’Ouverture ( RSO ).

Actif
Capteurs
 Dispositif capable de détecter l’intensité du signal
électromagnétique réfléchie ou émise par un objet
dans une bande spectrale donnée
 Mesure une grandeur physique

 Plusieurs capteurs : radiomètre, caméras, œil


humain
Radiomètre : c’est l ’instrument qui permet
d’analyser les détails d ’un spectre électromagnétique
Structure d ’un capteur

Système optique (résolution spatiale) Filtrage spectral

Détecteur Grandeur physique mesurable

Radiation électromagnétique
Enregistrement

Détecteur :
 C ’est l’élément sensible qui permet de moduler le passage du courant en fonction de l’énergie
électromagnétique
 Il existe différents détecteurs pour différentes L.O. : on juxtaposant plusieurs éléments sensibles, on
crée une matrice de détecteurs
Capteur à Balayage MultiSpectral
 C’est un capteur dont le champ de vision instantanée (CVI) balaie la surface afin d ’en
produire une image bidimensionnelle.
 Balayage MultiSpectral (BMS) : système utilisant plusieurs L. O.
Il y a deux de modes de balayage multispectral :

1) Le balayage perpendiculaire la trajectoire

 Ce balayage ratisse la Terre en une série de


lignes. Il s'effectue d'un côté du capteur à
l'autre, en utilisant un miroir rotatif (A) :
système optique ou mécanique
 Un seul capteur et un balayage linèaire

 La radiation atteignant le capteur est divisée


en plusieurs composantes spectrales détectées
séparément (UV, VIS, PIR, IR,..)

 Un ensemble de détecteurs (B) internes,


sensibles à chacune des bandes spectrales,
mesurent et enregistrent l'énergie en Capteur à acquisition instantanée :
convertissant le signal électrique produit par les Enregistrement de l’ensemble d ’une image
détecteurs en données numériques.
2) le balayage parallèle à la trajectoire

 Utilise aussi le mouvement de la plate-forme afin


d'enregistrer les données le long de lignes successives et
de produire une image bidimensionnelle.

 Le miroir est remplacé par un ensemble de détecteurs


(dispositifs micro-électroniques) alignés (A) et situé sur
le plan focal de l'image (B) formée par un système de
lentilles (C)

 Ces détecteurs sont "poussés " le long de la trajectoire


de la plate-forme : balayeurs à barrettes

 Les détecteurs individuels mesurent l'énergie pour une


bande spectrale et pour une cellule de résolution au sol
(D).
Balayage longititudinale de la zone couverte (peigne ou
balai)

 Un ensemble distinct de détecteurs est nécessaire pour Capteur à acquisition séquentielle


chacune des bandes spectrales

 L'énergie est détectée électroniquement par chacun


des détecteur de chacun des ensembles linéaires de
détecteurs.
Capteurs infrarouge thermique

 La Détecteur de l ’IR émis (mesurant la température de surface) demande une technique


différente

 Les capteurs IR (thermiques) utilisent des photo


détecteurs dont la surface est sensible au contact des
photons infrarouges émis par la Terre.

 Ces détecteurs sont refroidis à des températures très


basses (près du 0 absolu), de façon à limiter leur propre
émission d’IR thermique

 Les systèmes de détection thermique sont des capteurs à


balayage perpendiculaire à la trajectoire

 Ces systèmes utilisent une ou plusieurs références


internes de température pour étalonner la radiation
détectée (pour la détermination de la température absolue)

 La résolution en température des capteurs les plus


communs peut atteindre 0,1°C
II. VECTEURS OU PLATES-FORMES EN TELEDETECTIONI

 Pour l’enregistrement de l'énergie (réfléchie ou


émise) par une surface donnée : besoin d’un capteur terrestre (près du sol)
sur une plate forme distante de cette surface
Plates-formes : classées selon l ’altitude d’opération

aérienne (avion : de qq 10 à qq 1000 m

Véhicule spatial ( entre 10 et 200 km)

Spatiale ( Satellite : >


200 km) orbite autour
de la terre
COMPOSANTES D ’UN SATELLITE
 Système de rétablissement d ’altitude.

 Système de commande d’altitude (Contrôle de la position relative à l ’axe de prise

de vue et la stabilisation en lacet ).


 Panneaux solaires ( pour les fonctions à bord ).

 Système de contrôle à bord et de communication avec les stations au sol.

 Antennes ( transmission des données, réception des commandes ).

 Enregistreurs magnétiques ( stockage des données ).

Caractéristiques orbitales :
1. Orbite :
 Chaque satellite est placé sur une orbite autour de la terre
 Lors du lancement du satellite, on détermine la vitesse idéale pour atteindre la
bonne orbite et la maintenir
2. Inclinaison : (angle orbital) :
 Angle entre le plan de l ’orbite et le plan de l’équateur
 Détermine la région de la terre à observer par le capteur
 Ex : un satellite avec une inclinaison de 50° couvre uniquement une région comprise
entre 50° de latitude N et 50° de latitude S
 Inclinaison = 90 ° : couverture de tout le globe
3.TYPES DE SATELLITES

A. Satellite Géostationnaire
 Satellite géosynchrone : Toujours au
dessus du même point sur une orbite
circulaire
 Orbite équatoriale : Évolution dans le
Plan Équatorial
 Altitude d ’environ36000 kilomètres.
 Vitesse égale à celle de la rotation de la
Terre ( stationnaire pour un observateur au
sol ).
 Inclinaison = 0
 Fournit des informations sur une région
spécifique.

 Exemples : satellites de communication et d’observation des conditions météorologiques


(METEOSAT,…).
 L’altitude : les nuages et les conditions météorologiques qui couvrent un hémisphère complet
de la Terre.
B. Satellites à défilement
 Orbite quasi-polaire ou Orbite
héliosynchrone (# 90 °) :allant pratiquement
du nord au sud ou vice versa (Combinés à la
rotation de la Terre ( ouest-est ), les satellites
observent la presque totalité de la surface de
la Terre).

 Inclinaison : # 0 : le plan de l ’orbite fait


un angle avec le plan de l ’équateur
 Basse altitude ( 200 à 1500 km )
 Période nodale ou révolution < 2h, (ex.
SPOT : 101 mn)

 Ex. SPOT croise la même latitude chaque 101 mn, Donc répétitivité de 26 jours

 Satellites pour l’observation de la terre : ex : SPOT, NOAA,...

 Observent toujours chaque région du globe à la même heure locale solaire : la position du
Soleil au moment où le satellite survole la zone au cours d ’une saison donnée est la même
(SPOT passe au-dessus du Maroc vers 10 30 mn environ)
 Déplacement vers le nord d’un côté de la
Terre, et vers le sud dans l’autre moitié de
l’orbite (respectivement orbite ascendante et
orbite descendante )

Orbite Ascendante : se fait du côté


éclairé par le Soleil
Orbite Descendante : se fait du
côté ombragé de la Terre.

 Enregistrement de l’énergie solaire


réfléchie par la Terre au cours l’orbite
ascendante (capteurs passifs enregistrant
la réflexion de la lumière ).

 Les capteurs actifs ou les capteurs


passifs qui enregistrent l’énergie émise
par la terre enregistrent des données aussi
bien lors des orbites ascendantes que
descendantes.
COULOIR - COUVERT OU FAUCHEE

 Partie de la surface terrestre


«observée» par le capteur (entre une
dizaine et une centaine de kilomètres.

 L’orbite du satellite et la rotation


de la Terre permettent une
couverture complète de la surface de
la planète après un cycle orbital
complet.
CARACTERISTIQUES DES IMAGES SATELLITE
* Photo : Image d’un objet enregistré dans le domaine du visible [ 0,3 -0,9 µm ] sur un
support sensible au rayonnement dans ce domaine

* Image : Représentation schématique relative à la longueur


d’onde ou à l’instrument de mesure
Les images numériques :
-  Une image est une représentation dans le plan d’un objet
réel
 Une image de télédétection est composée d'une matrice
(grille) avec un très grand nombre de petits points ou
d'éléments appelés pixels (le plus petit élément d'une image).
- L’intensité de ce pixels est définie par des chiffres
Codage des valeurs :
 Chaque pixel dans une image a une valeur (grille de valeurs)

 L’affectation de l’intensité du gris aux valeurs numériques


transforme la grille en une image (généralement codée sur 8
bits ou 256 niveaux de luminosité allant du noir (0) ou blanc
255)

Propriété d’une image : - Résolution , Échelle,


Contraste, Texture, Niveaux de gris
Principales caractéristiques des images satellite :

Résolution spatiale : taille élémentaire du pixel dans l’image

Résolution spectrale : Largeur et nombre des bandes (L.O.) du capteur

Résolution radiométrique : sensibilité d’un capteur

Résolution temporelle :Répétitivité : temps nécessaire pour que le satellite


prend l’image sur le même endroit.

Taille de la scène (fauchée)/angle de la prise de vue : Couverture


géographique

Qualité de l’image : effets atmosphériques, pourcentage des nuages,…;


Résolution spatiale, Taille du pixel et échelle
Pixel : Le plus petit détail qui’il est possible d’obtenir par un
instrument de télédétection.
 La taille du pixel et la grandeur de la région observée sont
liées à la distance entre la cible observée et la plate-forme

Résolution spatiale :
 Détermine le détail qu’un capteur peut décerner;
 Est fonction de la dimension du plus petit élément
détectable (zone couverte par un pixel).
 Dépend du Champ de Vision Instantané du capteur
(CVI)
 Le CVI est défini comme étant le cône visible du
capteur (A)
 Il détermine l'aire de la surface "visible" à une altitude
donnée et à un moment précis (B).
 La grandeur de cette aire est obtenue en multipliant le
CVI par la distance de la surface au capteur (C).

 Chaque pixel de l image correspond à une partie de


la surface de la Terre : c’est la «résolution-sol»
Résolution spatiale,

 Pour pouvoir différencier un élément de la surface observée, 230 x 176


pix
celui -ci doit être de dimension > = à la cellule de résolution.

 Si l'élément est plus petit, il ne sera pas différencié : c'est


l'énergie moyenne des éléments de la cellule de résolution qui
sera captée

 Une même image peut être représentée par un nombre


plus ou moins élevés de pixels 80 x 61 pix

 En augmentant le nombre de pixels d’une même


image, on réduit la taille de chaque pixel

N.B. Plus la résolution augmente, plus la superficie de la 32 x 24 pix


surface visible par le capteur diminue.

 Une carte ayant une échelle de 1:100 000 représente un objet au sol de 100 000 cm
(1 km) par un objet de 1 cm.

 Les cartes pour lesquelles le rapport est petit (1:100 000) sont des cartes à petite échelle, tandis
que les cartes pour lesquelles ce rapport est plus grand (1:5 000) sont des cartes à grande échelle.
Correspondance entre résolution spatiale numérique et
échelle cartographique

Le rapport entre la distance que l'on mesure sur une image ou une
carte, et la distance correspondante au sol est appelée échelle.

Résolution spatiale de l’image Échelle cartographique


1 000 m 1/1 500 000
30 m 1/80 000
20 m 1/50 000
10 m 1/24 000
5m 1/12 000
1m 1/2 000
Il existe deux types de résolution :

1) résolution basse ou grossière seulement les


grands ensembles sont visibles,

2) résolution haute ou fine : identification


des éléments de plus petites dimensions
 Différents capteurs,
différentes résolutions
spatiales

Quick bird Multispectral 2m


Quick bird Multispectral 0.65 m
Résolution spectrale

 Représente le nombre et la largeur des bandes


spectrales.
 Elle décrit la capacité d'un capteur à utiliser de petites
fenêtres de L. O.

. Des classes très larges, (eau, végétation) peuvent être


séparées en utilisant un intervalle de longueurs d'onde
assez grand (ex. le visible et l'infrarouge).

 Des classes difficiles à différencier :utilisation d'un Résolution spectrale grossière


intervalle de plus spécifiques (ex. différents types de
roche) : L.O. ou canal beaucoup plus fin. :besoin d’un
capteur d’une résolution spectrale plus grande

 Plus la résolution spectrale est fine, plus les fenêtres


des différents canaux du capteur sont étroites.
 Instruments de télédétection peuvent enregistrer
l'énergie reçue selon des intervalles de L. O. à différentes
résolutions spectrales. Ces instruments sont appelés
capteurs multispectraux
Résolution Spectrale élevée
Les bandes spectrales des satellites Landsat et SPOT
Résolution temporelle : répétitivité

- Résolution temporelle absolue :


 La période de passage au nadir d'un satellite, qui est le temps que prend un satellite pour
effectuer un cycle orbital complet : quelques heures à quelques jours)

- Résolution temporelle effective

1) le chevauchement entre les couloirs-


couverts adjacents permettent à certaines
régions d’être observées plus fréquemment

2) Certains satellites ont aussi la possibilité de


pointer leurs capteurs en direction du même
point pour différents passages du satellite

Avantage : comparaison multitemporelle : détection des changements (développement de la


végétation, Suivi des inondations, développements urbains, déforestation,…)
SPOT et ses différentes résolutions spatiales
Image SPOT
sur la ville
de RABAT-SALE
Résolution = 10 m
SPOT : 20 m multispectrale SPOT : 10 m couleur

3 200 m 2 400 m

Échelle approximative: Échelle approximative:

1/17 700 1/13 400


SPOT : 5 m N&B SPOT : 2,5 m N&B

1 180 m
1 750 m
Échelle approximative :
Échelle approximative :
1/6 600
1/9 600
Image IKONOS sur la région des Image QUICK-BIRD sur la région de
Doukkala CASA
Résolution = 1m Résolution = 68 cm
Image QUICK-BIRD sur la région
de RABAT-SALE Image
Résolution : 2.5m QUICKBIRD
Traitements Numériques des
Images Satellite
Pourquoi les traitements ?
Le traitement numérique des images a pour but d’améliorer la qualité d’une image pour
faciliter son interprétation et satisfaire l’œil de l ’observateur : obtenir une meilleure
discrimination visuelle de l’information :

- Amélioration de la qualité géométrique de l’image et le référençage spatial des pixels


de l ’image

- Amélioration visuelle pour une meilleure interprétation

- Amélioration de la qualité de l ’image : suppression de bruit, correction


atmosphérique

- Extraction de l'information significative ou utile de l'imagerie : Extraction des


paramètres d’intérêt pour ’étude à mener (extraction d ’information non directement
visuelle sur l’image brute, quantification, accentuation des détails….)
Procédés de traitement numérique
Les techniques de traitement et pré traitement peuvent être
regroupées en trois types :
- Pré traitements numériques des images : correction géométrique et
atmosphérique, calibration et étalonnage, restauration des bruits,…

- Amélioration visuelle des images : rehaussement, filtrage

-Extraction de l’information utile et génération de nouveaux produits :


opérations entre images (indice ou ratio, opérations logiques différentes,
classification, ACP,...

Superposition avec des données exogènes (cartes topo, thématiques,


administratives,…)
Constitution d’une Base de Données SIG
Réponse à un Problème particulier
Amélioration visuelle

Définition du thème d ’intérêt


Résultat non satisfaisant
Choix des outils de traitement

Traitement Visualisation du résultat

Résultat satisfaisant

Carte thématique d ’aide à la décision

Intégration dans une BD SIG


TRAITEMENTS DE DONNEES EN TELEDETECTION SPATIALE

DONNEES T.D

-acquisition Besoins des


-traitements préliminaires utilisateurs

RECTIFICATION Données
exogènes

INTEGRATION DE DONNEES
# dates, # résolutions...

Pré-traitements d’images T. Images


RESULTAT

- compositions de canaux - classifications


- amélioration de contours, - textures - graphiques
contrastes, couleurs,... - analyse - numériques
statistique - etc.
- etc.
Interprétation Interprétation
visuelle assistée

Systèmes d ’Information Géographique


Image satellite ?

(# photographie)

- L ’image est une traduction des mesures des énergies (réfléchies, émises ou
retro diffusées) pour chaque surface explorée dans différentes L. O.
-Ces mesures physiques sont converties en données numériques (image
numérique)

Capteur

Scène
CN=Compte numérique=valeur du pixel=valeur de brillance=niveau de gris
Image satellite

- L’image est une matrice (format raster) composée de points élémentaires


(pixels) correspondant aux unités de surface les plus petites qu’analyse un
capteur : succession de lignes et de colonnes

-Chaque pixel est associé à une valeur d’intensité lumineuse « luminance » sous
forme de valeur numérique exprimant une information
- Les valeurs des pixels sont exprimées en langage binaire codé sur un
octet ou 8 bits (256 valeurs allant de 0 à 255 niveaux de gris)
Image satellite
Chaque point est défini par
- 2 coordonnées (i,j) relatives à la situation du point
- une valeur numérique ou compte numérique (CN) correspondant au flux émis
ou réfléchi par la cible observée qui permet de calculer sa valeur de luminance
Image satellite

Exemple de matrice de données Comptes numériques ou niveaux


de gris correspondant aux valeurs
radiométriques
Exemple : Image SPOT

Location
spatiale
(coordonnées,ou
lignes,colonnes)

- L’image est composée d’un (mono canal) ou plusieurs canaux (multi spectral)
Notion d’histogramme d’une image
L’histo. est une représentation graphique des valeurs numériques
d'intensité qui composent une image(entre 0 et 255: 8 bits)
Histogramme

Les CN de l ’histogramme peuvent être analysés avec des outils de statistique


descriptive : moyenne, écart type, médiane,…

-Pour chaque canal d’une image (monochrome ou multispectrale),


l ’Histo est relatif à la distribution statistique des niveaux de gris dans l’image

- La visualisation de l’histogramme permet de renseigner sur le contraste de


l’image

- L’Histo ne renseigne pas sur la distribution spatiale des pixels


Visualisation d’une image numérique
Visualisation d’une image : tout procédé d’affichage utilisé pour transformer l’information
mesurée par le capteur en un document directement lisible et interprétable par l’utilisateur
Objectif : obtenir une meilleur discrimination visuelle de l ’information

Association d’une échelle de gris ou d’une table de couleur à chaque compte


numérique en utilisant une table correspondante ou Look Up Table (LUT)
- Deux types de visualisations : mono-canal ou multi-canal
Visualisation mono - canal

Composition colorée
Visualisation mono - canal
Visualisation mono - canal
Visualisation multi-canal (Combinaisons colorées)
Notion de couleur :
Couleurs primaires : Rouge, Vert et Bleu

Couleurs complémentaires : Cyan (B + V), Magenta (R + B)et Jaune (V + R)


Visualisation multi-canal (Combinaisons colorées)
Visualisation multi-canal (Combinaisons colorées)
Chaque couleur est codée sur 8 bits (o à 255)
Visualisation multi-canal (Combinaisons colorées)

Affichage multi canal (multispectral)


(composition colorée ):

c’est une image composée à partir de


données obtenues dans 2 ou 3 bandes
spectrales : affectation d ’une des
couleurs primaires (RVB) à chaque
bande
- La couleur résulte de la composition
de 2 ou 3 canaux (chaque canal peut
être étalé séparément)

- Produits multi canaux ou multi


spectraux : c ’est une synthèse additive
des couleurs R ,V, B
Visualisation multi-canal (Combinaisons colorées)
Exemple d’affichage :

Avantage : analyse d’un seul coup des données ayant 3 composantes (0 à 255 du rouge, 0 à
255 du vert et 0 à 255 du bleu qui définissent la couleur d ’un pixel (16 millions de
couleurs différentes)
Visualisation multi-canal (Combinaisons colorées)
Visualisation multi-canal (Combinaisons colorées)
- Supposons qu’on veut combiner les canaux de Landsat TM : (7canaux) : canal
Bleu : TM1, canal Vert : TM2, canal Rouge : TM3, canal PIR: TM4

Couleurs vraies : les couleurs


attribuées correspondent aux
spectres des bandes analysées
Ex : Rouge (TM3), Vert (TM2 ),
Bleu (TM1)

Pseudo couleurs ou fausses couleurs : Association aux bandes spectrales du système


d’observation des couleurs d’affichage (R,V,B) qui ne leur correspondent pas
nécessairement. Ex :
Bleu (TM2), Vert (TM3), Rouge (TM4): végétation en rouge (composition standard),
ou (Bleu (TM2) , Rouge (TM3), Vert (TM4) (végétation en vert)
Visualisation multi-canal (Combinaisons colorées)
Résultats de l’affichage des canaux TM

TM1 B

V
R
Image vraies
TM2 couleur

B
TM3 V
R

TM4 Image fausses


couleur
Visualisation multi-canal (Combinaisons colorées)

Application :

Utilisation pour obtenir des produits multi- temporels tels que le suivi de
phénomènes saisonniers ou à évolution inter annuelle

Ex :
- étude du développement de la végétation : une image par période

- cartographie des zones irriguées : image d’hiver + image d’été

- cartographie des zones inondées : image sèche et image humide


Les pré traitements
Pourquoi ?
- Besoin de restauration de l’image et de correction des dégradations
-Correction des effets atmosphériques pour produire l’image la plus proche de la réalité
physique de la scène observée
- Correction radiométrique et calibration des données
- Rectification des distorsions géométriques de l’image

Source de dégradation des données satellites


- Bruits liés au contexte d’acquisition : mouvement, éclairage (variations d ’illumination),…
- Bruits liés au capteur : altitude, géométrie de la visée, capteur défectueux, défaut optique,
vieillissement, mouvement du satellite, courbure et rotation de la terre
- Bruits liés à l ’échantillonnage: quantification de l ’espace et de l ’intensité lumineuse
suffisante
- Bruits liés aux conditions atmosphériques : poussière, vapeur d ’eau, nuages, ozone…
- Effets du relief

Conséquences :
. Lignage : alternance de ligne claires et de lignes sombres de même direction
. Le contraste : faible dynamique de la distribution des niveaux de gris
. Bruit : Tâches de faibles dimensions dont la présence sur l ’image est aléatoire
. Ombrages de certaines zones de l ’image
. Les déformations géométriques
Correction des bruits

Erreurs :
Le bruit dans une image peut être causé par des
irrégularités ou des erreurs dans la réponse du
capteur, ou dans la transmission et
l'enregistrement des données.
Ex. Rayures, lignage (lignes manquantes),...
Correction :
Rayures : correction relative de chacun des
capteurs pour amener leurs valeurs apparentes au
même niveau.
Lignes manquantes :remplacement par la ligne
au-dessus ou au-dessous ou par la : moyenne des
deux
Les corrections géométriques

Il s’agit des corrections des distorsions géométriques dues aux


variations de la géométrie Terre-capteur, et la transformation des
données en vraies coordonnées (par exemple en latitude et longitude)
sur la surface de la Terre

Toutes les images de télédétection sont sujettes à des distorsions géométriques.


Différents facteurs :

- la perspective des capteurs optiques, angles et géométrie de visée


différents
- le mouvement du système de balayage,
- le mouvement de la plate-forme,
- l'altitude, l'orientation et la vitesse de la plate-forme,
- le relief du terrain, la courbure et la rotation de la Terre.
Corrections géométriques

Pourquoi les corrections Géométriques ?

- Afin que la représentation géométrique de l'imagerie soit aussi proche que


possible de la réalité.

- Pour comparer et superposer l ’image avec une carte de référence ou avec une autre
image prise par un capteur différent où à une date différente

- Pour avoir accès aux coordonnées cartographiques des tous les éléments de l’image

-Pour faire des mosaïques d’images

Solution : faire correspondre la géométrique de l'image à un système référentiel connu de


coordonnées au sol en modélisant la relation géométrique et de la distance entre les aires de
la surface observée, le soleil et le capteur
Corrections géométriques

Le calcul des modèles


p x

q Modèle de déformation
y

Image brute Donnée cartographique


(image rectifiée)

Le modèle ou le procédé de déformation est une relation


mathématique entre les coordonnées (p,q) dans l ’image brute et
les coordonnées (x,y) dans le système de référence (qui est celui de
l ’image que l ’on doit construire).
Corrections géométriques
Il existe plusieurs modélisations possibles, selon le satellite

1.Modèle physique ou rigide


C ’est un modèle déterministe qui suppose une connaissance parfaite du
modèle de déformation car on maîtrise tous les paramètres et les conditions de
la prise de vue’
Plusieurs des erreurs sont systématiques ou prévisibles, il est possible de
reconstituer la géométrie de prise de vue et de l’appliquer à l’image (par une
modélisation précise du mouvement de la plate-forme et du capteur, et par la
relation géométrique entre la plate-forme et la Terre.)
Le calcul de ce modèle est complètement automatisé exemple de
NOAA.AVHRR

Mais peu précis car d'autres erreurs non systématiques, ou aléatoires, ne


peuvent pas être modélisées de cette manière
Corrections géométriques
2. Modèle hybride
On connaît les paramètres avec une précision insuffisante. Ce modèle
physique va être affiné par un algorithme nécessitant la connaissance
d ’un certain nombre de points d ’appui (points de calage du modèle)

3. Modèle polynomial ou élastique (couplage des points


amers)
-Dans ce cas, le modèle est totalement inconnu : pas de connaissance des
paramètres de la prise de vue.

-Ne.tient pas compte des paramètres intrinsèques du capteur.

-Les distorsions sont estimées à partir de l’identification des coordonnées


(ligne et colonne) de plusieurs points clairement distincts et bien distribués
sur l'image à corriger (points de contrôle au sol (PCS) ou points amers ou
points d’appui)
Corrections géométriques
3. Modèle polynomial ou élastique (couplage
des points amers)

- Nécessité de connaître un grand nombre de points


homologues.

-Repérage de la véritable position en coordonnées au sol de


chaque point (ex. en Lat./Long. ou en coordonnées
géographiques).

- Ces points d ’appui servent à calculer un modèle de


déformation de type polynomial
Corrections géométriques

Prise en compte du relief : Utilisation des MNT

La prise en compte du relief est la condition nécessaire pour


une rectification précise

Elle est obligatoire pour : Elle est accessoire pour :

Les zones à fort relief Les zones plates


Les images prises sous de forts angles Les prise de vue verticales
(images Spot, Radars, photos) (Landsat)
Corrections géométriques

Prise en compte du relief Exemple de SPOT


Erreur pour un dH de 100 m.
60m

50m

40m

30m

20m

10m
Angle de visée

5° 10 ° 15 ° 20 ° 25 °
Corrections géométriques

Les vraies coordonnées au sol sont habituellement mesurées à partir d'une carte: correction
de type « image-à-carte » ou à partir d ’une image : correction de type « image-à- image »

Ré ajustement image sur image Ré ajustement image sur carte

L'information est traitée par l'ordinateur pour déterminer les équations de transformation
à appliquer aux coordonnées originales (ligne et colonne) pour obtenir les nouvelles
coordonnées au sol.
Corrections géométriques
Application du modèle
Établissement d’une relation linéaire entre les coordonnées image (ligne/colonne) et
les coordonnées cartographiques (X,Y) :

X = X0 + (i - 1) * résolution
Y= Y0 + (j - 1) * résolution

où (X, Y) = coordonnées cartographiques, (X0, Y0) = coordonnées cartographiques


du coin supérieur gauche de l’image, (i, j) = coordonnées image

L ’image brute va être déformée par le modèle calculé

Cette déformation nécessite donc un ré-échantillonnage des pixels de l ’image brute

La correction géométrique peut aussi être effectuée d'une image à une autre image
plutôt qu'à des coordonnées géographiques (correction image-à-image),

Choix d’un système de référence : ex. un système géodésique

Choix d’un système de projection : Lambert, UMT


Corrections géométriques
Application du procédé du Ré échantillonnage ou d’interpolation de l’information
- Toute transformation géométrique appliquée à une image amène à une déformation du
maillage origine (de référence)
- Se pose alors le problème d ’interpolation qui peut modifier sensiblement la qualité de
l ’image
- Utilisation du procédé du ré échantillonnage pour déterminer la valeur numérique à
mettre dans la nouvelle localisation du pixel de l'image de sortie corrigée.
- Le processus de ré échantillonnage calcule la nouvelle valeur du pixel à partir de sa
valeur originale dans l'image non corrigée en se basant sur une approche locale des
interpolations

Trois principales méthodes de ré échantillonnage couramment utilisées :

1. Règle du plus proche voisin (PPV)  méthode simple affectant peu les valeurs

Méthodes plus complexes prenant en


2. Interpolation bilinéaire
compte l’environnement et affectent les
3. Interpolation bi cubique valeurs
Corrections géométriques
Ré échantillonnage par le procédé du plus proche voisin :

Attribue au nouveau pixel la valeur du pixel de l'image originale qui se trouve le


plus proche du nouveau pixel dans l'image corrigée.

Cette méthode conserve la dynamique de l ’image originale n'altère pas la valeur


originale), mais elle peut produire une duplication des pixels ou une perte de
certaines valeurs.

Cette méthode a aussi tendance à


produire des images bruitées,
notamment dans le cas de sous
échantillonnage
Ou création de paliers en cas de sur
échantillonnage
Corrections géométriques
Ré échantillonnage par le procédé d’interpolation bilinéaire :

Prend une moyenne pondérée par la distance (ou combinaison linéaire) des quatre
pixels de l'image originale les plus près du nouveau pixel.

Ce procédé altère la valeur originale des pixels et


crée une valeur complètement nouvelle sur
l'image finale.

Ceci peut être nuisible si d'autres procédés, tels


que la classification basée sur la
réponse spectrale, doivent être faits.

Dans ce cas, il peut être préférable d'appliquer le


ré échantillonnage après le processus de
classification.
La mise en œuvre est un peu plus complexe et
plus lourde
Pas de paliers en cas de sur échantillonnage
Corrections géométriques

Ré échantillonnage par le procédé de la convolution cubique

Calcule la moyenne pondérée par la distance sur un bloc de seize pixels à partir de
l'image originale entourant la localisation du nouveau pixel de sortie (méthode
bicarrée ou combinaison polynomiale cubique)

Cette méthode résulte en de nouvelles valeurs


de pixels. : création de niveaux de gris
intermédiaires et augmentation de la
dynamique de l ’image)
Cependant, ces deux méthodes produisent des
images à l'apparence plus douce, (# plus
proche voisin)
Corrections géométriques
AMELIORATION DE LA QUALITE
VISUELLE DE L’IMAGE

- Souvent,l'image brute n’est pas à son meilleur pour une


interprétation visuelle

- Les informations utiles sont souvent contenues dans un intervalle


réduit de valeurs numériques parmi les valeurs possibles (256)

Les fonctions de rehaussement ont pour but d'améliorer l'apparence


de l'imagerie pour aider l'interprétation et l'analyse visuelles.
1/15
1. Rehaussement de l’image : Amélioration du contraste ou étalement de la dynamique
- Le rehaussement des contrastes consiste à modifier les valeurs initiales de façon
à utiliser toutes les valeurs possibles ( 0 à 255) : augmentation du contraste entre
les cibles et leur environnement
Table de transcodage ou LUT 2/15

- Manipulation de la distribution des niveaux d'intensité de l'histogramme sur l'ensemble


des valeurs admissibles pour une image, pour produire différents types de rehaussement et
de détails (Amélioration des contrastes par manipulation de LUT (Look UP Table)
3/15
1. Rehaussement de l’image

-Association d ’une échelle de niveaux de gris ou d ’une table de couleur à chaque CN (LUT)
-Ces fonctions permettent l'étirement des contrastes pour augmenter la distinction des tons
entre les différents éléments d'une scène,
-Ces procédés n’affectent que les « couleurs » associées à chaque pixel sans modifier son CN
-L’ajustement différent des tons doit être fonction de l'utilisation et de l'état de chacune des
images
-La visualisation est subjective (en fonction de l’appréciation de l ’opérateur)
4/15
1. Rehaussement de l’image
1. Rehaussement de l’image 5/15
A) Rehaussement linéaire du contraste (LUTs Linéaires) : Étalement linéaire
-C’est la méthode d ’amélioration du contraste la plus simple
-C’est un recadrage de la dynamique de l ’image initial qui consiste à utiliser
une transformation linéaire permettant d’adapter l’ensemble du contraste à la
gamme des valeurs significatives des CN
6/15
1. Rehaussement de l’image

A) Rehaussement linéaire du contraste (LUTs Linéaires) : Étalement linéaire (suite)

Dans cette approche, chaque niveau de gris est


modifié dans le but d ’accroître le contraste.
On l ’appelle dynamique l’intervalle (a, b)
correspondant aux niveaux de gris extrêmes
Données en sortie
présents dans l ’image.
Procédure :

1) identification des limites supérieures et


inférieures d’intensité de l’histogramme
0 a b 255
2) transformation linéaire : étirement uniforme Données en entrée
de ces valeurs (min. et max.) grâce à la table de Nbre de pixels
transcodage sur l’ensemble des niveaux de gris
(256) en multipliant par un facteur

3) recentrage de la médiane (supposons que la


distribution est gaussienne)
0 1 2 3 4 251 252 253 254255
Niveau de gris
7/15
1. Rehaussement de l’image

Résultat : éclaircissement des régions


plus claires de l’image et
assombrissement les régions les plus
foncées

Image originale Histogramme de l’image originale Image recadrée Histogramme de l’image recadrée
dynamique [10-40]

Image recadrée
8/15
1. Rehaussement de l’image 9/15

Exemple d’étalement linéaire

Image brute

Image étalée
10/15
B- LUTs non linéaires : étalement non linéaire
Asymétrie Bimodalité
Lorsque la distribution des CN n’est pas uniforme
(défauts de contraste) :
Histogramme asymétrique (cas souvent) ou bimodal

0 255 0 255

le contrôle par une LUT linéaire de l ’étalement de l’histogramme à moindre saturation


n’est pas possible

La fonction de rehaussement doit être choisie en fonction du défaut de


l ’histogramme
11/15

On utilise alors :

* Étirement pondéré de l’histogramme :


LUT à 2 paliers linéaires
Cette méthode augmente l’intervalle de valeurs
dans les portions de l'histogramme où les
valeurs d'intensité ont une fréquence plus
élevée
Les détails de ces régions seront mieux
rehaussés que les détails des régions où la
fréquence des valeurs d'intensité de
l'histogramme est plus faible

* Rehaussement du contraste dans une portion spécifique de l'histogramme : les


détails sur cette région seront grandement rehaussés, mais perdus dans d’autres régions
12/15
Exemples d’étalement non linéaires
Histogrammes originaux Histogrammes rehaussés
13/15
B- LUTs non linéaires : étalement non linéaire
* Égalisation de l ’histogramme (Equipopulation ):
Méthode automatique radicale et efficace de rehaussement combinant étalement et
auto adaptation de l’histogramme.
Il impose sur l ’image une répartition la plus homogène possible des niveaux de gris
La LUT tient compte de la distribution statistique des niveaux de gris,
Son calcule se fait de façon à ce que chaque niveau du terminal correspond à un effectif égal
de pixels de l ’image
L’histogramme se
rapproche le plus possible
d’une fonction « plate » :
histo plat étendu à
l’ensemble des valeurs
possibles (Néanmoins ,
suppose que
l’histogramme est
gaussien, ce qui n’est pas
le cas en pratique)
Résultats : image avec un
aspect où les zones
claires, moyennes et
sombres sont équilibrées
N.B : dans une image bien contrastée, légalisation de l ’histo. Peut donner une qualité visuelle de l ’image médiocre
14/15
Égalisation d ’histogramme
15/15
C- Autres LUTs

* Transformations locales du contraste :


Algorithme adaptatif tenant compte de la distribution spatiale des niveaux de gris dans
l’image.
Ex : subdivision de l’image en blocs de taille prédéfinie et étalement linéaire de
l ’histogramme pour chaque bloc entre les valeurs min. et Max.de niveau de gris dans le
bloc
ex : égalisation des histogrammes locaux de l’image

Binarisation, seuillage

Destinée non pas à rehausser le contraste, mais à segmenter l’image en 2 classes


Résultat : : image binaire
Application : masque d ’une zone de l ’image
Les filtres Spatiaux
- Les filtres spatiaux représentent une autre méthode de rehaussement visuel des
caractéristiques spectrales et spatiales d'une image par une transformation locale sur un
voisinage de chaque pixel de l’image

Effets du filtrage : supprime, atténue ou accentue les fréquences spatiales d ’une image

- Le filtrage spatial a pour but de rehausser (ou éliminer) les patrons spatiaux spécifiques
sur une image.

- Le filtrage change le contraste spatial (# le rehaussement qui modifie le contraste de


l’affichage)
Le filtrage modifie les CN de l’image

- le contraste spatial est la différence entre le CN d ’un pixel et le CN des ses voisins, donc,
il prend en compte l’environnement des pixels

- Le filtrage se fait sur un voisinage V de l ’image, centré sur point P contenu dans
ce voisinage (modification du CN de chaque pixel en fonction des CN des pixels
voisins)
Les filtres Spatiaux

-Le filtrage produit des images aux fréquences spatiales modifiées


puisqu ’il augmente ou diminue la variabilité des fréquences
spatiales.

- Ils font ressortir ou supprimer des caractéristiques spécifiques


d'une image en se basant sur
les fréquences
- Ils améliorent la définition des éléments géographiques spatiales

- Les filtres augmentent ou diminuent la variabilité des fréquences spatiales

- La fréquence spatiale est liée au concept de texture basée sur la variation des
différents tons de gris d’une image : variation des CN par unité de surface (mesure de
«la rugosité») : fréquence spatiale forte (rugueuse)ou faible (lisse) des niveaux de gris.
Les filtres Spatiaux
Fréquence spatiale (contraste local)

Faible Forte
Pas de
fréquence fréquence
fréquence

La courbe peut être divisée en


courbes élémentaires simples

Image «lisse»: basse Image »rugueuse»: haute


Profil radio métrique : indicateur fréquence spatiale fréquence spatiale
simplifié de la fréquence spatiale
Les filtres Spatiaux
Méthode de filtrage spatial :

Le filtre est défini par un :


- une fenêtre carrée »glissante» de dimension
(3,5,7,…) se déplaçant sur l ’image
- une matrice de coefficients de même dimension
(3,5,7,...

- Le calcul de l’image transformée fait intervenir le


principe de « fenêtre glissante » pour remplacer la
valeur de chaque pixel central par le résultat de
l’opération portant sur sur ces voisins (moyenne,
médiane,.. Des pixels de la fenêtre)
-Déplacement de cette fenêtre le long des colonnes et des lignes de l'image entière
-
jusqu’au dernier pixel de l’image

-Une nouvelle image est ainsi générée


Applications : rehaussement et détection des contours, filtrage du bruit,
caractérisation de la texture, optimisation locale du contraste
Les filtres Spatiaux
Filtrages linéaires :
Ce sont des filtres moyenneurs : le niveau de gris du pixel central est
remplacée par la moyenne de gris des pixels environnants
Filtrages linéaires :
Filtrages linéaires :
Filtrages linéaires :
Les filtres les plus
- Basse fréquence (lissage) : réduction du « bruit » et des artéfacts
- Haute fréquence (rehaussement des contours) : amélioration de
la lisibilité d ’une image (atténuation de l ’aspect « brouillé » d’une
image)

Les deux filtres utilisent la même méthode de «re calcul» du CN sur la base de
la prise ne compte de l ’environnement du pixel

1) Filtre passe-bas

- Mise en évidence des régions assez grandes et


homogènes ayant des pixels d'intensité similaire

- Réduction des plus petits détails d'une image


Lissage
- utilisé pour réduire les bruits (filtre passe bas , moyenne)

1/9 1/9 1/9


- Lissage de l’image
1/9 1/9 1/9

1/9 1/9 1/9


Filtrages linéaires :

Exemple d ’une application


du filtre passa bas

Image brute Filtre passe-bas


2)Filtre passe-haut

Inversement, ce filtre est utilisé pour accentuer les


contrastes locaux : fait ressortir les petits détails d’une Détection de contour
image )
Détection de contours

-1/9 -1/9 -1/9

-1/9 17/9 -1/9

-1/9 -1/9 -1/9


Exemples de filtres linéaires : Passe bas et passe haut

Ces différents filtres peuvent être combinés additivement pour générer une variété de filtres
plus complexes
3) Les filtres linéaires directionnels
C’est la détection des changements brusques de niveau de gris du pixel
dans l’image par rapport à son voisin (frontière entre 2 objets différents)
Les filtres détectent les contours : utilisés pour rehausser les caractéristiques
linéaires d'une image (routes, limites des champs…)
Recherche de contours pour une direction fixée (horizontale, verticale,…) avec un
filtre passe-haut
Ces filtres peuvent aussi être conçus pour rehausser des caractéristiques ayant une
certaine orientation dans l'image.

Directionnels: Rehaussent les transitions radiométrqiues dans une direction


privilégiée
3) Les filtres linéaires directionnels

Applications :

nombreuses applications notamment


pour la détection des éléments linéaires
et les contours :

en Géologie : détection de structures


géologiques linéaires : linéaments,
failles,… dans une direction donnée

en Urbanisme et aménagement : mise


en évidences des réseaux : routier,
ferré, hydrographique, artères
urbaines,...

En Agriculture, environnement :
limites des parcelles cultivées, fronts de
défrichement

Rehaussement de contours
4) Les filtres linéaires non directionnels

Rehaussement les contours

Non directionnels : Rehaussent les transitions radiométrqiues dans toutes les directions

Exemple de filtres Laplacien


Exemple d’autres filtres
Filtres non linéaires
-Détection des contours indépendamment de leur direction
- Procédé : moyenne quadratique du résultat de deux filtres
directionnels de directions orthogonales
Filtres non linéaires
Filtre Médian
- Suppression du bruit tout en conservant les contours
- Le voisinage du pixel à filtré peut avoir n ’importe quelle forme : ligne
(différentes directions), carré, ..
Principe :
Triage des niveaux de gris par des valeurs croissantes des points contenus dans
le voisinage du pixel à filtrer et on retient la valeur en position médiane
exemple :
Classement Résultat du filtrage
Caractéristiques
1 9 3
Voisinage 3x3 autour 1 2 3 4 5 6 7 8 9 La valeur 8 est
4 8 2 du point p de niveau remplacée par la
de gris 8 valeur 5 (position
7 5 6 médiane). 1 et 9
sont des valeurs
extrêmes
Les transformations des images
Combinaisons multi -bandes
- La transformation des image est un procédé qui combine
le traitement des données de plusieurs bandes spectrales
pour compresser le nombre ou extraire de nouveaux canaux

- Basée sur des opérations arithmétiques (addition,


soustraction, multiplication, division) pour la
transformation des bandes originales en de "nouvelles"
images de manière à rehausser certains éléments moins
évidents dans la scène originale.
- S ’effectue pixel par pixel

Il s ’agit d’un rapport de bandes (rapport spectral ) pour :


l’extraction de l’information thématique : ex. production
de biomasse ou évolution de types d’occupation du sol,
déforestation, changement des cultures (soustraction entre
deux images prises à des dates différentes)
- indices, classification, ratio, ….
2) d ’une réduction du nombre de bandes à traiter avec la
création de nouveaux canaux (néocanaux) non corrélés :
Analyse en Composantes Principales
Calcul d’indices statistiques
C’est l’opération la plus commune utilisée dans de nombreux domaines (géologie,
écologie, agriculture,...)
Il est basé sur le calcul de rapports spectraux : la division d’images (le calcul de
rapports entre deux bandes spectrales différentes) permet de rehausser les variations
subtiles dans la réponse spectrale de différents types de surface :
Indice de végétation, indice de brillance, indice de coloration des sols,…;

Indice de
IV = PIR/Rouge
végétation
- Cet indice est corrélé à la biomasse active de la végétation, car :

-La végétation réfléchit fortement dans le Proche Infra Rouge PIR) et absorbe fortement dans
le Rouge(R).
-Les autres types de surface comme le sol nu et l'eau ont des réflectivités presque égales
dans ces deux zones du spectre.
-Une image des rapports spectraux entre les images de la bande 7de Landsat MSS (PIR 0,8 à
1,1um) divisée par la bande 5 (rouge, 0,6 à 0,7um) aurait des valeurs beaucoup plus grandes que
1,0 pour la végétation et des rapports autour de 1.0 pour la terre et l'eau
Il est donc facile de différencier la végétation des
autres types de surface en utilisant cette transformation
Indice de végétation
- Aussi, Identification des zones de végétation à stress hydrique : réflectance plus basse , le
rapport spectral sera donc plus faible que dans les régions où la végétation est saine
NDVI : Indice de Végétation par Différence Normalisée : rapport entre les sommes et les
différences de bandes spectrales afin de surveiller les conditions et l ’état de la végétation
Ex : les canaux 1 et 2 de NOAA/AVHRR , NDVI = (PIR- Rouge) / (PIR +Rouge)
Les valeurs sont comprises entre 0 et 1, = (canal2- canal1) / (canal2 + canal1)
0 = sol nu (désert), près de 1 : forte végétation, ex : forêt
équatoriale)
Avantage : réduction de l’effet de variation de
l’illumination du à la topographie

Le dénominateur de la formule sert à diminuer l ’effet de


l’éclairement différentiel : la signature spectrale d ’un objet
garde globalement la m^me allure, mais est décalée vers le
haut, lorsque l ’objet est mieux éclairé (ex, objet 1)

Le calcul de la simple différence (IR - R)est très sensible à


la différence d’éclairement global, alors que la différence
normalisée est constante
Avantage :
Meilleure taux de recouvrement et bonne estimation de la densité du couvert végétal (intensité de
l’activité photosynthétique) et de la biomasse (indication des rendements, détection des déficits
hydriques, maladies)
Comparaison des indices pour chaque région donnée : facilité d’analyse et d’interprétation :
Bon suivi de l ’évolution de la végétation et des stades phrénologiques

NDVI de la région SE de Bruxelles :


TM4 (PIR) et TM3 (R)
Indice de brillance

IB = (PIR² + R²) 0,5


R = canal rouge, PIR : canal Proche Infrarouge

C’est un indice qui caractérise les sols :

couleur, humidité, texture, structure


LES CLASSIFICATIONS DES IMAGES
- Production d’images thématiques en utilisant une discrimination
des classes modélisées par un processus de décision (processus
quantitatif),

- Identification et Classement des pixels en fonction de leur valeurs


numériques (leurs signatures spectrales) : identification de groupes
homogènes de pixels ( dans un espace à N dimension) qui
regroupent des classes intéressantes

La classification est faite sur des banques de données


multispectrales (A), : elle utilise l'information spectrale contenue
dans les valeurs d'une ou plusieurs bandes spectrales pour classifier
chaque pixel individuellement
LES CLASSIFICATIONS
Chaque pixel de l’image est affecté à
une certaine classe ou thème (eau,
forêt, maïs,…) (B) basé sur les
caractéristiques statistiques de la
valeur de l'intensité du pixel.
C ’est la reconnaissance de
regroupements spectraux

Procédé :
- L’image constitue un nuage de
points.
- Isolement de portions de
nuages

- Identification sur l ’image des


pixels correspondants
LES CLASSIFICATIONS
Notion de classes :
Classes spectrales : classes discriminées grâce à l ’information contenue dans l es images
Classes thématiques : les classes que l’utilisateur cherche à séparer

Processus de classification
1) Choix des canaux spectraux : images brutes, ACP, ratio,...

2) Établissement des classes des signatures : apprentissage spectral

3) Découpage de l’espace spectral ou choix des distances(fixation des limites :


mesurer les distances des signatures)
a) distances circulaires (euclidienne, …
b) distances elliptiques (par blocs, quadratiques, par corrélation,…)
c) distances coniques

4) Classification de chacun des pixels en fonction des signatures : choix, étude de séparabilité
5) Évaluation et Amélioration du résultat

Deux approches communes sont utilisées : classification supervisée et classification non


supervisée.
LES CLASSIFICATIONS
Classification supervisée :car dirigée par l’opérateur (méthode avec entraînement)
- Identification des classes d'information utilisées par la suite pour définir les classes spectrales
qui les représentent
- Connaissances à priori des classes thématiques d’un certain nombre d’échantillons (données
test) qui doivent être représentatifs de différents types de surface (classes d'information)

Connaissance du Image
Terrain Seuillage radiométrique
(parcelles tests) des canaux de l ’image

Algorithme de traitement
(maximum de vraisemblance /approche probabilistique)
(approche métrique)
( approche pixels purs,…..)

Echantillonnage Terrain/ Image

Image « classée »
thématiquement

Validation de la classification
LES CLASSIFICATIONS
Classification supervisée :
classification basée sur une
méthode statistique, mais à
philosophie déterminante
LES CLASSIFICATIONS
Classification non supervisée Classification automatique
- Pas d ’information a priori sur le terrain
- Utilise un algorithme de classification basé sur l’analyse la distribution de
l ’ensemble des signatures spectrales des pixels de l ’image
- Définit le centre des classes spectrales en
fonction de leur densité de distribution Image Seuillage radiométrique
- Regroupement des pixels sur la base des des canaux de l ’image
signatures spectrales similaires
Algorithme de traitement
-L’opérateur peut fixer seulement le
(nuée dynamique, blocs,…)
nombre de classes

-Tous les pixels seront alloués à l ’une ou


l’autre classe en fonction de leur distance Image « classée »
par rapport à ces centres de classes radiométriquement
Avantage : rapide
Inconvénient : basée exclusivement sur Affectation thématique
les signatures spectrales qui ne
correspondent pas toujours à des
catégories naturelles
LES CLASSIFICATIONS

Image d ’origine Image classifiée


Quelques exemples d’application de la
télédétection
Inventaires statistiques

Cultures non irriguées


Cultures irriguées
Plantations fruitières
Forêt
Parcours et
incultes
Grandes villes
Petites villes
Gros villages

Kenitra
Image SPOT XS - Province de Kénitra-

Limite des strates

Carte de stratification (province of Kénitra)


PROGRAMME NATIONAL POUR L’ESTIMATION DES SUPERFICIES
ET LA PREVISION DE LA PRODUCTION DES CEREALES D’AUTOMNE
Image SPOT XS
-zone of Doukkala-

Rainfed Cropland
Irrigated cropland
Others (Forest, Grazing)

Carte des céréales

Céréales dans zone irriguée


Céréales dans zone bour
Autres
Carte des céréales
produite par
interprétation
des images satellite
PROGRAMME NATIONAL POUR L’ESTIMATION DES SUPERFICIES
ET LA PREVISION DE LA PRODUCTION DES CEREALES D’AUTOMNE

Superficie des céréales d ’automne Superficie et production des céréales


(en million d ’hectares) comparées aux données fournies
par le Ministère de l ’Agriculture
L ’écart moyen sur trois ans est de :
• 5% pour la superficie
Superficie (million ha)

• 2,5% pour la production


Production des céréales d ’automne
(en million de quintaux)

(million Qx)
Télédétection

DPAE/Ministère
de l ’Agriculture

Production (millionProduction
Qx)
Remote sensing

DPAE

Orge Blé dur Télédétection


1996 1998
DPAE/Ministère
de l ’Agriculture
Blé tendre Blé tendre
1996 1998

Blé dur
Orge
1996
1996
Reconnaissance de cultures

 Tournesol
 Pois
 Blé
Manques dans les
parcelles
Stress thermique et hydrique des cultures

Copyright Space Imaging, 1999

Vous aimerez peut-être aussi