Vous êtes sur la page 1sur 23

UNIVERSITE DENIS SASSOU-N’GUESSO

Rigueur-Excellence-Lumières
…………………………………..
---------------------
Institut Supérieur des Sciences
Géographiques, Environnementales et
Aménagement /ISSGEA

Cours : Télédétection Optique


Méthodes et techniques de traitement
des images

MASTER TECHNOLOGIES GEOSPATIALES,


AMENAGEMENT ET GESTION DES ECOSYSTEMES
(MTAE)
Semestre 1 : Tronc commun

Année académique 2023-2024

1
Plan
I. Principes généraux
▪ Spectre électromagnétique et principales quantités spectro-
radiométriques utilisées en télédétection
▪ Systèmes d’acquisition des données
▪ Plates-formes aéroportées et satellitaires

II. Généralités du traitement des images


▪ Visualisation des images

III. Méthode de traitement des images


▪ Indices spectraux
IV. Etude du changement
IV.1. Classification d'images multispectrales : approche pixel
IV.1.1. Classifications non supervisées
IV.1.2. Classifications supervisées

V. Evaluation des résultats et restitution


cartographique
V.1.Evaluation de la qualité d’une
classification, indice Kappa
V.2. Habillage et restitution cartographique

2
Introduction
La télédétection spatiale est une discipline scientifique qui intègre un large
éventail de compétences et de technologies utilisés pour l'observation, l'analyse
et l'interprétation des phénomènes terrestres et atmosphériques. Ses
principales sources sont les mesures et les images obtenues à l'aide de plates-
formes aériennes et spatiales. Comme son nom même l'indique, la télédétection
est l'acquisition de l'information à distance, sans contact direct avec l'objet
étudié.

Figure 1 : un satellite dans son orbite autour de la terre


Source : Centre National d’Etudes Spatiales (CNES)

I.1. Principes de la télédétection


Le principe de base de la télédétection est similaire à celui de la vision de
l'homme. La télédétection est le fruit de l'interaction entre trois éléments
fondamentaux : une source d'énergie, une cible et un vecteur.

3
Figure 2 : Principe de base de la télédétection

-La cible est la portion de la surface terrestre observée par le satellite. Sa taille
peut varier de quelques dizaines à plusieurs milliers de kilomètres carrés.
-La source d'énergie est l'élément qui éclaire la cible en émettant une onde
électromagnétique (flux de photons). Dans l'immense majorité des cas la source
d'énergie est le soleil. Néanmoins, la technologie RADAR nécessite qu'un
émetteur soit embarqué sur le satellite, dans ce cas le satellite lui-même est
source d'énergie.
-Le vecteur ou plate-forme de télédétection mesure l'énergie solaire
(rayonnement électromagnétique) réfléchie par la cible. Le vecteur (plate-
forme) peut être un satellite ou un avion, dominant la cible de quelques
centaines de mètres à 36000 kilomètres.

4
I.2. Spectre électromagnétique
Le spectre électromagnétique représente la répartition des ondes
électromagnétiques en fonction de leur longueur d'onde, de leur fréquence ou
bien encore de leur énergie. Il s'étend des courtes longueurs d'onde (dont font
partie les rayons gamma et les rayons X) aux grandes longueurs d'onde (micro-
ondes et ondes radio). Trois fenêtres spectrales sont principalement utilisées en
télédétection spatiale :

▪ Le domaine du visible (s’étend de 0,4 à 0,7 µm)


C’est la gamme de fréquence que peut supporter l'œil humain. Elle est
Subdivisée en trois groupes : Red (rouge), Green (vert), Blue (bleu).

Figure 3 : domaine visible du spectre électromagnétique

▪ Le domaine des infrarouges (proche IR, IR moyen et IR thermique): s'étend


de 0,7 à 100 µm, ce qui est un intervalle environ 100 fois plus large que le
spectre visible.

5
❖ Infrarouge proche (0,7-1,1 µm) : Appelé IR réfléchi, il renseigne sur
l'énergie solaire des corps réfléchissants, ce spectre est utilisé en
télédétection de la même façon que le rayonnement visible.
❖ Infrarouge moyen (1,1 -8 µm) : C’est un mélange de rayonnement solaire
et d'émission, il affecte de manière significative l’atmosphère et employé
pour mesurer les concentrations de vapeur d'eau, ozone, aérosols, etc.
❖ Infrarouge thermique (8-14 µm) : Rayonnement émis par les organismes
eux-mêmes, il permet de déterminer la température d’un corps (IR
thermique) et les images peuvent être disponibles à tout moment de la
journée.

Figure 4 : domaine des infrarouges du spectre électromagnétique

▪ Le domaine des micro-ondes ou hyperfréquences (radar) : s’étend


approximativement de 1 mm à 1 m. Cette bande présente un intérêt
croissant dans la télédétection du fait de sa faible interaction avec
l’atmosphère et sa transparence pour les nuages. Les capteurs actifs sont
généralement utilisés dans cette bande.

6
Figure 5 : Spectre électromagnétique et utilisation en télédétection

II. Systèmes d’acquisition des données


L’énergie radiative provenant de la scène visée est enregistrée par la suite par
des capteurs embarqués sur une plate-forme distante de la surface ou de la cible
observée. Ces plates-formes peuvent être situées près de la surface terrestre,
comme par exemple au sol, dans un avion ou un ballon ; ou à l’extérieur de
l'atmosphère terrestre, comme par exemple sur un véhicule spatial ou un
satellite.

II.1. Plates-formes aéroportées et satellitaires


II.1.1. Plates-formes aéroportées
-Les ballons : Ils sont constitués en général d’une membrane très mince que
l’on
gonfle avec un gaz plus léger que l’air : l’air chaud, l’hélium ou l’hydrogène. Ils
sont peu utilisés, sauf en météorologie. Leurs altitudes varient entre 2 et 40 Km.

7
-Les Avions : Ce sont des plates-formes d’emploi très souple, mais dépendent
largement des conditions météorologiques.

Figure 6 : signal enregistré par les capteurs

II.1.2. Plates-formes spatiales ou Satellitaires

Les plateformes spatiales ou satellitaires sont des vaisseaux en orbite terrestre


qui se déplacent selon une ellipse dont un des foyers est occupé par le centre de
la Terre.

8
-Les satellites : Les notions de satellites géostationnaires et satellites à
défilement concernent les satellites artificiels, envoyés dans l’espace par
l’homme. Ils sont propulsés dans l’espace grâce à des moteurs puis restent en
orbite autour de la terre grâce à la force de gravitation que celle-ci exerce sur
eux. Le premier fût Spoutnik-1, lancé en 1957 par l’URSS, il précéda plus de 5000
autres satellites artificiels qui furent lancé par la suite. Il existe deux types de
satellite :

• les satellites géostationnaires : Le géostationnaire suit, par définition, une


orbite géostationnaire qui se situe à 35786 km d’altitude au-dessus de
l’équateur et a une période de révolution égale à la période de rotation de
la Terre sur elle-même, c’est-à-dire 23h 56m 4s. Présentant l’avantage de
toujours suivre le même point fixe sur la terre (semblant donc immobile
depuis la terre).

Figure 7 : Satellite géostationnaire

Les satellites géostationnaires sont utilisés, entre autres, pour l’observation, la


télécommunication, la télédiffusion ou la météorologie.

• les satellites à orbite polaire ou à défilement : Ils suivent, pour la plupart,


une orbite basse aussi appelée LEO (Low Earth Orbit) située entre 200 et
2000 km d’altitude qui est comprise entre l’atmosphère et la ceinture de
Van Allen. Ces satellites tournent sur une orbite quasi circulaire dont le
plan passe pratiquement par les pôles Nord et Sud. Ils tournent plus vite
ou plus lentement que la terre, et dans le même sens ou dans le sens
contraire.

9
Figure 8 : Satellite à défilement

Les satellites à défilement sont principalement utilisés pour la météorologie,


pour les systèmes de téléphonie planétaire, le GPS (Global Positioning System)
qui est le principal système de positionnement satellite mondial actuellement.

Pour certains instruments de télédétection, la distance entre la cible observée et


la plate-forme joue un rôle important puisqu'elle détermine la grandeur de la
région observée et le détail qu'il sera possible d'obtenir. Un capteur placé sur
une plate-forme éloignée de la cible pourra observer une plus grande région,
mais ne sera pas en mesure de fournir beaucoup de détails. Par exemple, pensez
à ce que voit un astronaute à bord de la navette spatiale lorsqu'il regarde la Terre
par rapport à ce que vous pouvez observer à bord d'un avion. Il y a une différence
semblable, quoique moins marquée, entre les images satellitaires et les
photographies aériennes.

II.2. Capteurs
Ce sont des instruments de mesure permettant d'acquérir et d'enregistrer des
données sur les objets observés à la surface de la Terre, dans une ou plusieurs
longueurs d'onde données, puis de les retransmettre vers un système de
réception. On distingue des capteurs passifs et actifs.

II.2.1. Le capteur passif peut seulement percevoir l'énergie réfléchie lorsque


le Soleil illumine la Terre. Il n'y a donc pas d'énergie solaire réfléchie le soir,
tandis que l'énergie dégagée naturellement (l'infrarouge thermique) peut être
perçue le jour ou la nuit.

10
Figure 9 : principe de la télédétection passif

II.2.2. Le capteur actif produit sa propre énergie pour illuminer la cible : il


dégage un rayonnement électromagnétique qui est dirigé vers la cible. Le
rayonnement réfléchi par la cible est alors perçu et mesuré par le capteur. Le
capteur actif a l'avantage de pouvoir prendre des mesures à n'importe quel
moment de la journée ou de la saison. Exp: Radar , Lidar.

Figure 10 : principe de la télédétection actif

11
II. Généralités du traitement d’images
II.1. Visualisation des images
Il est très important de prendre le temps d’analyser visuellement une image afin
de bien comprendre l’information qu’elle contient (type d’occupation du sol,
présence de nuages, mauvaises valeurs de certains pixels, etc). Voici une liste
non exhaustive d’opérations à réaliser :

• visualiser l’image en composition vrai couleur quand c’est possible afin de


facilement photo interpréter l’occupation du sol sur base de la couleur ;

• visualiser l’image en composition fausses couleurs afin de voir quel est


l’apport des bandes spectrales différentes des bandes rouge, verte et bleu,
en particulier les bandes en dehors du spectre du visible, essentiellement
dans l’infrarouge. L’infrarouge apporte généralement beaucoup
d’information spectrale intéressante pour l’analyse de l’occupation du sol ;

• utiliser les outils d’amélioration de contraste ;

• utiliser les outils de synchronisation spatiale d’images d’un même endroit


mais de dates différentes afin de facilement comparer les occupations du sol
d’un endroit donné et donc d’en voir l’évolution.

II.1.1. Compositions colorées


Image multispectrale (MS) : enregistrement simultané dans plusieurs bandes
spectrales Visible : bleu, vert, rouge Infrarouge

Figure 11 : Image multispectrale

12
II.1.2. Interprétation visuelle des photographies et des images
La photo-interprétation (reconnaissance des différentes occupations du sol par
analyse visuelle) d’une image est parfois difficile :

• Soit parce que l’image ne présente pas une qualité suffisante (résolution
spatiale et spectrale adéquate) ;

• Soit à cause d’un manque d’expérience du photo-interpréteur ou d’un


manque de connaissance de la zone.

La photo-interprétation peut être facilitée grâce à l’utilisation de données


complémentaires sur la zone étudiée, par exemple :

• analyse visuelle de la zone dans Google Earth Pro. Google Earth Pro dispose
d’image à très haute résolution spatiale pour une partie sans cesse
grandissante de la planète. Attention toutefois à garder à l’esprit que les
images de Google Earth Pro ne datent probablement pas de la même
période que celle qui fait l’objet de votre étude. Par exemple, la
reconnaissance des types de forêt au Sud de Namur se fait facilement dans
Google Earth (feuillus versus résineux) ;

• cartes topographiques ;

• une enquête de terrain avec relevé GPS ;

• divers documents donnant des informations sur l’occupation du sol de la


zone.

II.2. Prétraitement des images


Ce sont des opérations de correction, des distorsions géométrique et/ou
radiométrique, appliquées aux images pour assurer une bonne qualité du
produit en vue de leur utilisation ultérieure.
Le type et le nombre de niveaux hiérarchiques de prétraitement dépend
évidemment du système de télédétection considéré. La bonne organisation des
niveaux hiérarchiques dans les principaux systèmes de télédétection (Landsat,

13
SPOT, NOAA…) a permis la création des bases de données d'images cohérentes
et fiables.
Les différents types de prétraitement sont :
❖ Étalonnage radiométrique : Consiste à changer les niveaux digitaux aux
valeurs de radiance ou des valeurs de température de brillance pour
obtenir les paramètres géophysiques ou pour comparer les images de
différents capteurs ;

❖ Correction atmosphérique : Prend en considération la contribution du


rayonnement atmosphérique qui arrive au capteur ;

❖ Correction géométrique : consiste à corriger les distorsions dans les


images reçues liées à la courbure et la rotation de la Terre, l’exploration
du capteur et les variations de la plateforme ;
❖ Détection de nuages : Consiste à masquer correctement les pixels
nuageux pour assurer que les paramètres géophysiques obtenus sont
représentatifs de la surface de la terre.

II.2.1. Corrections géométriques


II.2.1.1. Origines des déformations
➢ Déformations liées à l’instrument
- étalonnage du capteur,
- dysfonctionnement de détecteurs,
- défaut d’égalisation entre barrettes,
- angle de visée (si dépointage)
- vitesse de balayage des miroirs rotatifs …

➢ Déformations liées à l’environnement


- rotation de la terre l’image = parallélogramme
- relief …

➢ Déformations liées au vecteur


- variation d’altitude du satellite,
- variation de la vitesse de déplacement,
- attitude (tangage, roulis, lacet) …

14
Exemple : effet de l’angle de
visé

Figure 12 : exemple d’Origines des déformations

III. Méthode de traitement des images


III.1. Indices spectraux
Les systèmes végétaux terrestres fournissent des propriétés de réflectance
uniques du rayonnement reçu et permettent sa caractérisation en utilisant les
techniques de télédétection. Ainsi les indices de végétation sont calculés en
combinant la réflectivité à différentes longueurs d'onde pour discriminer et
extraire des informations de la végétation en minimisant l'influence d’autres
facteurs externes tels que le sol, l'irradiance solaire, la géométrie d’éclairage,
l'observation, etc…
Nous pouvons aussi combiner entre des bandes pour obtenir le paramètre
d'intérêt (végétation, eau, sol nu, etc...) d’où le terme (indices spectraux).

15
Figure 13 : signatures spectrales du sol (en rouge), de l’eau (en bleu ) et de la végétation
(en vert)

III.1.1. Indice de végétation NDVI


Le NDVI est un indice qui se définit comme la différence normalisée des mesures
de réflectance spectrale acquises dans les zones de longueurs d’onde « Proche
Infra-Rouge » (PIR) et « Rouge »
𝑃𝐼𝑅 − 𝑅𝑜𝑢𝑔𝑒
𝑁𝐷𝑉𝐼 =
𝑃𝐼𝑅 + 𝑅𝑜𝑢𝑔𝑒
Les valeurs de NDVI s’étendent de -1 à 1. La végétation dense et active présente
des fortes valeurs de NDVI, alors que les zones non végétalisées présentes des
valeurs basses.
En pratique, une surface d’eau libre (océan, lac,…) prend des valeurs de NDVI
proches de 0, un sol nu prend des valeurs de 0.1 à 0.2, alors qu’une végétation
dense prenne des valeurs de 0.5 à 0.8.

16
Figure 14 : indices de végétation (NDVI)

Quelques indices de végétation

IV. Etude du changement

17
D’une manière générale, l’utilisation de la télédétection dans le cadre des études
de l’occupation des sols est assez récurrente. Son efficacité semble indéniable
pour étudier l’évolution spatiotemporelle de phénomènes naturels ou
anthropiques, et la précision grandissante des images obtenues par les capteurs
ne font qu’améliorer les résultats. Ainsi, l’occupation du sol peut non seulement
être observée, mais elle peut surtout être extraite grâce à différents traitements
(classification) basés sur la réponse spectrale des pixels.

III.2. Classification d'images multispectrales : approche pixel


Classifier une image en télédétection consiste à rassembler l'ensemble des pixels
de l’image en un nombre limité de classes correspondant aux grands éléments
structuraux de l'image, c'est donc établir une cartographie de l'image en
s'appuyant sur les valeurs radiométriques des pixels.
Il existe différents types de méthodes de classifications :
• supervisée : l’opérateur défini lui-même les classes à produire (nombre,
caractéristique spectrale, …) ;
• non-supervisée : le logiciel défini lui-même les classes ;
• par pixel : chaque pixel est classifié individuellement et
indépendamment des pixels voisins ;
• par objet : l’image est d’abord découpée en objet (1 objet = 1 ensemble
de pixels voisins spectralement homogène) au cours d’une étape de «
segmentation ». Ensuite, les caractéristiques de ces objets sont utilisées
pour les classifier.

III.2.1. Classifications non supervisées


La classification non-supervisée est un processus de classification (groupement
de pixels ayant des caractéristiques communes) basé sur l’analyse d’une image
sans que l’utilisateur ne fournisse d’échantillons de classe. Le logiciel utilise un
algorithme permettant de déterminer quels pixels sont liés puis regroupés en
classes. L’utilisateur peut spécifier quel algorithme utiliser, ainsi que le nombre
de classes souhaité. Cependant l’utilisateur doit avoir une connaissance de la
zone afin de pouvoir associer les classes produites à la réalité de l’occupation du
sol (tel que les zones humides, aires urbaines, forêt de feuillus, etc.)

18
Avantage : processus totalement automatique (a priori)
Inconvénient : impossible de savoir à l’avance le nombre de classes nécessaires,
car pas d’expertise en entrée
Algorithmes : K-Means, ISODATA, etc.

III.2.2. Classifications supervisées


La classification supervisée est basée sur le principe que l’utilisateur peut
sélectionner des échantillons de pixels dans une image qui sont représentatifs
de classes spécifiques, permettant de guider l’algorithme par l’utilisation de ces
zones d’entraînement en tant que références pour la classification de l’ensemble
des pixels de l’image. La sélection de ces zones d’entraînement est basée sur la
connaissance de l’utilisateur.
Avantage : l’expertise en entrée afin de guider l’algorithme peut donner lieu à
de hautes performances, forts développements dans les techniques de machine
learning.

Inconvénient : processus pas totalement automatique (semi-automatique), la


performance dépend grandement de la qualité des échantillons de départ.
Avantage principal : l’algorithme travaille pour vous en analysant les différentes
dimensions spectrales. Votre contribution est de sélectionner des échantillons
de pixels … ce qui peut être automatisé s’ils sont sélectionnés dans une base de
données existante.

19
Figure 15 : comparaison en théorie des deux types de méthodes de classification

Comparaison des deux classifications

Figure 16 : exemple de comparaison des deux classifications


20
IV. Evaluation des résultats et restitution cartographique
IV.1. Evaluation de la qualité d’une classification, indice Kappa
L’évaluation de la précision du processus de classification est effectuée par le
calcul de :
• La matrice de confusion en utilisant le même jeu d’entraînement ou un jeu
de validation ;
Exemple : 2,385 échantillons bien classés en Asphalt.

• Les mesures de performance / métriques : erreur de commission


(précision), erreur d’omission (rappel), Précision globale (OA), indice
Kappa (0 à 1).

-Matrice de confusion
Une matrice de confusion permet de mesurer la précision d’un résultat de
classification en comparant un résultat de classification avec la « vérité terrain ».
Cette vérité terrain peut se présenter sous la forme de « région d’intérêt – vérité
terrain » ou d’une « image-vérité-terrain ».
La matrice de confusion est constituée d’informations confusion dont les lignes
correspondent aux données d’observations (ou terrain) et les colonnes aux
données de la classification.

Figure 17 : exemple d’une matrice de confusion

21
Deux indices de la matrice de confusion : un indice global de précision et un
indice Kappa, couramment utilisés, permettent d'évaluer la qualité de la
classification
-La précision globale est calculée en sommant le nombre de pixels correctement
classifiés et en divisant le tout par le nombre total de pixels évalués. Les nombre
de pixels bien classés est indiqué dans la diagonale de la matrice de confusion.
Le nombre total de pixels évalués correspond à la somme de la ligne/colonne des
totaux. Une valeur minimale de l'indice global de précision généralement
acceptée pour valider une classification est de 85% (Foody et al., 2002 ; Arvor
2009; Bill 2018).
-L’indice kappa mesure l’accord entre la classification et la “réalité terrain”. Une
valeur de kappa de 1 représente un accord parfait, alors qu’une valeur de zéro
indique qu’il n’y a aucun accord. L'indice Kappa de 0,75 signifie que 75% de la
classification des pixels ne sont pas dûs au hasard.(Girard et al., 1999 ; Arvor
2009 ; Bill 2018).

Deux autres indices, nous avons cité précédemment permettant de valider une
classification :
L’erreur de commission (précision) représente la part des pixels attribués à une
classe mais qui en réalité n’y appartient pas. C’est une mesure des faux positifs.
Les erreurs de commission apparaissent dans les lignes de la matrice, exceptées
les valeurs situées dans la diagonale.

Exemple : Asphalte (4 + 0 + 1 + 4) / 2394 = 0.0038 (0,4%)

Figure 18 : exemple d’une matrice de confusion


22
L’erreur d’omission (rappel) représente la part des pixels qui appartiennent à
une classe mais qui sont attribués à une classe différente. C’est une mesure des
faux négatifs. Les erreurs d’omission sont visibles dans les colonnes de la
matrice, exceptées les valeurs situées dans la diagonale.
Exemple : Asphalte (0 + 0 + 0 + 12) / 2397 = 0.0050 (0,5%)

IV.2. Habillage et restitution cartographique


Il s’agit de préparer le document cartographique final à partir de la
classification retenue :
▪ Instructions linéaires et ponctuelles de la classification retenue ;
▪ Organisation de la légende ;
▪ Désignation des lieux ;
▪ Ajouts d’informations complémentaires (titre, échelle, source d’auteur …).

Figure 19 : exemple d’une carte thématique classée

23

Vous aimerez peut-être aussi