Vous êtes sur la page 1sur 3

L’IR -> l’eau devient toute noire car est absorbé par l’eau Actifs -> pas le soleil

Actifs -> pas le soleil qui illumine, c’est le capteur lui-même


La chlorophylle va renvoyer l’infrarouge et donc les arbres paraissent blancs Exemple : photos avec un flash -> on envoie la lumière et on reçoit une lumière en retour aussi
λ [m]: (lambda) longueur d’onde = distance entre deux pics Résolution spatiale: densité des pixels et focal optique.
ν [1/s]: (nu) fréquence à laquelle on voit passer les pics Résolution temporelle: la fréquence à laquelle de nouvelles images d’un endroit donné sont prises.
c: vitesse de la lumière (3*10^8 m/s) Résolution radiométrique: le nombre de niveaux d’intensité pour chaque bande. 8-bit, 16-bit, etc.
Q : énergie (J) Résolution spectrale: le nombre de zones du spectre couvertes.
h :cst Plank Angle de vision constant (Instantaneous Field Of View, IFOV). L’IFOV définit la taille du pixel.
Onde courte -> énergie forte
Onde longue (comme radio) -> énergie extrêmement faible
corps noir absorbe 100% de l’énergie reçue  il est donc noir
Il ne reflète rien
N’ont pas d’autres signature que la température à laquelle ils sont
Loi de Wien (pour les black body)

Plus on est chaud plus ça passe de rouge à bleu


Car les longueurs d’ondes deviennent plus petites (dans le bleu) et dégagent donc plus d’énergie
Si emissivité = 1 -> corps noir, si = très loin d’un corps noir
Flux incident=irradiance: quantifie l’énergie incidente qui
arrive sur une surface [W/m2].
Si trop peu d’énergie arrive au capteur, le signal est si faible que le bruit électronique domine
Exitance ou émittance: flux lumineux total émis ou
S/N ratio: S/N = intensité du signal / intentité du bruit
réfléchi par un objet [W/m2].
augmenter S/N: – Augmenter l’IFOV
Réflectance α : proportion du flux incident réfléchi par
– Augmenter le temps de la mesure -Augmenter la largeur spectrale mesurée
une surface [%]. Aussi appelé albédo en climatologie.
orbite circulaire: excentricité nulle, différentes altitudes et inclinaisons possibles.
Absorbance o (facteur d’absorbance): quantifie la proportion d’énergie absorbée par rapport au flux incident.
Orbite géostationnaire: la période est d’un jour et le satellite est toujours au zénith du même point sur Terre.
Transmittance τ (facteur de transmission): quantifie la proportion d’énergie transmise [%].
L'orbite géostationnaire permet des observations focalisées sur une région particulière
Emissivité ε: quantifie l’énergie émise par rapport à un corps noir de même température [%].
Orbite héliosynchrone : le satellite passe toujours à la même heure solaire en un même point de la Terre.
Corps noir -> est complétement lambertien (réflexion dans toutes les directions)
L'orbite héliosynchrone permet des observations dans des conditions d'éclairage constantes
Energie transmise = 1- energie absorbée
Orbite Molniya -> pour observer les pôles
Diffusion de Rayleigh
Landsat -> Principal programme américain d’observation terrestre
Causée par les particules plus petites que λ.
8 satellites lancés entre 1972 et 2013. Observations multispectrales globales.
Rayleigh = 1 /^4
Résolution: 15 m panchromatique, 30m multispectral, 100m thermal.
Molécules d’air, très fines
SPOT «Satellite Pour l’Observation de la Terre» Orbite héliosynchrone presque polaire.
cette diffusion est beaucoup plus forte pour les longueurs d’onde courtes.
capteurs digitaux convertissent le signal continu en un signal discret -> discrétisation. Implique une
-> cause du ciel bleu Transformation de Brovey :
perte d’information, Résolution radiométrique = nombre de niveaux d’intensité pour chaque bande
Coucher/lever de soleil: plus d’atmosphère à traverser
Une image est une matrice de DNs: Digital Numbers.
Diffusion des plus grandes longueurs d’onde (orange, rouge)
En couleurs, 3 valeurs par pixel (RVB).
Diffusion de Mie
Pour un pixel -> il se peut qu’il y ait des hétérogénéités et notre capteur n’est pas capable de le voir il va moyenner ce qu’il se passe
Causée par les particules de taille égale ou supérieure à λ.
on a un grand pixel, plus on va moyenner les choses
Mie ~ 1/ (causée par la vapeur d’eau, les aérosols et la pollution)
Filtre de bayer -> dans chaque pixel, on a un capteur qui va prendre toutes les longueurs d’onde et
Énergie incidente = énergie reflétée + absorbée + transmise
le filtre va laisser passer que les longueur d’onde rouge et donc les autres longueur d’onde vont être renvoyées. Donc on a des capt
Bilan énergétique = énergie reflétée – (E absorbée + E transmise)
sensibles au vert, au bleu et au rouge
Une analyse en composante principales ACP génère de nouvelles représentations de l'information appelées
Le pansharpening par transformation de Brovey implique des opérations algébriques sur les images à différentes résolutions
composantes principales, en faisant des combinaisons linéaires des bandes existantes
Flux incident = flux mesuré/réflectance (18%) La température irradiée d'un objet est toujours inférieure ou égale à la température cinétique
2types de capteurs : Les longueurs d'onde vertes sont davantage réfléchies par la végétation saine que les autres parties du spectre
Passifs -> n’emmètent rien, ne font que mesurer l’intensité de la lumière qui arrive sur eux Visible
Soleil est en général la plus grande source de lumière pour les capteurs passifs Une opération de pansharpening permet de combiner une image multispectrale de basse résolution spatiale et
Seul problème -> les conditions d’illumination, atmosphèriques une image panchromatique de haute résolution spatiale

On a dans la matrice deux fois plus de vert que les autres couleurs -> c’est du au
fait que notre œil est beaucoup plus sensible au vert Interpolation : Plus proche voisin, linaire, Bilinéaire, Bicubique
1.On attribue au pixel cible la valeur du point le + proche dans l’image transformée
2.On prend la valeur intermédiaire, avant la classification, Splines Classification -> passage d’une image en variable continue vers une image catégorique.
3.en 2D, génération de nv de gris intermédiaire rendent l’image floue, 4.plus utilisé Variable continue: p.ex. 1.2 3.5 4.0 4.1 6.2 Variable discrète: p.ex. 1 2 5 8 12
Codage en bits Plus on a de bits d’information, plus notre image est grosse Variable catégorique: p.ex. A B C D
Avec 1 bit d’information par pixel, on a 2 possibilités: 0 ou 1 (noir/blanc). La classification est une perte d’information, l’information inutile est enlevée ->l’information utile reste
Avec 2 bits d’information par pixel, on a 4 possibilités: 00, 01, 10 ou 11 (4 niveaux de gris). Classification supervisée/assistée -> utilise des données supplémentaires souvent, les valeurs spectrales sont utilisées
Le nombre d’états possibles est 2nb_bits ,Il est courant d’avoir 8 bits (=256 niveaux par pixel). comme base pour définir la classification.
Prendre plusieur images (temps d’exposition long) et les mettre ensemble on va faire disparaître Selection d’exemples d’apprentissage -> Entraînement du model -> Prédiction sur l’image
les éléments mobiles -> même chose avec les nuages -> image nettoyée Classification non-supervisée/non-assistée Opération purement statistique, sans intervention humaine.
Sattelite qui ont une grande fréquence permettent d’avoir une image nettoyée La plupart du temps basée sur les informations multi- ou hyperspectrales.
°C + 273 = K -> positions dans un espace spectral
Multispectral (quelques bandes) / hyperspectral (bcp de bandes) K-means (mean = moyenne, centroïde) L'algorithme de classification par k-means procède par itérations
Principale différence : la résolution spectrale s’agit d’un algorithme de classification non-supervisée, basé sur le calcul de distances dans le feature space.
Hyperspectral-> toute la meme largeur pour avoir un spectre continu Seul paramètre à définir: le nombre de catégories, k.
MNT = model numérique de terrain, Model de terrain -> tjr 2D Coefficient de kappa va comparer notre classification avec une classification aléatoire
photogrammétrie = permet d’obtenir des mesures spatiales et géométriques à partir de photos Si notre classification est meilleur qu’une classification aléatoire -> alors le coefficient de kappa sera élevé
Raster -> une grille et dans chaque case on a un nombre -> on a partout de l’information Le rapport entre deux erreurs -> donne le coefficient de kappa
Pour chaque pixel on aura un digital number qui sera pas une couleur, pas une bande spectrale Érosion = quand on enlève une couche de pixel à notre objet -> peut être utile pour enlever du bruit sur une image
mais qui sera une altitude Pansharpening = prendre l’information des bandes à haute résolution pour augmenter la résolution des autres bandes.
échelle = f/H − hmoyen Filtre : sont des convolutions qui visent à réduire le bruit ou mettre en évidence certaines propriétés de l’image.
projection orthographique -> pas de déplacement horizontaux On multiplie tous les pixels du premier carré par les pixels du deuxième carré puis faire la somme puis on met le résultat dans le pix
diff d’échelle sont corrigées central et on va avoir une nouvel image qui va être crééeMais on peut pas aller au bord -> donc ça va faire une image qui
projection perspective -> infos passent par un seul point focal est plus petite Si le noyau est uniforme -> ça devient une moyenne mobile
Déplacement : d = rh/H -> dans la fenêtre on va faire une moyenne de toutes les valeurs et on va mettre le résultat au centre -> un filtre anti-bruit
-> d plus grd pour les objets hauts -> on va rendre l’image beaucoup plus lisse
-> moins de distorsion -> perte de résolution Filtres low-pass (=passe-bas): mettent en valeur les basses fréquences.
Hauteur : h= dH/r Aire au sol = Aire photo 1/ (échelle)2 Filtres high-pass(=passe-haut): mettent en valeur les hautes fréquences. mettre en évidence les
Parallaxe : différents points d’observation -> changement de position relative des objets observés petits détails , changement rapide d’un pixel à l’autre
(pour 3D) mesurer l’emplacement des points de vue On commence par faire un filtre low-pass -> on va obtenir une image toute floue -> on voit les parties
Référencement direct: on peut connaitre les coordonnées de l’appareil photo (GPS + station inertielle). claires des parties sombres Puis on prend l’image d’origine et on soustrait l’image qu’on à eu avec le low-pass
Référencement indirect: on peut repérer des points au sol (GPS) et mesurer leur décalage Bruit aléatoire de type «poivre et sel»
dans les images. Peut souvent être corrigé par un filtre low-pass.
télémètre: on envoie un faisceau laser et on mesure le temps de retour du signal Compression informatique : on va faire en sorte que la même donnée prenne moins de place sur un disque dur
Lidar la même chose, mais en faisant des milliers de mesures à la seconde, dans différentes Compression sémantique : on va exprimer la même information en moins de mots, en disant moins de choses
directions. (mesure active) HSL permet d’isoler la luminosité des autres composantes
Lidar : Seule méthode capable de séparer le couvert végétal de la topographie. RADAR: Radio Detection and Ranging (rappel: LIDAR signifie Laser Detection and Ranging).
GPS = Global Positioning System Mesure active
4 sattelites nécessaires vue par 1 point au sol on émet des «pulses» d’ondes radio dans une direction donnée, puis on observe les ondes réfléchies (écho) qui nous donnent une
Avec 1 satellite, on connait sa position sur une sphère. information sur la surface cible.
Avec 2 satellites, on connait sa position sur un cercle (intersection de 2 sphères). Dans le domaine des micro-ondes
3 satellites -> position réduite à 2 points possibles (serait suffisant si horloges synchronisées) L’avantage -> elles peuvent traverser l’atmosphère sans être perturbé
Clock biais -> manque de synchronisation entre horloge du satellite et horloge receveur ~ / longueur d'antenne
Horloge du receveur est ajustée jusqu’à que les 4 sphères aient un point d’intersection Une orthophoto est une image qui a été recalée sur une carte de géographie ou une photo référencée.
Sources d’erreurs : infos basique envoyée de façon non-focalisée sur une grande surface Une orthophoto est une photo dont les déformations géométriques ont été corrigées.
Petites erreurs dans l’orbite, Conditions atm qui fausses Fenêtre atmosphérique -> c’est une partie du spectre ou l’atmosphère laisse traverser les ondes électromagnétiques
GPS différentiel (DGPS) Diffusion: ondes réfléchies par de petites particules. Rend une image floue. Information dégradée.
Correction par rapport au point de référence X’ Y’ Z’ , est appliquée aux autres points. Absorption: ondes converties en chaleur. Information perdue.
Précision centimétrique, voire millimétrique Pour qu’une longueur d’onde électromagnétique soit observable, il faut:
NDVI: Normalized Difference Vegetation Index -> Une émission dans cette longueur.-> Une fenêtre atmosphérique.-> Un capteur approprié à cette longueur d’onde.
Si infrarouge haut -> végétation Si infrarouge bas -> pas de la végétation En général, plus la résolution spatiale d'un capteur est haute, plus il peut mesurer de bandes spectrales
La caractéristique typique de la végétation en croissance est le «saut» entre rouge et NIR. Une charte grise reflète la même proportion d'énergie dans toutes les longueurs d'onde de la plage visible
Ratio Vegetation Index: (entre 0 et infini) Vegetation Index Number: (entre 0 et infini) Une charte grise permet de mesurer la lumière émise par un objet
RVI= R /NIR VIN = NIR/ R Les longueurs d'onde bleues sont moins absorbées par l'eau que les autres parties du spectre visible
NDVI = NIR − R / NIR + R (le plus utilisé valeurs entre -1 et 1) feature space est une représentation des valeurs des pixels en autant de dimensions qu'il y a de bandes spectrales.
NDWI: Normalized Difference Water Index NDWI = VERT − NIR /VERT + NIR (valeurs =<0) Érosion = Si tous les pixels qui sont dans le filtre sont blanc, le pixel central sera blanc dans l’image érodée.
Leaf Area Index LAI = surface des feuilles / surface du sol (entre 0 (sol nu) et plus de 10 (conifères) ) Dilatation = Si au moins un des pixels qui sont dans le filtre est blanc, le pixel central sera blanc dans l’image dilatée.
Fermeture = Dilatation, qui fait que les objets creux se ferment, suivi d’une érosion, qui rétablit le contour des grands objets
Ouverture = Érosion, qui détruit le bruit, suivi de la dilatation, qui rétablit les contours des grands objets.

Vous aimerez peut-être aussi