Académique Documents
Professionnel Documents
Culture Documents
On a dans la matrice deux fois plus de vert que les autres couleurs -> c’est du au
fait que notre œil est beaucoup plus sensible au vert Interpolation : Plus proche voisin, linaire, Bilinéaire, Bicubique
1.On attribue au pixel cible la valeur du point le + proche dans l’image transformée
2.On prend la valeur intermédiaire, avant la classification, Splines Classification -> passage d’une image en variable continue vers une image catégorique.
3.en 2D, génération de nv de gris intermédiaire rendent l’image floue, 4.plus utilisé Variable continue: p.ex. 1.2 3.5 4.0 4.1 6.2 Variable discrète: p.ex. 1 2 5 8 12
Codage en bits Plus on a de bits d’information, plus notre image est grosse Variable catégorique: p.ex. A B C D
Avec 1 bit d’information par pixel, on a 2 possibilités: 0 ou 1 (noir/blanc). La classification est une perte d’information, l’information inutile est enlevée ->l’information utile reste
Avec 2 bits d’information par pixel, on a 4 possibilités: 00, 01, 10 ou 11 (4 niveaux de gris). Classification supervisée/assistée -> utilise des données supplémentaires souvent, les valeurs spectrales sont utilisées
Le nombre d’états possibles est 2nb_bits ,Il est courant d’avoir 8 bits (=256 niveaux par pixel). comme base pour définir la classification.
Prendre plusieur images (temps d’exposition long) et les mettre ensemble on va faire disparaître Selection d’exemples d’apprentissage -> Entraînement du model -> Prédiction sur l’image
les éléments mobiles -> même chose avec les nuages -> image nettoyée Classification non-supervisée/non-assistée Opération purement statistique, sans intervention humaine.
Sattelite qui ont une grande fréquence permettent d’avoir une image nettoyée La plupart du temps basée sur les informations multi- ou hyperspectrales.
°C + 273 = K -> positions dans un espace spectral
Multispectral (quelques bandes) / hyperspectral (bcp de bandes) K-means (mean = moyenne, centroïde) L'algorithme de classification par k-means procède par itérations
Principale différence : la résolution spectrale s’agit d’un algorithme de classification non-supervisée, basé sur le calcul de distances dans le feature space.
Hyperspectral-> toute la meme largeur pour avoir un spectre continu Seul paramètre à définir: le nombre de catégories, k.
MNT = model numérique de terrain, Model de terrain -> tjr 2D Coefficient de kappa va comparer notre classification avec une classification aléatoire
photogrammétrie = permet d’obtenir des mesures spatiales et géométriques à partir de photos Si notre classification est meilleur qu’une classification aléatoire -> alors le coefficient de kappa sera élevé
Raster -> une grille et dans chaque case on a un nombre -> on a partout de l’information Le rapport entre deux erreurs -> donne le coefficient de kappa
Pour chaque pixel on aura un digital number qui sera pas une couleur, pas une bande spectrale Érosion = quand on enlève une couche de pixel à notre objet -> peut être utile pour enlever du bruit sur une image
mais qui sera une altitude Pansharpening = prendre l’information des bandes à haute résolution pour augmenter la résolution des autres bandes.
échelle = f/H − hmoyen Filtre : sont des convolutions qui visent à réduire le bruit ou mettre en évidence certaines propriétés de l’image.
projection orthographique -> pas de déplacement horizontaux On multiplie tous les pixels du premier carré par les pixels du deuxième carré puis faire la somme puis on met le résultat dans le pix
diff d’échelle sont corrigées central et on va avoir une nouvel image qui va être crééeMais on peut pas aller au bord -> donc ça va faire une image qui
projection perspective -> infos passent par un seul point focal est plus petite Si le noyau est uniforme -> ça devient une moyenne mobile
Déplacement : d = rh/H -> dans la fenêtre on va faire une moyenne de toutes les valeurs et on va mettre le résultat au centre -> un filtre anti-bruit
-> d plus grd pour les objets hauts -> on va rendre l’image beaucoup plus lisse
-> moins de distorsion -> perte de résolution Filtres low-pass (=passe-bas): mettent en valeur les basses fréquences.
Hauteur : h= dH/r Aire au sol = Aire photo 1/ (échelle)2 Filtres high-pass(=passe-haut): mettent en valeur les hautes fréquences. mettre en évidence les
Parallaxe : différents points d’observation -> changement de position relative des objets observés petits détails , changement rapide d’un pixel à l’autre
(pour 3D) mesurer l’emplacement des points de vue On commence par faire un filtre low-pass -> on va obtenir une image toute floue -> on voit les parties
Référencement direct: on peut connaitre les coordonnées de l’appareil photo (GPS + station inertielle). claires des parties sombres Puis on prend l’image d’origine et on soustrait l’image qu’on à eu avec le low-pass
Référencement indirect: on peut repérer des points au sol (GPS) et mesurer leur décalage Bruit aléatoire de type «poivre et sel»
dans les images. Peut souvent être corrigé par un filtre low-pass.
télémètre: on envoie un faisceau laser et on mesure le temps de retour du signal Compression informatique : on va faire en sorte que la même donnée prenne moins de place sur un disque dur
Lidar la même chose, mais en faisant des milliers de mesures à la seconde, dans différentes Compression sémantique : on va exprimer la même information en moins de mots, en disant moins de choses
directions. (mesure active) HSL permet d’isoler la luminosité des autres composantes
Lidar : Seule méthode capable de séparer le couvert végétal de la topographie. RADAR: Radio Detection and Ranging (rappel: LIDAR signifie Laser Detection and Ranging).
GPS = Global Positioning System Mesure active
4 sattelites nécessaires vue par 1 point au sol on émet des «pulses» d’ondes radio dans une direction donnée, puis on observe les ondes réfléchies (écho) qui nous donnent une
Avec 1 satellite, on connait sa position sur une sphère. information sur la surface cible.
Avec 2 satellites, on connait sa position sur un cercle (intersection de 2 sphères). Dans le domaine des micro-ondes
3 satellites -> position réduite à 2 points possibles (serait suffisant si horloges synchronisées) L’avantage -> elles peuvent traverser l’atmosphère sans être perturbé
Clock biais -> manque de synchronisation entre horloge du satellite et horloge receveur ~ / longueur d'antenne
Horloge du receveur est ajustée jusqu’à que les 4 sphères aient un point d’intersection Une orthophoto est une image qui a été recalée sur une carte de géographie ou une photo référencée.
Sources d’erreurs : infos basique envoyée de façon non-focalisée sur une grande surface Une orthophoto est une photo dont les déformations géométriques ont été corrigées.
Petites erreurs dans l’orbite, Conditions atm qui fausses Fenêtre atmosphérique -> c’est une partie du spectre ou l’atmosphère laisse traverser les ondes électromagnétiques
GPS différentiel (DGPS) Diffusion: ondes réfléchies par de petites particules. Rend une image floue. Information dégradée.
Correction par rapport au point de référence X’ Y’ Z’ , est appliquée aux autres points. Absorption: ondes converties en chaleur. Information perdue.
Précision centimétrique, voire millimétrique Pour qu’une longueur d’onde électromagnétique soit observable, il faut:
NDVI: Normalized Difference Vegetation Index -> Une émission dans cette longueur.-> Une fenêtre atmosphérique.-> Un capteur approprié à cette longueur d’onde.
Si infrarouge haut -> végétation Si infrarouge bas -> pas de la végétation En général, plus la résolution spatiale d'un capteur est haute, plus il peut mesurer de bandes spectrales
La caractéristique typique de la végétation en croissance est le «saut» entre rouge et NIR. Une charte grise reflète la même proportion d'énergie dans toutes les longueurs d'onde de la plage visible
Ratio Vegetation Index: (entre 0 et infini) Vegetation Index Number: (entre 0 et infini) Une charte grise permet de mesurer la lumière émise par un objet
RVI= R /NIR VIN = NIR/ R Les longueurs d'onde bleues sont moins absorbées par l'eau que les autres parties du spectre visible
NDVI = NIR − R / NIR + R (le plus utilisé valeurs entre -1 et 1) feature space est une représentation des valeurs des pixels en autant de dimensions qu'il y a de bandes spectrales.
NDWI: Normalized Difference Water Index NDWI = VERT − NIR /VERT + NIR (valeurs =<0) Érosion = Si tous les pixels qui sont dans le filtre sont blanc, le pixel central sera blanc dans l’image érodée.
Leaf Area Index LAI = surface des feuilles / surface du sol (entre 0 (sol nu) et plus de 10 (conifères) ) Dilatation = Si au moins un des pixels qui sont dans le filtre est blanc, le pixel central sera blanc dans l’image dilatée.
Fermeture = Dilatation, qui fait que les objets creux se ferment, suivi d’une érosion, qui rétablit le contour des grands objets
Ouverture = Érosion, qui détruit le bruit, suivi de la dilatation, qui rétablit les contours des grands objets.