Académique Documents
Professionnel Documents
Culture Documents
Implica el análisis de imágenes que son procesadas e interpretadas para producir datos
que pueden aplicarse en agricultura, Geología, Geografía, Oceanografía y Ecología,
entre otros fines.
La Teledetección (Remote Sensing) es, por tanto, una disciplina científica que integra
un amplio conjunto de conocimientos y tecnologías utilizadas para la observación, el
análisis y la interpretación de fenómenos terrestres y planetarios.
La Teledetección involucra dos
procesos básicos:
Tiene lugar el lanzamiento del LANDSAT4, SIR-A, SIR-B y MOMS en 1983. El ERS-1
es lanzado en 1991. El LANDSAT 7-ETM es puesto en órbita en 1998.
Todos los cuerpos u objetos (seres vivos, planetas u objetos inanimados) emiten
radiación electromagnética. La cantidad y tipo de radiación que emiten depende
básicamente de su comportamiento al contacto con la luz y de su temperatura.
El mayor emisor de esta radiación
en el Sistema Solar es el Sol, y la
radiación que refleja la Tierra y los
objetos situados en ella es la que se
utiliza comúnmente en
Teledetección.
La onda se puede describir en los términos de la longitud de onda (), que es la distancia
de la separación entre las crestas adyacentes de la onda, o de su frecuencia (f), que es
el número de los picos de la onda que pasan por un punto fijo en una unidad de tiempo.
Se relacionan como:
f = C
Donde C es la velocidad de
la luz. La ecuación descrita
muestra que la frecuencia
varía
inversamente con la
longitud de onda y
directamente con la
velocidad de la
propagación de la onda.
En Teledetección, la radiación electromagnética se clasifica en espectros
electromagnéticos o regiones debido a que las longitudes de onda dentro de esas
regiones presentan cierta homogeneidad en determinados aspectos. El espectro
electromagnético, se extiende desde las longitudes de onda más cortas (incluyendo los
rayos gamma y los rayos-X) hasta las longitudes de onda más largas (incluyendo
microondas y las ondas de radio). Hay varias regiones del espectro electromagnético
que son útiles para la percepción remota.
En la figura se muestran los rangos aproximados de cada región del espectro. Para la
región del visible la radiación solar tiene más importancia que la terrestre y para la
región del infrarrojo es más importante la radiación terrestre debido a que ésta se basa
en el calor presente en los objetos.
La porción ultravioleta (UV) está sólo más allá de la porción violeta de las longitudes de
onda visibles. Algunos materiales de la superficie de la Tierra, sobre todo rocas y
minerales, despiden luz fluorescente o emiten la luz visible cuando son iluminados por
la radiación UV.
+ La dispersión de Rayleigh:
Ocurre cuando las partículas son muy pequeñas en relación con la longitud de onda de
la radiación. La dispersión de Rayleigh es inversamente proporcional a la cuarta potencia
de la longitud de onda, lo que ocasiona que las longitudes de onda más cortas de la
radiación sean dispersadas mucho más que las longitudes de onda más largas.
La dispersión de Rayleigh es el
mecanismo dominante de dispersión en
la atmósfera superior. Mientras que la luz
del Sol pasa a través de la atmósfera, las
longitudes de onda más cortas del
espectro visible (por ejemplo, el azul) se
dispersan más que las otras longitudes
de onda (más largas) visibles. En la
salida del Sol y la puesta del Sol la luz
tiene que viajar más lejos a través de la
atmósfera que al mediodía, y la
dispersión de las longitudes de onda más
cortas es más completa; esto deja que
una mayor proporción de las longitudes
de onda más largas penetren en la
atmósfera.
La dispersión de Mie ocurre cuando las partículas que están presentes, tienen los
diámetros casi iguales a la longitud de onda de la radiación. La dispersión de Mie
tiende a afectar longitudes de onda más largas que las afectadas por la dispersión de
Rayleigh. La dispersión de Mie ocurre sobre todo en las porciones más bajas de la
atmósfera, donde son más abundantes las partículas más grandes.
La absorción es el otro mecanismo principal que trabaja cuando la radiación
electromagnética interactúa con la atmósfera. En contraste con la dispersión, este
fenómeno es provocado en la atmósfera, por las moléculas que absorben energía en
las diferentes longitudes de onda.
El ozono absorbe la radiación ultravioleta dañina (las longitudes de onda más cortas
que 0,3 mm) del Sol. El bióxido de carbono tiende a absorber fuertemente la radiación
en la porción infrarroja del espectro (termal). El vapor de agua en la atmósfera absorbe
mucha de la radiación que ingresa de las ondas largas infrarrojas y las ondas cortas de
microondas (entre 22 mm y 1 mm).
• Ventanas atmosféricas.
Las áreas del espectro que no son seriamente influenciadas por la absorción
atmosférica, (áreas espectrales, en donde la radiación es totalmente transmitida a
través de la atmósfera), son usadas por los sensores remotos, y son llamadas ventanas
atmosféricas.
La energía total
incidente podría
interactuar con la
superficie en una o más
de estas tres vías. Las
proporciones de cada
una dependerán de la
longitud de onda de la
energía, del material y
condición de la
fisonomía.
Aplicando el principio de conservación de la energía obtenemos que:
-Longitudes de onda.
El patrón de reflectancia de la
vegetación verde en las longitudes de
onda del visible es debido a la
absorción selectiva de la clorofila. La
característica más notoria del
espectro vegetacional es el dramático
aumento en reflectancia a través de
la frontera del visible- infrarrojo
cercano, y la alta reflectancia del
infrarrojo cercano.
Los sensores electrónicos generan una señal eléctrica con una fuerza proporcional a
la cantidad de energía recibida. La señal desde cada detector en una serie es
registrada y transmitida electrónicamente en forma digital como una serie de números.
Una imagen de una serie de sensores electrónicos consiste de una grilla rectangular
de dos dimensiones de valores numéricos que representan diferentes niveles de
luminosidad. Cada valor representa el promedio de luminosidad para una porción de
la superficie, representada por unidades areales cuadradas en la imagen (píxel).
La mayoría de los
sistemas satelitales usan
desde tres a seis bandas
espectrales en los
rangos de longitudes de
onda del visible hasta el
infrarrojo medio. Algunos
sistemas también
emplean uno o más
bandas infrarroja
termales.
Imagen
multiespectral
tomada por el
satélite Landsat TM
de un sector del Río
Amazonas en
composición de
falso color.
5.3.3 Resoluciones en una
imagen de sensores remotos.
• Resolución espacial:
Esto es muy importante para evaluar los costos del proyecto dado que, generalmente,
cuanto más detallada es una imagen más cara resulta por unidad de superficie.
La forma es un factor visual que
podemos usar para reconocer e
identificar objetos en una imagen. La
forma es usualmente apreciable sólo si
las dimensiones del objeto son varias
veces más grandes que las
dimensiones de la celda.
++ Un metro:
++ 10 metros:
++ 1 Kílómetro:
++ Aplicaciones Pancromáticas:
++ Aplicaciones Multiespectrales:
Cartografían aspectos del terreno muy sutiles, como tallas y pliegues y permiten
detectar y cartografiar cambios en la superficie terrestre debidos por ejemplo al
crecimiento de la vegetación, a variaciones de la humedad del suelo, actividades
agrícolas o forestales o incluso debidos a movimientos sísmicos.
++ Aplicaciones Aerofotogramétricas:
Aditivo: Con este proceso se obtiene cualquier color, por medio de la suma de los tres
colores primarios (azul, verde y rojo). Si se suman los colores da como resultado un
color complementario y la suma de los tres da el color blanco.
Sustractivo: Este proceso se basa en la absorción de la luz que ejercen los colores
complementarios: el cian absorbe la luz roja, el magenta absorbe el verde y el amarillo
el azul; por lo que la combinación (cian, magenta y amarillo) de los tres genera el negro.
Este manejo de las bandas tiene como función, el de identificar los distintos objetos
que se encuentran en la imagen. Según Tindal (1978) en Chuvieco (“Fundamentos de
Teledetección Ambiental”, 1996) las tonalidades más comunes corresponden a los
siguientes objetos que se pueden determinar en una imagen:
--Blanco: Áreas con poca vegetación, suelos desnudos, nueves, arenas y depósitos
salinos.
--Azul oscuro (negro): Flujos de lava, ríos, presas, lagos y zonas cubiertas por agua.
Así mismo, en áreas con cubiertas nubosas casi constantes como por ejemplo las
selvas tropicales, períodos cortos de visita, es decir altas resoluciones temporales,
aumentan la probabilidad de obtener imágenes satisfactorias.
5.4 Sensores Remotos.
Las características de la imagen registrada dependen en gran medida del tipo de sensor
utilizado y de la distancia al suelo desde la cual se realiza la adquisición de datos.
Permiten capturar información confiable de los objetos sin tener contacto directo con
ellos en superficies extensas. Juegan un papel importante en la construcción de
planos, mapas, planificación territorial y estudios urbanos. La tendencia es hacia el
incremento de su utilización dados el avance tecnológico y su costo razonable.
Las imágenes creadas por los sistemas de percepción pasiva son de mayor valor en
las aplicaciones de Teledetección destinadas a recursos naturales.
Este tipo de sensor suele clasificarse dependiendo del procedimiento que emplean para
recibir la radiación procedente de los objetos. El primer grupo esta constituido por
sensores fotográficos (por ejemplo las cámaras fotográficas), el segundo grupo están
los sensores óptico electrónicos (exploradores de barrido y empuje y las cámaras de
vidicón) y en el tercer grupo los sensores de antena (radiómetros de microondas).
Dentro de ésta categoría cabe una segunda
clasificación:
+ De Barrido (Scanners):
++ Geoestacionarios:
Se desplazan en órbitas
generalmente circulares y
polares (el plano de la órbita
es paralelo al eje de rotación
de la Tierra) de modo que,
aprovechando el movimiento
de rotación terrestre, puede
captar imágenes de
diferentes puntos cada vez
que pase por el mismo punto
de la órbita.
Pasa la latitud 40°N a la hora local del sol 9:30 a.m. 10:30 a.m.
Equipado con:
Thematic mapper No Si
Lanzamientos:
Spot-1, lanzado el 22 de febrero de 1986 (Arianne 1). Se desplazó hacia una órbita más
baja en 2003.
Spot-2, lanzado el 22 de enero de 1990 (Arianne 40). Con una vida útil prevista de 3
años, funcionó durante casi 20 y adquirió 6,5 millones de imágenes, cubriendo 23,400
millones de kilómetros cuadrados.
Es un satélite comercial, el
primero en recoger imágenes con
disponibilidad pública de alta
resolución con un rango entre 1 y
4 m de resolución espacial (1
metro en pancromático y 4 m en
multiespectral de 4 bandas A, V,
R, IrC).
ASTER también presenta un telescopio con visión hacia atrás que escanea en la región
espectral de la banda 3B, lo que nos permite realizar modelos digitales de terreno
(MDT) por pares estereoscópicos.
- NOAA:
Consiste en el procesamiento inicial de los datos crudos para corregir las distorsiones
radiométricas y geométricas de la imagen y eliminar el ruido.
Las distorsiones radiométricas obedecen a mecanismos que alteran los valores de brillo
de los pixeles y se deben fundamentalmente a interferencias atmosféricas y a efectos
asociados a instrumentación.
• Realces:
(estiramiento de contraste y
manipulaciones espectrales).
+ Operaciones locales:
• Estiramiento de contraste:
Los filtros digitales son técnicas que se utilizan para corregir las alteraciones
radiométricas de una imagen modificando los ND originales de la misma con el objeto
de acercarlos a una representación ideal de la realidad.
Procuran aislar los componentes de alta frecuencia en una imagen, remarcando los
contornos entre áreas contiguas evidenciando cualquier discontinuidad (eliminación de
componentes de baja frecuencia que dan continuidad a la imagen y consiguiente resalte
de los bordes y otros detalles afilados).
Existen filtros derivados del análisis de gradientes que permiten remarcar sólo
discontinuidades en un sentido determinado (direccionales) o en todos los sentidos
simultáneamente (no direccionales).
- Estadísticos:
Son útiles para tareas tales como la reducción del nivel de ruido o extracción de
características estructurales.
Algunas de las medidas utilizadas son: media, moda, máximo, mínimo, desviación
estándar, entre otras.
- Filtro de Mediana:
Es un filtro de bajo paso basado en la sustitución del valor central de la matriz por la
del valor medio de los niveles digitales vecinos. El uso de este filtro, aparte de eliminar
ruido de la imagen, también resuelve discontinuidades de una imagen sin destruir la
información general. Los píxeles que no son similares en valor a sus vecinos son
eliminados; la característica de píxeles muy diferentes es una indicación de que la
imagen posee ruido.
- De Gradientes:
Son operaciones mediante las cuales se resaltan cambios significativos de intensidad
a nivel local (detección de bordes).
- Filtro de Roberts:
Es una matriz de filtrado de 2 x 2. Posee la desventaja de ser muy sensible al ruido
por la utilización de pocos píxeles para aproximar al gradiente.
Gx= Componente
Gx= 1 0 Gy= 0 1 horizontal.
Gy= Componente
0 -1 -1 0 vertical.
5.6 Clasificaciones de imágenes de sensores remotos.
Se pasa de tener unos ND continuos medidos por los sensores a una escala nominal
o categórica de manera que cada píxel pertenece a una categoría definida
previamente.
La clasificación no supervisada
consiste en agrupar un conjunto de
objetos, definidos por variables, en
clases, basados en la posesión de
características afines y similitud entre
sí.
Clasificación No Supervisada: K-
Means, 1 iteración, 0.5
- Clasificación supervisada:
La clasificación es supervisada si ya
existe un conjunto de observaciones
clasificadas en un conjunto de clases
dado y se conoce la clase a la que
cada observación pertenece.
2. El proceso en sí de clasificación de
nuevas observaciones o rasgos.
ROI´s:
Azul: Agua (5,629 p)
Amarillo: Cultivos, otros usos (29,886 p)
Blanco: Mancha Urbana, (18,297 p)
Verde: Vegetación con algún grado de calidad y conservación (15, 949 p)
+ Método de Paralelogramo: + Método de Máxima Similitud:
Las imágenes satelitales suelen ser multiespectrales, es decir que son registradas
simultáneamente en varias regiones del espectro electromagnético.
Involucra a las tres bandas visibles y se le asigna a cada una de ellas su verdadero
color, resultando una combinación que se aproxima a los colores naturales de la
escena.
Además, las bandas visibles tienen buena penetración en los cuerpos de agua y esta
combinación permite observar detalles en agua poco profundas (turbidez, corrientes,
batimetría, plumas de sedimentos, etc.).
- RGB 5,4,3:
Constituye una “simulación” del color natural, pese a utilizar 2 bandas infrarrojas.
- RGB 4,3,2:
Esta combinación suele llamarse “falso color infrarrojo” pues los colores resultantes
en la imagen son similares a los de las fotografías obtenidas con film infrarrojo color.
Al asignar el rojo a la banda 4 (IrC) resultará que todos los tonos de rojo, desde el
rojo muy oscuro al rosado pálido corresponden a vegetación
Los tonos más oscuros se relacionan con la presencia de vegetación arbórea densa,
como bosques, montes, etc., pudiéndose identificar algunas especies como pinos y
eucaliptos.
El azul oscuro a negro se relaciona con agua clara en cursos o cuerpos de agua
(partículas en suspensión aparecerán con tonalidades cian).
Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener ciertas
similitudes con la combinación RGB 4,3,2 .
- RGB 7,2,1:
Utiliza las tres bandas menos correlacionadas entre sí. La banda 7 (6), en rojo, cubre
el segmento del espectro electromagnético en el que los minerales arcillosos absorben,
más que reflejar, la energía
La banda 1, en azul, abarca el segmento en el cual los minerales con óxidos de hierro
absorben energía.
- RGB 7,4,2:
- RGB 5,4,3:
- RGB 7,3,1:
Define anomalías de color que generalmente son de color amarillo claro algo
verdoso
La vegetación es verde oscuro a negro, los ríos son negros y con algunas
coloraciones azules a celestes.