Vous êtes sur la page 1sur 95

Percepción Remota (Teledetección).

5.1 Conceptos Fundamentales.

La Percepción Remota (Teledetección) es “la ciencia, técnica y arte de obtener e


interpretar información desde la distancia, usando sensores que no tienen contacto
físico con el objeto que está siendo observado”.

Implica el análisis de imágenes que son procesadas e interpretadas para producir datos
que pueden aplicarse en agricultura, Geología, Geografía, Oceanografía y Ecología,
entre otros fines.

El término de Teledetección está restringido a métodos que emplean la energía


electromagnética como medio de detección y medida de las características de los
objetos. Este tipo de energía incluye: la luz, el calor, las ondas de radio y excluye los
estudios eléctricos, magnéticos y gravimétricos, que miden los campos de fuerza.

La Teledetección (Remote Sensing) es, por tanto, una disciplina científica que integra
un amplio conjunto de conocimientos y tecnologías utilizadas para la observación, el
análisis y la interpretación de fenómenos terrestres y planetarios.
La Teledetección involucra dos
procesos básicos:

1) Adquisición de datos desde


plataformas con sensores
adecuados.

2) Análisis de los datos


mediante dispositivos visuales
o digitales Muchas veces la
información así adquirida se
complementa con datos de
referencia ya existentes de la
región en estudio (mapas de
suelos, estadísticas de
cosechas, planos catastrales,
etc.) Toda esta información es
usualmente combinada en
forma de capas de información
en lo que usualmente se
denomina un SIG (Sistema de
Información Geográfico).
5.1.1 Breve historia.

La Teledetección es una ciencia


aplicada, y como tal, muy
dependiente del estado del
desarrollo tecnológico existente
en cada momento.

Las primeras fotografías aéreas


fueron tomadas en Francia en
1839.

En 1840 se realizaron las


primeras aplicaciones al mapeo
topográfico concebidas por el
director del Observatorio de
París.

En 1858 Gaspard Felix


Tournachon (Nadar) ascendió
sobre París en un globo con el
propósito de mapear la ciudad.
En 1906 G. Lawrence desarrolló en
Estados Unidos un conjunto que
permitía transportar cámaras de hasta
1000 libras y tomó fotos aéreas de los
daños ocasionados por el terremoto de
San Francisco desde una altitud de 600
metros.

Las primeras fotos tomadas desde un


avión las obtuvo Wilbur Wright en 1909
sobre Centrocelli, Italia.
La primera cámara aérea propiamente dicha se
desarrollo durante la I Guerra Mundial en 1915.

Las primeras coberturas de fotografías aéreas,


con la finalidad de hacer levantamientos de
recursos naturales tuvieron lugar en 1930.

Surgen los aparatos de radiometría, que son


sensibles a la radiación infrarroja y se utilizan las
películas infrarrojas con fines militares (detección
de camuflajes) en 1940.

Tienen lugar los primeros experimentos para el


uso de cámaras multiespectrales, en el año de
1944.

De igual manera, se introdujeron nuevos


sensores, como el radar, y se mejoraron los
sistemas de comunicación. La aplicación de
estas innovaciones se desarrollo posteriormente
para usos civiles, desarrollándose las primeras
aplicaciones de esta exploración aérea para el
control y conocimiento de los recursos naturales.
A finales de la década del 50, el desarrollo
de los sistemas de navegación permitió
concebir los primeros ingenios espaciales.
La denominada “Guerra Fría”, dirigió hacia
el espacio el impulso en innoación e
investigación tecnológicas.

Es lanzado el primer satélite artificial


(Sputnik) en el año de 1957. Los
primeros procesamientos ópticos y
digitales, junto con los radares de vista
lateral, surgen en 1961.

En 1962 son desarrollados vehículos


espaciales (tripulados y no tripulados) y se
lanzan los primeros satélites
meteorológicos (primera fotografía orbital
MA-4-Mercury en 1962).

A partir de estos avances, siguen una larga


serie de misiones civiles y militares, que
han permitido no sólo la exploración del
planeta, sino también de la Luna y los
planetas vecinos.
En 1972, el programa Géminis obtiene fotografías orbitales y surgen otros programas
espaciales que contemplan satélites de recursos naturales (SESAT, SPOT, ERS,
LANDSAT).

Tiene lugar el lanzamiento del LANDSAT4, SIR-A, SIR-B y MOMS en 1983. El ERS-1
es lanzado en 1991. El LANDSAT 7-ETM es puesto en órbita en 1998.

La compañía Space-Imaging construye el sistema (IKONOS) con resoluciones


espaciales de 1, 2, 3, 4,8 y 15 metros en el 2001.

En la actualidad se está trabajando en sistemas para la obtención de ortofotografías de


1mm de resolución desde el espacio.
Barret y Curtis (“Introduction to
Environmental Remote Sensing”, 1999)
distinguen siete fases en la historia de la
teledetección:

Pre 1925. Desde los inicios hasta la


finalización de la Primera Guerra Mundial
cuando el valor de las fotografías aéreas
quedó demostrado por su uso militar y
relevamientos
sistemáticos.

1925-45. Las técnicas de interpretación y


mapeo a partir de fotos estereoscópicas
alcanzan gran difusión entre los técnicos
civiles. La segunda guerra mundial provee
de gran ímpetu a la tecnología de las
fotografías aéreas. Los aliados logran un
gran impacto al descubrir (y luego destruir)
las bases secretas alemanas de cohetería
durante la parte final de la guerra sobre la
base de la interpretación de fotografías
aéreas.
1945-55. Las técnicas se difunden aún más y se desarrollan las aplicaciones a la
Geología, la agricultura, forestación y Arqueología. Durante este período se realizan
numerosos relevamientos aerofotográficos en los países en desarrollo. La Real
Fuerza Aérea Británica realiza durante los 50's misiones fotográficas en Oriente
Medio que constituyen aún hoy la mejor cobertura libremente disponible de la región.

1955-1960. Extensiva aplicación de las fotos aéreas para el planeamiento regional


incluyendo cambios temporales.
1960-80. Advenimiento de la teledetección
satelital. Los 60's vieron importantes
desarrollos en satélites de cobertura global
con objetivos científicos y de espionaje. La
fotografía aérea está limitada a la parte
visible e infrarrojo cercano del espectro
electromagnético, con los nuevos sensores
satelitales se hacen visibles otras
porciones del espectro como el infrarrojo
termal. En 1972 se lanza el primer satélite
de recursos naturales el ERTS -1
(posteriormente llamado LANDSAT 1).

1980-1995. Organización sistemática de


los sensores remotos en programas.
Desarrollo del software de computación
para obtención de información y
procesamiento de imágenes.

1995 en adelante. Incremento de la


comercialización de la Teledetección.
5.1.2 Acercamiento sistemático a la Teledetección.

La Teledetección espacial es una técnica que permite adquirir imágenes de la superficie


terrestre o marina y la atmósfera desde sensores instalados en plataformas espaciales.
Por ser una técnica que no esta en contacto directo con el objeto requiere que entre el
sensor y el objeto haya un flujo de información, el cual es conocido como radiación
electromagnética la cual puede ser emitida por el objeto o proceder de otro cuerpo y
haber sido reflejada por este.

Todos los cuerpos u objetos (seres vivos, planetas u objetos inanimados) emiten
radiación electromagnética. La cantidad y tipo de radiación que emiten depende
básicamente de su comportamiento al contacto con la luz y de su temperatura.
El mayor emisor de esta radiación
en el Sistema Solar es el Sol, y la
radiación que refleja la Tierra y los
objetos situados en ella es la que se
utiliza comúnmente en
Teledetección.

Otro tipo de emisión puede provenir


del mismo sensor, el cual incorpora
en su sistema un rayo emisor de
radiación.
Nuestros sentidos perciben un objeto solo cuando pueden descifrar la información que
éste les envía. Por ejemplo, el ser humano es capaz de ver un árbol porque los ojos
(considerados como el sensor remoto perfecto), reciben y traducen convenientemente
una energía luminosa procedente del mismo. Esta señal no es originada por el árbol,
sino por un foco energético exterior que le ilumina. Por tal motivo, no es posible para
el ser humano percibir ese árbol en plena oscuridad.

Este sencillo ejemplo sirve para


introducir los tres principales
elementos de cualquier sistema
de Teledetección: sensor (el ojo),
objeto (árbol) y el flujo energético
que permite poner a ambos en
relación. En el caso del ojo, ese
flujo procede del objeto por
reflexión de la luz solar. Podría
también tratarse de un tipo de
energía emitida por el propio
objeto, o incluso por el sensor.
Éstas son, precisamente, las tres
formas de adquirir información a
partir de un sensor remoto: Por
reflexión, por emisión y por
emisión-reflexión.
Un sistema de Teledetección esta
compuesto por los siguientes:

1. Fuente de Energía: Es el emisor de la


radiación electromagnética que llegara a la
superficie terrestre y que posteriormente
será detectada por el sensor. Puede ser el
Sol (como fuente natural) o el mismo
sensor (como fuente artificial).

2. Cubierta Terrestre: Formada por


distintas masas de vegetación, suelo, agua
o infraestructura. Esta recibe la radiación
electromagnética proveniente de la fuente
de energía , y la refleja o emite de acuerdo
a sus características físicas.

3. Sistema Sensor: Constituido por el


sensor mismo y la plataforma que lo
sustenta. El sistema tiene como función
captar la energía emitida por la cubierta
terrestre, codificarla y grabarla o enviarla
directamente al sistema de recepción.
4. Sistema de recepción y comercialización: este sistema recibe la información
transmitida por la plataforma y la guarda en un formato especifico y apropiado. Posterior
a las correcciones necesarias, se distribuye a los interesados.

5. Intérprete o Analista: Es la persona encargada de clasificar y analizar la información


contenida en la imagen para generar información temática.

6. Usuario Final: Es quien finalmente recibirá y utilizará la información ya procesada por


el analista para fines específicos.

Para dominar la tecnología de la


Percepción Remota se necesitan ciertos
conocimientos indispensables, tales
como:

a) La naturaleza de los datos de


percepción remota.

b) Las características espectrales de la


superficie u objeto.

c) Los procesos y transformaciones


digitales.
5.2 El Espectro Electromagnético.

La energía electromagnética se comporta en parte como una onda de energía


fluctuante que viaja a la velocidad de la luz. La onda es realmente compuesta,
consistiendo de campos eléctricos y magnéticos que fluctúan en ángulos rectos para
cada uno y de acuerdo a la dirección de la trayectoria.

Un rasgo descriptivo fundamental de una forma de onda es su longitud de onda, o la


distancia entre sucesivos peaks o valles. En percepción remota, la longitud de onda es
más frecuentemente medida en micrómetros.
Se asume que la radiación se produce
como resultado de oscilaciones en los
campos eléctrico y magnético en las
inmediaciones de los objetos. Estas
oscilaciones generan ondas que
contienen 2 campos de fuerzas
ortogonales entre sí, eléctrico y
magnético, y transmiten la energía.
Los rayos X, las ondas de radio, los
rayos ultravioleta y la región del
visible son formas familiares de
energía electromagnética.
La energía electromagnética viaja a través del espacio como onda a la velocidad de la
luz, es decir, 3x1010 cm/s. La onda consiste en un campo magnético y uno eléctrico,
que son perpendiculares el uno al otro y a la dirección de la propagación de la onda.

La onda se puede describir en los términos de la longitud de onda (), que es la distancia
de la separación entre las crestas adyacentes de la onda, o de su frecuencia (f), que es
el número de los picos de la onda que pasan por un punto fijo en una unidad de tiempo.
Se relacionan como:

f = C

Donde C es la velocidad de
la luz. La ecuación descrita
muestra que la frecuencia
varía
inversamente con la
longitud de onda y
directamente con la
velocidad de la
propagación de la onda.
En Teledetección, la radiación electromagnética se clasifica en espectros
electromagnéticos o regiones debido a que las longitudes de onda dentro de esas
regiones presentan cierta homogeneidad en determinados aspectos. El espectro
electromagnético, se extiende desde las longitudes de onda más cortas (incluyendo los
rayos gamma y los rayos-X) hasta las longitudes de onda más largas (incluyendo
microondas y las ondas de radio). Hay varias regiones del espectro electromagnético
que son útiles para la percepción remota.

En la figura se muestran los rangos aproximados de cada región del espectro. Para la
región del visible la radiación solar tiene más importancia que la terrestre y para la
región del infrarrojo es más importante la radiación terrestre debido a que ésta se basa
en el calor presente en los objetos.
La porción ultravioleta (UV) está sólo más allá de la porción violeta de las longitudes de
onda visibles. Algunos materiales de la superficie de la Tierra, sobre todo rocas y
minerales, despiden luz fluorescente o emiten la luz visible cuando son iluminados por
la radiación UV.

Las longitudes de onda visibles cubren un rango de aproximadamente 0,4 a 0,7


micrómetros. La longitud de onda visible más larga es roja y la más corta es violeta. es
la única porción del espectro que podemos asociar con el concepto de colores.
La región infrarroja se puede dividir en dos categorías basadas en las características
de la radiación: la RI reflejada (se utiliza para los propósitos de la percepción remota,
de una manera muy similar a la radiación en la porción visible) y la RI emitida o termal
(la radiación que se emite de la superficie de la Tierra en la forma de calor).

Las microondas, de cerca de 1 mm a 1 m cubren las longitudes de onda más largas


usadas para la percepción remota. Las longitudes de onda más cortas tienen
características similares a la región infrarroja termal, mientras que las longitudes de
onda más largas son usadas por los radiotransmisores.
• Efectos atmosféricos sobre la
radiación electromagnética.

La radiación electromagnética se atenúa


mientras pasa a través de la atmósfera de
la Tierra. La atmósfera contiene partículas
y gases que afectan la radiación que entra
a través de los mecanismos de la
dispersión y de la absorción.

La dispersión causa cambios en la


dirección y la intensidad de la radiación.
Cuánta dispersión ocurre depende de
varios factores:

-La longitud de onda de la radiación.


-La abundancia de partículas o de gases.
-La distancia que la radiación viaja a través
de la atmósfera.

En general, la dispersión disminuye al


aumentar la longitud de onda de la
radiación.
Hay tres tipos de dispersión que pueden ocurrir:

+ La dispersión de Rayleigh:

Ocurre cuando las partículas son muy pequeñas en relación con la longitud de onda de
la radiación. La dispersión de Rayleigh es inversamente proporcional a la cuarta potencia
de la longitud de onda, lo que ocasiona que las longitudes de onda más cortas de la
radiación sean dispersadas mucho más que las longitudes de onda más largas.
La dispersión de Rayleigh es el
mecanismo dominante de dispersión en
la atmósfera superior. Mientras que la luz
del Sol pasa a través de la atmósfera, las
longitudes de onda más cortas del
espectro visible (por ejemplo, el azul) se
dispersan más que las otras longitudes
de onda (más largas) visibles. En la
salida del Sol y la puesta del Sol la luz
tiene que viajar más lejos a través de la
atmósfera que al mediodía, y la
dispersión de las longitudes de onda más
cortas es más completa; esto deja que
una mayor proporción de las longitudes
de onda más largas penetren en la
atmósfera.
La dispersión de Mie ocurre cuando las partículas que están presentes, tienen los
diámetros casi iguales a la longitud de onda de la radiación. La dispersión de Mie
tiende a afectar longitudes de onda más largas que las afectadas por la dispersión de
Rayleigh. La dispersión de Mie ocurre sobre todo en las porciones más bajas de la
atmósfera, donde son más abundantes las partículas más grandes.
La absorción es el otro mecanismo principal que trabaja cuando la radiación
electromagnética interactúa con la atmósfera. En contraste con la dispersión, este
fenómeno es provocado en la atmósfera, por las moléculas que absorben energía en
las diferentes longitudes de onda.

El ozono absorbe la radiación ultravioleta dañina (las longitudes de onda más cortas
que 0,3 mm) del Sol. El bióxido de carbono tiende a absorber fuertemente la radiación
en la porción infrarroja del espectro (termal). El vapor de agua en la atmósfera absorbe
mucha de la radiación que ingresa de las ondas largas infrarrojas y las ondas cortas de
microondas (entre 22 mm y 1 mm).

El resultado final de la absorción es que la energía es atenuada o perdida.

• Ventanas atmosféricas.

Las áreas del espectro que no son seriamente influenciadas por la absorción
atmosférica, (áreas espectrales, en donde la radiación es totalmente transmitida a
través de la atmósfera), son usadas por los sensores remotos, y son llamadas ventanas
atmosféricas.

Por ejemplo, existe un espectro característico de la radiación de la Tierra y del Sol


después de ser transmitida a través de la atmósfera. La porción visible del espectro, a
donde nuestros ojos son más sensibles, corresponde a una ventana atmosférica y al
pico de nivel de energía del Sol.
La energía calorífica emitida por la Tierra corresponde a la ventana alrededor de los 10
m en la porción RI termal del espectro; mientras la ventana larga de longitudes de
onda cercanas a 1 m, es asociada con la región de microondas.
5.2.1 Radiación – Interacciones con el objetivo.

La radiación que no es absorbida o dispersada por la atmósfera puede alcanzar e


interactuar con la superficie de la Tierra. Existen tres formas de interacción que pueden
llevarse a cabo cuando la radiación incide encima de la superficie:

-Absorción: La radiación es absorbida por un objeto.

-Transmisión: Ocurre cuando la radiación pasa a través de un objeto.

-Reflexión: Sucede cuando la radiación rebota en la superficie del objeto y es


redirigida.

La energía total
incidente podría
interactuar con la
superficie en una o más
de estas tres vías. Las
proporciones de cada
una dependerán de la
longitud de onda de la
energía, del material y
condición de la
fisonomía.
Aplicando el principio de conservación de la energía obtenemos que:

EI () = EA () + ET () + ER ()

La absorción (A) se presenta cuando la radiación es absorbida por un blanco, mientras


que la transmisión (T) ocurre cuando la radiación pasa a través de un blanco.

La reflexión sucede cuando la radiación rebota con el blanco y a su vez es redirigida.


En la Percepción Remota, existe un interés muy particular en medir la energía reflejada
de los blancos, que llegan a los detectores a bordo de un satélite o un avión. La reflexión
de la energía depende del grado de rugosidad de la superficie del blanco en relación
con la longitud de onda de la energía incidente sobre ésta.

Cuando lo rugoso de la superficie


(o la variación de altura) es
pequeño en comparación con la
longitud de onda de la radiación, la
superficie actúa como un espejo
donde la energía incidente es
dirigida lejos de la superficie en un
ángulo igual al ángulo de
incidencia. Este tipo de reflexión es
llamado reflexión especular.
El otro caso extremo ocurre cuando la superficie es muy rugosa, por ejemplo, las
grandes variaciones de altura de la superficie son mucho más grandes que las
longitudes de onda de la radiación. En este caso la radiación es reflejada
uniformemente en todas las direcciones. Este tipo de reflexión es llamado reflexión
difusa. La mayoría de la fisonomía de la Tierra se ubica entre estos dos extremos.
• Definiciones de tipos de superficies en Teledetección.

- Especular : Es aquella superficie ideal en la que se cumple perfectamente la ley de


la reflexión (ángulo incidente = ángulo reflejado).

- Lambertiana: Es aquella superficie, también ideal, que refleja la radiación incidente


de manera uniforme en todas las direcciones.
5.2.2 Firmas espectrales.

Firma espectral es la forma


peculiar de reflejar o emitir
energía de un determinado
objeto o cubierta. Depende de
las características físicas o
químicas del objeto que
interaccionan con la energía
electromagnética, y varía
según las longitudes de onda.

La propiedad usada para


cuantificar estas firmas
espectrales es llamada
reflectancia espectral: la razón
de la energía reflejada y la
energía incidente como una
función de la longitud de onda.
Los factores que modifican las firmas
espectrales son:

-Angulo de iluminación solar.

-Modificaciones que el relieve introduce en el


Angulo de iluminación: orientación de laderas
o pendiente.

-Influencia de la atmósfera: absorción de


nubes y dispersión selectiva en distintas

-Longitudes de onda.

-Variaciones medioambientales en la cubierta:


asociación con otras superficies,
homogeneidad que presenta, estado
fenológico, etc.

-Sustrato edafológico o litológico: muy


influyente cuando la cubierta observada
presenta una densidad media.
5.2.3 Comportamiento espectral La reflectancia de suelo seco se
teórico de los elementos del eleva uniformemente a través de las
longitudes de onda del visible e
territorio.
infrarrojo cercano, con un máximo en
el rango del infrarrojo medio.

El patrón de reflectancia de la
vegetación verde en las longitudes de
onda del visible es debido a la
absorción selectiva de la clorofila. La
característica más notoria del
espectro vegetacional es el dramático
aumento en reflectancia a través de
la frontera del visible- infrarrojo
cercano, y la alta reflectancia del
infrarrojo cercano.

Cuerpos de agua claros y profundos


absorben efectivamente todas las
longitudes de onda más largas que el
rango visible, lo cual resulta en una
reflectividad muy baja de la radiación
infrarroja.
5.3 Adquisición de imágenes por sensores remotos.

La energía electromagnética retornada desde la superficie terrestre puede ser


detectada por una película sensible a la luz, como en una fotografía aérea, o por una
serie de sensores electrónicos.

Los sensores electrónicos generan una señal eléctrica con una fuerza proporcional a
la cantidad de energía recibida. La señal desde cada detector en una serie es
registrada y transmitida electrónicamente en forma digital como una serie de números.
Una imagen de una serie de sensores electrónicos consiste de una grilla rectangular
de dos dimensiones de valores numéricos que representan diferentes niveles de
luminosidad. Cada valor representa el promedio de luminosidad para una porción de
la superficie, representada por unidades areales cuadradas en la imagen (píxel).

Cuando se despliegan en su monitor, los valores de luminosidad en la imagen ráster


son traducidos a luminosidad de despliegue sobre la pantalla.
Una imagen satelital es una matriz digital del puntos capturada por un sensor montado
a bordo de una plataforma que orbita alrededor de la Tierra. A medida que el satélite
avanza, “barre” la superficie con un conjunto de sensores que registran la energía
reflejada.
Las imágenes de satélite se encuentran en
formato ráster, el cual consiste en una matriz de
miles de píxeles, en el que cada uno posee un
valor digital o de reflectancia. P/ej: Si la
resolución de una imagen es de 30 m, cada píxel
representa un área en la superficie terrestre de
30 x 30 m (900 m2), con esto, la firma espectral
de todos los objetos existentes en la superficie
de 900 m2 será promediada para darle su valor
digital al píxel (8 bits / 28=256).
5.3.1 Imágenes Pancromáticas.

Se captan mediante un sensor digital


que mide la reflectancia de energía en
una parte amplia del espectro
electromagnético (porción visible y del
infrarrojo cercano del espectro).

Para los sensores pancromáticos más


modernos, esta única banda suele
abarcar lo parte visible y de infrarrojo
cercano del espectro. Los datos
pancromáticos se representan por
medio de imágenes en blanco y negro.

Cauce del río Paraná, Entre Ríos,


Argentina (15 m).
Zona del Parque Simón
Bolívar en Bogotá, Colombia
(Imagen Ikonos
Pancromática,
1m de resolución).
5.3.2 Imágenes
Multiespectrales.

Se captan mediante un sensor


espectral que mide la reflectancia
en muchas bandas.

Por ejemplo, un conjunto de


detectores puede medir energía
roja reflejada dentro de la parte
visible del espectro mientras que
otro conjunto mide la energía del
infrarrojo cercano. Es posible
incluso que dos series de
detectores midan la energía en dos
partes diferentes de la misma
longitud de onda.

Estos distintos valores de


reflectancia se combinan para
crear imágenes en color.

LANDSAT 1. Madison, Wisconsin. (1:180,000).


Los sensores de teledetección multiespectrales de hoy en día miden la reflectancia
simultáneamente en un número de bandas distintas que pueden ir de tres a catorce.

La mayoría de los
sistemas satelitales usan
desde tres a seis bandas
espectrales en los
rangos de longitudes de
onda del visible hasta el
infrarrojo medio. Algunos
sistemas también
emplean uno o más
bandas infrarroja
termales.

Imagen
multiespectral
tomada por el
satélite Landsat TM
de un sector del Río
Amazonas en
composición de
falso color.
5.3.3 Resoluciones en una
imagen de sensores remotos.

• Resolución espacial:

Es una medida del detalle espacial de


una imagen. Se refiere al objeto más
pequeño que puede ser distinguido
sobre la imagen de satélite.

Se mide en unidades de longitud


(metros sobre el terreno) y depende
de la longitud focal del sensor y de su
altura sobre la superficie.

Esta distancia corresponde al tamaño


de la unidad mínima de información
incluida en la imagen (píxel).

La resolución espacial está ligada a la


escala de trabajo y a la fiabilidad
obtenida en la interpretación.
Se trata de una de las características más importantes que hay que considerar a la
hora de elegir imágenes,
porque determina de forma directa qué rasgos del terreno pueden cartografiarse.

Esto es muy importante para evaluar los costos del proyecto dado que, generalmente,
cuanto más detallada es una imagen más cara resulta por unidad de superficie.
La forma es un factor visual que
podemos usar para reconocer e
identificar objetos en una imagen. La
forma es usualmente apreciable sólo si
las dimensiones del objeto son varias
veces más grandes que las
dimensiones de la celda.

Por otro lado, objetos más pequeños


que el tamaño de la celda de la imagen
pueden ser detectados en una imagen.
Si tal objeto es suficientemente más
luminoso o más oscuro que sus
vecinos, dominará la luminosidad
promediada de la celda de la imagen
que caiga dentro, y esa celda
contrastará en brillo con las celdas
adyacentes. No podríamos ser capaces
de identificar qué objeto es, pero La imagen es una porción de una escena Landsat
podemos ver que es algo presente que Thematic Mapper que muestra parte de San
Francisco, California. La imagen tiene un tamaño
es diferente de sus alrededores, de celda de 28.5 metros. Sólo edificios grandes y
especialmente si el área de fondo es caminos son claramente reconocibles.
relativamente homogénea.
El contexto espacial también podría permitirnos reconocer rasgos lineales que son más
angostos que las dimensiones de la celda, tales como caminos o puentes sobre agua.
Evidentemente no existen claras fronteras dimensionales entre detectabilidad y
reconocimiento en imágenes digitales.

El área encuadrada muestra una


imagen IKONOS con un tamaño
de celda de 4 metros. Árboles,
edificios pequeños, y calles más
estrechas son reconocibles en la
imagen IKONOS.

La imagen muestra el área


encuadrada de la escena
Thematic Mapper aumentada a la
misma escala de la imagen
IKONOS, revelando las celdas
más grandes de la imagen
Landsat.
+ Selección de la resolución espacial:

++ Un metro:

Identifica y cartografía rasgos a l escala humana superiores a un metro cuadrado, tales


como tapas de alcantarilla, bancos, automóviles, cocheras de autobuses, carriles de
autopista, aceras, equipamiento de servicios públicos, cercas, árboles y arbustos.

Identifica características de muchos de los objetos mencionados.

Detecta pequeñas zonas de estrés en parcelas agrícolas o arboledas.

Localiza y cartografía ampliaciones de casas, carreteras, edificios, patios y pequeñas


explotaciones agrícolas y ganaderas.

Diferencia distintos tipos de edificios y cosos.

++ 10 metros:

Ubica y cartografía edificios, predios, carreteras, limites de propiedad, campos de


deporte, granjas y calles laterales.

Diferencia entre parcelas cultivadas y. sin cultivar en función de la salud vegetativa


relativa y facilita tipificaciones de la cubierta del suelo en pequeñas áreas.
++ 20-30 metros:

Ubica aeropuertos, cascos urbanos, barriadas periféricas, centros comerciales,


complejos deportivos, grandes fábricas, extensos bosques y explotaciones agrícolas
de gran amplitud.

Realiza clasificaciones generalizadas de la superficie del terreno, 80 metros.

Cartografía estructuras geológicas regionales.

Evalúa la salud vegetativa en una región relativamente extensa.

++ 1 Kílómetro:

Valora la salud vegetativa en estados y países enteros.

Sigue eventos regionales como plagas de insectos, sequía y desertificación.


• Resolución espectral:

Indica el número y anchura


de las bandas espectrales
que puede discriminar el
sensor.

La elección del número,


anchura y localización de las
bandas está
estrechamente relacionado
con el diseño del sensor.

Una imagen producida por


un sistema de
sensoriamiento puede
consistir de una longitud de
onda de banda ancha, unas
pocas bandas anchas, o
varias longitudes de onda de
bandas estrechas.
Por ejemplo, un sensor multiespectral de cuatro bandas mide la energía en cuatro
longitudes de onda diferentes. Hay que tener en cuenta, no obstante, que una imagen
multiespectral se compone casi siempre de tres bandas como mínimo porque una
imagen a color sólo puede crearse adicionando los tres colores fundamentales (rojo,
verde y azul).
+ Selección de la resolución espectral:

++ Aplicaciones Pancromáticas:

Localizan, identifican y miden accidentes superficiales y objetos, principalmente por


su apariencia física, es decir, forma, tamaño, color y orientación.

Identifican y cartografían con precisión la situación de los elementos generados por la


acción del hombre, como edificios, carreteras, veredas, casas, equipamientos de
servicios públicos, infraestructura urbana, aeropuertos y vehículos.

Actualizan las características físicas de los mapas existentes.

Trazan los límites entre tierra y agua.

Identifican y cuantifican el crecimiento y desarrollo urbano.

Permiten generar modelos digitales de elevación de gran exactitud.

Catalogan el uso del suelo.

++ Aplicaciones Multiespectrales:

Distinguen las rocas superficiales y el suelo por su composición y consolidación.


Delimitan los terrenos pantanosos.

Estiman la profundidad del agua en zonas litorales.

Catalogan la cubierta terrestre.

++ Aplicaciones de Radar de Apertura Sintética:

Captan imágenes en zonas frecuentemente cubiertas por nubes, nieblas o inmersas


en constante oscuridad.

Localizan iceberg y hielo marino; cartografían otros estados de la superficie oceánica,


como corrientes, olas, y poluciones petrolíferas.

Cartografían aspectos del terreno muy sutiles, como tallas y pliegues y permiten
detectar y cartografiar cambios en la superficie terrestre debidos por ejemplo al
crecimiento de la vegetación, a variaciones de la humedad del suelo, actividades
agrícolas o forestales o incluso debidos a movimientos sísmicos.

++ Aplicaciones Aerofotogramétricas:

Cartografían rasgos superficiales inferiores a un metro cuadrado r inferiores a 1,000


kilómetros cuadrados con precisión cronométrica para observar inmediatamente
catástrofes naturales.
• Resolución radiométrica:

Se refiere a la capacidad del sensor para detectar variaciones en la radianza


espectral que recibe.

En la actualidad las imágenes se presentan en formato digital gracias a una conversión


analógico-digital realizada a bordo del satélite. El número de valores que incluye ese
rango (número de niveles digitales de la imagen) se identifica con la resolución
radiométrica del sensor (rangos continuos de la energía entrante discretizados, o
subdivididos en un número de registrados como valores enteros.

256 niveles por píxel (0-255).


Una alta resolución radiométrica es una ventaja El análisis visual de los colores
cuando se usa un computador para procesar y desplegados en una imagen
analizar los valores numéricos en las bandas de la multiespectral puede ser una
imagen multiespectral. herramienta efectiva en su
interpretación.
El análisis visual de las imágenes multiespectrales
también es beneficiada por altas resoluciones
radiométricas ya que una selección de bandas de
longitudes de onda pueden ser combinadas para
formar un despliegue en color o una impresión.
Una banda es asignada a cada uno de los tres
canales usados por el monitor del computador:
rojo, verde y azul.

Usando el modelo aditivo del color, diferentes


niveles de estos colores primarios se combinan
para formar millones de colores sutilmente
diferentes. Para cada celda en una imagen
multiespectral, los valores de brillo en las bandas
seleccionadas determinan los valores del rojo,
verde y azul usados para crear el color
desplegado. Usando 256 niveles para cada canal
de color, un despliegue computacional puede
crear unos 16 millones de colores.
• El color.

El color es una sensación que percibe el ojo,


cuando la luz incide en un objeto y este la refleja
a una determinada longitud de onda. Cuando
los objetos reflejan en longitudes de onda corta
y baja en el resto del espectro electromagnético,
éstos se ven de color azul; mientras que los que
absorben longitudes de onda corta y reflejan en
longitudes de onda larga, aparecen con tintes
rojos.

Nuestros ojos captan la parte visible del


espectro electromagnético, que abarca el rango
de 0.4 – 0.7 µm. Esta región esta formada por
los colores primarios; los cuales son: azul, verde
y rojo.

A partir de la mezcla de los colores primarios, se


pueden obtener los demás, que son
denominados secundarios. Esta propiedad del
color es utilizada en la percepción remota, para
generar composiciones coloreadas; mezclando
tres bandas del espectro electromagnético.
Dicha mezcla se puede realizar en función de dos procesos:

Aditivo: Con este proceso se obtiene cualquier color, por medio de la suma de los tres
colores primarios (azul, verde y rojo). Si se suman los colores da como resultado un
color complementario y la suma de los tres da el color blanco.

Azul + Verde = Cian.


Azul + Rojo = Magenta.
Verde + Rojo = Amarillo.

Sustractivo: Este proceso se basa en la absorción de la luz que ejercen los colores
complementarios: el cian absorbe la luz roja, el magenta absorbe el verde y el amarillo
el azul; por lo que la combinación (cian, magenta y amarillo) de los tres genera el negro.
Este manejo de las bandas tiene como función, el de identificar los distintos objetos
que se encuentran en la imagen. Según Tindal (1978) en Chuvieco (“Fundamentos de
Teledetección Ambiental”, 1996) las tonalidades más comunes corresponden a los
siguientes objetos que se pueden determinar en una imagen:

--Rojo-magenta: Corresponde a vegetación rigurosa, como cultivos de riego,


bosques, prados montañosos y hierbas.

--Rosa: Áreas con menos vegetación o cultivos en crecimiento.

--Blanco: Áreas con poca vegetación, suelos desnudos, nueves, arenas y depósitos
salinos.

--Azul oscuro (negro): Flujos de lava, ríos, presas, lagos y zonas cubiertas por agua.

--Gris (o azul metálico): Ciudades y áreas pobladas.

--Marrón: Arbustos en función de su densidad y del tono del suelo.

--Beige-dorado: Prados secos asociados con escaso matorral.


• Resolución Temporal:

Es una medida de la frecuencia con la que un satélite es capaz de obtener imágenes


de una determinada área. También se denomina intervalo de revisita.

Altas resoluciones temporales son importantes en el monitoreo de eventos que


cambian en períodos relativamente cortos, como inundaciones, incendios, calidad del
agua en el caso de contaminaciones, desarrollo de cosechas, etc.

Así mismo, en áreas con cubiertas nubosas casi constantes como por ejemplo las
selvas tropicales, períodos cortos de visita, es decir altas resoluciones temporales,
aumentan la probabilidad de obtener imágenes satisfactorias.
5.4 Sensores Remotos.

Los sensores son instrumentos susceptibles de detectar la señal electromagnética


(radiación reflejada o emitida) que les llega de la tierra y la Atmósfera y convertirla en
una magnitud física que puede ser tratada y grabada.

Los sensores pueden convertir la señal electromagnética en un formato análogo


(fotografía) o digital (imagen). Para llevar a cabo la observación del terreno, los
sensores son instalados en plataformas, fijas o móviles: grúas, cometas, globos,
aviones, cohetes o satélites.

Las características de la imagen registrada dependen en gran medida del tipo de sensor
utilizado y de la distancia al suelo desde la cual se realiza la adquisición de datos.
Permiten capturar información confiable de los objetos sin tener contacto directo con
ellos en superficies extensas. Juegan un papel importante en la construcción de
planos, mapas, planificación territorial y estudios urbanos. La tendencia es hacia el
incremento de su utilización dados el avance tecnológico y su costo razonable.

Existen dos opciones básicas usadas para la P. R. de objetos sobre el territorio:

• Sistemas de Percepción Activa.


• Sistemas de Percepción Pasiva.

• Sistemas de Percepción Activa:

Generan una señal, esta rebota en el


objeto, y miden las características de la
señal reflejada. Un ejemplo de este tipo
de teledetección es el Radar.

Los sensores activos son capaces de


iluminar un objeto con su propia fuente
de radiación. Son utilizados cuando la La información obtenida procede de la
radiación natural es una banda particular comparación entre la señal emitida y la
del espectro está debajo del umbral de la señal reflejada.
señal para ruido (penetran nubes).
• Sistemas de Percepción Pasiva:

Las imágenes creadas por los sistemas de percepción pasiva son de mayor valor en
las aplicaciones de Teledetección destinadas a recursos naturales.

Simplemente reciben, clasifican y encriptan las señales emitidas naturalmente por la


reflectancia de los objetos sobre el terreno.

Este tipo de sensor suele clasificarse dependiendo del procedimiento que emplean para
recibir la radiación procedente de los objetos. El primer grupo esta constituido por
sensores fotográficos (por ejemplo las cámaras fotográficas), el segundo grupo están
los sensores óptico electrónicos (exploradores de barrido y empuje y las cámaras de
vidicón) y en el tercer grupo los sensores de antena (radiómetros de microondas).
Dentro de ésta categoría cabe una segunda
clasificación:

+ De Barrido (Scanners):

Donde un espejo móvil permite explorar una franja


del terreno a ambos lados de la traza del satélite.
La radiancia recibida por éste componente óptico,
se dirige a una serie de detectores que la amplifican
y la convierten en una señal digital.

Los valores numéricos (ND) pueden traducirse, de


nuevo, en niveles de reflectividad o temperatura,
conociendo los coeficientes de calibrado del sensor
y las condiciones de adquisición. Estos sensores
facilitan una representación grafica y además
permiten una medición física de la superficie que
observan.

Los más utilizados han sido los incluidos en los


programas LANSAT (MSS, Multispectral Scanner y
TM, Thematic Mapper), y TIROS-NOAA (AVHRR,
Advanced Very High Resolution Radiometer.
+ De Empuje (Pushbroom):

Se elimina el espejo oscilante gracias a disponer


de una cadena de detectores que cubre todo el
campo de visión del sensor.

Poseen una cadena de detectores que cubren


todo el campo de visión del sensor. La tecnología
de este tipo de sensor permite mejorar la
resolución espacial respecto a los barredores
convencionales debido a que se elimina la parte
móvil (el espejo).

Las ventajas en cuanto a que la información es


digital y que trabaja en distintas bandas del
espectro se mantienen para este tipo de sensor.
Las cámaras de video, las cuales pueden
trabajar en forma pancromática o multibanda,
son mayormente utilizadas en estudios de
recursos naturales.

Están incorporados a varios proyectos como en


el caso del satélite francés SPOT y del Indio
Rohini RS-1.
Explorador de
barrido (MSS de
LANDSAT)
Explorador de empuje.
La trayectoria de un satélite que porta
un sensor alrededor de la Tierra se la
denomina “órbita”. Existen dos tipos
de satélites, los geosincrónicos o
geoestacionarios y los
heliosincrónicos.

++ Geoestacionarios:

Se sitúan sobre la línea ecuatorial en


una órbita a 36,000 Km de la Tierra.
Permanecen siempre en la vertical de
un punto determinado acompañando
a la Tierra en su movimiento de
rotación. Observación continua de
una misma región. P./ej: los satélites
de comunicación y observación
meteorológica.

Un satélite geoestacionario realiza


una vuelta alrededor de nuestro
planeta al mismo tiempo que éste
efectúa una rotación completa
alrededor de su propio eje.
++ Heliosincrónicos:

Se desplazan en órbitas
generalmente circulares y
polares (el plano de la órbita
es paralelo al eje de rotación
de la Tierra) de modo que,
aprovechando el movimiento
de rotación terrestre, puede
captar imágenes de
diferentes puntos cada vez
que pase por el mismo punto
de la órbita.

Estas órbitas sólo son


posibles entre 300 y 1,500
Km de altura. La órbita se
diseña de forma que el
satélite pasa siempre sobre
el mismo punto a la misma
hora local.
• Sensores utilizados para estudios Los satélites de Landsat de la primera
ambientales. generación (Landsat 1, 2 y 3) fueron
lanzados en los años 1972, 1975 y 1978.
- LANDSAT:
Estos satélites fueron equipados con un
Antes de 1974 fue llamado ERTS (Earth scanner multiespectral (MSS), y con un
Resources Technology Satellite). Hasta vidicón (Return Beam Vidicon System).
1985 fue operado por la NASA y
actualmente está dirigido por la empresa
particular EOSAT.

Landsat puede producir las imágenes de


todas las partes de la superficie terrestre
sin pedir permisos de los gobiernos y
ofrece las imágenes libremente al
público a precios uniformes.

Landsat suministró la primera base de


datos de la Tierra completa con
resoluciones espaciales y espectrales
adecuadas para varias aplicaciones.
Los datos de Landsat están disponibles
en formato digital.
La segunda generación de Landsat se constituye
de 4 satélites, lanzados entre 1982 y en 1999.

Landsat 4 ya no funciona, Landsat 5 funcionó


hasta Marzo de 1996.

Los satélites de la segunda generación están


equipados con un Thematic Mapper y con un
MSS.

El TM es un cross-track scanner equipado con un


espejo que explora y oscila simultáneamente y
con 16 detectores alineados para las bandas
visibles y las bandas correspondientes al IR
reflejado. Los datos se detectan a los dos lados
(este y oeste) del espejo (se reduce el scan- rate).

En una altitud del satélite de 705 km con un


campo visual angular de 14,9° el sistema puede
cubrir una línea de terreno de 185 km de longitud.
El TM detecta las bandas espectrales de 1 a 7.
Generación Landsat 1, 2 y 3 Landsat 4 y 5

Altitud 918 km 705 km

Orbitas al día 14 14,5

Cantidad de órbitas (paths) 251 233

Ciclo repetidor 18 días 16 días

Recubrimiento lateral al ecuador 14,0 % 7,6 %

Pasa la latitud 40°N a la hora local del sol 9:30 a.m. 10:30 a.m.

Periodo de operación 1972 - 1984 1982 -1996

Memoria de los datos en el satélite Si No

Equipado con:

Scanner multiespectral (MSS) Si Si

Thematic mapper No Si

Características de las órbitas y de los sistemas formadores de imágenes de la primera y segunda


generación de Landsat
Sistema Scanner Thematic
multiespectral mapper

Región espectral Visible y IR reflejado 0,50 - 1,10 µm 0,45 - 2,35µm

IR térmico 10,5 - 12,5 µm


Bandas espectrales 4 7

Recubrimiento del terreno En dirección E-W 185 km 185 km

En dirección N-S 185 km 170 km

Campo visual instantáneo Visible e IR reflejado 0,087 mrad 0,043 mrad

IR térmico 0,17 mrad


Celda básica de resolución Visible e IR reflejado 79 x 79 m2 30 x 30 m2

IR térmico 120 x 120 m2

Características de sistemas formadores de imágenes de Landsat.


Banda Longitud de Características
onda en µm
1 0,45 - 0,52 Azul-verde. Penetración máxima por agua, adecuada para
la batimetría, adecuada para distinguir suelo y vegetación.

2 0,52 - 0,60 Verde. Delinea la reflectancia de la vegetación.


3 0,63 - 0,69 Rojo. Delinea una banda de absorción de clorofila,
importante para distinguir tipos de vegetación.
4 0,76 - 0,90 IR reflejado. Adecuada para determinar el contenido en
biomasa y para el mapeo de líneas de ribera.
5 1,55 - 1,75 IR reflejado. Indica el contenido en agua en suelos y
vegetación, penetra por nubes delgadas, presenta distintos
tipos de vegetación en contrastes diferentes.

6 10,4 - 12,5 TR térmico. Imágenes nocturnas son adecuadas para un


mapeo térmico y para estimar el contenido de agua en
suelos.
7 2,08 - 2,35 IR reflejado, coincide con una banda de absorción causada
por iones hidroxilos en minerales.
- SPOT:

Aprobado en 1978 por Francia, el


programa Spot ha sido
desarrollado por el CNES
(Centro Nacional de Estudios
Espaciales francés) en
colaboración con Bélgica y
Suecia.

Una de las grandes ventajas del


sistema SPOT es su capacidad
de desalineación de su
instrumento de obtención de
imágenes principal a ambos
lados de la traza en tierra del
satélite, de +31,06º a -31,06º.
Éste proporciona una flexibilidad
de adquisición muy elevada, en
concreto reduciendo la
repetitividad de adquisición
(frecuencia temporal o frecuencia
de revisita) hasta 2 o 3 días.
+ 1ra. generación: Spot 1, 2, 3:

Resolución de las imágenes del instrumento


ARV (Alta Resolución Visible) de 10 metros
en pancromático (ARV1, canal que cubre el
campo visible del espectro
electromagnético), 20 metros en
multiespectral (ARV2 de 3 bandas G-B- IrC).

Órbita casi polar, circular, heliosincrónica y


en fase con altitud de 822 km.

Lanzamientos:

Spot-1, lanzado el 22 de febrero de 1986 (Arianne 1). Se desplazó hacia una órbita más
baja en 2003.

Spot-2, lanzado el 22 de enero de 1990 (Arianne 40). Con una vida útil prevista de 3
años, funcionó durante casi 20 y adquirió 6,5 millones de imágenes, cubriendo 23,400
millones de kilómetros cuadrados.

Spot-3, lanzado el 26 de septiembre de 1993 (Arianne 40), que estuvo en


funcionamiento hasta noviembre de 1996.
+ 3ra. generación (Spot 5):

Resolución de las imágenes del


instrumento ARG (Alta
Resolución Geométrica) en
SuperMode que permite la
creación de una imagen con 2.5 m
de resolución a partir de dos
imágenes de 5 m adquiridas
simultáneamente con un semi-
píxel de desfase de 2.5 m en SM-
Pan (0,48 - 0,71 µm), 5 m en
pancromático (0,48 - 0,71 µm),
10 m en multiespectral (4 bandas
V-R-IrC-IrM).

Capacidades de adquisición de pares estereoscópicos mejorados gracias al


instrumento ARE (Alta Resolución Estereoscópica).

Incorpora VEGETATION-2, sucesor del VEGETATION-1 que llevaba a bordo el


SPOT-4

Lanzamiento: Spot-5 fue lanzado el 3 de mayo de 2002 (Arianne 42P).


- IKONOS:

Es un satélite comercial, el
primero en recoger imágenes con
disponibilidad pública de alta
resolución con un rango entre 1 y
4 m de resolución espacial (1
metro en pancromático y 4 m en
multiespectral de 4 bandas A, V,
R, IrC).

Resolución temporal de 3 a 5 días


y un máximo de escena de 11 Km
x 11 Km.

Las imágenes del satélite


IKONOS empezaron a ponerse a
la venta en Enero de 2000. La
empresa norteamericana Space
Imaging es la propietaria del
satélite.
- Quickbird:

QuickBird es un satélite de alta resolución de propiedad y operado por DigitalGlobe.

Utilizando un sensor BGIS 2000 posee un grado de detalle de 0.61 m / píxel de


resolución en pancromática y 2.44 m en multiespectral (4 bandas A,V,R,IrC).

Tiene una resolución temporal de 1 - 3.5 días, orbita a 450 Km de altura


(heliosincrónica, con inclinación a 97.2°) y posee una escena máxima de 16.5 Km x
16.5 Km.
- ASTER:

The Advanced Spaceborne Thermal


Emission and Reflection Radiometer es
un esfuerzo cooperativo entre la NASA y
el Ministerio de Comercio Economía e
Industria de Japón METI. En 1999 el
instrumento se lanzó a bordo del satélite
TERRA de la NASA. El objetivo principal
de la misión ASTER era mejorar el
entendimiento de los procesos a escala
local y regional que ocurren sobre o cerca
de la superficie de la tierra y en la
atmósfera inferior, incluyendo la
interacción superficie-atmósfera.

ASTER presenta una orbita


heliosincrónica a una distancia de 705
Km, con un ciclo de repetición de 16 días,
un ancho de barrido de 60 Km y una
distancia entre orbitas de 172 Km.
ASTER esta compuesto por 3 subsistemas, VNIR, SWIR y TIR; cada uno de cuales
presenta características particulares tales como 3 bandas en la región espectral del
visible e infrarrojo cercano (VNIR) con una resolución espacial de 15 metros; 6 bandas
en la región espectral del infrarrojo de onda corta (SWIR) con una resolución espacial
de 30 metros y 5 bandas en el infrarrojo térmico con una resolución espacial de 90
metros.

ASTER también presenta un telescopio con visión hacia atrás que escanea en la región
espectral de la banda 3B, lo que nos permite realizar modelos digitales de terreno
(MDT) por pares estereoscópicos.
- NOAA:

La familia de satélites NOAA (National Oceanic


and Atmospheric Administration), también
denominados TIROS, comienza con el
lanzamiento entre 1960 y 1965 de 10 satélites.
Desde entonces han sido muchos los satélites
lanzados hasta llegar al lanzamiento durante el
periodo 1996-2011 de los satélites NOAA-O y el
NOAA-K (estudio del tiempo polar.

La órbita de estos satélites se sitúa entre 833 y 870


Km cubriendo aproximadamente una área de
3,000 Km de lado. Los satélites de nueva
generación se diseñaron para ofrecer un ciclo de
cobertura muy corto (una imagen cada doce horas
en latitudes del hemisferio norte).

Sus sensores primarios son conocidos con el


genérico grupal de Advanced Very High
Resolution Radiometer (AVHRR). Su misión
principal es la medida de la cobertura de nubes,
temperatura de la superficie del mar, formación de
nubes y cálculo del índice de vegetación.
Este sensor no proporciona una alta resolución espacial (1.1 Km en el nadir), aunque
sí proporciona una muy alta resolución radiométrica (10 bits por píxel) .La secuencia
de escaneo empieza cuando el espejo apunta a 80 º O del nadir. El horizonte Oeste
está a 69 º desde el nadir y la recogida de información comienza a los 55º con 2,048
muestras. El espejo rota 360 º a 6 r.p.s

Su amplia cobertura y baja resolución le permiten analizar las condiciones de la


vegetación en períodos cortos de tiempo y a escala global, lo que le hace idóneo para
estudiar fenómenos muy dinámicos como la desertificación, la deforestación de zonas
inaccesibles o los incendios forestales de gran magnitud. Así mismo se está
empleando en estudios globales de vegetación y cubierta del suelo a escala
continental.

La obtención de la temperatura de la superficie del mar tiene una precisión de 0.6 º C


si no hay nubes. Los gradientes horizontales de temperatura de hasta 0.2 º C pueden
ser observados.

+ High Resolution Infrared Sounder (HIRS):

Se emplea para la medida de la temperatura atmosférica entre la superficie de la Tierra


y 50 mb. También se utiliza para medir el vapor de agua en 3 capas atmosféricas y
para la medida total de ozono. Este sensor escanea la superficie de la tierra en un
plano normal a la órbita proporcionando la temperatura vertical diaria a una escala de
40 Km. La resolución espacial es de 20.4 Km.
+ Stratospheric Sounding Unit (SSU):

Se emplea para la medida de temperatura en altitudes


comprendidas entre los 25 y 50 Km y tiene una
resolución espacial de 143.3 Km.

+ Microwave Sounding Unit (MSU):

Su uso se centra en la medida de la temperatura de la


tropósfera. Este sensor mide la energía procedente de
la tropósfera para construir un perfil de
temperatura vertical a una altitud de 20 Km. La más corta de esas
aproximadamente. Tiene una resolución espacial de longitudes de onda es
109 Km. sensible al ozono en la alta
estratosfera y la mayor de las
+ Solar Backscatter Ultraviolet Spectrometer (SBUV): longitudes de onda al ozono
en la baja estratosfera. Dado
Mide la radiación reflejada en el rango de 1,600- 4,000 que el ozono absorbe
A para determinar los perfiles de ozono, ozono total radiación en la banda
atmosférico, radiación solar y radiación terrestre. El ultravioleta, su concentración
principio de operación es la medida de la energía solar puede
reflejada en la región UV en 12 longitudes de onda obtenerse por el ratio de
posicionadas en el borde de la banda de absorción del radiación reflejada y la
ozono. radiación incidente solar.
5.5 Preprocesamiento de imágenes de sensores remotos.

Consiste en el procesamiento inicial de los datos crudos para corregir las distorsiones
radiométricas y geométricas de la imagen y eliminar el ruido.

Las distorsiones radiométricas obedecen a mecanismos que alteran los valores de brillo
de los pixeles y se deben fundamentalmente a interferencias atmosféricas y a efectos
asociados a instrumentación.

Las correcciones atmosféricas constituyen un problema muy complejo si se quieren


aplicar sobre la base de modelos físicos del comportamiento de las radiaciones.

Estos modelos tienen el mérito de su rigor científico, precisión y aplicabilidad a un


amplio rango de circunstancias, pero suelen exigir ciclos complejos de computadora así
como información meteorológica detallada relativa a las condiciones en que se registró
la escena.

• Realces:

Son procedimientos que tienden a mejorar la interpretabilidad visual de una imagen,


aunque no aumentan la cantidad de información contenida en ella. El rango de opciones
de que dispone el analista para realces de imagen es virtualmente ilimitado, aunque la
mayoría de estas técnicas pueden ubicarse en dos grupos:
El rango de valores iniciales de los pixeles (20 a 127) es
+ Operaciones de punto: expandido hasta obtener el rango máximo de 0 a 255. Al
expandir la escala de grises se logra realzar detalles
Modifican independientemente sutiles de la imagen, difíciles de discriminar con la
el brillo de cada píxel compresión inicial.

(estiramiento de contraste y
manipulaciones espectrales).

+ Operaciones locales:

Modifican el valor de cada píxel


basadas en el valor de los
pixeles vecinos (filtrado
espacial).

• Estiramiento de contraste:

Involucra un cambio de forma


del histograma reasignando los
valores de los pixeles. A través
de una función de transferencia
lineal se puede efectuar dicha
transformación.
• Filtros.

Los filtros digitales son técnicas que se utilizan para corregir las alteraciones
radiométricas de una imagen modificando los ND originales de la misma con el objeto
de acercarlos a una representación ideal de la realidad.

Los filtros corresponden a matrices de coeficientes numéricos que permiten atenuar o


acentuar (según su finalidad y estructura) las gradaciones radiométricas presentes en
una imagen.
- Paso Bajo:

Tienden a destacar el componente de


homogeneidad de una imagen.

Enfatizan aquellas áreas donde la


frecuencia de cambio es baja.

Suavizan los contrastes especiales


presentes en la imagen y restauran
los errores aleatorios que puedan
presentarse.

Estos filtros están especialmente


indicados para suprimir rangos de
frecuencias altos. Esto implica que el
uso de los mismos tendrá un efecto
de supresión de todas aquellas
características asociadas con altas
frecuencias (fronteras, saltos, ruido,
etc.).
- Paso Alto:

Procuran aislar los componentes de alta frecuencia en una imagen, remarcando los
contornos entre áreas contiguas evidenciando cualquier discontinuidad (eliminación de
componentes de baja frecuencia que dan continuidad a la imagen y consiguiente resalte
de los bordes y otros detalles afilados).

Existen filtros derivados del análisis de gradientes que permiten remarcar sólo
discontinuidades en un sentido determinado (direccionales) o en todos los sentidos
simultáneamente (no direccionales).
- Estadísticos:

Son útiles para tareas tales como la reducción del nivel de ruido o extracción de
características estructurales.

Algunas de las medidas utilizadas son: media, moda, máximo, mínimo, desviación
estándar, entre otras.
- Filtro de Mediana:

Es un filtro de bajo paso basado en la sustitución del valor central de la matriz por la
del valor medio de los niveles digitales vecinos. El uso de este filtro, aparte de eliminar
ruido de la imagen, también resuelve discontinuidades de una imagen sin destruir la
información general. Los píxeles que no son similares en valor a sus vecinos son
eliminados; la característica de píxeles muy diferentes es una indicación de que la
imagen posee ruido.

- De Gradientes:
Son operaciones mediante las cuales se resaltan cambios significativos de intensidad
a nivel local (detección de bordes).

- Filtro de Roberts:
Es una matriz de filtrado de 2 x 2. Posee la desventaja de ser muy sensible al ruido
por la utilización de pocos píxeles para aproximar al gradiente.

Gx= Componente
Gx= 1 0 Gy= 0 1 horizontal.
Gy= Componente
0 -1 -1 0 vertical.
5.6 Clasificaciones de imágenes de sensores remotos.

La clasificación de una imagen digital consiste en categorizar una imagen multibanda.

Se pasa de tener unos ND continuos medidos por los sensores a una escala nominal
o categórica de manera que cada píxel pertenece a una categoría definida
previamente.

El ND de un píxel clasificado es, en definitiva, el identificador de la clase o categoría


en la que se haya incluido.

Estas clases pueden describir distintos tipos de cubiertas (variable nominal o


categórica - clasificación de distintos tipos de cubierta vegetal -) o bien intervalos de
una misma categoría de interés (variable ordinal - clasificar distintos niveles de daño
producidos por un incendio -).

Se distinguen las siguientes fases:

1. Definición digital de las categorías (fase de entrenamiento).

2. Agrupación de los píxeles de la imagen en una de las categorías previamente


definidas (fase de asignación).

3. Comprobación y verificación de los resultados.


- Clasificación no supervisada:

La clasificación no supervisada
consiste en agrupar un conjunto de
objetos, definidos por variables, en
clases, basados en la posesión de
características afines y similitud entre
sí.

La similitud entre observaciones se


establece en términos de distancias.

Sin Clasificar: 8.288%


Clase 1: 2,747,777 p (18.204%)
Clase 2: 1,911,890 p (12.666%)
Clase 3: 2,905,489 p (19.249%)
Clase 4: 3,273,618 p (21.688%)
Clase 5: 3,004,309 p (19.904%)

Clasificación No Supervisada: K-
Means, 1 iteración, 0.5
- Clasificación supervisada:

La clasificación es supervisada si ya
existe un conjunto de observaciones
clasificadas en un conjunto de clases
dado y se conoce la clase a la que
cada observación pertenece.

Dos fases fundamentales bien


diferenciadas:

1. El desarrollo o creación de una o


varias regla de decisión (diseño del
clasificador).

2. El proceso en sí de clasificación de
nuevas observaciones o rasgos.

ROI´s:
Azul: Agua (5,629 p)
Amarillo: Cultivos, otros usos (29,886 p)
Blanco: Mancha Urbana, (18,297 p)
Verde: Vegetación con algún grado de calidad y conservación (15, 949 p)
+ Método de Paralelogramo: + Método de Máxima Similitud:

Sin Clasificar: 18.825% Sin Clasificar: 13.896%

Azul: 0.196% Azul: 0.186%

Amarillo:70.179% Amarillo: 62.687%

Blanco: 4.990% Blanco: 9.075%

Verde: 5.811% Verde: 14.155%


5.7 Combinaciones de color.

Las imágenes satelitales suelen ser multiespectrales, es decir que son registradas
simultáneamente en varias regiones del espectro electromagnético.

Estas imágenes pueden ser estudiadas individualmente en escalas de grises o en


imágenes coloreadas obtenidas a partir de las primeras. Estas últimas se generan
según el modelo de color RGB.

Este hace referencia a la composición del color en términos de la intensidad de los


colores primarios con los que se forma: el rojo, el verde y el azul. Es un modelo de color
basado en la síntesis aditiva, es decir basado en la mezcla por adición de dichos
primarios.
- RGB 3,2,1:

Esta combinación suele llamarse “color natural”.

Involucra a las tres bandas visibles y se le asigna a cada una de ellas su verdadero
color, resultando una combinación que se aproxima a los colores naturales de la
escena.

La vegetación aparece en diversos tonos de verde y los suelos en colores marrones o


tostados.

Además, las bandas visibles tienen buena penetración en los cuerpos de agua y esta
combinación permite observar detalles en agua poco profundas (turbidez, corrientes,
batimetría, plumas de sedimentos, etc.).

- RGB 5,4,3:

Constituye una “simulación” del color natural, pese a utilizar 2 bandas infrarrojas.
- RGB 4,3,2:

Esta combinación suele llamarse “falso color infrarrojo” pues los colores resultantes
en la imagen son similares a los de las fotografías obtenidas con film infrarrojo color.

Al asignar el rojo a la banda 4 (IrC) resultará que todos los tonos de rojo, desde el
rojo muy oscuro al rosado pálido corresponden a vegetación

Los tonos más oscuros se relacionan con la presencia de vegetación arbórea densa,
como bosques, montes, etc., pudiéndose identificar algunas especies como pinos y
eucaliptos.

Rojos claros indican cultivos y praderas vigorosas.

Los rosados corresponden a vegetación poco densa como pasturas naturales.

El celeste corresponde a suelo desnudo, seco o áreas rocosas.

El azul oscuro a negro se relaciona con agua clara en cursos o cuerpos de agua
(partículas en suspensión aparecerán con tonalidades cian).

Los colores verde a verde azulado corresponden a parcelas aradas o suelos


descubiertos con mayor o menor contenido de humedad.
- RGB 4,5,3:

Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener ciertas
similitudes con la combinación RGB 4,3,2 .

Sin embargo, al dar más peso a la región infrarroja (bandas 4 y 5) se ve realzada la


diferencia de humedad en suelos y vegetales. Generalmente cuanto mayor es la
humedad del suelo más oscuro aparecerá éste.

- RGB 7,2,1:

Esta combinación de bandas es ampliamente utilizada en Geología.

Utiliza las tres bandas menos correlacionadas entre sí. La banda 7 (6), en rojo, cubre
el segmento del espectro electromagnético en el que los minerales arcillosos absorben,
más que reflejar, la energía

La banda 2, en verde, cubre el segmento en el que la vegetación refleja fuertemente.

La banda 1, en azul, abarca el segmento en el cual los minerales con óxidos de hierro
absorben energía.
- RGB 7,4,2:

Permite discriminar los tipos de rocas.

Ayuda en la interpretación estructural de los complejos intrusivos asociados a los


patrones volcano-tectónicos.

- RGB 5,4,3:

En esta combinación la vegetación aparece en distintos tonos de color verde.

- RGB 7,3,1:

Ayuda a diferenciar tipos de rocas.

Define anomalías de color que generalmente son de color amarillo claro algo
verdoso

La vegetación es verde oscuro a negro, los ríos son negros y con algunas
coloraciones azules a celestes.

Vous aimerez peut-être aussi