Académique Documents
Professionnel Documents
Culture Documents
CONTENIDO
LOS ESPECTROS.
SUPERFICIE TERRESTRE.
5. INTERACCIONES ATMOSFERICAS.
7. SENSORES.
Página 1 de 123
1. DEFINICIONES Y CONCEPTOS FUNDAMENTALES.
Los humanos tomamos conocimiento del mundo exterior detectando y midiendo los
cambios que los objetos imponen a los campos que los envuelven, según sean
éstos electromagnéticos, acústicos, gravimétricos o magnéticos: bastará poseer el sensor
adecuado para cada caso. Desde un punto de vista práctico, más acorde a nuestros fines,
podemos restringir la generalidad de este concepto limitándonos a utilizar el término
“percepción remota” (o “teledetección”) en conexión con técnicas electromagnéticas de
adquisición de información. Si quisiéramos historiar la evolución de la percepción
remota deberíamos, en un sentido estricto, retroceder algunos cientos de millones años
cuando alguna forma inferior de vida comenzó a diferenciar algunas de sus células
volviéndolas fotosensibles, proceso que evolucionó también durante millones de años
hasta convertirlas en un sensor altamente sofisticado como el ojo humano. Si bien éste
fue y sigue siendo el sensor utilizado en muchas aplicaciones cotidianas de la
percepción remota, ya desde el siglo XIX comenzó a ser sustituído por un mecanismo
que lo imitaba ofreciendo algunas ventajas como el del registro permanente de las
observaciones: la cámara fotográfica. Esta fue montada en plataformas tan dispares
como palomas y globos aerostáticos en un principio, luego en aviones y en épocas más
recientes en las primeras plataformas orbitales. El vertiginoso desarrollo de estas
últimas, acompañadas por los avances tecnológicos paralelos llevaron a la situación
actual en que innumerables plataformas orbitan la Tierra observándola con sofisticados
sensores como escáneres multiespectrales, sensores térmicos infrarrojos, sistemas de
radar y laser, etc.
FIG 2
Página 3 de 123
2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNÉTICAS
Fig 3.
Página 4 de 123
del espectro electromagnético representa sólo una pequeña
fracción de éste.
Obsérvese que la región visible del espectro electromagnético representa sólo una
pequeña fracción de éste.
Página 5 de 123
3. INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE
LOS ESPECTROS.
Con A y B representamos dos niveles electrónicos, que son los que involucran un
mayor diferencial de energía. Cada uno de ellos posee sus propios niveles
vibracionales v y a su vez éstos poseen una estructura “fina” rotacional r.
En la misma figura se representa una transición entre los dos niveles electrónicos., Esta
puede iniciarse y terminar en diversos niveles vibracionales o rotacionales de ambos
niveles electrónicos, siempre que ciertas reglas de selección de la Mecánica Cuántica
autoricen tal transición. Para nosotros el hecho más importante a destacar es que los
patrones de niveles energéticos como el representado en la Fig 6 son específicos de
cada especie atómico-molecular.
Página 6 de 123
En condiciones usuales de temperatura ambiente los sistemas atómico-moleculares
suelen encontrarse en sus niveles energéticos más bajos, pero por el aporte de diversas
formas de energía (eléctrica, térmica, electromagnética, etc.) pueden ser excitados a
niveles energéticos superiores. Si la energía suministrada al sistema es suficiente podrá
provocar transiciones entre niveles electrónicos, usualmente acompañadas, como ya
vimos, por cambios vibracionales y rotacionales. Si las energías aportadas son menores
las transiciones sólo se producirán entre niveles vibracionales e incluso sólo
rotacionales. Consideremos la excitación de las moléculas por aporte de energía
radiante mediante un haz de radiación que posea un rango continuo de longitudes de
onda (o, lo que es equivalente, por un haz de fotones cuyas energías cubren un amplio
rango continuo de valores): este es el caso típico de la radiación emitida por el sol o por
cuerpos incandescentes. Este tipo de radiación suele llamarse continua o de espectro
continuo. El objeto o sistema irradiado absorberá aquellos fotones que poseen la
energía justamente necesaria para producir las transiciones que le son permitidas. Es así
que en el haz transmitido o reflejado luego de interaccionar con el sistema el número de
fotones de ciertas longitudes de onda se verá reducido, o dicho de otro modo, la
intensidad de las radiaciones de determinadas longitudes de onda se verá reducida.
La forma de dicha curva depende del patrón de niveles energéticos del objeto irradiado
y siendo dicho patrón altamente específico para el sistema atómico molecular del
objeto irradiado, es decir de su estructura química, la curva espectral de éste constituye
algo así como una impresión digital o firma espectral del objeto en cuestión
permitiendo su identificación.
Página 7 de 123
4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA
SUPERFICIE TERRESTRE.
Página 8 de 123
Entre estos dos casos caben todas las posibilidades intermedias.
Como puede observarse (a) (b) también en la Fig. 9 (c) en el caso de la reflexión difusa
la radiación penetra hasta cierta profundidad en el material y tiene oportunidad de
interaccionar con los componentes químicos de éste. La radiación reflejada en forma
difusa posee pues más información que la especular acerca del objeto irradiado.
Obviamente, en Percepción Remota será pues particularmente importante medir las
propiedades de la reflectancia difusa de los objetos terrestres. Las características del
fenómeno de reflexión por parte de un objeto sobre la superficie terrestre puede ser
cuantificada midiendo la porción de energía incidente sobre el objeto que es reflejada
por éste. Podemos entonces definir la Reflectancia Espectral como:
Página 10 de 123
LA REFLECTANCIA EN LOS VEGETALES
Página 11 de 123
carentes de clorofila y recubiertas por una delgada película de ceras. El tejido
mesodérmico entre las dos epidermis está formado por dos capas. La superior contiene
células oblongas dispuestas en forma regular y ordenada (tejido en empalizada). Estas
células son ricas en las clorofilas a y b que están contenidas en cuerpos subcelulares
denominados cloroplastos, componentes predominantes del grupo de cromoplastos
que también contienen pigmentos como xantofilas y carotenos (las clorofilas reflejan el
verde, las xantofilas el amarillo, verde y rojo y los carotenos el rojo). La parte inferior
del tejido mesodérmico es esponjoso, formado por células de forma irregular,
flojamente empaquetadas, dejando entre ellas numerosos espacios intercelulares y
cavidades de aire. En la misma Fig. 12 se indican posibles trayectorias para la
radiación que atraviesa la hoja. Generalmente sólo una pequeña fracción de la
radiación incidente es reflejada directamente por la superficie externa.pues la cutícula y
la epidermis son casi transparentes al visible y al IR cercano. Otra fracción de
radiación puede ser transmitida directamente a través de la hoja. Finalmente, el resto de
la radiación sufre interacciones con la estructura interna de la hoja. Parte de ella puede
ser absorbida por los pigmentos de la hoja ,pero una fracción importante sufre
reflexiones y refracciones múltiples en el tejido esponjoso debido a la sensible
diferencia de índices de refracción entre el aire (n=1.0) y las paredes de las células
hidratadas (n=1.3).
Página 12 de 123
mal drenados. La rugosidad y la materia orgánica, así como el óxido de hierro
disminuyen la reflectancia del suelo, a lo menos en la región visible.
LA REFLECTANCIA EN EL AGUA
Página 13 de 123
5. INTERACCIONES ATMOSFERICAS
La radiación registrada por sensores remotos debe realizar una trayectoria a través de
la atmósfera, a consecuencia de la cual sufre variados efectos. La entidad de éstos
depende del trayecto recorrido, de las condiciones atmosféricas presentes y de la
longitud de onda de la radiación. En general intervienen dos mecanismos principales:
dispersión y absorción.
Página 14 de 123
ocurrirá que en el espectro visible se dispersan en igual proporción las radiaciones
azules, verde y rojas, con la consecuencia de que las nubes y la niebla aparecen blancas.
ABSORCION
Página 15 de 123
6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES
Página 16 de 123
Un zoom sobre dicha imagen permite detectar objetos de10m. Entre las misiones
espaciales citemos las misiones Mercury, Gemini y Apolo. En particular el Apolo IX
realizó la primera experiencia controlada de fotografía orbital multiespectral. Estas
experiencias fueron continuadas en posteriores misiones (Skylab,Apolo-Soyuz, etc.)
Sin embargo, el año 1972 marca un hito en el avance de la percepción remota satelital
con el lanzamiento, por parte de E.E.U.U., del primero de una serie de satélites ópticos
especialmente destinados a monitorear los recursos terrestres. Dicha serie se llamó
LANDSAT y actualmente operan Landsat-5 y Landsat-7, Fig. 17, este último
actualmente con serias dificultades en su sistema de barrido constituyendo un
obstáculo para muchas de sus aplicaciones. Por su parte Francia, con la participación
de Suecia y Bélgica, lanzó en 1986 el primer satélite de laserie SPOT (Systeme Pour
l'Observation de la Terre) de la cual operan actualmente los Spot -2, -4 y –5 (Fig. 18).
Como una posibilidad ofrecida por los últimos desarrollos espaciales debemos
mencionar la adquisición de imágenes desde la Estación Espacial Internacional (ISS)
(Fig. 24) que vino a sustituir a la estación rusa MIR, que debió ser destruida al cabo de
su vida útil.
Página 18 de 123
Administration -USA), SEA STAR (USA) describen órbitas cuasi polares sincrónico-
solares a altitudes del orden de 850 km y resoluciones espaciales de 1km. Otros
satélites, como los de las series GOES (Geostationary Operational Environmental
Satellite) y METEOSAT (Eutmetsat – Europa), etc. Se mantienen en órbitas
geoestacionarias a aproximadamente 36000 km y con resoluciones espaciales de 1km.
Debe tenerse en cuenta que el período de un satélite, es decir el tiempo que tarda en
completar su órbita aumenta con la altitud: a 36000 km un satélite posee el mismo
período que la Tierra. Así, si se posiciona en el plano ecuatorial permanece estacionario
respecto a la superficie de la Tierra, es decir, observando siempre el mismo hemisferio. La
operación de estos satélites se esquematiza en la Fig. 25
Página 19 de 123
Ya mencionamos que los satélites utilizan sensores diferentes a los de la fotografía
convencional. En general se trata de sensores electrónicos de estado sólido, adecuados
a las regiones espectrales para las que se desea obtener imágenes. Como detallaremos
más adelante cada satélite puede registrar las imágenes terrestres simultáneamente en
varias regiones visible e infrarrojo cercano, medio o térmico del espectro
electromagnético. Los sistemas óptico-telescópicos del satelite enfocan las escenas
terrestres sobre arreglos de tales detectores y las señales analógicas generadas por éstos
son digitalizadas para su retransmisión, sea a otros satélites geosincrónicos sea a
estaciones rastreadoras terrenas. Estas posibilidades se esquematizan en la Fig.26.
Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si
ésta está en la línea de visión del satélite (A).
Página 20 de 123
7. SENSORES
Otra característica que conviene distinguir en los sensores remotos es la manera como
ellos registran la información a medida que avanzan según su trayectoria u órbita. En
general el área barrida se extiende a ambos lados de la trayectoria (swath width) y su
anchura queda determinada por la óptica del sistema por ej. por el telescopio que debe
llevar el sistema para observaciones desde cientos de kilómetros de altura y determina
el campo de visión (Field of View o FOV) Las dos principales opciones de barrido se
esquematizan en la Fig. 27. El modo cruzado con la trayectoria (cross track o
Página 21 de 123
whiskbroom mode) normalmente utiliza un espejo rotatorio u oscilante, es decir que
constituye un sistema óptico-mecánico. Este barre la escena a lo largo de una línea
simple (o múltiple) transversal a la trayectoria. Esta línea es muy larga (kilómetros)
pero muy angosta (metros).
O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las
cuales refleja radiación y que son sensadas secuencialmente a lo largo de la línea. En el
sensor cada una de estas celdas está asociada a un pixel (o picture element) ligado a un
detector microelectrónico y se caracteriza por un dado valor de radiación que a través
del efecto fotoeléctrico genera una corriente electrónica.
El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a
dicho píxel, queda determinada por el Campo de Visión Instantánea del sensor
(Instantaneous Field of View – IFOV).
El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al
área terrestre que está midiendo en cada instante. El IFOV es función de la óptica del
sensor, del tamaño del detector, de la altitud de la plataforma, etc. Los electrones
emitidos son recogidos sucesivamente, píxel por píxel, generando una señal variable
que representa la variación espacial de la radiación por el muestreo progresivo que el
sensor va efectuando sobre la escena terrestre estudiada. Esto permite asignar a cada
píxel un valor discreto llamado Número Digital (DN – digital number). Estos números
digitales resultan de convertir las señales analógicas generadas por el detector en valores
digitales constituidos por números enteros que cubren un intervalo finito, por ejemplo
28 cubriendo el intervalo de 0 a 255. Estos valores digitales permitirán construir la
imagen a través de dispositivos adecuados, por ejemplo el monitor de una computadora.
Página 22 de 123
En el modo de barrido en la dirección de la trayectoria (along track pushbroom) no
existe espejo oscilante, sino un arreglo lineal de pequeños detectores cuyas minúsculas
dimensiones permiten que se asocien hasta miles de ellos en dicho arreglo. El sistema
de filtros incorporado al arreglo permite seleccionar las longitudes de onda. Cada
detector es un dispositivo de acoplamiento de carga (Charge-Coupled Device – CCD –
ver más adelante).
En este modo de barrido, los píxeles que constituirán la imagen final corresponden a
estos microdetectores con sus correspondientes filtros incorporados en el arreglo lineal.
A medida que la plataforma avanza en su órbita la radiación proveniente de las celdas
terrestres a lo largo del campo de visión del satélite llega simultáneamente a los
correspondientes detectores. La señal generada por cada detector es removida en
milisegundos, siendo el detector reseteado a cero quedando pronto para recibir la
radiación proveniente de la nueva línea del campo de visión.
7.2 Naturaleza de los detectores. En los primeros tiempos de la percepción remota los
detectores eran del tipo de los fotomultiplicadores. Actualmente la mayoría de los
detectores son de estado sólido, constituido por aleaciones o metales semiconductores.
Estos poseen una conductividad eléctrica intermedia entre la de un metal y la de un
aislador.
Página 23 de 123
La Fig. 29 muestra una imagen obtenida con un microscopio electrónico de un
fragmento de un arreglo lineal de CCD´s.
Página 24 de 123
7.SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HRVIR
7.3 Estudio de dos casos: LANDSAT y SPOT. Para profundizar algo el estudio de los
mecanismos de recolección de datos por percepción remota hemos seleccionado como
ejemplos típicos los casos de dos plataformas clásicas cuyas respectivas familias han
contribuido y siguen contribuyendo decisivamente a las aplicaciones prácticas de esta
disciplina: LANDSAT y SPOT. El primer caso es un ejemplo típico whiskbroom y el
segundo de pushbroom. En la Fig 30 se representa el esquema óptico del sensor TM
(Thematic Mapper) diseñado para Landsat-4 y Landsat-5. Nota.-Posteriormente se
desarrolló el ETM (Enhanced Thematic Mapper) para el Landsat-6 , que se perdió en
ellanzamiento. El actual Landsat-7, que permanece operativo junto con el Landsat-5,
lleva a bordo el ETM+ (Enhanced Thematic Mapper Plus). Este último, aunque
similar, presenta mejoras frente al TM, por ejemplo una banda pancromática de 15 m
de resolución y una mayor resolución de las bandas infrarrojas térmicas. Sin embargo,
un defecto aparentemente irreparable en el sistema óptico ha reducido mucho la
eficiencia de sus aplicaciones.
FALTA FIGURA 30
Este sensor está diseñado para tomar imágenes en el nadir, es decir imágenes de areas
terrestres ubicadas directamente debajo del sensor. El escaneado lo realiza un espejo
oscilante bidireccional que permite un ancho de barrido de 185 km. Un telescopio
dirige la radiación hacia un corrector de las líneas barrido (SLC-scan lines corrector).
Este último es necesario para corregir el efecto acumulado del desplazamiento del
satélite en su órbita y el barrido cruzado realizado por el espejo. El SLC es un sistema
de espejos que rota perpendicularmente al espejo de barrido y compensa el efecto
orbital.Luego de la corrección la radiación incide en el plano focal primario donde se
encuentran los detectores para visible e infrarrojo cercano con sus correspondientes
filtros espectrales (bandas 1 a 4). Una parte de la energía es redirigida por un relay
óptico al plano focal refrigerado (91ºK) para infrarrojo medio y térmico donde se
encuentran los correspondientes detectores con sus filtros. Los detectores para visible e
infrarrojo cercano son de silicio organizados en 4 líneas de 16 detectores cada uno.
Para las bandas 5 y 7 (IR medio) los detectores son de antimoniuro de indio
organizados cada uno en líneas de 16 detectores. Por su parte el detector de infrarrojo
térmico es un arreglo de cuatro detectores de telururo de cadmio y mercurio. El IFOV
del TM es de 30x30m para las bandas 1-5 y 7, y de 120x120m para la banda infrarroja
térmica. En el ETM+ del Landsat-7 este último valor ha sido mejorado a 60x60m. La
familia SPOT está constituida por 5 satélites (SPOT-1, lanzado en 1986 hasta el SPOT-
5 lanzado en el 2002) de los cuales están operativos los miembros 1,2,4 y 5. Todos se
caracterizan por el sistema pushbroom de barrido. Los sensores de estos satélites HRV
(High Resolution Visible) para 1,2 y 3 y HRVIR (High Resolution Visible Infrared)
para 4 y 5 se caracterizan por estar duplicados en cada satélite y por poder ser
orientados independientemente para efectuar observaciones con distintos ángulos. En
la Fig. 31 se esquematiza un SPOT con sus dos instrumentos enfocados al nadir. Cada
uno de ellos cubre una línea de barrido de 60 km. En la Fig. 32 se esquematizan las
posibilidades de observación de cada sensor.
Página 25 de 123
La radiación reflejada desde el terreno entra al HRV o HRVIR vía un espejo plano y
un telescopio la proyecta sobre dos arreglos CCD de 6000 detectores cada uno
dispuestos linealmente (ver Fig. 29). Cuando los dos instrumentos “miran”
directamente el terreno debajo del sensor se pueden disponer de modo de cubrir franjas
adyacentes, con un campo de visión total de 117 km y una sobreposición de 3 km. Sin
embargo, es también posible seleccionar desde la estación operadora terrestre ángulos
de observación fuera de nadir. De esta manera es posible observar desde una posición
centrada en la proyección terrestre de la trayectoria del satélite cualquier región de
interés dentro de una franja terrestre de 950 km. Esto hace que, pese a que el satélite
tiene un período de revisita de 26 días, puede observar una misma área en intervalos de
4 o 5 días en pasajes por órbitas cercanas realizando observación oblicua. También
pueden realizarse observaciones en pasajes en días sucesivos de modo que las dos
imágenes sean adquiridas según ángulos a ambos lados de la vertical (Fig.33). Se
obtienen así imágenes para medidas topográficas.
Página 26 de 123
7.3 Bandas Espectrales de LANDSAT TM y SPOT HRVIR. En la Tabla siguiente se
presentan los rangos de longitudes de onda abarcados por las bandas espectrales de
estos satélites:
Página 28 de 123
7. RESOLUCION
7.4.2 Resolución espectral. Ya vimos cómo los sistemas de percepción remota están
usualmente diseñados para captar imágenes en determinados rangos de longitudes de
onda denominados bandas o canales. Dependiendo de la aplicación pueden
seleccionarse sensores con bandas relativamente estrechas o anchas. La resolución
espectral se refiere al número y ancho de las bandas espectrales registradas por un
sensor. Cuanto más estrechas sean estas bandas mayor será la resolución espectral. Ya
nos hemos referido brevemente a este tema en la Sec. 7.1. cuando hablamos de
espectrómetros y espectroradiómetros. Para referirse a la multiplicidad y anchos
espectrales de las bandas de los sensores de percepción remota suele distinguirse entre
los sistemas multiespectrales y los hiperespectrales. El LANDSAT y el SPOT son
sistemas multiespectrales, que se caracterizan por un número no muy elevado de
bandas espectrales (V. tabla en Sec. 7.3). El sensor ASTER en el satélite TERRA de la
NASA posee 14 bandas en las regiones visible, infrarroja y térmica del espectro. Los
sistemas hiperespectrales (imaging spectrometers) se caracterizan por registrar
imágenes en cientos de bandas espectrales muy estrechas. Una limitación al número de
bandas consiste en que cuanto más estrecha es la banda menor es la energía que
transmite al detector. Las figuras 35 y 36 permiten visualizar la diferencia en los
perfiles espectrales de una dada región de la imagen según se analice con un sensor
multiespectral o hiperespectral.
Página 29 de 123
El primero es similar al del LANDSAT 7, y el segundo es el sensor HYPERION del
satélite EO-1 de la NASA. La Fig. 35 corresponde a un área agrícola próxima al río
Cuareim en Artigas, y la segunda corresponde a un muestreo del Cuareim. Si bien los
dos espectros poseen abscisas expresadas en diferentes sistemas, las líneas roja, azul y
verde en ambos perfiles corresponden a las mismas longitudes de onda. Se sugiere
comparar estas gráficas con las de la Fig. 11.
Página 30 de 123
Página 31 de 123
En la Sec. 7.1 ya mencionamos los números digitales (DN) asociados a cada píxel en
las imágenes digitales y que generan lo que llamamos escala de grises que en realidad
es la escala de niveles digitales disponibles para representar los detalles de la imagen.
El número de niveles de grises se expresa comúnmente en términos de dígitos binarios
(bits) necesarios para almacenar el valor del nivel de gris máximo para el caso
considerado.
Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores
1y 0. Usando un arreglo de bits puede representarse un número cualquiera dentro de los
límites de “longitud de palabra” de la computadora. Para lograr una imagen de pantalla
con variaciones de brillo prácticamente continuas desde el punto de vista visual se
necesitan 5 o 6 bits por píxel.
El número de valores que pueden ser representados por una serie dígitos es xn , donde x
es el número de valores que cada dígito puede representar y n es el número de dígitos
usados. En una base binaria el número de valores será 2n . Por ejemplo, para 5 bits
tendremos 32 valores, para 8 bits 256 valores, para 11 bits 2048, etc. En el caso del
Landsat y el HRVI se tienen 8 bits, es decir, la escala de grises se extiende de 0 a 255,
totalizando 256 valores.
Página 32 de 123
En la Fig. 39 vemos que las características orbitales del LANDSAT hacen que la
distancia entre el trazado terrestre de dos órbitas consecutivas sea de 2752 km en el
ecuador. En la Fig. 40 se observan las órbitas recorridas en días sucesivos. El intervalo
de tiempo entre órbitas adyacentes es de 7 días. De todos modos como LANDSAT-5 y
LANDSAT-7 están defasados 8 días, cuando ambos satélites se encuentran operativos
puede lograrse para una dada región una cobertura LANDSAT cada 8 días.
Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden
orientarse según diferentes ángulos, con lo cual pueden registrar imágenes no sólo en el
nadir sino también a través de enfoques laterales, frontales o traseros. Esto permite
lograr períodos de revisita mucho más cortos, incluso de dos o tres días. Otro ejemplo
de satélites con alta resolución temporal lo constituyen los de la serie NOAA con sus
sensores AVHRR.
Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria
global diurna y nocturna. Sin embargo, debe tenerse en cuenta que la resolución
espacial de éstos es de 1 km, es decir mucho menor que la de los satélites anteriormente
mencionados. De todos modos, su elevada resolución temporal, los hace sumamente
útiles en monitoreos ambientales o agrometeorológicos sobre áreas muy extensas. Estas
características son compartidas con el instrumento MODIS a bordo de los satélites
TERRA y ACQUA sobre áreas muy extensas. Estas características son compartidas con
el instrumento MODIS a bordo de los satélites TERRA y ACQUA.
Los siguientes son ejemplos de escalas y las correspondientes distancias terrenas para
tres distancias medidas sobre un mapa o imagen:
Un cálculo similar puede efectuarse para áreas. Así, para una escala 1:10000 un área
de 1mm x 1mm en el mapa o imagen corresponde a 0.01 ha. sobre el terreno.
Página 33 de 123
Igualmente, un área de 5cm x 5 cm sobre el mapa corresponde a un área de 25 ha
sobre el terreno. Es común referirse a una escala diciendo que es mayor o menor que
otra escala. Sin embargo, esta manera de expresarse puede llevar a confusiones. En
efecto, una escala de por ejemplo 1:100000 suele llamarse “escala de 100000” y una
escala de 1:40000 “escala de 40000”. Sin embargo la primera es menor que la
segunda, ya que el número 1/100000 es menor que el de 1/40000. Lo mejor sería decir
que 1:100000 es una escala “gruesa” y 1:40000 una escala “fina”.
ED = DD / DR * ER
donde ED: escala desconocida a calcular; DR: distancia entre dos puntos medida sobre
la imagen o mapa de referencia; DD: distancia entre los mismos dos puntos medida
sobre la imagen o mapa de escala desconocida. Ejemplo:
En el caso de que la referencia sea una medida sobre el terreno la fórmula a emplear
será:
ED= MD/RD
donde ED: escala desconocida a calcular; RD: distancia entre dos puntos medida sobre
el terreno; MD distancia entre los mismos dos puntos medidos sobre el mapa o imagen
7.5.2 Escala vs. Resolución Espacial. Ya vimos (Sec. 7.4.1) que la resolución
espacial de una imagen es una indicación del tamaño del pixel expresada en términos
de dimensiones sobre el terreno. Usualmente se presenta por un valor único
correspondiente a la longitud de un lado del cuadrado correspondiente a dicho pixel.
Así, una resolución espacial de 30 m significa que el pixel representa un área de 30 m
Página 34 de 123
x 30 m sobre el terreno. Si el pixel fuera rectangular debería ser representado por su
largo y ancho, por ejemplo 56 m x 79 m. La resolución espacial es una indicación del
potencial de detalle que ofrece una imagen. Si una imagen de satélite de 1 m de
resolución se imprime a una escala de 1/500000 se perdería el potencial de detalle que
ofrece dicha imagen. La inversa también es cierta: si se imprime una imagen de baja
resolución espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles
individuales. Cuando efectuamos “zoom” repetido sobre una imagen digital (es decir,
cuando vamos “afinando” la escala) llega un momento en que comienzan a visualizarse
los pixeles, y a partir de ese punto aunque sigamos afinando la escala no se aumentará
su nivel de detalle llegando a dificultarse su interpretación.
Página 35 de 123
8. ESTRUCTURA DE LAS IMÁGENES DIGITALES
Cada pixel en cada banda está en perfecto registro geométrico con sus equivalentes de
las restantes bandas. Asociado a cada pixel existe un número (Número Digital, DN)
que mide la radiancia promedio o brillo correspondiente al área de escena abarcada por
dicho pixel. En una base binaria de 8 bits el DN poseerá 28 valores en un rango de 0 a
255.
Estos valores pueden ser modulados para producir en la pantalla de una computadora
un escala de grises que va desde el negro (DN=0) hasta el blanco (DN=255). O sea que
para cada pixel en una escena que consta de k bandas espectrales habrá asociados k
niveles de grises. Estos definen un espacio espectral k dimensional en el que cada pixel
es representado por un vector que constituye su firma espectral y que permitirá, a
través de operaciones de clasificación basadas en algoritmos matemático-estadísticos,
asignar dicho pixel a clases temáticas definidas. El área terrestre representada por un
pixel está determinada por la altura del sensor y los parámetros de diseño de éste,
particularmente el campo de visión instantáneo (IFOV). Obviamente al reducirse dicha
área más detalles de la imagen serán aparentes, es decir que aumenta la resolución
espacial.
O sea que desde el punto de vista espectral se trata de un pixel mezclado. Conociendo
los espectros puros de cada objeto o clase que incluye el pixel (obtenido de
bibliotecas adecuadas o de ensayos de laboratorio previos), a través de técnicas de
desmezclado se puede efectuar un análisis subpixel para estimar la proporción de las
diferentes clases
Página 37 de 123
También relacionado con la composición espectral del pixel existe un problema
significante aunque usualmente ignorado. En efecto, se demuestra que una proporción
importante de la señal que aparentemente proviene del área de terreno representada por
un dado pixel proviene de los pixeles vecinos, tal como se esquematiza en la Fig. 43.
Aunque los pixeles de una imagen usualmente aparecen cuadrados, la radiación que se
ha registrado y que define la composición espectral de dichos pixeles proviene de un
área circular (o elíptica si el sensor no observa directamente el nadir) aproximadamente
doble del área cubierta por la proyección del pixel.
A pesar de que los detectores del sensor son más sensibles en el centro del FOV del
detector (lo que hace que la mayor parte de la radiación capturada provenga del área
cubierta por el pixel) la radiación proveniente de los pixeles vecinos hace una
contribución significante al valor del pixel. Este efecto es consecuencia de muchos
factores, incluyendo la óptica del instrumento, del detector, de la electrónica asociada
así como incluso de efectos atmosféricos.
Página 38 de 123
9. PROCESAMIENTO DE LAS IMÁGENES SATELITALES
· Preprocesamiento
· Realce
· Clasificación.
FALTA FIGURA 44
Como era de esperar de acuerdo a lo que vimos acerca de la relación entre longitud de
onda y efectos de dispersión atmosféricos los valores más bajos de los histogramas
corresponden a las mayores longitudes de onda: en particular la banda infrarroja
cercana es la que posee el valor más bajo. En esta banda los cuerpos de agua clara y las
sombras topográficas poseerían un valor de reflectancia de cero o muy próximo a cero
si no fuera por el efecto dispersivo. Se admite que el desplazamiento del extremos
inferior de los histogramas es debido fundamentalmente al componente dispersivo de
la interferencia atmosférica. En efecto, suponemos que las demás bandas,
particularmente cubriendo áreas geográficas extensas deben poseer algunos pixeles
(por ejemplo sombras topográficas o de nubes, cuerpos de agua clara y profunda, etc.)
que si no fuera por el efecto atmosférico tendrían valor cero. Para apoyar esta
suposición observemos cómo en una escena lunar, Fig. 45, la ausencia de atmósfera
hace aparecer las sombras totalmente negras. Las correcciones que habría pues que
hacer a las bandas 1 a 4 es restarle respectivamente los valores 42, 37, 24 y 12.
Página 40 de 123
ROLL YAW PITCH: Estos movimientos se definen como: balanceo (roll), cabeceo
(pitch) y desvío (yaw) y son obviamente. causa de distorsiones geométricas.
Página 41 de 123
independientemente el brillo de cada pixel y operaciones locales, que modifican el
valor de cada pixel basadas en el valor de los pixeles vecinos. Dentro de las primeras
citaremos algunas como estiramiento de contraste y manipulaciones espectrales, y
entre las segundas el filtrado espacial.
Página 42 de 123
En la Fig.48 se representa gráficamente la función de transferencia lineal.
Los estiramientos de contraste pueden realizarse utilizando otras funciones de
transferencia como la gaussiana, la de igualación, la de raíz cuadrada (que implica
tomar la raíz cuadrada del histograma original y aplicarle un estiramiento lineal, etc.
En general los softwares de percepción remota ofrecen las facilidades de cálculo para
estas y otras modalidades, y el analista aplicará una u otra según sus preferencias.
Si, por otra parte, los cambios de brillo son numerosos y notorios tendremos un área de
alta frecuencia (calles o caminos en zonas urbanas, parcelas agrícolas pequeñas,etc.).
En las imágenes de percepción remota la frecuencia espacial puede realzarse o
deprimirse según la conveniencia del analista utilizando el filtrado espacial.
Este no es sino una aplicación de la operación general de procesamiento de imágenes
denominada convolución y que implica el siguiente procedimiento:
Página 44 de 123
Página 45 de 123
Página 46 de 123
Los filtros de baja frecuencia reducen las desviaciones respecto al promedio local de la
imagen y ésta aparece como más difusa, efecto que aumenta al aumentar el tamaño de
la ventana (5x5, 7x7, etc.).
Este filtro suele ser útil para reducir ciertos patrones de ruido, como por ejemplo los
efectos de ¨salt-and-pepper¨ de algunas imágenes. Los filtros de alta frecuencia
deprimen los componentes de baja frecuencia reteniendo los de alta frecuencia
(variaciones locales). Pueden ser utilizados para realzar bordes entre distintos objetos
de una imagen así como para hacer ésta más nítida. Una importante aplicación es en la
identificación y mapeos de características geológicas, incluyendo fallas, fracturas,
monoclinas, que poseen diferentes rangos de frecuencias espaciales. Un kernel de alta
frecuencia puede ser el siguiente:
Los filtros de mediana sustituyen cada pixel de la imagen por la mediana de los
pixeles vecinos. Ejemplo:
En orden crecientes los valores de los pixeles cubiertos por la ventana móvil son
Página 47 de 123
Si bien existen muchas aproximaciones para el tratamiento de este problema una de las
más usadas es el empleo de algún filtro de gradiente, como por ejemplo el de Sobel.
Este consiste en filtrar la imagen en dos direcciones ortogonales, por ej. horizontal y
vertical.
Además de los filtros que hemos mencionado como ejemplos típicos se han descrito
muchos otros que escapan del alcance de esta Introducción. Citemos por ejemplo los
filtros gaussianos, laplacianos, de transformada de Fourier, etc.
Página 48 de 123
La técnica de Análisis por Componentes Principales (PCA, Principal Components
Analysis) es una transformación que permite reducir esta redundancia y puede ser
aplicada previamente a un análisis visual o a un proceso más complejo de clasificación
a través de algoritmos matemático-estadísticos.
donde d'1 y d'2 representan los valores del pixel luego de la transformación. Esta puede
ser representada gráficamente como en las Figs. 57 a y b
Página 49 de 123
Los componentes principales del conjunto de dos bandas está constituido por el sistema
de combinaciones lineales de dichas bandas, que con una adecuada selección de los
coeficientes aij resultarán independientes y no correlacionados entre sí. Esto se ilustra
en las Figs. 57 a y b. En (a) los valores de los pixeles graficados en el espacio
bidimensional d1 y d2 están notoriamente correlacionados. En (b) se observa cómo,
luego de una adecuada combinación lineal la correlación es removida.
Página 50 de 123
En la Fig.58, se representan las bandas TM 1, 2, 3, 4, 5 y 7 correspondientes a una
imagen LANDSAT 5 (Dpto. de Paysandú). En la Fig. 59, se observa el resultado de
la transformación en componentes principales. En la Fig.60 se presentan algunos
dispersogramas de las bandas resultantes de la transformación, donde se puede
observar la ortogonalidad de los CP.
FALTA FIGURA 58
Página 51 de 123
Página 52 de 123
COMBINACIONES DE COLORES
9.2.4 Combinaciones de color. Vimos que las imágenes satelitales suelen ser
multiespectrales, es decir que son registradas simultáneamente en varias regiones del
espectro electromagnético. Estas imágenes pueden ser estudiadas individualmente en
escalas de grises o en imágenes coloreadas obtenidas a partir de las primeras. Estas
últimas se generan según el modelo de color RGB. ( del inglés Red, Green, Blue). Este
hace referencia a la composición del color en términos de la intensidad de los colores
primarios con los que se forma: el rojo, el verdey el azul. Es un modelo de color basado
en la síntesis aditiva, es decir basado en la mezcla por adición de dichos primarios. Para
indicar en qué proporción se mezcla cada color se asigna un valor a cada uno de los
colores primarios. Así por ejemplo, para un display de computadora de 8 bits por pixel
el rango de valores posibles (o sea de DN) para cada componente de color es de 0 a
255. En consecuencia existirán 2563 = 16.777.216 combinaciones posibles de rojo,
verde y azul, y a cada pixel de una combinación de color corresponderá un punto dentro
del cubo de color representado en las Figs. 61 y 62 (a esta última se le extrajo un sector
para mejor visualización interior).
Página 53 de 123
Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del azul
(0,0,255). La ausencia de color, es decir el negro corresponde al punto (0,0,0). La
combinación de dos colores a nivel 255 con un tercero a nivel 0 da lugar a tres colores
intermedios: el amarillo (255,255,0), el cyan (0,255,255) y el magenta (255,0,255). El
blanco se forma con los tres colores primarios a su máximo nivel (255,255,255).
RGB 3,2,1
Esta combinación suele llamarse “color natural” pues involucra a las tres bandas
.,visibles y se le asigna a cada una de ellas su verdadero color, resultando una
combinación que se aproxima a los colores naturales de la escena. La vegetación
aparece en diversos tonos de verde y los suelos en colores marrones o tostados.
Además, las bandas visibles tienen buena penetración en los cuerpos de agua y esta
combinación permite observar detalles en agua poco profundas (turbidez, corrientes,
batimetría, plumas de sedimentos, etc.).
RGB 5,4,3
Página 54 de 123
RGB 4,3,2
Esta combinación suele llamarse “falso color infrarrojo” pues los colores resultantes en
la imagen son similares a los de las fotografías obtenidas con film infrarrojo color. Al
asignar el rojo a la bandas 4 (NIR) resultará que todos los tonos de rojo, desde el rojo
muy oscuro al rosado pálido corresponden a vegetación: los tonos más oscuros se
relacionan con la presencia de vegetación arbórea densa, como bosques, montes, etc.,
pudiéndose identificar algunas especies como pinos y eucaliptos. Rojos claros indican
cultivos y praderas vigorosas. Los rosados corresponden a vegetación poco densa
como pasturas naturales. El celeste corresponde a suelo desnudo, seco o áreas rocosas.
El azul-celeste puede corresponder a zonas urbanas. El azul oscuro a negro se
relaciona con agua clara en cursos o cuerpos de agua. Si éstos presentan partículas en
suspensión aparecerán con tonalidades azul-verdosas (cian). Los colores verde a verde
azulado corresponden a parcelas aradas o suelos descubiertos con mayor o menor
contenido de humedad.
RGB 4,5,3
Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener ciertas
similitudes con la combinación RGB 4,3,2 . Sin embargo, al dar más peso a la región
infrarroja (bandas 4 y 5) se ve realzada la diferencia de humedad en suelos y
vegetales. Generalmente cuanto mayor es la humedad del suelo más oscuro aparecerá
éste.
Página 55 de 123
Las combinaciones de color que acabamos de ver (pag. anteror) hacen referencia a las
bandas del LANDSAT, pero los criterios son aplicables a otros satélites teniendo en
cuenta las características espectrales de sus bandas. No todas las imágenes satelitales
presentan la diversidad de bandas del LANDSAT, y en tales casos algunas de las
Página 56 de 123
combinaciones antes referidas no pueden realizarse con las escenas de dichas satélites,
no obstante lo cual el analista puede intentar otras combinaciones que permitan realzar
características de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-
17 captada sobre el Uruguay en Mayo de 2007, en un período de intensas
inundaciones. Este satélite sólo posee una banda visible (roja), dos en el infrarrojo
(cercano y medio) y dos en el infrarrojo térmico.
diversidad de las bandas del LANDSAT,y en tales casos algunas de las combinaciones
antes referidas no pueden realizarse con las escenas de dichos satélites, no obstante lo
cual el analista puede intentarotras combinaciones que permitan realzar características
de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-17 captada
sobre el Uruguay en Mayo de 2007, en un período de intensas inundaciones.
Este satélite solo posee una banda visible (roja), dos en el infrarrojo (cercano y medio) y
dos en el infrarrojo térmico. La combinación de color utilizada en este caso es RGB
3.2,1 (infrarrojo medio, infrarrojo cercano, rojo). Las bandas infrarrojas que son
intensamente absorbidas por el agua permiten destacar nítidamente los contornos de los
ríos (color negro), algunos de los cuales en este período estaban desbordados, así como
las zonas anegadas al oeste de la laguna Merín (colores oscuros). Las áreas forestadas
aparecen con color verdoso más intenso /Rivera, Paysandú). Otro ejemplo es el caso del
ASTER (instrumento a bordo del satélite TERRA) que en el modo de resolución
espacial de 20 m solo posee una banda en el verde, otra en el rojo y una tercera en el
infrarrojo cercano. En este caso es posible la combinación RGB 3,2,1 (r.r. cercano, rojo,
verde) como se aprecia en la Fig. 66, captada sobre Rincón del Bonete.
Página 57 de 123
IMAGENES SATELITALES – CLASIFICACION
Página 58 de 123
Sin embargo, la reflectancia de una dada cubierta terrestre no está usualmente
caracterizada por una curva única y definida. En efecto, la operación de diversos
factores naturales (topograficos, atmosféricos, genéticos, fenológicos, etc.) hacen que
en lugar de una sola curva haya que considerar una Familia de curvas, parecidas entre
sí pero que introducen cierta indeterminación en la caracterización de la cubierta
considerada.
O sea que no bastará un solo vector para representar una clase sino que caracterizarán
por vectores próximos entre sí y cuyas puntas determinarán un cluster, tal como se
aprecia en el diagrama de dispersión tridimensional de la Fig. 69, en la que se han
representado sólo los extremos de los vectores.
Hasta aquí nuestro ejemplo ha sido un poco simplista en el sentido de que no hemos
planteado una situación que se da corrientemente y es la superposición parcial de los
clusters. En estos casos se presentan dificultades para asignar un dado pixel a una u
otra de las clases cuyos clusters se solapan. Este problema obliga a recurrir a
soluciones de compromiso recurriendo a procedimientos de clasificación que
pasaremos a considerar. Concretando, el proceso de clasificación intenta categorizar
Página 59 de 123
todos los pixeles de una imagen digital asignándolos a una o más clases de coberturas
terrestres o clases temáticas. Esta clasificación de carácter multiespectral no es sino un
proceso de extracción de información que analiza la firma espectral de los pixeles y
los asigna a clases basadas en firmas similares. Para lograr la mencionada
categorización de los pixeles se recurre a clasificadores que pueden ser considerados
como ciertos programas de computadora que implementan estrategias específicas para
la clasificación de la imagen. En el curso del tiempo se han diseñado muchas de tales
estrategias, y entre éstas el analista debe resolver cuál de ellas se adapta mejor a las
necesidades de su trabajo. Actualmente no es posible decidir qué clasificador es el
mejor para todas las situaciones dada la gran variedad de escenas y circunstancias que
los trabajos de percepción remota enfrentan. En tal sentido será conveniente referirnos
a las estrategias alternativas para la clasificación de imágenes.
Página 60 de 123
· Etapa de entrenamiento.
· Selección del algoritmo de clasificación adecuado y clasificación.
· Operaciones de post clasificación.
Una vez que se dispone de un conjunto de estos datos de entrenamiento debe tratase de
adjudicar cada uno de los pixeles de la escena a alguna clase. Entre los algoritmos
clásicos para estos fines citemos los siguientes:
Página 61 de 123
Un pixel a de identidad desconocida, será adjudicado a una dada clase computando las
distancias euclidianas entre el pixel y el centroide de cada clase. Aunque simple desde
el punto de vista computacional este algoritmo tiene ciertas limitaciones, entre ellas la
insensibilidad a los diferentes grados de varianza en las respuestas espectrales de las
diferentes clases.
Este clasificador es rápido y fácil de implementar. Tiene sin embargo fuentes de error
asociadas al relativamente frecuente solapamiento de los paralelepípedos: un pixel
puede caer dentro de más de un paralelepípedo si éstos se solapan. Puede darse
también el caso de que no caiga en ninguno. Estos factores quitan robustez al
clasificador.
El vector posición x es un vector columna de valores de brillo para el pixel. O sea que
describe al pixel como un punto en un espacio multiespectral con coordenadas
definidas por el brillo. El término p(Ci | x) da la probabilidad de que la clase correcta
para un pixel en la posición x sea Ci. La clasificación se llevará a cabo según la regla:
Nuestro problema es que los p(Ci | x ) en la [1] son desconocidos. Ahora bien, si
tenemos suficientes datos de entrenamiento podremos estimar una distribución de
probabilidad p(x| Ci ) que describe la chance de de encontrar un píxel de una clase Ci
en la posición x. Obviamente habrán tantas p(x | Ci ) como cubiertas o clases terrestres
presentes.
Más tarde veremos cuál puede ser la forma de esta función de distribución.
Concretando, para un pixel en una posición x en un espacio mutiespectral existirá un
conjunto de probabilidades relativas de que el pixel pertenezca a cada una de dichas
clases. Esta probabilidad podremos estimarla a partir de los datos de entrenamiento.
Tenemos ahora una probabilidad desconocida, p(Ci | x ), que es la que nos interesa, y
una conocida p(x | Ci ) obtenible a partir de los datos de entrenamiento. Ambas están
relacionadas por el teorema de Bayes:
donde p(Ci) es la probabilidad de que la clase Ci esté presente en la imagen. Si, por
ejemplo 15% de los pixeles de una imagen pertenecen a la clase Ci entonces p(Ci)
valdrá 0.15. Esta probabilidad se denomina a priori pues debe ser estimada antes de la
clasificación. Esta estimación usualmente es difícil de obtener, ya que el analista debe
recurrir a fuentes externas como reconocimiento del terreno, mapas, datos históricos,
etc. Por tal motivo en la mayoría de los casos se asume que es la misma para todas las
Página 63 de 123
clases. En cuanto a p(x) es la probabilidad de encontrar un pixel de cualesquiera delas
clases en la posición x. Aunque para lo que sigue p(x) no va a ser importante podemos
notar que
En la [3] se eliminó p(x) al ser factor común. Por conveniencia matemática definiremos
funciones discriminantes g i(x) como
Página 64 de 123
En la Fig. 73 se esquematiza el criterio de decisión en este método.
Página 65 de 123
La proyección de superficies en campana sobre el plano espectral genera
dispersogramas cuyos contornos de equiprobabilidad elipsoidales son los que se
representan en la figura.
Las porciones de espectros comprendidas entre las dos líneas mencionadas pueden
servir para interpretar la posición de los clústeres en el diagrama de dispersión.
Particularmente obsérvese que los espectros de las clases C4 y C5 son muy similares
entre sí, lo que hace que a los menos en el dispersograma de las bandas TM3 -TM4 no
exista una buena discriminación entre los clústeres de dichas clases.
Página 66 de 123
Página 67 de 123
9.3.2 Clasificación no supervisada. Como ya hemos mencionado, el método no
supervisado crea agrupamientos espectrales o clusters y el analista debe intentar
asociar una clase temática a cada uno de dichos grupos. Se han propuesto numerosos
algoritmos para crear estos clusters. Como ejemplo nosotros nos referiremos al
conocido como ISODATA (Iterative Self-Organizing Data Analysis Technique).
• Número máximo de clusters que el algoritmo debe identificar (p.ej 10, 20 o más
según el caso)
• Suele también fijarse valores mínimos para las distancias entre los centros de los
clusters. Cuando la distancia resulta inferior a dichos valores los clusters se fusionan.
Veamos ahora un caso sencillo de aplicación, para lo cual podemos volver a utilizar la
imagen la Fig. 78 que ya utilizamos en el caso de aplicación del método de máxima
probabilidad en la clasificación supervisada. En este caso, sin embargo, no definiremos
Página 68 de 123
áreas de entrenamiento sino que aplicaremos el módulo ISODATA del software ENVI.
Nuestra especificación fue la siguiente:
Página 69 de 123
ESTIMACION DE LA EXACTITUD DE UNA CLASIFICACION - MATRIZ DE
CONFUSION
Página 70 de 123
El instrumento más usual para evaluar la exactitud de una clasificación es la matriz de
confusión, también llamada matriz de error o de contingencia. Esta es una matriz
cuadrada de n x n, donde n es el número de clases. Dicha matriz muestra la relación
entre dos series de medidas correspondientes al área en estudio. La primera serie
corresponde a datos de referencia adquiridos de observaciones de campo, inspección
de estadísticas agrícolas, interpretación de fotos aéreas y otras fuentes similares. La
segunda corresponde a la categorización de los pixeles realizada por el clasificador
para las clases de interés. En una matriz de confusión las columnas corresponden a los
datos de referencia, mientras que las filas corresponden a las asignaciones del
clasificador.
A partir de una matriz de confusión pueden deducirse varios índices relativos a la
exactitud de la clasificación. Para definir y comentar dichos índices calcularemos,
computadora y software mediante, la matriz de confusión para la escena LANDSAT
de la Fig.80 a.
Dicha escena corresponde a un área pequeña al norte de la ciudad de San Pedro, Jujuy,
Rep. Arg. registrada en noviembre de 2005. Clasificamos la imagen por el método
supervisado utilizando el algoritmo de las mínimas distancias. Las áreas de
entrenamiento para coberturas terrestres de interés las definimos en base al examen de
las combinaciones RGB color natural y falso infrarrojo apoyados por el análisis de los
perfiles espectrales. Las áreas de entrenamiento corresponden a las siguientes
regiones:
1. Forestación
2. Cerros sin vegetación
3. Cultivos
4. Areas no cultivadas
Puesto que no teníamos suficiente información terrestre para ser empleada como
referencia en la evaluación de la exactitud de dicha clasificación, efectuamos
paralelamente una clasificación supervisada utilizando el algoritmo de máxima
probabilidad y declarándola (a efectos del presente ejercicio) nuestra fuente de datos de
referencia, es decir nuestra verdad terrestre. Las imágenes clasificadas por ambos
métodos se presentan en las Figs. 80 b y c.
Calculada la matriz los resultados se exponen en la Fig. 81.
Página 71 de 123
Fig. 81 – Tabla de valores de la matriz de confusión
Página 72 de 123
Tenemos dos versiones equivalentes de la matriz: una cuyas entradas se expresan en
pixeles y otra en que se expresan como porcentajes. Obsérvese que además de las
cuatro clasesde interés se introduce una columna y fila correspondiente a los pixeles
que no pudieron ser clasificados. Los elementos en rojo de la diagonal indican los
pixeles que fueron correctamente clasificados. Todos los elementos fuera de la
diagonal indican errores de omisión o de comisión. Los errores de omisión
corresponden a los elementos no diagonales de las columnas (ej.: un total de 4105
pixeles que debieran haber sido clasificados como “forestación” se asignaron a varias
otras clases). Los errores de comisión corresponden a los elementos no diagonales de
las filas (ej.: 2440 pixeles no clasificados, 8 de forestación, 993 de cerros sin
vegetación y 630 de cultivos se incluyeronerróneamente en la clase “áreas no
cultivadas”.
A partir de la matriz de confusión podemos calcular varias otras medidas de interés
desde el punto de vista de la exactitud:
Este índice es global y no nos indica cómo la exactitud se reparte entre las diversas
categorías individuales. Muchas veces las categorías individuales presentan
exactitudes drásticamente diferentes pero se combinan de modo que esto no se refleja
en la exactitud global. Examinando la matriz de confusión vemos que podemos utilizar
dos métodos para evaluar la exactitud de las categorías individuales:
Página 73 de 123
Exactitud del usuario (user’s accuracy).
El productor está más interesado en este índice pues le dice cuan bien los pixeles de
referencia han sido clasificados.
Las medidas de exactitud que acabamos de considerar, aunque simples de usar están
basadas sea en la diagonal principal, sea en las filas y columnas de la matriz de
confusión solamente. Estas medidas no aprovechan la información contenida en dicha
matriz considerada en conjunto. Más aún, puede ocurrir que una distribución
totalmente aleatoria de los pixeles en las clases pueda conducir a resultados
aparentemente correctos en la matriz de confusión.
Página 74 de 123
OTROS METODOS DE CLASIFICACION
Página 75 de 123
Estas conexiones son complejas, y cada neurona recibe como entrada los resultados
producidos por otras neuronas y a su vez envía sus señales a otras neuronas. El cerebro
puede pues ser descrito en términos de un conjunto de redes de neuronas que realizan,
por mecanismos no bien comprendidos, funciones específicas como las de la visión, el
olfato, etc. Se trata de una red neuronal biológica.
Las redes neuronales artificiales (Artificial Neural Networks – ANN) intentan de una
manera muy simple simular el trabajo del cerebro. Para ello crean una red de unidades
procesadoras interconectadas (neuronas artificiales), cada una de las cuales es una
simple computadora que recibe señales ponderadas provenientes de otras neuronas, las
suma, realiza una operación sencilla sobre dicha suma y el resultado lo envía a otras
neuronas. En las Figs. 83 a, b y c representamos un ejemplo de una red neuronal básica
y su modo operativo.
Página 76 de 123
Esta red tiene tres capas de neuronas: la capa de entrada (input layer) es simplemente
una interfase que no realiza ningún procesamiento. Las capas media (“hidden layer”) y
de salida (output layer)contienen los elementos procesadores de cada nodo de la red.
En esta red hay una sola capa media, pero podrían haber más. En un caso simple de
clasificación la información de entrada serían los vectores multiespectrales de los
pixeles de entrenamiento, una banda por nodo. En cada nodo de la capa media se
produce una sumatoria y una transformación como se representa en la Fig.83.(b). Para
cada nodo j de la capa media llega una entrada pi ponderada sobre la cual se efectúan
las siguientes operaciones:
hj es la salida del nodo j, y es dirigida a cada nodo de salida k. La salida de éste, ok,
vendrá dada por las operaciones
Página 77 de 123
que se representa gráficamente en la Fig. 83.(c).
Esta red tiene la capacidad de aprender ajustando los pesos de sus conexiones en un
proceso iterativo de entrenamiento con patrones de referencia. Para esto utiliza un
algoritmo de retropropagación del error (back propagation). Este es un algoritmo
iterativo degradiente descendente que propaga el error hacia atrás en la red generando
el reajuste de pesos y minimizando el error de salida respecto al patrón de referencia.
Desde el punto de vista computacional una red neuronal puede se considerada como
un algoritmo abierto, o programa incompleto, en el sentido de que ciertos parámetros
numéricos, los pesos, no son especificados por el programador. Dichos pesos son
calculados durante la fase de entrenamiento. Esta requiere ciertos datos, los conjuntos
de datos de entrenamiento, y otro programa, el algoritmo de aprendizaje. La razón por
la que los pesos no pueden ser especificados es porque usualmente no disponemos de
una clave como la relación causa – efecto, es decir, cómo los diferentes valores de los
pesos afectan el proceso computacional de la red. Esta situación resulta de la esencia
misma de las redes neuronales, que son básicamente “cajas negras” cuyo
comportamiento es en gran parte impredecible. En efecto, el usuario puede seleccionar
la “arquitectura”de la red, el número y tipo de neuronas, la manera como están
interconectadas, etc. Sin embargo no podrá establecer, ni siquiera intentar adivinar, los
pesos. Estos sólo podrán ser establecidos en el proceso de aprendizaje. Entre las
ventajas de las redes neuronales artificiales citemos la de poder aceptar todo tipo de
entradas numéricas, respondan o no a alguna distribución estadística. Esto hace que
datos provenientes de percepción remota pueden ser adicionados de datos de otro
origen.
Esta característica es muy útil en el caso de un SIG (Sistema de Información
Geográfica) ya que diferentes tipos de datos espaciales pueden ser usados
simultáneamente para mejorar el desempeño del clasificador. Por otra parte, al estar
constituidas por varias capas de neuronas conectadas por enlaces ponderados son
tolerantes al ruido existente en los patrones de entrenamiento: el resultado final podría
no verse afectado por la pérdida de una o dos neuronas como resultado del ruido en
aquellos.
Página 80 de 123
Los centros c de los clusters se calculan de acuerdo a:
· Aplicaciones en agricultura.
· Temperaturas terrestres y marinas.
· Monitoreo de áreas de desastre.
Indices de vegetación.
Valores muy bajos de NDVI, del orden de 0.1, corresponden a áreas rocosas, arenosas
o nevadas. Valores de 0.2 a 0.3 pueden corresponder a áreas pobres con arbustos o
pasturas naturales. A partir de estos valores tendremos los niveles correspondientes
apraderas, cultivos, forestaciones etc. dependiendo el valor alcanzado, que puede llegar
hasta 0.6 y 0.8, del estado de desarrollo y sanidad de tales áreas.
Página 82 de 123
Es obvio, de acuerdo a lo expuesto en el Cap. 4, que el fundamento de la definición del
NDVI radica en las características del espectro de los vegetales. En efecto, ya vimos
(Fig. 11, pág. 9) que la radiación reflejada por una hoja en la región visible depende
fundamentalmente de la radiación absorbida por los pigmentos de la hoja, mientras que
en el infrarrojo cercano, en la región de 0.7 a 1.3 mµ, depende de la estructura interna
de la hoja. Para valores mayores de 1.3 mµ aparecen mínimos de reflectancia a 1.4,
1.9 y 2.7 mµ. El stress vegetal suele manifestarse cuando por efecto de factores como
sequía, enfermedades, infección por plagas, etc., la hoja ve reducido su contenido de
agua. Esto produce el colapso de las células del mesodermo inferior (Fig. 12, pág.9), lo
cual reduce la reflectancia en el IR cercano, constituyendo un síntoma previsual de
stress ya que suele manifestarse días e incluso semanas antes de que comiencen a
apreciarse cambios visualmente o a través de la fotografía color convencional. El
espectro vegetal de la Fig. 11 posee el aspecto típico del obtenido con un
espectrómetro de laboratorio o bien con un sensor hiperespectral. Como los satélites
más usuales actualmente son sólo multiespectrales no nos pueden suministrar una
curva espectral con la alta resolución de un espectrómetro o un sensor hiperespectral.
Sin embargo, con sus datos, por ejemplo con las 6 bandas visibles e infrarrojas del
Landsat, podemos construir un espectro grosero como el de la Fig.87 que de algún
modo refleja las características del espectro de laboratorio y que nos puede brindar
mucha información acerca del estado de un cultivo, de una forestación, etc. La curva a
corresponde a pleno vigor vegetativo, la b representa una etapa más próxima a la
maduración y la c marca ya un estado de senescencia. Obsérvese el quiebre de las
curvas a aprox. 1.6mµ, que es un reflejo del contenido de agua de la hoja y permite
diferenciar claramente por el cambio de concavidad de la curva la transición a un
estado de stress. Si se consideran los valores relativos de las reflectancias en el rojo y
en el infrarrojo cercano para cada banda se comprende que ocurrirá un notorio
decrecimiento del NDVI al pasar de la banda a a la c
Página 83 de 123
Durante los meses de noviembre de 1999 a marzo de 2000 se produjo en Uruguay una
intensa sequía. Esta fue seguida desde nuestra estación de rastreo de El Pinar a través
de imágenes NOAA de 1 km de resolución y calculando los índices de vegetación. Las
imágenes obtenidas se representa en la secuencia de la Fig. 88
· Seguimiento de cultivos
Los ejemplos anteriores son de carácter localizado. Sin embargo existen actualmente
satélites como los de la serie NOAA y TERRA (Ver en la página 17 de este trabajo
nuestros comentarios sobre Satélites Meteorológicos y Agrometeorológicos así como
acerca de Los Nuevos Satélites Para la Observación de la Tierra) que en el marco de
programas de monitoreo permanente de la superficie terrestre como por ejemplo el
programa EOS (Earth Observation System) de la NASA, suministran información
permanente sobre cambios en las coberturas terrestres. Entre los productos que estos
programas suministran se encuentra el NDVI a nivel global. Estos productos están
disponibles en Internet en resoluciones espaciales de 250m a 1 km por pixel. Uno de
los sitios más apropiados para bajarlos es el
Earth Observing System Data Gateway.
http://edcimswww.cr.usgs.gov./pub/imswelcome/
Página 84 de 123
Página 85 de 123
Página 86 de 123
INDICES N-DIMENSIONALES - TASSELED CAP
Página 87 de 123
En el plano de vegetación podemos representar la evolución estacional de un cultivo
(Fig.94):
Página 88 de 123
Su forma se parece al gorro de Santa Claus (gorro con borlas = tasseled cap): de ahí el
nombre de la transformación. Pasando a un caso real, en las Figs. 96 a, b, c y d vemos:
a: Un área donde se observan tierras descubiertas, pasturas, areas de cultivos y montes.
b y c: Las imágenes correspondientes a los índices de Brightness y Greeness según la
transformación del Tasseled Cap.
d: El dispersograma de dichas imágenes. Figs.96 a,b,c y d
Veamos ahora otro ejemplo de aplicación. Para ello volveremos a considerar el caso de
la zona arrocera al norte de la ciudad de Artigas con la que recientemente ilustramos
el seguimiento de un cultivo utilizando el NDVI aplicado a imágenes multitemporales.
En las Fig. 97a aparece una imagen RGB color natural de dicha zona adquirida el
30/11/99 y en las Figs 97 b, c y d las imágenes de brightness, greeness y wetness
obtenidas luego de aplicar la transformación de tasseled cap. Con estas tres últimas
imágenes podemos realizar una combinación RGB tal que R=brightness, G=greeness y
B=wetness. Esta combinación se representa en la Fig.98a. La Fig. 98b corresponde a
Página 89 de 123
una transformación similar realizada para una imagen de la misma zona captada en la
fecha 17/01/00.
En las Figs. 98, a y b, las áreas rojizas corresponden a suelo, las verdes a vegetación y
las azules a zonas húmedas o agua. Las situaciones intermedias aparecen como
balances entre dichos colores. En particular se puede observar el grado de inundación de
los arrozales, rojo oscuro o violáceo (suelo y humedad) o azul (totalmente inundados).
Comparando ambas imágenes puede detectarse en enero el aumento de tonalidades
rojizas, indicando una reducción de la cubierta de pasto y aparición de suelo
Página 90 de 123
descubierto (el verano1999-2000 se caracterizó por una intensa sequía). En la zona de
arrozales pueden observarse los cambios que en cuanto a grado de inundación,
comienzo de emergencia, etc., ocurrieron durante el período.
INDICES DE VEGETACION A PARTIR DE IMAGENES HIPERESPECTRALES
El potencial analítico que ofrecen las imágenes obtenidas con sensores hiperespectrales
es obvio, y una de sus grandes posibilidades es el procesamiento en derivadas de las
curvas espectrales, que permite reducir la influencia de interferencias.
Página 91 de 123
Veamos un ejemplo. En la Fig. 100 se esquematizan los espectros del suelo y del
vegetal así como del espectro resultante de la adición de ellos, que es el espectro que
realmente registra el sensor del satélite.
1. Al análisis del “borde rojo” del espectro de los vegetales. Dicho borde corresponde al
punto de inflexión que se produce entre el rojo y el IR cercano en el espectro de los
vegetales verdes. Los desplazamientos de su posición se han asociado a cambios
fenológicos y al stress vegetal. La posición del borde rojo puede determinarse con
precisión ubicando el máximo de la derivada primera del espectro. V. Fig. 102(a)
Página 92 de 123
Las consideraciones que anteceden permiten prever un amplio campo de investigación
en la evaluación de las cubiertas vegetales basado en las posibilidades que nos abre la
modalidad hiperespectral de las plataformas satelitales.
10.2.1 Generalidades sobre el infrarrojo térmico (IRT). Todo objeto cuya temperatura
se encuentre por encima del cero absoluto emite energía electromagnética en la región
infrarroja térmica (3 a 14 mµ) del espectro electromagnético. Si bien el ojo humano es
insensible a dichas radiaciones existen, como ya hemos visto en el Capítulo 7 de
este trabajo, sensores capaces de detectarlas. Efectivamente, los sistemas de percepción
remota en el IRT son capaces de registrar imágenes térmicas que ofrecen incontables
aplicaciones, fundamentalmente en el monitoreo de las superficies terrestres y
oceánicas así como de fenómenos atmosféricos. Es una práctica usual medir la
temperatura de un cuerpo mediante un termómetro que está en contacto o sumergido
en dicho cuerpo. La magnitud así medida es la llamada temperatura cinética que
constituye una manifestación interna de la energía translacional asociada al movimiento
aleatorio y colisiones de las moléculas del cuerpo considerado. Esta energía interna
puede convertirse en energía radiante y ser emitida como tal, haciéndola accesible a las
técnicas de percepción remota. Se puede medir así la temperatura radiante del objeto
que está correlacionada, aunque no es exactamente igual, a la temperatura cinética.
Efectivamente, aquélla es siempre algo más baja que esta última debida a una
propiedad térmica de los cuerpos que llamamos emisividad y que más adelante
consideraremos.asociada al movimiento aleatorio y colisiones de las moléculas del
cuerpo considerado. Esta energía interna puede convertirse en energía radiante y ser
emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede
medir así la temperatura radiante del objeto que está correlacionada, aunque no es
exactamente igual, a la temperatura cinética. Efectivamente, aquélla es siempre algo
Página 93 de 123
más baja que esta última debida a una propiedad térmica de los cuerpos que llamamos
emisividad y que más adelante consideraremos.
En la gráfica de la Fig. 103 se representan las curvas de radiación del cuerpo negro
para distintas temperaturas
FILAMENTO DE TUNGSTENO
Página 94 de 123
La energía total W emitida por la superficie del cuerpo negro a una dada temperatura
viene dada por el área bajo la curva y matemáticamente se describe por la ley de
Stefan-Boltzmann:
Saliendo ahora del plano puramente teórico diremos que en general los objetos terrestres
no son emisores perfectos como el cuerpo negro, sino que a una dada temperatura
emiten menos radiación que el cuerpo negro a la misma temperatura. La fracción que
ellos emiten respecto al cuerpo negro es una medida de su emisividad (e). Así por
Página 95 de 123
ejemplo, si a una dada temperatura y longitud de onda una superficie emite la mitad de
la radiación que emitiría un cuerpo negro en las mismas condiciones su emisividad
será de 0.5. Ejemplos de emisividad para algunos materiales en la región de 8-14 mµ:
De acuerdo a la definición que dimos de emisividad ésta podrá variar entre 0 y 1, pero
cabe aquí señalar que un cuerpo que posee una emisividad menor que 1 pero que
permanece constante para todas las longitudes de onda se denomina cuerpo gris. Es
decir que para este tipo de objeto a todas las longitudes de onda su emisividad es una
fracción constante de la del cuerpo negro. Si en cambio la emisividad del objeto varía
con la longitud de onda se denominará radiador selectivo. La Fig. 105 permite
comparar las curvas de emisión para el cuerpo negro, para un cuerpo gris y para un
radiador selectivo.
El agua es por ejemplo un cuerpo gris, mientras que el cuarzo es un radiador selectivo.
Página 96 de 123
operacionales y dificultades cuando dichas medidas pretenden cubrir extensas áreas
geográficas.
La gran solución a este problema la constituyen las mediciones desde satélites con
sensores que operan en la región del IRT. Existe actualmente muchos satélites con tales
sensores, pero aquí nos limitaremos a citar como ejemplos los de la serie NOAA
(National Oceanic and Atmospheric Administration – USA) y los satélites TERRA y
AQUA del sistema EOS de la NASA con su instrumento MODIS.
Este sensor posee una resolución espacial de 1.1 km y un ancho de barrido de 2400 km.
Los satélites en actividad de esta serie son NOAA-12, 14, 15, 16, 17 y 18. Debe
tenerse en cuenta que pese a su gran eficiencia para medir temperaturas sobre grandes
extensiones geográficas sus mediciones no están libres de dificultades, particularmente
por la acción combinada de perturbaciones debidas a la emisividad del terreno y el
efecto atmosférico. La perturbación atmosférica es debida fundamentalmente a la
absorción y emisión de radiación térmica por parte del contenido de vapor de agua
atmosférico, mientras que el efecto de emisividad se debe a la heterogeneidad de los
elementos presentes en la superficie terrestre. En consecuencia, una adecuada
estimación de temperatura desde plataformas satelitales requerirá corregir los defectos
indicados.
10.2.2.1 Temperatura del mar. Consideremos algo más en detalle las medidas de
temperaturas marinas. Debe tenerse en cuenta que como las radiaciones infrarrojas
térmicas son intensamente absorbidas por el agua las medidas de temperatura que se
obtienen corresponden a una capa superficial de pocos milímetros de espesor
(temperatura de piel) y van a ser algo inferiores a la de aguas más profundas. Sin
embargo, como a través de esa “piel”ocurren importantes procesos de intercambio
térmico entre el mar y la atmósfera, estas medidas de temperatura son de fundamental
importancia para estudios climáticos a nivel global. Citemos como típico ejemplo de
monitoreo de una anomalía térmica el fenómeno de El Niño. Este consiste en un
conjunto de alteraciones que tienen lugar en el Pacífico oriental a intervalos de tiempo
irregulares, por lo general de cuatro a siete años. Su origen se atribuye a procesos
complejos de interacción océano-atmósfera, algunos aúnpoco comprendidos, y con
efectos desastrosos a nivel global.
En la Fig. 107 se indican los eventos climáticos que indujo en el globo, incluso a
distancias muy grandes como en la India.
Página 98 de 123
Las observaciones de temperatura superficial del mar son obviamente muy importantes
para los oceanógrafos puesto que permiten el análisis espacial y temporal de las
corrientes oceánicas así como de sus variaciones. Incluso facilitan el pronóstico de
desastres climáticos como los inducidos por la corriente de El Niño.
Si pasamos ahora del nivel global al local veamos como ejemplo una imagen NOAA
de temperaturas del mar en las cercanías del Río de la Plata y regiones costeras
adyacentes. (Fig.108):
Las medidas de temperatura en el IRT ofrecen así un método para orientar a los
buques pesqueros más directamente a las áreas propicias de captura, reduciendo su
consumo de combustible y aumentando su eficiencia en masa y tiempo de captura.
Hasta aquí las aplicaciones de detección de incendios que mencionamos se han basado
en sensores de baja resolución espacial. El siguiente caso se refiere a imágenes
captadas por el LANDSAT TM en un incendio registrado en el Parque Nacional de
Yellowstone (USA) en Julio de 1988 (Fig.113). Esta imagen “color natural” se ve
obviamente afectada por el efecto dispersivo del humo y otros componentes
atmosféricos, como era de esperarse tratándose de bandas de longitudes de onda
relativamente cortas.
Los contornos verdes marcan la posición de las principales áreas cafetaleras. Puede
observarse que en varias zonas de éstas las temperaturas alcanzadas permiten
pronosticar deterioros irreversibles en las plantaciones.
Las imágenes corresponden a la banda TM5 del LANDSAT que permite realzar los
cuerpos de agua por su color casi negro. Existe un procedimiento muy útil para
evaluar cambios: si entre las dos fechas no hubiera ocurrido ningún cambio de
importancia en la escena, las dos imágenes TM5 estarían fuertemente correlacionadas
y un dispersograma de ambas evidenciaría dicha correlación. El dispersograma real es
el de la Fig. 118 b donde el sector alargado horizontal en la parte inferior corresponde
a los pixeles inundados. Si pedimos a la computadora que los destaque en la imagen de
la inundación, Fig. 118 a, se evidenciarán (color azul) las zonas inundadas, pudiendo
medirse su área total, el área de las zonas urbanas inundadas, etc. Una combinación
Página 105 de 123
RGB 432 (falso infrarrojo, Fig. 119) complementa la anterior imagen y permite
identificar la naturaleza de algunas áreas emergentes de la inundación
Desde hace ya bastantes años los satélites a través de un monitoreo global están
contribuyendo al seguimiento y a una mejor compresión de los fenómenos de
desertificación. Si bien éstos una vez instalados son difícilmente reversibles, la
percepción remota es sin duda una herramienta de gran valor para complementar las
acciones de recuperación que se intenten.
Página 109 de 123
Un caso típico de desertificación monitoreada durante muchos años por percepción
remota es el del Mar de Aral. Este enorme lago, ubicado entre Kazakhstan y
Uzbekistan, que fue en una época el cuarto de mundo por su tamaño perdió más del
40% de su superficie. El factor principal que por los años 1950 disparó este proceso fue
la intensa irrigación de cultivos de algodón efectuada con agua de dos ríos que
alimentaban el lago. El aporte de estos ríos no pudo entonces compensar la
evaporación del lago, hecho agravado por ser la de éste una cuenca originariamente
semiárida. El proceso hizo colapsar la industria pesquera existente y millones de
habitantes se vieron afectados por los vientos transportando sales, arena y partículas
minerales provenientes del lecho del lago. Los problemas de salud incluían cáncer a la
garganta, enfermedades de la visión, problemas respiratorios, incremento de la
mortalidad infantil, etc. Las imágenes de las Figs. 124 a y b reflejan la evolución del
proceso entre los años 1973 y 2004.
Pese a que desde el año 1991, luego del colapso de la URSS, el problema del Mar de
Aral se internacionalizó y se realizan esfuerzos para detener o revertir la situación,
lasimágenes de la Fig. 124 parecen demostrar que ya es muy tarde para lograrlo.
La percepción remota desde plataformas satelitales es en estos casos muy útil dada su
capacidad de supervisar amplias áreas, de realizar monitoreos localizados y de prestar
asistencia táctica en emergencias. Puede suministrar información acerca de la
velocidad y dirección de los derrames oceánicos a través de imágenes multitemporales
e incluso realizar mapeos de los derrames.
Se trata de una bahía poco profunda limitada al este por varias islas. Esa zona jugó en
este caso, como en oportunidad de anteriores derrames, un papel clave bloqueando el
desplazamiento hacia el sur del petróleo derramado. Este derrame se originó el 21 de
enero y las imágenes fueron adquiridas el 4 de marzo. La imagen de la Fig. 126 es una
combinación RGB color natural, mientras que la Fig.127 corresponde a la banda TM5
(infrarrojo medio).
En ésta se destaca la mayor reflectancia del petróleo, distinguiéndolo del agua que
absorbe intensamente dicha radiación y apareciendo casi negra en la imagen. Más aún,
basándoseen los diferentes niveles de reflectancia de las manchas de petróleo se puede
lograr discernir entre aceites pesados y livianos. Las áreas de las manchas y las
distancias costeras pueden ser directamente evaluadas a través del análisis de la
imagen.
• Emite señales de microondas (en sus principios fueron de radio, de ahí su nombre)
hacia una escena.
Como el radar posee su propia fuente de emisión de radiaciones puede operar de día o
de noche, y como además las microondas pueden penetrar la atmósfera bajo
virtualmente cualquier condición climática el radar se convierte en un sensor que, a
diferencia de los que hemos estudiado antes puede operar en todo tiempo. Como
contrapartida, las imágenes de radar son de interpretación más difícil que las
correspondientes obtenidas para las regiones visibles o térmicas del espectro
electromagnético. En efecto, estas últimas pueden correlacionarse más fácilmente con
las apreciaciones realizadas por el ojo humano, mientras que las respuestas de las
microondas son marcadamente diferentes. La Fig. A-1 esquematiza la operación de un
sistema de radar a bordo de un satélite.
Página 115 de 123
El sistema posee una antenaque alternadamente transmite y recibe pulsos de
microondas de longitudes de onda definidas comprendidas en el rango de 1 cm a 1m y
polarizadas en un plano vertical u horizontal.
Aproximadamente se emiten 1500 pulsos de alta energía por segundo y cada pulso tiene
una duración de típicamente 10 a 50 microsegundos. Cuando el pulso de radar alcanza
la superficie terrestre su energía se dispersa en todas direcciones, y parte de ella se
refleja hacia la antena.
AI-2
Este eco o “backscatter” retorna al sensor de radar y es recibido por la antena con una
polarización específica (horizontal o vertical, pero no necesariamente la misma del
pulso emitido).
• Interacciones:
1. Textura de la superficie – longitud de onda del sistema
2. Angulo de observación (f) y ángulo de la pendiente (a) – se combinan para
determinar el ángulo de incidencia (.).
3. La dirección de observación y la orientación de la pendiente – influencian el área y
geometría del blanco presentado al radar.
AI-3
El retorno está a menudo relacionado con el tamaño del objeto que dispersa: los objetos
de aproximadamente las mismas dimensiones, o mayores, que la longitud de onda
aparecerán más luminosos, mientras que los objetos menores que la longitud de onda
aparecerán oscuros. Este efecto arroja información acerca de la textura de la región de
Página 117 de 123
interés. Las longitudes de onda más usuales en los sistemas de radar son las
siguientes:
Banda P = ~ 65 cm
Banda L= ~ 23 cm
Banda S = ~ 10 cm
BandaC=~ 5cm
BandaX=~ 3cm
AI-4
· Variaciones de tono
· Variaciones de textura
El tono hace referencia a los diferentes niveles de grises del negro al blanco, siendo
proporcional a la intensidad del retorno del radar. Los objetos relativamente llanos
como cuerpos de agua calmos aparecen con tonos oscuros (la reflexión es mayormente
especular y genera poco retorno). Los objetos difusores, como diversas formas de
vegetación, aparecen con tonos intermedios. Finalmente, edificios construidos por el
hombre, barcos, etc. pueden producir tonos brillantes, dependiendo de su forma,
orientación y/o sus constituyentes materiales (v. Fig. A-3).
Las Figs. A-4 a y b constituyen típicas imágenes de radar, en este caso adquiridas por
el satélite ERS de la Agencia espacial Europea en noviembre del 2000. Las imágenes
corresponden a aproximadamente la misma región de una forestación en Paysandú que
ya hemos utilizado como ejemplo de clasificaciones en el presente trabajo. En
particular la parte inferior izquierda puede ser reconocida en las Figs. 74, 78 y 79.
Como vemos, las imágenes de radar son de más compleja interpretación que las de los
satélites ópticos. Además, una característica típica de las imágenes de radar es su
aspecto granulado (“salt and peper”) por efecto de los speckles. Estos gránulos son
inherentes a la naturaleza misma del radar. En efecto, las ondas coherentes emitidas
por el sensor activo del radar, en forma similar a lo que ocurre con un laser, se
propagan en concordancia de fase hasta incidir sobre los objetos terrestres, donde la
coherencia se pierde al reflejarse y retornar: esto se debe a las diferentes distancias que
deben atravesar desde el objeto a la antena, así como a efectos de dispersión en el
objeto. Entre estas ondas reflejadas se pueden producir ahora efectos de interferencia
constructiva o destructiva generándose una estrucutura granulada en la imagen, como
se observa en la Fig.A-5. El efecto de los speckles puede atenuarse mediante
filtraciones con filtros adecuados. En particular en la Fig. A-4b se ha aplicado dicho
tratamiento
Para terminar esta breve referencia a los sensores de radar, presentaremos dos
imágenes de la misma región, una de radar (Radarsat-1) y otra una imagen óptica
(composición RGB 453 del Landsat 5) (Figs.A-6 a y b en la página AI-7) La región es
la situada al SW de Sta Cruz, Río Grande do Sul, Brasil. La imagen de radar es una
combinación RGB multitemporal de fechas 21/10/05, 08/12/05, 25/01/06, mientras que
la imagen Landsat es de fecha 03/11/05. La imagen de radar posee originalmente una
resolución de 6.25 m, mientras que la de LANDSAT 5 es de 30m. La imagen Landsat
puede ser fácilmente interpretada en sus rasgos fundamentales de acuerdo a las
consideraciones efectuadas en las páginas 51 y siguientes de este trabajo
(Combinaciones de Color). Dicha interpretación permitirá establecer una correlación
temática con la imagen de radar.
AI-7
Schowengerdt, Robert A., Remote Sensing. Models and Methods for Image
Processing. Elsevier: 2007.
Campbell, James B., Introduction to Remote Sensing, The Guilford Press: 1996.
Aronoff. Stan, Remote Sensing for GIS Managers, ESRI Press: 2005.