Vous êtes sur la page 1sur 97

UNIVERSIDAD CATÓLICA DEL NORTE

FACULTAD DE INGENIERÍA Y CIENCIAS GEOLÓGICAS


DEPARTAMENTO DE CIENCIAS GEOLÓGICAS

TELEDETECCIÓN

PROFESOR: DR. FELIPE AGUILERA


CAPÍTULO 1
INTRODUCCIÓN

1.1 Definición
Por teledetección, o detección remota, se entiende la acción de detectar o descubrir
desde lejos mediante sensores. Se podría hablar de teledetección animal, en cuyo caso los
sensores son los órganos sensoriales (ojos, oídos narices) y teledetección artificial en donde
artefactos provistos de sensores complementan la percepción humana. En el caso de la
teledetección espacial un sensor es un instrumento que recoge señales emitidas o reflejadas
como ondas electromagnéticas. La palabra detectar es un anglicismo que deriva “to detect”
que significa revelar o descubrir. El prefijo “tele” proviene del griego y significa lejos.
La idea de teledetección, como técnica de estudio aplicada a la superficie ce la tierra
o de algún otro cuerpo celeste, se refiere a obtener información de algún tipo (fotográfica,
geomagnética, posicional, radiométrica) desde satélites artificiales o aviones de altura. La
tendencia actual es reservar el término para las técnicas que utilizan sensores
electromagnéticos para adquirir datos numéricos en distintas bandas del espectro.

1.2 Usos
El explosivo desarrollo que ha experimentado en los últimos tiempos la percepción
remota, hace que los usos que actualmente se dan a estas técnicas sobrepasen todo lo
imaginado en el comienzo. Ateniéndonos sólo a los usos civiles, el mayor empleo en la
actualidad está en la meteorología, ciencias agronómicas, forestales, ambientales,
geología, oceanografía y planificación territorial.

1.3 La teledetección como herramienta geológica


Sin duda que el primer geólogo que observó una fotografía aérea supo que tenía
ante si una herramienta formidable para la cartografía y la interpretación geológica. Varios
conceptos de la geomorfología difíciles de aplicar desde tierra tales como tipos de drenaje y
otra serie de estructuras aparecieron nítidos y palpables ante sus ojos. Quebradas
sospechosamente rectas y otros lineamientos sugerían estructuras que en tierra no eran
percibidas, todo esto sin considerar la inmensa ayuda que las fotografías verticales
proporcionan a la cartografía haciéndola más rápida y detallada. Es fácil imaginar entonces
el interés despertado por las imágenes espaciales cuando los satélites artificiales
comenzaron a enviar fotografías tomadas desde distancias tales que en fotografías oblicuas
ya podía verse la curvatura de la tierra. Nuevas interesantes megaestructuras pudieron ser
vislumbradas generando nuevas teorías y proposiciones.
Sin embargo, hoy en día, el análisis de imágenes tomadas desde el espacio va
mucho más allá de la simple visión sinóptica . La información obtenida a través de
diferentes tipos de censores (bandas selectivas del espectro visible, infrarrojo, ondas de
radar) permite no solo analizar formas y texturas sino también tener información indirecta
respecto de la temperatura, y la composición química y mineralógica del suelo observado.
Por otra parte el uso de imágenes tipo “raster” constituidas por matrices de valores
numéricos y el explosivo desarrollo de la computación, ha impulsado el uso creciente de
múltiples dispositivos matemáticos en el tratamiento digital de las imágenes que ayudan a
resaltar aspectos poco evidentes y desentrañar relaciones estadísticas y topológicas
impensables en simples fotografías. Muchas de estas relaciones tienen significados aun
inciertos y son un desafío para el uso futuro de estas técnicas.
Si bien el impacto de la observación de la tierra desde el espacio ha tenido
resultados más espectaculares en el campo de la meteorología y las ciencias agronómicas y
ambientales, en materia de geología también ha significado el desarrollo de potentes
técnicas de prospección minera e hidrológica.
El desarrollo de la informática a provisto también de una potente herramienta
bautizada como “Sistema de Información Geográfica” (GIS) que permiten la conjunción de
datos, mapas y figuras llevándolos a una escala común y mediante métodos de
georeferenciación hacer coincidir, por ejemplo, mapas geográficos con imágenes
satelitales, lo que permite minimizar los errores angulares de las imágenes. Las imágenes
así mejoradas, y toda la información disponible expresada en distintos mapas temáticos
pueden constituir un paquete inteligente de gran versatilidad.
No obstante lo anterior, si bien la teledetección es uno de las más interesantes
técnicas descubiertas en los últimos tiempos, ha de ser considerada por el geólogo, como
todas las metodologías utilizadas en esta ciencia, sólo como una herramienta más de
trabajo, sin exagerar su alcance atribuyéndole propiedades que no tiene.
Así por ejemplo se ha dicho en medios neófitos que desde el espacio puede
encontrarse un yacimiento. Esto es inexacto. Lo que se puede hacer es ubicar un buen
blanco de exploración. Tampoco es correcto afirmar que pueda “mapearse” distintas
litologías y grandes estructuras, lo que si es posible es ver formas, colores, texturas y
lineamientos que pueden tener algún significado geológico que es necesario esclarecer. En
general ninguna interpretación de imagen espacial conduce a resultados veraces si no tiene
un adecuado apoyo terrestre. Los geólogos, amantes irrestrictos de la naturaleza, estamos
tranquilos. La geología “de bototo y martillo” siempre será necesaria.

1.4 Desarrollo histórico


Es difícil saber cual ha sido la primera experiecia que pueda ser señalado como un
acto de teledetección artificial. Algunos libros señalan que las primeras imágenes espaciales
habrían sido las fotografías tomadas por Gaspar Félix de Tournachon en 1859, desde un
globo aerostático cautivo (Hyatt, 1988 in Chuvieco 1996). Luego otras experiencias fueron
realizadas desde aviones desarrollándose durante la 1ª guerra mundial la cámara aérea
vertical.
Luego la estereoscopía utilizada en fotografías aéreas tomadas desde aviones
entregó una herramienta formidable para la topografía, la geodesia y la interpretación
geológica. Durante la segunda guerra mundial se incorporaron nuevos sensores más allá del
espectro visible (rayos infrarrojos, ondas de radar). Con el transcurso del tiempo se fueron
perfeccionado estos métodos hasta los sistemas multiespectrales utilizados actualmente
tanto desde aviones como de plataformas satelitales.
La técnica de la estereocopía es hoy también utilizada por la percepción remota
desde satélites en pares de imágenes como las entregadas por el satélite SPOT y el último
de los satélites LANDSAT.
La carrera espacial desarrollada entre 1957 y 1969, impulsó el desarrollo de la
industria de los satélites artificiales
El 4 de octubre de 1957 la entonces Unión de Repúblicas Socialistas Soviéticas
sorprendió al mundo poniendo en órbita, desde el cosmódromo de Baikonur, el Sputnik 1,
primer satélite artificial terrestre. Es el comienzo de la era espacial. A partir de ese
momento una verdadera carrera espacial alentada por la llamada “Guerra fría” se
desarrollará durante la década del los 60 en pos de la hegemonía del espacio entre las
entonces dos mayores potencias mundiales.
En 1971 EEUU lanza el primer satélite meteorológico lo que marca el comienzo de
la teledetección terrestre, aun cuando la primera fotografía de la tierra había sido tomada
por el astronauta Shepard ya en 1961.
La fotografía fue, naturalmente, el primer uso dado a la teledetección espacial desde
satélites tanto para usos militares como meteorológicos geográficos y astronómicos. En el
campo de la geología las fotografías espaciales entregaron una visión sinóptica de
dimensiones planetarias, que el geólogo nunca había tenido, permitiendo la detección de
estructuras y lineamientos no detectables en tierra. “Los árboles que no dejaban ver el
bosque”, fueron vistos por primera vez como un todo.
El primer experimento espectral se realiza en 1971 con las cámaras fotográficas
Hasselblad a bordo del Apolo 9. Luego en 1972 se Lanza el primer satélite del programa
ERTS (Earth Resours Technology Satelite) para usos geológicos y en 1975 parte la serie de
satélites LANDSAT que han venido proporcionando la mayoría de las imágenes digitales
que se utilizan en la actualidad.
Otros importantes proyectos han sido el laboratorio espacial SKAYLAB (1973) el
satélite oceanográfico SEASAT (1978) equipado con el sistema SAR que trabaja con ondas
de radar, el de investigación térmica HCMM (1978), el satélite francés de alta resolución
SPOT (1986). El satélite ruso ALMAST (ondas de radar)1991, el ERS europeo (radar)
1992, el JERS (radar)1992 y el RADARSAT canadiense 1995. También han entrado al
mercado imágenes de satélites rusos de alta resolución y del satélite indio IRS.
En la actualidad varios trabajos se realizan con sensores operados en tierra y con
fina resolución espectral en espera de poder utilizar los resultados comparándolas con
futuras imágenes satelitales de fino rango espectral y alta resolución espacial.
La industria aeroespacial ha potenciado también enormemente geodesia. El sistema
de plataformas satelitales de posicionamiento denominado GPS (Geographic Position
System) permite conocer la ubicación geográfica de cualquier punto con un simple
rastreador portátil. Este sistema, de inapreciable utilidad en la navegación es también
utilizado como una forma de hacer topografía barata y prácticamente instantánea.
Capítulo 2
AEROFOTOGRAMETRÍA

2.1 Introducción
Remote sensing inició con las fotos aéreas, que todavía son las imágenes más comunes y
aplicadas en remote sensing. El conocimiento de las técnicas de interpretación es la base para
comprender los otros tipos de imágenes de remote sensing. Las fotos aéreas se emplean por
ejemplo en un levantamiento geológico, en la exploración geológica, en la confección de los
mapas topográficos, en proyectos de ingeniería, en estudios de protección de suelos y la
planificación urbanista. Entre 1970 y 1980 la interpretación geológica de fotos aéreas resultó en
el descubrimiento de varios depósitos petrolíferos en Indonesia.

2.2 Interacción entre luz y materia


Las fotos aéreas detectan la luz reflejada por la materia de la superficie terrestre. La
porción de luz no reflejada es transmitida y/o absorbida por la materia.
La energía como la reflejada por la materia se relaciona con la energía o la luz incidente
por medio del cociente energía reflejada/energia incidente llamado 'albedo'. Las superficies
oscuras son de albedo bajo, las superficies claras son de albedo alto. Pasando por la atmósfera la
luz puede ser dispersada como resultado de su interacción con gases y partículas de la atmósfera.
El fenómeno de la dispersión afecta intensamente las fotos aéreas. Se distingue dos procesos: la
dispersión atmosférica selectiva y no selectiva. En la dispersión atmosférica selectiva las
longitudes de onda relativamente cortas correspondientes a la energía ultravioleta y a la luz azul
son dispersadas más fuertemente en comparación con las longitudes de onda mayores
correspondientes a la luz roja y a la energía infrarroja debido a gases como nitrógeno, oxígeno y
dióxido de carbón. La dispersión selectiva de la luz azul causa el color celeste del cielo. Al
amanecer y oscurecerse la luz pasa casi horizontalmente por la atmósfera, que dispersa las
longitudes de onda correspondientes a los colores azul y verde y que deja pasar sólo las
longitudes de onda correspondientes al color rojo, de tal modo colorando el cielo en color rojo.
En la dispersión no selectiva todas las longitudes de onda son dispersadas en la misma intensidad.
La dispersión no selectiva se debe a polvos, nubes y neblina constituyéndose de partículas de
diámetros mayores a las longitudes de onda de luz. Las nubes y la neblina son aérosoles de gotas
muy finas de agua de apariencia blanca debido a la dispersión no selectiva de la luz.
Generalmente en la atmósfera los dos tipos de dispersión afectan la luz. (diagrama dispersión
relativa en función de la longitud de onda) La atmósfera dispersa las longitudes de onda
correspondientes a la región ultravioleta y a la luz azul dos veces más intensamente en
comparación a la luz roja.
La luz dispersada por la atmósfera no contiene información acerca del terreno. Incluso la
luz dispersada reduce la relación de contraste de la escena y en consecuencia la resolución
espacial y la capacidad de detección de la foto. Por medio del filtrado de las longitudes de ondas
más cortas selectivamente dispersadas antes de alcanzar el rollo se reduce los efectos de la
dispersión atmosférica (Fig.1).

2.3 Efecto tridimensional e instrumentos para lograrlo


Para lograr un efecto tridimensional en la observación de un par de fotos aéreas se debe
vencer la acoplación vegetativa entre la convergencia y la acomodación de las lentes oculares de
la manera siguiente:
• Observar con un ángulo de convergencia, que tiende a cero o es decir con los ejes visuales
aproximadamente paralelos entre sí.
• Acomodar los ojos a la observación de un objeto cercano.
Instrumentos que apoyan la superación de la ligadura vegetativa entre la convergencia y la
acomodación de los lentes oculares son:

Lentes anaglíficas
El encuadre, que se repite en las dos fotos aéreas consecutivas se imprime en color rojo y
en color azul-verde, un encuadre de foto sobre el otro y desemplazando la impresión en color rojo
algunos milímetros hacia la derecha. Esta llamativa imagen anaglífica se observa con las lentes
anglíficas, que se constituyen de un filtro rojo correspondiente al ojo izquierdo y un filtro azul-
verde correspondiente al ojo derecho. De tal modo se filtra la impresión en color rojo para el ojo
izquierdo (captando la impresión en color azul-verde) y la impresión en color azul-verde para el
ojo derecho (que capta la impresión en color rojo). Las dos impresiones filtradas se
complementan formando una impresión en blanco-negro. Los ojos reciben dos imágenes en
blanco-negro desplazada entre sí, que están unidas por el celebro en un modelo estereotípico o
tridimensional respectivamente.
Como las imágenes están impresas una sobre el otro y con un desplazamiento pequeño
entre sí, se observa las imágenes desde una distancia relativamente corta y con los ojos
acomodados a esta misma distancia o es decir no se debe superar la ligadura vegetativa entre
convergencia y acomodación de las lentes oculares.

Estereoscopio de lentes
En el estereoscopio de lentes las lentes se encargan de la acomodación de los ojos para la
observación de un objeto cercano. El estereoscopio de lentes del bolsillo se compone de dos
lentes de aumento 2 o 3 veces puestas en la distancia promedio interpupilar de 6,5 cm en un arco,
que está conectado con un soporte abatible de dos pies. El estereoscopio se coloca en la distancia
focal de las lentes encima de un par de fotos aéreas alineadas y de cierta distancia entre sí.
Debido a la distancia fija de 6,5 cm entre las dos lentes solamente se puede observar encuadres de
imagen de este mismo ancho en forma tridimensional. El estereoscopio de arco es una variación
del estereoscópico de lentes, en que la distancia entre las dos lentes es variable y ajustable a la
distancia individual de cada observador; además se puede desplazar el par de lentes a lo largo del
arco para observar continuamente varios pares de fotos aéreas. La ventaja del estereoscopio de
lentes es su manejabilidad, sus desventajas son el ancho de encuadre visible tridimensionalmente
limitado a 6,5cm y su distorsión óptica hacia los márgenes del encuadre, que se opone a una
interpretación cuantitativa.

Estereoscopio de espejo
El estereoscopio de espejos se constituye de un sistema de dos lentes, de dos prismas
reflectores y de dos espejos relativamente grandes (Fig. 2). Las lentes están alineadas en una
distancia de 6,5 cm entre sí a lo largo de un arco, cuyo soporte lleva los dos espejos y los dos
prismas reflectores están alineados a lo largo del eje óptico debajo de las lentes. Los espejos y los
prismas están alineados en diagonal en la dirección visual formando un ángulo de 45º entre sí. De
tal modo se obtiene la proyección de un encuadre de dos fotos aéreas, cuyo ancho es mayor que
la distancia entre las lentes o entre los ojos del observador entre sí (mayor de 6,5 cm). Las lentes
del estereoscopio son planoconvexas y corrigen la distancia de imagen mayor de 6,5 cm obtenida
por el desvío, que corren los rayos de luz siendo reflejados por los espejos y pasando por los
prismas. Además el estereoscopio de espejos está equipado con lupas binoculares, normalmente
de aumento 6 o 8 veces.

2.4 Tipos de cámaras y rollos


Para la denominación de tipo de cámara fotogramétrica se nombra la distancia focal
del objetivo en cm y el tamaño del rollo expuesto expresado en ancho del negativo en cm.
Una cámara fotogramétrica de ángulo normal con objetivo de distancia focal f = 305mm y
una cajita de rollo del tamaño 23×23 cm² se denomina: 30/23.
Una cámara fotogramétrica de gran ángulo con objetivo de distancia focal f = 153mm y
una cajita de rollo del mismo tamaño 23×23 cm² se denomina: 15/23.
Una cámara fotogramétrica de ángulo estrecho con objetivo de distancia focal f = 610mm
y una cajita de rollo del mismo tamaño 23×23 cm² se denomina: 61/23.
Los tamaños comunes de la cajita del rollo son 23×23 cm² y 18×18 cm² para fotos aéreas
y 6×6 cm² para fotos de satélite.

Según el número de objetivos se distinguen los sistemas fotográficos mono-espectrales y


multi-espectrales. Los sistemas mono-espectrales emplean un solo objetivo y graban la
información de un solo intervalo de longitud de onda. Los sistemas multi-espectrales están
equipados con una cámara con varios objetivos o con varias cámaras: A partir de la cámara
equipada con varios objetivos se puede recibir impresiones de la misma imagen en diversas
bandas espectrales. El sistema de varias cámaras permite la obtención simultánea de distintas
fotografías del mismo encuadre del terreno.
RMK es la abreviatura para el término alemán Reihenmesskamera lo que denomina una
cámara métrica diseñada por la empresa Zeiss con un formato de 23 x 23cm que proporciona
fotos aéreas de gran precisión y de elevada cobertura.
LFC (Large Format Camera) designa una cámara de gran formato (23 x 46cm) diseñada
por la empresa ITEK.
MFK-6 es una cámara multiespectral de origen soviético equipada con 6 objetivos que
cubren 6 bandas del espectro desde el azul del espectro visible hasta el infrarrojo cercano.
2.5 Rollo: composición, revelado, tipos
Composición del rollo y revelado
El rollo fotográfico se constituye de una base transparente flexible cubierta con una
película compuesta de una emulsión sensible a la luz y de un espesor aproximado de 100µm. La
emulsión se compone de una suspensión de gelatina solidificada de granos de halogenuro de plata
(=silver halide) con diámetros igual y menor a unos pocos micrómetros. Debido a su
precipitación rápida los granos son irregulares y tienen superficies imperfectas.
La exposición fotográfica se refiere a la reacción fotoquímica entre los fotones de luz
incidentes en los granos de halogenuro de plata de la emulsión. Cuando un foton choca con uno
de los granos un electrón de un cristal de halogenuro de plata recibe suficiente energía para
moverse libremente y en consecuencia puede ser atrapado en una de las imperfecciones del
grano. En combinación con un ión de plata, que carece un electrón, el electrón atrapado puede
convertir el ión de plata en un átomo de plata. Un solo átomo de plata no puede existir mucho
tiempo. Solo si se liberan dos electrones en un intervalo de un segundo, una combinación estable
de átomos de plata se formará en la imperfección del grano.
Por consiguiente un requisito para el éxito del método fotográfico es la adquisición de
más de un foton por el grano de halogenuro de plata dentro de un intervalo de tiempo corto. Si un
solo foton podría causar la formación de átomos estables de plata los fotones randomizados
(ocasionales) generados por la vibración iónica convertiría pronto todos los granos en plata.
Antes del revelado los granos expuestos y no expuestos de halogenuro de plata no se distinguen
en su apariencia, es decir en esta fase el rollo contiene una imagen latente.
El revelado es el proceso químico de transformar la imagen latente en una imagen real
convirtiendo los granos expuestos de halogenuro de plata en granos opacos de plata. El rollo se
emerge en el revelador siendo una solución acuosa con un agente reductor que no interactúa con
los granos no expuestos de halogenuro de plata. Por el proceso de reducción el grano entero se
convierte en plata metálica.
El próximo proceso es la fijación, la cual remueve los granos no expuestos dejando áreas
claras en su lugar de la emulsión. Terminado la fijación se obtiene el rollo negativo, donde los
objetos claros aparecen en tonos oscuros y objetos oscuros aparecen en tonos claros. Cuando se
imprime el rollo en papel fotográfico, las imágenes negativas son revertidas. Por consiguiente en
la foto los objetos claros aparecen en tonos claros y los objetos oscuros llevan tonos oscuros en la
foto.
Las ventajas de las fotos aéreas son las siguientes:
ƒ La ampliación enormemente grande: Unos pocos fotones absorbidos en un grano de
halogenuro de plata de un volumen de 1µm3 producirá mas de 1010 átomos de plata
revelados, lo cual significa una ampliación de más de 109 veces.
ƒ Los rollos pueden grabar grandes cantidades de informaciones: Cada grano fuese
expuesto o no expuesto guarda una información acerca de la escena, de la cual se ha
tomado la foto. Un trozo de rollo de 6,5cm2 lleva más de 150 ×106 granos.
ƒ Alto poder de resolución
ƒ Se puede llevar algunos estereoscopios de dimensiones pequeñas al terreno.
ƒ Uso sencillo.
ƒ Bajos costos.

Las desventajas de las fotos aéreas consisten en los aspectos siguientes:


ƒ Los rollos están limitados a un intervalo de longitudes de onda de 0,3 a 0,9µm.
ƒ Los efectos del clima, de las condiciones de iluminación y atmosféricas influyen la
calidad de las fotos.
ƒ La información se graba en un formato no digital. Para poder procesarla con programas de
computación las fotos tienen que ser convertidas a un formato digital.

Los tipos de rollos y sus características


a. Rollos en blanco-negro
En general para la producción de fotos aéreas en blanco-negro se emplean los rollos
pancromáticos de un intervalo de sensibilidad de λ = 0,36 a 0,72µm caracterizados por un
intervalo de rojo más amplio en comparación con los rollos pancromáticos comunes. Estos rollos
registran la luz reflejada por los objetos y la graban como un tono acromático (tono de gris), pero
no pueden distinguir los diferentes intervalos de longitud de onda correspondientes a las
reflexiones.

b. Rollos infrarrojos en blanco-negro


Los rollos infrarrojos en blanco-negro suministran más informaciones con respecto al
poder reflectante de los objetos en el intervalo infrarrojo, puesto que ellos son sensibles para un
intervalo de λs mayor en comparación con los rollos pancromáticos. Su intervalo de λ se extiende
más hacia las longitudes de ondas mayores, aproximadamente hasta λ = 0,9µm.
En combinación con filtros amarillo, rojo claro y rojo oscuro, que no dejan pasar las λ
menores a 0,5 a 0,58 o 0,68 µm respectivamente, se puede destacar la información
correspondiente a la región infrarroja inherente en ellos. El uso de los rollos infrarrojos en
blanco-negro puede resultar en un aumento de la 'visibilidad' y del registro de información en un
30% en comparación con el uso de los rollos en blanco-negro comunes, puesto que la porción
roja y infrarroja del espectro electromagnético está menos afectada por la dispersión que la
porción azul.
La porción infrarroja reflejada entrega informaciones acerca del contenido en agua en el
material constituyendo la superficie terrestre. Debido a que el agua absorbe una gran parte de la
radiación solar infrarroja, los lagos, ríos, océanos y otras áreas húmedas se aprecian por tonos
oscuros a negro en las fotos aéreas infrarrojas, mientras que las áreas secas aparecen en tonos más
claros.
Comparando las fotos aéreas en blanco-negro con las infrarrojas en blanco-negro se puede
distinguir bien las áreas cubiertas por vegetación y sin vegetación. En las fotos en blanco-negro
las áreas cubiertas por vegetación aparecen más oscuras, en las fotos infrarrojas en blanco-negro
las mismas áreas aparecen en tonos más claros en comparación con las áreas sin vegetación.

c. Rollos en colores
Los rollos en colores se caracterizan
ƒ por su capacidad de resolución menor en comparación con los rollos en blanco-negro,
ƒ por un contenido más alto en informaciones (tonos, intensidad de colores), que puede
aumentar la exactitud de la evaluación de las fotos hasta 20%.
Usualmente se utilizan los rollos en colores para la interpretación de las fotos aéreas de
gran escala.
Se distingue los siguientes tipos de rollos en colores
a. Rollos negativos en colores
El uso de los rollos negativos en colores es universal, se puede confeccionar las fotos en
colores y en blanco-negro, además los diapositivos. En la confección de los rollos el ajuste
cromático es problemático. Los tonos de los colores en las copias del mismo negativo
confeccionadas en distintos laboratorios casi nunca coinciden. Por consiguiente el color y la
tonalidad no son criterios cuantitativos en la interpretación.

b. Rollos en colores reversibles


Se los utilizan para obtener diapositivos. Su poder de resolución y su sensibilidad son
mayores en comparación con los de los rollos negativos en colores, pero menores a los de los
rollos en blanco-negro.

c. Rollos infrarrojos en colores


Los rollos infrarrojos en colores son sensibles para las λs del intervalo 0,5µm - 0,9µm.
Suprimiendo la información del color azul, se puede asignar un color a la información infrarroja
(aprox. 0,72 - 0,9µm) como sigue:
¾ Se suprime el azul con un filtro amarillo
¾ El verde aparece en azul
¾ El rojo aparece en verde
¾ El infrarrojo aparece en rojo.
Por consiguiente los colores de las fotos no son los colores reales de los objetos. Por tal
razón se denominan los rollos infrarrojos también rollos de colores falsos.
Eliminando por filtración los colores azules y ampliando la sensibilidad en el espectro
infrarrojo, se logra una mayor penetración a través de las capas brumosas de la atmósfera. Esta
característica de los rollos infrarrojos en colores se aprovecha en los vuelos de gran altura.
Para la evaluación geológica se asume lo siguiente:
¾ Los tipos de vegetación y su distribución reflejan características edafológicas (de los
suelos), geológicas y estructurales.
¾ La distribución de la vegetación está relacionada con los rasgos geológicos y por
consiguiente permite una interpretación geológica. ¡Atención: no siempre es así!
¾ Las variaciones de humedad del suelo permiten sacar conclusiones acerca del subsuelo.
¾ En posición muy baja del sol se acentúan los rasgos morfológicos (los relieves) debido a
la dispersión selectiva de la luz azul de tal modo proyectando largas sombras
intensamente negras.
¾ Es apropiado para los estudios de áreas glaciares y de morenas.

Se debería seleccionar el tipo de rollo apropiado para un estudio en base de sus objetivos
y en base de las características del área de estudio.
Tabla: Contenido de información de los varios rollos con respecto a distintos aspectos de
investigación.
Aspectos de investigación Contenido de informaciones utilizando un rollo
en blanco-negro en colores infrarrojo en colores
General
Penetración por sombra 2 1 3
Acentuación de sombra 2 3 1
Penetración por neblina 2 3 1
Vegetación
Reconocimiento de especies 3 2 1
Estado de salud 3 2 1
Mapeo 3 2 1
Suelos y rocas
Topografía 2 1 1
Redes de drenaje 3 2 1
Contenido de humedad 3 2 1
Mapeo de suelos 2 1 2
Suelos perturbados 3 2 1
Zonas de fallas 3 2 1
Identificación de afloramientos 3 2 1
Agua
Penetración 2 1 3
Contaminación 3 2 1
Nieve y hielo
Profundidad y/o espesor 2 3 1
Acumulación de agua de 2 3 1
deshielo
Clave para la tabla anterior: 1 = alto contenido de información.
2 = contenido de información moderado.
3 = bajo contenido de información.

2.6 Tipos de fotos aéreas y sus características


Tipos de fotos aéreas son:
Fotos aéreas verticales - El eje óptico de la cámara esta en posición vertical respecto a la
superficie de la tierra. Se las emplean en la restitución topográfica y en estudios temáticos muy
variados como por ejemplo en los estudios geológicos.
Fotos aéreas oblicuas bajas - El eje óptico de la cámara forma un ángulo de 15° a 30° con
la vertical respecto a la superficie de la tierra.
Fotos aéreas oblicuas altas - El eje óptico de la cámara forma un ángulo de 60° o más
grande con la vertical respecto a la superficie de la tierra.
Las fotos aéreas oblicuas tienen principalmente fines estéticos, pero también pueden apoyar
estudios científicos como por ejemplo un estudio del relieve de un terreno o un estudio de los
asentamientos humanos.
Según la altura de observación se distinguen entre las fotos aéreas y espaciales. Las fotos
aéreas tomadas desde alturas menores se aprecian por su mejor resolución espacial y su nitidez,
las fotos espaciales poseen una mayor cobertura del terreno y una mejor precisión geométrica.

Recubrimiento longitudinal: cada foto traslape el 60% del área cubierta por la toma anterior.
Recubrimiento transversal: en cada línea de vuelo el área fotografiada traslapa lateralmente el
25% a 30% de la banda cubierta en la línea de vuelo anterior.

La geometría de la foto aérea se describe por la proyección cónica. Las características de


la proyección cónica son las siguientes:
Los puntos del terreno se proyectan por medio de una línea recta sobre el rollo.
El punto de intersección de estas líneas es el centro de perspectiva y coincide con el
centro óptico del objetivo. En tomas verticales el punto central de la foto coincide con el nadir del
terreno.
Debido al recubrimiento longitudinal de 60% cada foto vertical contiene su propio punto
central y los puntos centrales de las dos fotos vecinas. Marcando los dos puntos centrales de las
dos fotos vecinas en la foto en cuestión y uniendo los tres puntos centrales por una línea se halla
la trayectoria del vuelo. La aerobase es la línea, que une los nadires del terreno de tres fotos
consecutivas. La fotobase se refiere a la línea, que une los centros de fotos vecinos. La aerobase y
la fotobase coinciden sólo en fotos perfectamente verticales.

Nadir
El nadir es el punto del terreno, que sobrevuela el avión en el momento de la exposición.
En las fotos verticales el nadir coincide con el centro de la foto.
Línea base o aerobase
La línea base es la línea, que une los nadires del terreno.
Línea base de la foto o fotobase
La línea base de la foto es la línea, que une los centros de fotos contiguas. En las fotos
verticales la línea base coincide con la líneabase de la foto (aerobase = fotobase).

Distorsión radial
En la proyección cónica los rayos que unen los puntos del terreno con los puntos de la
foto cruzan puntos superpuestos (uno encima del otro) con ángulos diferentes. En consecuencia
en la proyección horizontal de la foto estos puntos están alineados sobre una línea radial, que
parte del centro de la foto. Las proyecciones de los puntos objetos de diferentes cotas, ubicados
en el mismo lugar como el pie y el tope de un árbol por ejemplo son desplazados en direcciones
opuestas a lo largo de líneas radiales.
Si los puntos tienen cotas mayores a aquella del nadir, sus proyecciones se desplazan
hacia la periferia de la foto, si los puntos tienen cotas menores a aquella del nadir sus
proyecciones se desplazan hacia el centro de la foto. La dimensión de la distorsión radial depende
de las diferencias en la altura de los puntos proyectados. El desplazamiento se aumenta desde el
centro hacia la periferia de la foto.
Los efectos del desplazamiento son los siguientes:
ƒ Líneas verticales como torres y superficies inclinadas como paredes de canteras,
superficies de fallas verticales parecen inclinadas hacia la periferia de la foto.
ƒ La distancia horizontal entre puntos de distintas cotas se falsea.
ƒ Las relaciones angulares entre puntos de distintas cotas se distorsionan.
Escala M = f/(H-h)
donde M=escala, f=distancia focal de la cámara en [mm], [cm], [m], (H-h)=altitud de vuelo
respecto a la superficie del terreno en [mm], [cm], [m].

Exageración vertical
En las imágenes estereoscópicas, el relieve parece exagerado.
Cuantitativamente se expresa la exageración vertical por el factor de exageración V:
V = a×B×d×s/(f×H×E) donde a=factor de proporcionalidad
B=aerobase (línea, que une los nadires del terreno)
d=distancia foto - ojo
s=distancia foto - foto
f= distancia focal de la cámara
H=altura de vuelo
E=distancia entre los ojos del observador.
Excepto de la aerobase y de la altura del vuelo para un vuelo y un observador todos los
demás factores son constantes. Cada observador debe determinar su factor de exageración
individual. Generalmente el factor de exageración varia entre 2,5 - 3,5.

2.7 Orientación de fotos aéreas bajo el estereoscopio de espejos


La orientación correcta de un par de fotos aéreas bajo el estereoscopio de espejos se
realiza de la manera siguiente:
1. Para la comprobación del paralismo entre la línea del vuelo y la línea de unión interpupilar se
determina el centro del par de fotos aéreas a evaluar, trazando una línea de unión entre las marcas
de encuadre superior e inferior y derecha e izquierda. La intersección de ambas líneas es el centro
de la foto aérea. Se marca los centros M1 y M2 así obtenidos con un alfiler o una cruz a lápiz con
punta fina.
2. Se transfiere el centro de la foto1 (M1) a la foto2 y el centro de la foto2 (M2) a la foto1. Se
marca los centros M1' y M2' transferidos con un alfiler o una cruz. La línea de unión entre M1 y
M2' y entre M2 y M1' es la línea de unión de los centros, es decir la línea base de la foto y
corresponde al recorrido del vuelo.
3. Se prolonga la línea de unión entre los dos centros hacia ambos lados hasta el borde exterior de
la foto. Se marca los puntos de intersección de la línea central con los bordes de la foto.
4. Se orienta las fotos de tal manera que las líneas de base de ambas fotos queden sobre una recta,
es decir que los cuatro centros M1, M2, M1' y M2' se encuentran sobre esta línea recta.
5. Se ubica puntos equivalentes de ambas fotos a la distancia correcta entre sí.
6. Se orienta el par de fotos aéreas bajo el estereoscopio de espejos de tal manera que las líneas
de base de las dos fotos y las líneas de unión entre los centros de las lentes del estereoscopio
queden en un plano.

2.8 Evaluación cualitativa de fotos aéreas


De las fotos aéreas se puede obtener las informaciones geológicas siguientes:
ƒ Informaciones litológicas: distribución de diversos tipos de rocas.
ƒ Informaciones estructurales: p.ej. relaciones de yacencia, plegamientos, fallas, fracturas,
diaclasamiento.

La evaluación fotogeológica se puede realizar a través de:


una identificación directa de afloramientos y estructuras geológicas, p.ej. conos
volcánicos, corrientes de lava, médulas, escombres de faldas, terrazas aluviales.
una identificación indirecta por medio de la interpretación de elementos ajenos a la
geología como son los tonos de gris, textura de los tonos, la morfología, la red hidrográfica, el
tipo de la distribución de la vegetación.

Tonos grises
El tono de un objeto depende de la cantidad de luz del espectro visible, que el objeto refleja.
Tonos grises pueden ser claros, oscuros, negruzcos y otros términos similares.
Textura
Textura se refiere a las variaciones en la intensidad del tono de gris o es decir a las variaciones de
tonos claros y oscuros de gris, que solamente se aprecian en escalas grandes observando las fotos
aéreas con más detalle (con un aumento de 6x o 8x p.ej.). Algunos términos descriptivos para la
textura son los siguientes: gruesa, fina, rayada, manchada o se la compara con tramas de textiles.

Factores geológicos determinantes del tono y de la textura son los siguientes:

1. Color de las rocas: Granito fresco de tonos más claros como basalto; diques aplíticos de tonos
más claros como filitas o gneises encajantes en un terreno metamórfico. Tenga en cuenta que las
rocas meteorizadas presentan colores diferentes a los de sus equivalentes frescos.

2. Estructura superficial de las rocas: Superficies lisas, densas, regulares de tonos claros y
uniformes; rocas de grano grueso, de superficie rugosa de tonos más oscuros. Tenga en cuenta
que las rocas meteorizadas y tectonizadas presentan superficies diferentes a las de sus
equivalentes frescos.

Factores determinantes del tono y de la textura, que dependen del objeto fotografiado, son
los siguientes:

1. Suelos: Color y textura de los suelos determinan tono y textura del gris; en el caso de suelos
residuales se pueden sacar conclusiones sobre el tipo de roca original. Tenga en cuenta que los
tipos de suelo también dependen del clima, de la topografía, de la humedad, de la vegetación y de
otros factores más.

2. Humedad: Areas húmedas de tonos más oscuros, áreas áridas de tonos más claros; las
diferencias de humedad pueden dar informaciones sobre diversos tipos de rocas y suelos, pues la
humedad depende de la porosidad, que a su vez depende de la litología. Tenga en cuenta que la
humedad depende directamente del clima.

3. Vegetación: color y tipo de sombra de la vegetación influyen en el tono y la textura del gris;
distribución y tipo de vegetación a menudo pueden indicar el tipo de suelo y las estructuras
geológicas bajo la cubierta vegetal. Tenga en cuenta que depende del clima y de influencias
antropógenas y de otros factores más.

Factores independientes del objeto fotografiado que determinan tono y textura son:
1. Exposición solar
2. Factores fotográficos (sensibilidad del rollo, filtros, revelado)

Textura de gris visible a escala mayor:


Se refiere al mosaico (regular o irregular) de tonos similares, que constituyen superficies grises
continuas. El mosaico regular puede indicar:
ƒ diferencias primarias de color en la superficie o en la textura de las rocas,
ƒ diferencias de humedad,
ƒ diferencias litológicas primarias, como la distribución de diferentes tipos de sedimentos o
como la estratificación,
ƒ superficies disruptivas como fallas y fracturas.
El mosaico de vegetación debido al tipo y a la densidad de la vegetación permite reconocer
diferencias en el tipo de la vegetación y su distribución.
El mosaico en bloques indica la presencia de áreas de litología uniforme.
Alineaciones de la vegetación pueden originarse en diferentes tipos de rocas aflorando en forma
de franjas como p.ej. alternancias de rocas sedimentarias buzantes, y en fallas o en sistemas de
fallas.

La red hidrográfica depende directamente de la litología y de la estructura del área de


estudio. La red hidrográfica se caracteriza en base de las direcciones, las ramificaciones, la
densidad de los ríos, quebradas y otros cursos de agua.
Se distinguen los siguientes tipos principales de redes hidrográficas (véase figuras):

1. Red dendrítica
Indica un subsuelo homogéneo. Se desarrolla
- en sedimentos sueltos con superficies homogéneas como arena, limo y arcilla,
- en rocas cristalinas y metamórficas, que no son afectadas zonas de fallas,
- en rocas sedimentarias horizontales o poco inclinadas, no fracturadas o diaclasadas
- en rocas masivos, resistentes con respecto a la erosión en regiones áridas como p.ej.
cuarcitas, areniscas, conglomerados.
La densidad de los cursos de agua de una red dendrítica depende de las precipitaciones y
del escurrimiento (infiltración).
Una red dendrítica fina se desarrolla en un subsuelo relativamente impermeable y poco
resistente con respecto a la erosión (en arcillas, arenas finas, margas, tufitas p. ej.).
Una red dendrítica gruesa se desarrolla en areniscas de grano grueso, de alta
permeabilidad, en rocas intrusivas de grano grueso no o solo ligeramente fracturadas, en regiones
húmedas en carbonatos y dolomitas, donde agua cárstica infiltra el subsuelo.

2. Red rectangular
Puede reflejar sistemas de fracturas perpendiculares entre sí en las rocas subyacentes.
Se desarrolla en áreas de rocas cristalinas disectadas por un sistema de fracturas
ortogonal,
en altiplanicies cubiertas de rocas sedimentarias +/- horizontales,
en dimensiones pequeñas en areniscas diaclasadas en zonas áridas o semiáridas.

3. Red de enrejado
Puede indicar una alternancia de estratos subyacentes de rocas resistentes y no resistentes
a la erosión.

4. Red radial
Se desarrolla en terrenos altos (red de afluentes centrífuga) o bajos (red de afluentes
centrípeta) de forma circular o eclíptica como conos volcánicos, intrusivos graníticos, domos de
sal, anticlinales, sinclinales.
5. Anomalías en la red de drenaje
Cuando la forma, densidad o dirección de los cursos de agua o el ancho, la profundidad o
las características de las terrazas de un valle varían con respecto al esquema general del área de
estudio se habla de anomalías en la red de drenaje. Ejemplos de algunas anomalías son:
- un recorrido rectilíneo de secciones de los cursos de agua puede indicar fallas, diaclasas,
fracturas o cambios en la dureza de las rocas,
- un cambio brusco en la densidad de la red de drenaje puede indicar un cambio brusco de
la litología,
- cambios repentinos en las características de los valles pueden indicar un cambio
litológico o tectónico o un limite entre dos áreas de historia epirogenética distinta,
- la distribución rectilínea de vertientes y sumergidos naturales puede indicar cambios
litológicos en contactos de rocas sedimentarias, fallas o zonas de fracturamiento.
Ningún drenaje superficial existe en sedimentos sueltos de grano grueso como en arenas gruesas
o en gravas, que forman terrazas fluviales, sedimentos (fluvio-)glaciales o eólicos.

Otros patrones de drenaje son los siguientes:


ƒ Meandros
ƒ Anulares
ƒ Yazoo
ƒ Abanicos
ƒ Paralelos y subparalelos
ƒ Anastomosados
ƒ Reticulares
ƒ Contorsionados

El relieve depende entre otros factores de la geología.


Directamente se puede identificar p.ej. dunas, escombros de falda, terrazas aluviales,
morrenas, morfología producida por erosión glaciar, deslizamiento y desprendimiento de terreno
inestable, dolinas, conos volcánicos, corrientes de lavas.
Indirectamente se puede identificar estructuras formadas por la erosión diferencial como
p.ej.:
- conos volcánicos erosionados con núcleo más resistente a la erosión, que cumbre en forma de
cúpula como cuello volcánico;
- diques sobresalientes o hundidos dependientes de su resistencia relativa a la erosión con
respecto a las rocas encajantes;
- rocas sedimentarias resistentes a la erosión y sobresalientes en forma de lomas;
- complejos intrusivos;
- aureolas de contacto, que pueden presentar zonas más resistentes a la erosión;
- estructuras plegadas y fallas.
Las figuras ilustran algunos ejemplos de la relación entre morfología y geología.

Información geológica, que se puede obtener a partir de fotos aéreas, depende de los
factores siguientes:

Factores geológicos
Las rocas sedimentarias suministran la mayor cantidad de información: estratificación
indica cambio litológico y distinta resistencia frente a la erosión.
Menos adecuados para un estudio fotogeológico son las rocas ígneas por su
comportamiento relativamente uniforme frente a la erosión, las rocas metamórficas por su gran
homogeneidad y áreas cubiertas por sedimentos sueltos.

Factores climáticos
Zonas áridas y semiáridas son bien adecuadas para un estudio fotogeológico por la
frecuencia alta de afloramientos, por la poca vegetación y la poca profundidad de meteorización.
Además la vegetación responde con exactitud a la oferta de nutrientes, que depende de la
litología o de la capa de rocas meteorizadas, que cubre las rocas subyacentes.
Zonas tropicales o de clima templado son menos adecuados para un estudio fotogeológico
por su meteorización muy profunda y su capa de vegetación cerrada. Además la meteorización
química homogeneiza el suelo de tal manera que la vegetación rara vez responde a las
características de las rocas subyacentes.
Zonas de nieve y glaciares son menos adecuadas por un estudio fotogeológico por la capa
de nieve, que cubre la morfología del terreno.

Grado de madurez del área de estudio


Madurez se refiere al efecto de la erosión en un área. Un área afectada intensamente por la
erosión muestra un relieve relativamente plano, poco destacado, un área poco afectada por la
erosión es de un relieve abrupto y fuertemente disectado.
Regiones de relieve inmaduro con morfología disectada proporcionan mayor cantidad y
mejor calidad de información geológica que las regiones maduras como los peneplanicies.
Escala de la foto
Escala pequeña = pocos detalles, visión global,
Escala grande = muchos detalles, visión detallada.

Calidad de la foto
Depende de la absorción y dispersión de la atmósfera en el momento de la exposición, de
las características del rollo, de la calidad del revelado.

Otras informaciones disponibles como antecedentes geológicos del área de estudio y la


experiencia geológica del interprete facilitan la interpretación de las fotos aéreas.

Informaciones geológicas detalladas, que se puede obtener a partir de fotos aéreas


ƒ Informaciones litológicas
ƒ Informaciones estructurales

Sedimentos sueltos
Con frecuencia falta el drenaje superficial, los relieves son acumulativos como por
ejemplo dunas, morrenas, terrazas, escombras de faldas, depósitos de deltas.

Rocas sedimentarias
Tono oscuro = grano fino
claro = grano grueso
ocasionalmente irregular, con textura
Mosaico bandeamiento claro-oscuro paralelo a los estratos = estratificación
uniforme = rocas masivas
Esquema de diaclasamiento
En general dirección y ángulos de intersección de diaclasa son constantes en áreas extensas.
Rocas de grano fino = diaclasas formando un enrejado fino.
Rocas de grano grueso = diaclasas distintas entre sí, enrejado amplio.
Drenaje rocas de grano fino = red hidrográfica tupida,
rocas de grano grueso = red hidrográfica espaciada.

Rocas arcillosas
Tono de gris mediano; drenaje: red hidrográfica tupida, dendrítica fina; vegetación densa en áreas
de clima húmedo; morfología: relieve suave en áreas de clima húmedo, relieve abrupto en áreas
de clima árido.

Alternancia de arcillolitas con areniscas o calizas


Mosaico bandeamiento claro-oscuro paralelo a los estratos.
Drenaje angular, red hidrográfica paralela o en forma de enrejado.
Vegetación diferencias locales de la vegetación, líneas de plantas paralelas a la estratificación.
Morfología erosión diferencial de rocas duras y blandas, desarrollo de escarpes, cuestas,
crestas y pendientes de valles escalonadas.
Areniscas
Tono claro a mediano.
Mosaico de gris bandeamiento paralelo = estratificación fina, sin bandeamiento =
estratificación gruesa.
Esquema de diaclasamiento diaclasas distintas entre si, enrejado amplio = areniscas de grano
grueso, enrejado fino de diaclasas = areniscas de grano fino.
Drenaje en general red hidrográfica espaciada, red hidrográfica de enrejado amplio =
secuencias de grano grueso, red hidrográfica tupida = secuencias de grano fino.
Morfología en general resistentes a la erosión, modelando un relieve, cuestas, planicies;
morfología detallada burda y meteorización esférica = arenisca de grano grueso; menos
resistentes a la erosión, valles profundos, de pendientes inclinadas, crestas pronunciadas =
areniscas de grano fino.

Calizas
Tono claro a muy claro.
Mosaico de gris bandeamiento paralelo = calizas estratificadas, tono uniforma = masivas.
Drenaje en general superficial poco desarrollado.
Vegetación en franjas = en alternancia con margas.
Morfología meteorización profunda y desarrollo de carstos en áreas de clima húmedo,
resistentes a la erosión, relieve modelado, cuestas, pendientes muy inclinadas, planicies, valles
profundos con crestas pronunciadas en áreas de clima árido.

Rocas volcánicas
Tono oscuro = rocas volcánicas básicas, claro = rocas volcánicas ácidas.
Drenaje red hidrográfica poca desarrollada en lavas, red hidrográfica dendrítica fina en
rocas piroclásticas.
Morfología conos, cráteres, maares, calderas, planicies y corrientes de lava son formaciones
típicas de áreas volcánicas.
Contactos discordantes se forman por intersección de las estructuras volcánicas con las rocas
preexistentes de otra orientación (p.ej. con los bandeamientos de rocas preexistentes).

Rocas intrusivas
Tono claro = plutonitas ácidas, oscuro a muy oscuro = plutonitas básicas.
Esquema de diaclasamiento sistemas de fracturas y diaclasas con diversos ángulos.
Drenaje red dendrítica poca desarrollada, en algunas zonas angulares o radial.
Vegetación uniforme, tupida en áreas de clima húmedo.
Morfología meteorización profunda, con frecuencia esférica, relieve suave en áreas de clima
húmedo; resistentes a la erosión intensa disección en valles en áreas de clima árido.

Diques
Tono gris claro = diques ácidos, oscuro a negro = diques básicos.
Mosaico con bandeamiento paralelo.
Vegetación alineaciones de vegetación en el caso de diques básicos.
Morfología meteorización profunda, formación de canalones o gargantas = diques básicos,
resistentes a la erosión, desarrollo de crestas y pircas = diques ácidos.
Rocas metamórficas
Tono mediano, claro = gneises, oscuro a negruzco = anfibolitas.
Mosaico uniforme o con bandeamiento paralelo.
Esquema de diaclasamiento sistemas de fracturas y diaclasas con direcciones y relaciones
angulares constantes en un área extensa.
Drenaje red dendrítica de alta densidad, localmente redes rectangulares o de enrejado.
Vegetación uniforme, tupida en áreas de clima húmedo.
Morfología
Cuarzitas = resistentes a la erosión, formando accidentes sobresalientes como crestas,
alineaciones de colinas suaves.
Mármol = en áreas de clima húmedo meteorización profunda, con formación de
topografía cárstica; en áreas de clima árido resistentes a la erosión formando accidentes
topográficos sobresalientes como crestas y alineaciones de colinas suaves.
Filitas = poco resistentes a la erosión, valles frecuentes, en áreas de clima húmedo
meteorización profunda; en áreas de clima árido valles de laderas inclinadas y crestas estrechas.
Gneis = resistentes a la erosión, modelando relieve.
Gneis bandeado = relieve con pequeños alineaciones de colinas paralelas.
Anfibolitas = poco resistentes a la erosión.
Serpentinitas = resistentes a la erosión, colinas esféricas.
2.9 Informaciones litológicas

Tipo de Tono Mosaico Esquema de diaclasamiento Red hidrográfica Vegetación Morfología


rocas (rh)
Sedimentos Oscuro = grano Bandeamiento Enrejado fino de diaclasas Grano fino = rh
sueltos fino; claro-oscuro = grano fino; tupida;
claro = grano paralelo a los diaclasas distintas, enrejado Grano grueso = rh
grueso ; estratos = amplio = grano grueso espaciada
irregular con estratificación;
textura uniforme = rocas
masivas
Rocas Gris mediano Tupida, dendrítica Densa en Relieve suave en
arcillosas fina áreas de clima húmedo;
clima relieve abrupto
húmedo en clima árido
Alternancia Bandeamiento Angular, paralela o Diferencias Erosión
de claro-oscuro de enrejado locales; diferencial de
arcillolitas paralelo a los líneas de rocas duras y
con estratos plantas blandas;
areniscas o paralelas a la escarpes, cuestas,
calizas estratificació crestas,
n pendientes de
valles
escalonadas
Areniscas Claro a Bandeamiento Diaclasas distintas, Espaciada; Resistentes a la
mediano paralelo = enrejado amplio = grano rh de enrejado erosión;
estratificación grueso; amplio por morfología
fina; enrejado fino de diaclasas = secuencias de grano detallada burda y
sin bandeamiento grano fino grueso; meteorización
= estratificación rh tupida por esférica = grano
gruesa secuencias de grano grueso ;
fino menos resistentes
a la erosión =
grano fino
Calizas Claro a muy Bandeamiento Superficial, poco En franjas = Meteorización
claro paralelo = desarrollada alternancia profunda y carsto
estratificación con margas en clima
Uniforme = húmedo;
masivas resistentes a la
erosión, relieve
modelado en
clima árido
Tipo de Tono Mosaico Esquema de diaclasamiento Red hidrográfica Vegetación Morfología
rocas (rh)
Rocas Oscuro = Poco desarrollada Conos, cráteres,
volcánicas vulcanitas en lavas; maares, calderas,
básicas; Dendrítica fina en planicies,
claro = rocas piroclásticas corrientes de lava
vulcanitas
ácidas
Rocas Claro = Sistemas de fracturas y Dendrítica poco Uniforme, Meteorización
intrusivas plutonitas diaclasas con diversos desarrollada, tupida en profunda,
ácidas; ángulos angular o radial clima esférica, relieve
Oscuro = húmedo suave en clima
plutonitas húmedo;
básicas resistentes a la
erosión en clima
árido
Diques Gris claro = Con bandeamiento Alineaciones Profunda,
diques ácidos; paralelo en el caso de canalones
oscuro a negro diques gargantas =
= diques básicos diques básicos;
básicos resistentes a la
erosión, crestas y
pircas = diques
ácidos
Rocas Mediano; Uniforme o con Sistemas de fracturas y Red dendrítica, Uniforme, Depende del tipo
metamórfic claro = gneises bandeamiento diaclasas con direcciones y rectangular o de tupida en de roca
as de composición paralelo relaciones angulares enrejado clima metamórfica*
granítica; constantes húmedo
oscuro a
negruzco =
anfibolitas
* Cuarzitas = resistentes a la erosión, accidentes topográficas sobresalientes.
Mármol = meteorización profunda, carsto en clima húmedo.
Filitas = poco resistentes a la erosión, valles frecuentes, meteorización profunda en clima húmedo, valles de laderas inclinadas
en clima árido.
Gneises = resistentes a la erosión, relieve modelado.
Gneis bandeado = relieve con pequeñas alineaciones de colinas paralelas.
Anfibolitas = poco resistentes a la erosión.
Serpentinitas = resistentes a la erosión, colinas esféricas.
2.10 Informaciones estructurales

Estructura Tono Mosaico Red Vegetación Morfología


hidrográfica
(rh)
Estratos Dendrítica Planicies concordantes con
horizontales superficies de estratificación,
escarpas compuestas
Secuencias Espesores aparentes (bandas): Paralela o de Con franjas: Crestas de estratos resistentes a
monoclinales grandes, curvatura cerrada de las enrejado anchas = la erosión forman colinas
bandas en valles fluviales = buzamiento alineadas en trazas rectas o
buzamiento suave; suave; curvadas;
reducidos, bandeamiento con angostas = en terreno cárstico torcas
trazas curvas = buzamiento buzamiento alineadas paralelamente a las
fuerte fuerte trazas de los estratos
Charnelas de Bandeamiento con trazas en Radial con Franjas en Crestas de estratos resistentes a
anticlinal, semicírculo ángulos agudos semicírculo la erosión forman colinas
sinclinal y para confluir a alineadas en trazas curvas
estructuras un río principal
de cúpula
Fallas Oscuro Alineamientos rectilíneos Red fluvial Cambios en la Alineaciones poco resistentes a
rectangular, con vegetación la erosión como canales de
ángulos agudos, formando angostura profunda, crestas de
ríos paralelos alineaciones estratos desplazadas
Diaclasas Oscuro Alineaciones rectilíneas cortas, Rectangular,
dirección constante, relaciones con ángulos
angulares constantes agudos, de
enrejado, ríos
paralelos
Esquistosida Alineaciones paralelas, tupidas Dendrítica, Con alineaciones paralelas
d paralela, en
parte secciones
rectas de los
cursos de los
ríos
Discordancia Varios tipos de relieve en
s angulares contacto abrupto entre sí.
2.11 Evaluación cuantitativa
Determinación de la escala de las fotos aéreas
Existen 2 métodos:
1. Escala E = f/(A-a), donde f = distancia focal
A = altura del vuelo s.n.d.m.
a = cota de la superficie terrestre
(A – a) = altura real del vuelo

2. Por comparación de la distancia entre dos puntos destacados de las fotos aéreas con la distancia
entre ambos puntos en el mapa topográfico correspondiente.
Conocida es la escala del mapa topográfico Em. Se mide las distancias entre los puntos
destacados en las fotos aéreas Df y en el mapa topográfico Dm. Se deduce la distancia verdadera
Dv entre ambos puntos de la manera siguiente: Dv = Dm/Em.
Las mediciones y los cálculos se realizan por lo menos en dos secciones distintas de las
fotos para evitar errores por variaciones de escala. Las variaciones se deben a variaciones de la
altura del vuelo y de la morfología y al basculamiento1 o tilt del avión.

Determinación de la escala promedio


ƒ Por cálculo a partir de la altura promedio del vuelo
ƒ Por comparación con el mapa topográfico seleccionando los extremos de las secciones a
igual cota.

Determinación de distancias horizontales en fotos aéreas


Método de la hoja transparente
Los puntos de proyección solo pueden estar desplazados del centro a la periferia o de la
periferia al centro de la foto, sobre un radio que pasa por el nadir de la foto y por el punto de
proyección. Observando el par de fotos aéreas con el estereoscopio se obtiene la ubicación exacta
del punto a la cota de los nadires de ambas fotos aéreas o a su cota promedio. El lugar geométrico
de su ubicación es la intersección de la recta que une el nadir (centro de la foto) con el punto en la
foto 2 al lado derecho y la recta que une el nadir con el punto en la foto 1 al lado izquierdo. Las
distancias horizontales entre los puntos restituidos de este modo son las distancias horizontales no
distorsionadas.
Procedimiento:
1. Sobre ambas fotografías se marcan los siguientes puntos:
ƒ Puntos a restituir
ƒ Puntos centrales de ambas fotos
ƒ Puntos centrales transferidos
ƒ La fotobase = línea que une los puntos centrales de las fotos
2. Se coloca una hoja transparente sobre la foto 2 al lado derecho, se calca el trazo con la fotobase
y los centros C1 y C2 de las fotos. Se une el centro C2 de la foto 2 con el punto a restituir (paso 1
en la figura fotaer3.cdr).

1
Basculamiento del avión como consecuencia de influencias externas como vientos y turbulencias. Se distinguen dos
tipos de desviaciones con respecto a la vertical:
ƒ Alabeo
ƒ Cabeceo: se produce por la inclinación del cuerpo del avión y de la cámara.
3. Se coloca la hoja transparente sobre la foto 1 de tal manera que coinciden la fotobase de la foto
1 con la de la hoja transparente. Se une el centro C1 de la foto1 con el punto a restituir (paso 2 en
la figura fotaer3.cdr).
Las dos rectas construidas se intersecan en el punto restituido.

Determinación de diferencias de cotas


Se determina las diferencias de cotas por medio de la diferencia de paralaje de dos o más
puntos de distintas cotas.
Observando un objeto tridimensional desde dos distintas posiciones se forman dos
distintas imágenes del objeto. El paralaje se define como el ángulo formado por dos rayos
provenientes de dos distintos posiciones de observación y dirigidos hacia el objeto. El paralaje es
mayor cuanto menor es la distancia entre las posiciones de observación y el objeto. Por el
contrario el paralaje es menor cuanto mayor es la distancia entre las posiciones de observación y
el objeto.
En el caso de las fotos aéreas se toman fotos de dos puntos de diferentes cotas desde dos
posiciones distintas de vuelo. Estos dos puntos aparecen en las fotos aéreas con distintos
paralajes. Por consiguiente de su diferencia de paralaje se puede deducir su diferencia de cota.
En un par de fotos aéreas tomadas desde dos distintas posiciones el paralaje de un punto objeto se
puede medir como distancia paralela a la fotobase. Se procede de modo siguiente (véase figura
fotaer5.cdr):
ƒ Se traza la normal del punto objeto a la fotobase en ambas fotos aéreas.
ƒ Se mide la distancia entre la intersección de la normal del punto objeto con la fotobase y
el centro de la foto en cada foto (d1 y d2).
ƒ El paralaje es la suma de las distancias d1 y d2.
La diferencia de paralaje entre dos puntos objeto de distintas cotas es dada por la
diferencia de la suma de las distancias obtenidas por el procedimiento arriba descrito (vease
figura fotaer4.cdr). Diferencia de paralaje entre punto objeto 1 y punto objeto 2 = (d1 + d2) – (d3
+ d4).
Siendo orientado exactamente el par de fotos aéreas la diferencia de paralaje coincide con
la diferencia de las distancias de puntos correspondientes en ambas fotos (D1 –D2 en la figura
fotaer5.cdr).
Las distancias de puntos correspondientes en ambas fotos se miden con el estereómetro
(estereomicrómetro, regla de paralaje).

Procedimiento:
Se orienta el par de fotos aéreas exactamente, tan exactamente que la imagen
tridimensional se mantenga aún observando con el binocular.
El estereómetro se coloca de tal manera sobre el par de fotos aéreas y bajo el
estereoscopio que las marcas de la lámina de vidrio del instrumento (de forma de puntos o de
semicruces) aparezcan en el campo visual.
Se ajusta el tornillo micrométrico hasta que ambas marcas se fundan sobre el punto objeto
formando un solo punto o un cruce completo.
Se toma la lectura de la escala micrométrica con una precisión de 1/10mm y se estima
hasta los 1/100mm.
Recomendable es realizar tres mediciones independientes entre sí, calcular el promedio de
las tres mediciones y calcular a partir del valor promedio el paralaje.
Las siguientes fórmulas se aplica para calcular la variación de altura:
1. Conociendo la diferencia de paralaje ∆p, la altura promedio del vuelo (H – h) y la
fotoabase b se calcula la variación de altura entre los puntos x e y (hx – hy) de modo
siguiente: hx – hy = (∆p(H – h))/b.
2. Conociendo la diferencia de paralaje ∆p, la escala promedio de las fotos E, la distancia
focal de la cámara f y la fotoabase b se calcula la variación de altura entre los puntos x e y
(hx – hy) de modo siguiente: hx – hy = (f × ∆p)/(E × b).

Aplicaciones en la evaluación geológica de fotos aéreas


ƒ Determinación de la potencia de estratos horizontales.
ƒ Determinación del desplazamiento vertical a lo largo de fallas verticales y altamente
inclinadas.
ƒ Determinación del manteo de un estrato (solo posible si se trabaja con dos puntos A y B
situados en una línea paralela a la dirección de inclinación).
ƒ Determinación de potencias de estratos inclinados.
ƒ Determinación de potencias de estratos altamente inclinados.
Capítulo 3
FUNDAMENTOS FÍSICOS

1. LA RADIACIÓN ELECTROMAGNÉTICA

1.1 Naturaleza de la luz

Las propiedades de la luz, y en general de las radiaciones electromagnéticas, se han


explicado hasta el momento mediante dos teorías: La teoría ondulatoria (Huygens, Maxwell)
que la explica como una onda electromagnética, y la cuántica (Planck, Einstein) que la
considera como una sucesión de unidades discretas de energía, fotones o cuantos, con masa
igual a cero). El comportamiento de la luz puede explicarse más cómodamente, según el caso,
de acuerdo a uno u otro de ambos planteamientos.

La teoría ondulatoria, define como onda electromagnética una energía que se


propaga de acuerdo a un modelo de onda transversal armónica y continua que contiene dos
campos de fuerzas ortogonales entre sí, uno eléctrico y otro magnético. Se ha determinado
experimentalmente que la velocidad de propagación en el vacío de estas ondas es de
aproximadamente 300.000 km/s (c= 2,99979 x 108 m/s) Siendo que esta velocidad es muy
semejante a la de la luz ésta es considerada también como onda electromagnética.

La onda electromagnética está definida por dos características (Fig 1): longitud (λ) y
frecuencia (F). La longitud de onda se define como la distancia entre dos simas o valles
correspondientes sucesivos, la frecuencia se define como a el número de unidades de longitud
de onda que pasan por un mismo punto en una unidad de tiempo.
La velocidad de propagación de la onda se calcula entonces como

c= λF

donde c indica la velocidad de la luz, λ expresa la longitud de onda (habitualmente en


micrones, (1 µ = 1 0-6 m) y F la frecuencia expresada en Hertzios o ciclos por segundo (Hz).

Fig. 1 Representación tridimensional de una onda electromagnética como una onda transversal que se propaga
en dos planos perpendiculares entre si. El esquema de la derecha indica las direcciones de vibración de los
campos y la dirección de propagación.

La teoría cuántica, por su parte, permite calcular la cantidad de energía transportada


por un fotón, en función de la frecuencia. Así:

Q=hF

donde Q es la energía radiante de un fotón (en julios), F la frecuencia y h la constante de


Planck (6,6 x 10 -34 Js). Despejando F y sustituyendo en la formula anterior se tiene:

Q = h (c/λ)

lo que significa que a mayor frecuencia (menor longitud de onda) el contenido energético será
mayor. Esto implica que la radiación en longitudes de onda largas es más difícil de detectar
que aquélla proveniente de longitudes cortas, de ahí que las primeras requieran medios de
detección más refinados.
Cuando la luz se propaga a través de una sustancia lo hace a una velocidad menor
cumpliéndose que:

v = c/n

En que v es la velocidad en el medio N, c la velocidad en el vacío, y n el índice de refracción


del medio N.

También ocurre que al pasar de un medio al otro el rayo es refractado de modo que se
acerca a la normal a al superficie en el medio más denso cumpliéndose la llamada 2ª ley de
Snell

ni sen i = nr sen r

Donde i es el ángulo de incidencia, r el ángulo de refracción, ni es el índice de refracción del


medio i y nr el índice de refracción del medio r.

Rayo incidente

Rayo reflejado
i
Medio I

____________

Medio R
Rayo refractado

Fi 2 Trayectoria de rayos reflejados y refractados de acuerdo a las leyes de Snell. El ángulo de incidencia es
siempre igual al ángulo de reflexión. Si la densidad del medio R es mayor que la del medio I el ángulo de
refracción r es menor que el de incidencia.
1.2 Espectro de la radiación electromagnética.

Si se expresan los distintos tipos de energía radiante en función de la longitud de onda o


de la frecuencia se tiene una gran gama de tipos onda todas las cuales constituyen el espectro
electromagnético. Este comprende una amplia gama que puede ser clasificada de acuerdo a la
forma en que se producen las ondas y a los efectos de su interacción con la materia. Las
unidades de medida están adecuadas al tamaño de la longitud de onda. Así, para las más cortas
se utilizan micrones, mientras las más largas se miden en centímetros o metros. Normalmente
a estas últimas (denominadas microondas) se las designa también por valores de frecuencia en
Gigahertz, (1 GHz = 109 Hz).

A continuación se resume la clasificación usual de las ondas electromagnéticas desde


las más amplias hasta las de menor longitud de onda. (ver Fig. 3)

1.2.1 Dominios del espectro electromagnético.

1. Ondas de radiofrecuencia. Estas ondas tienen una longitud comprendida entre varios
kilómetros y 0,3 metros. La gama de frecuencias está entre unos pocos Hz y 109 Hz. Se usan
para trasmisiones de radio y televisión y se generan por sistemas electrónicos, especialmente
circuitos oscilantes.

2. Microondas. Corresponden a longitudes de onda entre 0,3 m y 10-3m y frecuencias


entre 109 Hz y 3 x 1011 Hz. Son generadas por circuitos electrónicos y por ajustes internos en
algunas moléculas. Estas ondas se utilizan en radar y otros sistemas de comunicación,
especialmente cuando la señal debe ser trasmitida en una dirección bien definida. Las ondas de
radar tienen la apreciable propiedad de traspasar las cubiertas nubosas, propiedad que es
aprovechada por los satélites de teledetección que utilizan ondas de radar.

3. Espectro infrarrojo. Se extiende desde longitudes de onda de 10-3m hasta 7,8 x 10-7 m
y frecuencias desde 3 x 1011 Hz hasta 3,8 x 1014 Hz. Las ondas infrarrojas son producidas por
moléculas gaseosas y por las vibraciones atómicas o moleculares en cuerpos calientes. Tienen
muchas aplicaciones en industria, medicina, teledetección, astronomía, etc. En teledetección se
utilizan varias bandas que caen en el dominio infrarrojo. En el sistema Landsat, por ejemplo,
se distinguen los siguientes tres ámbitos:

1 - Infrarrojo lejano o térmico (8 a l4 µ ), que corresponde a parte de las ondas de calor


terrestre. Estas ondas pueden ayudar a encontrar focos de actividad volcánica,
campos geotérmicos, e incluso lugares donde se estén desarrollando procesos de
oxidación importantes con reacciones químicas exotérmicas.
2 - Infrarrojo medio (1,3 a 8 µ), se encuentra en los procesos de reflexión de la luz
solar y de emisión de la superficie terrestre. Esta banda se utiliza para detectar
focos de alta temperatura como volcanes activos o campos geotermales, y estimar
contenido de humedad en la vegetación.

3- Infrarrojo próximo (0,7 a 1,3 µ) también llamado reflejado o fotográfico, ya que es


utilizado también en técnicas fotográficas. Es de gran utilidad por su capacidad de
discriminar distintas masas vegetales y detectar concentraciones de humedad.

4. Espectro óptico humano. Estas ondas constituyen lo que llamamos luz visible y está
formado por ondas electromagnéticas que son detectadas por la retina del ojo humano.
Comprenden el intervalo que se extiende desde una longitud de onda de 7,8 x 10-7 m hasta 3,9
x 10-7 m y frecuencias entre 3,84 x 1014 Hz y 7,70 x 1014 Hz, y corresponden a la parte más
abundante de las ondas emitidas por el Sol. Se producen como resultado de ciertos ajustes
internos en el movimiento de los electrones en átomos y moléculas.
Según sea la longitud de onda (y/o frecuencia), la luz produce en nuestra retina
diferentes sensaciones, que llamamos colores.

5. Rayos ultravioleta. Comprenden longitudes de onda desde 3.8 x 10-7 m hasta 6 x 10-10
m y frecuencias de 7,7 x 1014 Hz hasta 5 x 1017 Hz Estas ondas son producidas por átomos y
moléculas bajo descargas eléctricas. El Sol es una poderosa fuente de rayos ultravioleta los
que constituyen el factor principal del bronceado de la piel humana. Puede producir efectos
químicos como ionización de átomos y moléculas. Los rayos ultravioleta afectan a muchos
microorganismos, lo que tiene aplicaciones médicas e industriales como esterilizante.

6. Rayos X. Esta clase de ondas electromagnéticas comprende longitudes de onda entre


10-9 m y 6 x 10-12 m y frecuencias entre 3 x 1017 Hz y 5 x 1019 Hz Son producidos al alterarse
el movimiento de los electrones internos de los átomos y moléculas. Otra manera de producir
rayos X es lanzar un chorro de electrones de alta velocidad contra un metal de elevado número
atómico y con alta temperatura de fusión tal como el tungsteno Los rayos X se emplean para
diagnósticos médicos ya que son más absorbidos por los huesos que por los tejidos blandos.

7. Rayos gamma. Estas radiaciones son de origen nuclear y se superponen en parte con el
espectro de rayos X. Se extienden a longitudes de onda que van desde 10-10m hasta menos de
10-14m, y frecuencias desde 3 x 1018 Hz hasta más de 3 x 1020 Hz. Estas radiaciones pueden
producir alteraciones en los núcleos atómicos, y en las envolventes de átomos y moléculas.
Estas radiaciones son peligrosas para el ser humano ya que al ser absorbidas por los tejidos,
pueden afectar al funcionamiento de órganos y aun producir la muerte. El uso controlado de
estas radiaciones es empleado en medicina para el tratamiento del cáncer y en la industria en el
control de calidad de piezas de metal.
1.3 Unidades de medida de la radiación.

Hemos descrito los distintos tipos de ondas y sus propiedades basándonos en la


frecuencia y el largo de onda, pero es importante conocer su comportamiento en términos de
energía, especialmente cuando interactúan con el medio o sobre superficies reflectantes. Para
ello se ha definido las siguientes unidades. La nomenclatura usada es la de Chuvieco (1996)

- Energía radiante (Q). Indica el total de energía radiada en todas las


direcciones. Se mide en julios (J).

- Densidad radiante (W). Total de energía radiada en todas las direcciones por unidad de
volumen. Se mide en julios por metro cúbico (J /m -3).

- Flujo radiante (φ). Total de energía radiada en todas las direcciones por
unidad de tiempo. Se mide en wats(W).

- Emitancia o excitancia radiante (M). Total de energía radiada en todas las direcciones desde
una unidad de área y por unidad de tiempo. Se mide en vatios por metro cuadrado (W /m2).

- Irradiancia radiante (E), total de energía radiada sobre una unidad de área y por unidad de
tiempo. Es equivalente a la emitancia, si bien ésta indica la energía emitida, mientras la
irradiancia refiere a la incidente. Se mide en wats por metro cuadrado (W/ m2).

Otras magnitudes radiométricas comúnmente utilizadas en teledetección.


___________________________________________________________________________

· Intensidad radiante (I). Total de energía radiada por unidad de tiempo y por ángulo sólido
(Ω). Se trata éste de un ángulo tridimensional, que refiere a la sección completa de la
energía transmitida, y se mide en estéreo-radianes Por tanto la intensidad radiante se mide en
vatios por estéreo-radián (W/ sr).

- Radiancia (L). Total de energía radiada en una determinada dirección por unidad de área y
por ángulo sólido de medida. Es un término fundamental en teledetección, ya que describe
precisamente lo que mide el sensor. Se cuantifica en vatios por metro cuadrado y estéreo-
radián. W/m2 sr

Radiancia espectral (Lλ). Por extensión del concepto anterior, indica el total de energía
radiada en una determinada longitud de onda por unidad de área y por ángulo sólido de
medida. Por cuanto el sensor detecta una banda particular del espectro, ésta es la medida más
cercana a la observación remota. De igual forma que la radiancia, la emitancia e irradiancia
pueden completarse con el calificativo de espectral (añadiendo elsubíndice λ), cuando se
refieren a una determinada longitud de onda.

Los siguientes Términos, que se desarrollarán más adelante, son relativos a las propiedades
de la materia en términos de respuesta a la radiación.

- Emisividad (ε) relación entre la emitancia de una superficie (M), y la que ofrecería un
emisor perfecto, denominado cuerpo negro, a la misma temperatura (Mn)

- Reflectividad (ρ) relación entre el flujo incidente y el reflejado por una superficie;

- Absortividad (α), relación entre el flujo incidente y el que absorbe una


superficie;

- Transmisividad (τ), relación entre el flujo incidente y el transmitido por una superficie.

Estos términos adimensionales suelen expresarse como porcentajes. (Se ha traducido los
términos ingleses: emittance, reflectance, absorptance y transmittance, añadiendo el sufijo
«ividad», para indicar que son cantidades relativas, distinguiéndolas así de las anteriores que
son absolutas). También estas magnitudes son dependientes de la longitud de onda, por lo que
conviene completarlas con el calificativo de espectral, para referirse a su comportamiento en
una banda determinada del espectro.

Tabla Nº1

Unidades de energía radiante


________________________________________________________________________

Concepto Símbolo Fórmula Unidad de Medida


Energía radiante Q julios (J)

Densidad radiante W δQ/dv j /m3


Flujo radiante φ δQ/δt vatios (W)

Emitancia radiativa M δφ/δA W/m2

Irradiancia E δφ/δA W/m2

Intensidad radiativa I δφ/δΩ W/ sr2

Radiancia L δI/(δA cos θ) W/ m2 sr

Radiancia espectral Lλ δL/δλ W/ m2 sr µ


SIMBOLOGIA
sr. estereo-radián, medida del ángulo sólido
µ micrón o micra (10-6 metros)
Mn Emitancia de un cuerpo negro
φi flujo incidente
φr flujo reflejado
φa flujo absorbido
φt flujo transmitido
θ ángulo formado por el flujo y la dirección normal

1.4 Principios y leyes de la radiación electromagnética.

1.4.1 Definición del Cuerpo Negro perfecto.

Hemos visto que la cantidad de energía que contiene un flujo radiante es inversamente
proporcional a su longitud de onda.
Todo cuerpo que se encuentra a una temperatura superior al cero absoluto (273º C)
emite radiaciones electromagnéticas en distintas longitudes de onda. Se define como “Cuerpo
negro perfecto” un cuerpo emisor y receptor ideal que emite toda la energía que recibe con un
100 % de rendimiento.
A partir de la formula de Planck se puede reconstruir curvas de emitancia de un cuerpo
negro a distintas temperaturas (ver Fig. 4). Así, la máxima radiación emitida por el sol cuya
superficie tiene una temperatura de 6000 K corresponde a la del espectro visible (0.4 - 0.7
micrones) en tanto que la máxima radiación de la tierra cuya superficie está aproximadamente
a 300 k se sitúa en radiaciones infrarrojas (8 micrones aprox.)

1.4.2 Ley de Wien.

El cálculo la longitud de onda a la que se produce la máxima emitancia de un cuerpo


negro conociendo su temperatura (T) se realiza mediante la llamada ley del desplazamiento de
Wien:

λmax = 2898µ K/T

El conocimiento del λ máximo de un cuerpo tiene importancia para seleccionar la


banda más conveniente para detectar una determinada cubierta, cuando se conoce su
temperatura. Por ejemplo, en el caso de los incendios forestales, teniendo en cuenta que la
temperatura de combustión se sitúa entre 540 y 700 K, la ley de Wien permite situar entre 5,28
y 4,30 µ (infrarrojo medio) la banda espectral más adecuada para su detección. Por su parte,
el sol -con una temperatura radiante próxima a los 6,000 K- presenta su máxima emitancia en
la región del espectro visible (0,4 a 0,7 µ). En pocas palabras, cuanto más caliente esté el
objeto emisor radiará a longitudes de onda más cortas.

1.4.3 Ley de Stefan- Boltzmann.

Integrando la emitancia espectral de un cuerpo negro para todas las longitudes de onda,
podemos calcular el total de energía que radia por unidad de superficie. Esto se conoce como
la ley de Stefan-Boltzmann:

Mn =σT4

donde σ es la constante de Stefan-Boltzmann (5,67 x 10-8 W/ M2 K4), y T la temperatura en


grados Kelvin.

A consecuencia de esta fórmula, resulta evidente que la emitancia global de un objeto


es una función de su temperatura, y que pequeños cambios en ésta suponen notables
modificaciones en su emitancia radiante. Por otra parte, conociendo la temperatura de un
objeto emisor, podemos también estimar la irradiancia incidente sobre el sensor, por cuanto
emitancia e irradiancia son funcionalmente equivalentes.

Las superficies naturales no se comportan como cuerpos negros perfectos, por lo tanto
para calcular sus emitancias se necesario considerar la emisividad:

M =ε Mn

donde M es la emitancia medida, Mn la del cuerpo negro perfecto y ε la emisividad.

Puede definirse la emisividad como el grado de similitud entre la emitancia radiante de


un objeto y la que presentaría un cuerpo negro perfecto a la misma temperatura. Desde este
punto de vista se definen tres categorías de emisividad:

Cuerpo negro . Absorbe toda la energía que recibe y es capaz de emitirla

Cuerpo Blanco. Es el perfecto reflector. No absorbe energía y la refleja en su


totalidad (emisividad = 0),
Cuerpos grises. Aquellos objetos que absorben y emiten de forma constante en
distintas longitudes de onda.

Radiadores selectivos. Se usa este término si la emisividad varía con la longitud


de onda, Son los más frecuentes en la naturaleza. Gracias a ese comportamiento
particular, pueden discriminarse de otro tipo de superficies en el infrarrojo
térmico.

Hemos visto que la energía emitida desde un objeto es una función de su temperatura.
Por lo tanto cambios de temperatura significan cambios de la emitancia total. De acuerdo a
esto si se conoce la temperatura de una cubierta de interés será posible determinar, de acuerdo
a su emisividad, la banda del espectro más idónea para su estudio.

1.5 Espectro atómico.

Cuando se calienta una sustancia hasta hacerla emitir luz se produce un espectro
continuo de distintos largos de onda debido a la proximidad de los átomos, pero si se obliga a
emitir radiación electromagnética a átomos en estado gaseoso cada elemento emite una luz
característica que es propia de cada elemento. (el neón un rojo brillante, el mercurio un azul
violeta, el helio una luz rosada) Cada elemento tiene por lo tanto una firma o signatura
espectral que le es propia, porque depende de su configuración electrónica, y su espectro no
aparece como un continuo de colores, como es el caso de la descomposición de la luz solar en
un prisma, sino como líneas separadas de distintas frecuencias bien determinadas, que pueden
medirse con instrumentos diseñados para este objeto llamados espectrómetros.

1.6 Espectro solar.

El Sol es la fuente principal de energía radiante en el planeta Tierra. Tiene en su


superficie una temperatura radiante próxima a los 6.000 grados K. Esto significa de acuerdo a
la ley de Wien, que su máxima emitancia espectral se produce en el ámbito de los 0,48
micrones lo que corresponde al color verde. Sin embargo la luz solar se ve blanca debido a que
apreciamos todas las bandas o colores del espectro a la vez lo cual es interpretado por nuestro
cerebro como "luz blanca". De acuerdo a la teoría del color el blanco es la suma de todos los
colores.

La curva espectral de la radiación solar se asemeja bastante a la de un cuerpo negro


perfecto a esa temperatura. En un gráfico emitancia versus longitud de onda, el sol presenta su
mayor emitancia entre 0,3 y 2 µ (ver Fig 5). El ojo humano es sensibles a ese rango por lo que
este intervalo se le denomina dominio óptico del espectro.
2. INTERACCIÓN DE LA RADIACIÓN CON LA MATERIA

2.1 Interacción con una superficie

La radiación que incide sobre la superficie de un cuerpo y por ende la radiación solar
que recibe la superficie de la Tierra, se descompone en tres partes.

θi

θr

θa θt

Así, un flujo de energía θi se descompone en una parte reflejada θr una parte absorbida θa y
una parte transmitida θt tal que, de acuerdo al principio de conservación de la energía se tiene
que:

θi = θr +θa +θt

Esta fórmula está expresada en unidades absolutas. Al comparar cada término de la


expresión anterior con la energía incidente dividiendo por θi ,

1 = θr/θi + θa/θi + θt / θi

se definen términos relativos que son característicos y distintivos de cada sustancia irradiada.
Estos términos se denominan:

θr/θi = ρ (reflectividad ) ; θa/θi = α (Absortividad) ; θt/θi = τ (Transmisividad)

Y en ellos se cumple que:

ρ+ α+τ=1
Es decir que para una misma longitud de onda, la suma de la reflectividad, la
absortividad y la transmisividad es igual a uno.
Siendo que la relación entre estas tres magnitudes varía con la longitud de onda, en
términos más rigurosos debería indicarse cada término con un subfijo λ.

Cada cubierta irradiada, conforme a su naturaleza, refleja, absorbe y transmite energía


en proporciones diferentes. Esto permite caracterizar una determinada cubierta de acuerdo a su
respuesta espectral es decir en diferentes longitudes de onda.

La respuesta espectral de los objetos a la luz constituye lo que llamamos color: Así, un
objeto rojo refleja intensamente la energía de ese largo de onda (banda) del espectro y poca del
resto la cual sería transmitida y/o absorbida por el cuerpo irradiado.

2.2 Firma espectral de una sustancia.

Como cada sustancia tiene una respuesta particular a la radiación electromagnética


absorbiendo algunas intervalos del espectro y reflejando con más fuerza otros, al graficar la
reflectividad de cada sustancia respecto de los distintos largo de onda se tiene la llamada
signatura o firma espectral, que es característica de cada sustancia y permite, por lo tanto, que
la sustancia sea identificada. Así se han diseñado instrumentos portátiles como los llamados
PIMA que los geólogos utilizan para identificar tipos de arcilla en el terreno (Fig 6).

A partir de medidas de laboratorio, se ha obtenido curvas de reflectividad espectral para


las principales cubiertas terrestres .Así, se ha visto que la nieve por ejemplo, presenta una
reflectividad alta y constante, pues refleja la mayor parte de la energía incidente a distintas
longitudes de onda. El agua en cambio, absorbe la mayor parte de la energía que recibe, en
tanto que la vegetación presenta un comportamiento muy cromático, con bajos valores de
reflectividad siendo especialmente sensible a las bandas infrarrojas.
Lo anterior permite en teoría identificar la naturaleza de la cubierta estudiada
observando las curvas de reflectividad espectral.

Para desgracia de los cultores de la teledetección, el comportamiento de una cubierta


en el espectro visible no sólo depende de sus propias características, sino también de una serie
de factores externos tales como las condiciones atmosféricas, el emplazamiento ambiental de
la cubierta y la geometría de la observación. que modifican el comportamiento espectral
teórico.
El ángulo de elevación solar y el ángulo de observación juegan un papel muy
importante en los valores obtenidos por los sensores. La cantidad de energía que llega al
sensor depende del ángulo con que la superficie refleje la energía incidente, así como del que
formen el haz incidente con la posición del sensor. Esta geometría de observación interactúa
con la rugosidad que presenta la superficie.
Fig 6 Firmas espectrales de minerales arcillosos utilizadas por el sensor manual PIMA. Al igual que los sensores
de los satélites con barredor multiespectral este instrumento mide la respuesta a la radiación infrarroja de la
muestra y la compara con las firmas espectrales de determinados minerales.

2.3 Tipos de reflectores.

Desde este punto de vista de la naturaleza de las superficies, pueden distinguirse dos
tipos de cubiertas. Aquellas que reflejan la energía con el mismo ángulo del flujo incidente
(especularas), y aquellas que lo reflejan uniformemente en todas las direcciones
(lambertianas). En el primer caso, el sensor sólo recibe energía reflejada del suelo si está
situado en la dirección del ángulo de reflexión, siendo nula en cualquier otro caso. Si la
superficie es lambertiana, la radiancia es constante en cualquier ángulo de reflexión.
Reflexión especular Reflexión lambertiana Reflexión pseudoespecular

La mayor parte de las cubiertas tienden a comportarse de modo intermedio entre ambas
situaciones (reflexión difusa pseudoespecular etc), en función de sus características y de la
longitud de onda en la que se trabaje. Si la longitud de onda es pequeña, las rugosidades del
terreno tenderán a difundir mucho más la energía incidente que si se trata de longitudes de
ondas mayores, en donde esas mismas rugosidades pueden no impedir un comportamiento
especular. En el espectro visible, por ejemplo, sólo el agua en calma presenta un carácter casi
especular, mientras el resto de las cubiertas tienden a ofrecen un comportamiento difusor. En
longitudes de onda mayores (microondas), también otras cubiertas pueden comportarse de
modo especular, siempre que la rugosidad del terreno sea suficientemente pequeña.

Todo lo anterior significa que para una misma cubierta habrá distintos valores de
radiancia espectral, en diferentes condiciones de iluminación y de posición de los satélites. Es
decir variarán con la hora la fecha las condiciones atmosféricas etc. Dicho en otra forma las
distintas cubiertas de la superficie terrestre no tienen un comportamiento espectral único y
permanente, que coincida con un patrón teórico de sus curvas de reflectividad espectral. Sin
embargo lo importante es que las características generales del los conjuntos de valores se
mantendrán en las mismas proporciones.

2.4 Interacción con la atmósfera.

La atmósfera es materia que aunque en su mayor parte está en estado gaseoso puede en
su conjunto reflejar, refractar y absorber energía. A nivel molecular las partículas están muy
distantes unas de otras y rige el fenómeno de la dispersión atmosférica. Para mejor
comprender este fenómeno se puede hacer un símil con las ondas acústicas, aunque estas son
longitudinales, evocando el fenómeno de la consonancia. Del mismo modo en que las cuerdas
de un instrumento pueden vibrar por simpatía o consonancia cuando reciben ondas de la
misma frecuencia para la cual han sido afinadas, y por lo tanto emitir un sonido "dispersando"
parte de la onda recibida. En el caso de la luz, los átomos pueden dispersar (en todas
direcciones) parte de la radiación recibida.
Ya hemos visto que la energía es directamente proporcional a la frecuencia y por lo
tanto las ondas de alta frecuencia son las es la que tiene mayor poder de dispersión. Los
átomos de N y O, que constituyen la mayor parte de la atmósfera, dispersan una parte de la
radiación ultravioleta (que ya ha sido en una cierta parte absorbida por el ozono de las capas
superiores) y también del rango del azul. La dispersión de las frecuencias que siguen en
descenso (verde amarillo naranja) es bastante menor. Por esta razón el cielo limpio es de color
azul lo que indica una atmósfera limpia constituida mayormente por nitrógeno y oxígeno y en
la medida que hay otros constituyentes se hace más claro o toma otros colores. El cielo sin
atmósfera es negro, como se ve en el espacio o desde la superficie de la luna. Los rayos que
atraviesan una atmósfera más espesa, como ocurre en la puesta del sol, tienden al anaranjado y
rojo por que la dispersión ha filtrado casi todo el azul y el verde.

Fig. 7 Efecto de la atmósfera en la emitancia capturada por los sensores. La energía irradiada por el sol es en
parte absorbida y dispersada por la atmósfera. La cubierta terrestre emite rayos reflejados que a su vez son en
parte absorbidos y en parte dispersados por la atmósfera. Los sensores del satélite captan los rayos emitidos en su
dirección.
2.4.1 Dispersión atmosférica

Aproximadamente un 18% de la radiación que cae sobre la tierra es dispersada por la


atmósfera. La energía dispersada depende del tamaño de las partículas involucradas y de este
modo se distinguen tres tipos de dispersión.

1.- Dispersión de Rayleigh: Esta se produce cuando las partículas atmosféricas son más
pequeñas que el largo de onda de la radiación incidente. La luz de menor largo de onda tiene
un poder de dispersión mayor. El color azul del cielo se debe al efecto de dispersión Rayleigh
en los átomos de nitrógeno y oxígeno.

2.- Dispersión de Mie Se produce cuando el diámetro de las partículas es similar a la longitud
de onda y afecta a la luz de frecuencias más bajas del espectro. Es importante en incendios
forestales o brumas costeras.

3. - Dispersión no selectiva. Es la dispersión que ocurre en partículas de diámetro mayor que


la de los rayos incidentes como es el caso de las pequeñas gotas de agua que forman las nubes
cuyo tamaño oscila entre 5 y 100 micrones. Como esta dispersión se produce en todo el rango
visible y parte del infrarrojo no es selectiva y el resultado es el color blanco. En ondas de
menor frecuencia como las microondas utilizadas en radares las nubes no producen tal
dispersión. Es la razón por la que las imágenes de radar no son afectadas por la nubosidad.

Si bien la dispersión tiene un efecto negativo en la bada del azul haciendo que gran parte
de la energía captada por los sensores ubicados en plataformas satelitales sea la energía
dispersada por la atmósfera, hay que notar que es gracias a la dispersión que pueden
observarse detalles en las zonas en sombra ya que esta ilumina en penumbra las zonas a las
cuales no llegaría la luz directa. Este efecto solo tiene lugar en el rango visible.

2.3.2 Absorción atmosférica.

Pero en la atmósfera se encuentran también otros constituyentes como ozono, monóxido


de carbono y material sólido en suspensión.
Los gases como el ozono, monóxido de carbono y agua en estado gaseoso producen una
absorción selectiva, en determinadas frecuencias del espectro, que impide el paso de la energía
solar. Esto significa que ciertas radicaciones de determinadas longitudes de onda, no alcanzan
a tocar la superficie de la tierra. Así, existen zonas del espectro solar en que la absorción es
total y otras en la cual la absorción es parcial y otras en que atmósfera es prácticamente
transparente, éstas últimas se conocen como "ventanas atmosféricas" y son las utilizadas para
las mediciones que realizan los satélites (ver gráfico de la Fig. 5). Conociendo la absorción
atmosférica para los distintos valores de λ los detectores de energía, han sido diseñados para
funcionar dentro de los intervalos comprendidos por estas "ventanas".
3. TEORÍA DEL COLOR

La sensación de color es un fenómeno biopsíquico producido por el impacto de ondas


del espectro visible en la retina del ojo.

En la antigüedad se pensaba que la visión era un fenómeno que emanaba desde el ojo.
Hoy sabemos que lo que permite ver la realidad que nos circunda es la percepción de la luz
emitida por los objetos reales.
Conforme sean las combinaciones de largos de onda de la luz recibida será el color
percibido Así, luz de distintos largos de onda producen sensaciones de color diferente y
distintos grados de saturación distintas intensidades. De acuerdo con eso el color de los
objetos depende del tipo luz que ellos emiten o reflejan.
Durante el día los objetos son iluminados por luz blanca y reflejan solo una parte de la
luz que reciben. Pero cada sustancia, y por ende cada objeto, tiene una respuesta particular a la
radiación electromagnética. De este modo un objeto de color amarillo refleja mucha luz
amarilla (rango de largo de onda de 5,77 x 10-7 a 5,97 x 10-7 metros) y casi nada del resto del
espectro. La teoría dice que esa energía no reflejada ha sido "absorbida" por el objeto.

Ya hemos visto que cuando la luz pasa de un medio a otro cambia de velocidad.
Siendo que la frecuencia permanece constante el largo de onda cambia variando por lo tanto el
color. Al hacer pasar la luz blanca que contiene el conjunto de todos los colores, por un
prisma, esta se descompone en los siete colores del arco iris (es el mismo fenómeno) definidos
por Newton y que tienen como características de onda las siguientes:

Color λ (m) f (Hz)


______________________________________________________________________

Violeta 3, 90-4,55 x 10-7 7,70-6,59 x 101

Azul 4,55-4,92 x 10-7 6,59-6,10 x1014

Verde 4,92-5,77 x 10-7 6,10-5,20 x 1014

Amarillo 5,77-5,97 x 10-7 5,20-5,03 x1014

Naranja 5,97-6,22 x 10-7 5,03-4,82 x 1014

Rojo 6,22-7,80 x 10-7 4,82-3,84 x 1014

Se ha probado que las bandas azul, verde y rojo, son dominantes y se les ha definido
como colores primarios luz. Experimentalmente se ha descubierto que al mezclar luces
monocromáticas de estos colores (“colores luz”) se produce luz blanca, como es mostrado en
la figura 7. Al mezclar dos de estos colores lo que se denomina “adición de colores” (no
significa adición de largos de onda) se obtienen nuevos colores denominados colores
secundarios o colores primarios pigmento

Así:

Rojo + verde = amarillo ; Verde + azul = celeste cian ; Azul + rojo =magenta

Cuando la mezcla de colores se hace en tinturas o pinturas se produce una “síntesis


sustractiva”. Esto se explica por la absorción de determinados colores por la materia irradiada.
Así un objeto de color verde solamente refleja luz verde y absorbe (o “resta) los otros colores
La mezcla de los tres colores primarios pigmento, que como hemos visto son los colores
secundarios luz produce, teóricamente, el color negro.

Se definen tres parejas de colores antagónicos que son uno complementario del otro y
producen la sensación de máximo “contraste de color”

Rojo - cian
Verde - magenta
Azul - amarillo

Dicho de otro modo el color menos rojo es el cian, el menos verde el es el magenta y el
menos azul es el amarillo.

De esto resulta que si se anteponen filtros de color las imágenes resultantes tendrán una
máxima absorción en el color antagónico. Así, un filtro amarillo absorbe el color azul, un
filtro magenta absorbe el color verde y un filtro cian absorbe el color rojo. Esto es utilizado en
la fotografía blanco y negro para destacar y dar realce a algunos objetos. De gran uso por los
fotógrafos cultores de la fotografía blanco y negro es, por ejemplo, el filtro amarillo que
absorbe la luz azul del cielo haciéndolo más oscuro, de este modo pueden destacarse las
nubes.
En el arte de la pintura es utilizada la ley de Chevreul, que dice que cada color arroja
en su sombra su color complementario. Este no es un efecto físico sino psíquico y se basa en
el máximo contraste de los colores.

Si se mezclan los colores primarios, que son como los padres de todos los colores, en
proporciones diversas se obtienen prácticamente todos los colores que existen. Esto permite la
fotografía a color, la televisión a color, y es la base del sistema utilizado en las imprentas para
la obtención de colores a partir de los colores primarios. En el caso de los colores impresos se
aplica a cada banda los colores complementarios amarillo, magenta y cian que, son los colores
primarios pigmento, y se agrega el negro y el blanco, que generalmente es el color del papel
previamente blanqueado.
Si en el análisis de imágenes satelitales se asignan los colores de las bandas espectrales
correspondientes a los colores primarios (bandas 1, 2, y 3 en el sistema TM de Landsat) a los
dispositivos RGB (red - green - blue) en el orden 3, 2, 1, se tendrán los colores reales. Si se
asignan en otro orden, o se asigna a una o más bandas un color no visible, como un infrarrojo
por ejemplo, se tendrá una imagen en “falso color”.

El sistema Thematic Mapper de los satélites Landsat, uno de los más usado por los
geólogos en este momento para teledetección, utiliza en el ámbito de la luz visible las tres
bandas siguientes:

Banda 1.- 0.45 µ - 0.52 µ (Corresponde a azul y algo de verde)


Banda 2.- 0.52 µ - 0.60 µ (corresponde principalmente al amarillo con algo
de verde y naranja)
Banda 3.- 0.63 µ - 0.69 µ (Corresponde aproximadamente al rojo)

La combinación porcentual de estas bandas da a cada pixel un color determinado.


fig 3 Espectro de ondas electromagnéticas, desde la rayos γ , a la izquierda, con longitudes de onda mínimas del orden
de 10−10 y altísimas frecuencias hasta las ondas de telefonía con un λ del orden de los kms.
Fig 5 Cuadro de radiación solar y respuesta espectral terrestre. En la parte superior se grafica la
radiancia solar teórica y real respecto del largo de onda. En la parte media se indican las bandas de los sistemas
Landsat TM y Spot. Nótese que sus rangos espectrales aprovechan las “ventanas “ dejadas por la absorción
atmosférica. La banda termal (6) con un lambda de 11 micras cae fuera del cuadro.
En la parte inferior del cuadro se grafican las respuestas espectrales en términos de reflectividad de las cubiertas
terrestres fundamentales con respecto al tipo de radiación (largo de onda). Nótese la notable variación de la
respuesta espectral de la cubierta vegetacional cuando pasa del rango visible, indicado con una franja vertical gris
claro, al rango infrarrojo
Fig 4. Energía electromagnética teórica irradiada por cuerpos negros perfectos a distintas temperaturas (en
grados Kelvin). Puede verse que, considerando una temperatura promedio de 25º C (298º K), la tierra no emite
luz propia, pero irradia energía en el ámbito infrarrojo térmico. El sol, en cambio, con una temperatura superficial
de 6000 º K irradia su mayor energía en el ámbito del espectro visible.
Fig 8. Teoría del color. Si se proyecta luz azul e verde y roja (colores primarios luz) la suma de los tres genera
luz blanca como la luz solar. La mezcla parcial de estos calores genera el cian, magenta y amarillo.
que son denominados colores primarios pigmento. A partir de los colores primarios es posible obtener todos los
colores por mezclas en distintas proporciones de cada uno. El color reflejado por los objetos se explica por
absorción. En el esquema de la derecha puede verse que un objeto amarillo al ser irradiado con luz blanca
absorbe el 100 % del cian y el magenta reflejando solamente el amarillo.
Capítulo 4
SISTEMAS IMÁGENES Y SATÉLITES

1 SISTEMAS DE SENSORES SATELITALES

Los sistema de percepción remota basados en satélites artificiales tienen como ventajas
frente, a otros medios como estudios realizados con aviones, la permanencia en el tiempo, la
repetición constante de la toma de datos y una gran visión sinóptica.
Se distinguen dos tipos fundamentales de sistemas de sensores. Activos y pasivos.

1- Sistemas activos Estos emiten sus propios haces de energía y recogen su reflexión.
Es el caso de los sistemas que emplean micro ondas como el RADAR (Radio Detection and
Ranging). Estos tienes la facilidad de no depender de las posiciones relativas del sistema tierra-
sol-satélite. Otros ejemplos de sensores activos son, el SONAR y el sistema auditivo del
murciélago. En estos casos las ondas empleadas no son electromagnéticas sino acústicas.

2- Sistemas pasivos En este caso el sensor recoge las ondas reflejadas de la luz solar.
Es el caso de los sensores de espectro óptico e infrarrojo tales como el ojo, la cámara
fotográfica, los barredores espectrales.

1.1 El explorador multiespectral de barrido.

Ya hemos dicho que distintos materiales tienen distintas respuestas, en términos de


reflectancia, a las ondas electromagnéticas, es lo que se designa como reflectividad y es
característica de cada sustancia, pero también esta respuesta varía con el largo de onda. Por lo
tanto cada sustancia tiene un comportamiento particular frente al espectro electromagnético. Al
graficar los valores de la reflectividad para cada largo de onda (en el ámbito visible e
infrarrojo)
se obtiene la “firma (o signatura) espectral” que es característica de cada sustancia.

Si se contase con un instrumento capaz de “escanear” la superficie terrestre con varios


sensores de distintos largos de onda, se podría tener una signatura de la materia sensada en cada
pixel. Este scanner es el rastreador multiespectral. La imagen así obtenida, es transmitida
desde satélites artificiales a tierra como un conjunto de valores numéricos. (El nombre
multiespectral no es adecuado, si se considera que el espectro electromagnético es uno solo, y
debería decirse multibanda, pero la mayoría de los libros hablan de sistemas multiespectrales
ya que, por otra parte, el instrumento sensor ha sido llamado por sus constructores “barredor
multiespectral”).

El primer sistema empleado ha sido el explorador de barrido constituido por un espejo


móvil, que oscila perpendicularmente a la dirección de la trayectoria del satélite, permitiendo
explorar una franja de terreno a ambos lados de la traza, (entendiendo por traza la línea que
deja la proyección perpendicular del satélite sobre la superficie d e la tierra). La radiancia es
captada por los detectores, que la convierten en señales eléctricas susceptibles de medirse y
transmitirse a tierra como valores numéricos donde son captados por la red de antenas
receptoras. La información recibida por estas antenas se graba en cintas magnéticas, para su
posterior proceso.

En la década 1980-90 se puso a punto una nueva tecnología de exploración, “por


empuje” (pushbroom). En estos equipos en lugar del espejo oscilante, se dispone de una
cadena de detectores que cubre todo el campo de visión del sensor. Estos detectores se van
excitando con el movimiento orbital del satélite, (de ahí el nombre de explorador de empuje),
así se detecta en cada disparo, una línea completa y no un pixel como en el otro sistema.
Esta tecnología hace el sistema más rápido, permite aumentar la resolución espacial y
reduce algunos problemas geométricos que se producen en los barredores de espejo oscilante.

Los exploradores multiespectrales detectan la misma superficie de terreno en distintas


bandas del espectro. El número de bandas utilizadas depende del tipo de sensor empleado. Así
por ejemplo el sistema MSS (multispectral scanner system), primer sistema empleado por los
satélites LANDSAT comprendía 4 bandas. Este sistema permite ampliar las mediciones más
allá del espectro visible usando longitudes de ondas no visibles, como es el caso de los rayos
infrarrojos, las que pueden ser analizadas en pantalla o impresas en imágenes asignándoles un
color arbitrario lo que es denominado falso color. El uso de la región infrarroja del espectro
permite obtener información que la luz visible no es capaz de entregar especialmente en las
cubiertas vegetales.

La información transmitida por los rastreadores es almacenada en cintas y vendida en


archivos digitales que corresponden a un segmento de superficie denominado “escena” El
tamaño de la escena depende del barrido del rastreador y tiene normalmente la forma de un
paralelogramo debido al efecto del movimiento combinado del satélite con la rotación
terrestre. En el caso de las imágenes LANDSAT cada escena representa una superficie de185 x
170 Km. Las escenas se ordenan en 233 paths (columnas) y 248 rows (filas) constituyendo un
WRS (world reference system) que cubre todo el planeta. En el caso de Chile, por ejemplo,
dada la especial forma y orientación del país, se requiere de un total de 23 rows (del 70 al 93)
para cubrir todo el territorio, en tanto que de los path bastan cuatro: (002, 001, 233 y 232). En
el sistema del satélite SPOT las columnas se simbolizan con la letra K y las filas con la letra
griega delta. Para comprar una escena, dependiendo del uso que quiera dársele, hay que
considerar, además de la zona que cubre, las características técnicas de la imagen
especialmente las resoluciones, y la fecha en que fue tomada. (De esta variable dependen varias
características como por ejemplo el porcentaje de nubosidad).

2 LA IMAGEN DIGITAL.

2.1 Constitución de una imagen

Para crear una imagen digital se utilizan dos tipos de sistemas denominados "vectorial"
y “raster” :

2.1.1 La Imagen Vectorial Esta imagen se genera uniendo series de puntos Es la forma
apropiada para los dibujos lineales. Las áreas cerradas generadas por estas líneas se les puede
asignar un color lo que permite representar distintas áreas como es el caso de los mapas
geológicos.

2.1.2 La Imagen raster está constituida, al igual que una pintura puntillista, por elementos
pictóricos llamados pixels (derivado de picture element) que conforman una grilla de
cuadrículas elementales. Así para una imagen en blanco y negro el tono de de gris de cada pixel
puede ser expresado por un número que irá desde cero (negro) al valor considerado como el
máximo, según la resolución radiométrica que se esté usando y que corresponderá al blanco.
Dicho en otra forma la imagen pasa a ser una matriz matemática de valores numéricos, que la
computadora traduce en niveles de gris, para el caso de imágenes blanco y negro, o la suma
porcentual de niveles de colores primarios (rojo, verde y azul), en imágenes a color.
Este tipo de imagen es más apta para la representación de superficies complejas como es
el caso de imágenes fotográficas o pinturas.

Como puede apreciarse, el sistema raster constituye una forma de observar la realidad
distinta a la del ojo humano o la cámara fotográfica, en donde la imagen está constituida por un
“continuo”. (Fig. 9 )

Al tener la imagen transformada en una serie de elementos de una grilla, el color de


cada elemento puede expresarse numéricamente. De este modo para introducir una imagen en
una computadora es necesario “escanear” la imagen, transformándola en una matriz de valores
numéricos. Así una imagen satelital, por ejemplo, es el “escaneo” de una parte de superficie
terrestre. Esto presenta posibilidades realmente extraordinarias. En primer lugar puede
transportarse codificada como una serie de números lo que permite enviarla a cualquier lugar
por vía telefónica o transmisión radial y luego ser descodificada para obtener la imagen en el
lugar en donde es recibida. Por otra parte tiene la enorme ventaja de poder ser tratada con la
herramienta computacional para hacer correcciones de ubicación de valores de los datos y
mejoramientos basados en relaciones matemáticas entre los valores de los demás pixeles.

a) Imagen contínua b) Imagen raster c) Imagen vectorial

Fig. 9 Tres sistemas de formación de imágenes. La imágen contínua (a), propia de las fotografías en donde la
fineza del tamaño del grano ofrece un paso prácticamente contínuo entre las formas. La imagen raster (b),
constituida por una grillas de elementos poligonales o pixels , y la imagen vectorial (c), en donde las formas están
delimitadas por un conjunto de líneas rectas (vectores), tantas como sea necesario para expresar formas que suelen
tener delimitaciones curvas.

2.2 Resolución.

La resolución es un término empleado para referirse a la calidad de las imágenes. En


general la idea de resolución tiene que ver con la calidad del sistema en términos de su
capacidad para mostrar con nitidez los detalles y detectar cambios.

Se puede caracterizar la calidad y propiedades de las imágenes atendiendo a 4 tipos de


resolución los que se definen a continuación:

2.2.1 Resolución espacial. Es la habilidad del sistema para mostrar lo pequeño. Se puede
definir matemáticamente como el número de mediciones por unidad de superficie. En otras
palabras determina el nivel de detalle alcanzable por la imagen. En el sistema raster este nivel
de detalle está dado por el tamaño del pixel, es decir de las parcelas cuya radiancia va
midiendo el sensor y es generalmente expresado en dimensión lineal (lado del cuadrado)..
La resolución espacial es muy variable y depende en gran parte de los objetivos perseguidos
por el sistema. Así los satélites meteorológicos, diseñados para cubrir grandes áreas, el pixel
puede ser de 1 a 5 Km o más de lado, en tanto que los satélites Landsat y Spot cuya misión es
la observación de la superficie de la tierra, tienen resoluciones desde 120 m (MSS) hasta 10m
(Pancromático blanco y negro de SPOT).

2.2.2 Resolución temporal. Es la cantidad de observaciones por unidad de tiempo, es decir la


periodicidad de las mediciones. La RT es importante para el estudio de fenómenos que
implican cambios detectables en tiempos relativamente breves. Movimiento de nubes,
huracanes, evolución de nubes de ceniza generadas por erupciones volcánicas, inundaciones,
corrientes marinas, incendios forestales etc. Los satélites estacionarios como Meteosat, GOES,
GMS proporcionan imágenes cada media hora. El NOAA, de órbita polar, proporciona una
imagen cada 12 horas. Los satélites heliocrónicos utilizados para el estudio de recursos
naturales tienen en cambio un período mucho mayor. Así el Landsat demora 16 días en volver
a pasar por el mismo punto.

2.2.3 Resolución espectral. Es el número de partes del espectro “bandas” y el ancho de estas
consideradas. Así, la fotografía, que ocupa todo el espectro en una sola banda, se dice que es
por esto “pancromática” tiene la menor resolución espectral posible: 1, las imágenes Landsat

MSS tiene 4 bandas, el sistema TM tiene 7 bandas cuatro de las cuales pertenecen al ámbito
infrarrojo. El sensor HIRIS (High Resolution Imagyng Spectrometer), que opera desde
aviones, tiene 192 bandas ubicadas en el espectro visible y el infrarrojo cercano. El sistema
MODIS (Moderate Resulution Imagyng Spectrometer) contiene 36 bandas ubicadas en el
ámbito visible y hasta el infrarrojo térmico.

2.2.4 Resolución Radiométrica. Es en número de intervalos de gris de la imagen lo que


depende de la habilidad del sensor para captar diferencias de radiancia.
En las imágenes raster se expresa como el rango de valores que codifica el sensor. Así
las imágenes Landsat MSS ofrecían un rango de 128 niveles de codificación (7 bits x 27 = 128)
por pixel. Naturalmente la RR así definida depende también del tamaño del pixel El NOAA-
AVHRR necesita 10 bits para almacenar un pixel es decir tiene 210 niveles (= 1.024), pero el
tamaño del pixel es del orden de Kms.
El ojo humano puede diferenciar del orden de 65 niveles de gris y parece sobre
dimensionado utilizar 256 niveles de gris por banda (16.8 millones en combinaciones
coloreadas de 3 bandas (TM)), sin embargo las computadoras son capaces de distinguir estas
diferencia ya que se trata de escalas numéricas.

3 SATÉLITES ARTIFICIALES

De acuerdo a los usos y objetivos los satélites pueden ser muy variados. En el campo
del uso civil están los de comunicaciones, de ubicación (GPS) y de teledetección.
Muchos programas con distintas finalidades operan a través de satélites. Ya en la década
de los años sesenta varios programas empezaron a operar adcritos a NASSA tales como:

ATS (Aplications Technology Satellite) que ha desarrollado varias misiones destinadas al


desarrollo de la ciencia y tecnología satelital,
TIROS (Televition Infrared Observation Satellite)
ESSA (Enviromental Sciences Administration Satellite)
NIMBUS destinado a estudios atmosféricos
LAGEOS (Laser Geodynamics Satellite) un satélite de posicionamiento de gran precisión.
NOAA (National Oceanic and Atmospheric Administration Satellite)

3.1 Satélites de teledetección o plataformas de obsevación terrestre

3.1.1 Satélites estacionarios (geosincrónicos o de órbita ecuatorial)


Estos orbitan en un plano paralelo al ecuador (por esto también se les llama
ecuatoriales). Se ubican a gran altura y su movimiento, sincronizado con la rotación de la tierra,
les permite observar siempre la misma área y abarcar un amplio campo visual. Estos satélites
son utilizados en meteorología y en todo tipo de estudios que requieran de un amplio campo de
observación y buena resolución temporal. Ejemplo de estos son los GOES o GEOSAT que
orbitan a 36.000 Km de altitud. La resolución espacial de las imágenes tomadas por estos
satélites es generalmente baja. Los píxels son del orden del kilómetro, en tanto que la
resolución temporal es alta, debido al tipo de información requerida, y es del orden de horas o
minutos. La resolución espectral es del orden de 4,5 o más bandas con énfasis en los rangos
infrarrojos.

3.1.2 Satélites móviles (heliosincrónicos, o de órbita polar) Estos tienen órbitas


aproximadamente perpendiculares al plano del ecuador y van tomando sistemáticamente
información de áreas mucho más pequeñas en comparación con los estacionarios, pero con
menor resolución temporal. Estos satélites pasan por el mismo punto cada un cierto número de
días y a la misma hora conforme a su altitud y velocidad calculada para tal efecto (de ahí el
nombre de heliosincrónicos). Ej: Nimbus, Programa ERTS. Estos últimos orbitan entre 700 y
800 Km de altitud) y vuelven a observar el mismo punto cada 16 días El Quik Bird que cubre
áreas más pequeñas tiene una órbita de 450 Km. Importantes en las imágenes tomadas por estos
satélites es la resolución espacial que varía entre 60 y 10m de lado llegando a pixels de menos
de 1 metro de lado y la resolución espectral que varía normalmente entre 3 y 7 bandas . Estas
imágenes son las utilizadas para estudios geológicos agronómicos, forestales, oceanográficos.

Fig. 10 Satélites estacionarios y móviles con sus órbitas. Los satélites estacionarios o ecuatoriales orbitan a la
misma velocidad angular de la tierra y se encuentran "suspendidos" apuntando siempre a la misma área. Los
satélites móviles tienen órbitas meridianas o polares y periódicamente pasan por el mismo punto.

3.1.3 Satélites de de otras órbitas


También existen satélites cuyas órbitas no son geosincrónicas ni heliosincrónicas y son
utilizados para aplicaciones muy particulares.

4 ALGUNOS DE LOS SISTEMAS MÁS EMPLEADOS EN GEOLOGÍA

4.1 Sistemas clásicos rango visible e IR de gran empleo en geología y agronomía

4.1.1 El programa ERTS, Satélites LANDSAT

Este programa utiliza satélites de orbita polar con sensores espectrales multibanda.
Cargan un Scanner que mide la radiación de cada pixel en determinados rangos (bandas) del
espectro. Las bandas de estos sensores captan las componentes de la luz y energía infrarroja
según el caso. Los datos son transmitidos a la tierra para su transformación en imágenes y/o
tratamiento en sistemas computacionales para el análisis de imágenes. Estos satélites orbitan a
una altura promedio de 700 Km, demoran 98 minutos en dar una vuelta completa a la Tierra y
pasan por el mismo punto cada 16 días.

A fines de los años 60 se puso en marcha el primer programa de satélites Landsat del
programa observación para el estudio de los recursos terrestres ERTS. (Earth Resource
Technollogy Satellite)

El primer satélite Landsat fue puesto en órbita por los Estados Unidos en julio de 1972.
Los tres primeros satélites llevaban sensores, multiespectrales Scanner o MSS (Multiespectral
Scanner) y tres cámaras de video. Cada imagen MSS cubre un área de170. x 185 km de
superficie con cuatro bandas espectrales : una en la banda verde del espectro, otra en la roja y
dos en el infrarrojo reflejado o cercano.

A partir de 1984 se sustituyeron estos equipos por el sistema TM (Thematic Mapper o


Mapeador Temático
Las imágenes TM representan, al igual que las MSS, superficies de 170 km (N-S) x
185 km (E-W), pero su resolución espacial es mejor ya que el tamaño del pixel es de a 30
metros de lado en las bandas visibles e infrarrojas y 120m en la banda termal. También la
resolución espectral es mayor ya que produce imágenes en 7 bandas espectrales: Tres de ellas
en el ámbito de la luz visible ubicadas una en la región azul del espectro (banda 1), otra en la
región verde (banda 2) y una en la roja (banda 3); En la región infrarroja (IR) están la banda 4

(región IR cercana), las bandas 5 y 7 IR medio y una en la zona de ondas térmicas IR lejano
(banda 6). El más reciente de los satélites LANDSAT llamado ETM+ lanzado en 1999 agregó
una imagen pancromática (0.52µ - 0.90µ) con un píxel de aproximadamente 15 metros con el
fin de aumentar la resolución espacial, y mejoró la resolución espacial de la banda 6 de 120 a
60m.

Las imágenes formadas por las bandas infrarrojas del espectro, han despertado un gran
interés en las ciencias del agro y en geología ya que han mostrado ser sensibles a fenómenos
biológicos y químicos que implican cambios de humedad y calor. Normalmente las bandas
infrarrojas son utilizadas en combinación con imágenes del espectro visible asignándoles un
color primario y formando así imágenes “de falso color”

SENSORES LANDSAT

Sistema MSS
------------------------------
- Ancho de barrido 185km
- Resolución espacial 79m
- Resolución radiométrica 255 niveles de gris
- Bandas espectrales
1 0.50-0.60 µ (verde) Res: 60m
2 0.60-0.70 µ (rojo) Res: 60m
3 0.70-0.80 µ (IR cercano) Res: 60m
4 0.80-1.10 µ (IR cercano) Res: 60m

Sistema TM (Landsat 4 y 5)
------------------------------
- Ancho de barrido 185km
- Resolución espacial 30 m - 120m
- Resolución radiométrica 255 niveles de gris
- Bandas espectrales
1 0.45-0.52 µ (azul) Res: 30m
2. 0.52-0.60 µ (verde) Res: 30m
3. 0.63-0.69 µ (rojo) Res: 30m
4. 0.76-0.90 µ (IR cercano) Res: 30m
· 5 0.55-1.75 µ (IR onda corta SWIR) Res: 30m
6 10.5-12.5 µ (IR termal, Res: 120m
7 2.08-2.35 µ (IR onda corta SWIR) Res: 30m

Sistema ETM + (Landsat 7)


------------------------------
- Ancho de barrido 185km
- Resolución espacial 15 m - 60m
- Resolución radiométrica 255 niveles de gris

- Bandas espectrales
1 0.45-0.52 µ (azul) Res: 30m
2. 0.52-0.60 µ (verde) Res: 30m
3. 0.63-0.69 µ (rojo) Res: 30m
4. 0.76-0.90 µ (IR cercano) Res: 30m
· 5 0.55-1.75 µ (IR onda corta SWIR) Res: 30m
6 10.5-12.5 µ (IR termal, Res: 60m
7 2.08-2.35 µ (IR onda corta SWIR) Res: 30m
8 0.52-0.90 µ (Pancromática) Res: 15m

4.2 El Programa SPOT

Este programa ha sido desarrollado por el Centro Nacional de Estudios Espaciales


(CNES) de Francia. El primer satélite SPOT (Système Pour 1'Observation de la Terre) fue
puesto en órbita en 1986, también sigue una trayectoria casi polar. Dos sensores HRV (Haute
Resolution Visible) idénticos a bordo se encargan de producir imágenes multiespectrales en
bandas similares a la verde, roja e infrarrojo cercano del MSS del LANDSAT pero con una
resolución de 20m. En forma alternativa, los sensores pueden proporcionar imágenes
pancromáticas con una mejor resolución aún, de 10 metros. El campo de visión da cada sensor
está limitado sin embargo a un ancho de 60 km.

Por otra parte, el SPOT está provisto de un sistema de espejos a bordo que permite que
los sensores puedan producir imágenes desde distintos ángulos o perspectivas de modo que
constituyan pares estereoscópicos, que pueden ser procesados para entregar información
topográfica. La visión fuera del nadir le permite también aumentar la resolución temporal
teniendo una periodicidad de hasta tres días no obstante pasar el satélite por el mismo punto
cada 26 días.
El satélite SPOT- 3, puesto en órbita en 1993, va provisto además de otros equipos de
apoyo como el POAM (Polar Ozone and Aerosol Measurement ) que mide contenidos de ozono
aerosoles nitrógeno ,oxígeno y vapor de agua en la atmósfera.
El SPOT 5, en funcionamiento desde comienzos del 2003, aumentó su
resolución espacial de la banda pancromática a 5 m. Estas imágenes pueden
superponerse a otras imágenes aumentando la resolución espacial.

.
SENSORES SPOT

Ancho de barrido 60 km
Resolución espacial 20 m - 10 m
Resolución radiométrica 256 niveles de gris

Bandas espectrales
xs 1 0.50-0.59 µ (verde)
xs 2 0.61-0.68 µ (rojo)
xs 3 0.79-0.89 µ (IR cercano)
p 0.51-0.53 µ (Pancromatica)

Nota: el modo normal de operación es con ambos sensores apuntando directamente bajo el
satélite. La opción alta resolución (pancromático), multiespectral, o la de visión
estereoscópica se obtienen a pedido.

El Programa IRS (Indian Remote Sensing)

Este programa comenzó en 1988 con el lanzamiento del satélite IRS-1A desde el
cosmodromo soviético de Baiknoure. Este satélite de órbita heliosincrónica llevaba a bordo
instrumentos multiespectrales LISS-1 y LISS-2, (Linear Imaging Self Scanning) con cuatro
bandas de rango visible hasta infrarrojo cercano, que cubrían parcelas de 148 y 145 Km.
cuadrados. En 1995 el IRS-1C incorpora un sensor pancromático aumentando la resolución
espacial a 5,8 m. y además un instrumento de campo amplio (WIFS) con coberturas de 774 Km
y resolución de 180 m

4.2 Sistemas de alta resolución espacial

Para grandes resoluciones espaciales algunas empresas trabajan con instrumentos


montados en aviones. Sin embargo la industria aeroespacial produce año a año nuevos
adelantos en la tecnología satelital y mejores precisiones en especial en lo que se refiere a
resolución espacial y espectral. Así, en el momento de escribir estas líneas (año 2004), el
satélite QUICKBIRD II (Digital Globe, USA), que orbita a una altura de a penas 450 Km de
altura, envía imágenes espectrales con bandas 3 y 4 compatibles con el sistema Landast y
resolución espacial de 2.8 m. Además envía imágenes pancromáticas con resolución espacial
de 70 Cm.

4.3 Sistemas de alta resolución espectral en el campo termal

4.3.1 ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer)

El sensor ASTER montado en la plataforma Terra del sistema EOS (Earth Observing
System), entrega imágenes que cubren una zona de 60 X 60 km. Este sistema ofrece una alta
resolución espectral con 14 bandas que varían entre el espectro visible y el infrarrojo termal.

Adicionalmente posee una banda en el infrarrojo cercano, mediante la cual se puede


obtener una cobertura estereoscópica. La resolución espacial es de 15 m en el rango visible e
infrarrojo cercano, 30 m en el infrarrojo de onda corta y 90 m en el infrarrojo termal.

ASTER no adquiere datos continuamente, sus sensores son activados sólo para adquirir
escenas específicas que han sido solicitadas.

4.3.2 JERS (Japanese Earth Resources Satellite)


Es un sistema muy versátil de alta resolución espacial y espectral. El satélite JERS – 1
consta de un sistema de imágenes de radar y un sistema de sensor óptico (OPS). El satélite tiene
un periodo de revisita de 44 días. Las imágenes cubren una zona de 75 X 75 km, su resolución
espacial es de 18,3 X 24,2 m en el nadir, el cual es remuestreado a píxeles de 18 m. Las
imágenes JERS – 1 se componen de 8 bandas, 2 en el campo visible (OPS 1 y 2), 2 en el
infrarrojo cercano (OPS 3 y 4), los cuales abarcan el mismo rango de longitud de onda y son
usados como pares estereoscópicos, 4 en el infrarrojo de onda corta (SWIR) (OPS 5, 6, 7, y 8).
Los canales OPS 6, 7 y 8 equivalen a una subdivisión de la banda 7 del satélite Landsat TM.

4.3.3 MODIS (Moderate Resolution Imaging Spectroradiometer)

Este sistema además de una alta resolución espectral (36 bandas) tiene una alta
resolución temporal (2 días). El sensor MODIS está montado en las plataformas de órbita polar
Terra y Aqua del sistema EOS (Earth Observing System). Otorga una imagen de día y otra de
noche en un periodo de 24 horas, cubren un área aproximada de 1354 X 2030 km, la cobertura
global es alcanzada en 1 a 2 días, los datos son entregados en 36 bandas espectrales que
abarcan desde los 0,4 a 14,4 µm, la resolución espacial es de 250, 500 y 1000 m. Información y
adquisición de imágenes puede ser accedida a través de Internet, en la siguiente dirección:

4.3 Sistemas de alta resolución temporal

4.3.1 ATSR (Along Track Scanning Radiometer)

El sistema ATSR, montado en satélites de órbita polar ERS – 1 (European Remote


Sensing Satellite), está disañado en especial para estudios de la hidrosfera, pero es de gran
utilidad en estudios terrestres. Provee datos termales tanto de día como de noche, cada tres días.
Presenta 4 bandas en la porción infrarroja del espectro y 3 bandas en el espectro visible. Las
imágenes ATSR cubren un ancho de 500 km y su resolución espacial es de 1,1 X 1,1 km en el
nadir (parte central de la imagen) y de 4 X 2,1 km en los bordes de la imagen. Es considerado
como un sistema de bajo costo y de alta frecuencia temporal.

4.3.2 AVHRR (Advanced Very High Resolution Radiometer)

El AVHRR es un sistema de alta resolución temporal. Está montado en los satélites de


órbita polar NOAA (National Oceanic and Atmosferic Administration), los cuales operan en
pares. El sistema otorga al menos 2 imágenes diarias por satélite, considerando que los satélites
NOAA trabajan en pares, al menos 4 imágenes diarias pueden ser adquiridas, un par en el día y
otro en la noche. Las imágenes cubren un ancho de 2700 km, tienen una resolución

espacial de 1,1 X 1,1 km en el nadir, incrementándose a 2,5 X 7,5 km hacia los bordes de la
imagen. Las imágenes AVHRR se componen de 5 bandas, una en el campo visible, una en el
infrarrojo reflejado y tres en el infrarrojo termal, una sexta banda correspondiente al infrarrojo
reflejado está disponible sólo en imágenes adquiridas durante el día.

4.3.3 GOES (Geostationary Operational Enviromental Satellites)


Es un sistema de alta resolución temporal que comprende dos satélites de órbita geoestacionaria
GOES W el cual cubre la zona comprendida entre los 170º E y 80º W de longitud, mientras que
GOES E cubre desde 130º W hasta 20º W de longitud. En la zona de Norteamérica el satélite
adquiere imágenes cada 15 minutos mientras que en Sudamérica cada 30 minutos. Las
imágenes GOES se componen de 5 bandas, la banda 1 (Visible) de resolución espacial de 1 km,
banda 2 (Infrarrojo medio) de resolución espacial 4 km, banda 3 (Banda de vapor de agua) de
resolución espacial 8 km, bandas 4 y 5 (Infrarrojo lejano) de resolución espacial 4 km.

4.4 Sistemas especializados

4.1 TOMS (Total Ozone Mapping Spectrometer)

El sistema multiespectral TOMS está montado en el satélite de órbita polar Nimbus – 7


y en el geoestacionario Meteor – 3. Opera sólo durante el día midiendo la energía solar UV
dispersada por las nubes o el suelo. Sus mediciones las realiza a través de 6 delgadas bandas
UV (312,5 a 380 nm). Entre las 6 bandas se forman tres pares, las que transmiten y absorben la
energía UV, con una resolución espacial de 3,1 km.

____________________________________________________________________________

Direcciones en INTERNET

Varios Sistemas
www.spaceimaging.com

ASTER
http://asterweb.jpl.nasa.gov
http://edc.usgs.gov/products/satellite/aster.html

ATSR
http://192.111.33.173/ATSRNRT
http://192.111.33.173/ATSRNRT

AVHRR
http://edc.usgs.gov/products/satellite.html
http://edc.usgs.gov/products/satellite/avhrr.html

GOES
www.goes.noaa.gov
www.nnic.noaa.gov
http://goes.higp.hawaii.edu
http://rsd.gsfc.nasa.gov/goes
LANDSAT
http://edc.usgs.gov/products/satellite/mss.htmi
http://landsat7.usgs.gov/index.php

MODIS
http://modis.higp.hawaii.edu
http://edc.usgs.gov/products/satellite/modis.html

SPOT
www.spotimage.com

TOMS
http://skye.gsfc.nasa.gov
CAPÍTULO 5
TRATAMIENTO DIGITAL DE IMÁGENES

3.1 LA IMAGEN DIGITAL

3.1.1 La imagen digital

Como ya explicamos en el capítulo anterior, la imagen digital del tipo raster está
formada por una matriz de valores en los que cada valor ocupa una de las cuadrículas de las
cuales la imagen está constituida. Esta cuadrícula denomiada píxel, representa una parcela de
terreno a la que los sensores han medido la radiancia. Los valores de radiancia de cada pixel
son transformados por aproximación a números enteros ND denominados números digitales.
El valor ND puede definirse entonces como el valor digital del píxel. Este número es
transformado por el software en un nivel de gris susceptible de apreciarse en la pantalla o de
ser impreso.
Durante las operaciones de análisis de la imagen, los ND experimentan cambios
producto de las operaciones matemáticas, transformándose en NV (número visual) que
podrían definirse como el valor de gris transformado a la intensidad con que el píxel es
apreciado en pantalla.
De lo anterior se desprende que los valores aptos para ser utilizados en la conversión a
parámetros físicos como la reflectividad y la temperatura son los valores ND que trae
inicialmente la escena.
El carácter matricial de la imagen permite realizar toda suerte de transformaciones
durante su tratamiento digital. De este modo son efectuadas las correcciones y el
mejoramiento de la calidad de la imagen. También puede mezclarse la información espectral,
adicionar y sobreponer otras informaciones pudiéndose generar así un número ilimitado de
imágenes de gran utilidad en el análisis.
Los softwares proveen de unas serie de utilidades, también derivadas de la naturaleza
matricial de la imagen, como conocer la escala en todo momento y poder cambiarla a
voluntad, conocer las coordenadas de cualquier punto (si la imagen está georeferenciada),
realizar mediciones de longitud, mediciones de áreas, delimitar zonas, eliminar zonas, dibujar
sobre la imagen y determinar i graficar las variables estadísticas de conjuntos de pixels, hacer
perfiles radiométricos y realizar cálculos de corrección.

Si se dispone de datos de altura, sea a partir de mapas topográficos digitalizados o


imágenes estereográficas, se puede también generar perfiles topográficos, y lo que es una de
las aplicaciones más espectaculares, vistas en perspectiva desde el ángulo que se desee y con
la exageración vertical que sea más apropiada. (Fig 12).
Existe además un dispositivo basado en imágenes alternantes que mediante el uso de
un casco especial permite la visión en 3 dimensiones.

5 4

Fig. 12 Vista tridimensional de la zona de Antofagasta. En la parte central la ciudad de Antofagasta (1) y tras
ella la Sierra del Ancla limitada por las quebradas de Caracoles (2) y la Quebrade de La Negra (3). A la derecha
Quebrada El Way (4). Detras de Sierra del Ancla el Salar del Carmen (5).
3.1.2 El color IHS

Llegado a este punto se hace necesario considerar que la forma de tratar el color por los
ordenadores puede tener distintas metodologías. El sistema IHS el más utilizado por la
teledetección. Si representamos los colores primarios (RGB) y sus colores complementarios
o secundarios en un cubo como el de la figura 11, la diagonal del cubo desde el vértice
(0,0,0), que representa el color negro, hasta el vértice (256,256,256), que representa el blanco,
estará solamente compuesta por colores grises. Esto es porque los porcentajes de rojo verde y
azul serán iguales entre si en cada punto de la diagonal. Por esta razón siempre hay una
cantidad variable de gris en las imágenes lo que es negativo para la interpretación.

Fig.12 Si se ubican los colores primarios y complementarios en los vértices de un cubo (arriba) la diagonal
desde el color negro al color blanco está formada por tonos de gris.
En el sistema IHS (abajo) las variables consideradas son el tono (color), el brillo o luminosidad y la saturación o
pureza del color. De este modo los grises son eliminados.

Para superar este prtoblema y mejorar la calidad de la imagen el sistema IHS (intensity
intensidad, hue tono, saturation saturación,) considera como variables el tono que
conceptualmente equivaldría al color, la intensidad, que equivaldría a la cantidad de o
concentración, si se piensa en una solución coloreada, y el grado de saturación o pureza de la
mezcla que se traduce en mayor o menor luminosidad del color. Un pintor lo explicaría como
la cantidad de blanco en la mezcla, lo que es bastante exacto ya que el blanco siendo la suma
de los colores hace el color menos “puro” y tendiente a los tonos pastel, hasta llegar al blanco
en el centro del hexágono mayor.
Si se representan estas nuevas variables en un gráfico como el de la figura 13, el color
está representado por las aristas de la base de la pirámide hexagonal, la saturación por la
proximidad a cada arista y la intensidad por la recta de intensidad de gris que une el vértice,
negro, hasta el punto blanco a lo largo del eje o altura de la pirámide. La obtención de estos
colores implica la manipulación de los ND originales de acuerdo a fórmulas matemáticas, pero
la calidad del resultado visual obtenido especialmente si se hace combinaciones de imágenes
de distintos orígenes lo hacen muy conveniente

3.2 EL PROCESO DE ANÁLISIS DIGITAL

Trataremos a continuación las operaciones más fundamentales en el estudio de


imágenes satelitales.

1. Correcciones y adaptación a la cartografía. Georeferenciación


2. Realce de imagen
3. Operaciones de análisis espectral
4. Clasificación espectral

3.2.1 Correcciones y adaptación a la cartografía.

3.2.1.1 Correcciones.

La cantidad de cambios por los que tienen que pasar los valores capturados por los
sensores supera lo que cualquiera podría esperar. Afortunadamente en la práctica, y cada vez
más, las imágenes son entregadas a los usuarios con las correcciones que dependen de la toma
de información. Estas correcciones pueden ser radiométricas, si afectan a los valores de
radiancia medidos, o geométricas, si afectan a la posición de los pixeles. Algunas de las
correcciones más importantes son:

Transformaciones geométricas.

1) Error de visión cónica también llamada aberración esférica y que deriva del hecho de que
la toma de imagen no es ortogonal sino cónica.
Este efecto se reduce bastante con la altura en las imágenes satelitales y es mucho más
importante en las fotografías aéreas tomadas desde aviones.

2) Distorsión producida por el efecto combinado del movimiento del satélite con la
rotación terrestre. Los sensores ubican los datos en una matriz ortogonal, pero en la
realidad la escena sensada tiene, debido a la rotación terrestre, la forma de un
paralelogramo.

3) Errores introducidos por la forma de la órbita. Esto implica cambios graduales de altura
que deben ser reducidos a una altura promedio.

4) Errores de navegación. Si bien la estabilidad de un satélite es superior a la de un avión,


pueden producirse oscilaciones que producen distorsión. Estas son: Cambios de altura,
cambios de velocidad, cabeceos, giros laterales, y alabeos.

5) Proyección del casquete de superficie terrestre escaneado a un plano en que será


representada la imagen, mediante algún criterio de proyección cartográfica. Esta no es una
corrección sino una transformación que realiza el usuario para que la imagen, que es parte
de una esfera, pueda ser representada en un plano y depende de la cartografía empleada.
Como parte de esta operación puede instalarse sobre la imagen la grilla de coordenadas
geográficas.

Errores radiométricos.

6) - Errores instrumentales producidos por los sensores en la toma de datos

7) - Errores derivados de la dispersión atmosférica.

3.2.1.2 Adaptación a la cartografía o Georeferenciación

Debido al efecto acumulado de todas las distorsiones señaladas más arriba, a pesar de
todas las correcciones realizadas, inexorablemente se tendrá diferencias con la cartografía de
tierra. una vez compatibilizados los sistemas de proyección se ajustan las discrepancias entre
la imagen satelital y la cartográfica mediante el método ajuste según puntos de control. Estas
operaciones son fundamentales si se pretende superponer imágenes de distinto origen o a la
cartografía realizada con métodos terrestres.

Ajuste de puntos de control.

Si se desea ajustar una imagen satelital a un mapa topográfico por ejemplo, el


procedimiento consiste en encontrar en el mapa puntos que puedan también ser ubicados en la
imagen y colocarlos en ésta. Para ello el software dispone de un cursor especial que le permite
tomar nota de las nuevas coordenadas. Generalmente se utiliza objetos de origen antrópico
como construcciones, cruces de caminos o vías férreas. Esta tarea es mucho más sencilla si se
realiza de imagen a imagen ya que los puntos de control pueden, en este caso, ser también
objetos naturales como un afloramiento rocoso, un árbol aislado o una confluencia de drenaje.
Naturalmente deben evitarse los objetos que puedan haber experimentado cambios
durante el lapso transcurrido entre la realización de mapa y la toma de la imagen. Desde este
punto de vista detalles de la línea de costa no son recomendables debido al efecto de las
mareas.
El mayor número de puntos posible es recomendado y es deseable que estos se
repartan lo mejor posible sobre la imagen. El mínimo de puntos con los cuales los cálculos
pueden ser efectuados es de tres y no deben estar en línea.
En los casos más simples como en superficies planas y no muy extensas la
transformación puede resolverse como un simple cambio de escala o una traslación o una
rotación de todo el conjunto, pero si la superficie es accidentada se requerirá de polinomios de
ajuste de segundo y tercer grado lo que supone una cantidad mayor de puntos de control. El
software realiza la transformación geométrica y luego la adjudicación de los pixels en la nueva
maya. Como estos suelen ocupar partes de más de un sitio de la nueva maya es necesario
utilizar algún criterio de adjudicación. Los criterios que suelen utilizarse en orden de
complejidad son: El vecino más próximo, la interpolación lineal, que involucra a los cuatro
vecinos más próximos y la convolución cúbica, que involucra a los 16 vecinos más próximos.
De acuerdo a lo anterior es importante tener en cuenta que los píxeles originales son
modificados al pasar a la maya corregida y por lo tanto la información espectral de origen es
modificada. Esto tiene implicancias en los cálculos de propiedades físicas como la temperatura
por lo tanto es preferible realizar estas operaciones con las imágenes no georreferenciadas.

3.3 Fusión de imágenes para mejorar resolución espacial.

La composición de imágenes a color se realiza superponiendo las imágenes a las que


se ha asignado un color RGB y esta superposición es píxel a píxel. Pero los softwares están
diseñados para superponer también dos imágenes de distinta resolución espacial, de este modo
es posible aumentar la resolución espacial de imágenes con buena información espectral,
fusionándolas con imágenes pancromáticas de alta resolución, que la mayoría de los sistemas
contienen para ese efecto. Así por ejemplo una imagen Landsat TM con píxel de 30 m aprox.,
al ser fusionada con la imagen pancromática de pixel de 15 m de lado aumente su resolución
espacial al doble y lo hará al triple si se fusiona con una pancromática SPOT de pixel con 10
m de lado.

3.4 Realce de imágenes.

El realce de imágenes (henhacement) comprende una serie de operaciones “cosméticas”,


no estrictamente necesarias, ya que no se trata de correcciones sino de técnicas destinadas a
mejorar la calidad de la imagen de manera que la información que posee pueda ser mejor
apreciada. Hay dos tipos de realces: Realce radiométrico y Realce espacial.
3.4.1 Realce radiométrico.

En la actualidad los softwares abren las imágenes por defecto con una cierta
distribución de bandas en color RGB y con el contraste de imagen de cada banda ajustado. Si
se observa una imagen con los valores de ND originales, sin transformaciones de ajuste, lo
más probable es que la imagen se vea oscura y falta de contraste. Esto ocurre porque la gama
de intervalos de gris del sistema de visualización en pantalla, normalmente 256 elementos, es
ampliamente mayor que la gama de valores medidos por los sensores en el área de la imagen,
la que no necesariamente cubre todos los niveles posibles sino los que corresponden a la
cubierta sensada. Si se analizan los histogramas de las radiaciones medidas en una imagen se
verá que estos difieren entre las bandas y ocupan una parte determinada de la gama de grises
en cada una de ellas. Dependiendo de los diseños de los sensores y de los aparatos de análisis
podría ser también que ocurra lo contrario y la gama de grises sea superada por la de los ND
que trae la imagen. En ambos casos se hace necesaria una operación de ajuste que permita
calzar los ND en la gama de grises obteniéndose para cada pixel un nuevo valor NV.
(Fig.14a)
De lo anterior se desprende que este ajuste puede significar una expansión o una
compresión del histograma radiométrico.
En el caso de la compresión una simple eliminación de valores puede ser práctica en
paisajes nevados por ejemplo donde hay demasiado blanco de gran intensidad que impide
apreciar las texturas y detalles de la imagen (Fig.14b), pero lo común es que se utilice algún
procedimiento de compresión agrupando los ND en intervalos de modo que se ajusten a los
256 intervalos del sistema.
Para la expansión puede usarse el método lineal que consiste en adjudicar a cada ND un
NV de forma que el ámbito de distribución de los NV abarque la gama completa de niveles de
gris (Fig.14c). Si la imagen es muy contrastada puede usarse una redistribución entre los
percentiles 95 y 5%. Estas imágenes son iluminadas y muestran bastante detalle. Este método
no considera, sin embargo la frecuencia, y da igual importancia a todos los valores. Si se desea
mantener la influencia de las altas frecuencias estadísticas es más recomendable el método de
la ecualización el cual conserva la distribución de la curva de frecuencia de los ND originales
modelando una nueva curva de valores NV que comprende todos los niveles de gris. El
aspecto de este realce es más contrastado ya que hay una acumulación de valores mínimos y
máximos en las partes inicial y final de la curva de frecuencia estadística. (Fig14.d) Si se
desea iluminar mejor las partes oscuras de la imagen puede utilizarse un modelo logarítmico
que privilegiará con intervalos más grandes los valores bajos de radiancia

Realce espacial

En el realce espacial los valores de los píxeles son modificados considerando la


influencia de los valores vecinos. Para ello se han diseñado filtros que mediante operaciones
aritméticas realzan o amortiguan, según el caso, alguna tendencia y así apreciar mejor lo que
interesa. En general se consiguen anteponiendo una ventana de filtraje que consiste en una
matriz cuadrada normalizada de 3 x 3, 5 x 5, o más grande, que se desliza por la imagen
transformando el valor de cada píxel. Esta matriz de filtraje contiene coeficientes que afectan
al valor central a medida que se desliza. En los casos más simples el cálculo de valor central
se realiza como el promedio de todos los valores.

Filtro de paso alto.

Cuando se tiene imágenes poco contrastadas, lo que suele ocurrir con escenas captadas
en zonas de invierno en que la radiancia disminuye, se aplica el filtro de paso alto que tiene la
virtud de realzar los componentes de alta frecuencia realzando así los rasgos lineales. Una
forma de obtener esta imagen es sumarle la diferencia pixel por pixel entre los valores de la
imagen original y la obtenida en una imagen con filtro de paso bajo.

Filtro de paso bajo.

El filtro de paso bajo tiene el efecto contrario del de paso alto, es decir, suaviza la
imagen tendiendo a uniformizar los valores de nivel digital (ND) amortiguando los cambios
bruscos de iluminación. La forma más simple de filtro de paso bajo se basa en el uso de una
matriz deslizante de 3x3, 5x5 ó 7x7 que modifica el valor del píxel central conforme a los
valores de los píxeles vecinos haciendo un promedio. En este tipo de matrices puede
ponderarse el valor central (convolution) para evitar pérdida de detalle.

Ejemplo de paso bajo

1/9 1/9 1/9


:
1/9 1/9 1/9
1/9 1/9 1/9

(a) (b)

Utilizando el filtro (a) en la matriz (b) el valor central será: ∑ (1/9*2) + (1/9*3)
+(1/9*1)+(1/9*4) +(1/9*3)+(1/9*2) +(1/9*1) +(1/9*2) +(1/9*4) = 2.44 >> = 2
2 3 1
Filtros direccionales. 4 3 2
1 2 4
Los filtros direccionales o anisótropos tienen por objeto
privilegiar rasgos lineales de acuerdo a direcciones preestablecidas.
En estos casos los coeficientes de la matriz ventana de filtrado realzarán una cierta dirección.
La denominación cardinal de estos filtros es engañosa ya que los rasgos realzados son
perpendiculares ala disposición del dispositivo de la matriz. Así por ejemplo el filtro norte del
ejemplo privilegia el límite norte de la matriz lo que hace resaltar los lineamientos EW. Del
mismo modo el filtro E resalta los rasgos NS y el SE los SW.

Ej:

1 1 1 -1 1 1 -1 -1 1
1 2 1 -1 -2 1 -1 -2 1
-1 -1 -1 -1 1 1 1 1 1

Norte Este Sureste

3.5 Operaciones de análisis espectral


3.5.1 Análisis de Componentes Principales

Las bandas que integran una imagen contienen datos con tendencias parecidas por lo
tanto se tiene una gran redundancia de información digital. El método del análisis de
componentes principales permite sintetizar las bandas originales, creando nuevas bandas, que
recogen la mayor parte de la información original. Ello permite, por otra parte, rescatar la
información no repetida y generar nuevas imágenes que realzan las desavenencias sin perder
lo esencial de la información original.

Para obtener los CP se ha ideado un método de transformaciones matemáticas basado en


la diagonalizción de una matriz n x n en donde n es el número de bandas los componentes son
las covarianzas entre pares de bandas. Se obtienen así autovalores para cada componente.
Estos autovalores expresan la longitud de cada uno de los nuevos componentes, y la
proporción de información original que retienen, la que va disminuyendo progresivamente,
del primero al último.

Si se utiliza imágenes LANSAT TM, la matriz será de 6 x 6. (las 6 bandas que tienen
igual resolución espacial) Una vez realizada la operación resultan 6 nuevas imágenes
denominadas componentes principales. El primer componente es una especie de promedio
ponderado de las bandas y contiene aproximadamente el 90 % de la varianza. El segundo
componente tiene un 80 % del remanente y el tercero el 70% del remanente del segundo. A
partir del cuarto componente las imágenes son difusas y muestran aspectos entre los que hay
menos correlación. Empíricamente se ha observado que el primer componente es un promedio
de las mejores correlaciones, el segundo muestra una relación positiva con la banda 4 y
privilegia las características de la vegetación . El tercer componente se asocia con el contenido
de humedad. El significado de los componentes restantes no es claro, por otra parte, a medida
que se avanza en el orden las imágenes son más pálidas y es necesario hacer ajustes de
contraste.
Generalmente se hacen combinaciones de los tres primeros CP asignándoles colores primarios
en la forma (1º,2º,3º ; R,G,B) Las imágenes así obtenidas son nítidas y de gran contenido
analítico ya que poseen el 98,21 % de la variancia del conjunto de bandas consideradas.
El método es muy utilizado en trabajos que requieren de análisis temporal. En esos casos
se reduce a un componente la totalidad de las bandas de la imagen de una de las fechas
observadas. Posteriormente se aborda una clasificación de los componentes principales,
aislando los fenómenos que muestran evolución entre unos componentes y otros.

3.5.2 La decorrelación

La decorrelación, traducción de decorrelation es otro método de transformaciones


matemáticas que utiliza todas las imágenes, en este caso parta rescatar rasgos que debido a la
generación de colores en el sistema RGB-IHS dan matices grisáceos y sombríos haciéndola
permanecer oculta o poco evidente.
Cuando la correlación entre los datos de todas las bandas es muy alta el porcentaje de
de cada banda en colores RGB será parecido y por lo tanto generará colores que permanecen
en la diagonal del cubo de representación color-saturación (RGB-HIS), esto es de tendencia al
gris. Si por el contrario una banda capta una respuesta espectral mayor que las otras, influirá
en el color RGB privilegiando el color que le fue asignado.

3.5.3 Operaciones aritméticas

Una forma de privilegiar o destacar algún rasgo de interés es usar las propiedades
espectrales de las distintas bandas realizando operaciones aritméticas entre los
correspondientes valores ND de cada banda. Las operaciones más usadas por los analistas de
imágenes son las razones (cuocientes).

Una propiedad interesante de las razones entre bandas es que tienen la virtud de
reducir prácticamente a cero el efecto de luz y sombra que produce el relieve debido a la
orientación de las pendientes topográficas. Esto ocurre porque la reducción de la radiancia por
efecto de la sombra es aproximadamente proporcional en las distintas bandas, luego al hacer el
cuociente entre dos bandas queda prácticamente eliminado. Las imágenes obtenidas al hacer
cuocientes entre bandas son, por lo tanto, planas ya que han perdido el efecto de relieve
fisiográfico que dan las sombras.

Algunas fórmulas utilizadas con bandas del sistema Landsat TM son

- 4/5 reduce efecto de luminosidad sobre topografía,


- 5/7 ha sido utilizado para detectar rocas con alteración hidrotermal,
- 5/4 y 7/4 realzan la cubierta vegetal respecto de las rocas sin vegetales,
- 3/1 realza la presencia de limonita,
- 7/5 indicador de verde,
- ND (7-5)/( 7+5) indicador de verde normalizado para compensar diferencias,
de iluminación,
- razón entre una misma banda en distintas fechas para detección de
cambios.

Fig16. El efecto del cuociente de bandas en las sombras. Los valores de emitancia medidos en cada banda son
mayores para las dos especies en la zona soleada y menores en la sombra. Al hacer la división entre las bandas
habrá un valor para cada especie esté esta a la sombra o al sol lo que facilita su identificación. Ejenplo tomado de
Chuvieco 1996

Para despejar los rasgos estructurales suele utilizares una imagen RGB con los
cuocientes 7/4, 5/4, 7/5.
Ya que la razón 5/7 realza los minerales arcillosos y la razón 3/1 las cubiertas
oxidadas, otra combinación aconsejada para realzar zonas con alteración hidrotermal es 5/7,
3/1, 4/3.
En la figura N se ha graficado las firmas espectrales de los minerales halita ( NaCl) y
ulexita (NaCaB5O*8H2O), mineral utilizado para la estracción de boro. La razón entre las
bandas 4 y 7 ha sido utilizada en estudios sobre el salar de Uyuni, para separar zonas con
mayor concentración de B. Sabins y Miller (1994).
En fin, el analista puede entretenerse con 36 sobre 3 = 7.140 combinaciones solamente
considerando cuocientes entre 6 bandas como sería el caso de las bandas que tienen igual
resolución espacial en Landsat TM, sin considerar el orden de asignación RGB

Respuesta espectral de reflectancia de halita (NaCl) y ulexita (NaCaB5O*8H2O). Como puede observarse la
máxima diferencia se encuentra entre las bandas Landsat TM 4 y 7. Esta razón ha sido utilizada para separar las
zonas con mayor concentración de boro.

3.6 CARACTERÍSTICAS ESPECTRALES DE LA CUBIERTA TERRESTRE

Podemos decir que cada banda cada banda tiene una distinta manera de apreciar una
cubierta observada, lo que en realidad se debe a la diferente respuesta de la cubierta a la
radiación solar. Si se comparan las bandas por separado se tendrán imágenes en tonos de gris
diferentes unas de otras. Algunas bandas presentan reacciones espectaculares respecto de
algunos materiales como es el caso del IR cercano respecto de la vegetación. (banda 4 en
Landsat). Este hecho provee desde ya una poderosa herramienta analítica. La asignación de
un color RGB a cada una de tres bandas elegidas entrega así distintas imágenes que permite a
veces la separación inmediata de algunas áreas, como por ejemplo zonas con nieve, áreas con
vegetación, agua, y otras. (Figs N y M)

Hemos definido la signatura o firma espectral como la respuesta reflectante, de un


material o de un tipo de cubierta al conjunto de los intervalos del espectro (bandas) utilizados
en el análisis. Esta firma se expresa normalmente en un gráfico que muestre la cantidad de
energía medida por los sensores respecto del largo de onda. Ahora bien, si una cubierta puede
estar representada por una signatura espectral, otras cubiertas de características similares,
deberían tener la misma respuesta espectral. Sin embargo esto no ocurre con frecuencia. Así,
la respuesta espectral de dos afloramientos de un mismo tipo de material rocoso suelen
presentar respuestas espectrales algo diferentes. Esto se debe a efectos ambientales y/o a la
variabilidad de los suelos.

La variabilidad dentro de un tipo de cubierta puede ser causada por :

- topografía (ángulo solar, sombra)


- efectos atmosféricos (nubosidad, bruma)
- efectos ambientales del suelo, (humedad, oxidación)
- cubierta no uniforme, densidad y especiación variable de la
flora).

Con todo, aunque cada banda entrega en forma diferente las características de la
cubierta observada, conforme a sus propiedades espectrales de cada una, la variabilidad afecta
a todas las bandas de un modo similar, lo que hace posible afinar las signaturas.

Algunas propiedades de las bandas en el sistema LANDSAT TM

Banda Aplicación
____________________________________________________________________________

1 0 . 45 - 0 . 52 azul Bajo contraste, sensible a


la bruma. No se recomienda su uso
separado.

2 0 . 52 - 0 . 57 verde Bajo contraste, sensible a la bruma


No se recomienda su uso separado.

3 0.63 - 0.69 rojo Identificación de caminos y zonas


carentes de vegetación. Suelos
expuestos. No es particularmente útil
para la identificación de cuerpos de
agua o asociaciones geología /
vegetación.

4 0.76 - 0.90 IR cercano Mejor banda para el estudio de


la cubierta vegetal. Util en la
delineación de cuerpos de agua.
Permite discriminar especies y definir
asociaciones geobotánicas para ser
usados como indicativos de cambios
en la litología, superficie y
estructura geológica del medio.

5 1.55 1.75 IR medio Posiblemente la mejor imagen de una


banda para ser usada en interpretación
geológica en terrenos con cobertura
vegetal. Permite visualización de
caminos en contraste con el bosque
circundante, delineación de cuerpos de
agua y variaciones en la composición
forestal. Esta banda presenta una buena
penetración de la bruma y buen contraste.

6 10.8 12.5 IR termal Esta banda termal responde a la radiación


(calor) emitida desde la superficie. La
resolución espacial en esta banda (120m)
es menor respecto de las demás bandas.
Presenta dificultades para el análisis
multiespectral o combinación de bandas
debido a su menor resolución. Presenta
alguna ventaja en el campo de
aplicaciones a fenómenos geotermales e
hidrogeológicos.

7 2 . 0 9 2 . 35 IR lejano Esta es otra banda IR reflejado como la


5, pero posee una mejor penetración de la
bruma. La calidad de imagen es algo más
pobre que banda 5 debido a una
característica de menor relación
señal/ruido. Puede ser útil en terrenos
carentes de vegetación en la detección de
minerales arcillosos y alteraciones.

Combinaciones de bandas en TM

Las combinaciones posibles entre 6 bandas del sistema TM alcanzan a 210, si se


considera el orden de asignación en los canales RGB. Es decir se puede tener 210 imágenes
distintas. Cada una de ellas ha de tener sus particularidades y sus ventajas que están día a día
siendo probadas por los investigadores y usuarios de imágenes satelitales. Cada empresa y
cada usuario tiene sus preferencias y reconoce (o atribuye) propiedades a algunas fórmulas.

He aquí algunos ejemplos tomados de libros.

Fórmula RGB Propiedades

Aproximadamente color natural. Útil para ser usada en


presentación a personas no familiarizadas con falso
color, pero de mucho menor contenido de información
321 geológica que la presentación en falso color. No
recomendable para imágenes de invierno o pleno verano.
Imágenes de primavera u otoño en esta combinación
pueden ser útiles.

Falso color infrarrojo.


Esta es la misma presentación de color que la película
234 infrarroja. Es recomendable para todo uso especialmente de
por personas familiarizadas con película infrarrojo
color. Muestra variaciones en la cubierta vegetal,
caminos y carreteras, cuerpos de agua y rocas. Es capaz
de penetrar la bruma.

Esta combinación, denominada RIS1 es apropiada para


345 estudios de humedad del suelo y clasificación de tipos de
bosque.

Discrimina tipos de roca en suelos carentes de


145 vegetación. Recomendable para fines geológicos.
Con el tiempo el uso de la banda 7 ha ido ganando su espacio en la exploración
geológica especialmente en terrenos desérticos. Algunas de las combinaciones más usadas
son 741, 753, 752 , 743, 742. En áreas con vegetación se ha usado 432, 532, 732.

3.7 CLASIFICACIÓN

La clasificación es el método esperado por los geólogos. Se trata de una técnica


orientada a la cartografía temática que consiste en marcar de un color determinado aquellas
zonas que tengan una virtual similitud espectral lo que significaría una misma constitución
del suelo. Es importante advertir que los parámetros de clasificación son propios de cada
imagen y no son aplicables a otras. Aunque en la teoría se puede hacer clases de igual
respuesta espectral, lo que implica no alterar el valor de los ND, las variables en juego son
demasiadas y la composición de los suelos tan heterogénea que no resulta práctico pretender
ese grado de precisión y muchos prefiere privilegiar la información visual obtenida por los
realces aplicados a las imágenes. Lo que podemos esperar del método es separar zonas
semejantes que tendrán un significado relativo que hay que interpretar con criterio y verificar
en el terreno.
Para llevar a cavo una clasificación se agrupa pixeles cuyos contenidos espectrales
sean semejantes mediante la elección de “áreas de entrenamiento”, generando categorías
definidas por una firma espectral promedio común.
Se practican dos tipos de clasificación: Supervisada y no supervisada.

Clasificación supervisada En este método se selecciona en pantalla dibujando un polígono


en una zona que se sabe homogénea porque ha sido conocida previamente en el terreno.
También puede elegirse un área que contenga grupo de valores supuestamente homogéneos
sobre la imagen. Cuando se hace esta operación a menos que se trate de un material muy
distinto del resto, lo más probable es que una gran parte de la imagen aparezca como
perteneciente a esa clase. Entonces el grupo de píxeles elegidos puede ser depurado eligiendo
ámbitos comunes en gráficos de espacios multivariados (normalmente se trabaja con tres
bandas que se comparan con gráficos bidimencionales). Sin embargo, si se reduce el número
de pixeles considerados puede ocurrir lo contrario y ser demasiado selectivo para una cubierta
que tenga una fuerte variabilidad por efecto de humedad, topografía u otros factores. Por esta
razón es aconsejable tomar varios campos de entrenamiento por clase y por banda.

Clasificación no supervisada En el caso no supervisado se ignora el conocimiento que


pudiera tenerse del terreno y se busca, en un espacio multivariado constituido por las distintas
bandas, mediante dispositivos matemáticos, grupos de valores similares asumiendo que cada
clase así encontrada corresponde a zonas con características espectrales definidas que
indicarían algún tipo de suelo, cultivo, tipo de bosque, etc. Para ello será necesario indicar el
número de clases que se desea obtener conforme a la presunción que se tenga y el criterio de
similitud o distancia espectral con que se asignarán los pixeles a cada grupo. Existen métodos
gráficos y estadísticos para hacer una evaluación previa de la capacidad de separar clases
distintas estudiando el traslape que puede producirse entre las poblaciones de una clase y otra.
Si se desea encontrar zonas distintas, en un área determinada, por ejemplo un salar,
una operación útil es anteponer una “máscara” que elimine el resto de la imagen y solamente
deje el área de interés.

Es claro que la relación que pueda existir con la realidad en esta clasificación es
relativa. No obstante resulta muy interesante estudiar el significado de las clases encontradas
las que, de cualquier forma, constituyen una no despreciable sugerencia previa al
levantamiento geológico.
Dado que ambos métodos tienen ventajas e inconvenientes es aconsejable el uso y
combinación de ambos.

Métodos de asignación.

La delimitación de cada grupo se hace de acuerdo a dos criterios: Midiendo la


similitud o “distancia espectral” entre dos pixels o condicionando el proceso de agrupamiento.

a) Métodos que miden “distancia espectral”:

1) Clasificador de mínima distancia

Se trata de incluir una determinada celdilla en la categoría más cercana la que se


expresa en el valor medio. Esto se reduce entonces a la mínima distancia entre 2 puntos Es
decir la raíz de la sumatoria de los cuadrados de las diferencias entre el ND de la celda y el
promedio de los ND de las celdas que constituyen la clase. (Fig17)

Fig. 17 Clasificador de mínima distancia. En el caso del diagrama el punto (P) es asignado a
la clase C1 por encontrarse más cerca del punto promedio de la clase

2) Clasificador de paralelepípedos
En este caso, en un grafico tridimensional (tres bandas) las clases están definidas por
paralelepípedos (Ps). (Fig18) Los puntos que caen fuera de los paralelepípedos no son
considerados. Los puntos que caen en dos o más paralelepípedos hay que corregirlos con otro
criterio

Fig.17 Clasificador de paralelepípedos. Para simplificar se ha tomado sólo los valores de dos
bandas. Los paralelepípedos (en este caso rectángulos) encierran las nubes de valores de cada
clase encontrada por el sistema. El punto P1 pertenece, en este caso, a la clase C1, el punto P2
no tiene asignación y el punto P3 pertenece a dos clases a la vez (C1 y C3).

b) Métodos que hacen grupos

1) Clasificador de máxima probabilidad.

Este método parte de suponer que cada conjunto de datos (ND) correspondiente a una
clase tiene una distribución normal. Si se calcula la probabilidad de que un pixel pertenezca a
una clase determinada, haciendo el cálculo para cada clase se podrá asignar el pixel a aquella
que maximice la función de probabilidad. Este clasificador es uno de los proferidos por los
analistas de imágenes.
Se han ideado otros sistemas más sofisticados como clasificadores en árbol y el
clasificador de redes neuronales que no serán desarrollados aquí por sobrepasar las
pretensiones de este curso.
Fig. 15a Área del Salar del, Carmen
1ª Componente principal

Fig.15b Área del salar del carmen


2ª Componente principal

Fig.15c Área del salar del carmen


7ª Componente principal
a b

Fig 18a Clasificación no


supervisada de 5 clases en
la zona de Salar del
Carmen.

Fig.18 b Clasificación
supervisada con 5 áreas s
de entrenamiento en la
zona de Salar del Carmen

Fig 18 c Mapa geológico


del Salar del Carmen

c
Dos imágenes del mismo lugar (al SW de los nevados de Payachata, extremo norte de Chile).
La imagen izquierda con bandas RGB=321 muestra los colores naturales (rango visible) Las quebradas se ven
oscuras, no hay diferencia entre nubes y nieve. En general hay poca diferenciacion de los suelos.
La imagen derecha contiene las bandas RGB=741 Se observa mayor variedad de colores en los suelos, las
quebradas con vegetación se muestran verde claro y la nieve se diferencia de las nibes presentando un color azul
celeste.

Imagen del área de la cuenca de Santiago de Chile. Se aprecian tres zonas morfoestructurales separadas por
sistemas de fallas de tendencia NS. La combinación RGB=741 diferencia claramente estas tres zonas con colores
diversos. Al oeste (izquierda) el valle central con abundante zona de regadío (rojo anaranjado), especialmente en
la cuenca del río Maypo, luego el primer escalón cordillerano de rocas volcánicas y luego , sobre los 4000m de
altura la alta cordillera con rocas alzadas más antiguas.
Fig.14a Solución gráfica
de la máxima expansión
simple de un histograma
corto

Fig. 14b Expansión con


truncamiento. Los valores
máximos y mínimos
elegidos con criterios
estadísticos (percentiles).

Fig. 14c Expansión


directa de una parte de
interés seleccionada.

Fig 14d Expansión


mediante ecualización del
histograma
Si en el análisis de imágenes satelitales se asignan los colores de las bandas espectrales
correspondientes a los colores primarios (bandas 1, 2, y 3 en el sistema TM de Landsat) a los
dispositivos RGB (red - green - blue) en el orden 3, 2, 1, se tendrán los colores reales. Si se
asignan en otro orden, o se asigna a una o más bandas un color no visible, como un infrarrojo
por ejemplo, se tendrá una imagen en “falso color”.

Referencias

Sabins, F E & R M Miller 1994 Resourceassessment-Salar de Uyuni and


vicinity:Proceedings10º Thematic Conference on Geologic Remote Sensing, p 192-1103,
Environmental ResearchInstitute of Michigan, Ann Arbor,MI.

Vous aimerez peut-être aussi