Académique Documents
Professionnel Documents
Culture Documents
TELEDETECCIÓN
1.1 Definición
Por teledetección, o detección remota, se entiende la acción de detectar o descubrir
desde lejos mediante sensores. Se podría hablar de teledetección animal, en cuyo caso los
sensores son los órganos sensoriales (ojos, oídos narices) y teledetección artificial en donde
artefactos provistos de sensores complementan la percepción humana. En el caso de la
teledetección espacial un sensor es un instrumento que recoge señales emitidas o reflejadas
como ondas electromagnéticas. La palabra detectar es un anglicismo que deriva “to detect”
que significa revelar o descubrir. El prefijo “tele” proviene del griego y significa lejos.
La idea de teledetección, como técnica de estudio aplicada a la superficie ce la tierra
o de algún otro cuerpo celeste, se refiere a obtener información de algún tipo (fotográfica,
geomagnética, posicional, radiométrica) desde satélites artificiales o aviones de altura. La
tendencia actual es reservar el término para las técnicas que utilizan sensores
electromagnéticos para adquirir datos numéricos en distintas bandas del espectro.
1.2 Usos
El explosivo desarrollo que ha experimentado en los últimos tiempos la percepción
remota, hace que los usos que actualmente se dan a estas técnicas sobrepasen todo lo
imaginado en el comienzo. Ateniéndonos sólo a los usos civiles, el mayor empleo en la
actualidad está en la meteorología, ciencias agronómicas, forestales, ambientales,
geología, oceanografía y planificación territorial.
2.1 Introducción
Remote sensing inició con las fotos aéreas, que todavía son las imágenes más comunes y
aplicadas en remote sensing. El conocimiento de las técnicas de interpretación es la base para
comprender los otros tipos de imágenes de remote sensing. Las fotos aéreas se emplean por
ejemplo en un levantamiento geológico, en la exploración geológica, en la confección de los
mapas topográficos, en proyectos de ingeniería, en estudios de protección de suelos y la
planificación urbanista. Entre 1970 y 1980 la interpretación geológica de fotos aéreas resultó en
el descubrimiento de varios depósitos petrolíferos en Indonesia.
Lentes anaglíficas
El encuadre, que se repite en las dos fotos aéreas consecutivas se imprime en color rojo y
en color azul-verde, un encuadre de foto sobre el otro y desemplazando la impresión en color rojo
algunos milímetros hacia la derecha. Esta llamativa imagen anaglífica se observa con las lentes
anglíficas, que se constituyen de un filtro rojo correspondiente al ojo izquierdo y un filtro azul-
verde correspondiente al ojo derecho. De tal modo se filtra la impresión en color rojo para el ojo
izquierdo (captando la impresión en color azul-verde) y la impresión en color azul-verde para el
ojo derecho (que capta la impresión en color rojo). Las dos impresiones filtradas se
complementan formando una impresión en blanco-negro. Los ojos reciben dos imágenes en
blanco-negro desplazada entre sí, que están unidas por el celebro en un modelo estereotípico o
tridimensional respectivamente.
Como las imágenes están impresas una sobre el otro y con un desplazamiento pequeño
entre sí, se observa las imágenes desde una distancia relativamente corta y con los ojos
acomodados a esta misma distancia o es decir no se debe superar la ligadura vegetativa entre
convergencia y acomodación de las lentes oculares.
Estereoscopio de lentes
En el estereoscopio de lentes las lentes se encargan de la acomodación de los ojos para la
observación de un objeto cercano. El estereoscopio de lentes del bolsillo se compone de dos
lentes de aumento 2 o 3 veces puestas en la distancia promedio interpupilar de 6,5 cm en un arco,
que está conectado con un soporte abatible de dos pies. El estereoscopio se coloca en la distancia
focal de las lentes encima de un par de fotos aéreas alineadas y de cierta distancia entre sí.
Debido a la distancia fija de 6,5 cm entre las dos lentes solamente se puede observar encuadres de
imagen de este mismo ancho en forma tridimensional. El estereoscopio de arco es una variación
del estereoscópico de lentes, en que la distancia entre las dos lentes es variable y ajustable a la
distancia individual de cada observador; además se puede desplazar el par de lentes a lo largo del
arco para observar continuamente varios pares de fotos aéreas. La ventaja del estereoscopio de
lentes es su manejabilidad, sus desventajas son el ancho de encuadre visible tridimensionalmente
limitado a 6,5cm y su distorsión óptica hacia los márgenes del encuadre, que se opone a una
interpretación cuantitativa.
Estereoscopio de espejo
El estereoscopio de espejos se constituye de un sistema de dos lentes, de dos prismas
reflectores y de dos espejos relativamente grandes (Fig. 2). Las lentes están alineadas en una
distancia de 6,5 cm entre sí a lo largo de un arco, cuyo soporte lleva los dos espejos y los dos
prismas reflectores están alineados a lo largo del eje óptico debajo de las lentes. Los espejos y los
prismas están alineados en diagonal en la dirección visual formando un ángulo de 45º entre sí. De
tal modo se obtiene la proyección de un encuadre de dos fotos aéreas, cuyo ancho es mayor que
la distancia entre las lentes o entre los ojos del observador entre sí (mayor de 6,5 cm). Las lentes
del estereoscopio son planoconvexas y corrigen la distancia de imagen mayor de 6,5 cm obtenida
por el desvío, que corren los rayos de luz siendo reflejados por los espejos y pasando por los
prismas. Además el estereoscopio de espejos está equipado con lupas binoculares, normalmente
de aumento 6 o 8 veces.
c. Rollos en colores
Los rollos en colores se caracterizan
por su capacidad de resolución menor en comparación con los rollos en blanco-negro,
por un contenido más alto en informaciones (tonos, intensidad de colores), que puede
aumentar la exactitud de la evaluación de las fotos hasta 20%.
Usualmente se utilizan los rollos en colores para la interpretación de las fotos aéreas de
gran escala.
Se distingue los siguientes tipos de rollos en colores
a. Rollos negativos en colores
El uso de los rollos negativos en colores es universal, se puede confeccionar las fotos en
colores y en blanco-negro, además los diapositivos. En la confección de los rollos el ajuste
cromático es problemático. Los tonos de los colores en las copias del mismo negativo
confeccionadas en distintos laboratorios casi nunca coinciden. Por consiguiente el color y la
tonalidad no son criterios cuantitativos en la interpretación.
Se debería seleccionar el tipo de rollo apropiado para un estudio en base de sus objetivos
y en base de las características del área de estudio.
Tabla: Contenido de información de los varios rollos con respecto a distintos aspectos de
investigación.
Aspectos de investigación Contenido de informaciones utilizando un rollo
en blanco-negro en colores infrarrojo en colores
General
Penetración por sombra 2 1 3
Acentuación de sombra 2 3 1
Penetración por neblina 2 3 1
Vegetación
Reconocimiento de especies 3 2 1
Estado de salud 3 2 1
Mapeo 3 2 1
Suelos y rocas
Topografía 2 1 1
Redes de drenaje 3 2 1
Contenido de humedad 3 2 1
Mapeo de suelos 2 1 2
Suelos perturbados 3 2 1
Zonas de fallas 3 2 1
Identificación de afloramientos 3 2 1
Agua
Penetración 2 1 3
Contaminación 3 2 1
Nieve y hielo
Profundidad y/o espesor 2 3 1
Acumulación de agua de 2 3 1
deshielo
Clave para la tabla anterior: 1 = alto contenido de información.
2 = contenido de información moderado.
3 = bajo contenido de información.
Recubrimiento longitudinal: cada foto traslape el 60% del área cubierta por la toma anterior.
Recubrimiento transversal: en cada línea de vuelo el área fotografiada traslapa lateralmente el
25% a 30% de la banda cubierta en la línea de vuelo anterior.
Nadir
El nadir es el punto del terreno, que sobrevuela el avión en el momento de la exposición.
En las fotos verticales el nadir coincide con el centro de la foto.
Línea base o aerobase
La línea base es la línea, que une los nadires del terreno.
Línea base de la foto o fotobase
La línea base de la foto es la línea, que une los centros de fotos contiguas. En las fotos
verticales la línea base coincide con la líneabase de la foto (aerobase = fotobase).
Distorsión radial
En la proyección cónica los rayos que unen los puntos del terreno con los puntos de la
foto cruzan puntos superpuestos (uno encima del otro) con ángulos diferentes. En consecuencia
en la proyección horizontal de la foto estos puntos están alineados sobre una línea radial, que
parte del centro de la foto. Las proyecciones de los puntos objetos de diferentes cotas, ubicados
en el mismo lugar como el pie y el tope de un árbol por ejemplo son desplazados en direcciones
opuestas a lo largo de líneas radiales.
Si los puntos tienen cotas mayores a aquella del nadir, sus proyecciones se desplazan
hacia la periferia de la foto, si los puntos tienen cotas menores a aquella del nadir sus
proyecciones se desplazan hacia el centro de la foto. La dimensión de la distorsión radial depende
de las diferencias en la altura de los puntos proyectados. El desplazamiento se aumenta desde el
centro hacia la periferia de la foto.
Los efectos del desplazamiento son los siguientes:
Líneas verticales como torres y superficies inclinadas como paredes de canteras,
superficies de fallas verticales parecen inclinadas hacia la periferia de la foto.
La distancia horizontal entre puntos de distintas cotas se falsea.
Las relaciones angulares entre puntos de distintas cotas se distorsionan.
Escala M = f/(H-h)
donde M=escala, f=distancia focal de la cámara en [mm], [cm], [m], (H-h)=altitud de vuelo
respecto a la superficie del terreno en [mm], [cm], [m].
Exageración vertical
En las imágenes estereoscópicas, el relieve parece exagerado.
Cuantitativamente se expresa la exageración vertical por el factor de exageración V:
V = a×B×d×s/(f×H×E) donde a=factor de proporcionalidad
B=aerobase (línea, que une los nadires del terreno)
d=distancia foto - ojo
s=distancia foto - foto
f= distancia focal de la cámara
H=altura de vuelo
E=distancia entre los ojos del observador.
Excepto de la aerobase y de la altura del vuelo para un vuelo y un observador todos los
demás factores son constantes. Cada observador debe determinar su factor de exageración
individual. Generalmente el factor de exageración varia entre 2,5 - 3,5.
Tonos grises
El tono de un objeto depende de la cantidad de luz del espectro visible, que el objeto refleja.
Tonos grises pueden ser claros, oscuros, negruzcos y otros términos similares.
Textura
Textura se refiere a las variaciones en la intensidad del tono de gris o es decir a las variaciones de
tonos claros y oscuros de gris, que solamente se aprecian en escalas grandes observando las fotos
aéreas con más detalle (con un aumento de 6x o 8x p.ej.). Algunos términos descriptivos para la
textura son los siguientes: gruesa, fina, rayada, manchada o se la compara con tramas de textiles.
1. Color de las rocas: Granito fresco de tonos más claros como basalto; diques aplíticos de tonos
más claros como filitas o gneises encajantes en un terreno metamórfico. Tenga en cuenta que las
rocas meteorizadas presentan colores diferentes a los de sus equivalentes frescos.
2. Estructura superficial de las rocas: Superficies lisas, densas, regulares de tonos claros y
uniformes; rocas de grano grueso, de superficie rugosa de tonos más oscuros. Tenga en cuenta
que las rocas meteorizadas y tectonizadas presentan superficies diferentes a las de sus
equivalentes frescos.
Factores determinantes del tono y de la textura, que dependen del objeto fotografiado, son
los siguientes:
1. Suelos: Color y textura de los suelos determinan tono y textura del gris; en el caso de suelos
residuales se pueden sacar conclusiones sobre el tipo de roca original. Tenga en cuenta que los
tipos de suelo también dependen del clima, de la topografía, de la humedad, de la vegetación y de
otros factores más.
2. Humedad: Areas húmedas de tonos más oscuros, áreas áridas de tonos más claros; las
diferencias de humedad pueden dar informaciones sobre diversos tipos de rocas y suelos, pues la
humedad depende de la porosidad, que a su vez depende de la litología. Tenga en cuenta que la
humedad depende directamente del clima.
3. Vegetación: color y tipo de sombra de la vegetación influyen en el tono y la textura del gris;
distribución y tipo de vegetación a menudo pueden indicar el tipo de suelo y las estructuras
geológicas bajo la cubierta vegetal. Tenga en cuenta que depende del clima y de influencias
antropógenas y de otros factores más.
Factores independientes del objeto fotografiado que determinan tono y textura son:
1. Exposición solar
2. Factores fotográficos (sensibilidad del rollo, filtros, revelado)
1. Red dendrítica
Indica un subsuelo homogéneo. Se desarrolla
- en sedimentos sueltos con superficies homogéneas como arena, limo y arcilla,
- en rocas cristalinas y metamórficas, que no son afectadas zonas de fallas,
- en rocas sedimentarias horizontales o poco inclinadas, no fracturadas o diaclasadas
- en rocas masivos, resistentes con respecto a la erosión en regiones áridas como p.ej.
cuarcitas, areniscas, conglomerados.
La densidad de los cursos de agua de una red dendrítica depende de las precipitaciones y
del escurrimiento (infiltración).
Una red dendrítica fina se desarrolla en un subsuelo relativamente impermeable y poco
resistente con respecto a la erosión (en arcillas, arenas finas, margas, tufitas p. ej.).
Una red dendrítica gruesa se desarrolla en areniscas de grano grueso, de alta
permeabilidad, en rocas intrusivas de grano grueso no o solo ligeramente fracturadas, en regiones
húmedas en carbonatos y dolomitas, donde agua cárstica infiltra el subsuelo.
2. Red rectangular
Puede reflejar sistemas de fracturas perpendiculares entre sí en las rocas subyacentes.
Se desarrolla en áreas de rocas cristalinas disectadas por un sistema de fracturas
ortogonal,
en altiplanicies cubiertas de rocas sedimentarias +/- horizontales,
en dimensiones pequeñas en areniscas diaclasadas en zonas áridas o semiáridas.
3. Red de enrejado
Puede indicar una alternancia de estratos subyacentes de rocas resistentes y no resistentes
a la erosión.
4. Red radial
Se desarrolla en terrenos altos (red de afluentes centrífuga) o bajos (red de afluentes
centrípeta) de forma circular o eclíptica como conos volcánicos, intrusivos graníticos, domos de
sal, anticlinales, sinclinales.
5. Anomalías en la red de drenaje
Cuando la forma, densidad o dirección de los cursos de agua o el ancho, la profundidad o
las características de las terrazas de un valle varían con respecto al esquema general del área de
estudio se habla de anomalías en la red de drenaje. Ejemplos de algunas anomalías son:
- un recorrido rectilíneo de secciones de los cursos de agua puede indicar fallas, diaclasas,
fracturas o cambios en la dureza de las rocas,
- un cambio brusco en la densidad de la red de drenaje puede indicar un cambio brusco de
la litología,
- cambios repentinos en las características de los valles pueden indicar un cambio
litológico o tectónico o un limite entre dos áreas de historia epirogenética distinta,
- la distribución rectilínea de vertientes y sumergidos naturales puede indicar cambios
litológicos en contactos de rocas sedimentarias, fallas o zonas de fracturamiento.
Ningún drenaje superficial existe en sedimentos sueltos de grano grueso como en arenas gruesas
o en gravas, que forman terrazas fluviales, sedimentos (fluvio-)glaciales o eólicos.
Información geológica, que se puede obtener a partir de fotos aéreas, depende de los
factores siguientes:
Factores geológicos
Las rocas sedimentarias suministran la mayor cantidad de información: estratificación
indica cambio litológico y distinta resistencia frente a la erosión.
Menos adecuados para un estudio fotogeológico son las rocas ígneas por su
comportamiento relativamente uniforme frente a la erosión, las rocas metamórficas por su gran
homogeneidad y áreas cubiertas por sedimentos sueltos.
Factores climáticos
Zonas áridas y semiáridas son bien adecuadas para un estudio fotogeológico por la
frecuencia alta de afloramientos, por la poca vegetación y la poca profundidad de meteorización.
Además la vegetación responde con exactitud a la oferta de nutrientes, que depende de la
litología o de la capa de rocas meteorizadas, que cubre las rocas subyacentes.
Zonas tropicales o de clima templado son menos adecuados para un estudio fotogeológico
por su meteorización muy profunda y su capa de vegetación cerrada. Además la meteorización
química homogeneiza el suelo de tal manera que la vegetación rara vez responde a las
características de las rocas subyacentes.
Zonas de nieve y glaciares son menos adecuadas por un estudio fotogeológico por la capa
de nieve, que cubre la morfología del terreno.
Calidad de la foto
Depende de la absorción y dispersión de la atmósfera en el momento de la exposición, de
las características del rollo, de la calidad del revelado.
Sedimentos sueltos
Con frecuencia falta el drenaje superficial, los relieves son acumulativos como por
ejemplo dunas, morrenas, terrazas, escombras de faldas, depósitos de deltas.
Rocas sedimentarias
Tono oscuro = grano fino
claro = grano grueso
ocasionalmente irregular, con textura
Mosaico bandeamiento claro-oscuro paralelo a los estratos = estratificación
uniforme = rocas masivas
Esquema de diaclasamiento
En general dirección y ángulos de intersección de diaclasa son constantes en áreas extensas.
Rocas de grano fino = diaclasas formando un enrejado fino.
Rocas de grano grueso = diaclasas distintas entre sí, enrejado amplio.
Drenaje rocas de grano fino = red hidrográfica tupida,
rocas de grano grueso = red hidrográfica espaciada.
Rocas arcillosas
Tono de gris mediano; drenaje: red hidrográfica tupida, dendrítica fina; vegetación densa en áreas
de clima húmedo; morfología: relieve suave en áreas de clima húmedo, relieve abrupto en áreas
de clima árido.
Calizas
Tono claro a muy claro.
Mosaico de gris bandeamiento paralelo = calizas estratificadas, tono uniforma = masivas.
Drenaje en general superficial poco desarrollado.
Vegetación en franjas = en alternancia con margas.
Morfología meteorización profunda y desarrollo de carstos en áreas de clima húmedo,
resistentes a la erosión, relieve modelado, cuestas, pendientes muy inclinadas, planicies, valles
profundos con crestas pronunciadas en áreas de clima árido.
Rocas volcánicas
Tono oscuro = rocas volcánicas básicas, claro = rocas volcánicas ácidas.
Drenaje red hidrográfica poca desarrollada en lavas, red hidrográfica dendrítica fina en
rocas piroclásticas.
Morfología conos, cráteres, maares, calderas, planicies y corrientes de lava son formaciones
típicas de áreas volcánicas.
Contactos discordantes se forman por intersección de las estructuras volcánicas con las rocas
preexistentes de otra orientación (p.ej. con los bandeamientos de rocas preexistentes).
Rocas intrusivas
Tono claro = plutonitas ácidas, oscuro a muy oscuro = plutonitas básicas.
Esquema de diaclasamiento sistemas de fracturas y diaclasas con diversos ángulos.
Drenaje red dendrítica poca desarrollada, en algunas zonas angulares o radial.
Vegetación uniforme, tupida en áreas de clima húmedo.
Morfología meteorización profunda, con frecuencia esférica, relieve suave en áreas de clima
húmedo; resistentes a la erosión intensa disección en valles en áreas de clima árido.
Diques
Tono gris claro = diques ácidos, oscuro a negro = diques básicos.
Mosaico con bandeamiento paralelo.
Vegetación alineaciones de vegetación en el caso de diques básicos.
Morfología meteorización profunda, formación de canalones o gargantas = diques básicos,
resistentes a la erosión, desarrollo de crestas y pircas = diques ácidos.
Rocas metamórficas
Tono mediano, claro = gneises, oscuro a negruzco = anfibolitas.
Mosaico uniforme o con bandeamiento paralelo.
Esquema de diaclasamiento sistemas de fracturas y diaclasas con direcciones y relaciones
angulares constantes en un área extensa.
Drenaje red dendrítica de alta densidad, localmente redes rectangulares o de enrejado.
Vegetación uniforme, tupida en áreas de clima húmedo.
Morfología
Cuarzitas = resistentes a la erosión, formando accidentes sobresalientes como crestas,
alineaciones de colinas suaves.
Mármol = en áreas de clima húmedo meteorización profunda, con formación de
topografía cárstica; en áreas de clima árido resistentes a la erosión formando accidentes
topográficos sobresalientes como crestas y alineaciones de colinas suaves.
Filitas = poco resistentes a la erosión, valles frecuentes, en áreas de clima húmedo
meteorización profunda; en áreas de clima árido valles de laderas inclinadas y crestas estrechas.
Gneis = resistentes a la erosión, modelando relieve.
Gneis bandeado = relieve con pequeños alineaciones de colinas paralelas.
Anfibolitas = poco resistentes a la erosión.
Serpentinitas = resistentes a la erosión, colinas esféricas.
2.9 Informaciones litológicas
2. Por comparación de la distancia entre dos puntos destacados de las fotos aéreas con la distancia
entre ambos puntos en el mapa topográfico correspondiente.
Conocida es la escala del mapa topográfico Em. Se mide las distancias entre los puntos
destacados en las fotos aéreas Df y en el mapa topográfico Dm. Se deduce la distancia verdadera
Dv entre ambos puntos de la manera siguiente: Dv = Dm/Em.
Las mediciones y los cálculos se realizan por lo menos en dos secciones distintas de las
fotos para evitar errores por variaciones de escala. Las variaciones se deben a variaciones de la
altura del vuelo y de la morfología y al basculamiento1 o tilt del avión.
1
Basculamiento del avión como consecuencia de influencias externas como vientos y turbulencias. Se distinguen dos
tipos de desviaciones con respecto a la vertical:
Alabeo
Cabeceo: se produce por la inclinación del cuerpo del avión y de la cámara.
3. Se coloca la hoja transparente sobre la foto 1 de tal manera que coinciden la fotobase de la foto
1 con la de la hoja transparente. Se une el centro C1 de la foto1 con el punto a restituir (paso 2 en
la figura fotaer3.cdr).
Las dos rectas construidas se intersecan en el punto restituido.
Procedimiento:
Se orienta el par de fotos aéreas exactamente, tan exactamente que la imagen
tridimensional se mantenga aún observando con el binocular.
El estereómetro se coloca de tal manera sobre el par de fotos aéreas y bajo el
estereoscopio que las marcas de la lámina de vidrio del instrumento (de forma de puntos o de
semicruces) aparezcan en el campo visual.
Se ajusta el tornillo micrométrico hasta que ambas marcas se fundan sobre el punto objeto
formando un solo punto o un cruce completo.
Se toma la lectura de la escala micrométrica con una precisión de 1/10mm y se estima
hasta los 1/100mm.
Recomendable es realizar tres mediciones independientes entre sí, calcular el promedio de
las tres mediciones y calcular a partir del valor promedio el paralaje.
Las siguientes fórmulas se aplica para calcular la variación de altura:
1. Conociendo la diferencia de paralaje ∆p, la altura promedio del vuelo (H – h) y la
fotoabase b se calcula la variación de altura entre los puntos x e y (hx – hy) de modo
siguiente: hx – hy = (∆p(H – h))/b.
2. Conociendo la diferencia de paralaje ∆p, la escala promedio de las fotos E, la distancia
focal de la cámara f y la fotoabase b se calcula la variación de altura entre los puntos x e y
(hx – hy) de modo siguiente: hx – hy = (f × ∆p)/(E × b).
1. LA RADIACIÓN ELECTROMAGNÉTICA
La onda electromagnética está definida por dos características (Fig 1): longitud (λ) y
frecuencia (F). La longitud de onda se define como la distancia entre dos simas o valles
correspondientes sucesivos, la frecuencia se define como a el número de unidades de longitud
de onda que pasan por un mismo punto en una unidad de tiempo.
La velocidad de propagación de la onda se calcula entonces como
c= λF
Fig. 1 Representación tridimensional de una onda electromagnética como una onda transversal que se propaga
en dos planos perpendiculares entre si. El esquema de la derecha indica las direcciones de vibración de los
campos y la dirección de propagación.
Q=hF
Q = h (c/λ)
lo que significa que a mayor frecuencia (menor longitud de onda) el contenido energético será
mayor. Esto implica que la radiación en longitudes de onda largas es más difícil de detectar
que aquélla proveniente de longitudes cortas, de ahí que las primeras requieran medios de
detección más refinados.
Cuando la luz se propaga a través de una sustancia lo hace a una velocidad menor
cumpliéndose que:
v = c/n
También ocurre que al pasar de un medio al otro el rayo es refractado de modo que se
acerca a la normal a al superficie en el medio más denso cumpliéndose la llamada 2ª ley de
Snell
ni sen i = nr sen r
Rayo incidente
Rayo reflejado
i
Medio I
____________
Medio R
Rayo refractado
Fi 2 Trayectoria de rayos reflejados y refractados de acuerdo a las leyes de Snell. El ángulo de incidencia es
siempre igual al ángulo de reflexión. Si la densidad del medio R es mayor que la del medio I el ángulo de
refracción r es menor que el de incidencia.
1.2 Espectro de la radiación electromagnética.
1. Ondas de radiofrecuencia. Estas ondas tienen una longitud comprendida entre varios
kilómetros y 0,3 metros. La gama de frecuencias está entre unos pocos Hz y 109 Hz. Se usan
para trasmisiones de radio y televisión y se generan por sistemas electrónicos, especialmente
circuitos oscilantes.
3. Espectro infrarrojo. Se extiende desde longitudes de onda de 10-3m hasta 7,8 x 10-7 m
y frecuencias desde 3 x 1011 Hz hasta 3,8 x 1014 Hz. Las ondas infrarrojas son producidas por
moléculas gaseosas y por las vibraciones atómicas o moleculares en cuerpos calientes. Tienen
muchas aplicaciones en industria, medicina, teledetección, astronomía, etc. En teledetección se
utilizan varias bandas que caen en el dominio infrarrojo. En el sistema Landsat, por ejemplo,
se distinguen los siguientes tres ámbitos:
4. Espectro óptico humano. Estas ondas constituyen lo que llamamos luz visible y está
formado por ondas electromagnéticas que son detectadas por la retina del ojo humano.
Comprenden el intervalo que se extiende desde una longitud de onda de 7,8 x 10-7 m hasta 3,9
x 10-7 m y frecuencias entre 3,84 x 1014 Hz y 7,70 x 1014 Hz, y corresponden a la parte más
abundante de las ondas emitidas por el Sol. Se producen como resultado de ciertos ajustes
internos en el movimiento de los electrones en átomos y moléculas.
Según sea la longitud de onda (y/o frecuencia), la luz produce en nuestra retina
diferentes sensaciones, que llamamos colores.
5. Rayos ultravioleta. Comprenden longitudes de onda desde 3.8 x 10-7 m hasta 6 x 10-10
m y frecuencias de 7,7 x 1014 Hz hasta 5 x 1017 Hz Estas ondas son producidas por átomos y
moléculas bajo descargas eléctricas. El Sol es una poderosa fuente de rayos ultravioleta los
que constituyen el factor principal del bronceado de la piel humana. Puede producir efectos
químicos como ionización de átomos y moléculas. Los rayos ultravioleta afectan a muchos
microorganismos, lo que tiene aplicaciones médicas e industriales como esterilizante.
7. Rayos gamma. Estas radiaciones son de origen nuclear y se superponen en parte con el
espectro de rayos X. Se extienden a longitudes de onda que van desde 10-10m hasta menos de
10-14m, y frecuencias desde 3 x 1018 Hz hasta más de 3 x 1020 Hz. Estas radiaciones pueden
producir alteraciones en los núcleos atómicos, y en las envolventes de átomos y moléculas.
Estas radiaciones son peligrosas para el ser humano ya que al ser absorbidas por los tejidos,
pueden afectar al funcionamiento de órganos y aun producir la muerte. El uso controlado de
estas radiaciones es empleado en medicina para el tratamiento del cáncer y en la industria en el
control de calidad de piezas de metal.
1.3 Unidades de medida de la radiación.
- Densidad radiante (W). Total de energía radiada en todas las direcciones por unidad de
volumen. Se mide en julios por metro cúbico (J /m -3).
- Flujo radiante (φ). Total de energía radiada en todas las direcciones por
unidad de tiempo. Se mide en wats(W).
- Emitancia o excitancia radiante (M). Total de energía radiada en todas las direcciones desde
una unidad de área y por unidad de tiempo. Se mide en vatios por metro cuadrado (W /m2).
- Irradiancia radiante (E), total de energía radiada sobre una unidad de área y por unidad de
tiempo. Es equivalente a la emitancia, si bien ésta indica la energía emitida, mientras la
irradiancia refiere a la incidente. Se mide en wats por metro cuadrado (W/ m2).
· Intensidad radiante (I). Total de energía radiada por unidad de tiempo y por ángulo sólido
(Ω). Se trata éste de un ángulo tridimensional, que refiere a la sección completa de la
energía transmitida, y se mide en estéreo-radianes Por tanto la intensidad radiante se mide en
vatios por estéreo-radián (W/ sr).
- Radiancia (L). Total de energía radiada en una determinada dirección por unidad de área y
por ángulo sólido de medida. Es un término fundamental en teledetección, ya que describe
precisamente lo que mide el sensor. Se cuantifica en vatios por metro cuadrado y estéreo-
radián. W/m2 sr
Radiancia espectral (Lλ). Por extensión del concepto anterior, indica el total de energía
radiada en una determinada longitud de onda por unidad de área y por ángulo sólido de
medida. Por cuanto el sensor detecta una banda particular del espectro, ésta es la medida más
cercana a la observación remota. De igual forma que la radiancia, la emitancia e irradiancia
pueden completarse con el calificativo de espectral (añadiendo elsubíndice λ), cuando se
refieren a una determinada longitud de onda.
Los siguientes Términos, que se desarrollarán más adelante, son relativos a las propiedades
de la materia en términos de respuesta a la radiación.
- Emisividad (ε) relación entre la emitancia de una superficie (M), y la que ofrecería un
emisor perfecto, denominado cuerpo negro, a la misma temperatura (Mn)
- Reflectividad (ρ) relación entre el flujo incidente y el reflejado por una superficie;
- Transmisividad (τ), relación entre el flujo incidente y el transmitido por una superficie.
Estos términos adimensionales suelen expresarse como porcentajes. (Se ha traducido los
términos ingleses: emittance, reflectance, absorptance y transmittance, añadiendo el sufijo
«ividad», para indicar que son cantidades relativas, distinguiéndolas así de las anteriores que
son absolutas). También estas magnitudes son dependientes de la longitud de onda, por lo que
conviene completarlas con el calificativo de espectral, para referirse a su comportamiento en
una banda determinada del espectro.
Tabla Nº1
Hemos visto que la cantidad de energía que contiene un flujo radiante es inversamente
proporcional a su longitud de onda.
Todo cuerpo que se encuentra a una temperatura superior al cero absoluto (273º C)
emite radiaciones electromagnéticas en distintas longitudes de onda. Se define como “Cuerpo
negro perfecto” un cuerpo emisor y receptor ideal que emite toda la energía que recibe con un
100 % de rendimiento.
A partir de la formula de Planck se puede reconstruir curvas de emitancia de un cuerpo
negro a distintas temperaturas (ver Fig. 4). Así, la máxima radiación emitida por el sol cuya
superficie tiene una temperatura de 6000 K corresponde a la del espectro visible (0.4 - 0.7
micrones) en tanto que la máxima radiación de la tierra cuya superficie está aproximadamente
a 300 k se sitúa en radiaciones infrarrojas (8 micrones aprox.)
Integrando la emitancia espectral de un cuerpo negro para todas las longitudes de onda,
podemos calcular el total de energía que radia por unidad de superficie. Esto se conoce como
la ley de Stefan-Boltzmann:
Mn =σT4
Las superficies naturales no se comportan como cuerpos negros perfectos, por lo tanto
para calcular sus emitancias se necesario considerar la emisividad:
M =ε Mn
Hemos visto que la energía emitida desde un objeto es una función de su temperatura.
Por lo tanto cambios de temperatura significan cambios de la emitancia total. De acuerdo a
esto si se conoce la temperatura de una cubierta de interés será posible determinar, de acuerdo
a su emisividad, la banda del espectro más idónea para su estudio.
Cuando se calienta una sustancia hasta hacerla emitir luz se produce un espectro
continuo de distintos largos de onda debido a la proximidad de los átomos, pero si se obliga a
emitir radiación electromagnética a átomos en estado gaseoso cada elemento emite una luz
característica que es propia de cada elemento. (el neón un rojo brillante, el mercurio un azul
violeta, el helio una luz rosada) Cada elemento tiene por lo tanto una firma o signatura
espectral que le es propia, porque depende de su configuración electrónica, y su espectro no
aparece como un continuo de colores, como es el caso de la descomposición de la luz solar en
un prisma, sino como líneas separadas de distintas frecuencias bien determinadas, que pueden
medirse con instrumentos diseñados para este objeto llamados espectrómetros.
La radiación que incide sobre la superficie de un cuerpo y por ende la radiación solar
que recibe la superficie de la Tierra, se descompone en tres partes.
θi
θr
θa θt
Así, un flujo de energía θi se descompone en una parte reflejada θr una parte absorbida θa y
una parte transmitida θt tal que, de acuerdo al principio de conservación de la energía se tiene
que:
θi = θr +θa +θt
1 = θr/θi + θa/θi + θt / θi
se definen términos relativos que son característicos y distintivos de cada sustancia irradiada.
Estos términos se denominan:
ρ+ α+τ=1
Es decir que para una misma longitud de onda, la suma de la reflectividad, la
absortividad y la transmisividad es igual a uno.
Siendo que la relación entre estas tres magnitudes varía con la longitud de onda, en
términos más rigurosos debería indicarse cada término con un subfijo λ.
La respuesta espectral de los objetos a la luz constituye lo que llamamos color: Así, un
objeto rojo refleja intensamente la energía de ese largo de onda (banda) del espectro y poca del
resto la cual sería transmitida y/o absorbida por el cuerpo irradiado.
Desde este punto de vista de la naturaleza de las superficies, pueden distinguirse dos
tipos de cubiertas. Aquellas que reflejan la energía con el mismo ángulo del flujo incidente
(especularas), y aquellas que lo reflejan uniformemente en todas las direcciones
(lambertianas). En el primer caso, el sensor sólo recibe energía reflejada del suelo si está
situado en la dirección del ángulo de reflexión, siendo nula en cualquier otro caso. Si la
superficie es lambertiana, la radiancia es constante en cualquier ángulo de reflexión.
Reflexión especular Reflexión lambertiana Reflexión pseudoespecular
La mayor parte de las cubiertas tienden a comportarse de modo intermedio entre ambas
situaciones (reflexión difusa pseudoespecular etc), en función de sus características y de la
longitud de onda en la que se trabaje. Si la longitud de onda es pequeña, las rugosidades del
terreno tenderán a difundir mucho más la energía incidente que si se trata de longitudes de
ondas mayores, en donde esas mismas rugosidades pueden no impedir un comportamiento
especular. En el espectro visible, por ejemplo, sólo el agua en calma presenta un carácter casi
especular, mientras el resto de las cubiertas tienden a ofrecen un comportamiento difusor. En
longitudes de onda mayores (microondas), también otras cubiertas pueden comportarse de
modo especular, siempre que la rugosidad del terreno sea suficientemente pequeña.
Todo lo anterior significa que para una misma cubierta habrá distintos valores de
radiancia espectral, en diferentes condiciones de iluminación y de posición de los satélites. Es
decir variarán con la hora la fecha las condiciones atmosféricas etc. Dicho en otra forma las
distintas cubiertas de la superficie terrestre no tienen un comportamiento espectral único y
permanente, que coincida con un patrón teórico de sus curvas de reflectividad espectral. Sin
embargo lo importante es que las características generales del los conjuntos de valores se
mantendrán en las mismas proporciones.
La atmósfera es materia que aunque en su mayor parte está en estado gaseoso puede en
su conjunto reflejar, refractar y absorber energía. A nivel molecular las partículas están muy
distantes unas de otras y rige el fenómeno de la dispersión atmosférica. Para mejor
comprender este fenómeno se puede hacer un símil con las ondas acústicas, aunque estas son
longitudinales, evocando el fenómeno de la consonancia. Del mismo modo en que las cuerdas
de un instrumento pueden vibrar por simpatía o consonancia cuando reciben ondas de la
misma frecuencia para la cual han sido afinadas, y por lo tanto emitir un sonido "dispersando"
parte de la onda recibida. En el caso de la luz, los átomos pueden dispersar (en todas
direcciones) parte de la radiación recibida.
Ya hemos visto que la energía es directamente proporcional a la frecuencia y por lo
tanto las ondas de alta frecuencia son las es la que tiene mayor poder de dispersión. Los
átomos de N y O, que constituyen la mayor parte de la atmósfera, dispersan una parte de la
radiación ultravioleta (que ya ha sido en una cierta parte absorbida por el ozono de las capas
superiores) y también del rango del azul. La dispersión de las frecuencias que siguen en
descenso (verde amarillo naranja) es bastante menor. Por esta razón el cielo limpio es de color
azul lo que indica una atmósfera limpia constituida mayormente por nitrógeno y oxígeno y en
la medida que hay otros constituyentes se hace más claro o toma otros colores. El cielo sin
atmósfera es negro, como se ve en el espacio o desde la superficie de la luna. Los rayos que
atraviesan una atmósfera más espesa, como ocurre en la puesta del sol, tienden al anaranjado y
rojo por que la dispersión ha filtrado casi todo el azul y el verde.
Fig. 7 Efecto de la atmósfera en la emitancia capturada por los sensores. La energía irradiada por el sol es en
parte absorbida y dispersada por la atmósfera. La cubierta terrestre emite rayos reflejados que a su vez son en
parte absorbidos y en parte dispersados por la atmósfera. Los sensores del satélite captan los rayos emitidos en su
dirección.
2.4.1 Dispersión atmosférica
1.- Dispersión de Rayleigh: Esta se produce cuando las partículas atmosféricas son más
pequeñas que el largo de onda de la radiación incidente. La luz de menor largo de onda tiene
un poder de dispersión mayor. El color azul del cielo se debe al efecto de dispersión Rayleigh
en los átomos de nitrógeno y oxígeno.
2.- Dispersión de Mie Se produce cuando el diámetro de las partículas es similar a la longitud
de onda y afecta a la luz de frecuencias más bajas del espectro. Es importante en incendios
forestales o brumas costeras.
Si bien la dispersión tiene un efecto negativo en la bada del azul haciendo que gran parte
de la energía captada por los sensores ubicados en plataformas satelitales sea la energía
dispersada por la atmósfera, hay que notar que es gracias a la dispersión que pueden
observarse detalles en las zonas en sombra ya que esta ilumina en penumbra las zonas a las
cuales no llegaría la luz directa. Este efecto solo tiene lugar en el rango visible.
En la antigüedad se pensaba que la visión era un fenómeno que emanaba desde el ojo.
Hoy sabemos que lo que permite ver la realidad que nos circunda es la percepción de la luz
emitida por los objetos reales.
Conforme sean las combinaciones de largos de onda de la luz recibida será el color
percibido Así, luz de distintos largos de onda producen sensaciones de color diferente y
distintos grados de saturación distintas intensidades. De acuerdo con eso el color de los
objetos depende del tipo luz que ellos emiten o reflejan.
Durante el día los objetos son iluminados por luz blanca y reflejan solo una parte de la
luz que reciben. Pero cada sustancia, y por ende cada objeto, tiene una respuesta particular a la
radiación electromagnética. De este modo un objeto de color amarillo refleja mucha luz
amarilla (rango de largo de onda de 5,77 x 10-7 a 5,97 x 10-7 metros) y casi nada del resto del
espectro. La teoría dice que esa energía no reflejada ha sido "absorbida" por el objeto.
Ya hemos visto que cuando la luz pasa de un medio a otro cambia de velocidad.
Siendo que la frecuencia permanece constante el largo de onda cambia variando por lo tanto el
color. Al hacer pasar la luz blanca que contiene el conjunto de todos los colores, por un
prisma, esta se descompone en los siete colores del arco iris (es el mismo fenómeno) definidos
por Newton y que tienen como características de onda las siguientes:
Se ha probado que las bandas azul, verde y rojo, son dominantes y se les ha definido
como colores primarios luz. Experimentalmente se ha descubierto que al mezclar luces
monocromáticas de estos colores (“colores luz”) se produce luz blanca, como es mostrado en
la figura 7. Al mezclar dos de estos colores lo que se denomina “adición de colores” (no
significa adición de largos de onda) se obtienen nuevos colores denominados colores
secundarios o colores primarios pigmento
Así:
Rojo + verde = amarillo ; Verde + azul = celeste cian ; Azul + rojo =magenta
Se definen tres parejas de colores antagónicos que son uno complementario del otro y
producen la sensación de máximo “contraste de color”
Rojo - cian
Verde - magenta
Azul - amarillo
Dicho de otro modo el color menos rojo es el cian, el menos verde el es el magenta y el
menos azul es el amarillo.
De esto resulta que si se anteponen filtros de color las imágenes resultantes tendrán una
máxima absorción en el color antagónico. Así, un filtro amarillo absorbe el color azul, un
filtro magenta absorbe el color verde y un filtro cian absorbe el color rojo. Esto es utilizado en
la fotografía blanco y negro para destacar y dar realce a algunos objetos. De gran uso por los
fotógrafos cultores de la fotografía blanco y negro es, por ejemplo, el filtro amarillo que
absorbe la luz azul del cielo haciéndolo más oscuro, de este modo pueden destacarse las
nubes.
En el arte de la pintura es utilizada la ley de Chevreul, que dice que cada color arroja
en su sombra su color complementario. Este no es un efecto físico sino psíquico y se basa en
el máximo contraste de los colores.
Si se mezclan los colores primarios, que son como los padres de todos los colores, en
proporciones diversas se obtienen prácticamente todos los colores que existen. Esto permite la
fotografía a color, la televisión a color, y es la base del sistema utilizado en las imprentas para
la obtención de colores a partir de los colores primarios. En el caso de los colores impresos se
aplica a cada banda los colores complementarios amarillo, magenta y cian que, son los colores
primarios pigmento, y se agrega el negro y el blanco, que generalmente es el color del papel
previamente blanqueado.
Si en el análisis de imágenes satelitales se asignan los colores de las bandas espectrales
correspondientes a los colores primarios (bandas 1, 2, y 3 en el sistema TM de Landsat) a los
dispositivos RGB (red - green - blue) en el orden 3, 2, 1, se tendrán los colores reales. Si se
asignan en otro orden, o se asigna a una o más bandas un color no visible, como un infrarrojo
por ejemplo, se tendrá una imagen en “falso color”.
El sistema Thematic Mapper de los satélites Landsat, uno de los más usado por los
geólogos en este momento para teledetección, utiliza en el ámbito de la luz visible las tres
bandas siguientes:
Los sistema de percepción remota basados en satélites artificiales tienen como ventajas
frente, a otros medios como estudios realizados con aviones, la permanencia en el tiempo, la
repetición constante de la toma de datos y una gran visión sinóptica.
Se distinguen dos tipos fundamentales de sistemas de sensores. Activos y pasivos.
1- Sistemas activos Estos emiten sus propios haces de energía y recogen su reflexión.
Es el caso de los sistemas que emplean micro ondas como el RADAR (Radio Detection and
Ranging). Estos tienes la facilidad de no depender de las posiciones relativas del sistema tierra-
sol-satélite. Otros ejemplos de sensores activos son, el SONAR y el sistema auditivo del
murciélago. En estos casos las ondas empleadas no son electromagnéticas sino acústicas.
2- Sistemas pasivos En este caso el sensor recoge las ondas reflejadas de la luz solar.
Es el caso de los sensores de espectro óptico e infrarrojo tales como el ojo, la cámara
fotográfica, los barredores espectrales.
2 LA IMAGEN DIGITAL.
Para crear una imagen digital se utilizan dos tipos de sistemas denominados "vectorial"
y “raster” :
2.1.1 La Imagen Vectorial Esta imagen se genera uniendo series de puntos Es la forma
apropiada para los dibujos lineales. Las áreas cerradas generadas por estas líneas se les puede
asignar un color lo que permite representar distintas áreas como es el caso de los mapas
geológicos.
2.1.2 La Imagen raster está constituida, al igual que una pintura puntillista, por elementos
pictóricos llamados pixels (derivado de picture element) que conforman una grilla de
cuadrículas elementales. Así para una imagen en blanco y negro el tono de de gris de cada pixel
puede ser expresado por un número que irá desde cero (negro) al valor considerado como el
máximo, según la resolución radiométrica que se esté usando y que corresponderá al blanco.
Dicho en otra forma la imagen pasa a ser una matriz matemática de valores numéricos, que la
computadora traduce en niveles de gris, para el caso de imágenes blanco y negro, o la suma
porcentual de niveles de colores primarios (rojo, verde y azul), en imágenes a color.
Este tipo de imagen es más apta para la representación de superficies complejas como es
el caso de imágenes fotográficas o pinturas.
Como puede apreciarse, el sistema raster constituye una forma de observar la realidad
distinta a la del ojo humano o la cámara fotográfica, en donde la imagen está constituida por un
“continuo”. (Fig. 9 )
Fig. 9 Tres sistemas de formación de imágenes. La imágen contínua (a), propia de las fotografías en donde la
fineza del tamaño del grano ofrece un paso prácticamente contínuo entre las formas. La imagen raster (b),
constituida por una grillas de elementos poligonales o pixels , y la imagen vectorial (c), en donde las formas están
delimitadas por un conjunto de líneas rectas (vectores), tantas como sea necesario para expresar formas que suelen
tener delimitaciones curvas.
2.2 Resolución.
2.2.1 Resolución espacial. Es la habilidad del sistema para mostrar lo pequeño. Se puede
definir matemáticamente como el número de mediciones por unidad de superficie. En otras
palabras determina el nivel de detalle alcanzable por la imagen. En el sistema raster este nivel
de detalle está dado por el tamaño del pixel, es decir de las parcelas cuya radiancia va
midiendo el sensor y es generalmente expresado en dimensión lineal (lado del cuadrado)..
La resolución espacial es muy variable y depende en gran parte de los objetivos perseguidos
por el sistema. Así los satélites meteorológicos, diseñados para cubrir grandes áreas, el pixel
puede ser de 1 a 5 Km o más de lado, en tanto que los satélites Landsat y Spot cuya misión es
la observación de la superficie de la tierra, tienen resoluciones desde 120 m (MSS) hasta 10m
(Pancromático blanco y negro de SPOT).
2.2.3 Resolución espectral. Es el número de partes del espectro “bandas” y el ancho de estas
consideradas. Así, la fotografía, que ocupa todo el espectro en una sola banda, se dice que es
por esto “pancromática” tiene la menor resolución espectral posible: 1, las imágenes Landsat
MSS tiene 4 bandas, el sistema TM tiene 7 bandas cuatro de las cuales pertenecen al ámbito
infrarrojo. El sensor HIRIS (High Resolution Imagyng Spectrometer), que opera desde
aviones, tiene 192 bandas ubicadas en el espectro visible y el infrarrojo cercano. El sistema
MODIS (Moderate Resulution Imagyng Spectrometer) contiene 36 bandas ubicadas en el
ámbito visible y hasta el infrarrojo térmico.
3 SATÉLITES ARTIFICIALES
De acuerdo a los usos y objetivos los satélites pueden ser muy variados. En el campo
del uso civil están los de comunicaciones, de ubicación (GPS) y de teledetección.
Muchos programas con distintas finalidades operan a través de satélites. Ya en la década
de los años sesenta varios programas empezaron a operar adcritos a NASSA tales como:
Fig. 10 Satélites estacionarios y móviles con sus órbitas. Los satélites estacionarios o ecuatoriales orbitan a la
misma velocidad angular de la tierra y se encuentran "suspendidos" apuntando siempre a la misma área. Los
satélites móviles tienen órbitas meridianas o polares y periódicamente pasan por el mismo punto.
Este programa utiliza satélites de orbita polar con sensores espectrales multibanda.
Cargan un Scanner que mide la radiación de cada pixel en determinados rangos (bandas) del
espectro. Las bandas de estos sensores captan las componentes de la luz y energía infrarroja
según el caso. Los datos son transmitidos a la tierra para su transformación en imágenes y/o
tratamiento en sistemas computacionales para el análisis de imágenes. Estos satélites orbitan a
una altura promedio de 700 Km, demoran 98 minutos en dar una vuelta completa a la Tierra y
pasan por el mismo punto cada 16 días.
A fines de los años 60 se puso en marcha el primer programa de satélites Landsat del
programa observación para el estudio de los recursos terrestres ERTS. (Earth Resource
Technollogy Satellite)
El primer satélite Landsat fue puesto en órbita por los Estados Unidos en julio de 1972.
Los tres primeros satélites llevaban sensores, multiespectrales Scanner o MSS (Multiespectral
Scanner) y tres cámaras de video. Cada imagen MSS cubre un área de170. x 185 km de
superficie con cuatro bandas espectrales : una en la banda verde del espectro, otra en la roja y
dos en el infrarrojo reflejado o cercano.
(región IR cercana), las bandas 5 y 7 IR medio y una en la zona de ondas térmicas IR lejano
(banda 6). El más reciente de los satélites LANDSAT llamado ETM+ lanzado en 1999 agregó
una imagen pancromática (0.52µ - 0.90µ) con un píxel de aproximadamente 15 metros con el
fin de aumentar la resolución espacial, y mejoró la resolución espacial de la banda 6 de 120 a
60m.
Las imágenes formadas por las bandas infrarrojas del espectro, han despertado un gran
interés en las ciencias del agro y en geología ya que han mostrado ser sensibles a fenómenos
biológicos y químicos que implican cambios de humedad y calor. Normalmente las bandas
infrarrojas son utilizadas en combinación con imágenes del espectro visible asignándoles un
color primario y formando así imágenes “de falso color”
SENSORES LANDSAT
Sistema MSS
------------------------------
- Ancho de barrido 185km
- Resolución espacial 79m
- Resolución radiométrica 255 niveles de gris
- Bandas espectrales
1 0.50-0.60 µ (verde) Res: 60m
2 0.60-0.70 µ (rojo) Res: 60m
3 0.70-0.80 µ (IR cercano) Res: 60m
4 0.80-1.10 µ (IR cercano) Res: 60m
Sistema TM (Landsat 4 y 5)
------------------------------
- Ancho de barrido 185km
- Resolución espacial 30 m - 120m
- Resolución radiométrica 255 niveles de gris
- Bandas espectrales
1 0.45-0.52 µ (azul) Res: 30m
2. 0.52-0.60 µ (verde) Res: 30m
3. 0.63-0.69 µ (rojo) Res: 30m
4. 0.76-0.90 µ (IR cercano) Res: 30m
· 5 0.55-1.75 µ (IR onda corta SWIR) Res: 30m
6 10.5-12.5 µ (IR termal, Res: 120m
7 2.08-2.35 µ (IR onda corta SWIR) Res: 30m
- Bandas espectrales
1 0.45-0.52 µ (azul) Res: 30m
2. 0.52-0.60 µ (verde) Res: 30m
3. 0.63-0.69 µ (rojo) Res: 30m
4. 0.76-0.90 µ (IR cercano) Res: 30m
· 5 0.55-1.75 µ (IR onda corta SWIR) Res: 30m
6 10.5-12.5 µ (IR termal, Res: 60m
7 2.08-2.35 µ (IR onda corta SWIR) Res: 30m
8 0.52-0.90 µ (Pancromática) Res: 15m
Por otra parte, el SPOT está provisto de un sistema de espejos a bordo que permite que
los sensores puedan producir imágenes desde distintos ángulos o perspectivas de modo que
constituyan pares estereoscópicos, que pueden ser procesados para entregar información
topográfica. La visión fuera del nadir le permite también aumentar la resolución temporal
teniendo una periodicidad de hasta tres días no obstante pasar el satélite por el mismo punto
cada 26 días.
El satélite SPOT- 3, puesto en órbita en 1993, va provisto además de otros equipos de
apoyo como el POAM (Polar Ozone and Aerosol Measurement ) que mide contenidos de ozono
aerosoles nitrógeno ,oxígeno y vapor de agua en la atmósfera.
El SPOT 5, en funcionamiento desde comienzos del 2003, aumentó su
resolución espacial de la banda pancromática a 5 m. Estas imágenes pueden
superponerse a otras imágenes aumentando la resolución espacial.
.
SENSORES SPOT
Ancho de barrido 60 km
Resolución espacial 20 m - 10 m
Resolución radiométrica 256 niveles de gris
Bandas espectrales
xs 1 0.50-0.59 µ (verde)
xs 2 0.61-0.68 µ (rojo)
xs 3 0.79-0.89 µ (IR cercano)
p 0.51-0.53 µ (Pancromatica)
Nota: el modo normal de operación es con ambos sensores apuntando directamente bajo el
satélite. La opción alta resolución (pancromático), multiespectral, o la de visión
estereoscópica se obtienen a pedido.
Este programa comenzó en 1988 con el lanzamiento del satélite IRS-1A desde el
cosmodromo soviético de Baiknoure. Este satélite de órbita heliosincrónica llevaba a bordo
instrumentos multiespectrales LISS-1 y LISS-2, (Linear Imaging Self Scanning) con cuatro
bandas de rango visible hasta infrarrojo cercano, que cubrían parcelas de 148 y 145 Km.
cuadrados. En 1995 el IRS-1C incorpora un sensor pancromático aumentando la resolución
espacial a 5,8 m. y además un instrumento de campo amplio (WIFS) con coberturas de 774 Km
y resolución de 180 m
El sensor ASTER montado en la plataforma Terra del sistema EOS (Earth Observing
System), entrega imágenes que cubren una zona de 60 X 60 km. Este sistema ofrece una alta
resolución espectral con 14 bandas que varían entre el espectro visible y el infrarrojo termal.
ASTER no adquiere datos continuamente, sus sensores son activados sólo para adquirir
escenas específicas que han sido solicitadas.
Este sistema además de una alta resolución espectral (36 bandas) tiene una alta
resolución temporal (2 días). El sensor MODIS está montado en las plataformas de órbita polar
Terra y Aqua del sistema EOS (Earth Observing System). Otorga una imagen de día y otra de
noche en un periodo de 24 horas, cubren un área aproximada de 1354 X 2030 km, la cobertura
global es alcanzada en 1 a 2 días, los datos son entregados en 36 bandas espectrales que
abarcan desde los 0,4 a 14,4 µm, la resolución espacial es de 250, 500 y 1000 m. Información y
adquisición de imágenes puede ser accedida a través de Internet, en la siguiente dirección:
espacial de 1,1 X 1,1 km en el nadir, incrementándose a 2,5 X 7,5 km hacia los bordes de la
imagen. Las imágenes AVHRR se componen de 5 bandas, una en el campo visible, una en el
infrarrojo reflejado y tres en el infrarrojo termal, una sexta banda correspondiente al infrarrojo
reflejado está disponible sólo en imágenes adquiridas durante el día.
____________________________________________________________________________
Direcciones en INTERNET
Varios Sistemas
www.spaceimaging.com
ASTER
http://asterweb.jpl.nasa.gov
http://edc.usgs.gov/products/satellite/aster.html
ATSR
http://192.111.33.173/ATSRNRT
http://192.111.33.173/ATSRNRT
AVHRR
http://edc.usgs.gov/products/satellite.html
http://edc.usgs.gov/products/satellite/avhrr.html
GOES
www.goes.noaa.gov
www.nnic.noaa.gov
http://goes.higp.hawaii.edu
http://rsd.gsfc.nasa.gov/goes
LANDSAT
http://edc.usgs.gov/products/satellite/mss.htmi
http://landsat7.usgs.gov/index.php
MODIS
http://modis.higp.hawaii.edu
http://edc.usgs.gov/products/satellite/modis.html
SPOT
www.spotimage.com
TOMS
http://skye.gsfc.nasa.gov
CAPÍTULO 5
TRATAMIENTO DIGITAL DE IMÁGENES
Como ya explicamos en el capítulo anterior, la imagen digital del tipo raster está
formada por una matriz de valores en los que cada valor ocupa una de las cuadrículas de las
cuales la imagen está constituida. Esta cuadrícula denomiada píxel, representa una parcela de
terreno a la que los sensores han medido la radiancia. Los valores de radiancia de cada pixel
son transformados por aproximación a números enteros ND denominados números digitales.
El valor ND puede definirse entonces como el valor digital del píxel. Este número es
transformado por el software en un nivel de gris susceptible de apreciarse en la pantalla o de
ser impreso.
Durante las operaciones de análisis de la imagen, los ND experimentan cambios
producto de las operaciones matemáticas, transformándose en NV (número visual) que
podrían definirse como el valor de gris transformado a la intensidad con que el píxel es
apreciado en pantalla.
De lo anterior se desprende que los valores aptos para ser utilizados en la conversión a
parámetros físicos como la reflectividad y la temperatura son los valores ND que trae
inicialmente la escena.
El carácter matricial de la imagen permite realizar toda suerte de transformaciones
durante su tratamiento digital. De este modo son efectuadas las correcciones y el
mejoramiento de la calidad de la imagen. También puede mezclarse la información espectral,
adicionar y sobreponer otras informaciones pudiéndose generar así un número ilimitado de
imágenes de gran utilidad en el análisis.
Los softwares proveen de unas serie de utilidades, también derivadas de la naturaleza
matricial de la imagen, como conocer la escala en todo momento y poder cambiarla a
voluntad, conocer las coordenadas de cualquier punto (si la imagen está georeferenciada),
realizar mediciones de longitud, mediciones de áreas, delimitar zonas, eliminar zonas, dibujar
sobre la imagen y determinar i graficar las variables estadísticas de conjuntos de pixels, hacer
perfiles radiométricos y realizar cálculos de corrección.
5 4
Fig. 12 Vista tridimensional de la zona de Antofagasta. En la parte central la ciudad de Antofagasta (1) y tras
ella la Sierra del Ancla limitada por las quebradas de Caracoles (2) y la Quebrade de La Negra (3). A la derecha
Quebrada El Way (4). Detras de Sierra del Ancla el Salar del Carmen (5).
3.1.2 El color IHS
Llegado a este punto se hace necesario considerar que la forma de tratar el color por los
ordenadores puede tener distintas metodologías. El sistema IHS el más utilizado por la
teledetección. Si representamos los colores primarios (RGB) y sus colores complementarios
o secundarios en un cubo como el de la figura 11, la diagonal del cubo desde el vértice
(0,0,0), que representa el color negro, hasta el vértice (256,256,256), que representa el blanco,
estará solamente compuesta por colores grises. Esto es porque los porcentajes de rojo verde y
azul serán iguales entre si en cada punto de la diagonal. Por esta razón siempre hay una
cantidad variable de gris en las imágenes lo que es negativo para la interpretación.
Fig.12 Si se ubican los colores primarios y complementarios en los vértices de un cubo (arriba) la diagonal
desde el color negro al color blanco está formada por tonos de gris.
En el sistema IHS (abajo) las variables consideradas son el tono (color), el brillo o luminosidad y la saturación o
pureza del color. De este modo los grises son eliminados.
Para superar este prtoblema y mejorar la calidad de la imagen el sistema IHS (intensity
intensidad, hue tono, saturation saturación,) considera como variables el tono que
conceptualmente equivaldría al color, la intensidad, que equivaldría a la cantidad de o
concentración, si se piensa en una solución coloreada, y el grado de saturación o pureza de la
mezcla que se traduce en mayor o menor luminosidad del color. Un pintor lo explicaría como
la cantidad de blanco en la mezcla, lo que es bastante exacto ya que el blanco siendo la suma
de los colores hace el color menos “puro” y tendiente a los tonos pastel, hasta llegar al blanco
en el centro del hexágono mayor.
Si se representan estas nuevas variables en un gráfico como el de la figura 13, el color
está representado por las aristas de la base de la pirámide hexagonal, la saturación por la
proximidad a cada arista y la intensidad por la recta de intensidad de gris que une el vértice,
negro, hasta el punto blanco a lo largo del eje o altura de la pirámide. La obtención de estos
colores implica la manipulación de los ND originales de acuerdo a fórmulas matemáticas, pero
la calidad del resultado visual obtenido especialmente si se hace combinaciones de imágenes
de distintos orígenes lo hacen muy conveniente
3.2.1.1 Correcciones.
La cantidad de cambios por los que tienen que pasar los valores capturados por los
sensores supera lo que cualquiera podría esperar. Afortunadamente en la práctica, y cada vez
más, las imágenes son entregadas a los usuarios con las correcciones que dependen de la toma
de información. Estas correcciones pueden ser radiométricas, si afectan a los valores de
radiancia medidos, o geométricas, si afectan a la posición de los pixeles. Algunas de las
correcciones más importantes son:
Transformaciones geométricas.
1) Error de visión cónica también llamada aberración esférica y que deriva del hecho de que
la toma de imagen no es ortogonal sino cónica.
Este efecto se reduce bastante con la altura en las imágenes satelitales y es mucho más
importante en las fotografías aéreas tomadas desde aviones.
2) Distorsión producida por el efecto combinado del movimiento del satélite con la
rotación terrestre. Los sensores ubican los datos en una matriz ortogonal, pero en la
realidad la escena sensada tiene, debido a la rotación terrestre, la forma de un
paralelogramo.
3) Errores introducidos por la forma de la órbita. Esto implica cambios graduales de altura
que deben ser reducidos a una altura promedio.
Errores radiométricos.
Debido al efecto acumulado de todas las distorsiones señaladas más arriba, a pesar de
todas las correcciones realizadas, inexorablemente se tendrá diferencias con la cartografía de
tierra. una vez compatibilizados los sistemas de proyección se ajustan las discrepancias entre
la imagen satelital y la cartográfica mediante el método ajuste según puntos de control. Estas
operaciones son fundamentales si se pretende superponer imágenes de distinto origen o a la
cartografía realizada con métodos terrestres.
En la actualidad los softwares abren las imágenes por defecto con una cierta
distribución de bandas en color RGB y con el contraste de imagen de cada banda ajustado. Si
se observa una imagen con los valores de ND originales, sin transformaciones de ajuste, lo
más probable es que la imagen se vea oscura y falta de contraste. Esto ocurre porque la gama
de intervalos de gris del sistema de visualización en pantalla, normalmente 256 elementos, es
ampliamente mayor que la gama de valores medidos por los sensores en el área de la imagen,
la que no necesariamente cubre todos los niveles posibles sino los que corresponden a la
cubierta sensada. Si se analizan los histogramas de las radiaciones medidas en una imagen se
verá que estos difieren entre las bandas y ocupan una parte determinada de la gama de grises
en cada una de ellas. Dependiendo de los diseños de los sensores y de los aparatos de análisis
podría ser también que ocurra lo contrario y la gama de grises sea superada por la de los ND
que trae la imagen. En ambos casos se hace necesaria una operación de ajuste que permita
calzar los ND en la gama de grises obteniéndose para cada pixel un nuevo valor NV.
(Fig.14a)
De lo anterior se desprende que este ajuste puede significar una expansión o una
compresión del histograma radiométrico.
En el caso de la compresión una simple eliminación de valores puede ser práctica en
paisajes nevados por ejemplo donde hay demasiado blanco de gran intensidad que impide
apreciar las texturas y detalles de la imagen (Fig.14b), pero lo común es que se utilice algún
procedimiento de compresión agrupando los ND en intervalos de modo que se ajusten a los
256 intervalos del sistema.
Para la expansión puede usarse el método lineal que consiste en adjudicar a cada ND un
NV de forma que el ámbito de distribución de los NV abarque la gama completa de niveles de
gris (Fig.14c). Si la imagen es muy contrastada puede usarse una redistribución entre los
percentiles 95 y 5%. Estas imágenes son iluminadas y muestran bastante detalle. Este método
no considera, sin embargo la frecuencia, y da igual importancia a todos los valores. Si se desea
mantener la influencia de las altas frecuencias estadísticas es más recomendable el método de
la ecualización el cual conserva la distribución de la curva de frecuencia de los ND originales
modelando una nueva curva de valores NV que comprende todos los niveles de gris. El
aspecto de este realce es más contrastado ya que hay una acumulación de valores mínimos y
máximos en las partes inicial y final de la curva de frecuencia estadística. (Fig14.d) Si se
desea iluminar mejor las partes oscuras de la imagen puede utilizarse un modelo logarítmico
que privilegiará con intervalos más grandes los valores bajos de radiancia
Realce espacial
Cuando se tiene imágenes poco contrastadas, lo que suele ocurrir con escenas captadas
en zonas de invierno en que la radiancia disminuye, se aplica el filtro de paso alto que tiene la
virtud de realzar los componentes de alta frecuencia realzando así los rasgos lineales. Una
forma de obtener esta imagen es sumarle la diferencia pixel por pixel entre los valores de la
imagen original y la obtenida en una imagen con filtro de paso bajo.
El filtro de paso bajo tiene el efecto contrario del de paso alto, es decir, suaviza la
imagen tendiendo a uniformizar los valores de nivel digital (ND) amortiguando los cambios
bruscos de iluminación. La forma más simple de filtro de paso bajo se basa en el uso de una
matriz deslizante de 3x3, 5x5 ó 7x7 que modifica el valor del píxel central conforme a los
valores de los píxeles vecinos haciendo un promedio. En este tipo de matrices puede
ponderarse el valor central (convolution) para evitar pérdida de detalle.
(a) (b)
Utilizando el filtro (a) en la matriz (b) el valor central será: ∑ (1/9*2) + (1/9*3)
+(1/9*1)+(1/9*4) +(1/9*3)+(1/9*2) +(1/9*1) +(1/9*2) +(1/9*4) = 2.44 >> = 2
2 3 1
Filtros direccionales. 4 3 2
1 2 4
Los filtros direccionales o anisótropos tienen por objeto
privilegiar rasgos lineales de acuerdo a direcciones preestablecidas.
En estos casos los coeficientes de la matriz ventana de filtrado realzarán una cierta dirección.
La denominación cardinal de estos filtros es engañosa ya que los rasgos realzados son
perpendiculares ala disposición del dispositivo de la matriz. Así por ejemplo el filtro norte del
ejemplo privilegia el límite norte de la matriz lo que hace resaltar los lineamientos EW. Del
mismo modo el filtro E resalta los rasgos NS y el SE los SW.
Ej:
1 1 1 -1 1 1 -1 -1 1
1 2 1 -1 -2 1 -1 -2 1
-1 -1 -1 -1 1 1 1 1 1
Las bandas que integran una imagen contienen datos con tendencias parecidas por lo
tanto se tiene una gran redundancia de información digital. El método del análisis de
componentes principales permite sintetizar las bandas originales, creando nuevas bandas, que
recogen la mayor parte de la información original. Ello permite, por otra parte, rescatar la
información no repetida y generar nuevas imágenes que realzan las desavenencias sin perder
lo esencial de la información original.
Si se utiliza imágenes LANSAT TM, la matriz será de 6 x 6. (las 6 bandas que tienen
igual resolución espacial) Una vez realizada la operación resultan 6 nuevas imágenes
denominadas componentes principales. El primer componente es una especie de promedio
ponderado de las bandas y contiene aproximadamente el 90 % de la varianza. El segundo
componente tiene un 80 % del remanente y el tercero el 70% del remanente del segundo. A
partir del cuarto componente las imágenes son difusas y muestran aspectos entre los que hay
menos correlación. Empíricamente se ha observado que el primer componente es un promedio
de las mejores correlaciones, el segundo muestra una relación positiva con la banda 4 y
privilegia las características de la vegetación . El tercer componente se asocia con el contenido
de humedad. El significado de los componentes restantes no es claro, por otra parte, a medida
que se avanza en el orden las imágenes son más pálidas y es necesario hacer ajustes de
contraste.
Generalmente se hacen combinaciones de los tres primeros CP asignándoles colores primarios
en la forma (1º,2º,3º ; R,G,B) Las imágenes así obtenidas son nítidas y de gran contenido
analítico ya que poseen el 98,21 % de la variancia del conjunto de bandas consideradas.
El método es muy utilizado en trabajos que requieren de análisis temporal. En esos casos
se reduce a un componente la totalidad de las bandas de la imagen de una de las fechas
observadas. Posteriormente se aborda una clasificación de los componentes principales,
aislando los fenómenos que muestran evolución entre unos componentes y otros.
3.5.2 La decorrelación
Una forma de privilegiar o destacar algún rasgo de interés es usar las propiedades
espectrales de las distintas bandas realizando operaciones aritméticas entre los
correspondientes valores ND de cada banda. Las operaciones más usadas por los analistas de
imágenes son las razones (cuocientes).
Una propiedad interesante de las razones entre bandas es que tienen la virtud de
reducir prácticamente a cero el efecto de luz y sombra que produce el relieve debido a la
orientación de las pendientes topográficas. Esto ocurre porque la reducción de la radiancia por
efecto de la sombra es aproximadamente proporcional en las distintas bandas, luego al hacer el
cuociente entre dos bandas queda prácticamente eliminado. Las imágenes obtenidas al hacer
cuocientes entre bandas son, por lo tanto, planas ya que han perdido el efecto de relieve
fisiográfico que dan las sombras.
Fig16. El efecto del cuociente de bandas en las sombras. Los valores de emitancia medidos en cada banda son
mayores para las dos especies en la zona soleada y menores en la sombra. Al hacer la división entre las bandas
habrá un valor para cada especie esté esta a la sombra o al sol lo que facilita su identificación. Ejenplo tomado de
Chuvieco 1996
Para despejar los rasgos estructurales suele utilizares una imagen RGB con los
cuocientes 7/4, 5/4, 7/5.
Ya que la razón 5/7 realza los minerales arcillosos y la razón 3/1 las cubiertas
oxidadas, otra combinación aconsejada para realzar zonas con alteración hidrotermal es 5/7,
3/1, 4/3.
En la figura N se ha graficado las firmas espectrales de los minerales halita ( NaCl) y
ulexita (NaCaB5O*8H2O), mineral utilizado para la estracción de boro. La razón entre las
bandas 4 y 7 ha sido utilizada en estudios sobre el salar de Uyuni, para separar zonas con
mayor concentración de B. Sabins y Miller (1994).
En fin, el analista puede entretenerse con 36 sobre 3 = 7.140 combinaciones solamente
considerando cuocientes entre 6 bandas como sería el caso de las bandas que tienen igual
resolución espacial en Landsat TM, sin considerar el orden de asignación RGB
Respuesta espectral de reflectancia de halita (NaCl) y ulexita (NaCaB5O*8H2O). Como puede observarse la
máxima diferencia se encuentra entre las bandas Landsat TM 4 y 7. Esta razón ha sido utilizada para separar las
zonas con mayor concentración de boro.
Podemos decir que cada banda cada banda tiene una distinta manera de apreciar una
cubierta observada, lo que en realidad se debe a la diferente respuesta de la cubierta a la
radiación solar. Si se comparan las bandas por separado se tendrán imágenes en tonos de gris
diferentes unas de otras. Algunas bandas presentan reacciones espectaculares respecto de
algunos materiales como es el caso del IR cercano respecto de la vegetación. (banda 4 en
Landsat). Este hecho provee desde ya una poderosa herramienta analítica. La asignación de
un color RGB a cada una de tres bandas elegidas entrega así distintas imágenes que permite a
veces la separación inmediata de algunas áreas, como por ejemplo zonas con nieve, áreas con
vegetación, agua, y otras. (Figs N y M)
Con todo, aunque cada banda entrega en forma diferente las características de la
cubierta observada, conforme a sus propiedades espectrales de cada una, la variabilidad afecta
a todas las bandas de un modo similar, lo que hace posible afinar las signaturas.
Banda Aplicación
____________________________________________________________________________
Combinaciones de bandas en TM
3.7 CLASIFICACIÓN
Es claro que la relación que pueda existir con la realidad en esta clasificación es
relativa. No obstante resulta muy interesante estudiar el significado de las clases encontradas
las que, de cualquier forma, constituyen una no despreciable sugerencia previa al
levantamiento geológico.
Dado que ambos métodos tienen ventajas e inconvenientes es aconsejable el uso y
combinación de ambos.
Métodos de asignación.
Fig. 17 Clasificador de mínima distancia. En el caso del diagrama el punto (P) es asignado a
la clase C1 por encontrarse más cerca del punto promedio de la clase
2) Clasificador de paralelepípedos
En este caso, en un grafico tridimensional (tres bandas) las clases están definidas por
paralelepípedos (Ps). (Fig18) Los puntos que caen fuera de los paralelepípedos no son
considerados. Los puntos que caen en dos o más paralelepípedos hay que corregirlos con otro
criterio
Fig.17 Clasificador de paralelepípedos. Para simplificar se ha tomado sólo los valores de dos
bandas. Los paralelepípedos (en este caso rectángulos) encierran las nubes de valores de cada
clase encontrada por el sistema. El punto P1 pertenece, en este caso, a la clase C1, el punto P2
no tiene asignación y el punto P3 pertenece a dos clases a la vez (C1 y C3).
Este método parte de suponer que cada conjunto de datos (ND) correspondiente a una
clase tiene una distribución normal. Si se calcula la probabilidad de que un pixel pertenezca a
una clase determinada, haciendo el cálculo para cada clase se podrá asignar el pixel a aquella
que maximice la función de probabilidad. Este clasificador es uno de los proferidos por los
analistas de imágenes.
Se han ideado otros sistemas más sofisticados como clasificadores en árbol y el
clasificador de redes neuronales que no serán desarrollados aquí por sobrepasar las
pretensiones de este curso.
Fig. 15a Área del Salar del, Carmen
1ª Componente principal
Fig.18 b Clasificación
supervisada con 5 áreas s
de entrenamiento en la
zona de Salar del Carmen
c
Dos imágenes del mismo lugar (al SW de los nevados de Payachata, extremo norte de Chile).
La imagen izquierda con bandas RGB=321 muestra los colores naturales (rango visible) Las quebradas se ven
oscuras, no hay diferencia entre nubes y nieve. En general hay poca diferenciacion de los suelos.
La imagen derecha contiene las bandas RGB=741 Se observa mayor variedad de colores en los suelos, las
quebradas con vegetación se muestran verde claro y la nieve se diferencia de las nibes presentando un color azul
celeste.
Imagen del área de la cuenca de Santiago de Chile. Se aprecian tres zonas morfoestructurales separadas por
sistemas de fallas de tendencia NS. La combinación RGB=741 diferencia claramente estas tres zonas con colores
diversos. Al oeste (izquierda) el valle central con abundante zona de regadío (rojo anaranjado), especialmente en
la cuenca del río Maypo, luego el primer escalón cordillerano de rocas volcánicas y luego , sobre los 4000m de
altura la alta cordillera con rocas alzadas más antiguas.
Fig.14a Solución gráfica
de la máxima expansión
simple de un histograma
corto
Referencias