Académique Documents
Professionnel Documents
Culture Documents
CENS 453
Teledetección
Módulo II
2001
35
Asignatura: Teledetección
Unidad Temática Nº IV
“Fotografías aéreas”
36
III Año BOCS
2001
37
Unidad temática: Fotografías aéreas
49
1- ¿Qué es una fotografía aérea?
Hay que destacar que estos fotogramas no poseen una escala uniforme, siempre se
consideran escalas aproximadas.
Las fotografías aéreas se utilizan para análisis geológicos, de uso del suelo y recursos
hídricos. Sin embargo para análisis detallados pueden necesitarse fotografías especiales.
Puede suceder en querer obtener coberturas e informes en que las fotos estén hechas
unas pocas horas antes, como es el caso de muchas situaciones militares y en evaluaciones
de vital importancia.
50
Si se tienen en cuenta los siguientes criterios, las fotografías se clasifican en:
Muchas veces suele ocurrir que no se disponga de las fotografías específicas del área
a trabajar, entonces éstas deben ser tomadas de acuerdo a un plan de vuelo
preestablecido.
La planificación del vuelo tiene que tener en cuenta los siguientes pasos:
a- Delimitación del área a fotografiar sobre un mapa. Previamente hay que asegurarse que
la zona de interés contenga objetos o situaciones importantes, las cuales quedarán
reveladas en las imágenes.
b- Determinación de la estación y hora del día óptimas.
c- Selección del tipo de fotografía.
d- Determinación del número de fotografías que se necesiten para cubrir el área.
Para poder comprender este tema resulta necesario tener conocimiento de algunos
conceptos básicos, como:
51
Banda o corrida: es
cada pasada fotográfica que
realiza el avión sobre el
terreno. El número de éstas
para recubrir fotográficamente
un terreno depende de la escala
del fotograma, que a su vez
depende de la altura de vuelo y
la distancia focal de la lente con
que se esté trabajando.
Toma de fotografías aéreas
(López Vergara M., 1978. Manual de Fotogeología. J.E.N. Madrid)
Altura de vuelo: (H) es la altura con respecto al nivel del mar en el momento de la
toma fotográfica.
Distancia focal: (f) es la distancia que existe entre el centro óptico del conjunto
de lentes que componen la cámara hasta el plano del negativo. Se mide en mm y también se
la denomina distancia principal. Variando esta medida es posible obtener fotografías con
distintos ángulos de cobertura. Con respecto a esto, hay que saber que cuanto mayor es el
grado de cobertura, es mayor la deformación de la fotografía aérea.
Nivel de referencia: es el plano sobre el que se proyectan los objetos del terreno
fotografiado. Siempre que se trabaja con fotografías aéreas, se debe establecer un nivel
medio de referencia:
Si el terreno es montañoso, el nivel de referencia va a ser la altura media de ese
terreno.
Si el terreno es plano, el nivel de referencia va a ser la altura de ese terreno
sobre el nivel del mar.
f= distancia focal
n.d.r.= nivel de referencia
n.d.m.= nivel del mar
o= punto focal u óptico
H= altura de vuelo
Ha= altura de vuelo ajustada para un punto a
ha= altura de vuelo acotada para un punto a
Hn= altura de vuelo ajustada para un punto n
(cualquiera)
hn= altura de vuelo acotada para un punto n
(cualquiera)
52
Desplazamiento nadiral: es la deformación
radial que presenta una fotografía debido al sistema de
proyección que se utiliza para generarla. Este se
denomina cónico porque todos los haces de luz que
llevan la información a la película convergen en un punto
común dentro del sistema óptico que va a estar dado
por el foco de dicho sistema. Debido a esto, todos los
puntos de la foto van a sufrir deformaciones, con nadir
La escala de una fotografía se puede calcular dividiendo la distancia focal (f) por la
altura de vuelo ajustada (Hn).
Otra forma de hallar la escala de una fotografía es conociendo la distancia entre dos
puntos del terreno y su medida equivalente en el fotograma.
53
Actividad: Con las
De un vuelo fotogramétrico se conocen los
fórmulas an te riore s ,
siguientes datos:
tra ta d e resolver este
a- Altura de vuelo: 2500 m.
problema.
b- Elevación del punto más alto: 1500 m.
Determinar la altura de vuelo sobre el punto más
alto.
4- Información marginal
Las fotografías aéreas cuentan con una información marginal ubicada en sus laterales.
Los elementos que la componen son:
Marcas fiduciales: normalmente están ubicadas en cada uno de los vértices, aunque
también pueden estar en los puntos medios de los bordes (flechas, triángulos, cruces).
Se las utilizan para señalar el punto principal de cada fotograma.
Nivel de burbuja: indica el grado de horizontalidad que tuvo la cámara en el momento de
sacar la fotografía. Este nivel consiste en cinco círculos concéntricos separados de tal
forma que cada uno de ellos equivalga a un grado.
Reloj: indica la hora en que fue tomada la foto. Una de las utilidades que tiene el reloj es
calcular el norte y la velocidad de móviles (vehículos) teniendo dos fotogramas
consecutivos.
Altímetro o estatóscopo: indica la altura de vuelo en metros y kilómetros. Del triángulo
en color negro que aparece en la parte superior del instrumento, se obtienen los
kilómetros y del cuadrante exterior indicado por una aguja, los metros.
Número de misión, número correlativo de fotografía que obtuvo la cámara desde que
empezó a funcionar y la distancia principal.
xx
xx
mm
54
5- Diferencias entre mapas y fotografías aéreas
Mapas Fotografías
Ortogonal Cónica
Desplazamiento radial de la proyección, con respecto a
dicha vertical.
Tipo de La proyección de los rasgos Hacia el punto central, para los
proyección topográficos coincide con Sentido del objetos que están por debajo del nivel
su vertical de lugar. desplazamiento de referencia.
En sentido contrario, para los que
están por encima del mismo.
Constante para todos los Constante para todos los puntos en caso de terreno llano.
punto s de l m apa ,
Escala independiente del tipo de Variable de un punto a otro, si el terreno es accidentado.
terreno.
Los bordes de las fotos suelen presentar una serie de
distorsiones, dependiendo del tipo de lente con que han
Distorsiones No existen. sido tomadas, tipo de terreno, etc. El aprovechamiento
de la foto queda reducido a su parte central.
(López Vergara M., 1978. Manual de Fotogeología. J.E.N. Madrid)
6- Análisis estereoscópico
Ventajas Desventajas
De lentes o de bolsillo: está Su tam año re d ucid o Las fotografías deben
compuesto por dos lentes convexas y permite trasladarlo fácilmente. ser dobladas para poder
se lo prefiere para el trabajo de Es un producto económico. ser observadas.
campo porque es de un tamaño muy El área de la foto se
reducido, aunque también se lo puede ve de forma parcial.
utilizar en gabinete.
De espejos: consta de un par de Las fotografías pueden Es difícil transportarlo
espejos ubicados en placas laterales, ubicarse debajo de él sin ser de un lugar a otro por su
de un par de prismas y de un dobladas. gran tamaño.
dispositivo de aumento situados en un Se puede dibujar de una Es un producto de
cuerpo central. Tanto los espejos forma bastante cómoda. alto costo económico.
55
como los prismas se encuentran Se tiene una visión más
recubiertos de un baño de plata. A amplia del área de la foto.
éste se lo utiliza preferentemente en El trabajo es m ás
gabinete. descansado para la vista.
Punto principal: (Pp) es el punto central de una fotografía. Siempre se lo señala con
una cruz de 1 x 1 cm en el centro de la foto, luego de unir marcas fiduciales opuestas.
fotobase
Fotobase: es la unión del punto principal con el punto transferido de una foto.
Representa a la escala del fotograma, la distancia entre dos tomas sucesivas. El trazado de
la fotobase es necesario porque permite ordenar las fotografías aéreas siguiendo la línea
de vuelo del avión, ya que si se unen todas las fotobases, lo que se obtiene es el recorrido
del avión. Además es importante para poder ubicar las fotografías debajo del
estereoscopio.
Base aérea: es la distancia real que existe entre dos tomas de foto. Se puede
decir que es la fotobase llevada a medidas reales.
Una buena visión estereoscópica requiere tener en cuenta los siguientes aspectos:
56
a- Entre una fotografía y la consecutiva debe existir un 60% de superposición.
b- Entre corrida y corrida fotográfica tiene que haber un 20% de superposición.
c- Conocer la base instrumental del estereoscopio a utilizar. Esta es la distancia a la que
se tienen que ubicar los puntos homólogos de ambas fotografías aéreas debajo de los
lentes o espejos del estereoscopio. Hay que destacar que esta medida es para cada
instrumento. Aproximadamente, para un estereoscopio de espejos grande, la base
instrumental es de 22 cm y para uno de lentes, es de 7 cm.
d- La relación base aérea/altura de vuelo no debe ser mayor al valor de 2 ni inferior a 0,02.
Una buena visión estereoscópica se puede conseguir con un valor que oscile alrededor de
los 0,6.
e- Los ejes que contienen a los puntos principales de las dos fotografías aéreas deben
pertenecer a un mismo plano.
f- Las sombras de los objetos tienen que dirigirse hacia el observador porque en caso
contrario se produce un efecto denominado pseudoscopía, lo que implica ver el relieve
invertido (lo que es alto se ve bajo).
7- Fotointerpretación
57
En líneas generales, para realizar una fotointerpretación se tienen que tener en
cuenta lo siguiente:
Una vez obtenidos los fotogramas, se los pueden utilizar para conformar otros
productos visuales, como:
Fotoíndice: se las utiliza para poder observar si el vuelo fue efectuado correctamente,
es decir si no han quedado zonas sin cubrir y que la superposición en cada una de las
fotos es la correcta. Además permite seleccionar las fotos de la zona que queremos
trabajar con más exactitud. Estas se realizan a escala 1:50.000 aproximadamente.
58
Asignatura: Teledetección
Unidad Temática Nº V
“Imágenes satelitales”
59
III Año BOCS
2001
60
Unidad temática: Imágenes satelitales
63
1- Sistemas de teledetección espacial
La decisión de poner en órbita este satélite dirigido al estudio de los recursos fueron
las fotografías tomadas por los astronautas que anteriormente habían orbitado la Tierra en
los proyectos Géminis y Apolo. Luego se buscó un sistema que permitiera la recolección de
datos y su transmisión sin que la plataforma tuviera que volver al planeta.
64
Estos modifican su fisonomía y sus
características orbitales. La altura de vuelo
se reduce a 705 km, aunque se mejora el
ciclo de recubrimiento, realizándose cada 16
días al tardar 98 minutos cada órbita.
65
1.1.2- RBV (Return Beam Vidicom)
Este sistema vidicón actuaba como un instrumento auxiliar del sensor MSS al
mejorar la calidad visual de la imagen. Constaba de dos cámaras pancromáticas de alta
resolución, ya que lo que se pretendía era mejorar la resolución espacial. Cubría la misma
porción que el MSS, pero con una resolución aproximada de 40 m. Sin embargo, fue dejado
de ser utilizado en los satélites de la segunda generación Landsat.
66
de un lugar determinado.
En la parte inferior de una imagen aparecen las letras T correspondiente a las TM, y
la M perteneciente a las MSS, el número de bandas y los colores que utilizan para formar el
falso color compuesto.
67
1.2- Sistema de satélites Spot
El sensor que lleva el satélite Spot se denomina HRV (Haute Resolution Visible= Alta
Resolución Visible), que no es un barredor multiespectral sino un sensor por empuje. En
este equipo se elimina el espejo oscilante y el panel de células fotosensibles es el que capta
directamente la energía que proviene de la superficie terrestre. Al no tener un sistema
barredor, le asegura una vida útil más larga y menor cantidad de errores al no sufrir
desgastes las piezas que lo componen. Esta tecnología permite aumentar la resolución
espacial del sistema respecto a los barredores convencionales.
Este sensor puede captar imágenes en modo pancromático y multibanda (verde, rojo e
infrarrojo cercano) con una resolución espacial de 10 y 20 m, respectivamente. Este no
puede trabajar en más de tres bandas porque al tener 10 o 20 m de resolución recibe
mucha información y a veces no la puede elaborar.
Las Spot también tienen paths y rows pero varían con los de las Landsat. En éstas los
paths se indican con la letra K y los rows con la J y el centro de la imagen no coincide con el
curce de estos elementos sino que está desplazado.
68
que el satélite cuenta con miras móviles que le permiten captar no sólo la escena que está
exactamente debajo de él sino que puede obtener imágenes de sectores laterales a su
órbita. Estas áreas se reducen en el ecuador porque las órbitas tienden a separarse, y
aumentan hacia latitudes altas porque las órbitas tienden a juntarse. De esta manera, a la
altura del ecuador el satélite puede registrar una misma escena desde ocho órbitas
distintas mientras que hacia los polos, puede registrar una misma zona desde once órbitas
diferentes.
Este proyecto desarrollado por la Agencia Espacial Europea (ESA) puso en órbita el
satélite ERS-1 en 1991, con los siguientes sensores:
La imagen que brinda el ERS-1 tiene una ancho de 100 km y está separada a 250 km
de la órbita del satélite (path) y un largo de 200 a 300 km, distancia que puede ser
seleccionada desde la Tierra.
El satélite ERS-2 fue lanzado en abril de 1995 y cuenta con dos nuevos sensores:
69
Estos dos satélites trabajan de manera conjunta, recorriendo la misma órbita, pero
separados en el espacio, de tal manera, que pasarán sobre un mismo lugar con diferencia de
un día.
Un hecho que afecta en mínimo grado al radar, son las condiciones climáticas porque
en general, este sensor puede traspasar coberturas nubosas, dependiendo también de la
longitud de onda que se utilice, ya que cuanto más larga sea ésta, mayor penetración
tendrá, pudiéndose llegar a atravesar cobertura vegetal y algunos centímetros de la
superficie del suelo. La elección de la longitud de onda para trabajar depende del estudio
que se quiere realizar, por ejemplo, los geólogos por el suelo utilizan la banda L y los
biólogos por el follaje, las bandas X y K.
70
2- La carta de imagen satelital
Corrección radiométrica: permite resaltar los detalles mediante el empleo de filtros para
su mejor visualización.
Corrección geométrica: permite relacionar la imagen con el terreno, a través de un
sistema de proyección. Se podría decir que se superponen la carta topográfica con la
imagen. Por lo tanto, es posible medir distancias y calcular perímetros y/o superficies.
3- Interpretación de imágenes
A la hora de interpretar una imagen, una vez obtenida la misma, hay que decidir el
tipo de tratamiento se le va a realizar, es decir, digital o visual. Para ello hay que tener en
cuenta los siguientes factores:
71
Hay que tener en cuenta que ambos métodos se complementan. El tratamiento digital
permite realizar operaciones complejas, muy costosas o inaccesibles al análisis visual. Por
su parte la interpretación visual resulta una buena alternativa para actualizar cartografía
existente o realizar inventarios a escalas medias.
En esta unidad se va a dar pautas para realizar un tratamiento visual de las imágenes.
3-1-Interpretación visual
Las imágenes que ofrecen los sensores remotos ofrecen demasiada riqueza de
información, por lo cual es aconsejable llegar a la fotointerpretación y no quedarse
solamente en la fotolectura.
Para lograr un buen análisis visual de las imágenes se deben tener en cuenta los
siguientes elementos:
Tono: hace referencia a la intensidad de energía recibida por el sensor para una
determinada banda del espectro. Es el que aporta contraste a la imagen.
72
Color: es muy importante al momento de interpretar una imagen porque una en colores
no es igual a una en blanco y negro. Además el ojo humano está más capacitado para
diferenciar colores que para distinguir tonos de grises.
Textura: significa el grado aparente de rugosidad que presentan los objetos en las
imágenes. Se trata de textura cuando en un conjunto de objetos, los mismos no pueden
ser diferenciados individualmente. Esto se produce porque la escala del documento no lo
permite, es decir que depende en gran medida de la escala. Por ejemplo: en una
fotografía aérea de una zona urbana a escala 1:20.000 se pueden diferenciar las
manzanas y las calles. Esa misma ciudad vista en una imagen satelital a escala 1:50.000,
no permite diferenciar elementos dentro del sector urbano y las manzanas aparecen
como puntos, uno a continuación del otro. En este caso se trata de textura.
73
Asignatura: Teledetección
Autoevaluación
Unidad Nº 4
a- óptico-electrónico.
b- óptico-mecánico.
c- óptico-químico.
a- pancromáticas y color.
b- verticales y oblicuas.
c- pancromáticas y falso color.
5- El paralaje es:
74
Unidad Nº 5
a- óptico-químico.
b- óptico-mecánico.
c- óptico-electrónico.
2- Los sensores de los satélites de la primera generación Landsat son:
a- MSS y RBV.
b- MSS y TM.
c- MSS y SAR.
4- La fotolectura es:
75
Clave de correcciones
Unidad Nº 4
5-c- La distancia entre el punto más alto y más bajo de un objeto, proyectada sobre la
fotobase.
Unidad Nº 5
76