Vous êtes sur la page 1sur 308

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.

Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

El cuadro adjunto sintetiza la fuerza relativa y el alcance de los cuatro campos de fuerza
fundamentales del Universo. En el caso de la gravedad y el electromagnetismo (campos
potenciales ambos), como es sabido, la fuerza disminuye en relación inversa con el cuadrado de la
distancia. Las fuerzas Nuclear Fuerte y Débil sólo actúan a escala del núcleo atómico: la primera
mantiene unidos a los protones y neutrones (formados por quarks) contrarrestando al
electromagnetismo, y la segunda es responsable de fenómenos como la desintegración beta, que
actúa sobre los leptones (electrones, positrones, neutrinos).
Tras la unificación de las fuerzas electromagnética y nuclear débil, hecha por el paquistaní Abdul
Salam y el estadounidense Steven Weinberg en 1964, muchos físicos han estado trabajando para
hallar el vínculo entre éstas y la Nuclear Fuerte y, objetivo más complejo aún, el vínculo con la
gravedad para unificar en una única gran teoría a toda la física del universo. Al momento del Gran
Estallido o Big Bang, inicio del espaciotiempo y de la entropía, se presume que todas las fuerzas
estaban indiferenciadas. Teorías como la de las Supercuerdas con supersimetría intentan
comprender estos conceptos fundamentales de toda la física.
En lo que a nosotros atañe, la geofísica se las arregla bien con las cuatro fuerzas principales
disjuntas. De hecho, en algunos métodos estudiamos magnetismo y electricidad como fenómenos
separados, o analizamos las perturbaciones sísmicas en forma separada de la gravedad, a la cual en
última instancia se remite, o la radioactividad sin reparar en las fuerzas electromagnética y nuclear
débil, y a la geotermia sin analizar que en esencia es también un fenómeno electromagnético.
Vayamos entonces al abordaje de la geofísica. La propuesta es navegar virtualmente la Tierra
buscando el impulso de favorables fuerzas físicas. Desde el espacio, por aire, agua y
sumergiéndonos en el interior sólido del planeta que habitamos.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

“Standing on the shoulders of Giants” Isaac Newton

LA CIENCIA GEOFÍSICA

La Geofísica (etimológicamente, del griego, naturaleza de la Tierra) es la ciencia que estudia los
campos físicos vinculados a nuestro planeta. Es decir, que estudia la Tierra mediante métodos de la
física, de carácter indirecto, a fin de conocer su evolución y características actuales (geofísica
pura) y también como herramienta de prospección de recursos (geofísica aplicada). Pueden
medirse directamente los campos físicos naturales (gravedad, magnetismo, radioactividad,
geotermas, etc.) o generarse campos artificiales por emisión de electricidad, energía sísmica, etc.,
para así obtener mediciones más efectivas a los fines exploratorios.
Algo de Historia:
En la antigua Grecia encontramos los primeros estudios rigurosos sobre la Tierra y el cielo, que
aparecen también después en otras civilizaciones (Chinos, Mayas, etc.), destacándose Eratóstenes
de Cirene quien a finales del siglo III a. C. calculó con escaso error el radio terrestre, así como la
distancia de la Tierra al Sol y la inclinación del eje planetario.
El conocimiento de la Tierra se aceleró desde el Renacimiento. El término geofísica es empleado
inicialmente por Julius Fröbel en 1834 y otros autores en años siguientes, pero aparece publicado
por vez primera en Alemania gracias a Adolf Mühry en 1863: “Beitraege zur Geophysik und
Klimatographie”, y luego nuevamente en 1887 en el “Handbuch der Geophysik” de S. Günther.
Si bien hubo algunas exploraciones geofísicas informales ya desde la alta Edad Media, el primer
aparato específico de prospección geofísica data de 1879, el magnetómetro de los alemanes Thalen
y Tiberg, con el que exitosamente buscaron yacimientos de hierro. Y la primera cátedra de
geofísica se debe a Emil Wiechert, en 1898 en Göttingen, Alemania.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

Observatorio Maya en Chichén Itzá (México) y primera página de Mundus Subterraneus. de A. Kircher,
publicado en 1664, libro que tuvo gran influencia en las primeras teorías sobre el interior de la Tierra.

“DESARROLLO DE LA GEOFÍSICA:
“Muchos de los contenidos científicos de la Geofísica son tan antiguos como la ciencia misma. Esto no
es de extrañar, ya que la Tierra es el primer laboratorio en el que se realizan observaciones y al que se
aplican las teorías científicas. Muchas de las disciplinas que componen hoy la Geofísica extienden sus
raíces hasta los orígenes de las ciencias en la Antigüedad. Entre los antiguos griegos de los siglos III y IV
a. de C., como, por ejemplo, Eratóstenes y Aristóteles, por sólo citar a dos, se encuentran ya cálculos
geodésicos del tamaño de la Tierra y discusiones sobre el origen de los terremotos. La Geofísica moderna
se desarrolla a la par de la ciencia en los siglos XVI Y XVII con Galileo, Gilbert, Newton, Halley, etc., y
progresa juntamente con ella en los siglos XVIII y XIX. Sin embargo, el término «Geofísica», de acuerdo
con W. Kertz, aparece por primera vez en 1863 en el tratado de Adolf Mühry Beitraege zur Geophysik und
Klimatographie. Georg van Neumayer, en 1871, define la Geofísica como el conocimiento de las relaciones
físicas de la Tierra. En 1880, el profesor de Geografía de Kónisberg Karl J. Zoeppritz define más
concretamente la Geofísica como aquella parte de las ciencias de la Tierra que trata del estudio de la
actividad de las fuerzas físicas responsables del origen, evolución y estructura de la Tierra. La Geofísica
para él llena un vacío existente en las ciencias de la Tierra que entonces constituían la Geografía y la
Geología
“Antes de la generalización del término «Geofísica», los contenidos de esta ciencia se designaron con
otros nombres. A. G. Werner, que procedía de la minería y geología, utiliza en 1755 el término
«Geognosia», y mucho antes, en el siglo XVII, J. Zahn y A. Kircher utilizaron el de «Geoscópica». Alejandro
von Humbolt, al que se le considera como uno de los padres de la Geofísica moderna y cuya influencia en
esta ciencia fue muy grande, utilizó el término «Physikalische Geographie» (Geografía Física) y Franz
Neumann el de «Physik der Erde» (Física de la Tierra). A finales del "siglo XVIII v principios del XIX, fuera
del ámbito germano, en Francia, encontramos el uso del término «Theorie de la Terre» (Teoría de la
Tierra) por De la Metherie y el de «Physique du Globe» (Física del Globo) por Saigey, término este último
que sigue usándose en la actualidad. En Inglaterra, el profesor de Cambridge W. Hopkins introduce en
1838 el término "Physical Geology» (Geología Física) para designar la ciencia que trata de los aspectos
fisicomatemáticos de la Geología
“Como resume Kertz, al final del siglo XIX, la Física había perdido el interés por la Tierra, para la
Geología los métodos de la Geofísica le eran extraños y sus temas demasiado generales y algo parecido le
sucedía a la Geografía. Esta situación justificaba el nacimiento de una ciencia separada con un nombre y
contenido específico, la Geofísica. Esta ciencia queda consagrada definitivamente a finales del siglo XIX

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

con el texto de S. Günther Handbuch der Geophysik, publicado en 1887, con la primera revista
especializada creada en 1893 por G. Gerland, Beiträge zur Geophysik, y con la primera cátedra de
Geofísica establecida en 1898 en la Universidad de Gottingen y que ocupó Emil Wiechert.
“La tendencia a unificar en una sola ciencia, a la que finalmente se dio el nombre de Geofísica, los
aspectos fisicomatemáticos de los fenómenos relacionados con la Tierra encuentra desde sus principios el
problema de establecer su relación con dos ciencias más antiguas, la Geografía y la Geología. Ya Günther
en el prólogo de su obra se extiende en este sentido sobre el significado de la Geofísica y su carácter físico
en contraste con el carácter más descriptivo de la Geografía y el limitado a los materiales directamente
observables en la superficie de la Tierra y en pequeña escala de la Geología. Sin embargo, la separación
entre Geología y Geofísica no es tan clara al principio, como lo demuestran la obra de E. Suess Das Anlitz
der Erde, y M. Neumayr y E. Suess, Erdgeschichte. que tratan igualmente temas de ambas ciencias.
“Otro problema es la relación entre la Geofísica y la Geodesia, ciencia con una larga tradición y
vinculada en muchos aspectos a la Astronomía. Sobre este asunto hay muchas opiniones, aunque se suele
vincular a la Geofísica la parte de la Geodesia física y Gravimetría.
“Hemos visto que el inicio de la Geofísica como una ciencia independiente se realiza en la tradición
alemana desde la Física y las Matemáticas y de una manera un tanto desligada de la Geología. Esta
desconexión se agudiza en cierta manera durante la primera mitad de este siglo, durante la cual las
interrelaciones entre ambas disciplinas fueron escasas. Esta situación es algo distinta en Estados Unidos,
al estar en muchas universidades la Geofísica integrada en un mismo departamento junto con la Geología.
El contacto entre ambas disciplinas es, en efecto, muy necesario. La parte de la Geofísica que trata de la
Tierra sólida necesita del conocimiento detallado de las capas superficiales que aporta la Geología, y su
interpretación de la evolución temporal de las estructuras, y la Geología a su vez necesita de la Geofísica,
si no quiere anclarse en una interpretación meramente cualitativa y descriptiva de los fenómenos
geológicos. El geólogo, que estudia una región muy concreta, necesita relacionar sus observaciones con
procesos tectónicos y estructuras más amplias y profundas cuya información le aporta la Geofísica.
Afortunadamente, la tendencia actual es la de un acercamiento de ambas disciplinas, al acentuarse la
matematización y el empleo de métodos físicos en el estudio de los problemas geológicos. Baste mencionar,
entre otros, la determinación de las edades de estratos y fósiles por métodos radiactivos, el uso del
magnetismo remanente de las rocas para determinar el movimiento relativo de bloques de la corteza
terrestre y el empleo, cada vez más frecuente, de los métodos geofísicos al estudio de los estratos y
formaciones geol6gicas. Por otra parte, al enfrentarse la Geofísica con problemas cada vez más concretos
de la estructura y dinámica de la corteza terrestre, necesita para la interpretación de sus observaciones la
información de los estudios geológicos, un gran impulso a esta cooperación interdisciplinar se ha logrado
con los proyectos internacionales Geodinámico y de la Litosfera en los que entre 1970 y 1990 se aunaron
esfuerzos de todas las disciplinas de las ciencias de la tierra para abordar problemas relacionados con la
estructura y dinámica de litosfera, corteza y manto superior de la Tierra. Es muy posible que con el tiempo
la separación tan rígida entre Geofísica y Geología desaparezca en beneficio de unas ciencias de la Tierra
unificadas, en las que las distintas metodologías científicas tengan su aplicación al estudio de los
fenómenos relacionados con la Tierra.”
(texto extraído de Udías y Mezcúa, 1997, p. 19-22)

Ciencias Afines:
Lógicamente, la Geología y la Física son las ciencias más estrechamente vinculadas con la
Geofísica. En menor grado, también la Geoquímica es una ciencia afín. Ahora bien, en su
definición en sentido amplio están incluídas en la geofísica disciplinas a veces consideradas
independientes, como Aeronomía, Meteorología, Oceanología, Hidrología u otras que se vinculan
con la geología como Geodinámica y Tectonofísica. La Planetología y la Astrofísica pueden, a su
vez, considerarse emparentadas o hasta todavía más amplias, inclusivas de la Geofísica.
En su definición en un sentido más restringido están comprendidas la Gravimetría (conectada con
la Geodesia), la Magnetometría (con Geomagnetismo y Paleomagnetismo), la Geoelectricidad, la
Sismología y dos disciplinas también vinculadas con la geología: Radiometría (incluyendo
Geocronología) y Geotermia (relacionada a la Vulcanología).

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

En todas ellas existen vertientes puras y prospectivas, a veces de difícil discernimiento, las cuales
se comparan a continuación:
Geofísica Pura Geofísica Aplicada
Gravimetría (con Geodesia) Prospección Gravimétrica
Magnetometría (con Geo y Paleomagnetismo) Prospección Magnetométrica
Geoelectricidad Prospección Geoeléctrica
Radiometría (con Geocronología) Prospección Radiométrica
Geotermia (con Vulcanología) Prospección Geotérmica
Sismología Prospección Sísmica
(Refracción y Reflexión)
El Perfilaje de Pozos es una subdisciplina común a cada metodología geofísica, y ha tenido un
enorme desarrollo principalmente a partir de los requerimientos de la exploración y explotación de
hidrocarburos.
“DIVISIÓN DE LA GEOFÍSICA:
“Uno de los problemas de una ciencia tan amplia como la Geofísica es el de establecer un criterio
racional para su división. Si en un principio era fácil el considerarla como una única ciencia, el desarrollo
de los últimos años hace cada vez menos posible el abarcar tanto los campos en los que se ha ido
subdividiendo como la diversidad de los métodos que en cada uno de ellos se utilizan. No solamente los
distintos campos de la Geofísica se van independizando cada vez más, sino que se van creando otros
nuevos, necesitándose así de nuevas divisiones, como es el caso del Paleomagnetismo, la Geocronología y
la ciencia del interior de los planetas. Este último tema, el estudio del interior de los planetas, su estructura
y dinámica, su atmósfera y su sismicidad, posibles ya gracias a los viajes espaciales, ha planteado la
cuestión de hasta qué punto la Geofísica se refiere sólo a la Tierra.
“Manteniéndonos de momento en el estudio de la Tierra, su mismo objeto impone sobre la Geofísica
una cierta unidad. Todos los procesos y estructuras localizadas desde el centro de la Tierra, hasta el límite
exterior de la Magnetosfera, son objeto de estudio de la Geofísica. Una de las primeras divisiones
propuestas por Gutenberg en el prólogo del libro Lehrbuch der Geophysik, publicado en 1929, se basa en
los distintos campos de la Física que se aplican a la Tierra sólida, los mares y la atmósfera. La Geofísica
queda de esta forma dividida en capítulos de Mecánica, Gravitación, Electricidad, Magnetismo, Óptica.
Calor y Composición de la Materia. Más extendida que esta división es la que se basa en una serie de
distintas disciplinas que se han ido formando en el seno de la Geofísica. No existe unanimidad de criterios
para esta división, y algunas disciplinas forman ciencias con entidad propia, como la Geodesia y la
Meteorología. Una división incluyendo estas materias es la siguiente:
Geodesia y Gravimetría.
Sismología.
Geomagnetismo y Aeronomía.
Oceanografía física.
Meteorología.
Geodinámica.
Geoquímica y Volcanología.
Planetología
Prospección Geofísica

“Parecida a esta división es la propuesta por la Unión lnternacional de Geodesia y Geofísica (IUGG)
para sus secciones:
Geodesia.
Sismología y Física del interior de la Tierra.
Meteorología y Física de la atmósfera.
Geomagnetismo y Aeronomía.
Ciencias físicas de los océanos.
Hidrología científica.
Volcanología y Química del interior de la Tierra.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

Corte esquemático de la
envoltura gaseosa
de la Tierra.

“La Unión Geofísica Americana (AGU) añade a estas divisiones las de Paleomagnetismo, Tectonofísica,
Planetología y Física solar e Interplanetaria. Es difícil, por tanto, el dar una división única y algunas de
estas disciplinas, como la Geoquímica o la Física interplanetaria, parecen quedar un poco fuera del ámbito
de la Geofísica. Por otro lado, algunas disciplinas se han desarrollado hasta formar casi ciencias
separadas, como pueden serlo la Oceanografía y la Meteorología
“Una parte importante de la Geofísica la constituye su aplicación a la búsqueda de recursos minerales, es
decir, lo que se suele llamar Geofísica aplicada o Prospección geofísica. La existencia de esta rama ha
llevado a establecer una primera división de la Geofísica en pura y aplicada. Tanto la división como los
términos empleados no son muy afortunados. No está claro por qué el solo interés económico hace de una
ciencia que sea pura o aplicada. Este planteamiento lleva a situaciones un tanto absurdas. Por ejemplo, la
refracción sísmica para el estudio de la estructura de la corteza terrestre pertenece a la Geofísica pura,
mientras que si se aplica a la búsqueda de petróleo, pertenece a la aplicada. Naturalmente, no se puede
ignorar que la Geofísica aplicada a la búsqueda de minerales se ha convertido en una disciplina en sí
misma con sus revistas especializadas y sus asociaciones internacionales
“Otra división de tipo muy general y que se ha utilizado, sobre todo en Francia, es la de Geofísica interna

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

y externa. La primera trata de los fenómenos relacionados con la Tierra sólida., dejando para la segunda
los de la atmósfera, océanos, campo magnético externo, medio interplanetario. etc. En realidad, todas las
divisiones tienen un poco de arbitrarias, ya que es muy difícil poner límites a unas disciplinas con respecto
a otras. No se puede buscar. por tanto, una racionalidad completa en la definición di todo lo que se ha de
incluir en la Geofísica y cómo se ha de dividir ésta. Por ejemplo es difícil decidir si el estudio del medio
interplanetario o de la actividad del Sol debe pertenecer a la Geofísica o a la Astrofísica. Muchas veces las
inclusiones y divisiones tienen un peso histórico y no corresponden a una clasificación puramente
metodológica. El problema, además, no es excesivamente importante y podemos dejarlo a la interminables
discusiones de los congresos de las asociaciones científicas.”
(texto extraído de Udías y Mezcúa, 1997, p. 22-23)

La Anomalía:
Es el concepto central de la geofísica prospectiva (del latín prospicere, examinar). De lo que se
trata es de registrar, procesar y graficar la respuesta dada por distintos campos físicos en las áreas
de potencial interés exploratorio o de desarrollo de recursos. Y entonces buscar los sectores de
valores anómalos respecto al fondo local o regional e interpretarlos en términos geológicos a fin de
determinar los sitios de interés económico.
La búsqueda de anomalías se hará, antes que nada, evaluando información previa de las
potenciales áreas a prospectar, para comenzar allí donde las condiciones geológicas y/o de
factibilidad económica sean a priori más promisorias. Cuando se ha definido el área, se establece el
mallado de mediciones, sea que tales mediciones se hagan a lo largo de trayectorias predefinidas
(paralelas entre sí, o formando una cuadrícula, o cualquier otra figura que se considere oportuna) o
bien si son puntos más o menos distantes ubicados según las facilidades geográficas de la zona.
Usar una malla más fina o más gruesa -es decir, hacer mediciones más cercanas o más lejanas
entre sí- dependerá indirectamente de la escala del trabajo -por cuestiones prácticas y de costos-
pero fundamentalmente dependerá del tamaño mínimo de las anomalías de interés. En otras
palabras, la red es más cerrada o abierta según sea el tamaño del pescado que queremos capturar.
Una vez hecho el registro o adquisición de los datos de campo (mediciones físicas,
posicionamiento y eventualmente otros) se harán los cálculos correctivos que constituyen el
procesamiento necesario para homogeneizarlos, es decir hacerlos comparables, y poder entonces
graficarlos para finalmente hacer su interpretación en términos geológicos y eventualmente de
recursos potencialmente explotables.
Los datos pueden presentarse en forma de perfiles de pozo (datos esencialmente unidimensionales
en el eje z ó 1D, salvo componentes de desviación horizontal del pozo), cortes (también llamados
secciones verticales, transectas, calicatas o perfiles, en este caso bidimensionales en x, z, ó 2D),
mapas (o secciones horizontales, que también son datos 2D pero llevados a un plano horizontal x,y
en lugar de vertical), o volúmenes de información (tridimensional ó 3D, en x, y, z). Y también
cualquiera de los anteriores incorporando la variable de cambio temporal, esencialmente allí
donde se está explotando un recurso y los registros físicos se modifican en función de la
disminución de dicho recurso, por lo que en todos los casos se agrega la dimensión temporal: por
ejemplo un volumen (3D) pasa a un delta de volumen (4D, con x, y, z, t).
Las curvas que unen puntos de igual valor de la magnitud física relevada se denominan
isoanómalas, aunque no necesariamente estemos en presencia de una anomalía significativa. Y los
perfiles o cortes o mapas o volúmenes son denominados genéricamente gráficas de anomalía
gravimétrica, magnética, radiométrica, de velocidades sísmicas, etc.
La prospección geofísica suele hacerse sobre la superficie terrestre, pero también dentro de pozos,
o puede ser marina (o lacustre o fluvial), aérea e incluso satelital, dependiendo de las
limitaciones inherentes a las magnitudes físicas a medir -por ejemplo, la radioactividad medida
sobre el mar es casi nula o las ondas sísmicas pierden sus propiedades distintivas al entrar al aire- y
también según sean las tecnologías disponibles y sus costos.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

Prospección aeromagnética y mapa resultante en perspectiva.

Es muy importante tener en cuenta que distintas realidades del subsuelo pueden producir
semejantes anomalías geofísicas, lo que hace indispensable la cuidadosa evaluación de todos los
antecedentes geológicos, geoquímicos, de pozos, de otros métodos geofísicos, etc.

“PROSPECCION GEOFÍSICA:
“La tecnología geofísica, es decir, la aplicación de los conocimientos que brinda la Geofísica en favor
de la humanidad, es lo que se denomina "prospección geofísica". Esta sería, a primera vista, un conjunto
de técnicas físicas y matemáticas aplicadas a la exploraci6n del subsuelo; para la búsqueda y posterior
estudio de yacimientos, de sustancias útiles (petróleo, aguas subterráneas, minerales, carbón, etc.) por
medio de observaciones en la superficie de la Tierra de las propiedades físicas de los materiales en el
interior de la misma.
“Los métodos geofísicos pueden detectar solamente discontinuidades o sea regiones donde las
propiedades físicas de las rocas difieren considerablemente de las otras zonas. Esto, que parecería ser una
desventaja, resulta una limitación universal ya que el hombre no puede percibir lo que es homogéneo en su
naturaleza, sino que reconoce únicamente lo que tiene alguna variaci6n o discontinuidad en el tiempo y en
el espacio.
“Esas variaciones, denominadas "anomalías" son las que evidencian estructuras o acumulaciones de
sustancias útiles que tienen valor económico. Por eso, el objetivo de los métodos geofísicos es ubicar las
anomalías más que descubrir el mineral buscado. Para el geofísico tienen más interés las desviaciones
respecto al valor normal de las propiedades que el valor absoluto de las mismas. La mayoría de las
interpretaciones geofísicas se llevan a cabo con el propósito de determinar la geología profunda por el
análisis de las anomalías, pero en muy pocas ocasiones se busca el mineral directamente.
“Si se considera a la Geofísica como el estudio de los campos físicos ligados a la Tierra, resulta evidente
que la Prospección habrá de apoyarse en la primera, que le brindará la información que necesita sobre
tales campos. Pero a su vez, la primera necesita aplicar los métodos de la segunda para la resolución de
problemas puramente teóricos.
“El primer paso en el uso de la Geofísica con fines prácticos se dio en 1843 cuando se postuló que el
teodolito magnético; un instrumento de laboratorio usado para medir variaciones de la declinación (ángu-
lo que forma la dirección al norte magnético con el norte geográfico), podía usarse en el descubrimiento de
vetas de minerales magnéticos. Hace poco más de un siglo (1879) se construyó el primer instrumento para
ser usado en la prospección de mineral de hierro. Pero, si bien la prospección minera fue la primera
aplicación práctica de los conocimientos brindados por la geofísica, los avances más espectaculares y
rápidos son producto de la prospección petrolera. Desde que en 1924 se descubrió petróleo por primera
vez en un pozo ubicado por medios geofísicos (sísmica de refracción), la actividad en la prospección
geofísica se ha expandido a una velocidad extraordinaria. Esto es un resultado lógico de la competencia
creciente como así también del desafío cada vez más fuerte que representan los depósitos que faltan
descubrir ya que los yacimientos más fáciles de hallar son progresivamente descubiertos y explotados.
“La demanda del petróleo y minerales ha llegado a su pico y como las nuevas fuentes que pueden ser
halladas con medios geológicos convencionales son cada vez más escasas, salvo en los rincones más
alejados de la Tierra, la carga principal de hallar las futuras reservas descansa sobre los geofísicos.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

“RESUMEN DE LOS MÉTODOS DE PROSPECCIÓN GEOFÍSICA


“Los métodos de exploración geofísica usados en la búsqueda de minerales o fluidos en el interior de la
Tierra pueden c1asificarse según los siguientes grupos principales, de acuerdo a cuál sea:
GRAVIMÉTRICO
MAGNETOMÉTRICO
ELÉCTRICO
SÍSMICO
RADIOACTIVO
PERFILAJES EN POZOS
“Si bien este ú1timo grupo combina una serie de técnicas cuyos fundamentos residen en alguno de los
otros grupos, merece ser considerado como punto separado por la importancia que reviste.
“La e1ecci6n de una técnica o de un conjunto de las mismas para localizar un determinado mineral está
condicionada por su naturaleza y la de las rocas que lo rodean. En muy pocos casos el método que se haya
e1egido puede indicar directamente la presencia del mineral buscado. Por lo general, lo que se consigue,
aun con un buen programa de exp1oraci6n, son indicios si se dan o no las condiciones para la existencia
del mismo.
“El rango de problemas que pueden ser encarados con estos métodos es muy amplio y va desde los
estudios de carácter regional que cubren grandes áreas, a los trabajos de detalle que pueden requerir
diferentes mediciones en un mismo punto.
“Por otro lado, considerando que diferentes condiciones geo1ógicas están asociadas a los yacimientos
metálicos y a los yacimientos de hidrocarburos, resulta 1ógico que la exp1oraci6n minera se 11eve a cabo
en áreas favorables a la existencia del mineral que se está buscando. Así, 1a búsqueda de minerales
metalíferos se concentra generalmente en áreas en las que se sabe que hay rocas ígneas y metamórficas. A
su vez, la exploración para carbón, petróleo y gas se confina a las cuencas sedimentarias, excepto en las
raras situaciones en que el petróleo y el gas pueden migrar a rocas ígneas y metamórficas fracturadas.
“Los costos son también muy variados. Por lo general, los métodos más económicos son aquellos que
permiten la registración en un avión o barco, con lo que se consigue rápidamente un recubrimiento areal
grande. En términos generales puede decirse que del total invertido en exploración geofísica, el 90 % se
invierte en prospección petrolífera, mientras que el 10% restante se invierte en proyectos mineros o de
ingeniería.”
(texto extraído de Apuntes del I.S.E.P., 1982, p. 15-18)

Conformación del interior


de nuestro planeta,
a la luz de la geofísica.

Utilización de los Métodos Geofísicos:


Para alcanzar los objetivos, además de los medios disponibles, es fundamental basarse en todo el
conocimiento previo (geología superficial, datos de pozos, geoquímica, etc.), en la objetividad y en
el trabajo interdisciplinario.

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

Las condiciones que favorecen o aconsejan el empleo de los métodos geofísicos tienen que ver, en
primer lugar, con la insuficiente información obtenida por métodos más directos, como la
geología de superficie, la información desde perforaciones o la geoquímica, entre otros,
insuficiencia que puede deberse a escollos técnicos o bien a costos excesivos. En segundo lugar,
con la existencia de respuestas físicas medibles en función de los prospectos de interés
geológico, sean éstos de índole económica o puramente académica. En tercer lugar, con la
factibilidad de resolución técnica práctica en la ejecución de el o los métodos potencialmente
útiles. Y naturalmente, en cuarto lugar, en las ecuaciones de costos (gastos o inversiones) y de los
potenciales beneficios, o sea la relación costo/beneficio.
Ahora bien, dadas la primera condición general y la segunda para varios métodos con respuestas
comparables, serán las posibilidades de abordaje práctico de la problemática a resolver y las
diferentes alternativas de costos versus beneficios las que permitirán tomar la decisión de emplear
uno u otro método geofísico, con tal o cual modalidad, o varios de ellos en forma complementaria,
o ninguno. La relación costo/beneficio estará siempre presente, incluso cuando el beneficio no sea
netamente económico sino más bien cualitativo en términos de un conocimiento buscado por su
importancia científica o el prestigio académico. Gastamos más (recursos técnicos, mano de obra,
esfuerzos, tiempo) cuando creemos poder ganar más, apostamos más cuando el premio es mayor o
bien mayor es la probabilidad de ganarlo.
Actualmente más del 95% de la inversión mundial en estudios geofísicos está vinculada con
actividades petroleras y cerca del 90% del gasto en geofísica corresponde a prospección sísmica y
acústica. Estos porcentajes son atinentes también al impacto ambiental de los distintos métodos
geofísicos, mucho más crítico en el caso de la sísmica dado su mayor despliegue de recursos.
“EL PAPEL DE LA GEOFÍSICA EN LA PROSPECCIÓN DE MINERALES:
“(…) El estudio de la interrelación tanto en espacio como en tiempo de las diferentes rocas, el
comportamiento en el pasado de éstas, segÚn deducciones, el estudio de los minerales en las rocas
ordinarias y en las menas -dicho más brevemente, la aplicación de la geología y de la mineralogía- pueden
restringir aún más la zona de prospección. Sin embargo, el área puede ser todavía demasiado grande para
que las labores de exploración o cateo, tales como excavaciones y perforaciones, sean prácticas y
económicas, por lo que son deseables nuevas restricciones. Además, tanto la geología como la mineralogía
dependen de la existencia de afloramientos de rocas, pero no siempre se dispone de éstos. Si existen, puede
que no sean 10 suficientemente abundantes para que la situación de los yacimientos pueda predecirse con
certeza razonable. Por otra parte, aunque las formaciones metalizadas sean bien conocidas, los
yacimientos pueden hallarse ocultos a profundidad menor o mayor por debajo de la superficie accesible
para el estudio directo geológico o mineralógico. En realidad, este caso se da muy frecuentemente en la
prospección moderna, ya que los yacimientos aflorantes han sido descubiertos desde hace mucho tiempo y
en muchos casos están agotados. El papel del examen geo16gico de la superficie, pierde importancia con el
desarrollo de la industria minera.
“Este es el momento en que la Geofísica -la aplicación de la Física al estudio de la Tierra- entra en escena.
Los yacimientos suelen diferir en sus propiedades físicas (susceptibilidad magnética, conductividad eléctri-
ca, densidad, etc.) respecto de las rocas que los rodean. Observando adecuadamente las variaciones de las
propiedades físicas del terreno, y mediante cuidadosa interpretación de los resultados, podremos eliminar
extensas zonas como de escasa probabilidad para contener menas de ciertos tipos específicos, y encauzar
investigaciones más detalladas sobre zonas reducidas y concretas.
“La elección de la zona inicial para el estudio geofísico, se hace frecuentemente tomando como guía
consideraciones geológicas. Las porciones que la Geofísica puede eliminar son, en términos muy
generales, aquellas dentro de las cuales la propiedad física relevante del terreno no presenta variaciones
significativas (anomalías), mientras que deben escogerse para ulterior investigación las zonas que
muestran variaciones apreciables que puedan atribuirse razonablemente a cuerpos del subsuelo que
difieren en dicha propiedad respecto de las rocas encajantes. En este sentido, la prospección de menas es
una prospección directa, en contraste con la prospección petrolera, que es indirecta. En la prospección de
petróleo no podemos aprovechar ninguna propiedad física del mismo petróleo, sino que hemos de buscar
estructuras geo16gicas capaces de actuar como almacenes petrolíferos.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

“Con sólo datos geofísicos no puede decidirse si los cuerpos por ellos señalados corresponden o no a
yacimientos mineros. No obstante, la combinación de estos datos con datos geo1ógicos e información de
otro tipo, así como con la experiencia previa, permite con frecuencia escoger algunas de las indicaciones
como las que presentan mayor probabilidad de estar causadas por la mena buscada. Las costosas labores
de exploración, tales como perforaciones, calicatas y pozos, únicas capaces de dar la prueba definitiva de
la existencia del mineral, pueden concentrarse en esos pocos lugares. Además, la interpretación detallada
de las anomalías geofísicas suministra frecuentemente estimaciones confiables acerca de la profundidad,
longitud, anchura, posición, etc., más probables, de los cuerpos anómalos. Estos datos proporcionan ayuda
para el establecimiento de programas de explotación racionales y económicos para la estimación del
tonelaje y valor del posible yacimiento y para la toma de decisiones sobre su explotación.
“Así, la finalidad primaria de la Geofísica en la prospección es la de separar zonas que aparecen como
estériles de las que presentan posibilidades de contener yacimientos. Puesto que los yacimientos mineros
son accidentes relativamente raros, las zonas estériles son naturalmente más abundantes que las
prometedoras, y los resultados de la mayoría de las prospecciones geofísicas serán negativos
(correctamente) como ocurre también con la mayor parte de las prospecciones geológicas. Por
consiguiente, el éxito de una prospección geofísica bien ejecutada no puede medirse por el número de
metalizaciones que ha descubierto, ni por el número de sondeos mecánicos que han cortado mineral, sino
por el tiempo, esfuerzo y dinero que la prospección ha ahorrado al eliminar terrenos que, en caso
contrario, habrían debido ser desechados por el empleo de métodos más costosos. (…)
“Una prospección puede ser considerada como satisfactoria, aunque no se haya obtenido ninguna
indicación geofísica, o aunque en caso afirmativo, no se haya encontrado mineral después de perforación o
calicateo. El criterio y medida del éxito es simplemente el ahorro estimado en los costes, conseguido por la
eliminación de terreno estéril efectuada por medio de la prospección geofísica. (Al estimar este ahorro, el
coste de las labores efectuadas específicamente para comprobar los resultados de la prospección, como
por ejemplo, perforaciones, debe incluirse, como es natural, en el coste de la prospección.) (…)”
(texto extraído de Parasnis y Orellana, 1971, p. 19-22)

Por último, una definición de autor no


identificado, en algún grado verídica, publicada
por la revista de la American Association of
Petroleum Geologists (contraparte natural de la
Society of Exploration Geophysicists):
“A Geophysicist is a person who passes as
an exacting expert on the basis of being able
to turn out with prolific fortitude infinite
strings of incomprehensible formulae
calculated with micrometric precision from
vague assumptions which are based upon
debatable figures taken from inconclusive
experiments carried out with instruments of
problematic accuracy by persons of doubtful
reliability and questionable mentality for the
avowed purpose of annoying and
confounding a hopeless group of fanatics
known as Geologists who are themselves the
lunatic fringe surrounding the hard-working Plataforma petrolera en alta mar.
Oil Operator.”
Intentaremos no molestar demasiado, ni seguir contribuyendo a la confusión del lector, sea éste
estudiante de Geología, de Ingeniería en Petróleo o cualquiera otra fuese su formación previa.
En el peor de los casos, esperamos poder ayudar a conciliar el sueño…

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 1
La Ciencia Geofísica Chelotti, L., Acosta, N., Foster, M., 2009.

CUESTIONARIO BÁSICO
- Dar una definición de geofísica.
- ¿Cuáles ciencias le son afines?
- Comentar brevemente los antecedentes históricos.
- ¿En qué se fundamenta la separación en geofísica pura y aplicada?
- Definir anomalía geofísica.
- ¿De qué depende la densidad del muestreo de datos?
- ¿Qué condiciones favorecen el empleo de estos métodos?

BIBLIOGRAFÍA

- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.18-34). Librería de Ciencia e Industria.
- Parasnis y Orellana, 1971. Geofísica Minera (p.19-35). Editorial Paraninfo.
- Udías y Mezcua, 1997. Fundamentos de Geofísica (p.19-35). Alianza Editorial.
- Varios Autores, 1982. Apuntes del Instituto Superior de Exploración Petrolera (p.15-18).
Yacimientos Petrolíferos Fiscales.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

“Eppur si muove”
Galileo Galilei

PROSPECCIÓN
GRAVIMÉTRICA

La gravimetría estudia las variaciones del campo de la gravedad (del latín gravitas) debido a una
desigual distribución de masas en el interior de la Tierra. Consiste en medir e interpretar las
anomalías que las variaciones de la densidad en el subsuelo generan sobre el campo
gravitatorio terrestre.
La densidad de los posibles minerales del subsuelo ha de ser tenida en cuenta, pero es sabido que
éstos conforman rocas que sólo raramente tienen pesos específicos más o menos homogéneos (el
caso de los carbones, con 1-1,7, calizas con 2,7-2,8 o evaporitas con unos 2,1 g/cm3) mientras que
lo más frecuente es que se combinen en litologías heterogéneas. Rocas muy densas (por ejemplo
metamórficas e ígneas, esta últimas con unos 2,7 si son graníticas y cerca de 3 g/cm3 si son
basálticas) han de provocar mayor atracción gravitatoria, y menor las que tienen baja densidad (en
general las sedimentarias, que en el caso de las clásticas promedian los 2,2-2,4 g/cm3 y de 2 ó
menos si son sedimentos inconsolidados). Además, una misma litología incrementa su densidad
con la profundidad de soterramiento y consecuente aumento de la carga litostática.
Es necesario obtener los valores real y teórico de la aceleración de la gravedad (g) para, por
diferencia, establecer las anomalías. En ese valor teórico deben considerarse los efectos
geográficamente variables debidos a la forma general del planeta (elipsoide de revolución) y su
fuerza centrífuga de rotación. En el valor real entran en consideración también las variaciones de
densidad locales que son el objetivo de la gravimetría prospectiva. Ese valor real puede ser medido
en forma absoluta, respecto al centro de la Tierra y con la mayor precisión posible, o bien en
forma relativa respecto a una referencia local (tantas unidades mayor o menor que el valor
existente en tal sitio).
Esferoide o Elipsoide de Revolución: modelo básico que supone la tierra formada por capas
homogéneas concéntricas y sometida a las fuerzas de la gravedad que tienden a hacerla esférica y a
la fuerza centrífuga que tiende a ensancharla en el ecuador, donde ésta es máxima (siendo nula en
los polos).
Geoide: superficie de equilibrio de los mares de la tierra si éstos pudieran extenderse a través de
los continentes mediante canales imaginarios. Superficie equipotencial correspondiente al nivel de
los mares. Se aparta en más o en menos del elipsoide de revolución según las variaciones de
densidad de la corteza y manto a gran escala.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

Respecto al elipsoide de revolución de referencia, el geoide se aparta un máximo de unos 60 m en


el Atlántico Norte y un mínimo de 90 m al sur de la India.

Una aproximación intuitiva al concepto de gravedad lo encontramos en la obra de Lucrecio (60


a.C.): “De Rerum Natura”, siendo la idea del heliocentrismo incluso anterior: de Aristarco de
Samos en el 270 a.C. Pero, como sabemos, fue el británico Isaac Newton quien definió las leyes
de la gravedad. Partió de las observaciones y conclusiones del polaco Mikolaj Kopernik (en latín
Nicolaus Copernicus, que en 1543 publicó “De Revolutionibum Orbium Caelestium”), del alemán
Johannes Kepler (con sus tres leyes de movimientos planetarios de 1609-1619 en “Epitome
Astronomiae Copernicanae”), del italiano Galileo Galilei (inercia, caída de cuerpos, péndulo,
observaciones telescópicas, en “Discorsi di Due Scienze”, 1633, y otras obras), así como de otros
grandes estudiosos, como reconociera el propio Newton cuando erigió su “Principia Mathemática”
(1687) donde expresó la primera ley:
F = G.m1.m2 / r2
y la segunda: F = m2.g
En 1897 otro británico, Henry Cavendish, inventó la primera balanza de torsión y con ella midió
el valor de la constante G (Gravitación Universal): 6,67.10-11N m2 Kg2.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

Además se definió el Potencial Gravitacional terrestre U(r) = G.mT / r, o sea el valor del campo
potencial de la gravedad (independiente del camino realizado) cuyo cero de referencia es la
superficie del geoide (es decir que vale lo mismo en los polos que en el ecuador).
Y también un Potencial Gravitatorio que toma en cuenta el efecto de la fuerza centrífuga:
-mT.w2.r.cosϕϕ (siendo w la velocidad angular y ϕ el ángulo de latitud).
La derivada del Potencial Gravitacional respecto al radio es la aceleración de la gravedad:
dU =g o, escrito con una notación diferente: dU = Uz
dr dz
donde en realidad también debemos calcular un valor neto que tome en cuenta la fuerza centrífuga.
De modo que resulta g = (G.mT / r2) -mT.w2.r.cosϕϕ
(que naturalmente no es igual en los polos que en el ecuador).
En rigor éstas son expresiones simplificadas,
ya que deberíamos incorporar el término del
irlandés James Mac Cullagh (1839) que resta
el pequeño efecto causado por los momentos
de inercia axial y ecuatorial del planeta,
irrelevante en actividades prospectivas.
El valor de g, que es la magnitud
generalmente utilizada para medir la
gravedad, se expresa en gal (cm/s2). La
gravedad media de la Tierra (9,81m/s2)
corresponde a 981 gal. En la figura se indican
los valores en los polos y el ecuador, así como
la razón de sus diferencias, que se explican
luego.
La unidad habitualmente usada en prospección es el miligal (en ese caso la media terrestre es de
981000 mgal) o bien la unidad gravimétrica (u.g.) que es una décima del miligal.

Otra magnitud medible es el gradiente de g, esto es la derivada de la aceleración en las


direcciones x, y ó z, valores que se miden en eötvös (mgal/km).
Tenemos entonces: dg = dUz =Uzz; dUz =Uzx; dUz =Uzy
dz dz dx dy

ADQUISICIÓN DE LOS DATOS


Metodología de trabajo:
 Ubicación del área a partir de la evaluación de toda la información previa y de la definición
de los objetivos del relevamiento, sean éstos puramente científicos o de prospección de
recursos o ambos.
 Determinación y estaqueo de los puntos tomados como bases (en los que las lecturas

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

gravimétricas se harán dos o tres veces) y las estaciones en torno a esas bases (donde las
mediciones se harán una sola vez). La ubicación de estos puntos ha de conformar una
malla lo más regular posible, más factible en trabajos de pequeña escala y más improbable
en relevamientos regionales donde cerros, lagunas y otros rasgos geográficos pueden
obligar a desplazar u omitir puntos del mallado ideal de datos.
En trabajos aéreos o marinos (o lacustres o fluviales) se definirán las líneas de navegación y el
intervalo de muestreo a lo largo de tales líneas, además de los puntos de atadura entre líneas, en los
que las lecturas habrán de repetirse generando así los puntos base del área de cateo. Las
restricciones podrán deberse a islas, corredores vedados a la navegación, etc.
 Relevamiento topográfico, en el que se realiza la determinación de cotas y distancias
entre las estaciones. Los errores de cierre de los polígonos (altimétricos y planimétricos)
deben ser bien controlados y distribuidos. Su precisión estará ajustada con la precisión de
las lecturas gravimétricas del aparato.
Planimetría, para ubicar las estaciones. Debe considerarse el margen de error en las mediciones
para así calcular a su vez el error probable de g en las correcciones por latitud.
Altimetría, para la ubicación en z. También se calcula el rango de error probable en las mediciones
que se traducirá en errores de g en las correcciones vinculadas con la altitud.
 Relevamiento gravimétrico: es la adquisición de los valores de g (componente vertical de
la gravedad, obtenido con gravímetros) o más raramente de valores de gradiente de la
gravedad (con aparatos llamados gradiómetros).
Si existe cerca alguna base de una red de gravedad absoluta (por ejemplo en Argentina del IGM o
el MOP en la provincia de Buenos Aires, o la red internacional IGSN) existe la posibilidad de
colgar el trabajo de ese valor de precisión geodésica. Sin embargo esto no es necesario en los
trabajos netamente prospectivos, en los que basta con mediciones de gravedad relativa. Tampoco
es condición sine qua non que la base de arranque sea un punto no anómalo, ya que en cualquier
caso la condición de anomalía de gravedad relativa quedará en evidencia al completar la serie de
correcciones de los datos adquiridos.

PROCESAMIENTO DE LA INFORMACIÓN
Es el conjunto de las correcciones que nos permitirán homogeneizar los datos y hacerlos
comparables para su correcta graficación, a fin de poder interpretarlos geológicamente. Se efectúan
según el siguiente ordenamiento.
Correcciones Temporales:
El objetivo es tener valores corregidos que se aproximen a los que hubiéramos obtenido si todas
las estaciones las hubiésemos realizado simultáneamente (y con el mismo instrumento). Las causas
de que las mediciones de g cambien con el tiempo son dos.
o Efecto de Mareas Terrestres (como máximo 0.05 mgal/hr, o sea unos 0,3 mgal en
seis horas). Este cambio en el valor de g es producto de las deformaciones
temporales del geoide (máximo unos 75 cm) causadas por la atracción del sol y la
luna (efecto lunisolar), cuyos valores se pueden obtener de tablas publicadas. Se
registran pleas y bajas cada seis horas, como en el mar.
o Deriva Instrumental: cambio en la lectura del aparato de medición (gravímetro, en
esencia una balanza) debido a la fatiga del resorte -lo que provoca un
comportamiento parcialmente plástico, no completamente elástico- y la eventual
influencia de la temperatura ambiente en su respuesta.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

Para efectuar la corrección temporal puede construirse una gráfica con los datos crudos de campo y
tratar de reconstruir la curva de variación de los dos efectos sumados, como se ve en la figura de
arriba. O bien se suprime primero el efecto de marea terrestre, obtenido de tablas, para después
corregir gráficamente por deriva instrumental, la cual sigue un comportamiento casi lineal.
Entonces, en una gráfica con g en ordenadas y tiempo en abscisas, se construyen segmentos
conectando los datos correspondientes a las lecturas en cada punto base, que se han leído dos o tres
veces (cada vez en un horario distinto), para luego proyectar a dicho segmento los datos de las
estaciones que se han hecho en horarios intermedios en torno a la base de referencia. A su vez el
∆g entre bases se obtiene calculando la diferencia entre cada segmento y el siguiente.
Cuando se cuenta con datos repetidos de muchas bases puede recurrirse a alguna aproximación de
la deriva por el método de los mínimos cuadrados.
Compensación por el método de los polígonos: si luego de corregir por Deriva los valores de
cada estación, al calcular el error de cierre no nos diera cero, lo que se hace es compensar el error
en las diferentes estaciones de forma que cierre al llegar a la primera. Se divide el error por el
número de estaciones.

Correcciones Espaciales:
En este caso el objetivo es tener valores en los que se busca cancelar los efectos latitudinal y
altimétrico sobre las mediciones realizadas. Veamos cada causa y su corrección.
o Latitud: se define el valor de gravedad teórico según el modelo del elipsoide de
revolución -usualmente no se requiere la precisión de un modelo geoidal- debido
principalmente al efecto combinado de fuerza centrífuga (que no es gravitatoria
pero la contrarresta, tendiendo a minimizar el valor de g en el ecuador) y del
achatamiento axial terrestre y su ensanchamiento ecuatorial (originado por la fuerza

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

centrífuga) que provoca en los polos una menor distancia y una menor masa
interpuesta entre la superficie y el centro de la Tierra (y lo contrario en el ecuador).
Donde menor sea el radio terrestre mayor será el valor de g, pero también donde
menor masa interpuesta haya menor será ese valor. En el balance, el efecto de
menor radio es más significativo que el de menor masa interpuesta (como lo indica
la fórmula de Newton, donde el radio está al cuadrado), o sea g resulta mayor en los
polos y esto se magnifica todavía más porque en los polos no hay fuerza centrífuga
que contrarreste el valor de g, resultando en unos 983,2 gal contra 978,0 en el
ecuador. Véase la figura de la página 3.
Esta es la fórmula que da la gravedad teórica para una latitud ϕ en base al
elipsoide de revolución que mejor ajusta el geoide:
g (gal) = 978,0327 (1+0,0053024sen2ϕ-0,0000058sen22ϕ)
Para corregir tenemos presente que la gravedad en ambos hemisferios crece a medida que nos
acercamos a los polos y por lo tanto existe una diferencia normal de gravedad entre las estaciones
y la base debido a las diferencias de latitud entre ellas. En el hemisferio sur la corrección será
positiva para todas las estaciones al norte de la base y negativa para las que están al sur.
En prospección suele bastar con la siguiente aproximación grosera de corrección por latitud:
CL (mgal/km) = 0,8122 sen2ϕ
En la gráfica siguiente se ve los valores que va tomando CL (K) según la latitud.

o Altitud: se modifica el valor de gravedad teórico a nivel local según la altimetría, lo


cual se manifiesta con dos efectos opuestos, llamados de Aire Libre y Bouguer, más
un efecto fino vinculado al segundo (por irregularidades topográficas). Tenemos
entonces:
-Corrección de Aire Libre: de altura o cota respecto a un plano de referencia establecido, sea el
nivel medio del mar (superficie del geoide o nivel equipotencial cero) o cualquier otra altitud de
referencia elegida para uniformar las magnitudes medidas dentro del área de trabajo.
Si el punto medido está por encima del plano de referencia se le suma al valor de la corrección por
aire libre, ya que el campo gravitatorio terrestre decrece con la altura de la estación y h es mayor
que cero en la fórmula. Si el punto está por debajo del plano de referencia se le resta la corrección
por aire libre. Un cálculo aproximado es: CAL = 0,3086 mgal/m
-Corrección de Bouguer (estudiada por Pierre Bouguer, 1740): debido al efecto gravitacional de
la masa interpuesta entre el punto de medición y el plano de referencia y suponiendo para el
cálculo una losa horizontal infinita de espesor h igual a la diferencia de cotas. Debe tenerse en
cuenta también la densidad media de dicha losa ideal.
Esta corrección debe restarse del valor de g medido si la estación está situada por encima de la
base y sumarse si está por debajo. El signo de la CB es opuesto al de la CAL.
Aproximamos CB = 0,0419 δ mgal/m (siendo δ la densidad en gr/cm3)

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

De modo que para calcular la CB se debe conocer la Densidad de la Roca entre cada punto
estación y el Plano de Referencia (Datum), que se puede obtener por:
Métodos directos:
*Midiendo peso y volumen de muestras de material no consolidado colocado en un cilindro
de volumen conocido.
*Pesando en el aire y en el agua la muestra, recubierta con parafina, aplicando la fórmula
de Arquímedes, donde: δ = Peso en el aire / Empuje (es decir, peso del fluido desplazado)
Las muestras pueden ser de afloramientos o pozos, pero pueden dar valores algo distintos
que los de roca virgen soterrada y en general no son representativos de la densidad media
en el conjunto de roca considerado, por lo cual raramente se emplean sólo estos métodos y
más bien se recurre a ellos como modo de cotejar con los métodos indirectos.
Métodos indirectos:
*el método más utilizado es el del estadounidense Lewis Nettleton (1939). Consiste en
seleccionar en la zona de trabajo un área que involucre un alto y un bajo, medimos valores
de g en cada uno de los puntos y los corregimos altimétricamente, asignándole distintos
valores tentativos de densidad. (Previamente ya hemos corregido por deriva y por latitud.)
Con valores bajos de densidad la corrección resulta deficiente y la curva acompaña la forma de la
topografía; el efecto de la cota es
predominante y el de la masa es
despreciable.
Si la densidad elegida es alta la
corrección resulta excesiva, la g
está influenciada por la masa
interpuesta antes que por la cota,
y se invierte el diagrama.
Para un valor próximo al real se
elimina por completo el efecto
del relieve, se utiliza un valor de
densidad que tiende a hacer
lineal la anomalía gravimétrica.
En el gráfico adjunto es el caso
de 2,5 g/cm3.

*Un método alternativo es el de Siegert (1942), con relieve ondulado, el cual se resuelve
mediante aplicación de mínimos cuadrados entre diferencias de cotas y de gravedades
observadas.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

*Y otro método menos usado es el de Legge (1939), también mediante mínimos cuadrados.
Se denomina Corrección Altimétrica a la suma (con su signo) de la corrección de Bouguer y la
de Aire Libre. Siempre que elijamos un plano de referencia por debajo del punto estación la
corrección altimétrica es positiva. CALT = CAL - CB
-Corrección Topográfica: se debe a un efecto menor relacionado con el de Bouguer, tomando en
cuenta la influencia lateral respecto al punto de medición, función de los excesos o deficiencias de
masa dados por las irregularidades de la topografía local. Acá también debe considerarse la
influencia de la densidad media.

Cuando existe una elevación lateral al punto corregido, la componente vertical (z) del tirón lateral
ascendente desde el centro de masa de la elevación no había sido considerada en la corrección de
Bouguer (losa horizontal infinita), de modo que ahora lo consideraremos sumando una magnitud
de corrección, ya que la elevación lateral nos disminuyó el valor medido.
Cuando existe una depresión lateral, durante la corrección de Bouguer hemos asumido que allí
había masa -depresión rellena-, es decir que, como parte del efecto de la losa horizontal infinita,
hemos restado la componente vertical (z) de ese tirón lateral descendente. Pero tal tirón no existía
porque allí no hay masa, o sea que la CB fue implícitamente sobredimensionada, por lo cual
restamos de más y ahora tenemos que devolver la diferencia, es decir sumar una magnitud de
corrección volviendo las cosas a como fue originalmente medido.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

La corrección topográfica resulta siempre positiva. Para calcularla recurrimos a plantillas como la
ilustrada en la gráfica de arriba, tomando la cota promedio de cada compartimiento, calculando el
∆h respecto al punto central (que se corresponde con un dato gravimétrico) y aplicando una
fórmula de ajuste o bien resolviendo mediante el uso de ábacos.
CT = Gδφ [(r2-r1) + (r12 +∆h2)1/2 – (r22 +∆h2)1/2], donde φ es el ángulo de cada sector en radianes.

 Determinación de la g observada corregida de todas las estaciones: es el resultado de


aplicar la suma de las correcciones aplicadas, también denominada reducción de la gravedad al
elipsoide. Podrá ser un valor de gravedad absoluto o bien relativo a una referencia de trabajo local.
gc = gob + Deriva + CL + CAL + CB + CT
 Determinación de valores de anomalía de Bouguer: si hemos trabajado con valores de
gravedad absoluta, será la diferencia entre la g observada (y corregida, o sea gc) y la g teórica que
se obtiene de la fórmula que hemos visto para un elipsoide de referencia (página 6). Es el objetivo
de los estudios geodésicos y su origen se encuentra en las variaciones de densidad de la corteza
terrestre, sobre todo en su porción más superficial.
∆g = gc –gT
Pero también llamamos anomalía de Bouguer a los ∆g de gravedad relativa respecto de alguna
referencia local que consideremos “normal”, situación típica en la inmensa mayoría de los trabajos
de prospección, donde no se han medido valores absolutos de g.

 Confección del Mapa de Isoanomalias o de Anomalía de Bouguer: graficación de


curvas que unen puntos interpolados de iguales valores de anomalía de Bouguer (curvas
isoanómalas), que permite visualizar arealmente las anomalías encontradas durante la
prospección. También pueden construirse Perfiles de Anomalía de Bouguer a partir de datos
mapeados o bien desde datos registrados directamente a lo largo de cortes o transectas
individuales.

INTERPRETACIÓN GRAVIMÉTRICA
Se trata de poner en términos de significado geológico -y eventualmente económico- los datos
graficados. Debe tenerse siempre presente la importantísima dependencia de la distancia vertical y
lateral entre el punto de medición y la masa anómala, y también que hay infinitos diferentes
modelos del subsuelo que pueden producir similares respuestas gravimétricas, tal como se ilustra.

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

Por esto es fundamental la evaluación de toda la información geológica conexa, así como de pozos,
de otros métodos geofísicos, etc. Y pueden considerarse dos encuadres:
Interpretación Cualitativa: descripción de anomalías, relación con estructuras.
Interpretación Cuantitativa: volumen, profundidad, masa.

 Filtrado y separación de las componentes residuales y regionales de gravedad


Las anomalías observadas son la suma de los potenciales de anomalías someras, intermedias y
profundas. La interpretación deberá iniciarse separando los diferentes efectos. El procedimiento de
separación de anomalías consiste en la separación del efecto regional (más suave y de mayor
amplitud o baja frecuencia).
De acuerdo a lo que nos interese prospectar separamos lo regional de lo residual; por ejemplo
si sólo nos interesa conocer la distribución del basamento no nos importa el efecto residual, por lo
tanto lo filtramos.

La separación de anomalías puede hacerse por:


-Métodos gráficos: que se basan en el conocimiento de las anomalías locales y de la

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

geología regional por parte del intérprete. Una forma es el método de suavización de
curvas y otro es la construcción de perfiles de gravedad.

-Métodos analíticos: donde se elimina el efecto regional por análisis de la derivada


segunda, media aritmética, mínimos cuadrados, método de Griffin, transformada de
Fourier, etc.
g residual = g Bouguer - g regional
Método de la derivada segunda:
mediante la aplicación de la segunda derivada de la gravedad sobre los datos mapeados o en perfil
logramos resaltar significativamente todo aquello que sea de origen somero o residual, respecto a
los efectos regionales o profundos.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

Método de Griffin:
desarrollado por el estadounidense Carroll Griffin (1949) parte de tomar, dentro de un mapa de
anomalía de Bouger, un punto del que naturalmente conocemos el valor de la g de Bouguer (es
decir la g observada con todas las correcciones ya vistas). Trazamos un círculo con centro en dicho
punto y se considera que el regional es el promedio de los valores de la gravedad en los
alrededores de la estación. Una vez obtenido el regional, el residual es la diferencia entre la
gravedad de Bouguer y la gravedad regional. El tamaño del círculo ha de ser función de lo que
interpretamos por regional y residual. Un círculo demasiado chico nos dará una g regional casi
igual a la g de Bouguer que ya tenemos y por lo tanto la g residual será prácticamente nula. Un
círculo excesivamente grande producirá una g regional casi nula y en consecuencia la g residual
será semejante a lo que nos muestra el mapa de anomalía de Bouguer desde donde partimos.

Método de Continuación:
se basa en plantear matemáticamente la medición del campo potencial gravitatorio de un área ya
relevada a niveles sucesivamente más elevados (continuación ascendente) o más profundos
(continuación descendente), en este último caso sólo válido por encima de las masas anómalas.
Los resultados son mapas de anomalías más suaves en el primer caso o más agudas en el segundo,
asimilables a componentes regionales o residuales, respectivamente. Este método analítico es muy
bueno para mejorar la resolución de anomalías de Bouguer resultantes de la intersección de los
efectos de dos masas rocosas del subsuelo.

Método de la Transformada de Fourier:


emplea el instrumento matemático desarrollado en la Francia napoleónica por Joseph Fourier
(1822). Mediante su aplicación aproximamos el perfil o mapa de anomalías mediante una serie de
funciones armónicas (seno, coseno) de distintas longitudes de onda y distinta amplitud cada una,
transfiriendo así la información al dominio de los espectros de amplitudes. Allí separamos con
algún criterio práctico lo que vamos a considerar componentes regionales o profundas (de larga
longitud de onda o pequeño número de onda) y residuales, someras o locales (de corta longitud de
onda o gran número de onda), para finalmente volver al dominio original -haciendo la
antitransformada de Fourier- representando datos separados (ya sea regionales o bien residuales)
en mapas o cortes según los criterios aplicados. Esto se esquematiza en la siguiente página.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

 Anomalía Isostática:
Es un cálculo especial, no de rutina, sólo aplicado en casos de estudios regionales de la
gravedad, donde el conjunto de la corteza terrestre queda involucrado en un objetivo de
investigación geofísica profunda. Se compara la gravedad medida (con todas las correcciones
previas aplicadas) con aquella que correspondería a una situación de corteza equilibrada
isostáticamente según un modelo elaborado particular (basado en el modelo conceptual del
británico George Airy, 1855). La diferencia entre ambos conjuntos de datos es la corrección
isostática, o sea el grado de desequilibrio isostático (flotacional) de la región en el sentido del
estadounidense Clarence Dutton, 1889.
La gráfica de anomalía isostática se asemeja en parte a la de anomalía de Aire Libre (producto
de aplicar todas las correcciones hasta la de cota, pero no la de Bouguer). Cuando esta última es
aplicada a escala de la corteza se está desequilibrando el cálculo, al quitar las antirraíces (el relieve
sobre el nivel del mar) que tiende a equilibrarse isostáticamente con las raíces corticales profundas.
Las causas del desequilibrio isostático en la naturaleza pueden ser muy variadas: sobrecargas
corticales todavía no compensadas por raíces, como por ejemplo en grandes acumulaciones
deltaicas o estructuras volcánicas recientes como los puntos calientes (hot spots). O también
cortezas descargadas rápidamente -en términos geológicos- por fenómenos erosivos o por
deglaciación, tal el caso de la Patagonia, actualmente en ascenso isostático.
La fórmula general de Airy es: Z(δ δs – δc) = H. δc
(Z es la profundidad bajo el nivel de compensación, H la cota sobre el nivel del mar, δc la densidad
media de la corteza terrestre y δs la densidad subcortical)

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

 Interpretación y comparación de las anomalías observadas con formas sencillas:


Algunos de los criterios de interpretación son la intensidad, agudeza, resolución y forma de las
anomalías. La intensidad está dada por el contraste de densidades con las rocas del entorno, así
como por el tamaño y la profundidad de la masa anómala. La agudeza suele vincularse a la
profundidad del rasgo geológico, tanto más agudo el mapa o perfil cuanto más somero es el
emplazamiento anómalo. La resolución tiene que ver con la capacidad de la información graficada
para definir la separación en subsuelo entre dos anomalías parcialmente superpuestas en mapas o
cortes. La forma nos da información sobre la configuración geológica de las anomalías, como el
caso de pliegues o diques alargados, chimeneas volcánicas o diapiros más o menos circulares, etc.
El objetivo es la determinación de las dimensiones, forma y profundidad de emplazamientos
gravimétricamente anómalos. Una estimación sencilla, aunque no precisa, de la profundidad del
techo de la masa de densidad anómala se basa en medir el ancho medio (el ancho medido en la
mitad del ∆g anómalo) y multiplicarlo por 0,6. Es decir, Z w 0,6 ancho medio.
A veces los valores altos de g están asociados con los núcleos de los anticlinales o bloques
elevados (pilares), ambas alternativas representan una aproximación de rocas densas a la
superficie. En otros casos los valores altos están relacionados con la presencia de cuerpos
intrusivos ígneos (que pueden tener distintas mineralizaciones) o de coladas yacentes en el
subsuelo. Las zonas con gradientes fuertes se deben al contacto entre rocas con distinta densidad,
como ocurre en los planos de falla.
También existen anomalías negativas debidas a la presencia de rocas poco densas, como los
núcleos de los sinclinales, diapiros halo o tectocinéticos, etc. El conocimiento de la geología
regional y la estructura del área ayuda a desechar alternativas que podrían dar una solución a la
respuesta gravimétrica obtenida.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

Por otro lado, si sabemos que


la anomalía se debe a un
cuerpo que, por ejemplo,
fuera más o menos cilíndrico
verticalmente y conocemos el
contraste de densidades con
las rocas que lo rodean, es
posible determinar su
profundidad y el radio y
longitud de esa masa que se
puede asimilar a una
chimenea volcánica u otras
formas de emplazamiento
geológico. Es lo que se llama
inversión del método.
Igual procedimiento se aplica
a otras formas geométricas
simples (esferas, prismas y
otros como puede verse en la
figura adjunta, algunas
resolubles mediante ábacos,
como el de abajo), o bien a
geometrías más complejas,
recurriendo a métodos de
integración de volúmenes de
formas poliédricas más o
menos elaboradas, como se
ejemplifica en la gráfica de
la siguiente página.

15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

Finalmente, un método de inversión avanzado es el de la Deconvolución: serie de operaciones


matemáticas empleadas en restauración de señales, para recuperar datos que han sido alterados por
un proceso físico. Proceso que, en nuestro caso, representa al portador de la información del
subsuelo, esto es, el campo físico (en este caso gravitatorio) que se “convolucionó” con la
anomalía de densidad. La deconvolución es la operación inversa a la convolución que realmente
ocurrió en la Tierra, es decir, la modificación del campo de gravedad por la masa rocosa anómala.
De manera que con el proceso matemático de deconvolución -que veremos con más detalle en
sísmica- intentamos construir el modelo de aquella estructura geológica que se convolucionó con
la gravedad para dar la anomalía de Bouguer medida y graficada.

CUESTIONARIO BÁSICO

- ¿En qué se diferencian campo y potencial gravitatorio?


- ¿Qué es la gravedad teórica y qué la gravedad absoluta?
- Fundamentar las diferencias entre la gravedad en el ecuador y en los polos del planeta.
- ¿Qué efecto astronómico aparece incluído en las mediciones para deriva instrumental?
- Explicar la corrección altimétrica.
- ¿Puede la corrección topográfica ser positiva o negativa?, ¿por qué?
- ¿Cómo se aplica el método de Nettleton?
- ¿Qué métodos separan gravedad regional de local?
- Explicar por qué las anomalías residuales son las más agudas.
- ¿Qué es la anomalía isostática?
- ¿Cuál es la utilidad de los modelos gravimétricos?

16
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 2
Prospección Gravimétrica Chelotti, L., Acosta, N., Foster, M., 2009.

BIBLIOGRAFÍA

- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.35-100). Librería de Ciencia e Industria.
- Fowler, C., 1990. The Solid Earth (p.169-189). Cambridge University Press.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.148-179). Editorial Paraninfo.
- Lowrie, W., 1997. Fundamentals of Geopysics (p.29-81). Cambridge University Press.
- Parasnis y Orellana. 1971. Geofísica Minera (p.227 -281). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration
Geophysicists.
- Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.37-139). Alianza Editorial.

17
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

INSTRUMENTAL
Y APLICACIONES
GRAVIMÉTRICAS

Mediciones de Gravedad Relativa:


Los primeros trabajos de prospección fueron realizados con balanzas de torsión, como la de
Eötvos, que medían el gradiente de la gravedad -por lo cual eran aparatos llamados gradiómetros-
y también en esos tiempos se utilizaron péndulos, si bien de operación lenta -más apropiados para
mediciones absolutas-, de los cuales el más utilizado fue el de Henry Katter (1917).
Pero desde principios de la década de 1930 se han utilizado los gravímetros, que miden
directamente pequeñas variaciones de la componente vertical (z) de la gravedad relativa, respecto a
una referencia o base principal, sobre la base de que m.g = k.h (k es la constante del aparato y h el
desplazamiento vertical). En verdad la prestación de las balanzas de torsión era superior, pero la
mayor rapidez de los gravímetros, con aceptables resultados, pesó especialmente en las actividades
de exploración hidrocarburífera.
Gravímetros Estables:
En éstos el cambio de la longitud del muelle se mide directamente por medio de una
amplificación (óptica, mecánica o eléctrica), ajustándose nuevamente al punto central
mediante un tornillo y leyendo las divisiones debidas a la variación de la longitud del
muelle, es decir al cambio de g. Prácticamente dejaron de usarse hace décadas. Algunos
ejemplos son el Hartley, con un sistema de amplificación mecánico-óptica, y el Gulf, con
amplificación de tipo óptica.
Gravímetros Inestables o Astáticos:
Desarrollados en 1934 por Lucien La Coste y Arnold Romberg (pero comercializado en
escala sólo después de la Segunda Guerra Mundial) consta de una masa suspendida
inestablemente a través de un brazo lateral, tal que para determinado valor de g la masa se
encuentra en equilibrio. Basta un pequeño cambio de g para que se abandone el equilibrio y
esto se traduzca en desplazamientos relativamente grandes. Posee dos resortes principales,
uno para los ajustes de las mediciones como en los estables y otro para suspender el
sistema, el cual es llamado resorte cero (zero length spring) ya que no se modifica su
posición durante la operación. Algunas marcas conocidas, cada una con varios modelos,
son Thyssen, La Coste-Romberg, Worden, Sodin, Canadian y otras.
Como se mencionó antes, el material de los resortes (inicialmente metálicos, actualmente de
cuarzo) genera una deriva (en inglés, drift) que es necesario determinar. La deriva es la variación
que experimentan las lecturas en una misma estación con respecto al tiempo. Se debe a
deformaciones no perfectamente elásticas del sistema (fatiga), inevitablemente variante respecto al

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

resorte ideal, más otras variaciones por la temperatura y perturbaciones que eventualmente sufre
un instrumento durante su trabajo.
Aquí podemos ver ilustraciones de distintos tipos de gravímetros.

Existen diseños de gravímetros adaptados para ser bajados a fondos marinos (La Coste, 1952, con
mando remoto), también para trabajar desde barcos o también desde aviones (ya desde los años
’60), o para pozos petroleros (Gilbert, Edcon, etc., que se mantienen verticales sin importar la
inclinación del pozo), todos construidos según el principio de los gravímetros astáticos. Existen
asimismo versiones avanzadas para mediciones satelitales, y hasta fue enviado a la Luna un
diseño especial de La Coste, en 1972.
También han surgido recientemente gravímetros de Resorte Vibrante con un sistema de registro
electromagnético y otros que funcionan por Levitación Magnética de un imán sobre un campo

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

inducido a través de
una bobina, los que
constituyen la base
de los modernos
desarrollos en curso.
A la derecha se ilustra
el diseño básico de
cada uno de ellos.

Gradiómetros:
Empleados también para mediciones de gravedad relativa. Los más antiguos, desde fines del
siglo XIX, fueron las Balanzas de Torsión, modificadas de la balanza original de Cavendish,
siendo la más utilizada la desarrollada por el húngaro Lorand von Eötvös (1886), para medir
directamente la pendiente o gradiente de la gravedad. Ésta consta de dos masas iguales
suspendidas de brazos a distintas alturas y con posibilidad de rotar en conjunto para situarse
en la dirección de máximo gradiente horizontal de la aceleración gravitatoria.

A partir de 1970 empezaron a usarse Gradiómetros Modernos, conformados por tres pares de
gravímetros ensamblados en las direcciones x, y, z, inicialmente para navegación submarina,
reemplazando al sonar durante la Guerra Fría. Posteriormente comenzaron a ser empleados
también para prospección marina principalmente petrolera ya que, si bien muy costosos, brindan
respuestas superiores a la de los gravímetros que sólo miden la componente z de la gravedad. Van
montados sobre plataformas girocontroladas y con acelerómetros que permiten corregir los efectos
provocados por los movimientos de la embarcación. La aplicación más habitual se relaciona con la
presencia de diapiros halocinéticos que entrampan hidrocarburos en los reservorios de sus flancos.
Estas figuras ilustran sobre la gradiometría moderna.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

Mediciones de Gravedad Absoluta:


Péndulos: Basados en el sincronismo de su período descubierto por Galileo Galilei, fueron
los primeros instrumentos usados y aún se los emplea. El período T = 2π/√L/g (siendo L la
longitud del péndulo ideal, aproximadamente igual a k, constante del sistema real).
(Como se mencionó, algunos péndulos también fueron utilizados hace un siglo para prospección.)
Aparatos de Caída Libre: Desarrollados en las últimas dos décadas, miden la gravedad por
caída de un cuerpo en un receptáculo en vacío (otra idea original de Galileo), haciendo las
determinaciones mediante instrumental electrónico de alta precisión y recordando que la distancia
vertical h = (1/2)g.t2 (siendo t el tiempo de caída).

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

Gravímetro Superconductor o Criogénico: De desarrollo reciente, consiste en una esfera


hueca suspendida en un campo magnético generado por un toroide superconductor enfriado por un
compresor de helio. Usado para mediciones absolutas y monitoreo fino de mareas y sismos.

APLICACIONES GRAVIMÉTRICAS
Como ya fue en parte mencionado, existen anomalías de Bouguer negativas -siempre en términos
relativos respecto a una referencia zonal- allí donde hay sinclinales, domos evaporíticos, etc. Los
altos gravitacionales, en cambio, pueden presentarse si hay rocas ígneas intruyendo una secuencia
sedimentaria, o bien donde tengamos anticlinales -porque en su núcleo las rocas más antiguas,
generalmente más densas, se acercan a la superficie-, o bien en otras diversas conformaciones
geológicas. Los objetivos pueden vincularse al estudio de la geología regional con variados fines
prospectivos y aun investigaciones corticales de gran magnitud, como el siguiente ejemplo alpino.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

En algunos casos la adquisición de los datos es un mallado terrestre de gran escala, o bien
transectas generalmente perpendiculares a los principales rasgos tectónicos. Desde hace ya muchos
años, como se dijo, la gravedad puede ser registrada tanto desde barcos como aviones, si bien con
alguna disminución en su precisión pero útil a los fines regionales, a veces con gravímetros y otras
veces con gradiómetros, que son más costosos pero brindan información de excelente calidad.
Desde barcos o aviones es importante tener una navegación lo más pareja posible y evitar
aceleraciones que generarían ruidos en las lecturas, si bien es posible recurrir a acelerómetros que
permiten compensar esto. Desde el aire se trata de seguir líneas de vuelo rectas a altura constante,
más o menos paralelas entre sí y, como en otras modalidades, aproximadamente normales a las
estructuras, con algunas líneas de atadura en sentido perpendicular al antedicho. Finalmente, como
también se mencionó, existen registros satelitales con fines fundamentalmente geodésicos.

Arriba tenemos los


mapas de anomalía de
Bouguer y residual de
los Estados Unidos,
generados a partir de
la integración de
muchos relevamientos
individuales. Se pueden
apreciar los valores
negativos sobre el
orógeno que está
actualmente activo (las
Rocky Mountains) y

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

valores positivos sobre las raíces exhumadas de un orógeno antiguo (los Apalaches). Puede verse
que el mapa residual quita estos elementos regionales muy profundos y realza rasgos relativamente
más someros.
Abajo un relevamiento típico, en una cuenca sedimentaria del noroeste argentino.

El primera figura a la izquierda en la página siguiente es la interpretación de una transecta a escala


cortical, desde las Sierras Cuyanas de Argentina al Pacífico en Chile. La anomalía de Bouguer está
descompensada por la ya citada eliminación metodológica de las antirraíces (el relieve) y la
anomalía de Aire Libre -sin supresión de la masa interpuesta que configura las antirraíces- da, en
cambio, un resultado más semejante al de la anomalía Isostática, de modo que se la puede tomar
como una primera aproximación si no se tiene la oportunidad de calcular el desbalance isostático.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

Los mapas a la derecha muestran precisamente la relativa similitud entre la anomalía de Aire Libre
y la Isostática modelada a escala continental (D.Chapin,1996; Geophysics).

Pero además existen otras diversas aplicaciones de la gravimetría a menores escalas, como el
ejemplo de la figura de aquí arriba, en la cuenca Austral: un maar (cráter freatomagmático) con
una intrusión ígnea subvolcánica visible en la sísmica de reflexión y en el perfil de detalle de la
anomalía de Bouguer generada por el contraste de densidades.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

Otras aplicaciones de escala reducida son las hidrogeológicas (basamentos de acuíferos, etc.), las
medioambientales (como ser la detección de piletas de petróleo o basurales tapados), también las
referidas a trabajos de exploración arqueológica (por ejemplo construcciones con bloques densos
yaciendo bajo sedimentos ligeros) o para fundaciones en ingeniería civil (rocas de base para
diques, puentes, etc.), en algunos casos con mediciones de altísima precisión en un área muy
reducida, como el ejemplo siguiente.

 Gravimetría Aplicada a la Prospección de Hidrocarburos:


La prospección gravimétrica ha sido muy utilizada en las primeras etapas exploratorias de las
cuencas sedimentarias, dado que brinda buenas imágenes de la forma de las cuencas, sus
variaciones de espesor y la conformación de sus principales estructuras que pueden eventualmente
configurar trampas de hidrocarburos, tal como se ve en el ejemplo de la Fosa de Tucumán. La
mayor proximidad a la superficie del basamento -o de rocas densas en general- se expresa en
aumentos de la aceleración de la gravedad y por lo tanto de la anomalía de Bouguer observada en
mapas y cortes. A la inversa, con mayor profundidad del basamento -o rocas someras de baja
densidad- tenemos anomalías de Bouguer negativas respecto a la referencia regional.
En cuencas exploratoriamente más maduras, ya sea marinas o continentales, la gravimetría puede
ayudar a resolver modelos del subsuelo allí donde la sísmica de reflexión u otros métodos
geofísicos no dan buena respuesta, por ejemplo bajo domos salinos relativamente complejos o bajo
intrusiones ígneas o coladas de gran espesor. También puede ser una ayuda -siempre económica- si
existen sobrecorrimientos de rocas densas sobre otras más modernas y los altos buzamientos

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

dificultan la iluminación de la
sísmica. Como asimismo han sido
utilizadas las mediciones de
gravedad en áreas donde no se ha
podido registrar sísmica, por
ejemplo áreas pobladas o zonas de
reserva, tanto sea mediante
adquisición terrestre como en la
variante aérea. O también con
mediciones terrestres pero con
facilidades de transporte por
helicóptero, tal como se ilustra a la
derecha.
A escala local, con mediciones de
precisión, también se pueden
obtener resultados afinados que
pueden ser muy útiles si se
los interpreta mediante modelos
apropiados, recurriendo siempre a la separación de componentes someras, profundas y
eventualmente intermedias de la gravedad, conceptos que son relativos según la escala que
estemos manejando. La componente profunda de un estudio de impacto ambiental (ejemplo piletas
de petróleo mal tapadas) puede ser la más somera posible a nivel del estudio de una cuenca.
 Perfilaje Gravimétrico de Pozos:
Como ya se comentó, la gravedad puede medirse directamente a través de un perfilaje en un
sondeo petrolero, como también minero o para otros fines. Existen las herramientas apropiadas
(gravímetros de pozo) si tal información se considera de interés para la exploración o el desarrollo
de yacimientos. Pueden emplearse en pozos incluso horizontales y son muy útiles en cuencas con
presencia de rocas con densidades sensiblemente contrastantes, las cuales se pueden obtener con
mayor precisión que con otras herramientas geofísicas, como el perfil radiactivo de Densidad.
Abajo, foto y esquema de un gravímetro de pozo, y comparación de un perfil de pozo con otro de
gravimetría superficial.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 3
Gravimetría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009.

La siguiente gráfica muestra esquemáticamente los registros gravitatorios de caída de la densidad


en perfil debido a un emplazamiento lateral evaporítico a diferentes distancias:

CUESTIONARIO BÁSICO
- Señalar instrumental usado para mediciones absolutas
- ¿Qué tipos de gravímetros existen y dónde se los puede utilizar?
- ¿Cuáles son las ventajas y desventajas de los gradiómetros?
- ¿Qué información brindan los gravímetros de pozo?
- Dar ejemplos de aplicaciones petroleras y no petroleras de la gravimetría, a escalas regional y de detalle.

BIBLIOGRAFÍA
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.35-100). Librería de Ciencia e Industria.
- Fowler, C., 1990. The Solid Earth (p.169-189). Cambridge University Press.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.148-179). Editorial Paraninfo.
- Lowrie, W., 1997. Fundamentals of Geophysics (p.29-81). Cambridge University Press.
- Parasnis y Orellana. 1971. Geofísica Minera (p.227 -281). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration
Geophysicists.
- Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.37-139). Alianza Editorial.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

"In the discovery of secret


things and in the investigation
of hidden causes, stronger
reasons are obtained from sure
experiments and demonstrated
arguments than from probable
conjectures and the opinions
of philosophical speculators
of the common sort."
William Gilbert

PROSPECCIÓN MAGNETOMÉTRICA
El campo magnético terrestre, cuyo origen reside en el núcleo, es modificado por cambiantes
componentes externas a la masa sólida del planeta, pero también existe una componente muy
menor de la corteza, que puede ser significativa a una escala relativamente local.
La prospección magnetométrica se basa en evaluar esa desigual distribución de fuerzas
magnéticas dentro de la corteza terrestre. El contenido alto en minerales de hierro produce
anomalías positivas y su defecto anomalías negativas. Las anomalías magnéticas detectadas a
través de estudios magnéticos en el terreno se explican con variaciones en las propiedades físicas
de las rocas como la susceptibilidad magnética y/o la imantación remanente de las rocas. Estas
propiedades físicas sólo existen a temperaturas debajo de la Temperatura de Curie. En
consecuencia los generadores de las anomalías magnéticas pueden hallarse hasta una profundidad
máxima de 30 a 40 km, dependiendo del gradiente geotérmico, esto es esencialmente, como quedó
dicho, dentro de la corteza terrestre.
La magnetita o piedra imán fue conocida desde la antigüedad, especialmente en China (desde 2,6
milenios antes de nuestra era) y también en Egipto. Los griegos la llamaron magnetita por ser
común en la región de Magnesia. Como sabemos, la brújula fue inventada en China cerca del año
100. Árabes y Persas la utilizaban en el siglo XI para navegación y llegó a Europa en el siglo XIII.
Un militar francés, Pierre de Maricourt fue el primero en emplearla para hacer un carteo de un
yacimiento de magnetita -o es al menos el testimonio más antiguo del que disponemos-, un trabajo
autodidacta en el norte de Italia que no fue utilizado luego.
El alemán Georg Hartmann en1510 estudió la declinación y en 1544 la inclinación magnética,
variables con las coordenadas.
El británico Williams Gilbert en 1600 publicó “De Magnete, Magneticisique Corporibus” donde
definió el campo magnético como un imán orientado con el eje terrestre. En 1635, también en
Gran Bretaña, Henry Gellibrand observó su variación con el paso de los años.
La primera balanza para medir fuerzas magnéticas se debe al británico John Mitchell (1750) que
observó su variación con la inversa del cuadrado de la distancia. Por lo que el francés Charles
Coulomb, que venía estudiando fuerzas eléctricas, aplicó la misma ecuación general para el campo
magnético. Su ley de 1784 expresa en magnetismo que:
F = p1.p2 / µ.r2
(en el S.I. la magnitud de los polos se da en A.m, la distancia r en metros y la constante
µ, permeabilidad magnética, es en el vacío µ0 = 2Π .10-7 A.m/V.s = A2/N)
1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Otros conceptos básicos, análogos a los de gravimetría, son:


el Potencial Magnético V = p1 / µ.r
y su derivada, el Campo Magnético H = F / p2 = p1 / µ.r2
El danés Hans Oersted documentó en 1819 la desviación de una aguja magnética por una
corriente eléctrica y el británico Michael Faraday observó en 1831 (al igual que el alemán H.
Lenz) que el movimiento de un imán cerca de un cable induce una corriente eléctrica.
Karl Gauss concluyó en 1838 en Alemania que el campo principal definido por Gilbert tiene su
origen en el interior de la Tierra.
La unificación de los campos magnético y eléctrico se debe al británico James Maxwell en 1861,
con cuatro ecuaciones que incluyen las leyes de Gauss, Ampère y Faraday.

Unidades de la intensidad magnética:


Se mide la intensidad de magnetización. La unidad de campo magnético es el Oersted (Wb/m2).
Muchos expresan las unidades en Gauss, que es exactamente la misma magnitud con otro nombre.
Otra unidad del S.I. es el γ=10-5 Oe o G
En el sistema cgs la unidad principal es el Tesla (Maxwell/cm2), y el nT = 10-9T
En prospección se emplean el γ y el nT, que valen lo mismo: 1γγ = 1nT.
Los geofísicos prefieren emplear el parámetro 'intensidad del campo magnético H' en vez del
parámetro 'inducción o densidad del flujo B'. Se puede substituir uno de estos parámetros por el
otro porque la permeabilidad del aire varía muy poco de la permeabilidad del vacío. La densidad
del flujo B de un campo magnético está relacionada con la intensidad magnética H como sigue:
B = µ0 .H + J (siendo J la polarización magnética, que vale cero en el vacío y el aire)
y B = µ .H en medios isótropos
También podemos escribir que: B = H + H’
(siendo H’ el campo magnético inducido en los minerales magnéticos del subsuelo)

COMPORTAMIENTO MAGNÉTICO DE LA MATERIA


Susceptibilidad Magnética k: al someter una sustancia a un campo magnético H, ésta se
magnetiza. Adquiere intensidad de imantación M proporcional al campo exterior aplicado.
Se tiene por lo tanto: M = k .H (donde la constante de proporcionalidad k es la susc. magn.)
y además: M = m /volumen = p /área (donde m es el momento magnético = p. longitud)
La medición de k se realiza en laboratorio mediante un puente de inductancia o una balanza
magnética, o bien multiplicando el porcentaje de magnetita u otros minerales magnéticos presentes
en la roca por la susceptibilidad de éstos, obtenida de tablas.
La utilidad práctica de su medición radica en la diferenciación entre rocas sedimentarias (k
baja) e ígneas y metamórficas del basamento (k altas).

Fenómenos magnéticos en la materia sometida a un campo exterior: hay que considerar que la
materia esta formada por cargas eléctricas en movimiento
 Diamagnetismo: consiste en la variación del momento magnético de los átomos, el
cual se opone levemente a un campo magnético exterior, se produce debido a la
simetría de los átomos causada por la alineación de momentos magnéticos
asociados a electrones orbitales en presencia de un campo magnético externo, la
cual hace que el momento magnético del átomo sea pequeño y negativo. Este
fenómeno es independiente de la temperatura. El valor que adopta k es negativo.
2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Ejemplos son grafito, halita, anhidrita, cuarzo, feldespato, petróleos, agua, Ag, Au,
Cu, Bi, Sb, etc.
 Paramagnetismo: debido a una simetría deficiente de los orbitales de los átomos se
produce un momento magnético del átomo no nulo (en los elementos que tienen un
número impar de electrones en las capas electrónicas externas) y en presencia de
un campo exterior se ordenan de manera que refuerzan la accion de éste. Depende
de la agitación térmica de las moléculas. El valor de k es levemente positivo.
Ejemplos son blenda, galena, pirita, limonita, olivino, granate, piroxenos, anfíboles,
biotita, Pt, Al, Ti, Ir, etc.

 Ferromagnetismo: se presenta sólo en el estado sólido, las fuerzas interatómicas


producen un paralelismo de los momentos de los átomos próximos (recintos o
dominios de Weiss). En presencia de un campo exterior se ordenan de forma
similar al paramagnetismo, pero a nivel de recintos y con mucha mayor intensidad.
El valor de k es altamente positivo. Caso de los metales nativos como el hierro,
níquel y cobalto, presentes en meteoritos.
 Ferrimagnetismo: se producen dos series de momentos atómicos, paralelos y
antiparalelos, pero dominan los primeros. Se da en la magnetita, pirrotina, ilmenita,
titanomagnetita, cromita, etc. La respuesta magnética disminuye con el incremento
de temperatura hasta casi cero a la llamada Temperatura de Curie, que es de 580º
para la magnetita, desde donde sólo se comporta paramagnéticamente, fenómeno
que también sucede en los minerales ferromagnéticos. El valor de k es altamente
positivo. Por ejemplo, tomando k.106en unidades cgs, es de 300.000 a 700.000 para
la magnetita, de cerca de 130.000 para la ilmenita y la pirrotina y mucho menor
para otros minerales (por ejemplo, 10.000 la cromita), variando según el valor de H.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

 Antiferromagnetismo: como en el caso anterior, pero las dos series de momentos


son del mismo orden y se cancelan mutuamente, dando respuesta prácticamente
nula. El valor de k es cero. Ejemplos son la hematita, óxidos de manganeso, de
cobalto, de níquel, de hierro, etc.

Permeabilidad magnética µ: puede imaginarse como la facilidad que ofrece un cuerpo al paso del
flujo magnético. Usualmente se toma adimensionalmente, como la relación entre el flujo
magnético inducido en un material respecto del que circula por el aire. Se relaciona con k de la
siguiente manera:
µ = µ0 (1 + k)

Ciclo de Histéresis y Remanencia Magnética: El ciclo de histéresis muestra el comportamiento


real de una sustancia magnética que experimenta magnetizaciones y desmagnetizaciones cíclicas.
Se produce sólo en los materiales ferro o ferrimagnéticos, cuyo comportamiento se aleja de la
simple relación lineal B = µ 0 .H, llegándose a un máximo de respuesta B del material
ferromagnético cuando se aplica un campo magnético creciente H, nivel de saturación, y
desmagnetizándose, al ir reduciendo el campo aplicado, más gradualmente que cuando se
magnetizó, para quedar al final un valor remanente de respuesta magnética del material. Es la base
de los estudios paleo y arqueomagnéticos o de Magnetismo Remanente, donde el campo
inductor es el campo geomagnético de la Tierra y cuando éste cambia, una parte del campo
inducido en la roca no cambia sino que permanece fijo en una dirección, documentando así la
orientación del campo magnético terrestre en el momento en que se formó la roca.

COMPONENTES DEL CAMPO MAGNÉTICO TERRESTRE


Como se dijo, éste se compone de un campo interno más otro externo, a saber:
Campo Interno (97% del total)
Campo geomagnético principal: originado por la rotación del núcleo externo de la Tierra,
de composición metálica, con grandes cargas eléctricas y comportamiento fluido, donde
además ocurren corrientes convectivas que transportan calor. El inglés Sir Joseph Larmor
en 1919 recurrió al modelo electromagnético de la dínamo-disco de Faraday autoinducida.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

En la figura puede verse como la corriente (i) que


circula en el circuito, genera un campo magnético
inducido (B). Éste decrece con el tiempo, lo mismo
que la corriente, debido a la resistencia del
conductor. No obstante, el campo magnético
variable que atraviesa el disco giratorio induce una
corriente en el mismo. La corriente inducida
refuerza la corriente inicial y por lo tanto al campo
B, y este proceso se repite en un ciclo continuo,
dando origen a la dínamo autoinducida.

Este modelo general fue ajustado por el estadounidense Walter Elsasser y otros desde 1940 para
dar cuenta de la complejidad convectiva del núcleo externo.

Campo cortical: sólo perceptible a nivel local o regional, pero prácticamente despreciable
a escala de la Tierra. Se debe a los minerales magnéticos de la corteza terrestre y las
anomalías que presenta nos permite inferir la desigual repartición de los materiales. Es de
mucho menor magnitud que el anterior pero detectable dada su cercanía a la superficie, y es
el objetivo concreto de la prospección magnetométrica.

Campo Externo (3% del total)


Está debido a corrientes inducidas en la ionosfera por la actividad solar, al desplazarse ésta
respecto del campo terrestre. El desplazamiento se debe a movimientos convectivos (calentamiento
diurno solar y mareas atmosféricas) además de la propia rotación terrestre, el movimiento orbital y
las variaciones temporales de la actividad magnética de la estrella.
El campo externo es asimétrico por presión del viento solar, con una cola en dirección opuesta al
sol y dejando dos regiones anulares superpuestas cargadas de partículas frente al ecuador
magnético (a distancias de unos 1000 a 5000 km y de 25000 a 50000 km), llamados cinturones de
radiación de (James) Van Allen (estadounidense que los descubrió en 1959). Son mayormente
electrones y protones derivados de neutrones provenientes del Sol, que se desintegran al acercarse
al campo magnético terrestre.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Modelo del Dipolo Geomagnético:


Si no existiera un campo geomagnético interno la radiación y las partículas del viento solar
aniquilarían toda forma de vida sobre la superficie terrestre.
El campo geomagnético se describe en una primera aproximación por un dipolo magnético
ubicado en el centro de la tierra, cuyo eje está inclinado unos 11º con respecto al eje de rotación de
la tierra (como se sabe a su vez 23,5º respecto al plano de la órbita o eclíptica), difiriendo entonces
las coordenadas de los polos magnéticos y de rotación.
El dipolo está dirigido hacia el Sur, es negativo en el hemisferio norte y positivo en el sur. El Polo
Norte Magnético se sitúa a unos 2000 km del polo norte geográfico, en el archipiélago de Baffin
(Canadá), en tanto que el Polo Sur Magnético está a 2000 km del polo sur geográfico, en la tierra
del rey Jorge V (sector antártico
australiano).
Como consecuencia de esto,
tenemos un ángulo entre el norte
geográfico y el magnético llamado
declinación, que resulta de la
proyección a la horizontal del
vector de inclinación magnética, el
cual sigue las líneas de fuerza del
campo. Podemos además medir la
intensidad de este campo, sea la
total F o sus componentes H y Z,
como se ilustra a la derecha.

Pueden definirse dos polos geomagnéticos, que resultan de la proyección hacia la superficie del eje
del dipolo principal, pero los verdaderos polos magnéticos difieren en su ubicación, como se ve en
la siguiente figura. Esto se debe a que el campo geomagnético principal es complejo, puede
aproximarse con un único dipolo pero, de hecho, es la suma de innumerables dipolos de distinta
magnitud, producto de la compleja dinámica convectiva del núcleo externo.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Debido a esto se pueden separar, por un lado, las componentes geomagnéticas de este dipolo
principal, que podría ser considerado como un campo regional global, y, por otro, las componentes
llamadas no-dipolares o multi-dipolares (en referencia al citado dipolo dominante) que generan
una especie de campo residual global (que representa un 20% del campo geomagnético principal)
debido a la presencia de esos otros dipolos que todavía no se conocen con precisión.
Además, como se dijo antes, existen cambios temporales, aunque no lineales. La figura de arriba
muestra una gráfica de variación de la declinación en una localidad en particular (Londres).
Abajo pueden verse los mapamundi de declinación (expresado en isógonas, curvas que unen
puntos de igual declinación magnética), de inclinación (curvas isóclinas), de intensidad total del
campo (isodínamas), de variación anual de la intensidad magnética (isodeltas), así como de la
intensidad de la componente no-dipolar del campo geomagnético.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Ahora bien, algunos siglos de registro han permitido caracterizar las llamadas Variaciones
Seculares. Así, se ha verificado una migración hacia el oeste del campo geomagnético dipolar o
principal del orden de 0,14ºlongitud/año hasta principios del siglo XIX y de 0,05ºlongitud/año en
las dos últimas centurias, que se presume relacionado con un leve retraso en la rotación del núcleo
respecto al manto terrestre. También ocurre esto con el campo no-dipolar, aceptablemente medido
sólo para el siglo XX, cuando promedió los 0,18ºlongitud/año de corrimiento al oeste, con regiones
de valores bastante distintos, diferencias que pueden deberse a la complejidad de los procesos del
núcleo externo. Pero además la intensidad del campo dipolar disminuyó una media de 0,03%/año
hasta principios del siglo XX y de casi 0,06%/año desde entonces. Por su parte, el campo no-
dipolar registra algunas regiones del planeta con descenso y otras con aumento de la intensidad
magnética. Esta media descendente llevaría a la anulación del campo en un período del orden de
los 3000 años, algo sobre lo que no hay certezas.

Arqueomagnetismo:
Teniendo en cuenta las variaciones seculares, podemos hacer una extrapolación hacia el pasado a
partir de la medición del campo magnético preservado por materiales ferromagnéticos que
experimentan el proceso de histéresis, que será explicado luego, que genera la llamada remanencia
magnética. Su correlación con otras herramientas de datación (información histórica,
geocronología, etc.) han permitido crear un valioso instrumento para datar eventos arqueológicos
con razonable precisión (por ejemplo del orden de los veinte años para hechos ocurridos hace dos
milenios). Fondos de hogares y hornos de ceramistas son típicos testimonios arqueomagnéticos.

Paleomagnetismo:
Sin embargo, sabemos que en el pasado ha habido reversiones de polaridad del campo magnético
en períodos del orden de las decenas o cientos de miles de años. El italiano Macedonio Melloni
observó en 1850 la cambiante magnetización de las coladas del Vesuvio, primer registro escrito
sobre la idea del magnetismo remanente. Después los trabajos de Brunhes desde 1905 en Francia,

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Matuyama en 1929 en Japón y otros permitieron acopiar información sobre imanaciones antiguas,
opuestas de la actual, a la que se sumó el estudio de los fondos oceánicos como consecuencia de la
Guerra Fría, para que en 1963 Morley, Matthews y Vine en Estados Unidos le dieran forma al
concepto de polaridades paleomagnéticas.
Los modelos elaborados en años recientes indican probables procesos de desaparición de un dipolo
dominante y consecuente aparición de modelos tetrapolares, octopolares u otros, donde varios
dipolos tienen magnitudes comparables, durante un período de 2000 ó más años hasta reconfigurar
un modelo dipolar principal pero de polaridad opuesta a la original, según se esquematiza en la
siguiente figura.

En las figuras de arriba se ve un corte de la Tierra y la gráfica de reversiones del Cretácico


cuspidal y el Terciario, con un detalle de los últimos cinco millones de años, señalándose épocas

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

(del orden del millón de años, con una polaridad dominante pero no exclusivamente positiva o
negativa) y dentro de las épocas los nombres de algunas de las reversiones breves (de decenas de
miles de años) que reciben el nombre de episodios.
La figura que sigue representa la frecuencia de las inversiones magnéticas desde el Paleozoico
Superior hasta el presente. Tiempos de mayor estabilidad magnética (hasta de 60 millones de años)
se corresponden con máxima deriva continental, sugiriendo una conexión entre la dinámica
convectiva del núcleo externo, a su vez térmicamente reflejada en la heterogeneidad de la capa D,
donde grosso modo pueden identificarse “criptoplacas” cuya distribución guarda alguna semejanza
con la de las placas corticales.

Los registros paleomagnéticos más completos están en los fondos oceánicos, aunque sólo para los
últimos 180 millones de años -edad máxima de la corteza oceánica-. La magnetización
termorremanente de las lavas da siempre las imágenes instantáneas con mejor definición, sea en
el mar como en tierra firme. También pueden tenerse registros de magnetización
depositorremanente a partir de la sedimentación en fondos de aguas tranquilas donde los
minerales magnéticos detríticos se orientan dando por resultado algo así como una película
borrosa, en forma no muy precisa pero continua en el tiempo, siguiendo los cambios del campo
geomagnético. Un ejemplo paradigmático son las areniscas rojas del Permo-Triásico de Europa y
Norteamérica (New Red Sanstones). Una tercera opción es la magnetización quimiorremanente
producida durante modificaciones diagenéticas, oxidación, formación de minerales autigénicos -a
veces por acción bacteriana-, etc. Las mediciones más ajustadas se realizan con muestras llevadas
a laboratorio -con la ubicación original claramente referenciada-, un proceso que es lento y un
poco complejo. En prospección la magnetización remanente produce ruido.
Una aplicación importante del paleomagnetismo surge del seguimiento de las migraciones de los
polos norte y sur. En primer lugar se debe recordar que los polos migran actualmente en un
movimiento precesional en torno a los polos de rotación y parece ser que lo han hecho durante toda
la historia geológica. En segundo lugar, los primeros siempre han estado relativamente cerca de los
segundos. Y tercero, cuando se intenta ubicar los polos de algún tiempo geológico en particular, se
encuentra que desde distintas masas continentales la ubicación difiere. Pero la diferencia se anula
en cuanto logramos ubicar los continentes en las posiciones relativas que guardaban en ese tiempo
geológico. Ergo, tenemos una herramienta para hacer el seguimiento de la deriva relativa entre
distintas placas corticales.

ADQUISICIÓN DE DATOS EN PROSPECCIÓN


Se miden las componentes vertical, horizontal (ecuador) o ambas del campo magnético si la
prospección amerita este detalle.
Se utilizan instrumentos apropiados -hay distintos tipos de magnetómetro- y se desarrolla un
trabajo de campo a lo largo de una malla con criterios parecidos a los de gravimetría, es decir, se
mide en intervalos regulares, o tan regulares como sea posible en función de las dificultades del

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

terreno. En la exploración magnética a escala regional generalmente se registra a lo largo de un


perfil o de varios perfiles paralelos con un espaciamiento preferentemente constante.
Las mediciones realizadas, usualmente relativas respecto a una referencia local, pueden ser
terrestres, aéreas -lo más habitual-, marinas y hasta satelitales -para objetivos académicos- y se
encuentran afectadas por varios factores que deberán ser tenidos en cuenta:
-Efecto de las componentes horizontal y vertical de la intensidad.
-Influencia de la inclinación del campo geomagnético.
-Efecto de inclinación y forma de las masas emplazadas causantes de la anomalía.
-Eventual magnetización oblicua a los cuerpos.
-Posible magnetización remanente.
-Ruidos, debidos a objetos metálicos superficiales o enterrados, alambrados, ductos, líneas
de alta tensión, plantas generadoras, etc., según sea la modalidad y escala de registro.

PROCESAMIENTO DE LA INFORMACIÓN
La secuencia de correcciones que se debe aplicar a los datos registrados en el campo incluye los
siguientes ítems.
Correcciones espaciales
Latitud-longitud: a diferencia de la gravedad, el campo geomagnético varía arealmente no
sólo con la latitud sino también, aunque en menor medida, con la longitud. Tiene una forma
un tanto irregular y de hecho el ecuador magnético y el geográfico se cruzan. También
existe una significativa diferencia en cuanto a la dispersión de valores: el campo
gravitacional es sólo unos 5 milésimos mayor en los polos que en el ecuador, mientras que
el campo magnético se duplica.

CL: ∆γ / ∆x

∆γ : al norte y al sur del área de trabajo


∆x : dirección del meridiano magnético

Altitud: existe una disminución de los valores medidos con la altitud, del orden de los
0,03γ/m, pero no es de importancia salvo que se trabaje en un área de mucho relieve.
Generalmente esta corrección no se toma en cuenta.
Correcciones temporales
Variación Secular: se conoce con el nombre de Secular a las alteraciones del campo
magnético terrestre que se manifiestan lenta y progresivamente a través de los años. Se
manifiestan mediante la deriva hacia el oeste de los valores de declinación e inclinación, así
como una disminución anual de intensidad del orden de 20γ. Involucra componentes
dipolares y no-dipolares del campo geomagnético.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Las variaciones seculares cambian entonces cada año los valores de referencia para cada
latitud y longitud y deben tenerse presentes cuando se comparan datos de una misma área o
áreas adyacentes si fueron registrados en distintos años.
Variaciones Diurnas: se cuantifican en una base repitiendo mediciones cada hora.
Conocida la medida y la hora de observación de cada punto es fácil eliminar el efecto a
partir de la curva obtenida para la base. Es función de:
-Variación Solar: tiene una regularidad de 24 horas, por desplazamiento de la ionosfera que
sólo de la latitud geográfica y del tiempo, al existir una correlación con el período de rotación
terrestre. Tiene una intensidad del orden de los 25 a 100 γ, con una variación adicional en
ciclos de 27 días según la rotación solar (dado que la distribución de manchas es siempre
inhomogénea), y creciendo durante el verano en cada hemisferio debido a la inclinación del eje
de rotación de la Tierra.
-Variación Lunar: ésta tiene una periodicidad de 25 horas con una amplitud de 2 ó 3 γ. Está
relacionada con la rotación de la Tierra respecto a la Luna, lo que genera mareas atmosféricas
en las que el Sol tiene una influencia menos marcada. Varía a lo largo del mes lunar (28 días)
según la traslación del satélite en torno a la Tierra.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

-Tormentas Magnéticas: son bruscos disturbios que están relacionados con la actividad de las
manchas solares -vórtices magnéticos-, más intensas cada 11 años cuando se revierte la
polaridad magnética de la estrella. Son impredecibles, pudiendo durar varios días. Entre el
ecuador y los 60º de latitud llegan a los 1000 γ, alcanzando valores mayores en los polos.
Pueden obligar a suspender la adquisición de datos.
Durante las tormentas, la concentración de partículas ionizadas por la convergencia de líneas de
campo magnético sobre la atmósfera polar genera los fantasmagóricos fenómenos de las
auroras polares, como se ve en la fotografía de la primera página.
Influencia del avión:
Varía según el campo magnético normal de la zona y según el ángulo de colocación del
avión. La operación de contrarrestar el efecto se realiza mediante recorridos de prueba en
una zona llana sin anomalías. (La prospección magnetométrica en su modalidad aérea es la
más ampliamente utilizada.)

INTERPRETACION MAGNÉTICA
Presentación de los datos:
-Confección de mapas isoanómalos: corregidas las lecturas por variación diurna se vuelcan los
datos sobre un mapa para trazar la curvas isógammas.
Utilizando isolíneas paralelas y equidistantes se debe enfocar su atención a la existencia de
anomalías de interés no completamente definidas por la información disponible, lo que se basa en
una red de estaciones de observación con cierto espaciamiento. Por medio de otros datos geofísicos
y/o geológicos se podría comprobar la interpretación de los datos magnéticos. Tales evaluaciones
sucesivas se aplican comúnmente en la prospección geofísica minera.
Como en otros mapeos geofísicos, geológicos, de ingeniería de reservorios, etc., una isolínea es la
línea, que une varios puntos del terreno (varias estaciones de observación) del mismo valor o de la
misma intensidad y el espaciamiento entre dos isógammas es una medida del gradiente. Las
isolíneas con espaciamiento pequeño y denso (espaciadas densamente) expresan un gradiente alto,
las isolíneas con espaciamiento grande entre sí representan un gradiente pequeño. En este contexto
gradiente se refiere a una variación de un valor de una intensidad con respecto a la distancia, donde
las isógammas cerradas ilustran extremos altos o bajos.

-Trazado de perfiles: desde datos registrados a lo largo de transectas o bien trazando los perfiles
más representativos sobre un mapa, los cuales se definirán en su mayoría perpendiculares al rumbo
de las anomalías y unos pocos paralelos a éste.
-Suavizado de anomalías (filtrado): los métodos utilizados son los mismos que se aplican en
gravimetría para separar regional y residual, ya sea en mapas o sobre perfiles, empleando
Métodos Gráficos, Derivada Segunda, Griffin, Continuidad, Transformada de Fourier u otros.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Efecto magnético vertical sobre cuerpos de modelo polarizados verticalmente:


A través de algunas fórmulas relativamente sencillas se puede describir el efecto magnético
vertical de cuerpos de modelo emplazados en el subsuelo y verticalmente polarizados. Si los
cuerpos tienen diferentes contenidos en minerales magnéticos (por ejemplo un basalto del orden de
un 5% de magnetita y un granito alrededor del 1%), o si tienen diferentes dimensiones o si están
situados en distintas profundidades, las curvas isógammas resultantes serán diferentes. Muchas
veces en perfil tienen forma de campana de Gauss, pero pueden diferir en intensidad, ancho o
asimetría, si existe buzamiento.
Slichter (1955) da los siguientes valores típicos de respuesta:
Tipo de roca % de magnetita k .106 en cgs % de magnetita k .106 en cgs

Basalto 2,3 6900 8,6 26000


Granito 0,2 600 1,9 5700
Los modelos que se esquematizan a continuación muestran el variable efecto causado por una
masa rocosa de densidad mayor a la de la roca encajante, según cómo varíen su profundidad, su
tamaño y su contenido porcentual de magnetita.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Interpretación cualitativa:
Se efectúa analizando el mapa de isoanómalas, de la componente vertical del campo
geomagnético, y de los perfiles trazados en dichos mapas. Por ejemplo, líneas concéntricas indican
la posible existencia de un cuerpo de planta pseudoesférica, o líneas positivas y negativas pueden
indicar un cuerpo buzante (polo positivo o norte en la parte más superficial en el hemisferio sur).
La forma alargada de las curvas da indicios del rumbo u otros aspectos geométricos.
Los perfiles indican, en el caso de asimetría de las alas, la presencia de un cuerpo buzante, el cual
estará dado por el ala de menor pendiente, en cuya dirección estará el polo más profundo de
polaridad opuesta. También hay que considerar la inclinación magnética de la zona en estudio, ya
que dicha asimetría puede no deberse al buzamiento. Y también una eventual magnetización
transversal, como se grafica en la página 17.
Interpretación cuantitativa:
El objetivo final de cualquier estudio geofísico es la deducción de la geometría de los cuerpos
causantes de una anomalía estudiada (forma, tamaño, profundidad) o del subsuelo (espesor,
buzamiento). Para las anomalías magnéticas como para las de densidad (gravimetría) existe una
infinidad de modelos que pueden explicar los fenómenos observados en superficie, incluso si el
campo magnético fuese conocido con precisión en cada punto de la superficie. Surge entonces que
las anomalías magnéticas por sí solas son insuficientes para determinar sin ambigüedades los
cuerpos o estructuras que los generan, al igual que en los demás métodos geofísicos. Por lo tanto la
interpretación se debe hacer en forma indirecta, por inversión, suponiendo un cuerpo de forma
geométrica conocida, calculando la anomalía que causaría y comparándola con la observada. Este
es un proceso iterativo en el cual se van variando parámetros como la profundidad, el radio,
buzamiento, etc., hasta encontrar un modelo que represente el caso observado. La forma del cuerpo
depende mucho del conocimiento geológico de la zona que está siendo explorada.
El problema de la interpretación cuantitativa en el método magnetométrico resulta abordable ya
que en la práctica los yacimientos y otros emplazamientos pueden clasificarse geométricamente
como placas delgadas o gruesas, o cuerpos de forma sensiblemente cilíndrica o esférica, etc.
Para la estimación de dimensiones, profundidad, etc. es necesaria la determinación de un nivel cero
o campo normal, que corresponde a las lecturas del magnetómetro en los puntos cercanos a la zona
estudiada donde no existan perturbaciones significativas debidas a cuerpos subterráneos. Este nivel
también puede establecerse en los flancos de la anomalía ya que estos tienden asintóticamente al
nivel de referencia buscado. Para esto es necesario que la longitud de los perfiles sea varias veces
superior a la extensión de la anomalía.
Generalmente la aproximación más sencilla es la de sustituir la parte superior e inferior del
cuerpo por polos magnéticos aislados, separados una distancia acorde a la longitud del cuerpo, y
con éstos calcular el efecto que producen en el campo magnético en superficie. El buzamiento se
simula desplazando lateralmente un polo con respecto al otro. La teoría de los polos puede
suministrar datos como profundidad del techo o centro de cuerpo, longitud, posición y buzamiento.
Si un cuerpo tiene un gran desarrollo vertical, puede despreciarse la acción del polo más profundo
y hacer la Reducción al Polo más somero, un planteo que resulta pseudo gravimétrico.
Otro procedimiento de inversión es el Método de Vacquier (1939), que genera modelos
basados en la superposición de prismas interpretados a partir de las profundidades deducidas de la
derivada segunda de los mapas isoanómalos.
También en modelos prismáticos se basa el procedimiento del Bureau of Mineral Resources
de Australia, de gran aplicación en datos obtenidos desde registros aéreos.
La Deconvolución de Euler calcula derivadas segundas en x,y,z e índices estructurales para
hacer una inversión por mínimos cuadrados dividida en ventanas posicionales en subsuelo.
Y muy empleado es el Método de Peters (1949), que plantea cuerpos soterrados de geometrías
simples que se encuentran magnetizados verticalmente, lo que permite deducir parámetros como la
extensión y la profundidad de su límite superior. Por ejemplo:
15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

-En el caso de una placa o manto de extensión horizontal relativamente importante, el ancho medio
de la curva correspondiente a su efecto magnético vertical indica la extensión horizontal del manto
en la dirección del perfil realizado.
-En el caso de un dique, el ancho medio de la curva correspondiente a su efecto magnético vertical
medido a lo largo del rumbo da su longitud, y medido en un perfil normal da la profundidad del
límite superior según la siguiente relación aproximada: Z w 0,7 ancho medio
-Para un cuerpo esférico o cilíndrico vertical vale para todos los rumbos la relación arriba citada.
La dirección de buzamiento puede inferirse de la asimetría de los perfiles magnéticos y el ángulo
se obtiene probando con distintos modelos de cuerpos simples, aunque el efecto del polo inferior,
como así también el efecto de imantación transversal, pueden llevar a valores no del todo precisos.
La imantación transversal suele aparecer con frecuencia en los cuerpos cuyo rumbo no coincide
con la dirección N-S, aunque también por una muy heterogénea distribución de minerales
magnéticos o por magnetismo remanente, que se suele presentar como ruido de difícil definición.

Efecto magnético total sobre cuerpos en subsuelo:


En prospección comúnmente se mide la componente total del campo magnético. En el caso de un
cuerpo con alta susceptibilidad magnética emplazado en el subsuelo, la componente total se
constituye de la superposición de las magnitudes correspondientes al campo geomagnético H y al
campo magnético anómalo H’ generado por el cuerpo. Este efecto magnético total mensurable en
la superficie depende de la dirección del campo geomagnético en el lugar y de la imantación
inducida en este cuerpo en la dirección de H. A continuación algunos ejemplos gráficos sencillos.

16
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

Los modelos numéricos de los datos de la intensidad total se diseñan usualmente por medio de
programas en computadora. Dependiendo de los problemas geológicos en cuestión y de la
capacidad de procesamiento disponible se realizan modelos de dos o de tres dimensiones.
Y acá un ejemplo real de cierta complejidad:

17
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 4
Prospección Magnetométrica Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO

- ¿Cuáles son las causas del campo geomagnético y del campo cortical de la Tierra?
- ¿A qué se deben las variaciones temporales del campo y cómo se las maneja en prospección?
- Expresar las definiciones matemáticas de Potencial, Campo y Flujo Magnético.
- ¿En qué difieren la susceptibilidad y la permeabilidad magnética?
- ¿Es la magnetita ferromagnética?, ¿por qué?
- Explicar por qué el ciclo de histéresis permite el estudio de eventos antiguos.
- ¿Cómo difieren los perfiles magnéticos según las componentes horizontal, vertical o total?
- ¿Qué consideraciones se hacen en la inversión de anomalías magnéticas?

BIBLIOGRAFÍA

- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.105-180). Librería de Ciencia e Industria.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.181-208). Editorial Paraninfo.
- Lowrie, W., 1997. Fundamentals of Geopysics (p.229-305). Cambridge University Press.
- Parasnis y Orellana, 1971. Geofísica Minera (p.36-110, 305-310). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.271-362). Alianza Editorial.

18
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

INSTRUMENTAL
Y APLICACIONES
MAGNETOMÉTRICAS

MAGNETÓMETROS
Veremos aquí una brevísima explicación del fundamento de los principales tipos de instrumentos
de medición utilizados en la prospección magnetométrica.
 Variómetros o Balanzas magnéticas:
Pueden ser de componente vertical u horizontal, según los distintos diseños. La balanza
más antigua fue la inventada por John Mitchell, como se citó. Y poco más de un siglo
después, en 1789, los alemanes Thalen y Tiberg, diseñaron el primer instrumento
específico de prospección geofísica con el que catearon exitosamente yacimientos de hierro
en Alemania y otros países.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

Balanza de Schmid:
Empleada desde 1914 en Potsdam, es de tipo vertical y ha sido una de las más utilizadas,
aunque las balanzas son ya instrumentos más bien históricos. Se trata de un imán
pivoteando cerca de su centro de masa. El desequilibrio gravimétrico producido se
compensa mediante la componente magnética. Consta de un sistema óptico que permite
observar las variaciones del imán.

 Magnetómetro de Torsión:
Imán suspendido por hilos metálicos en tensión. La torsión del hilo es una medida directa
de la intensidad vertical registrada en un disco graduado. De principios del siglo XX es
también un aparato casi en desuso.

 Inductor Terrestre:
Este aparato -arriba a la izquierda- fue desarrollado por Charles Delzenne en Francia
(1844) para investigación y décadas después se lo comenzó a emplear en ocasiones para
prospección. Se basa en la medición de corriente inducida (mediante un galvanómetro de
gran sensibilidad) en una bobina cuyo eje varía convenientemente de posición (sistema tipo
cardan). Permite medir inclinación y declinación magnéticas, como también la intensidad
del campo en función del área y número de vueltas de cable -valores fijos para cada
aparato- y de la velocidad de giro que adopta, algo que resulta complicado de manejar. (Un
arreglo similar, girando en base a una fuerza como el viento o el agua, constituye un
generador eléctrico.)
Magnetómetro de Bobinas de Flujo (flip-coil magnetometer):
Basado en el principio del inductor terrestre, es un diseño de mediados del siglo XX para
ser montado en la cola de un avión. Tiene un sistema de compensación de masa (barritas de
metal) y un sistema de tipo cardan que permite la orientación para medir la componente
total en la dirección en que éste es máximo. Posee tres elementos detectores formados por
bobinas: dos para posición de una tercera que mide el campo, ya que el potencial eléctrico
inducido será proporcional a la fuerza del campo magnético en que se mueve.

. Brújula de Inclinación:
Este instrumento (izquierda) mide la variación de la intensidad vertical Z (ó V). Se
constituye de una aguja imantada que puede moverse libremente en un plano
vertical y que lleva fijada a un lado del eje un peso ajustable que genera un par de
torsión gravitatorio que resulta equilibrado por un par de torsión magnético (imán).

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

Cualquier variación de la componente vertical del campo terrestre cambia el momento de la


fuerza magnética y por tanto el ángulo de inclinación de la aguja. Se debe orientar el imán
en un plano vertical y los polos del imán paralelos a la dirección del componente total del
campo. Se la emplea sólo para trabajos expeditivos que no requieren de mucha precisión.
Superbrújula de Hotchkiss:
Su construcción es parecida a la de la brújula de inclinación, pero permite medir la
variación de la intensidad total F de un campo magnético, para lo cual tiene una barra
auxiliar no magnética, que lleva un contrapeso regulable extra. Para medir la variación de F
se orienta los polos del imán paralelamente a la dirección del campo total y la medición se
realiza orientando la superbrújula en una dirección perpendicular al meridiano magnético.
Aunque es mejor que la anterior, se la utiliza básicamente para trabajos expeditivos.

 Magnetómetro Discriminador de Flujo (fluxgate magnetometer):


Desarrollado a fines de la década de 1930 en Estados Unidos por el ruso Víctor Vacquier
y empleado durante la Segunda Guerra Mundial para detección de submarinos. Se lo
conoce también como de núcleo saturable, ya que está basado en la saturación de un
circuito electromagnético de dos bobinados sobre núcleos de ferrita -que forman el circuito
primario-, más un bobinado externo de medición -circuito secundario-. En presencia de un
campo exterior aparecen armónicos pares cuya amplitud es proporcional al mismo.
Mediante una bobina exterior se crea un campo magnético que anule el efecto terrestre y se
mide la intensidad que circula por ella.

 Magnetómetro de Precesión Protónica o Resonancia Magnética Nuclear:


El principio de la RMN fue descubierto en 1938 en Estados Unidos por el polaco Isidor
Rabi y aplicado desde 1946 por Bloch y Purcell, fundamentándose en el movimiento

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

precesional develado por el irlandés Joseph Larmor hacia 1900. En magnetometría


prospectiva su uso empezó a fines de la década de 1950, utilizándose los protones de una
muestra de agua, sometiéndolos a un campo magnético exterior para orientar los momentos
magnéticos de los protones. Al cesar el campo los protones tenderán a orientarse según el
campo magnético terrestre de acuerdo a un movimiento de precesión amortiguado. Este
movimiento supone una variación del flujo magnético y por lo tanto en una bobina se
produce una fem de frecuencia que puede medirse. Como el oxígeno no da respuestas
magnéticas, toda la resonancia se debe a los protones del hidrógeno, cuya constante
girométrica es de 23,5 γ/Hz.

Magnetómetro de Overhauser:
Es semejante al anterior pero, en este caso, la resonancia magnética, además de a nivel
protónico, tiene lugar también en los iones paramagnéticos que conforman la sustancia,
fenómeno descubierto por el estadounidense Albert Overhauser en 1953 y aplicado en
prospección magnética desde los años de 1960. Se aplica primero un campo de microondas
que produce la resonancia de los electrones no apareados de la sustancia líquida, para
después aplicar una señal de radiofrecuencia que genera el acople de la señal resonante de
los electrones con la de los núcleos, efecto que suele dar respuestas unas mil veces más
intensas que la RMN pura, pero que requiere de un mayor intervalo entre mediciones.
La precisión instrumental está en
el orden de los 0.01nT.
La imagen presenta un arreglo de
dos magnetómetros para medición
de gradiente, en este caso vertical,
disposición que se puede realizar
también en otras direcciones y con
otros tipos de magnetómetros, los
que así conforman entonces
gradiómetros magnéticos.
Magnetómetro de Absorción Óptica o Vapor de Álcali:
Es otra variante del magnetómetro de RMN utilizado desde mediados de la década de 1960,
que se distingue por la forma de medición de la frecuencia de Larmor, ya que utiliza la

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

inestabilidad óptica que presentan vapores de rubidio, cesio, etc. El fenómeno de


separación del espectro luminoso en presencia de un campo magnético fue descubierto por
el holandés Pieter Zeeman en 1896. Cuando los núcleos atómicos del vapor de álcali
entran en resonancia, el paso de luz polarizada a través de la misma se hace casi nulo,
minimizándose en consecuencia la intensidad luminosa detectada, a partir de lo cual
automáticamente se regula la frecuencia entregada por un generador a los valores de
resonancia en Hz, que se pueden equiparar a intensidad en γ.
Abajo se ve el esquema y fotografías de un modelo terrestre y de otro marino.

. Magnetómetro Criogénico o SQUID:


Acrónimo de Superconducting QUantum Interference Device, es un moderno dispositivo
de muy alto costo y gran precisión que registra mediante un toroide superconductor en el
que en todo momento se genera una corriente eléctrica cuya tensión resulta proporcional al
campo magnético terrestre. También se lo emplea para determinar la susceptibilidad en
muestras de laboratorio, en reemplazo de otros dispositivos más convencionales.
Aparatos de Laboratorio:
Para conocer el valor de k en especímenes seleccionados se
emplean usualmente alguna balanza magnética de
laboratorio, como las de Gouy o Evans, o bien el puente de
inductancia. Este último es un dispositivo que consiste en
un circuito doble que induce un campo electromagnético
prefijado sobre cada muestra tomada de la superficie o de
pozos, calicatas o galerías. El voltaje necesario para
balancear la respuesta de la roca o mineral muestreado en el
puente es función de su susceptibilidad magnética.

PROSPECCIÓN AEROMAGNÉTICA
Tiene como ventajas una mayor rapidez para ejecutar los trabajos, la posibilidad de obtener datos
sobre regiones pantanosas, junglas, etc. y la minimización de los efectos perturbadores debidos a
irregularidades próximas a la superficie que dificultan el reconocimiento de las anomalías
producidas por rocas más profundas, así como ruidos debidos a la presencia de objetos metálicos
-aunque sí serán visibles desde el aire plantas generadoras, líneas de alta tension, grandes ductos,
etc.-. Alturas de vuelo típicas en prospección minera son 150 a 200 metros, mientras que suele
volarse a 1000 ó más metros para exploración de hidrocarburos. La separación lateral entre líneas
tiende a ser una distancia que duplica la altura de vuelo y no mayor que la profundidad máxima de
interés (por ejemplo, el basamento de una cuenca). Se debe tener un segundo magnetómetro para

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

conocer la deriva diurna o bien volver a pasar por un punto base cada hora o menos, a no ser que
se disponga de datos de algún observatorio en la zona de trabajo.
Normalmente se mide la componente total en la dirección del campo magnético, es decir que
las anomalías registradas resultan de las locales y las del campo terrestre.
Los magnetómetros utilizados son los discriminadores de flujo y los de resonancia magnética en
cualquiera de sus variantes. Desde un avión se los puede llevar en la proa de la nave o extremo de
un ala, o más raramente en un planeador remolcado. Desde helicóptero lo más común es llevarlo
pendiendo de un cable -como en la imagen de la página 4-, y existe la opción de emplear arreglos
para medir gradiente magnético, tal como se puede apreciar en la fotografía de la izquierda.

Arriba se ve el mapa aeromagnético de gradiente vertical del continente australiano, realizado por
integración de numerosos trabajos de cobertura areal.

APLICACIONES DE LA MAGNETOMETRÍA
En la interpretación magnetométrica suele ser difícil decidir
si los cambios a lo largo de un mapa o perfil se deben a
estructuras o a cambios estratigráficos laterales.
En el caso de que no se pueda definir claramente la forma
de una anomalía magnética y en presencia de una anomalía
previamente detectada por otros métodos geofísicos o
geológicos, se orienta el eje de la anomalía magnética en la
misma dirección que el eje de la anomalía, que por ejemplo
podría ser conductiva, hallada por geoeléctrica, o de
gravedad como en la figura adjunta. Esto podría responder
a la presencia de falla y pilar tectónico elongado, de interés
como trampa de hidrocarburos, o de un dique con una
probable mineralización metalífera, según sea la escala de
la estructura y el ámbito geológico en la que se encuentra.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

Muchas veces varias estructuras causantes de anomalías magnéticas son paralelas entre sí, como
es el caso de un sistema de diques subparalelos, o de estratos muy inclinados entre los que se
intercalan algunos con alto contenido en minerales magnéticos.
En el caso de que tengamos una anomalía central y otras flanquéandola, una interpretación posible,
entre muchas otras, sería la presencia de un cuerpo de peridotita (roca plutónica de olivino y
piroxeno) rodeado por sulfuros de alto contenido en pirrotina (FeS). Un ejemplo vinculado a rocas
plutónicas intruyendo rocas metamórficas puede apreciarse en la figura de abajo, resultante de un
relevamiento aeromagnético en el centro-norte del Chubut, con tres anomalías magnéticas
principales.

Aplicaciones magnetométricas mineras:


Este método se aplica en las exploraciones mineras con los siguientes objetivos principales:
-Búsqueda de minerales magnéticos como magnetita, ilmenita o pirrotina.
-Localización de minerales magnéticos asociados paragenéticamente con minerales no magnéticos
de interés económico.
-Determinación de las dimensiones (tamaño, contorno, profundidad) de estructuras de zonas
mineralizadas cubiertas por capas aluviales o vegetales.
La mayor parte de la producción de hierro mundial se explota de depósitos de origen sedimentario
de composición primaria oolítica y silícea. El resto se extrae de depósitos de origen magmático con
minerales de Fe de ese mismo origen o bien residuales después de la meteorización de las demás
componentes de las rocas magmáticas.
Los depósitos de Fe asociados con rocas magmáticas frecuentemente están caracterizados por un
cociente magnetita/hematita alto y en consecuencia pueden ser detectados directamente por las
mediciones magnéticas.
Las taconitas, por ejemplo, son depósitos de Fe de origen sedimentario. Su carácter magnético
depende de su estado de oxidación, puesto que la magnetita se descompone por oxidación. Las

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

taconitas oxidadas son mucho menos magnéticas que las taconitas inalteradas, lo que hace más
difícil su detección por este método geofísico.
El método magnético permite localizar depósitos de Fe situados en cierta profundidad y cubiertos
por otras formaciones geológicas no magnéticas, tal el caso de los rellenos hidrotermales de
fracturas de Pea Ridge Mountain, Missouri, descubiertos por medio de sondeos realizados a lo
largo de una anomalía magnética de forma longitudinal. Un caso opuesto es el del gran yacimiento
de hierro del Lago Allard, en Canadá, donde el mineral ferrífero, la hematita, es antiferromagnética
y por lo tanto indetectable por este método prospectivo.
Por su asociación paragenética con minerales magnéticos, minerales no magnéticos, como los
metales básicos níquel, cobre y oro, por ejemplo, pueden ser asimismo detectados por este método.
También platino como puede apreciarse en el siguiente trabajo prospectivo en Canadá.

Igualmente se emplea la magnetometría con frecuencia en la exploración de diamantes, localizados


en chimeneas volcánicas de kimberlitas o lamprófidos, ya que su contenido en magnetita e ilmenita
permite que sean localizadas por este método. Se han encontrado chimeneas de kimberlitas en los
Estados Unidos, en la ex Unión Soviética y en Sudáfrica, así como también en Namibia, país de
donde proviene la figura de abajo, en yacimientos del desierto de Kalahari.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

Otras aplicaciones de la magnetometría:


Más ampliamente, la prospección magnetométrica es útil para estudiar el subsuelo, diferenciando
la mayor o menor presencia, en extensión o profundidad, de rocas que poseen altas
concentraciones de minerales magnéticos respecto de otras que los poseen escasamente. Y esta
información puede permitir interpretaciones sobre problemáticas geológicas muy diversas.
Una aplicación geológica regional puede ser el levantamiento de tendencias estructurales en una
zona extensa de rocas afloradas saltuariamente debido a una cobertura de sedimentos
geológicamente recientes o un desarrollo de suelo con vegetación. El complemento de un
relevamiento aeromagnético cuyo mapeo resultante ilumine tales tendencias -por ejemplo el rumbo
de un emplazamientos intrusivos o de un planos de falla, etc.- puede ser de gran ayuda para
completar el mapeo geológico, de modo que se combinan los datos geológicos obtenidos de
algunos pocos afloramientos distribuidos irregularmente con las tendencias aeromagnéticas
registradas. Un ejemplo de mapeo aeromagnetométrico es el que se grafica a continuación, en los
Estados Unidos.

Algo análogo puede suceder en


presencia de datos geológicos
de sondeos con fines mineros,
hidrogeológicos o petroleros.
Datos aéreos, o bien terrestres,
pueden dar valiosa información
complementaria.
Otros objetivos de interés
pueden ser ruinas sepultadas
de carácter arqueológico (el
caso a la derecha), aplicaciones
de índole medioambiental,
estructuras volcánicas activas
(figura de la siguiente página),
y muchas más.

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

Exploración magnética para hidrocarburos:


En la búsqueda de petróleo y gas natural se emplea el método magnético para determinar la
geometría (extensión, dimensión y potencia) de cuencas sedimentarias, que pueden generar,
migrar, almacenar y entrampar hidrocarburos, así como estructuras significativas, como
anticlinales o pilares tectónicos (véanse los perfiles de la página siguiente a la izquierda), e incluso
domos de sal por su carencia de minerales magnéticos. Se sabe que el basamento ígneo o
metamórfico, con mayor susceptibilidad magnética, se acerca a la superficie en los bordes de una
cuenca o en los altos intracuencales, sitios donde entonces se expresan mayor valores de esta
anomalía geofisica.
Otras veces los resultados magnéticos permiten planificar y definir más precisamente la eventual
cobertura de los registros sísmicos, que suelen dar una información bastante más rica pero son
mucho más costosos en comparación al método magnético. O suplir parcialmente su ausencia, si la
adquisición de sísmica no pudiera hacerse por razones poblacionales o ambientales.
También existen aplicaciones denominadas de Micromagnetismo. Esto parte de la obtención de
mediciones locales de cierta precisión desde las que se puede llegar a inferir la presencia de
hidrocarburos cuando, como suele ocurrir naturalmente, los sellos de las trampas no han sido
totalmente eficientes y pequeñas filtraciones de hidrocarburos han generado condiciones de
magnetización en sedimentos someros, por la formación de minerales magnéticos autigénicos
vinculada a procesos de biodegradación del petróleo fugado hacia niveles subsuperficiales. En la
página siguiente a la derecha se ilustran estas aplicaciones.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5
Magnetometría, Instrumental y Aplicaciones Chelotti, L., Acosta, N., Foster, M., 2009

Registros Magnéticos de Pozo:


Los más empleados son la herramienta cuentacuplas y el perfil de resonancia magnética nuclear,
que veremos detalladamente en el siguiente apartado.
La Herramienta Cuentacuplas (casing collar locator) se corre a pozo entubado con el fin de
identificar los ensambles o collares entre los caños del encamisado (casing), a partir de
incrementos en la señal dados por un magnetómetro discriminador de flujo (fluxgate). Útil para
correlacionar perfiles a pozo entubado o bien para servir de referencia de profundidades en las
operaciones de terminación.
Comparación de los métodos magnético y gravimétrico:
El método magnético de exploración tiene algunos aspectos en común con el método gravimétrico.
Los dos métodos hacen uso de campos de potenciales (el trabajo realizado para cambiar de nivel es
independiente del camino recorrido), detectan anomalías causadas por variaciones en las
propiedades de las rocas, que constituyen los primeros kilómetros de la superficie terrestre, sus
respuestas disminuyen rápidamente con la distancia del punto de medición a la masa anómala, y
los dos métodos tienen aplicaciones similares en la exploración petrolera. A través de los datos
gravimétricos se asignan densidades, a partir de los datos magnéticos se asignan susceptibilidades
magnéticas y la imantación remanente a rasgos definidos por la sísmica. Combinando los
resultados magnéticos, gravimétricos y sísmicos se puede obtener informaciones acerca de la
litología, que son de alta importancia en la evaluación de proyectos de prospección de
hidrocarburos.
En lo que concierne la interpretación, el método magnético es más complejo en comparación al
método gravimétrico, si bien, como se dijo, la gravedad debe medirse con gran precisión (variación
máxima de 5 en 1000 a escala de todo el planeta) en tanto que el magnetismo es más del doble en
los polos que en el ecuador. Pero la intensidad magnética tiene magnitud y dirección y depende de
la susceptibilidad magnética y de la imantación remanente de la roca, esto además de que sufre
variaciones temporales muy grandes que deben corregirse con cuidado
La fuerza magnética puede atraer o repulsar algo. Los efectos magnéticos pueden ser causados por
componentes de poca abundancia en una roca. En el caso del método gravimétrico la masa, que
determina la gravedad, solo tiene magnitud y depende de la densidad. La fuerza gravitatoria es
atractiva. Generalmente los efectos gravitatorios se originan de los constituyentes principales de
una roca.

CUESTIONARIO BÁSICO
- ¿En qué se basan los distintos instrumentos magnetométricos?
- ¿Cómo se opera en aeromagnetometría?
- Indicar aplicaciones de los mapas isoanómalos magnéticos.
- ¿Qué aplicaciones petroleras tiene el método?
- ¿Qué es el micromagnetismo?

BIBLIOGRAFÍA
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.105-180). Librería de Ciencia e Industria.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.181-208). Editorial Paraninfo.
- Lowrie, W., 1997. Fundamentals of Geopysics (p.229-305). Cambridge University Press.
- Parasnis y Orellana, 1971. Geofísica Minera (p.36-110, 305-310). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.271-362). Alianza Editorial.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

RESONANCIA
MAGNÉTICA NUCLEAR
DE POZO

Es una herramienta relativamente moderna que ha tenido creciente aplicación en la evaluación de


fluidos producibles de los yacimientos de hidrocarburos, con resultados generalmente muy buenos
en la cuenca Golfo San Jorge.
El principio de medida está basado en excitar magnéticamente núcleos de hidrógeno y analizar las
señales que éstos emiten. La amplitud de estas señales será proporcional a la cantidad de núcleos
de hidrógeno presentes en la zona de medida.
Todas las mediciones de Resonancia Magnética Nuclear (RMN) implican el uso de un campo
magnético y de ondas electromagnéticas de amplitud, frecuencia y duración controladas (pulsos),
que son emitidas por la antena de una herramienta de perfilaje.
En condiciones muy particulares, los núcleos de hidrógeno responden emitiendo también ondas
electromagnéticas de la misma frecuencia que la antena emisora, las que se denominan ecos y son
detectadas por la misma antena.
Los datos primarios obtenidos en cada ciclo de medida son trenes de ecos los cuales están
caracterizados por su amplitud y por la variación de ésta con el tiempo. Estos dos factores son muy
importantes dado que la variación de la amplitud nos da una idea de la proveniencia de la señal
(arcilla de la matriz o fluido neto en los poros); el valor de la amplitud a su vez depende del
número de núcleos que pudo ser excitado en la zona de medida, el sistema esta calibrado de
manera que este valor se expresa en unidades de porosidad.

Principios físicos generales


La rotación de la carga eléctrica (momento magnético) del núcleo atómico de los hidrógenos
alrededor de su eje genera un campo magnético de la misma manera que un imán con sus polos N-
S orientados sobre el eje de rotación del núcleo.
En los fluidos los momentos magnéticos de los núcleos de H se ordenan de manera aleatoria, de
manera que la suma de todos es nula. La manera de detectar los fenómenos magnéticos asociados
a ellos es ordenándolos de alguna forma tal que sus momentos magnéticos se sumen en alguna
dirección preferencial (la forma es aplicando un campo magnético exterior).
En presencia de un fuerte campo magnético exterior, aplicado con un magneto, los H se orientan
en dos direcciones paralelas y antiparalelas al mismo. Podemos imaginarnos los H como trompos
que giran sobre sí mismos pero a su vez tienen un giro de precesión alrededor de un eje
coincidente con la dirección del campo magnético externo.
El vector de magnetización resultante es la componente en la dirección del campo magnético
externo resultante de la composición de muchísimos momentos magnéticos en el fluido debidos en
en esencia a la respuesta de los núcleos de H.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

Todas las componentes en el plano transversal se anulan entre sí, por lo cual podemos decir que la
magnetización resultante en el plano transversal es nula.
En este estado de magnetización estable se aplican los pulsos con la antena de la herramienta, los
que tendrán una frecuencia (en realidad una banda de frecuencias) igual a la frecuencia de definida
por Sir Joseph Larmor al inicio del pasado siglo, que es la única frecuencia a la cual es posible
comunicar energía a los protones (fenómeno denominado resonancia magnética).
El efecto de estos pulsos es un giro del momento magnético proporcional a la energía del pulso,
por lo tanto una vez finalizado este primer pulso (de 90º) los momentos magnéticos se encuentran
en el plano transversal girando a la frecuencia de Larmor.
En el volumen investigado existe una banda de frecuencias de Larmor en lugar de una única y esto
hace que rápidamente los más veloces tomen distancias de los más lerdos y se pierda la coherencia
que permite detectarlos.
En este punto se aplica un pulso con el doble de energía que el anterior (de 180º) provocando un
giro también de 180º en el plano transversal alrededor de un eje. Esto provocará que al cabo de
cierto tiempo los más rápidos alcancen a los más lerdos y en un instante todos los vectores pasen
por el mismo lugar al mismo instante emitiendo una señal electromagnética que es detectada por la
antena de la herramienta (primer eco).
Este primer eco tiene la información de la cantidad de protones que participaron en nuestro
experimento de RMN y como éstos están contenidos en los fluidos la amplitud de este eco es
proporcional a la porosidad del medio que estamos midiendo.

Las herramientas de perfilaje de resonancia magnética nuclear (o precesión protónica) utilizan una
secuencia de pulsos que permite analizar la magnetización en el plano transversal,
fundamentalmente cómo vuelve la magnetización a su estado de equilibrio inicial. Este proceso de
recuperación sigue leyes exponenciales.
La magnetización en el plano transversal comienza de un valor Mo y tiende a cero con una
constante de tiempo de relajación T2.
Esta secuencia comienza con un pulso de 90º que nos ubica en el plano transversal seguido de una
secuencia de pulsos de 180º obteniendo después de cada uno de ellos un eco (momentos
magnéticos en fase). Estos ecos son proporcionales a la magnetización total que va quedando en el
plano transversal, por lo que su amplitud va decayendo según una exponencial decreciente con una
constante del tiempo de relajación llamada T2.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

Este tren de ecos obtenidos es la información primaria obtenida de la herramienta de perfilaje. De


él no nos es posible obtener datos de utilidad práctica, por lo cual se realiza un proceso de
inversión que consiste en obtener un espectro de constantes T2 a partir de los trenes de eco
obtenidos. A estos trenes se los conoce también como datos en el dominio del tiempo, y a los
espectros de T2 como datos en el dominio de T2. Es decir que en abscisas pasamos de unidades de
tiempo a T2, y en ordenadas de amplitud de ecos a unidades de incremento de la porosidad.
En las mediciones de porosidad utilizando RMN se asocian los poros grandes a T2 grandes y los
poros pequeños a T2 chicos. Es posible fijar limites en el espectro de T2 de manera de dividir a la
porosidad, que es el área del espectro de T2, en porciones que representen muy aproximadamente a
las porosidades efectiva, irreducible y móvil, esto dependerá de una correcta elección del método
de adquisición y de los valores T2 límite o de corte (cutoffs) elegidos.

PRONÓSTICOS DE FLUIDOS REALIZADOS EN BASE A LA RMN


La evaluación de la información adquirida con un conjunto básico de perfiles de pozo abierto
constituido por una herramienta resistiva, un calibre y la herramienta de Resonancia Magnética
Nuclear MREX (de Baker, otras compañías tienen productos alternativos) provee indicadores
tales como:

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

Porosidad Efectiva independientemente de la matriz rocosa.


Indices de calidad petrofisica del reservorio
Kc: Índice de permeabilidad de Coates,
MBVM: Índice de porosidad asociada a fluidos móviles
Estos dos últimos índices permiten caracterizar los reservorios de manera muy confiable,
minimizando el punzado de capas “Sin Entrada” de fluido y facilitando la elección de capas que
deberán ser estimuladas mediante fractura hidráulica.
En el modo que se corre (POROPERM + OIL), además de los indicadores de calidad de
reservorio, brinda tres espectros de T2 correspondientes a registros simultáneos, cuya interacción
permite realizar certeros pronósticos del fluido presente en los reservorios.

Metodología de trabajo empleada


La metodología de trabajo es muy simple, limitándose a la aplicación de valores límite a los
índices de calidad petrofísica, resultando “buenos” reservorios aquellos que posean valores de Kc y
MBVM mayores a los mismos, y “malos o pobres” reservorios aquellos cuyos valores estén por
debajo de tales límites. La discriminación entre buenos y malos reservorios se realiza tomando
como base el caudal obtenido durante el ensayo de terminación cuando éstos se han realizado de
forma individual y no en conjunto.
El histograma siguiente presenta estas consideraciones, nótese la relación de proporcionalidad
directa entre indicadores y caudales. Con valores bajos de los indicadores se obtuvieron bajos
caudales; los caudales bajos de capas que tienen indicadores con altos valores permiten inferir
posibles daños de formación y permiten sugerir algún tipo de estimulación como una fractura
hidráulica que permita remover el daño e incrementar el caudal obtenido en la terminación.

Esta conclusión está claramente indicada en el gráfico superior, el recuadro muestra el incremento
del caudal post-fractura en capas con índices altos de calidad de reservorio.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

Los gráficos para el índice de permeabilidad de Coates muestran un comportamiento similar a los
de porosidad asociada a fluidos móviles, lo que permite sacar conclusiones similares.
De esta manera se obtienen los valores límite que permiten discriminar entre reservorios de buena,
regular o mala calidad.

La clasificación de los fluidos diagnosticados se realiza aprovechando una propiedad característica


de cada tipo de fluido llamada difusión, la cual es producida por un decaimiento adicional de los
ecos en presencia de un campo magnético gradacional como el generado por el MREX.
La existencia de un gradiente de campo magnético hace que la frecuencia de Larmor cambie
espacialmente de acuerdo a como cambia el campo, lo que provoca en la secuencia de pulsos un
desfasaje adicional de los H que en su movimiento desordenado se van del lugar donde fueron
excitados cambiando su frecuencia de Larmor. Esto es análogo a una gota de tinta en un vaso de
agua.
Este fenómeno afecta mayormente a los fluidos de baja viscosidad y la propiedad es aprovechada
para separar las señales de NMR provenientes de agua de las provenientes de petróleo, dado que
las constantes de difusión de ambos fluidos son diferentes fundamentalmente a las diferencias de
viscosidad.
Para utilizar la propiedad de difusión de los fluidos en los registros de pozo se requiere realizar una
adquisición con distintas frecuencias y a distintos valores de gradiente de campo magnético.

El diagnostico de fluidos en los pozos se realiza por comparación visual de los espectros de T2
teniendo en cuenta las caracterizaciones que a continuación se exponen, las que se ajustan a
medida que avanza un determinado proyecto.

Cuando el fluido presente en el reservorio analizado es petróleo:


Los espectros deberán verse prácticamente iguales (sin desplazamientos relativos). El espectro de
T2 correspondiente al GTE de 89 (ubicado a la derecha en la siguiente figura) no deberá estar
desplazado hacia la izquierda respecto de los GTE de 36 y 17 (espectros ubicados a la izquierda).
Esto se debe a la poca difusión que presenta este tipo de fluido.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

Cuando el fluido es agua de formación:


Dado que el agua presenta mayor difusión, cuando sea éste el fluido contenido en el
reservorio, el espectro de la derecha presentará un desplazamiento (“shift”) hacia la izquierda
respecto a los del GTE: 36 y 17, tal como se muestra en la siguiente figura.

Nótese el valor bajo para el índice de movilidad asociado a fluidos móviles en las capas sin entrada
de fluido en el ensayo de terminación.

Otro elemento que es utilizado para el diagnóstico de petróleo y que aprovecha los efectos de la
difusión es el valor de T2 máx del agua, el cual depende de los parámetros de adquisición, de la
temperatura y de la viscosidad del agua.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

Este valor máximo está representado en el registro de MREX por una línea de color azul colocada
en el espectro de T2 correspondiente al GTE de 89. Toda señal que esté por arriba de esta línea es
producida por petróleo que se encuentre en la zona de lectura de la herramienta.

Dado que existe un gran contraste de la constante de difusión del gas respecto a la de los demás
fluidos, esta propiedad podría haber sido utilizada para identificarlo, pero las bajas presiones a la
que este se encuentra en nuestros reservorios hacen que el índice de hidrógeno asociado sea bajo,
generando consecuentemente una señal de muy baja intensidad que normalmente queda
enmascarada por la fuerte señal que producen las altas concentraciones de agua irreducible típicas
de esta Cuenca.

Limitaciones del método de evaluación


Expuestos ya los criterios utilizados para diagnosticar tipos de fluidos, a continuación se
comentará acerca de las limitaciones de esta metodología de evaluación que pueden motivar
prognosis desacertadas.
En ocasiones los radios de invasión calculados por procesamiento de lecturas de
resistividad a varias profundidades de investigación resultan bastante importantes. Por lo cual

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

muchas veces la lectura del MREX se produce en la zona lavada que está inmediatamente a
continuación de la pared del pozo.
La señal de petróleo que es detectada por la herramienta está producida por el petróleo que no fue
desplazado por el filtrado del lodo de perforación.
Así, un petróleo de baja viscosidad que sea casi completamente desplazado de la zona lavada,
podrá ser interpretado como agua debido a que se observará un desplazamiento de espectros
producido por el agua del filtrado. Esto motivará fallos en los diagnósticos de fluidos que harán
confundir reservorios petrolíferos con capas acuíferas. La gran invasión de agua filtrada puede ser
la razón de pronósticos desacertados.
Por otro lado, un reservorio fundamentalmente acuífero que tiene alojado algo de petróleo en la
zona de lectura, podrá producir diagnósticos erróneos que lo confundan con un reservorio
petrolífero.
Por fortuna el tipo de petróleo más común en la Cuenca del Golfo San Jorge (de viscosidad
media), minimiza estos fallos permitiendo que esta metodología de evaluación de fluidos resulte
bastante certera.

Interpretación de mapas de difusión


Una imagen de 2D NMR (mapa de difusión) es análoga a los gráficos que son usados en análisis
de pozo abierto. Por ejemplo los que usan conjuntamente datos de densidad y de neutrón para
determinar tipo de roca y porosidad.

En forma similar nosotros graficamos en 2D los datos de MREX (Difusión vs. T2 Intrínseco) para
de esta manera diferenciar fluidos con el mismo T2 pero distinta difusión.
El T2 es el tiempo de relajación que corresponde a la constante de tiempo del decaimiento del tren
de ecos y la difusividad D es la medida de la habilidad de las moléculas para moverse
aleatoriamente en el fluido.
Se grafican líneas para el agua y para el petróleo. El gas ocupará la esquina superior derecha. El
volumen de cada fluido está representado por un color distinto.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

En la Cuenca del Golfo San Jorge estas técnicas de identificación de fluidos han permitido predecir
con un promedio de acierto de más de 75% qué zonas son probablemente más productivas de
hidrocarburos. Esto ha eliminado la necesidad de ensayos de prueba, ahorrando a las operadoras
mucho dinero y tiempo de terminación. En el ejemplo se muestra un mapa de difusión de una zona
productora de petróleo. La misma muestra petróleo móvil tal cual lo demostró el ensayo posterior
de terminación.

CONSIDERACIONES PARA PROGNOSIS DE FLUIDOS

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 5(b)
Resonancia Magnética Nuclear de Pozo preparado por N. Acosta

CONSIDERACIONES TENIDAS EN CUENTA PARA ESTIMACIÓN DEL


PORCENTAJE DE ACIERTOS EN PROGNOSIS DE FLUIDOS

 La zona de lectura de la herramienta corresponde a la zona invadida (4 pulgadas de


profundidad de investigación) lo cual no hace factible hacer cuantificaciones que permitan
estimar porcentajes de fluidos en los ensayos.
 No se consideran los resultados de los ensayos en los siguientes casos:
 Ensayos en conjunto que involucran capas con diferentes prognosis
 Bajos caudales obtenidos en los ensayos (por ej: menos de 160 lts.) de capas
de alta calidad de reservorio (MBVM alto), en esos casos se infiere probable
daño de formación y de nos ser estimuladas no se consideran.
 El resultado sin entrada en una capa con prognosis de fluido y en la cual la
calidad de reservorio sugiera una estimulación no se considera en la
estadística dado que un probable daño de formación podría ser la causa del
resultado y sin estimulación NO es posible conocer el fluido que se
encuentra en el reservorio.
 En caso de capas estimuladas mediante fractura hidráulica se considera el resultado del
ensayo post-fractura

CUESTIONARIO BÁSICO
- ¿En qué se fundamentan los perfiles de resonancia magnética nuclear en pozo?
- ¿Qué indicadores provee esta metodología?
- ¿Cómo evaluamos el potencial de un reservorio con RMN?
- ¿Qué son los mapas de Difusión?

Bibliografía Específica:
- S. Chen, D. Beard, M. Guillen, S. Fang and G. Zhang: MR Explorer Log Acquisition Methods:
Petrophysical-Objective_Oriented Approaches, SPWLA 44th Annual Logging Symposium, June 22-25,
2003.
- S. Chen, C.M. Edwards, and H.F. Thern. Western Atlas Logging Services. Advances in NMR Log
Processing and Interpretation.
- Delia C. Diaz, Eduardo Breda, YPF, S.A. Comodoro Rivadavia , Argentina, Carlos Minetto, Baker
Atlas, Comodoro Rivadavia, Argentina, Songhua Chen, SPE, Baker Atlas, Houston, USA. SPE 56425.
Use of NMR Logging for Formation Damage Prevention: Water-Flooding Case Study in Cañadón
Seco, San Jorge Basin.
- Songhua Chen, SPE, Western Atlas Logging Services, Houston, USA; Oscar Olima, YPF S. A., Héctor
Gamín YPF S.A., Comodoro Rivadavia, Argentina; Daniel T. Georgi, SPE, Western Atlas Logging
Services, Houston, USA; J. Carlos Minetto, Western Atlas Logging Services, Comodoro Rivadavia,
Argentina SPE 49009 Estimation of Hydrocarbon Viscosity with Multiple TE Dual Wait-Time MRIL
Logs.
- M. Altunbay, C.M. Edwards and D.T. Georgi, Western Atlas Logging Services SPE 38027 Reducing
Uncertainty in Reservoir Description with NMR-Log Data.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

PROSPECCIÓN GEOELÉCTRICA
Los métodos geoeléctricos se fundamentan en el registro de magnitudes eléctricas del campo
electromagnético en el suelo y subsuelo terrestre, las que, una vez procesadas e interpretadas,
podrán conducir a la identificación de valores anómalos vinculados a objetivos de interés científico
o eventualmente aplicado.
La electricidad estática se conoce desde la antigüedad, como lo documentó Teofrasto en el 300
a.C., es el caso del ámbar al ser frotado. Electrón significa ámbar en griego y la palabra fue
instalada en la modernidad por el británico Williams Gilbert.
William Watson, también británico, en 1746 descubrió que el suelo es conductor de corriente
eléctrica. Más tarde, en 1784, como ya se citó, el francés Charles Coulomb definió la ley
fundamental de los campos electromagnéticos, que para el campo eléctrico se escribe:
F = Kq1.q2 / l2 -la forma matemática típica de los campos potenciales-
(en el S.I. las cargas q están dadas en coulomb y la distancia o longitud conductora l en metros,
con K= 9.109 N.m2/c2 en el vacío).
En Italia hacia el 1800 Alessandro Volta inventó la primera pila. La palabra voltio se utiliza para
definir la diferencia de energía potencial en los campos eléctricos.
Análogamente al magnetismo, el Potencial Eléctrico es: V = Kq1 / l
y el Campo Eléctrico es: E = F / q2 = Kq1 / l2 = V / l (potencial eléctrico sobre longitud)
La Densidad de Corriente es: J = I / s (intensidad eléctrica sobre sección o área del conductor)

André Ampère (francés) en 1800 observó que dos cables con corriente se repelen o atraen según
la dirección relativa de circulación y expuso su teorema: ]Hds = J+(dD/dt)
(donde el primer término es la integral de superficie cerrada del campo magnético, J la densidad de
corriente, D la inducción electrostática y t el tiempo).

PROSPECCIÓN GEOELÉCTRICA
En las variantes prospectivas de la geoelectricidad pueden aprovecharse las respuestas dadas a
partir de los campos eléctricos naturales de la Tierra o bien recurrirse a la generación de campos
artificiales cuya mayor intensidad o mejor control podrá permitir generar registros más claros del
terreno estudiado.
Existe una gran variedad de metodologías, que podemos clasificar según diversos criterios
alternativos o la combinación de ellos. Por ejemplo:
 Naturaleza del campo: natural o artificial
 Información obtenida: vertical (sondeo), lateral (calicata) o areal (mapa)
 Tipo de campo: constante (continuo) o variable (alterno).

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

Clasificación General de los Métodos Prospectivos:


Campo Natural Potencial Espontáneo (PE)
Corrientes Telúricas
Corrientes Magnetotelúricas (MT)
Campo Artificial Campo Constante (CC): Líneas Equipotenciales
(Inyección de Corriente) Sondeos Eléctricos
Calicatas Eléctricas y TE
Campo Variable (EM): Calicatas Electromagnéticas
(ElectroMagnéticos) Sondeos de Frecuencia
Registros Hertzianos y Otros
Polarización Inducida (PI): Dominio del Tiempo
Dominio de la Frecuencia

PROPIEDADES ELÉCTRICAS DE LAS ROCAS


Tipos de Conductividad
Estrictamente hablando, todos los cuerpos son eléctricamente conductores dado que permiten, en
mayor o menor medida, el paso de portadores de cargas eléctricas. Estos portadores pueden ser
electrones o iones, hecho que permite distinguir entre dos tipos de conductividad: electrónica e
iónica. Los cuerpos con conductividad electrónica se clasifican en metales y semiconductores. Los
que tienen conductividad iónica pueden ser dieléctricos o electrolitos líquidos (si no son gaseosos).
 Conductividad Electrónica
Metales: El mecanismo de la conductividad de éstos puede imaginarse como debido a que
los electrones de valencia de sus átomos pueden moverse libremente entre la red cristalina
que éstos forman, sin vinculación a ninguno determinado. La facilidad de movimiento de
los electrones y su gran número redundan en una conductividad muy elevada. Su
resistencia aumenta con la temperatura y con el contenido de impurezas. La resistividad de
los metales a temperatura normal varía entre 10-8 y 10-7 Ωm. Son pocos y muy escasos los
componentes de la corteza terrestre que posean conductividad metálica. Entre ellos se
cuentan los metales nativos (oro, plata, cobre, estaño) y quizá algún mineral poco
abundante como la ullmanita (NiSbS).
(Como curiosidad, los materiales superconductores, que no se encuentran en la corteza
terrestre, se comportan análogamente a los metales hasta que, a muy bajas temperaturas,
caen a resistividad cero, como se esquematiza en la siguiente página.)
Semiconductores: Son muchos y de gran importancia práctica. Su resistividad depende de
su contenido en impurezas, a veces en grado extremo. Además su conductividad depende
de la absorción de fotones y aumenta con la temperatura. Por ello, no cabe esperar que la
resistividad de una especie mineralógica determinada pueda representarse por un dato
único, sino que puede variar dentro de límites amplios.
En general los teluros y los arseniuros son conductores muy buenos. Los sulfuros suelen
entrar también entre los conductores buenos, con excepciones como la blenda y el cinabrio.
Los óxidos, y los compuestos de antimonio suelen ser malos conductores, con la excepción
de la magnetita. Ahora bien, estos minerales no suelen aparecer en la naturaleza de forma
individual, sino en asociaciones, y junto con una ganga frecuentemente aislante (cuarzo,
calcita, etc.), por lo que la resistividad conjunta del filón puede variar mucho de unos casos
a otros.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

 Conductividad Iónica:
Dieléctricos (o aisladores): Los electrones están fuertemente ligados a los átomos. Esto
puede deberse a que existan enlaces covalentes o iónicos. En este último caso la red
cristalina forma un electrólito sólido. La mayoría de los minerales pertenecen a este
grupo. A temperaturas normales las resistividades son muy altas, generalmente superiores
a 107 Ωm. Son minerales dieléctricos el azufre, la blenda, la calcita, el cinabrio, el cuarzo,
las micas y el petróleo entre otros. Entre estos minerales, además, figuran los más
importantes constituyentes de las rocas, las cuales se comportarían como aisladoras si no
fuera por la presencia de electrolitos.
Electrolitos líquidos: sus condiciones de conductividad dependen del campo eléctrico
aplicado, temperatura -como se ve en la gráfica-, concentración de las soluciones, tamaño
de los iones. El agua pura es muy poco conductora a causa de su muy reducida
disociación. La resistividad del agua destilada es de unos 105 Ωm por lo que puede
considerarse como aislante. Las aguas que se encuentran en la naturaleza presentan, sin
embargo, conductividad apreciable, pues siempre tienen disuelta alguna sal, generalmente
NaCl, variando entre 0,2 (agua de mar) y 103 Ωm (agua dulce).

Magnitudes eléctricas medibles, historia:


Son tres: permeabilidad magnética, constante dieléctrica y resistividad (o resistencia específica).
* La Permeabilidad Magnética µ es la magnitud fundamental en la prospección magnética como
ya se ha visto.
* La Constante dieléctrica o Permitividad ε es un ordenador lineal (que depende del sistema
cristalino) que vincula la magnitud de un campo eléctrico E con la inducción electrostática D. Su
valor relativo depende de la composición química, la densidad y la estructura cristalográfica.
Matemáticamente: Di = εij.Ej
(en el vacío ε vale 8,854 pF/m, en granitos unos 20 y en arcillas cerca de 100 pF/m)
Existen pocos métodos geoeléctricos basados en la valoración de la permitividad, de los cuales los
más empleados son:
-El Radar de Substrato o Georradar, que ha sido aplicado habitualmente a
objetivos de muy poca profundidad (pocos metros), con objetivos estratigráficos, hidrogeológicos
o ambientales, y muy utilizado en áreas de suelos congelados.
-El Perfil Dieléctrico de Pozos, que en algunas cuencas ha sido muy utilizado
como indicador de porosidades y tipos de fluidos.
* La Resistividad ρ es la magnitud eléctrica más contrastante y más utilizada en los métodos de la
geoelectricidad. Las medidas de resistividad eléctrica del subsuelo son habituales en las
prospecciones geofísicas. Su finalidad es detectar y localizar cuerpos y estructuras geológicas
basándose en su contraste resistivo, sea que tengamos una fuente de campo natural o artificial.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

Resistividad eléctrica de suelos:


La resistividad eléctrica ρ de un material describe la dificultad que encuentra la corriente a su paso
por él. De igual manera se puede definir la conductividad σcomo la facilidad que encuentra la
corriente eléctrica al atravesar el material. La resistencia eléctrica que presenta un conductor
homogéneo viene determinada por la resistividad del material que lo constituye y la geometría del
conductor. Para un conductor rectilíneo y homogéneo de sección s y longitud l la resistencia
eléctrica es:
R = ρ l/s
o bien, según la ley del alemán Georg Ohm de1830:
I = V/R
y por lo tanto R = V/I
por lo que ρ l/s = V/I y ρ = (V/I).(s/l)
(s/l es la configuración geométrica del conductor, en este caso un cable)
La unidad de resistividad en el Sistema Internacional es el ohmio por metro (Ω.m), ya que R se da
en ohmios, y además I en amperios y V en voltios.
La conductividad se define como el inverso de la resistividad: σ = 1// ρ
La unidad de conductividad en el Sistema Internacional es el Siemens (S), por Werner von
Siemens, alemán inventor de la dínamo hacia 1850, aunque suele referirse también como mho/m.

Comportamiento eléctrico de las rocas:


La resistividad es una de las magnitudes físicas con mayor amplitud de variación para diversos
materiales.
En las rocas se presenta un medio heterogéneo con por lo menos dos conductividades distintas, una
de la matriz (dieléctrica, raramente semiconductora, según sea la mineralogía) y otra del espacio
poral (electrolitos líquidos) donde los distintos parámetros de porosidad y permeabilidad importan.
Pero también influyen dos parámetros físicos: presión y temperatura.
De modo que la conductividad eléctrica depende de: Matriz mineral (composición,
y estado de agregación)
Espacio Poral (volumen,
configuración y fluidos)
Presión y Temperatura

Como se mencionó, el agua pura es muy poco conductora (105 Ωm), pero las aguas que se
encuentran en la naturaleza presentan conductividad debido a las sales disueltas. Así las aguas de
lagos y arroyos de alta montaña varían entre 103 Ωm y 3 x 103 Ωm, las aguas subterráneas tienen
resistividades de 1 a 20 Ωm, y las aguas marinas tienen una resistividad de unos 0,2 Ωm.
En geoeléctrica el concepto de matriz incluye granos y matriz. Si la resistividad de las rocas
dependiese únicamente de los minerales constituyentes, habrían de considerarse como aislantes en
la inmensa mayoría de los casos, puesto que el cuarzo, los silicatos, la calcita, las sales, etc. lo son
prácticamente. Sólo en el caso de que la roca contuviese minerales semiconductores o metales en
cantidad apreciable podría considerarse como conductora, es decir, sólo lo serían las menas
metálicas, cuya interpretación es igualmente compleja porque normalmente están rodeados de una
ganga aislante. Afortunadamente todas las rocas tienen poros en proporción mayor o menor, los
cuales suelen estar ocupados total o parcialmente por electrolitos, de lo que resulta que, en
conjunto, las rocas se comportan como conductores iónicos, de resistividad muy variable según los
casos. La resistividad de las rocas puede variar en margen amplísimo en función del contenido en
agua, de la salinidad de ésta y del modo de distribución de los poros.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

La resistividad de las rocas también depende de la temperatura a la que se encuentre, ya que ésta
influye sobre la resistividad de los minerales (inversamente en metales que en semiconductores)
pero además en los fluidos que hay en los poros. En las sedimentarias un descenso de la
temperatura provoca un aumento de la resistividad y en el punto de congelación el agua pasa a ser
un dieléctrico o mal conductor, tal como se grafica en la página 3.
En cuanto a la presión, en rocas sedimentarias, o en general con conductividad iónica dominante,
su incremento produce un incremento de resistividad por el efecto de deshidratación consecuente.
Si, en cambio, las rocas tienen conductividad electrónica, el aumento de presión suele aumentar la
conductividad.
Por último, cabe mencionar que la resistividad de algunos minerales, y como consecuencia de las
rocas que éstos forman, varía según la dirección de medida que se toma, es decir, que presentan
anisotropía. En rocas sedimentarias, la estratificación puede producir anisotropía, aunque en
general este efecto es débil dada la aleatoriedad de las orientaciones de los minerales en las rocas.

Los campos ondulatorios eléctrico y magnético se encuentran intrínsecamente


vinculados como muestra esta imagen y lo demostró James Maxwell en 1861.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS DE CAMPO NATURAL

CORRIENTES TELÚRICAS
Se trata de corrientes eléctricas naturales que circulan por la corteza terrestre, de amplitud y
frecuencia variables a lo largo de las horas y también de un día a otro. Se originan por la inducción
del campo magnético externo de la Tierra, el que interactúa con otros campos menores inducidos
desde el interior terrestre, más la eventual interacción con las tormentas eléctricas troposféricas.
Conforman ocho circuitos eléctricos principales, cuatro en cada hemisferio, más otros circuitos
menores distribuidos geográficamente.

A fines de la década de 1930 los alsacianos Conrad y Marcel Schlumberger propusieron en


Francia el empleo de las corrientes telúricas en prospección, dado éstas aparecían como ruidos en
los registros realizados a partir de fuentes artificiales de corriente -con los que ellos ya habían
empezado a trabajar algunos años antes-. Idearon entonces probar el trabajo de adquisición de
información geoeléctrica a partir de esta fuente natural, y lo que era ruido pasó a ser señal. Estas
corrientes son muy fluctuantes, caracterizándose por registrar desde casi cero hasta 10000 Hz, pero
tienen baja amplitud.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

En el trabajo de campo la metodología


propuesta fue registrar con un par de
electrodos móviles a cierta distancia
mutua, midiendo la diferencia de
potencial entre ellos, y disponer de otros
dos pares de electrodos fijos en la base de
arranque, uno N-S y otro E-O, a fin de
tener un control permanente de las
fluctuaciones naturales de estas corrientes
telúricas y no confundir las variaciones
temporales con el cambio en los valores
de un lugar del subsuelo respecto a otro.

CORRIENTES
MAGNETOTELÚRICAS
La prospección con corrientes telúricas presenta a veces el inconveniente de medirlas cuando
existe una fuerte actividad magnética de la fotosfera solar que afecta el campo magnético externo
de la Tierra (figura de la derecha). En efecto,
algunas veces puede ser tan intensa y variable
que las denominamos tormentas magnéticas,
dado que entonces las micropulsaciones del
campo magnético exterior de la Tierra (de muy
baja frecuencia, inferiores a 0,1 Hz) pueden
tener picos de amplitud de hasta 500 nT. En este
último caso directamente debe suspenderse toda
adquisición de datos telúricos debido a su
extremo nivel de ruido.
Pero mucho más frecuentemente se dan registros
en situaciones de variabilidad moderada que
generan niveles de ruido que, si bien afectan los
resultados, no los invalidan totalmente.
Pensando en estos casos muy habituales el ruso
Tikhonov en 1950 y el francés Cagniard en
1953 elaboraron las bases del método
magnetotelúrico (MT), que en esencia consiste
en medir no sólo componentes eléctricas del
campo magnético, sino igualmente componentes
magnéticas (con un magnetómetro) a fin de
combinar las mediciones en conjuntos de datos
más robustos. Debe tenerse presente que en este
método medimos las mismas corrientes
telúricas, pero además sus correlativos vectores
magnéticos.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

Se componen funciones matemáticas llamadas impedancias eléctricas, desde donde se calculan


amplitudes (o resistividades aparentes R) y fases P, denominándose TE (telúricos eléctricos) a los
valores medidos parelalamente al rumbo predominante de las formaciones a mapear (es decir, sus
resistividades RTE y fases PTE), y llamando TM (telúricos magnéticos) a los valores medidos
perpendicularmente a dichos rumbos (RTM y PTM).

Arriba vemos una fotografía que muestra el trabajo de adquisición de datos.


El ejemplo de la figura de abajo y siguientes corresponde a una prospección de la cuenca de Paraná
en Brasil (Stanley et al.,1985) e ilustra esta metodología. Los objetivos, en este caso, son la
detección de diques ígneos, así como la visualización de los espesores sedimentarios y las
estructuras geológicas -potenciales reservorios y trampas- por debajo de los más de mil metros de
coladas basálticas superpuestas de la formación Serra Geral, la cual actúa como un espejo que
impide una adecuada iluminación sísmica por debajo ella.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

Aquí otro ejemplo del método, empleado en este caso para estudios corticales profundos en un
sector de las sierras pampeanas (Booker et al., 2002). Se interpretan zonas conductivas por fluidos
de alta temperatura bajo cada una de los tres bloques de falla. En el sector oriental, el máximo
conductivo se debe al relleno sedimentario de parte de la cuenca Chaco-Paranense.

Métodos Audio Magnetotelúricos:


Son opciones del método MT que funcionan en el rango de las audiofrecuencias. Entre éstos, a su
vez, existe la variante más convencional (AMT), que sigue un procedimiento de registro y
cálculo análogo a lo descripto anteriormente, y dos variantes especiales, a saber:

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

Una de ellas se conoce como Afmag


(Audiofrecuencias magnéticas, figura a
la derecha) y es útil para la localización
de los cambios de buzamientos en
estructuras someras del subsuelo. Se
registra de manera análoga a los métodos
electromagnéticos de Inclinación de
Campo (veáse en el Tema 8) pero en este
caso la fuente no es un campo artificial,
sino uno natural.
La otra modalidad singular es el
CSAMT (Controlled Source AMT), que
opera como la mayoría de los métodos
MT, excepto porque la fuente es
artificial y por lo tanto controlada, a
partir de dos pares de antenas
ortogonales emitiendo desde una
distancia de varios km, tal como puede
apreciarse en el ejemplo de la página
siguiente en un área termal (volcánica),
en los Estados Unidos. (Se registró
dentro del recuadro pequeño del mapa
geológico.)

Otras Variantes del Método MT:


También se puede trabajar en el rango de las Radiofrecuencias (RMT), en realidad aprovechando
las emisiones radiales de origen artificial, y asimismo con Heliofrecuencias (HMT) dadas por la
energía solar, tal como se resume en las figuras siguientes.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

Aplicaciones:
Los métodos MT tienen aplicaciones muy diversas, algunas de las cuales hemos ejemplificado,
como mineralizaciones diversas (diamantes, ígneas metalíferas, etc), recursos hídricos,
yacimientos geotérmicos y otras.
Las corrientes magnetotelúricas se han utilizado para el mapeo de algunas cuencas sedimentarias
con objetivos hidrocarburíferos, ya que pueden obtenerse buenas imágenes bajo rocas de alta
impedancia acústica que pueden ser causantes de una mala señal para la sìsmica de reflexión.
También para imágenes someras en áreas de alteración geoquímica por microfuga de
hidrocarburos desde sus trampas.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

POTENCIAL ESPONTÁNEO (Self Potential)


Se trata de tensiones eléctricas naturales producidas por diferencias en la actividad química del
terreno: no dependen de ninguna propiedad física determinada. El fenómeno de potencial
espontáneo (PE o SP) fue descubierto por Robert Fox en 1815, y fue aplicado por primera vez en
prospección por Conrad Schlumberger en 1913 al realizar el primer hallazgo
geofísico de un mineral no magnético, un yacimiento de sulfuros en Serbia.

Origen de los Potenciales Espontáneos:


De fondo:
Vinculados sólo a conducción de tipo iónico pueden a su vez ser de dos tipos,
-Por variaciones de concentración en los electrolitos del subsuelo (ácido húmico o salinidad),
llamado potencial de difusión o electroquímico, o bien
- Por filtración o capilaridad de los electrolitos que fluyen a través de los poros o membranas,
sobre todo a niveles superficiales, como ejemplo el ascenso y descenso de la napa freática.
De mineralización:
Debido a las diferencias en la capacidad de oxidación de las aguas próximas al techo de los
yacimientos que internamente poseen conductividad electrónica. De modo que tenemos un
intercambio de cargas iónicas y electrónicas. La mineralización transporta electrones desde la parte
inferior hacia la superior buscando el equilibrio electroquímico, por lo que esa parte alta se carga
negativamente, generándose una pila. Típico en yacimientos de sulfuros, magnetita, grafito, etc.

Medición del Potencial Espontáneo en Superficie:


Equipo necesario:
-Electrodos: deben ser impolarizables para evitar la acción
electrolítica que enmascara la diferencia de potencial natural
(electrodo de Calomelanos, o bien cobre sumergido en
sulfato de cobre u otras alternativas).
-Cable: con un buen recubrimiento aislante.
-Voltímetro:
de lectura directa: con una impedancia de
entrada alta puede utilizarse un voltímetro electrónico de
válvula (medidor de ph)
de compensación (oposición): basado en
equilibrar la tensión entre los electrodos de SP con una
tensión conocida.

Trabajo de campo:
Existen dos modalidades alternativas
a) Un electrodo permanece fijo en una estación base, mientras el otro es transportado a diferentes
puntos. Se miden los potenciales eléctricos naturales y la presencia de valores negativos intensos
sobre zonas extensas pueden ser una indicación de interés prospectivo.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 6
Métodos Geoeléctricos de Campo Natural Chelotti, L., Acosta, N., Foster, M., 2009

b) Los dos electrodos guardan una separación fija y son desplazados conjuntamente a lo largo del
perfil de medición en pasos iguales a la separación mutua. En este caso lo que se mide son
gradientes los cuales tienen la ventaja de que su alcance operacional es ilimitado. Cuando se miden
gradientes, una lectura grande y positiva y otra grande y negativa separadas por un valor nulo es
una buena indicación.
Aplicaciones:
En la modalidad de prospección superficial el potencial espontáneo ha sido utilizado
fundamentalmente para el cateo de mineralizaciones metalíferas, pero también, aunque en menor
grado, para estudios hídricos del subsuelo, evaluaciones medioambientales y más recientemente
para yacimientos geotérmicos. La profundidad de investigación no suele ser mayor que pocos
cientos de metros, en condiciones muy favorables, con mucho mejor información dentro de las
primeras decenas de metros.

Veremos más adelante el registro y aplicaciones del PE en pozos petroleros.

CUESTIONARIO BÁSICO
- ¿Qué magnitudes eléctricas podemos medir en las rocas?
- ¿Qué características de las rocas determinan sus propiedades eléctricas?
- ¿Cómo se clasifican los distintos métodos geoeléctricos?
- Expresar la ley de Ohm y definir resistividad aparente.
- Dar los fundamentos del método Telúrico
- Explicar las variantes del método Magnetotelúrico y comentar aplicaciones.
- ¿Qué posibles orígenes tienen los potenciales espontáneos?
- ¿Cómo se registran los potenciales espontáneos en superficie y qué aplicaciones podemos tener?

BIBLIOGRAFÍA
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.379-387). Librería de Ciencia e Industria.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.19-84). Editorial Paraninfo.
- Herrero Ducloux, 1981. Memoria de los Primeros 10 años de la Unidad Geofísica. INCyTH.
- Parasnis y Orellana, 1971. Geofísica Minera (p.165-205). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.365-379). Alianza Editorial.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS DE
INYECCIÓN DE
CORRIENTE

Se los denomina también Métodos de Resistividad, aunque no son los únicos que buscan calcular
resistividades aparentes del subsuelo. Trabajan emitiendo un campo artificial de corriente
contínua (de ahí en inglés DC, Direct Current) y registrando las diferencias de potencial
resultantes.
El procedimiento consiste esencialmente en la inyección en el terreno, mediante un par de
electrodos, de corriente continua o de muy baja frecuencia (por ejemplo, 0,1 hertz, que en la
práctica puede considerarse continua) y la determinación, mediante otro par de electrodos, de la
diferencia de potencial. La magnitud de esta medida depende, entre otras variables, de la
distribución de resistividades de las masas rocosas del subsuelo, de las distancias entre los
electrodos y de la corriente inyectada.
Dispositivos de Prospección: dependen de la disposición geométrica de los electrodos empleados
(tetraelectródicos en línea, dipolares, de electrodos lineales, etc).
El precursor fue el dispositivo de dos electrodos del británico Fred Brown en 1883.
Modalidades Prospectivas: dependen del objetivo a prospectar y pueden ser Sondeos Eléctricos
Verticales, Calicatas Eléctricas o Mapeo de Líneas Equipotenciales.

Resistividad eléctrica del terreno


El suelo es una mezcla de rocas, gases, agua y otros materiales orgánicos e inorgánicos. Esta
mezcla hace que la resistividad del suelo, aparte de depender de su composición intrínseca,
dependa, como ya se comentó, de otros factores externos como la temperatura, la humedad,
presión, etc. que pueden provocar que un mismo suelo presente resistividades diferentes con el
tiempo. Esto es lo que llamamos ruido metodológico, que a veces puede ser alto.
De entre todos los factores, la humedad es el más importante para la aplicación de estos métodos;
además de ser el factor que se puede alterar más fácilmente mediante la lluvia o el riego del suelo.
Diferentes grados de humedad para un mismo terreno darían lugar a resistividades diferentes que
podrían llevarnos a interpretaciones erróneas de los materiales constituyentes del substrato.
Un caso particular a tener presente es la llamada Paradoja de los Suelos. En principio, cuanto más
humedad mayor conducción, por vía iónica. Sin embargo la conductividad en terrenos desérticos
en ocasiones puede ser mayor que en suelos similares en condiciones de clima más húmedo. La
explicación reside en la gran concentración superficial de sales que a menudo ocurre en climas
secos. En esos casos basta un mínima cantidad de humedad para que la conducción eléctrica sea
muy efectiva.
También una topografía accidentada puede generar ruido metodológico, ya que el flujo de
corriente se concentra en los valles y se dispersa en las colinas. Como resultado se distorsionan las
superficies equipotenciales produciendo falsas anomalías. En todos los casos es fundamental
prever las posibles fuentes de error y corregirlos durante le proceso de los datos, muchas veces
recurriendo a modelos teóricos de comparación.
1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

El objetivo de este tipo de prospección no es, sin embargo, dar una interpretación de los materiales
constituyentes a partir de las resistividades aparentes medidas, sino obtener imágenes uni, bi, tri y
hasta tetradimensionales de la distribución de la resistividad eléctrica del subsuelo, esto es, pozos,
secciones horizontales o verticales, volúmenes e incluso el monitoreo de su variación en el tiempo,
si fuera el caso. A partir de alguna de estas informaciones se podrán hacer interpretaciones
geológicas o de otra índole, académicas o aplicadas.
Medición de resistividades eléctricas en laboratorio

En general se pueden hacer en forma directa llevando


muestras de afloramientos o de pozos y ubicándolas en un
dispositivo muy simple. Se coloca el espécimen del modo
que se grafica y se calcula:
ρ = (V/I).(s/l)
(donde s y l son la sección y longitud de la muestra)

Adquisición de datos en el campo

La figura de abajo muestra el principio indirecto de medida de la resistividad del terreno mediante
la metodología de prospección geofísica.
Se inyecta una corriente I entre el par de electrodos AB y se mide la tensión ∆V entre el par de
electrodos MN. Si el medio es homogéneo de resistividad ρ, la diferencia de tensión es:
∆V = ρa .I / 2Π
Π (1/AM – 1/AN – 1/BM + 1/ΒΝ)
(donde AM, AN, BM, BN son las distancias entre electrodos)
La resistividad viene dada por la expresión (1): ρa = (∆V/I). g
donde g (equivalente de (s/l) en laboratorio) es un factor geométrico que sólo depende de la
Π.(1/AM – 1/AN – 1/BM + 1/ΒΝ)
disposición de los electrodos y resulta aquí (2): g = 2Π
Dispositivo tetraelectródico para la
medida de la resistividad del terreno:
En la literatura anglosajona se habla de
electrodos de Corriente y de Potencial.
En la de origen francés se los llama
electrodos de Emisión y de Recepción.
En la nomenclatura rusa se denominan
electrodos de Alimentación y Medición.

Las líneas de corriente van de A a B.


Las curvas equipotenciales resultan
perpendiculares a las de corriente.

Si el medio es homogéneo, para una misma corriente de inyección, la resistividad medida ρ será
independiente de la posición de los electrodos de inyección y detección cuando estos se
intercambian. Esta propiedad se conoce con el nombre de principio de reciprocidad, que se
cumple también para medios heterogéneos. No obstante, en la práctica no es conveniente colocar
los electrodos M y N tan separados como suelen estar los A y B, pues al ser grande la distancia
entre los primeros, la medida se vería afectada por las corrientes telúricas, parásitas industriales,
etc. cuyo efecto aumenta proporcionalmente con la distancia entre M y N.
Los cálculos anteriores se basan en la consideración de que el suelo es homogéneo e isótropo.
Cuando el medio no es homogéneo, la resistividad aparente ρa y su valor dependen, además del
factor geométrico g, de las resistividades de los diferentes materiales. A partir de la interpretación
de las resistividades aparentes medidas en un terreno se podrán extraer conclusiones.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

En la figura de arriba se muestra una situación


de subsuelo con masas rocosas de distinta
resistividad. Se indican las líneas de flujo
eléctrico y algunas relaciones físicas entre el
campo eléctrico E, la densidad de corriente J y
los demás parámetros vistos.
A la derecha se ilustra la relación de Hubbert
(estadounidense, 1940), análogo eléctrico de la
ley de Snell, que condiciona la profundidad de
investigación de estos métodos.
Además pueden definirse dos Coeficientes:
de Refracción: K = (ρ ρ2 - ρ1) / (ρ
ρ2 + ρ1 )
y de Transmisión: T = 1- K
Equipo básico de campo
Se requerirá de una batería (de 45 a 90 voltios, a veces 2 ó 3 en serie) o bien, más raramente, de
un generador (normalmente movido por un motor a explosión, de 200 W a 1 KW) que se hace
funcionar a frecuencia mínima (alrededor de 0,1 hz).

Los electrodos empleados son cuatro (como vimos, dos de corriente y dos de potencial) y
consisten en varillas de acero inoxidable de unos 70 cm de largo. Se los entierra unos 20 cm y se
puede recurrir al riego con agua salada si no hay buen contacto eléctrico. Los electrodos de
potencial podrían ser de tipo impolarizable, como los requeridos para mediciones del potencial

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

espontáneo, aunque esto sólo es recomendable en ciertos casos especiales donde la polarización en
el contacto con el suelo altera significativamente las mediciones.
Además serán necesarios un Amperímetro para medir la intensidad de corriente entregada por la
batería y un Voltímetro (con lectura de milivoltios) para registrar las tensiones eléctricas. Y, por
supuesto, cables para armar el circuito, que se enrollan como muestra la foto.
El equipo debe calibrarse para compensar las corrientes telúricas. Si las mediciones son de gran
precisión y las fluctuaciones de las corrientes naturales son muy grandes, tendremos que recurrir a
la inyección de una mayor intensidad de corriente en el terreno y tal vez ampliar la distancia entre
los electrodos de tensión. Sólo en muy raros casos convendrá suspender la adquisición de datos.
Dispositivos tetraelectródicos lineales básicos
En cualquier dispositivo electródico, si conocemos el factor geométrico g, la corriente eléctrica I
inyectada por los electrodos A y B, y la diferencia de potencial ∆V entre los electrodos M y N,
podemos calcular la resistividad aparente mediante la ecuación (1). Los dispositivos electródicos
pueden ser lineales, dipolares, etc. Los tetraelectródicos lineales más utilizados son los siguientes:
Dispositivo del estadounidense Frank Wenner, 1914:
Los electrodos se disponen equidistantes sobre una línea en el orden AMNB

Dispositivo Wenner

El factor geométrico del dispositivo se deduce de (2) y resulta: g = 2Πa


Dispositivo del alsaciano Conrad Schlumberger, 1914:
Composición simétrica de los electrodos AMNB en línea, donde la distancia de los electrodos
detectores MN es mucho menor que la de los inyectores AB.En la práctica, AB>5MN.

Dispositivo Schlumberger

El coeficiente del dispositivo deducido para este caso resulta: g = (L2– a2/4) Π /a
Dispositivos Dipolares y Otros:
Existe una enorme variedad de otros dispositivos (forma de distribución de electrodos en el
campo), entre ellos los arreglos dipolares, donde el par de corriente y el par de potencial se
mueven separadamente según distintas geometrías -y por lo tanto cada una con su propio factor
geométrico- de acuerdo a la estrategia prospectiva definida. Puede incluso haber una gran distancia
entre uno y otro par.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

Otras veces uno de los electrodos de corriente se deja fijo y muy alejado de los otros tres (se asume
que en el infinito) y se denomina a estos dispositivos trielectródicos (aunque en rigor siguen
siendo cuatro) o bien polo-dipolo (como si nos olvidásemos del polo que dejamos en el infinito).
También están los llamados polo-polo, donde además de uno de los electrodos de corriente, hay
uno de potencial también en el infinito.
Existen diversos nombres particulares como variantes de cualquiera de los antedichos:
semiSchlumberger, halfWenner, Lee y muchos otros, algunos de los cuales se esquematizan a la
derecha.

dipolar axial
Arriba se ilustran diferentes
arreglos dipolares en planta,
entre los cuales se grafica el
axial en sección.
A la derecha imágenes de
varios tipos distintos de
dispositivos sobre móviles
para un más rápido trabajo
de registro.
Y soluciones con arreglos
electródicos mútiples se
emplean para registros 3D,
como en la foto de abajo.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

En estas figuras pueden


apreciarse estrategias de
adquisición geoeléctrica de
corriente contínua hechas
con dispositivos dipolares,
en tierra y en el mar.

Tipos de Prospecciones Geoeléctricas


La finalidad de una prospección geoeléctrica es conocer la forma, composición y dimensiones de
estructuras o cuerpos inmersos en el subsuelo a partir de medidas en la superficie. Mediante la
prospección geoeléctrica conseguimos trazar una cartografía de resistividades aparentes del
subsuelo que nos darán información sobre las estructuras que subyacen en él. Las prospecciones
geoeléctricas que se realizan se dividen generalmente en tres modalidades:
- Mapeo de Líneas Equipotenciales (LE).
- Sondeo Eléctrico Vertical (SEV).
- Calicatas Eléctricas (CE) y Tomografías Eléctricas (TE).

Mapeo de Líneas Equipotenciales


En este caso la metodología, también llevada a cabo con distintos tipos de dispositivo, apunta a la
obtención de las curvas equipotenciales sobre una superficie a prospectar, con profundidad de
investigación constante y un objetivo de cobertura areal.
En las figuras que siguen se observa una configuración ideal en perfil y planta, y luego el resultado
de mapear las líneas en un área con una anomalía conductiva, donde éstas se distorsionan, lo que
se realiza con un dispositivo dipolar u otros.
Es una metodología simple empleada con fines hidrogeológicos, mineros, ambientales, etc.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

Existe una técnica de mapeo


de las líneas equipotenciales
que se fundamenta en un
dispositivo tetraelectródico
singular: el método de Mise a
la Masse (excitación de la
masa) pergeñado por C.
Schlumberger en 1920. En él
se ubica uno de los electrodos
de corriente en contacto
directo con una masa
mineralizada, si es necesario
mediante una perforación. Ha
sido usado principalmente
para mapeos geoeléctricos de
mineralizaciones metalíferas,
como se ilustra a la derecha.

Sondeo Eléctrico Vertical


La finalidad del sondeo eléctrico vertical (SEV) es averiguar la distribución vertical en
profundidad de las resistividades aparentes
bajo el punto sondeado a partir de medidas
de la diferencia de potencial en la
superficie. Se utiliza, sobre todo, para
detectar y establecer los límites de capas
horizontales del subsuelo estratificado.
A medida que A y B se separan, la
corriente eléctrica va penetrando en las
capas más profundas, pero debemos
recordar la relación de Hubbert que ya

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

hemos visto y por lo tanto tener presente que existe una influencia variable y significativa de las
resistividades de los varios medios atravesados.
Pero la profundidad de penetración depende además obviamente de la separación de los electrodos
inyectores AB. Si la distancia entre los electrodos AB aumenta, la corriente circula a mayor
profundidad pero su densidad disminuye. Para un medio isótropo y homogéneo, el 50% de la
corriente circula por encima de la profundidad AB/2 y el 70% por encima de una profundidad AB
(Orellana, 1982). Sin embargo, no es posible fijar una profundidad límite por debajo de la cual el
subsuelo no influye en el SEV, ya que la densidad de corriente disminuye de modo suave y
gradual, sin anularse nunca. Podría pensarse que la profundidad de penetración es proporcional a
AB. Sin embargo esto no es cierto en general puesto que lo dicho sólo es válido para un subsuelo
homogéneo.
Durante mucho tiempo, en prospección geoeléctrica en corriente continua, la profundidad de
investigación ha sido considerada sinónimo de la profundidad de penetración de la corriente en
función de la localización superficial de los electrodos de emisión más la particular sucesión de
resistividades en subsuelo. Sin embargo, el efecto de una capa en los potenciales o campos
observados en superficie no depende únicamente de la densidad de corriente que la atraviesa. Roy
y Apparao (1971) definen la profundidad de investigación característica como la profundidad a la
que una capa delgada de terreno (paralela a la superficie) contribuye con participación máxima a la
señal total medida en la superficie del terreno. Los autores indican que la profundidad de
investigación en parte viene determinada también por la posición de los electrodos detectores, y no
sólo por la penetración o distribución de la corriente debida a los inyectores. Esto queda claro con
un ejemplo: si se intercambian entre sí las posiciones de los electrodos de potencial con los de
corriente, la distribución de las líneas de corriente cambia. Sin embargo, en virtud del principio de
reciprocidad visto anteriormente, la resistividad aparente, y por lo tanto la profundidad de
investigación, no cambia. Definiendo L como la distancia entre los dos electrodos extremos (sin
considerar los situados en el infinito), los mismos autores determinan la profundidad de
investigación de diversos dispositivos electródicos en un suelo homogéneo, siendo para el
dispositivo polo-polo de 0,35L, para Schlumberger de 0,125L y para Wenner de 0,11L.
Edwards (1977) sugiere que un valor más útil puede ser la profundidad a la cual la mitad de la
señal medida en la superficie es debida a la porción de suelo superior a esa profundidad y la otra
mitad de la señal a la porción de suelo inferior. Barker (1989) la define como la profundidad de
investigación efectiva, y muestra con ejemplos la mayor utilidad de ésta sobre la utilizada por Roy
y Apparao (1971). Las profundidades de investigación efectiva para los dispositivos Wenner,
Schlumberger y Doble Dipolo son respectivamente de 0,17L, 0,19L y 0,25L (para este último la
profundidad de investigación característica es de 0,195L), es decir ligeramente mayores que
utilizando la definición.
Experimentalmente, a partir de los dispositivos vistos en el apartado anterior, el SEV consiste en
aumentar progresivamente la distancia entre los electrodos manteniendo un punto central fijo
(punto de sondeo P). Ahora veremos cómo se aplica con los diferentes dispositivos.

Sondeo Wenner:
Dado el dispositivo Wenner AMNB con
una separación interelectródica a, este
sondeo consiste en el aumento progresivo
del valor de a manteniendo un punto
central fijo P. Para la representación de los
datos se muestra en ordenadas el valor de
la resistividad aparente medida, ρa en Ωm,
y en abscisas el valor de a en metros para
cada paso.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

Como se aprecia en la gráfica anterior, la distancia interelectródica pasa de a (AMNB) a na


(A’M’N’B’), moviendo los cuatro electrodos en cada medición sucesiva.

Sondeo Schlumberger:
Dado el dispositivo Schlumberger AMNB con AB>>MN, el sondeo consiste en separar
progresivamente los electrodos inyectores A y B dejando los electrodos detectores M y N fijos en
torno a un punto central fijo P. La representación de este sondeo muestra en ordenadas ρa (Ωm) y
en abscisas la distancia AB/2 (m).
Los electrodos A y B se abren
progresivamente mientras M y N están
fijos. Cuando la distancia AB se hace tan
grande que la diferencia de potencial
MN es muy chica, entonces se mueven
M y N, de modo que el intervalo b se
hace suficientemente mayor -y por lo
tanto también mayor la diferencia de
potencial- y se recomienza a abrir A y B
progresivamente, pero siempre repitiendo un par de puntos comunes a dichos empalmes. El
método de cálculo es tal que da siempre resultados de ρ consistentes.

Comparación de sondeos verticales Wenner versus Schlumberger:


Como se dijo, en el dispositivo Wenner en cada punto han de
moverse los cuatro electrodos, mientras que en Schlumberger
sólo dos (A y B), excepto que se esté en un empalme. Esa es
ya una ventaja operativa a favor del segundo. Pero además los
empalmes pueden poner en evidencia situaciones como la
representada en la figura de la derecha, esto es, saltos cuyo
origen no se halla en el subsuelo sino en modificaciones del
acople eléctrico superficial (variación litológica o en el
contenido de humedad o de sales superficiales, que se reflejan
en la conductividad), en esos primeros centímetros donde
están clavados los electrodos y que normalmente no son
objetivo de la prospección. Esta situación en Wenner puede
ser interpretada como producto de cambios en las capas de
interés.
A la inversa, el dispositivo Wenner suele preferirse en relevamientos arqueológicos superficiales o
de resistividades en afloramiento, dado que manejar distancias MN mayores atenúa ciertos canales
preferenciales de la corriente eléctrica como venas o acumulaciones de minerales más conductivos
que no son el objetivo de la prospección. También se lo puede usar sin problemas para objetivos
más profundos cuando las condiciones del suelo son aceptablemente homogéneas.

Procesamiento e Interpretación de un SEV:


Sean las curvas registradas del dispositivo Wenner, Schlumberger u otro de los muchos que
existen, el paso siguiente es procesar la información. Para esto se vuelcan los datos en gráficas
como las recién vistas (ρ ρa en ordenadas versus a, AB/2 u otra distancia interelectródica de
referencia, según sea el dispositivo, representada en abscisas) y luego se efectúa la superposición
de la gráfica de campo con curvas patrones como las indicadas en la figura de la siguiente página.
Desde la superposición se puede interpretar el número de capas sondeadas, así como calcular sus
ρ1, ρ2, etc.) y el espesor de cada una de ellas, partiendo siempre de la asunción de
resistividades (ρ
9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

que no existen variaciones laterales de ρ en los estratos modelados y que la ρn (la que subyace a
los niveles de interés) es infinita.

Ahora bien, si en verdad el dispositivo electródico está próximo a un contacto vertical, las líneas
de corriente serán distorsionadas, por lo que la medición de MN se verá afectada por el otro medio,
tanto más cuanto mayor sea la separación de los electrodos AB. Por lo tanto, la medida de la
resistividad aparente en un SEV está realmente influida por la distribución de resistividades en un
cierto volumen de terreno. Esto implica que para distancias AB grandes no se sabrá si la
resistividad aparente es debida a cambios de estructuras en la profundidad o a las heterogeneidades
laterales por contraste de resistividades (Orellana, 1982). Puede ocurrir que las curvas de
resistividad aparente para dos casos diferentes de SEV sean idénticas si la relación entre
profundidad a la que se encuentra un estrato y su resistividad permanece constante, lo que provoca
una ambigüedad en la deducción del grosor de la capa y de su resistividad. En estos casos se puede
recurrir a modelados análogos a los vistos en gravimetría y magnetometría, apoyados en
información geológica, de pozos o de otros métodos geofísicos.
Si es posible realizar Sondeos Paramétricos, éstos son de gran ayuda para ajustar la
interpretación. Se trata de sondeos eléctricos verticales realizados allí donde existen pozos
perforados, sean mineros, hidrogeológicos, petroleros, etc. y obtendremos así un ajuste preciso de
las profundidades, lo cual nos permitirá interpretar más confiablemente otros puntos del área
prospectada. De no ser así, el error metodológico suele estar en el orden del 10 y hasta el 20%.

Aplicaciones
Los SEV no son adecuados para detectar contactos verticales, fallas, diques, etc. y sí son aplicables
cuando el objetivo tiene una posición horizontal y una extensión mayor que su profundidad. Tal es
el caso del estudio de capas tectosedimentarias con objetivos hidrológicos, petrolíferos, etc.
Se los suele clasificar en:
SEV Cortos o Someros si la distancia AB es menor a 300 m.
SEV Normales cuando AB es de entre 300 m y 3 km.
SEV Largos o Profundos cuando AB va de 3 a 30 km.
SEV Ultraprofundos si AB supera los 30 km.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

Los Sondeos Eléctricos Verticales Cortos son los más comunes, empleados en hidrogeología,
minería, etc. Suelen ser adecuados para trabajar a poca profundidad sobre topografías suaves como
complemento de las calicatas eléctricas, con el objetivo de decidir la profundidad a la cual realizar
el perfil de resistividades, como ocurre por ejemplo en Arqueología.
Los SEV Normales son los más empleados en la exploración de cuencas sedimentarias a
profundidades del orden de los cientos de metros, fundamentalmente con objetivos
hidrogeológicos y mineros (por ejemplo mantos de carbón).
Los SEV Profundos se han utilizado sobre todo en prospección de hidrocarburos.
Los SEV Ultraprofundos tienen fines geocientíficos y han sido realizados especialmente en Rusia
y países de la ex Unión Soviética (desde 1938).
Abajo ejemplos de SEV Normal en España y Ultraprofundo en Sudáfrica.

El ejemplo que sigue es el resultado de interpolar la información brindada por cierto número de
SEVs distribuidos dentro de un área de interés hidrogeológico estudiada en el sur de España.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

Calicatas Eléctricas
Es una modalidad de prospección en la cual se desplaza el dispositivo a lo largo de un perfil, con
una separación constante de los electrodos, a fin de conocer la variación de resistividades a lo largo
del mismo pero a una profundidad de investigación constante, es decir algo análogo a lo que sería
una calicata minera, pero en este caso de tipo virtual en función de la información dada por el
campo eléctrico. En CE se utilizan los dispositivos de Schlumberger, Wenner, Dipolares, de
electrodos Lineales y otros similares a los usados en SEV, en general con las mismas ventajas y
desventajas operativas.
A la derecha tenemos un ejemplo de calicata en perfil y contraperfil.
Una variante con mayor información que las
CE convencionales son las Tomografías
Eléctricas (TE), en las cuales se investiga a
lo largo de una calicata con varias
profundidades de interés a fin de generar
una sección en la que se observan tanto los
cambios laterales como verticales hasta
cierta profundidad definida. Son algo así
como una combinación de CE con SEV. La
figura de abajo muestra este tipo de
registros, así como la evaluación de la
influencia de la topografía sobre distintos
dispositivos alternativos que se han
empleado en este caso.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

Este es un caso de registro marino de TE, del modo ilustrado por los barcos vistos en la página 6.

Y aquí otro ejemplo de iluminación geoeléctrica de fracturas en una sección de TE en ambiente kárstico.

Un tipo especial de calicateo geoeléctrico es el que se realiza con dispositivos con electrodos de
corriente lineales (cables tendidos en el terreno a bastante distancia y paralelos entre sí).
Sucesivas calicatas paralelas se hacen en forma perpendicular a dichos electrodos lineales, entre
uno y otro, como se ve en la figura. Conviene emplear esta técnica en terreno llano, con la ventaja
de distribuir mejor la corriente en el subsuelo y facilitar la interpretación de las anomalías.

Los ejemplos de TE vistos hasta acá son bidimensionales, pero raramente, por su complejidad y
costo, se puede hacer también registros tridimensionales de TE, como el ejemplo que se ilustra de
España.

Las CE y TE son utilizadas para cateo y desarrollo minero, hidrogeología, arqueología,


fundaciones, medioambiente, etc.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 7
Métodos Geoeléctricos de Corriente Contínua Chelotti, L., Acosta, N., Foster, M., 2009

Aplicaciones en la Prospección de Hidrocarburos


Además del perfilaje de pozos -que se verá más adelante- los métodos geoeléctricos de corriente
contínua desde superficie han sido utilizados en algún grado en la prospección e incluso desarrollo
de yacimientos de hidrocarburos.
Los principales ejemplos de aplicación tienen que ver, como se mencionó, con los SEV profundos
realizados para la exploración de nuevas cuencas potencialmente hidrocarburíferas, especialmente
en los países de la ex Unión Soviética.
Otras aplicaciones someras modernas se vinculan a condiciones de suelo alterado por eventuales
microfugas de hidrocarburos, configurando una herramienta prospectiva que en algunas áreas ha
dado interesantes resultados. Los suelos pueden tener cementación carbonática subsuperficial (que
da anomalías de alta resistividad) y también zonas más profundas de baja resistividad asociada a la
presencia de pirita, magnetita y otros minerales conductivos generados por acción de las bacterias
que biodegradan los hidrocarburos.
El ejemplo de la figura corresponde a una TE donde las capas subsuperficiales muestran aumento
de resistividad donde existen pequeñas acumulaciones de hidrocarburos provenientes de trampas
profundas.

CUESTIONARIO BÁSICO
- ¿Qué equipamiento de campo se requiere en los métodos de CC y que ruidos podemos tener?
- ¿Cómo son las líneas equipotenciales y de corriente en planta y perfil ante una anomalía?
- ¿Qué diferencias hay entre los dispositivos de Wenner y Schlumberger en operación y resultados
para el método de SEV?
- ¿Cómo se interpreta la información con las curvas patrón?
- ¿Qué tipo de información brindan las CE y TE?
- ¿Cómo pueden ser los dispositivos dipolares y cómo los de electrodos lineales?
- ¿Qué aplicaciones brindan estos métodos de inyección de corriente?

BIBLIOGRAFÍA
- Cantos Figuerola, J. 1972. Tratado de Geofísica Aplicada (p. 391-419). Librería de Ciencia e Industria.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.19-84). Editorial Paraninfo.
- Herrero Ducloux, 1981. Memoria de los Primeros 10 años de la Unidad Geofísica. INCyTH.
- Parasnis y Orellana, 1971. Geofísica Minera (p.165-205). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Udías y Mezcúa, 1997. Fundamentos de Geofísica (p. 365-379). Alianza Editorial.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

APLICACIONES DE
PERFILES ELÉCTRICOS
EN POZOS

Vamos a abordar aquí las aplicaciones geoeléctricas en pozos, de carácter muy específico e
interrelacionadas. Constituyen servicios geofísicos casi siempre solicitados por la exploración y
explotación de hidrocarburos, aunque también, en mucho menor proporción, como herramientas
auxiliares en la búsqueda de aguas subterráneas, minería, geotermia o investigación cortical.

POTENCIAL ESPONTÁNEO (PE o SP)


El SP (Spontaneous o Self Potential) constituye una de las más antiguas herramientas de perfilaje
(H.Doll, 1929, U.S.A.) y consiste sólo de un electrodo de tensión móvil dentro del pozo y otro fijo en
superficie, más el correspondiente milivoltímetro para medir dichas diferencias de potencial.
El origen del fenómeno de potencial espontáneo en pozos fue estudiado en 1944 en Estados Unidos
por Mounce y Rust mediante un recipiente circular con arcilla, agua dulce, una membrana permeable
y agua salada.

Vieron que, en analogía a un pozo, pasa corriente del agua dulce a la arcilla y de ésta al agua salada:
en sentido contrario viajan los cationes Na+ a través de la arcilla debido a las cargas acumuladas sobre
su estructura laminar (potencial de membrana), no pudiendo ser atravesada por los aniones Cl- debido
a su mayor tamaño. A su vez, pasa corriente del agua salada a la dulce a través de la membrana que
representa la arenisca, entre la zona lavada y virgen donde en un caso típico hay mayor salinidad, dado
que los Cl- tienen mayor movilidad que los Na+.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

A partir del estadounidense M. Wyllie (1949) el potencial espontáneo electroquímico Eq -que


equivale al potencial de difusión en prospección superficial- se expresa como:
Eq= -K log aw/am (K depende del tipo de lodo, aw y am son las actividades electroquímicas
del agua de formación y del filtrado de lodo respectivamente)
Pero también puede existir un potencial espontáneo de origen electrocinético -equivalente al potencial
de filtración en superficie- debido a la diferencia de presiones entre la columna de lodo (usualmente
mayor) y el fluido formacional a través del revoque depositado sobre la capa permeable como residuo
sólido del filtrado de lodo (es decir como consecuencia de dicha diferencia de presiones. Este
potencial espontáneo electrocinético Ek puede expresarse como:
Ek= K ∆P Rmf/u (K depende del lodo, ∆P es la diferencia de presiones, Rmf es la
resistividad del filtrado de lodo y u la viscosidad del filtrado)
Cuando Ek se anula, tenemos un potencial espontáneo estático
denominado SSP.
El potencial espontáneo frente a las arcilitas o lutitas
generalmente tiende a seguir una secuencia de valores más o
menos constante que define la llamada línea de arcillas o
lutitas, y frente a formaciones permeables la curva de SP se
aparta de dicha línea base. Cuando las capas de arenas tienen
suficiente espesor, alcanzan una desviación pareja definiendo
una línea de arenas.
La deflexión de la curva frente a las capas permeables puede
ser hacia la derecha o izquierda, dependiendo de las salinidades
relativas de lodo y agua de formación. Cuando el filtrado del
lodo es más dulce que el fluido formacional, la deflexión es
hacia la izquierda (SP negativo, el más habitual), caso contrario
hacia la derecha o positivo. No es importante el valor absoluto
del potencial espontáneo sino el valor relativo respecto a la
línea base de lutitas, cuya posición es fijada arbitrariamente por
el ingeniero de perfilaje para que las desviaciones permanezcan
dentro de la escala de graficación.
Los valores medidos por la SP aumentan con la contraste de
salinidades entre lodo y agua de formación, también con la
resistividad de capas y con la diferencia de presión entre lodo y
formación, y disminuyen con el aumento del radio de invasión
del lodo, con la mayor arcillosidad de las capas permeables
(más si la arcilla es montmorillonita, menos si es illita o clorita
y menos aún si es caolinita) y también con la presencia de
hidrocarburos y espesor de capa muy reducido.

Arriba imagen de perfiles de SP y


resistividad normal (corta y larga).

Obviamente, no hay SP si no hay


contraste de salinidades, en cuyo
caso puede evaluarse recurrir al
perfil de rayos gamma como
alternativa a éste.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

Aplicaciones:

El perfil de SP es utilizado para:


-detectar estratos permeables
-hacer correlación de capas
-determinar valores de ρ del agua de formación (Rw)
-dar una idea cualitativa del contenido de arcilla en
cuerpos rocosos permeables
La curva de potencial espontáneo puede presentar ruidos
provocados por acoples magnéticos instrumentales,
perturbaciones eléctricas vecinas, interferencias del
cable de la herramienta y corrientes telúricas.
Como en todos los demás perfiles de pozo, la resolución
vertical tiene limitaciones, que para el SP se presentan
en el modelo de la izquierda.

RESISTIVIDAD CON INYECCIÓN DE CORRIENTE


E INDUCCIÓN EN POZOS
Registros de Resistividad
Los registros de pozo (inductivos o de inyección de corriente) pueden identificar muchas de las
propiedades físicas de las rocas que perfora el trépano. Una de las propiedades más importantes es la
resistividad. Las mediciones de resistividad, en conjunción con la porosidad y resistividad del agua, se
usan en cálculos de la saturación de agua en el espacio poral de los reservorios, y en consecuencia en
la eventual saturación de hidrocarburos.
Antes de tratar las características y principios de los diversos instrumentos que se usan para medir la
resistividad, vamos a recalcar algunos conceptos básicos de la resistividad del subsuelo.

Conceptos Básicos aplicados a Reservorios


Como vimos, la resistividad puede definirse como la capacidad que una sustancia tiene `de resistir a` o
impedir el flujo de una corriente eléctrica. Es una propiedad física de la sustancia e independiente del
tamaño o forma de la misma.
En el registro de pozos se utilizan tanto el término resistividad como su inverso, conductividad. La
unidad de resistividad que se usa en los registros es el ohmio-m. La conductividad eléctrica se expresa
en mhos por metro o siemens, y con el objeto de evitar fracciones decimales en los registros eléctricos
la conductividad se expresa en milimhos por metro (o, simplificadamente, milimhos). Por consiguiente
la relación entre resistividad y conductividad es en la práctica:
ρ (Ω.m) = 1000 / σ (milimhos.m)
En las rocas de los yacimientos los minerales que componen la matriz (en análisis de perfiles el
concepto de matriz incluye a los clastos y a las matriz propiamente dicha) no conducen corrientes

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

eléctricas y se llaman no conductores. Por consiguiente, el flujo de corriente en las rocas sedimentarias
está asociado con el agua contenida dentro de los poros. Casi todas las aguas en los poros contienen
algo de cloruro de sodio en solución (y otras sales) y por lo tanto la corriente la transportan los iones
(cada uno tiene una carga eléctrica) de sal disuelta en el agua. En otras palabras, la conductividad es
proporcional a la concentración de la sal en el agua. Aunque cada uno de los iones sólo puede
transportar una cantidad definida de electricidad, un aumento en la temperatura de la formación
produce una mayor velocidad en el movimiento de los iones, lo cual resulta en un incremento en la
conductividad, como también se ha visto.
La litología también afecta la resistividad de la formación. En general los carbonatos exhiben
resistividades más altas que las rocas clásticas, debido primordialmente a la geometría de los poros. En
el caso de los carbonatos el agua sigue vías mucho más tortuosas y por lo tanto reduce la
conductividad.
Si llamamos Ro a la resistividad de una formación saturada 100 % en agua y Rw a la resistividad del
agua de formación, la relación entre Ro y Rw es una constante de proporcionalidad que recibe el
nombre de Factor de Resistividad de la Formación (F). (A Ro y Rw deberíamos llamarlas ρo y ρw,
respectivamente, ya que no son resistencias sino resistividades, pero éstas son las letras habitualmente
empleadas en la jerga petrolera.) El concepto de F es muy importante en la comprensión del análisis de
registros.
F = Ro / Rw, por lo que obviamente: Ro = F . Rw
Es evidente que la resistividad de una formación porosa está relacionada directamente con la
resistividad del fluido que la satura (por ejemplo el agua de formación).
El factor F se relaciona matemáticamente con la porosidad mediante la ecuación: F = am / Φ
A continuación se presentan las relaciones matemáticas de la evaluación de la porosidad efectiva, así
como su relación con el factor de formación, un concepto de suma relevancia en la evaluación de los
reservorios de hidrocarburos.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

Las constantes a y m son función de la litología. Valores típicos de estas constantes en el caso de una
arenisca bien cementada o una caliza porosa serían:
a = 1, m=2
Las soluciones a esta ecuación para varias porosidades ilustran la magnitud del cambio en la
resistividad de la formación en función de cambios en la porosidad.
Φ (%) Φ F
10 0.1 100
20 0.2 25
30 0.3 11

Continuando con el mismo ejemplo, un valor típico para Rw seria 0.05. Reemplazando en la ecuación
del factor de formación obtenemos:
Φ (%) Rw F Ro
10 0.05 100 5.00
20 0.05 25 1.25
30 0.05 11 0.55

Hasta el momento sólo hemos considerado formaciones con el 100 % de saturación en agua. Es obvio
que las resistividades aumentan a medida que disminuye la porosidad debido al decremento en el
volumen de agua en la formación.
El mismo efecto se observa cuando parte del agua de una formación ha sido desplazada por petróleo o
gas. El petróleo y el gas se comportan igual que la matriz de la formación, o sea que no son
conductores de corrientes eléctricas y, en consecuencia, cuando parte del agua de la formación es
desplazada por sustancias no conductoras, como petróleo y gas, la conductividad disminuye con el
consiguiente aumento de la resistividad.
Llamando Rt a la resistividad real o verdadera de la formación podemos definir el índice de
resistividad como la relación entre Rt y Ro:
IR = Rt/Ro
Los porcentajes de saturación en agua pueden determinarse a partir del índice de resistividad mediante
la ecuación: n______
(Sw)n = 1 / IR, de donde: Sw = √Ro/Rt (G.Archie, 1941, U.S.A.)
Se asume que el exponente de saturación n es igual a 2, a menos que se tenga información más
específica respecto a las propiedades petrofísicas de los reservorios locales.
En resumen las variables que afectan la resistividad de la formación son:
-Porosidad (total y cómo se distribuye)
-Saturación en agua
-Concentración de sales en el agua
-Litología (composición y agregación de la “matriz”)
-Temperatura del reservorio (y en mucho menor medida su presión)

Lo fundamental de los registros de resistividad se basa en la comparación de diversos valores y en la


relación entre los diferentes parámetros. La resistividad real de la formación Rt se calcula mediante
mediciones individuales o combinadas de la resistividad. Por consiguiente es de gran importancia para
el analista familiarizarse con las características de los diversos instrumentos que miden ρ.
A continuación se presenta un esquema generalizado de aplicación de la fórmula de Archie y de dónde
podemos obtener los distintos datos requeridos. También se indica qué magnitudes aproximadas
pueden pronosticar hidrocarburos o agua de formación, aunque esto último debe calibrarse en cada
yacimiento en particular.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

Cálculo de la Arcillosidad
Es necesario determinar el contenido pelítico para calcular correctamente la porosidad que nos
proporcionan los perfiles, la cual, a su vez, entra en la fórmula de Archie.
Ante todo debe tenerse presente que pueden obtenerse porosidades desde los perfiles de densidad (o
litodensidad), neutrónico (en sus distintas variantes), acústico y dieléctrico, aunque este último se usa
poco. Si tenemos más de uno, normalmente elegimos el valor más bajo o conservador, ya que estas
herramientas suelen calcular la porosidad φ por exceso. Además vamos a referir el contenido político o
arcillosidad como un volumen Vsh (shale,lutita en inglés) involucrando alguna posible fracción limosa.
A continuación las ecuaciones generales.
Si la arenisca reservorio es limpia: ρb = (1 – φe). ρm – φe. ρf
(ρm, ρf, ρb son las densidades de matriz, de fluido y la bruta medida por la herramienta)
por lo que la porosidad efectiva φe = (ρm – ρb) / (ρm – ρf)
Pero si la arenisca es arcillosa: ρb = (1 – φe − Vsh). ρm – φe. ρf – Vsh. ρa
de donde φe = [(ρm – ρb) / (ρm – ρf)] – Vsh [(ρm – ρsh) / (ρm – ρf)]
es decir que φe = φb – Vs. φsh
(Vsh, ρsh, φsh son volumen, densidad y porosidad de lutitas, φb la porosidad bruta o bulk)

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

La porosidad efectiva puede calcularse a partir de porosidades brutas medidas por las herramientas de
densidad, neutrónicas, acústicas o dieléctricas. La fórmula es análoga.
Existe una variedad de alternativas para el cálculo de la arcillosidad, con la cual ajustar tales
porosidades. Entre ellas se elige el menor valor dado que suelen dar por exceso.
1) con un perfil de rayos gamma, Vsh = (γi − γmín) / (γmáx − γmín)
(γi, γmín, γmáx son los valores en la capa de interés, mínimo y máximo en el perfil. En casos
particulares puede multiplicarse por alguna constante empírica válida para el área.)
2) con un perfil espectrométrico, Vsh = (Κi − Κmín) / (Κmáx − Κmín)
o bien, con Th en lugar de K: Vsh = (Thi − Thmín) / (Thmáx − Thmín)
3) con un perfil neutrónico, Vsh = (φNi − φNmín) / (φNmáx − φNmín)
(φNi, φNmín, φNmáx son las porosidades neutrónicas en la capa de interés, la mínima y la máxima leídas
en el perfil)
4) con un perfil acústico (o sónico), Vsh = φSi / φSsh
(φSi, φSsh son las porosidades acústicas en la capa de interés y en una capa de lutitas)
5) con un perfil de potencial espontáneo, Vsh = 1 − (SPi / SSP)
(SPi es el potencial espontáneo en la capa de interés y SSP el valor de referencia estático)
½
6) con un perfil de resistividad, Vsh = (Rsh / Rt)
(Rs, Rt son las resistividades de las lutitas y la profunda o verdadera en la capa de interés)
7) con Ábacos, a partir de
datos de dos perfiles:
Se puede representar φN vs
φD, φN vs φS, ó φD vs φS.
Por ejemplo, en una gráfica
φN versus φD (derecha) la
recta a 45º corresponde a
una arenisca limpia, en
tanto que la arcillosidad
crece paralelamente hacia
la derecha.
Parecido es el ábaco de la
izquierda, donde en las
ordenadas se representa la
densidad dada por el perfil
neutrónico.

Medición de la resistividad
Debido a que la saturación en agua y en consecuencia la saturación en hidrocarburos se basa en los
valores de la resistividad, la ρ de la formación (o su recíproca, la conductividad) es una de las
mediciones más importantes en los registros de pozos.
La mayor parte de los registros de resistividad presenta más de una clase de medición de ρ. Por lo
general, estas diferentes mediciones se combinan con la información de otros instrumentos de registro
a fin de obtener una visión total de la calidad de los reservorios, así como de los fluidos en cuestión.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

Registros de Resistividad con Inyección de Corriente (continua)


Su utilización fue anterior a la de los registros de inducción, desde que los hermanos Schlumberger
en 1928 idearon bajar un dispositivo tetraelectródico a un pozo. En rigor comenzaron con una
configuración Normal, donde se ubicaba uno de los electrodos de corriente y uno de los de potencial
en la superficie -años después sobre el mismo cable de perfilaje- moviéndose con los otros dos dentro
del sondeo para efectuar las mediciones de cada intervalo.

Más tarde se comenzó a emplear la configuración Lateral, donde queda lejos en el cable sólo un
electrodo de corriente y los tres restantes (en la herramienta) se mueven a intervalos dentro del pozo.
En estos circuitos la resistividad resultante es la suma de la contribución de cada zona como en los
circuitos en serie:
Rr=RmGm+RxoGxo+RiGi+RtGt
(respectivamente las resistividades del lodo y zonas lavada, invadida y virgen, cada una afectada por
un factor geométrico de contribución)
La siguiente ilustración muestra las zonas con distinto grado de invasión del fluido de perforación en
torno al pozo, desplazando parcial o totalmente el fluido original de formación. También se indican los
nombres de algunas herramientas de perfilaje tradicionales para distintas profundidades de
investigación.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

Los sistemas convencionales de Lateroperfil (Laterolog) utilizan entonces un principio básico


(distribución de la densidad de corriente) aplicando corriente a la formación que rodea a un
relativamente pequeño electrodo fuente de esa corriente. La corriente circula desde el electrodo fuente
a través del medio que rodea a éste y hacia un remoto electrodo de retorno de corriente en superficie.
Se emplean dos electrodos adicionales ubicados dentro de la esfera de corriente y a distancias
predeterminadas del electrodo fuente, para efectuar mediciones de potencial que pueden relacionarse
con la resistividad de la formación a través de la cual circula la corriente. Investigan a mayor
profundidad que los perfiles normales (más de 5 m, contra 1 y 3 m en los llamados normal corto y
largo), pero dan curvas asimétricas, por lo que se corren combinados con los dos normales.
Cuando se aplica este tipo de sistema de perfilaje en pozos con fluidos de perforación muy
conductivos, de resistividades considerablemente distintas de las que tienen las formaciones que los
rodean, la distribución simétrica de corriente descripta arriba se distorsiona y son afectadas las
mediciones. Este efecto se hace más severo a medida que aumenta la conductividad del fluido y por lo
tanto se reduce la corriente que penetra en la formación.
Es por esto que se desarrollaron sistemas de Lateroperfil
Enfocado (Focused Laterolog) en los que a una gran parte de la
corriente de perfilaje se le impide que circule radialmente hacia
fuera en todas direcciones, como ocurre con las disposiciones
comunes, y se la confina en un volumen dado. Esto se logra
colocando electrodos enfocadores a ambos lados de un electrodo
de corriente de medición ubicado en el medio, como muestra la
figura de la derecha. Así se evita que la corriente se escape hacia
arriba y abajo dentro del pozo y se la obliga a circular sólo en
dirección lateral normal al eje de la herramienta de perfilaje,
como se ve en la figura, con el beneficio adicional de lograr un menor intervalo vertical de muestreo.
Los perfiles de inyección de corriente funcionan bien en pozos que contienen fluidos de perforación
conductivos (poco o muy salinos), pero no son corridos cuando el lodo es extremadamente dulce o es
inverso (en base a hidrocarburos y no agua), ni cuando se perfora con aire. En estos últimos casos, al
haber muy poca o nula conducción -es decir, mal contacto eléctrico- entre la herramienta y la roca,
debemos recurrir a los perfiles de inducción.
Perfil de Microrresistividad:
Basado en el principio de inyección de
corriente, es una herramienta que se corre
montada en un patín que va siendo movido
contra la pared del pozo. El objetivo es hacer
mediciones de la resistividad a muy poca
profundidad, esto es, en la zona lavada. Sus
mediciones pueden verse afectadas por un pozo
con mal calibre, registrando el valor de la
resistividad del lodo -y no de la formación- allí
donde existan cavernas.
Perfil de Buzamiento (Dipmeter):
Es otro perfil basado en la inyección de
corriente contínua, con una herramienta (a la
derecha) similar a la microrresistiva, pero en
este caso multiplicada por cuatro. De modo que
las lecturas de estos cuatro patines ortogonales
se combinan en un procesamiento que toma en

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

cuenta la información
giroscópica (de modo de
tener en todo momento la
orientación del conjunto),
para entonces poder calcular
datos de rumbo e inclinación
de los estratos, tipos de
estructuras sedimentarias,
fracturas menores o fallas.
Actualmente se suele correr
una herramienta con seis
patines (fotografía).

Ésta brinda mayor detalle,


como puede verse a la
derecha, donde en las pistas
sucesivas vemos los vectores
de rumbo y buzamiento
(resultantes del proceso), el
azimut de la herramienta, las
curvas adquiridas, su imagen
en colores y, adicionalmente,
una imagen acústica.
Perfil de Imágenes de Pozo:
Siguiendo la misma lógica operativa del perfil de
Buzamiento, se agregan más patines (hasta tener 48 ó
más) y se consigue una densidad de muestreo radial tal
que permite transformar esos numerosos perfiles
microrresistivos en una imagen de pozo, función de la
variación de resistividades. Un adecuado proceso y
coloración asemejan a lo que podría verse en un testigo
corona (figura a la izquierda), aunque obviamente un
núcleo de roca da mucha más información que la visual.
(Imágenes parecidas, que resultan complementarias de
las resistivas, pueden obtenerse registrando curvas
acústicas, como el ejemplo de arriba, tema que se verá
más adelante.)
Perfilaje Eléctrico Durante la Perforación:
Llamado LWD (Logging While Drilling) consiste en
registrar mientras se perfora, con herramientas de CC o
EM que van por encima del conjunto de fondo y brindan
datos de baja calidad, pero que permiten tomar decisiones
inmediatas sobre ensayos, coroneo, entubamiento, etc.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

Registros de Inducción eléctrica (corriente alterna)


Miden la conductividad de la formación y son muy efectivos en las formaciones con porosidad de
intermedia a alta.
En los registros de inducción se hace circular una corriente alterna constante por una bobina
transmisora aislada. El campo magnético alterno de la bobina induce una corriente alterna en la
formación, la cual resulta en un campo magnético secundario que, a su vez, induce una corriente en
una bobina receptora. La inversa de la resistividad medida es resultante de la contribución de cada
zona en torno al pozo como en un circuito en paralelo:
1/Rr=1/RmGm+1/RxoGxo+1/RiGi+1/RtGt
(respectivamente inversas de las resistividades del lodo y zonas lavada, invadida y virgen, cada una
afectada por un factor geométrico de contribución)
La corriente inducida en la bobina receptora y transmisora es un
compromiso entre la profundidad de investigación y la resolución
en la identificación de los estratos delgados mediante el
instrumento de registro. A fin de enfocar la corriente en la
formación es normal colocar bobinas adicionales arriba y debajo
de la receptora y transmisora, lo cual deviene en los llamados
perfiles de Inducción Enfocada (Focused Induction Log) que
logra mayor profundidad de registro sin perder resolución vertical.
Bajo condiciones favorables, es posible usar los valores obtenidos
en el registro de inducción en la determinación de la resistividad
real; sin embargo deben hacerse correcciones, para las que existen
gráficos tales como estratos delgados, diámetros de pozo muy grandes, invasión extensa, etc.
Cuando se perfora con lodos muy conductivos (salados) las mediciones de resistividad obtenidas son
de muy poco o de ningún valor para la determinación de la resistividad real de la formación. Esto se
debe a que se obtiene una respuesta muy notoria dada por la inducción electromagnética en el lodo
(tipo cortocircuito) y en contraposición una respuesta muy débil, casi nula, de las formaciones rocosas.
En consecuencia, los sistemas de inducción no son aplicables en pozos en que se den tales condiciones
y se debe recurrir a herramientas de inyección de corriente continua.
Registro de Inducción eléctrica Tridimensional:
La herramienta de inducción tridimensional trabaja induciendo en la formación anillos de corriente
ubicados en tres planos perpendiculares entre sí y mide las conductividades asociadas a cada uno de
esos anillos o planos. La herramienta conductiva convencional trabaja con un solo anillo de corriente
ubicado en un plano horizontal que, por ser paralelo o subparalelo a los planos de estratificación, hace
que las corrientes se concentren
en las láminas más conductivas.
La presencia de arcilitas
laminares en los cuerpos
arenosos causa una caída de los
valores de resistividad medida
con cualquier herramienta
inductiva convencional; a esa
resistividad se la denomina
Resistividad Horizontal por ser
medida con anillos de corrientes
horizontales.
En la figura izquierda, inducción
tridimensional (3DEX) y en la derecha
inducción de alta definición (HDIL)

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

La herramienta, además de medir la resistividad horizontal, también mide la resistividad vertical, para
lo cual utiliza los anillos de corrientes verticales; esta resistividad no se ve tan afectada por la
presencia de arcilitas laminares de baja resistividad porque las corrientes de medición, al ser verticales,
deben atravesar tanto las láminas de arcilita como las de arenisca.
Haciendo una analogía con los circuitos eléctricos, tanto la resistividad horizontal como la vertical, se
pueden expresar en función de las resistividades de las láminas de arcilita y de arenisca y del volumen
porcentual de arcilita laminar. La diferencia entre ambas es que la expresión de la resistividad
horizontal es una ecuación que se asemeja a la de las resistencias en paralelo, mientras que la de la
resistividad vertical se asemeja a la de las resistencias en serie. Las siguientes son las ecuaciones:
1 1 − V shl V shl
= + R v = (1 − V shl ) R sand + V shl R sh
Rh R sand R sh
En estas dos expresiones Rh y Rv son medidas por la herramienta, Rsh se puede estimar de las arcilitas
vecinas a la capa analizada con lo que quedan dos ecuaciones con dos incógnitas: Vshl y Rsand

Aplicaciones Especiales de Geoeléctrica de Pozo:


El primero es un ejemplo de adquisición de datos EM combinados pozo-superficie, en este caso desde
un sondeo de poca profundidad en Japón, para modelar la respuesta de reservorios con agua de
formación conductiva.

El segundo también es un caso combinado pozo-superficie. Se trata de un ejemplo de registros de


potencial espontáneo y resistividad a partir de emitir un campo EM de muy baja frecuencia (0,1 Hz,
prácticamente Corriente Continua) empleando la tubería del pozo como uno de los electrodos de
corriente, en una modalidad particular del Método de Mise a la Masse. Estos registros se hicieron a
intervalos de tiempo durante operaciones de inyección de agua y vapor, de modo que se hizo un
seguimiento geoeléctrico del cambio temporal de las condiciones del reservorio (zonas fracturadas), en

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

este caso como investigación piloto para monitoreo de explotaciones geotérmicas, en lo que constituye
una técnica tetradimensional (espacio más tiempo).

Tomografía Eléctrica entre Pozos:


Existen muchas variantes de este tipo de registros no convencionales, comúnmente obtenidos mediante
perfiles de inducción dado que suele tener más penetración, aunque la inyección de corriente continua
también se puede utilizar si
el lodo es salado o si la
profundidad del pozo es
menor a cien metros (casos
no petroleros), ya que en
esta situación se evitan
ruidos culturales.
Se procede con emisión y
recepción alternada entre
pozos cercanos o entre un
pozo y la superficie. La
idea es generar imágenes
continuas entre los sondeos,
2D ó 3D, cuya calidad
depende de los contrastes
de resistividad del subsuelo
y la cercanía de los pozos.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

Perfil Dieléctrico:
Es un registro que en algunas cuencas ha sido muy utilizado como indicador de porosidades y tipos de
fluidos. A diferencia de los demás perfiles eléctricos de pozo, éste no se basa en medir cambios en la
resistividad, sino en la magnitud de la constante dieléctrica o permitividad, la cual, como se
mencionó, es muy sensible a los cambios en el contenido de agua, molécula dipolar por excelencia. El
perfil en rigor mide el tiempo de propagación de las ondas electromagnéticas, el cual es proporcional
a la permitividad, según la relación:
µ.ε)
µ.ε 1/2
V = 1 / (µ.ε (donde µ es la permeabilidad magnética y ε es la permitividad eléctrica)
Es un perfil de muy buena resolución vertical (5 cm), que permite ver capas muy delgadas,
registrándose a partir de un patín que va apoyado contra la pared del pozo, actualmente con dos
emisores (arriba y abajo, con unos 20 cm entre uno y otro) y dos receptores (en el centro, a unos 5 cm
entre sí). Una medida adicional es la atenuación del arribo comparando las amplitudes entre uno y otro
receptor. Se registra dos veces, una desde cada transmisor, y se promedian los valores.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Temas 6(b), 7(b) y 8(b)
Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos Chelotti, L., Acosta, N., Foster, M., 2009

En la figura anterior, junto al perfil dieléctrico (en este caso el EPT, ya que hay otros) se grafican los
perfiles de calibre del pozo, rayos gamma naturales (GR), potencial espontáneo (SP), resistividad del
lateroperfil profundo (LLD) y esféricamente enfocada media (MSFL). También se corrió un perfil de
Densidad (radioactivo) cuyas porosidades resultantes (φD) se grafican en comparación con las
porosidades del perfile dieléctrico (φEPT), que dan resultados más confiables. Esto, a su vez, puede
cotejarse contra valores de ρ. Con lodos de baja salinidad, como en este caso -que es lo más común-,
la resistividad profunda generalmente da valores más bajos que la de alcance medio, ya que la
conductividad del agua de formación es mayor que la de la zona invadida por lodo. Pero en presencia
de hidrocarburos la relación se invierte y las curvas se cruzan.

CUESTIONARIO BÁSICO
- ¿Qué causas puede tener el potencial espontáneo en pozos?
- ¿Cómo se mide el SP en pozos y qué utilidades tiene?
- ¿Qué parámetros afectan la resistividad en los reservorios?
- ¿Cuándo se usan los perfiles inductivos y cuándo los de inyección de corriente en pozos petroleros?
- Explicar la utilidad de las curvas resistivas (o conductivas) en pozos, profundidades de investigación e
implicancias hidrocarburíferas.
- ¿Cómo se calculan las saturaciones según el método de Archie?
- Enumerar las alternativas para calcular arcillosidad desde perfiles de pozo.
- ¿Qué tipos de perfiles avanzados se fundamentan en la medición de la resistividad?
- Citar algunas aplicaciones no convencionales.
- Dar el fundamento y la utilidad del perfil dieléctrico.

BIBLIOGRAFÍA
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.388-391). Librería de Ciencia e Industria.
- Parasnis y Orellana, 1971. Geofísica Minera (p.93-110). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geohysicists.
- Western Atlas, 1994. Introducción al Perfilaje de Pozos (varios capítulos).

15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS
ELECTROMAGNÉTICOS

El electromagnetismo (EM) fue estudiado inicialmente por el escocés James Maxwell en 1861
(“On Physical Lines of Force”) y desarrollado experimentalmente por el alemán Heinrich Hertz
en 1886. Como sabemos, las componentes eléctrica y magnética oscilan en forma perpendicular a
la dirección de propagación del campo electromagnético y a su vez lo hacen en planos que son
perpendiculares entre sí. Las cuatro ecuaciones vinculadas por Maxwell, todas a partir de
integrales de superficie cerrada, son las siguientes:
Ley de Maxwell (1861): ]Bds = 0 donde B es el flujo magnético
(las líneas de inducción magnética son contínuas, no hay polos aislados)
Ley de Gauss (1838): ]Dds = q donde D es la Inducción electrostática y q la carga
(las líneas de campo eléctrico pueden ir de una a otra carga)
Ley de Faraday-Lenz: ]Eds = -dB/dt donde E es el campo eléctrico y t el tiempo
(1831) (un campo magnético variable produce un campo eléctrico)
Ley de Ampère 1826): ]Hds = J+(dD/dt) donde H es el campo magn y J la dens de corriente
(un campo eléctrico variable genera un campo magnético)
Recordando que D = ε.E y que B = µ.H
Maxwell descubrió además que la velocidad de la luz en el vacío está dada por: c=1/(εoµo)
½

(recordamos que µo es la permeabilidad magnética y εo la constante dieléctrica, ambas en el vacío)


Los métodos prospectivos fueron desarrollados inicialmente por la escuela sueca desde la década
de 1920 (también rusos y otros) y se basan en establecer un campo electromagnético variable
mediante el flujo de una corriente alterna por una bobina o un cable muy largo al que llamaremos
transmisor o emisor. El campo generado se llama campo normal o primario.
Este campo primario inducirá
corrientes eléctricas alternas
en cualquier conductor que
encuentre en su camino de
propagación: las corrientes de
eddy o remolino, también
conocidas como corrientes de
Foucault (porque el francés León
Foucault las estudió hacia 1850).
La intensidad de estas corrientes
fundamentalmente dependerá de
la resistividad del conductor y de
la frecuencia del campo
primario, es decir, la intensidad
será mayor cuanto menor sea la resistividad y cuanto más alta sea la frecuencia.
Las corrientes inducidas en el conductor tienen una dirección tal que el campo electromagnético
secundario que generan se opone al primario.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

La frecuencia de la corriente alterna primaria se elige de tal manera que el campo electromagnético
inducido por la presencia de las corrientes de remolino o eddy en el suelo es insignificante cuando
el subsuelo tiene una conductividad normal. Esto lleva a un límite superior cercano a los 5000
ciclos por segundos o Hertz para la frecuencia de operación, aunque en algunos casos se registra
con frecuencias de hasta unos 50 KHz e incluso más. En cualquier caso, el campo resultante se
mide con un receptor, que consiste en una bobina conectada a un amplificador electrónico sensible.
Actualmente los métodos EM se aplican a muy variados objetivos, incluyendo la detección de
acuíferos con distintas salinidades en temas hídricos o ambientales. Pero las áreas donde se
originaron estos métodos son las que suelen presentar las mejores condiciones para su
aplicación: topografía suave, encape superficial de alta resistividad y roca cristalina no alterada. Si
en tal contexto existen mineralizaciones que se presentan como cuerpos tabulares casi verticales
con más de un 25% de contenido de sulfuros metálicos, como en el Escudo Fenoscandio donde se
comenzaron a aplicar estos métodos, entonces las conductividades anómalas pueden llegar a ser de
hasta más de 1000 veces superior que la roca de caja, como se esquematiza en la figura de la
izquierda. Naturalmente, no es necesario tener contrastes tan elevados en el emplazamiento u otra
relación geométrica de variado origen que pueda ser de interés prospectivo. Pero sí es importante
no tener un encape conductivo cuya muy alta respuesta minimice la de conductores más profundos.

En cada punto del espacio habrá una intensidad eléctrica y una magnética. En ausencia de
conductores en el subsuelo, el campo electromagnético en cada punto oscilará a lo largo de una
línea y se puede representar por un vector cuya magnitud dará la amplitud del campo, tal como
vemos arriba a la derecha. La dirección del campo dependerá de la posición relativa del transmisor
y del punto de observación. Por ejemplo, las líneas del campo debidas a una bobina fuente o
emisora son diferentes de las orginadas en un cable largo emisor o fuente, como se ilustra aquí.

Los físicos franceses Jean B. Biot y Félix Savart hallaron hacia 1800 la relación que existe entre
la intensidad I de una corriente rectilínea e indefinida (en la práctica un cable largo) y el campo
magnético B creado por ella a una cierta distancia r: B = µo I / 2 Π r
2
En el caso de una bobina emisora se deduce que: B = µo I a / 2 Π r (a es el área de la bobina)
Para detectar un campo electromagnético en el espacio, se puede utilizar una bobina receptora,
consistente en una bobina con sus terminales conectados a un amplificador y de esto a un par de
audífonos o cualquier otro sistema indicador de corriente alterna.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

El voltaje inducido en la bobina por el campo magnético alterno resulta proporcional a la


componente de dicho campo que es ortogonal al plano de la bobina, tal como puede verse
en la siguiente figura.

Por lo tanto habrá posiciones definidas de la bobina respecto al campo primario que harán que la
señal sea máxima, mínima o intermedia. Así, cuando el vector campo primario es perpendicular al
plano de la bobina, el ángulo θ será igual a 0º y en consecuencia la tensión inducida en la bobina
será máxima, lo cual se manifestara con una señal de salida en el indicador (audífonos). Por otra
parte cuando el ángulo θ sea igual a 90º, o sea cuando el vector campo primario este en el plano de
la bobina, no habrá ninguna fracción del campo magnético atravesando la misma por lo que no se
inducirá voltaje alguno y la señal en los audífonos será nula.
Habrá un número infinito de posiciones de la bobina receptora para las cuales el ángulo θ será
igual a 90º y la señal resultará nula. Esto es debido a que el vector campo primario continúa en el
plano de la bobina (cuando ella se haga rotar alrededor del diámetro que coincide con la dirección
del campo).
En el caso en que un conductor esté presente el subsuelo y se genere un campo magnético alterno
secundario, el vector campo resultante en cualquier punto describirá una elíptica en un plano
definido y entonces decimos que el campo esta elípticamente polarizado. Dicho campo es
equivalente a dos vectores perpendiculares oscilantes, uno a lo largo del eje mayor de la elipse y el
otro a lo largo del eje menor. Al igual que antes, cuando el campo resultante coincida con el plano
de la bobina. La señal será nula, pero a diferencia de antes en que el campo total en el espacio es el
vector campo primario solamente, en este caso habrá una y sólo una posición de la bobina para la
cual el voltaje inducido es cero: es aquella en que el plano de la elipse de polarización coincide con
el plano de la bobina.
Para encontrar el plano de polarización en el campo, se procede de la siguiente manera: se rota la
bobina receptora alrededor de un eje vertical hasta que la señal sea mínima, luego se hace rotar
alrededor de un eje horizontal hasta encontrar otra mínima y finalmente se hace rotar alrededor de
un eje perpendicular a los otros dos hasta que la señal se anule. El plano de polarización queda
definido por el rumbo y el buzamiento. El rumbo es la dirección de la línea de intersección de los
planos de polarización y horizontal. El buzamiento es el ángulo formando por ambos planos.
Sin embargo para conocer la orientación de la elipse de polarización dentro del plano es necesario
por lo menos determinar la inclinación de uno de los ejes principales, el mayor o el menor. Para
ello la bobina receptora se coloca perpendicular al plano de silencio y se hace rotar hasta la
posición de máxima señal. En ese momento el eje mayor de la elipse coincide con la perpendicular
al plano de la bobina.
Se llama inclinación (tilt) del campo EM al ángulo formado por el eje mayor de la elipse de
polarización y la horizontal. Y este concepto fue aprovechado por la primera técnica de
prospección electromagnética usada: el Método de Inclinación de Campo. En éste se opera del
modo arriba descripto, o sea buscando máximo sonido y máximo silencio en la bobina exploradora
para así poder hallar la ubicación de la elipse de polarización y la inclinación de su eje mayor.
También en el método Afmag, citado en el Tema 7, se registra de la misma forma, aunque en este
caso aprovechando el campo natural de audiofrecuencias magnéticas.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

El procedimiento del método de


inclinación de campo queda
graficado en la figura a la derecha.

Observador del campo


electromagnético con la
bobina exploradora.

Naturaleza de las
Anomalías Electromagnéticas:
Cuando hacemos fluir una corriente
alterna por una bobina, se originará un
campo EM primario que estará en fase
con dicha corriente y que puede
representarse por una sinusoide en la
que P es su amplitud. Si este campo
actúa sobre un conductor (ejemplo
pirita), se inducirá un voltaje oscilante,
el cual estará atrasado un cuarto de
periodo (90°) con respecto al primario.
A su vez la corriente inducida en el
conductor está retrasada respecto del
voltaje inducido, dependiendo este
retraso de la resistencia del conductor.
El campo EM secundario que se
induce por la presencia de esta
corriente alterna está en fase con dicha
corriente, o sea que está retrasada
respecto al voltaje.
El campo resultante en un punto
cualquiera será la suma del campo
primario y del campo secundario, o
sea, la curva resultante de la suma de
la primera y la tercera. Este campo
tendrá diferente amplitud que el campo
primario y además estará retrasado una
fracción α de periodos respecto de él.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

En general podemos expresar que en el emisor será la intensidad: I = Io sen (wt)


Φ ), con la fase Φ>90º
y en el receptor resultará: I = Io sen (wt+Φ Π.f (frecuencia)
Φ>90 y w = 2Π

Diagrama Vectorial:
Lo expresado precedentemente puede representarse mediante un diagrama vectorial,
transformando la diferencia de fase en una relación de tiempo entre el campo primario, secundario
y resultante, tomando convencionalmente el sentido contrario a las agujas del reloj para indicar un
retraso relativo, como se ilustra.

En primer lugar consideramos al vector campo primario como un vector ubicado en el eje x siendo
OA: P la amplitud del mismo durante una oscilación.
La fem inducida en el conductor (corrientes de remolino o eddy) al estar retrasada 90° respecto al
campo primario, podrá ser representada por un vector AB de la figura.
Como la corriente inducida en el conductor esta retrasada respecto a la fem y a su vez el campo
secundario esta en fase con dicha corriente, la representación del campo secundario corresponde al
vector AC del diagrama siendo ϕ el ángulo de retraso de este respecto a la fem inducida. Además
el vector AC representará la amplitud del campo secundario durante una oscilación.
Hemos dicho anteriormente que la diferencia de fase entre fem y la corriente inducida dependen de
la conductividad del cuerpo, siendo mayor cuanto más conductivo es el mismo. Por lo tanto:
-Cuando el cuerpo es muy buen conductor, el ángulo ϕ se aproxima a 90º. El campo
secundario está retrasado casi 180º respecto al campo primario
-Si, en cambio, tiene baja conductividad ϕ tiene un valor cercano a cero. El retraso es, en
este caso, muy próximo a 90º.
El campo resultante estará retrasado
un ángulo α respecto al primario
pudiéndose observar que cuando el
conductor es muy bueno el ángulo α
tiende a cero.
Utilizando este mismo diagrama
vectorial podemos introducir los
conceptos de componente real y
componente imaginaria, de mucha
importancia en los métodos de
prospección más utilizados.
La proyección del vector resultante R sobre el eje x es igual a R cos α . De la misma manera la
proyección de S sobre X es S sen α . Tanto una como otra componente está en fase con el campo
primario y se las denomina componente real o en fase.
De igual modo la proyección de R y S sobre el eje y nos dará en cada caso una componente
atrasada 90º con respecto al campo primario, a la que se denomina componente imaginaria o en
cuadratura. Para el campo resultante esta componente es R sen α mientras que para el secundario
es S cos ϕ.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

Debe entenderse que el campo primario, el campo secundario y el campo resultante tienen una
posición en el espacio y que lo expresado hasta ahora se refiere a cada una de sus respectivas
posiciones en el tiempo.
La elipse de polarización es el resultado de dos vectores oscilantes sobre un punto, que son el
campo primario y secundario. En el tiempo decimos que el campo secundario está retrasado
respecto al primario porque este último alcanza su amplitud máxima, una fracción de tiempo antes
que el secundario.
En el espacio cualquier vector campo podrá ser descompuesto en tres componentes, generalmente
se utiliza la componente vertical en prospección EM.
Cualquiera de estas componentes espaciales del campo EM secundario o del resultante podrá ser
separada en dos componentes temporales, una real y otra imaginaria, o sea, una en fase y otra en
cuadratura respecto al campo primario.
En el diagrama vectorial se puede observar que cuanto mayor es el ángulo ϕ, mayor es la
componente real del campo secundario y menor es su componente imaginaria. Pero como ϕ
aumenta cuando aumenta la conductividad del conductor podemos entonces relacionar el valor del
cociente Re/Im con al conductividad del cuerpo inductor del campo secundario, tendiendo este
valor a infinito para un cuerpo de muy elevada resistividad y cero para uno altamente resistivo.
De la misma manera podemos analizar la amplitud y el desfasaje del campo resultante:
Si el conductor es muy resistivo: las corrientes inducidas en él serán débiles y en
consecuencia el campo secundario tendrá una amplitud pequeña además el desfasaje será
apenas superior a los 90º de retraso a la fem inducida. Por lo tanto el campo
electromagnético resultante difiere muy poco del campo primario, tanto en amplitud como
en fase.
Si se trata de un muy buen conductor: el campo secundario tendrá una amplitud grande y
su dirección será casi igual a la del campo primario, pero con sentido opuesto. Esto
significa que el desfasaje será cercano a los 180º, o sea que cuando el campo primario
alcance un valor máximo el secundario estará próximo al mínimo y viceversa. Debido a
esto la amplitud del campo resultante disminuye notablemente aunque la diferencia de fase
con el primario es otra vez muy pequeña.
Cuando el cuerpo conductor tiene una conductividad media: el campo resultante será
bastante menor en amplitud que el primario, pero el retraso o desfasaje será también
considerable.

La importancia de estas consideraciones está dada por el hecho de que las posiciones relativas en
el tiempo de los campos primario, secundario y resultante han servido de base para el desarrollo de
los más modernos métodos EM. En algunos de ellos se miden la amplitud y el retraso del campo
resultante, mientras que en otros se miden las componentes real e imaginaria del campo
secundario.
La mayoría de los métodos opera en la modalidad de Calicatas. Más adelante veremos Sondeos y
otras variantes prospectivas.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS EM DE EMISOR FIJO


Usualmente registrados bajo la modalidad de Calicata ElectroMagnética, cada método varía
según el dispositivo empleado y otros detalles funcionales. Son estos, en el orden en que se fueron
desarrollando:
 De Inclinación de Campo, el método más antiguo arriba descripto.
 De Bieler-Watson, el cual, en cada punto de medición, con la bobina receptora en
posición horizontal se asume que capta la componente real y en posición vertical
registra la imaginaria, cuyos resultados se comparan.
 De los Dos Cuadros, con dos bobinas receptoras a cierta distancia entre sí, para
comparación de amplitudes de la componente real entre una y otra.
 De Sundberg o del Compensador para mediciones de las componentes real e
imaginaria, que utiliza un compensador o puente de corriente alterna para tener
tensiones de referencia y así conocer las magnitudes real e imaginaria en cada punto
medido.
 De Turam (Hedström, 1937 en Suecia) de dos cuadros con compensador para
medición de la razón de amplitudes y la diferencia de fases, como se detalla abajo.
 Detector de Metales (en VHF, muy alta frecuencia).
 De Elipticidad de Alta Frecuencia (Whiteside, 1962 en Estados Unidos).

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

Método de Turam:
Método que mide el gradiente del campo EM y, como los otros, se registra como calicata.
El dispositivo consiste en:
Un emisor, que es un cable largo o bien un bucle rectangular de cable aislado con lados superiores
a 1 km de longitud, en cualquier caso alimentado por una corriente alterna..
Un receptor que está compuesto por dos bobinas de inducción (exploradoras) llevadas a una
separación constante (20 a 40 m) y conectadas a un compensador que mide la razón de amplitud
y la diferencia de fase entre los campos recibidos por las dos bobinas. Éstas se calculan,
respectivamente, como:
RR=(B2/B1)/(ri+1/r1)
y
∆P=Φ2− Φ1

Un compensador de corriente alterna es un


sistema para medir componentes en fase y en
cuadratura de un voltaje alterno inducido
sobre una bobina receptora. Es muy similar al
compensador de corriente continua, con la
diferencia de que se debe disponer de dos
tensiones ajustables y comparables con el
voltaje inducido, estando esos dos voltajes
con una diferencia de fase de 90°. Esto se
puede lograr con un circuito apropiado con
capacitores e inductancias.
Los compensadores pueden calibrarse para
medir la amplitud y fase del campo en el
receptor, o bien los valores de las
componentes Real e Imaginaria del mismo.
La intensidad del campo primario depende del
tamaño y forma del transmisor y de la
ubicación del punto de observación.
Si no hay conductores en la vecindad, la
diferencia de tensión será cero y la razón de
amplitudes será una función de la distancia
desde el transmisor. Las observaciones deben
corregirse usando la Ley de Biot y Savart
(establecida hacia 1830 en Francia) que dice
que el campo magnético debido a un cable
largo disminuye en relación inversa a la

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

distancia desde el cable. En el conductor la


razón de amplitudes alcanza un máximo
mientras que las diferencias de fase
alcanzan un máximo negativo. El método
de Turam es muy efectivo en yacimientos
superficiales, vetiformes masivos y de alto
buzamiento, como el ejemplo de la figura
adjunta. La profundidad de exploración se
puede controlar en cierta medida mediante
la variación de la distancia entre bobinas,
así como mediante la variación de las
frecuencias empleadas, según veremos
con relación a los Sondeos EM.

Detector de Metales:
Es un sistema de bobina receptora única, de fácil transporte, con la que se explora el terreno en el
rango de las muy altas frecuencias (VHF, Very High Frequency de 30 a 300 MHz) con el objetivo
de detectar mineralizaciones metalíferas, objetos de metal enterrados por acción humana o
fracturas del terreno con presencia de agua. La bobina mide inclinación del campo resultante y
calcula las componentes real e imaginaria del campo secundario. La fuente son las ondas de radio
(en ese rango de frecuencias, esencialmente planares y horizontales por su lejana fuente, y su
rebote en la ionosfera), lo cual hace de él un Método de Campo Natural, aunque algunas veces se
recurre al refuerzo del campo radial disponible en el área con pequeñas antenas emisoras VHF
dispuestas en las cuatro esquinas de la zona a prospectar, o bien un cable tendido en el suelo a lo
largo de hasta un kilómetro, alternativas que van a mejorar las imágenes obtenidas.
Adicionalmente se puede recurrir a un par de electrodos de potencial espontáneo para dar
mediciones de resistividad que pueden asociarse a alteraciones en zonas donde hay presencia de
oro, plata u otros metales.
Elipticidad de Alta Frecuencia (H.F. Ellipticity):
A partir de las ondas electromagnéticas dadas por una antena emisora de altas frecuencias, del
orden de los 500 a los 2000 kHz, mide las tres componentes de los campos resultantes (polarizados
elípticamente) para resolver sus vectores componentes H (magnético) y E (eléctrico), girando una
bobina sobre los tres ejes del espacio y haciendo las determinaciones mediante un sistema de
compensador electromagnético y detección electrónica. Puede trabajar con uno o varios receptores.

MÉTODOS EM DE EMISOR Y RECEPTOR MÓVILES


Surgidos durante la Segunda Guerra Mundial, esencialmente para prospección aérea, se registran
en la modalidad de Calicata ElectroMagnética. El dispositivo general consta de una bobina
emisora y otra receptora, pudiendo éstas situarse en distintas posiciones:
– Coplanares horizontales – 0 Coplanares Verticales 0 I Coaxiles Verticales I

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

Puede ir cada una en el extremo de cada ala del avión, también en la proa y en la cola del mismo,
con soportes especiales, o bien uno sobre la máquina y el otro en un pequeño aeroplano arrastrado
por un cable más atrás y abajo del avión. También pueden estar montados sobre helicópteros.
Existen muchos métodos, de los cuales el más empleado ha sido el de Slingram.
Método de Slingram:
Este método, de bobinas coplanares
horizontales, se caracteriza porque no
sólo es móvil el dispositivo receptor
sino que también lo es la fuente del
campo primario, que está constituida
por una bobina portátil de peso liviano.
La bobina emisora es alimentada por la corriente alterna suministrada por un oscilador portátil de
1 a 2 vatios y de ella se toma una tensión fija de referencia que es introducida en un compensador.
La tensión en el receptor se descompone en dos partes, una en fase y la otra desfasada 90° (un
cuarto de periodo) respecto de la tensión de referencia. La magnitud de cada componente se
determina por comparación con el voltaje de referencia. Este campo primario es muy sensible a
pequeñas variaciones de distancia entre Tx y
Rx, como así también a variaciones de la
orientación de las bobinas.
El emisor y el receptor, separados por una
distancia fija, son desplazados conjuntamente
en la dirección de la línea que determina, la
cual puede ser paralela o perpendicular al
rumbo supuesto para el conductor buscado,
según la orientación del emisor (Tx) y del
receptor (Rx). El trabajo de campo de los
sistemas de emisor y receptor móviles es
sencillo, la prospección no necesita ligarse
rígidamente a una red de líneas estaqueadas y
los sistemas permiten gran flexibilidad. Un
equipo de dos o tres personas basta para las
mediciones, llevando uno el oscilador sobre
su espalda y el emisor (bobina) alrededor de
su cintura, mientras otra persona lleva la
bobina receptora y el compensador.
En este, como en otros métodos EM, puede
ser necesario proceder a una corrección por
topografía, si ésta es significativa. Por ejemplo
para bobinas coplanares horizontales la corrección de la componente real vale:
CR = 300(h2/r2), siendo h la diferencia de cota y r la distancia entre bobinas.
Por motivos prácticos se utilizan separaciones entre bobinas relativamente pequeñas (25 a 100 m)
y generalmente no están vinculadas rígidamente entre sí; la distancia entre ellos se mantiene
constante usando como cinta el cable de referencia. Se leen las componentes real e imaginaria del
campo secundario en el receptor como porcentaje del campo primario, el cual es el campo
existente en el receptor cuando el sistema se coloca en terreno neutral. Seleccionada la distancia
entre Tx y Rx el sistema se coloca en terreno neutro y las agujas se colocan en cero, cuando no
haya señal en el receptor significa que el campo primario ha sido compensado. Tras esto, los
valores que se obtienen dan directamente el valor de las componentes del campo electromagnético.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

En la posterior interpretación de los datos debe tenerse presente que las anomalías dispersas
debidas a la conductividad de las formaciones próximas a la superficie pueden interferir con las
anomalías de origen más profundo.

Arriba ejemplos de prospección con Slingram y abajo con Bobinas Verticales Coaxiales.

Conductivímetros:
Son sistemas de bobinas móviles portátiles, coplanares horizontales o verticales
de separación fija, que permiten registrar el campo electromagnético y obtener
datos de resistividad eléctrica -o su inversa, la conductividad- y opcionalmente
de susceptibilidad magnética a profundidades variables según la configuración
del sistema, desde 1 hasta 60 m.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

En este, como en algunos otros métodos EM, es posible entonces obtener valores de σ (o ρ) que
surgen de la siguiente expresión analítica:
Hs / Hp = V..σ2.w.µ
µo. l / 4
de donde: σ = [(4 / V.w.µ
µo. l).(Hs / Hp)] -2
(siendo l la distancia, Hs el campo magnético secundario y Hp el primario)
Ejemplos Aeroelectromagnéticos:
Al igual que en magnetometría, también los métodos EM se emplean principalmente desde el aire.
Se trata de distintas variantes de los métodos de emisor y receptor móvil.

Arriba datos de helicóptero y correcciones por desniveles de vuelo. Abajo, ejemplos desde avión.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

En este ejemplo referido a un yacimiento de


hidrocarburos de Texas se evalúa con
magnetometría y registros EM aéreos el
impacto ambiental del escape de aguas de
formación (salobres) hacia niveles someros
(dulces) a través de encamisados antiguos con
cemento en mal estado.
Las figuras inmediata superior y derecha
muestran la distinta penetración que se
consigue variando la frecuencia del campo
EM, y también en función de la conductividad
del medio, lo que constituye una aplicación
combinada de Calicata con el Sondeo de
Frecuencias que se explica un poco más
adelante.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

En el caso de arriba tenemos


un relevamiento hecho sobre
basurales donde se presentan
los resultados en tres formas
de cálculo distintas a partir
de la misma información
registrada, lo que revela la
importancia de manejarla
con diferentes algoritmos
para hallar parámetros de
representación evidentes de
las anomalías que estamos
tratando de evaluar.
A la derecha se ilustra una
adquisición de datos EM
marinos para la evaluación
de yacimientos de gas en
forma de hidratos, junto con
secciones de sísmica de
reflexión.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

SONDEOS DE FRECUENCIAS
Consisten en la emisión y recepción en posiciones fijas, variando la frecuencia de la fuente, de
modo de iluminar en forma predominante zonas sucesivamente más profundas a medida que se
utilizan más bajas frecuencias. Debemos recordar que las altas frecuencias generan respuestas muy
intensas incluso de rocas poco conductivas, por lo cual el encape, aun siendo relativamente
resistivo, puede dar una alta respuesta cuando se opera con muy altas frecuencias. Ergo, cuanto
más se baje la frecuencia, más lograremos evitar respuestas poco profundas de conductores hasta
de mediana conductividad y por lo tanto mejor se verán los niveles profundos que sean muy
conductivos.
La profundidad de penetración puede estimarse con la siguiente expresión:
Z(m) = 503 Vρρ(Ωm) / f(Hz)
Para, por ejemplo, 10 Ωm de resistividad del medio, con 10 Hz se obtiene una profundidad de
investigación de unos 500 m, con 100 Hz se alcanzan 150 m y con 1000 Hz los 50 m.

TOMOGRAFÍAS EM en el Dominio del Tiempo (en inglés abreviado TDEM)


Método ideado por los estadounidenses Halliday y Resnick en 1974. Consiste en calicatas desde
decenas hasta 3000 ó más metros de longitud con un procedimiento que a la vez permite sondear a
gran profundidad. Puede hacerse con emisor fijo o móvil.
Con Emisión Móvil:
Se emplean uno o más transmisores y uno o más receptores (por ejemplo dos bobinas coplanares y
dos coaxiales), generalmente en modalidad aérea (avión o helicóptero), y se opera transmitiendo
un campo electromagnético primario y luego registrando su respuesta en los planos x, y, z en
ventanas temporales (treinta o más) entre alrededor de 1 y 2000 ó más µs, información que
proviene de distintas profundidades, según la demora en su registro.
Usualmente se obtienen registros buenos desde decenas hasta cientos de metros de profundidad.
Con Emisión Fija:
Desde un bucle cuadrado sobre el terreno se aplican pulsos de corriente alterna de algunos µs que
terminan en un campo magnético variante en el tiempo, lo que crea un campo secundario bajo el
mismo bucle, que se introduce en el subsuelo con la misma forma del bucle, como se ve en la
figura. Este campo secundario va decayendo y generando corrientes de eddy o remolino
adicionales que se expanden como anillos de humo. Las mediciones se hacen en el centro del bucle
en los intervalos de no emisión.
La profundidad de investigación depende del tiempo transcurrido entre el corte y la medición y la
intensidad de las respuestas procedentes de campos secundarios generados es proporcional a las
corrientes de remolino de donde proceden y por lo tanto de la conductividad de las profundidades
de las cuales provienen. Además del tiempo, también el tamaño del bucle, la frecuencia de la señal
y la resistividad del suelo contribuyen a determinar la profundidad de investigación máxima, que
en condiciones favorables puede superar los 2000 m.

15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

Procesamiento de los Datos:


Se aplican correcciones metodológicas y luego los datos se invierten a través de un proceso en
computadora -por ejemplo mediante una migración por continuación descendente, como en
gravimetría, magnetometría o sísmica- que permite generar modelos de cuerpos conductivos,
fallas, etc. Se puede calcular la conductividad (o su inversa, la resistividad), además de la
susceptibilidad y la permeabilidad magnéticas, partiendo de la asignación de valores conocidos o
estimados en uno o varios sectores de la calicata obtenida y calculando estas magnitudes en el
resto de los puntos registrados en función de la variación de los parámetros electromagnéticos
adquiridos.
Estas tomografías pueden conformar cortes o secciones de muchos kilómetros de longitud y de
una profundidad de cientos de metros -y hasta de un par de miles de metros con emisor fijo-.
Además se pueden interpolar los datos en planta generando imágenes areales para distintas
profundidades de interés con las magnitudes antes citadas e incluso proceso de datos en 3D.
REGISTROS HERTZIANOS
También conocido como Radiografías Hertzianas o Radiokip en Rusia. Es un método que ha sido
empleado en galerías o perforaciones mineras, en curso de cateo o producción, para conseguir
detectar metalizaciones entre ellas. El registro electromagnético se basa en la emisión de ondas de
radio de fuentes lejanas, ya disponibles por las emisiones radiales preexistentes -en ese caso sería
un método de “campo natural”- o bien generadas especialmente para tal fin.
Lo que se mide, con un microvoltímetro, es el campo eléctrico secundario generado por dichos
campos radiales. La intensidad de éstos (y por lo tanto sus diferencias de tensión medibles) es
función proporcional de la presencia de cuerpos conductores emplazados en las rocas entre las
galerías mineras, como también depende del rumbo de tales mineralizaciones, ya que producen una
corriente más intensa si su orientación es aproximadamente coincidente con la del campo radial.

Aplicaciones de los Métodos EM


Tal como se explicó, estos métodos están fundamentalmente
dirigidos a la prospección de minerales conductivos o sus
paragenéticos, pero los registros superficiales electromagnéticos
tienen también otras diversas aplicaciones, como también hemos ido
viendo. Tal como se explicó, estos métodos están fundamentalmente
dirigidos a la prospección de minerales conductivos o sus
paragenéticos, pero los registros superficiales electromagnéticos
tienen otras diversas aplicaciones, como también hemos ido viendo. Sobre todo en la búsqueda de
acuíferos (resistividades mayores a 10 Ωm suelen indicar acuíferos dulces y menores a ese valor,
aguas de formación saladas), así como zonas de fractura, depósitos contaminantes, yacimientos
arqueológicos, identificación de cavernas o conductos artificiales, fundaciones, vapor geotérmico,
y en general todo aquello que genere un cambio en los registros electromagnéticos, principalmente
a profundidades menores a los cien metros.
En la búsqueda de hidrocarburos los métodos EM pueden dar respuestas diferentes en casos de
reservorios con agua de formación (salada) frente a otras posiciones con hidrocarburos (más
resistivos), pero no constituyen una herramienta de rutina por su baja resolución a grandes
profundidades, salvo algunos casos favorables donde la metodología EM en el Domino del Tiempo
da buenos resultados. Es por esto que sólo se la utiliza esporádicamente como complemento,
algunas veces importante, de otras metodologías.
Su principal ventaja respecto a los métodos de Inyección de Corriente (Continua) es que, al no
necesitar contacto con el terreno, pueden operar en prospección aérea con la ventaja que
representa poder hacer una rápida cobertura de grandes áreas exploratorias.

16
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

Es ampliamente conocido que los perfiles de inducción, que operan según los mismos principios
que en prospección superficial, son herramientas muy aplicadas en la evaluación de pozos de
exploración y desarrollo petrolero, como se verá más adelante.
Radar de Substrato o Georradar (Ground Penetration Radar)
Se diferencia de todos los otros métodos EM descriptos en que sus registros se fundamentan en las
variaciones de la permitividad o constante dieléctrica ε, a diferencia de los anteriores que, como se
explicó, se basan en los cambios de ρ.
El radar (acrónimo de “RAdio Detection And Ranging”) fue empleado por primera vez por el
británico Edward Appleton en 1924 para determinar la altura de la ionosfera.
El sistema se basa en la emisión de ondas electromagnéticas en el rango de las microondas (VHF y
UHF, Ultra High Frequency de 30 a 3000 Mhz) y la subsiguiente detección de sus reflexiones. Ha
sido utilizado para navegación marina (detección de costas, otros barcos, etc) y también para
navegación aérea (Radar Doppler, que se basa en el efecto de acortamiento o alargamiento de las
ondas según el movimiento relativo del observador, análogo al sonido agudo de un vehículo
acercándose y grave alejándose, fenómeno estudiado por el austríaco Christian Doppler hacia
1840).
Los radares también se utilizan desde satélites para mediciones altimétricas aplicadas a diversos
campos, entre ellos el estudio del geoide y las anomalías gravimétricas del mismo. Y también para
obtener imágenes de la superficie terrestre, generalmente desde aviones, las cuales tienen
aplicaciones geocientíficas y muchas otras.
Las primeras aplicaciones del radar de substrato fueron realizadas en 1929 por Stern en Austria
para medir espesores de glaciares, y sólo fueron reiniciadas después de que, a fines de la década de
1950, aviones estadounidenses se estrellaran contra el hielo de Groenlandia al leer sus radares de
vuelo la base de los glaciares como si fueran su superficie.
La expresión matemática básica de esta interacción física es: ε = (C. To / 2Z)2
(C es la velocidad de la luz, To el tiempo vertical de ida y vuelta de las ondas, Z la profundidad)

En prospección el Georradar ha sido empleado crecientemente desde hace tres décadas.


Generalmente es aplicado a objetivos de muy poca profundidad (pocos metros) donde logra una
altísima resolución (de pocos cm), aunque puede también a veces iluminar zonas a algunas decenas
de metros con menor definición (en suelos arenosos secos, calizas, rocas ígneas o metamórficas).
Las imágenes se obtienen con una antena emisora y otra receptora, la información se graba en
computadora y se le efectúa un proceso de datos muy similar al que se aplica sobre los datos de
sísmica de reflexión. El resultado son secciones con una escala vertical dada por tiempos de ida y
vuelta de la onda electromagnética (en nanosegundos) donde se observan reflectores cuya amplitud
es función de los contrastes de la constante dieléctrica entre las distintas capas del substrato.

17
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

También se pueden hacer registros en pocitos de algunos metros para ajustar la puesta en
profundidad, resultando radargramas de pozo análogos a la sísmica de pozos petroleros. Y también
se puede hacer registros de volúmenes de información, comparables a los de la sísmica
tridimensional.
Dado que la permitividad es muy sensible al agua -ésta tiene un valor muy alto de la constante,
debido el carácter fuertemente dipolar de sus moléculas- ha sido muy utilizado en áreas de suelos
congelados para iluminar por debajo del hielo o del permafrost, aunque también en otros diversos
ambientes geológicos, con fines de investigación estratigráfica (como el ejemplo siguiente),
hidrogeológica, ambiental, minera, paleontológica, etc.

18
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS DE
POLARIZACION INDUCIDA

Abreviado PI (IP, Induced Polarization en inglés) fue observado por Schlumberger hacia 1920 y
estudiado por Müller en 1937. Es el fenómeno que se verifica al desconectar una batería colocada
entre dos electrodos conectados al terreno. Se trata de un decrecimiento gradual de la tensión una
vez desconectada la batería, fenómeno análogo al de un condensador eléctrico. Implica que algún
movimiento de iones se vea impedido y la PI aparece como una posterior difusión de iones.
Alternativamente se verifica una variación de resistividad cuando ésta es medida en un medio dado
utilizando corrientes de distinta frecuencia.
Existen dos modos de crear este fenómeno:

A) Polarización de electrodos:
cargas iónicas acumuladas en el limite
electrolito-partícula metálica, las cuales crean
una tensión que se opone al flujo, por lo que,
cuando la corriente se interrumpe, queda un
potencial residual debido a las cargas iónicas
allí retenidas. Este potencial luego decrece
continuamente al difundirse las cargas en los
electrolitos de los poros.
Abajo el análogo eléctrico de este proceso.

B) Polarización de membrana:
se produce debido a la presencia de partículas
de arcilla, cuya superficie está cargada
negativamente y por lo tanto atrae iones
positivos de los electrolitos. Cuando se hace
pasar una corriente los iones positivos se
desplazan, y al interrumpirse se redistribuyen
generando una tensión decreciente entre los
dos electrodos en contacto con la arcilla.

PROSPECCIÓN MEDIANTE P. I.
Normalmente se realizan calicatas con varias
profundidades de interés, como en las tomografías
eléctricas (TE). A partir del impulso dado a estos
métodos hacia 1948 por la Newmont Exploration
de los Estados Unidos, surgieron variantes
prospectivas en dos dominios diferentes.

19
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

En el Dominio del Tiempo:


Se aplica al terreno una corriente continua y se registra el decrecimiento de la tensión entre un par
de electrodos de potencial después de haber cortado la inyección de corriente. Pueden medirse:

- Milivoltio por voltio y tanto por


ciento de PI: cociente entre la tensión
residual V(t) en un instante
determinado t después del corte de la
corriente y la tensión normal V(o)
mientras la corriente fluye, es decir:
mVi / Vo
o bien: mVi . 100 / mVo

- Integral de tiempo normalizada: se


registra la curva de descenso durante
un cierto lapso de tiempo y se
determina el área comprendida entre
dos límites de tiempo (mV/seg) al
dividir este resultado por el potencial
normal Vo se obtiene la medida de la
integral de tiempo de la PI, en algunos
textos también llamada cargabilidad.

- Cargabilidad: puede definirse de dos


modos, como la integral arriba citada y
expresada en la figura a la derecha, o
bien como la relación:
m = (Vo – Vi) / Vo

En el Dominio de la Frecuencia:
En esta modalidad se mide la variación de la resistividad aparente del terreno con el cambio de
frecuencia de la corriente aplicada.
El pasaje del dominio del tiempo al dominio de la frecuencia y viceversa puede hacerse
matemáticamente mediante el empleo de la Transformada de Laplace (desarrollada por el
matemático y astrónomo francés Pierre Laplace hacia 1800).

20
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M.,
2009

Su expresión analítica es: y su inversa:

Aplicándola se puede mostrar la equivalencia de una resistencia y un condensador en función de


sus condiciones iniciales, por lo que la P.I. en los dominios de la frecuencia y el tiempo equivalen.
En la práctica en el Dominio de la Frecuencia se procede a determinar la resistividad a dos
frecuencias: una de ellas muy baja y la otra más alta. Pueden medirse:
- Efecto de frecuencia: la resistividad de las rocas decrece al aumentar la frecuencia aplicada. La
medida de la PI debido a la frecuencia se define como la diferencia entre la resistividad con CC y
con CA, dividido por la resistividad con CA, es decir:
ρcc – ρcA) / ρcA
e.f. = (ρ
En la práctica, dado que se trabaja con un alternador (o sea, sólo CA), la ρcc es en verdad una ρcA
pero de sólo 0,1 Hz, que en la práctica equivale a una ρcc. La ρcA suele ser de unos 10 Hz.
- Factor metálico: es un parámetro ideado para corregir la influencia de la resistividad de la roca
de caja. Se define como el efecto de la frecuencia dividido por la resistividad aparente en CC (de
nuevo, en la práctica es una CA de 0,1 Hz). multiplicado por un factor numérico arbitrario para dar
resultados no tan pequeños. La expresión matemática es:
FM = 2Π.105 (ρ ρcc – ρcA) / (ρ
ρcc . ρcA)

Acá vemos la técnica de atribución de los valores calculados en el dominio de la frecuencia:

Aplicaciones de la Polarización Inducida


Son muchas las aplicaciones, incluyendo, entre otras: mineralizaciones metalíferas, hidrogeología,
medioambiente, ingeniería civil y arqueología.

21
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

Podemos apreciar dos ejemplos mineros:

La prospección también puede hacerse desde barcos con electrodos arrastrados por el lecho de un
río, lago o mar.
En las últimas dos décadas ha surgido el interés en su aplicación en prospección de hidrocarburos,
se lo ha empleado en pozos y también desde superficie, en algunos casos con una importante
profundidad de investigación para inferir reservorios de petróleo y gas, como se aprecia aquí.

Arriba, ejemplo de PI en el dominio del


tiempo, más método MT.
A la derecha, en China, PI en el
dominio de la frecuencia, más MT.

En algunas áreas los resultados son interesantes como complemento de otras metodologías, en
especial cuando se lo emplea para hacer el mapeo de alteración geoquímica de suelos provocada

22
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

por hidrocarburos y sus


elementos asociados, sobre
áreas de entrampamiento, por
ejemplo por presencia de
pirita, magnetita y otros
semiconductores generados
como subproducto de la
acción bacteriana en la
biodegradación de petróleos.
Acá se resumen las posibles
aplicaciones de diversos
métodos geoeléctricos para la
localización de zonas de
microfugas de hidrocarburos,
a partir de los efectos creados
geoquímicamente a poca
profundidad.

Se ha utilizado el
fenómeno de la
polarización inducida
ocasionalmente en
perfiles de pozos
desde las primeras
experiencias hechas
por el ruso Dakhnov,
en 1959.

23
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 8
Métodos Electromagnéticos y de Polarización Inducida Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO
- Indicar y justificar las condiciones ideales de uso de los métodos de CA en superficie.
- ¿Cómo es el método electromagnético de inclinación de campo?
- Graficar un diagrama vectorial indicando brevemente su significado.
- Señalar las diferencias entre los métodos de Turam y Slingram.
- ¿Qué parámetros permiten variar la profundidad de investigación?
- Explicar brevemente la Calicata EM en el Dominio del Tiempo.
- Comentar aplicaciones de los métodos electromagnéticos.
- ¿Cuáles son los fundamentos y las aplicaciones del Georradar?
- ¿Cuáles son las dos causas del fenómeno de polarización inducida?
- ¿Cómo opera el método en los dominios del tiempo y la frecuencia?
- ¿Cómo se adquieren y representan usualmente los datos de campo?
- ¿Qué aplicaciones tiene el método de PI?

BIBLIOGRAFÍA
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.111-163, 311-329 y 422-429). Librería de
Ciencia e Industria.

- Parasnis y Orellana, 1971. Geofísica Minera (p.111-163, 206-225 y 314-328). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

24
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

PROSPECCIÓN
RADIOMÉTRICA

Es conocido que la radiactividad es la facultad de emisión de radiaciones (alfa, beta, gamma) que
poseen los núcleos de determinados elementos químicos inestables llamados radiactivos, que al
hacerlo transmutan en otros elementos (diferente cantidad de protones o número atómico Z, por lo que
también difiere el número másico A) o bien en otros isótopos del mismo elemento (igual Z pero
distinta cantidad de neutrones, por lo que sólo difiere A), que pueden resultar inestables o estables.
La radiactividad fue descubierta por el francés Henry Becquerel en 1896 en sales de Uranio que
velaban una placa fotográfica en la oscuridad. La polaca Marja Sklodowska y su esposo, el francés
Pierre Curie, en 1899 descubrieron otros dos elementos radiactivos: el Polonio (por la patria de
Marja) y el Radio (del latín radius, rayo, y de ahí las palabras radiactividad, radiometría).
Son radiactivos todos los elementos naturales de número atómico alto, a partir del polonio (Po, Z=84),
aunque también algunos isótopos del bismuto (83Bi214), del plomo (82Pb210, 82Pb214) y muchos otros
entre los de menor número atómico, hasta inclusive el tritio (1H3).
La actividad radiactiva es el número de átomos que se desintegran por segundo, es una característica
específica de cada sustancia.
La unidad de actividad es el Curie = 37 .109 desintegraciones/segundo.gr
Período de Semidesintegración y Vida Media
Las modificaciones de un determinado elemento radiactivo dependen del número de átomos
desintegrados y de la proporción entre cantidad de sustancia transformada y existente.
Siendo No el número de átomos de la sustancia radiactiva existentes en un instante to y N los presentes
en un instante posterior t la velocidad de desintegración será:
- dN = λ.N, donde λ es la constante de desintegración,
dt es decir el descenso de radiactividad por unidad de tiempo
de modo que: dN = - λdt, e integrando: lnN = -λ λ.t + K
N
Podemos calcular el valor de K, dado que en el instante inicial, cuando N = No y t = to: K = ln No
Entonces:
- λ.t = lnN – lnNo = ln N y tomando el período de semidesintegración t½, o sea el tiempo
No necesario para que la cantidad de átomos iniciales se reduzca a la mitad,
resulta:
- λ t½ = ln 1 = -0,693, de modo que t½ = 0,693
2 λ
La vida media ϖ es la inversa de la constante λ, es decir que: t½ = 0,693 ϖ

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

Equilibrio Radiactivo y Dataciones


En una serie de isótopos que van desde un elemento radiactivo inicial a uno estable final puede
definirse el equilibrio radiactivo al cabo de un tiempo suficiente para que se haya llegado a formar los
primeros átomos estables.
La cantidad de átomos de un isótopo en una serie que se encuentra en equilibrio
radiactivo resulta inversamente proporcional al tiempo de vida media de dicho
isótopo radioactivo:
N1 = N2 = ... = Nn
t1 t2 tn La cantidad de granos de un
compartimiento en un reloj de arena múltiple, una vez alcanzado el equilibrio,
resulta inversamente proporcional al diámetro del cuello que les permite caer. Lo
mismo pasa en un atascamiento de tránsito, aunque no sea la clase de vida media
que quisiéramos tener.
Por lo tanto, la proporción de isótopos radioactivos transmutados desde la
formación de la roca o fósil que los contiene es proporcional al tiempo t
transcurrido. La expresión analítica que da cuenta de ello es: n-1

-t = 1 ln (1 + Nn + Σ N)
Y este es el fundamento de la Geocronología. λ1 Ν1 n=2
Tipos de Radiaciones
Alfa (α): constituidas por núcleos de helio (2 protones, 2 neutrones), de naturaleza corpuscular, tienen
carga eléctrica positiva. Dada su masa, su poder de penetración es bajo, pero por lo mismo su poder de
ionización es alto.
Beta (β): son simplemente electrones (carga negativa y masa reducida) los cuales conservan el
carácter corpuscular. Debido a su tamaño poseen alto poder de penetración pero bajo poder de
ionización (un décimo que las partículas α).
Gamma (γ): de tipo electromagnético, no tienen ni carga ni masa, su poder ionizante es muy reducido
pero no nulo (un centésimo que las partículas α), la capacidad de penetración es mucho más elevada.
Su emisión es el resultado de un reajuste energético.
Rayos Cósmicos: llegan desde el Sol o desde el espacio
exterior y son de dos tipos: unos formados por
electrones y fotones (gran energía) y otros por
mesotones (de carga negativa y masa considerable).
Ernest Rutherford en 1900 hizo el descubrimiento de
los tres tipos de radiación terrestre, según la experiencia
de desviación dada por un imán entre el bloque de
plomo donde estaba el elemento radiactivo y la placa
fotográfica (figura a la derecha). Observó el distinto

grado de desviación de los tres tipos de


partículas radiactivas.
El gráfico de la izquierda ilustra la
capacidad de penetración de las radiaciones:
máxima en las Gamma, media en las Beta,
mínima en las Alfa.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

Series Radiactivas
A la derecha algunas de las series
radiactivas más relevantes para
prospección (caso de las tres
primeras) o para geocronología
(todas ellas, aunque no es tan usada
la del torio). Se indica la radiación
emitida en cada etapa.
Además del 92U238, también el
235
92U es radiactivo y tiene una
serie con varios isótopos
intermedios, pero existe sólo un
1% respecto al primero, por lo cual
en general no es tan importante en
actividades exploratorias.

Efectos de las Radiaciones


Son tres, que aquí se describen.
Producción de Pares de Iones:
cuando una partícula radiactiva
penetra en un medio gaseoso puede
chocar con alguno de los átomos
que lo componen, generándose
entonces un par de iones primarios
de signo contrario: el electrón
arrancado (anión) y el resto del
átomo (catión, con una carga
positiva que ahora no está
compensada).
Mediante dos electrodos, con una
diferencia de potencial a fin
de otorgarles suficiente energía
cinética, se produce una avalancha
de pares de iones secundarios, que
será acusada en los receptores.
Naturalmente, la radiación α es la más efectiva para producir ionización, siendo menor la producción
de pares de iones en el caso de las β y mucho menor en el caso de las γ.
Efecto Fotoeléctrico: los rayos γ pueden considerarse como fotones o cuantos de luz, cuando un fotón
incide sobre la superficie de un metal le transmite íntegramente energía a los electrones en la
superficie del mismo. Estos electrones podrán escapar atravesando la energía potencial que poseían.
Como la energía del fotón depende de la frecuencia, existirá un valor límite de ésta (llamado umbral
de frecuencia fotoeléctrico) a partir del cual con frecuencia inferior no habrá emisión de electrones.
Según el alemán Max Planck (1890) la energía de un fotón está dada por: Efi = h.f
(siendo f la frecuencia ondulatoria y h, la constante de Planck, igual a 6,62 .10-27 erg/s)
Albert Einstein en 1905 estableció que también podemos expresar que: Efi = φ + ½ mfi.vfi2
(donde mfi y vfi son la masa y la velocidad del fotón incidente, siendo mfi casi
despreciable, y φ es el trabajo de extracción, es decir, la energía disponible para
intentar extraer un electrón de la superficie a impactar)

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

Pero además puede expresarse que: φ = h.fo


(siendo fo el umbral de frecuencia fotoeléctrico, esto es, la frecuencia mínima para
conseguir la extracción de un electrón, o sea producir efecto fotoeléctrico)
Efecto Compton: Fue descubierto por el estadounidense Arthur Compton en 1923, cuando,
haciendo incidir un haz de rayos de gran frecuencia sobre la superficie de ciertos materiales, comprobó
una difusión de éstos, cuya frecuencia resulta modificada respecto del haz incidente. La modificación
de la frecuencia en los rayos difundidos se interpreta como un choque elástico entre el fotón y el
electrón. En el choque el fotón pierde una cantidad de energía y desaparece, al tiempo que se crea otro
de menor frecuencia.
Volviendo a la fórmula de Einstein, puede escribirse que: Efi = φ + ½ mfi.vfi2 = h.fo + h.f’
El segundo término es ahora la energía de un nuevo fotón, que también podría expresarse como:
h.f’ = ½ mfe.vfe2 (donde mfe y vfe son la masa y la velocidad del fotón emergente)
El efecto Compton es el responsable de la fluorescencia, que ocurre cuando se hace incidir un haz de
rayos UV (fuera del espectro visible), los que al chocar generan radiaciones de menor frecuencia que
en muchas sustancias llegan a ser visibles.
Aquí imágenes de minerales fluorescentes: desde la izquierda, calcita (CO3Ca, no radiactiva), zircón
con torio (ZrSiO4[ThO2]), pechblenda o uraninita (UO2) y berilo (Be3Al2(SiO3)6) a la derecha.

Aparatos Detectores
Los primeros aparatos usados en prospección fueron los siguientes:
-El Electroscopio, que se descarga tanto más rápidamente cuanto mayor es la radiación ambiente que
ioniza el aire.
-Placas Fotográficas, en las que el bromuro de
plata (AgBr) se reduce a plata negra según la
intensidad de la radiación.
-El Spintariscopio inventado por el inglés
William Crookes (1903), caja cerrada con una
placa de cristales hexagonales de blenda (ZnS,
hexagonal) en la que se introducía la muestra,
que si era radiactiva hacía que la blenda emitiera
destellos que eran visualizados desde el ocular.
-La Camara de Ionización (fotografía a la
derecha), que comenzó a emplearse en 1913 y
en cuyo gas interior (aire, metano, argón u otro)
se produce el desplazamiento de iones hacia el
ánodo y cátodo si existe radiación ionizante.
Los aparatos más modernos se describen
brevemente a continuación:
-Contador Geiger-Müller: Desarrollado en 1928 por los alemanes H. Geiger y W. Müller a partir de
la cámara de ionización, pero, a diferencia de ésta, opera con tensiones más altas, de entre 800 y

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

1000V (véase el siguiente gráfico de la derecha). Tiene una entrada de radiaciones al tubo -como se
esquematiza a la izquierda- las cuales colisionan con los átomos del gas contenido (metano y argón).
Esto produce la expulsión de electrones en avalancha, registrados como una sola pulsación
independiente de la energía inicial de la radiación, no siendo posible la distinción de tipos. Asegura
respuestas en presencia de niveles bajos de radiación.

-Contador proporcional: Similar al anterior, trabaja a menor voltaje (500 a 800 V), por lo cual se
produce un menor efecto multiplicador de electrones. La producción de pares de iones depende
esencialmente de la energía de la radiación captada, por lo que
puede distinguir tipos variables de radiación, siempre que no
sean de muy baja intensidad. La ventana de ingreso de las
radiaciones consiste en una interfaz que permite entrar sólo la
radiación deseada, sea α, β ó γ . Si, por ejemplo, se desea
prospectar radiación beta, se impide la entrada de las otras dos
al tubo y el aparato recibe el nombre de betámetro.
-Centellómetro o destellómetro (scintillation counter):
Ideado en 1947 a partir del spintariscopio de Crookes. Posee un
fotocátodo, un tubo fotomultiplicador, una cámara de destellos
y un registrador electrónico. El fotocátodo consiste de cristales
de átomos de cierta sustancia llamada fósforo, que puede ser
inorgánico como yoduros (NaI, CsI u otros, casi siempre
activados con Tl), u orgánico como antraceno, naftaleno, etc.
Estos átomos, en los que al llegar
una determinada radiación se excitan algunos de sus electrones,
ceden energía para volver a su estado normal, emitiendo
radiación EM en la frecuencia de la luz visible:
los destellos característicos del efecto Compton, que pueden
visualizarse en la cámara de destellos (véase la figura a la
derecha). Pero además emiten electrones hacia el interior del
llamado tubo fotomultiplicador: un sistema amplificador de
señal que consiste en una sucesión de ánodos con potencial
eléctrico creciente, en cada uno de los cuales, ante la llegada de
cada electrón, se emiten múltiples electrones secundarios, lo
cual genera un efecto en cascada, hasta el último ánodo, desde

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

donde se realiza el registro electrónico de la pulsación resultante de la radiación detectada.


Como en los contadores proporcionales, también en los centellómetros una interfaz absorbente a la
entrada del dispositivo permite seleccionar el tipo de radiaciones a prospectar; por ejemplo para
detectar radiación γ se filtran las α y β.
Los centellómetros comenzaron a utilizarse en prospección aérea en la década de 1950, sobre todo en
Canadá, junto con magnetómetros y en algunas ocasiones dispositivos electromagnéticos de emisor y
receptor móviles.
-Emanómetro: es un centellómetro modificado para la detección del gas radón y sus isótopos, utiliza
un fósforo, que suele ser SZn activado con Ag. Tiene una trampa neumática para la captura de los
gases emanados del suelo, canalizados por un pequeño tubo que manualmente se hinca en el terreno.
-Berilómetro: consta de un centellómetro y un emisor de antimonio radioactivo (51Sb124) cuyos rayos
α y γ, en caso de alcanzar minerales de berilio, los excitan y producen la emisión de neutrones que
son detectados.
-Espectrómetro de rayos Gamma: Ideado por Pringle, Roulston y Brownell en 1949 en Canadá,
fue efectivamente desarrollado hacia 1960 en ese mismo país. Permite identificar los isótopos
emisores de los rayos γ midiendo la energía con que éstos arriban al aparato. Actualmente existen dos
tipos principales de espectrómetros:
Los más convencionales (fotografía adjunta) están
construidos sobre la base de un centellómetro de
NaI (Tl) al que se ha acoplado un sistema
electrónico de analizador multicanal que formatea
la sucesión de pulsos arribados según el número
de cuentas/segundo en ordenadas y canales o
ventanas Wn de muestreo (que se corresponde con
energía en MeV) en abscisas (figura de abajo).
Los de mayor resolución -y costo- poseen un
detector de un material semiconductor, también
llamado de estado sólido (alguna aleación de
cadmio o preferentemente germanio puro). Con la
llegada de rayos γ al detector (que allí pueden
producir efecto fotoeléctrico, efecto Compton o
ionización) se provoca un movimiento de
electrones de la banda de valencia a la banda de
conducción del semiconductor, lo que en
presencia de un campo eléctrico genera un
desplazamiento hacia el ánodo, resultando en una
variación de tensión que es registrada y
formateada por el analizador multicanal.
Los canales de muestreo pueden ser 512, 1024,…
hasta 16384, según sea la capacidad de resolución
del aparato. Así, visualizando los picos en el espectro, se consigue identificar a los tres elementos
radiactivos comúnmente prospectados por su abundancia, a través de la radiación del isótopo más
fácilmente identificable en su correspondiente serie, esto es:
- 92U238, a través del 83Bi214, con una ventana energética situada entre 1,66 y 1,86 MeV
- 90Th232 a través del 81Tl208, con una energía de 2,41 a 2,81 MeV
- 19K40, a través de sí mismo ya que es el único isótopo radiactivo de su serie, 1,37 a 1,57 MeV
Además, como ruido pueden detectarse los rayos cósmicos en valores superiores a 3 MeV, aunque
siempre se intenta minimizarlos a través de pantallas de plomo, especialmente cuando se hace
adquisición aérea.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

Lámpara Ultravioleta: Consta de un electrodo caliente que por


emisión termoiónica desprende electrones a gran velocidad, los que
en su trayectoria alcanzan electrones corticales de átomos de
mercurio presentes, desplazándolos de sus órbitas, como se ilustra a
la derecha. Cuando éstos vuelven a su posición primitiva, emiten
radiaciones ultravioletas que alcanzan los átomos del mineral
fluorescente, los cuales emiten por efecto Compton ondas de
frecuencias comprendidas en el espectro visible.

Radiactividad de las Rocas


A pesar de su escaso espesor, la Corteza genera el 17% de la
radiactividad total del planeta, dado que es la envoltura con mayor
proporción de elementos radiactivos. El Núcleo, pese a su gran
volumen, sólo alcanza el 20%. El restante 63% corresponde a la
emisión del Manto.
La cuantía y distribución de las radiaciones es variable por estar en
relación con la mayor o menor distribución de los elementos que las emiten, lo cual va a depender de
la composición mineralógica de las rocas aflorantes (o, si fuera el caso, atravesadas por una calicata,
una galería o un sondeo).
Sobre los cuerpos de agua la detección radiactiva se hace mínima, casi nula, y por esto se miden allí
los valores de fondo (background) en cada región a prospectar.
Como se mencionó arriba, los tres elementos más abundantes, con períodos de semidesintegración del
orden de la edad de la Tierra, son el 92U238 (4,5.109 años), el 90Th232 (1,4.1010 años) y 19K40 (1,2.109
años). Los tres citados, pero sobre todo el uranio y el torio (frecuentemente en forma de óxidos), son
generalmente más abundantes en las rocas ígneas, variables en las metamórficas y más escasos en las
sedimentarias (las arenas de monacita, con ThO2, son una de las excepciones).
Las rocas calcáreas tienen niveles radiactivos normalmente muy bajos (salvo fracturas con depósitos
de sales de uranio u otros casos excepcionales). En cambio se registra una radiactividad habitualmente
mayor entre las rocas clásticas debido al potasio, que es normalmente más abundante en arcilitas (o en
areniscas feldespáticas), así como por la presencia minoritaria de torio, siendo variable la relación
Th/K según los tipos de arcillas.
Los ambientes depositacionales reductores
producen la insolubilización del ión uranilo
(UO2++, soluble en ambientes oxidantes) y a la
vez permiten la preservación de la materia
orgánica, que después podrá eventualmente
transformarse en carbón o hidrocarburos. Por lo
tanto el uranio es indicador de roca madre o de
combustibles fósiles, que en el caso del petróleo
puede migrar hacia reservorios de ambiente
oxidante.
Otros elementos radiactivos pueden tener
importante participación en casos particulares.
A la derecha, cuadro indicativo de la presencia
de uranio y torio en distintos sedimentos, rocas
y fluidos.
Prospección Radiométrica
Las actividades prospectivas por métodos radioactivos utilizando alguno de los aparatos detectores
arriba mencionados puede realizarse tanto en la modalidad más antigua, terrestre, con un mallado

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

acorde a las dimensiones del objetivo, ya sea regional o local. Pero también puede hacerse desde
aviones o helicópteros (Aerorradiometría), algo que se inició durante la década de 1950, eficaz por la
rapidez de cobertura de grandes áreas. Los recaudos en este caso serán similares a los de otras
metodologías aéreas (aerogravimetría, aeromagnetometría, aeroelectromagnetismo y otras), es decir,
habrán de procurarse altitudes de vuelo constantes y tan bajas como se pueda -desde aviones
generalmente un mínimo de 100 metros, según el tipo de avión, relieves y regulaciones áereas locales-,
seguir líneas rectas y paralelas, otras perpendiculares para vinculación, y velocidades de vuelo lentas
para un mejor muestreo -para aviones no es posible menos de 100 km/hora-.
Las figuras siguientes muestran un mapeo terrestre a escala de detalle y datos de aerorradiometría de
dos zonas distintas, donde se correlacionan ppm de U (desde muestras) contra conteo radiométrico.

Los objetivos de este método, además de la


propia búsqueda de yacimientos de elementos
radiactivos, pueden referirse a la prospección de
otros elementos no radiactivos de interés
económico pero que se hallen asociados
paragenéticamente con los que sí lo son (véase
el cuadro adjunto), aunque en la determinación
de los sectores de interés a partir del mapeo de
valores debe tenerse presente la posible
dispersión de elementos radiactivos en un área
mayor a la del yacimiento.
En la página siguiente se resume una aplicación
aérea en la provincia de Chubut, en la que se
coteja con datos terrestres y además se presenta
una curva que manifiesta la detección variable
de uranio (mediante Bi radiactivo) según que el
suelo esté húmedo o seco, en función del clima.
Esto se debe a que el terreno húmedo impide el
normal escape del radón, que forma parte de la
serie del 92U238, y éste se acumula dando una
señal que lleva a sobrevaluar el contenido en
uranio del área cateada.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

En relación a los hidrocarburos, en primer lugar sabemos que el K está en arcillas, feldespatos, etc. y
es un indicador litológico importante. También el Th, ya que permite identificar tipos de arcillas, tal
como se hace en los perfiles radiactivos de pozos. Pero además el U, como se explicó, está asociado al
petróleo y a su roca madre. Siempre que hay hidrocarburos hay aumento de radiactividad debida al
uranio, la cual suele magnificarse en zonas de falla o áreas de microfugas de hidrocarburos hacia la
superficie. El mapeo de este tipo de anomalías suele ser una interesante herramienta prospectiva,
muchas veces complementado con metodologías geoquímicas:
-muestreo microbiológico
-detección de gases: helio producido por el decaimiento radiactivo del uranio y otros elementos,
radón que como vimos es un isótopo de la serie del uranio,
metano o propano escapados de los reservorios, etc.
-bacterias de la biodegradación
-suelos con alteraciones (caolinita, carbonatos, yoduros, pirita, magnetita, etc.)
-cambios geobotánicos, y otros.
Ya hemos visto que distintos métodos permiten detectar en forma indirecta algunas de estas
alteraciones: micromagnetometría, inyección de corriente, electromagnetismo, polarización inducida.
Otros registros, como la detección de gases, se puede hacer indirectamente con la prospección
radiométrica, en forma aérea o terrestre, por ejemplo con un emanómetro.
Una herramienta moderna que permite detectar fluorescencia desde el aire, puede emplearse tanto en
tierra como sobre cuerpos de agua, lo cual es un caso especial donde la radiometría sí funciona sobre
lagos o mares. Lo que intenta detectarse es la respuesta de hidrocarburos microfugados desde sus

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

reservorios profundos bajo el lecho y llevados en forma de burbujas hasta la superficie del agua. La
técnica, ilustrada seguidamente, requiere de la eliminación de ruidos culturales (contaminación), así
como los causados por la posible presencia de algas fluorescentes y otros.

A continuación se esquematizan algunos de los posibles caminos de microfuga y filtración ascendente


del gas y el petróleo. Esto puede ocurrir en forma directamente vertical o más compleja, a través de las
propias rocas reservorio, cuando éstas inclinan, por zonas de falla o bordes de cuerpos emplazados que
resultan permeables, o simplemente atravesando las rocas sello, que muy frecuentemente no son
perfectamente sellantes.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9
Prospección Radiométrica Chelotti, L., Acosta, N., Foster, M., 2009.

Arriba, un plano resultante de una prospección aeroespectrométrica sobre rocas con presencia de
hidrocarburos escapados de los reservorios, en Sudán. La detección del 83Bi214 (ventana energética de
1,66 a 1,86 MeV) es indicación clara de la presencia de uranio, en este caso asociado al ambiente
reductor en el que el ión uranilo fue precipitado: la cocina del petróleo.

CUESTIONARIO BÁSICO

- ¿Qué son el período de semidesintegración y la vida media?


- ¿En qué consiste esencialmente la geocronología a partir de la radiactividad?
- ¿Qué tipos de radiaciones pueden medirse en prospección como señal o como ruido y qué efectos
pueden producir?
- Citar los tres elementos radiactivos más usados en prospección y los isótopos de sus respectivas
series que son medidos en la práctica.
- ¿Qué aparatos detectores son utilizados en exploración?
- ¿En qué tipos de rocas podemos medir valores altos de los distintos elementos radiactivos?
- Comentar las aplicaciones petroleras del método.

BIBLIOGRAFÍA

- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.447-470). Librería de Ciencia e Industria.
- Coppens, R., 1963. La Radiactividad de las Rocas. EUdeBA.
- Fowler, C., 1990. The Solid Earth (p.191-217). Cambridge University Press.
- Lowrie, W., 1997. Fundamentals of Geopysics (p.165-178). Cambridge University Press.
- Parasnis y Orellana. 1971. Geofísica Minera (p.296-303). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

RADIOMETRÍA DE POZO

Existen diversas herramientas radiométricas de pozo desarrolladas a partir de la primera aplicación


para detectar rayos gamma naturales (por la compañía Well Surveys de Estados Unidos en 1935).
La profundidad de investigación es escasa, promediando los 15 cm. Se registra con Contadores o bien
con Centellómetros, adaptados a las herramientas de pozo. Las herramientas de densidad van en
patines contra la pared y el resto centralizadas. Los distintos tipos de perfiles neutrónicos y de rayos
gamma naturales pueden correrse a pozo entubado, los dos de densidad sólo a pozo abierto.
Aquí una síntesis de los más ampliamente utilizados y luego información adicional de cada uno.

EMITE RECIBE
RAYOS GAMMA NATURALES ____ γ indiscriminados (unidades API: 1/100 lutita Texas)
Alternativo del SP para distinción de capas permeables Vs arcillas (con alto % de K39 más K40 radiact).

ESPECTROMÉTRICO de γ Naturales γ en 3 ventanas de Energía: 40


____ K a 1,46 MeV
214 238
Bi (serie U ) a 1,76MeV
208 232
Para distinción de mineralogías: Tl (serie Th ) a 2,61MeV
calizas, ígneas, UO2 en M.O. e H.C, relación Th/K en arcillas, etc.
µxδb
DENSIDAD (fuente de Cs
137
a 0,66MeV) γ γ Cγ = Io. e

Φ = (δm - δb)/(δ δ m - δ f)
(Conteo γ por efectos Compton (Porosidad Φ, densidad de
Para obtener densidades y Fotoel , coef. atómico másico µ, matriz δm , fluido δf y
y calcular porosidades. Intens. emisión, dist. fuente-receptor x) muestreada δb)

LITODENSIDAD (fuente de Co ,
60
γ γa 2 niveles de E Σ = k. Pef. δe δe = δb (2Z/A)
1,17-1,33MeV) (Σ, sección de captura, (dens. electrónica,
Para obtener densidades, porosidades y además Pef, factor fotoeléctrico) Nºatóm. y másico)
para estimar litologías mediante diagramas (crossplots).
1 1
NEUTRÓNICO TERMAL (fuente: 0n epit. 0n termal(aprox.0,002 eV)
88Ra
226
=>> α,γ =>> 4Be9 (unidades API: 1/1000 caliza Indiana)
4Be + 2He -> 6C +0n )
9 4 12 1

Para calcular porosidades, usualmente en combinación con el pefil de Densidad, el cruce de ambos suele
indicar presencia de gas (neutr. menor, densidad mayor).En arcillas sólo sube el neutrónico.
1 1
NEUTRÓNICO EPITERMAL 0n epit. 0n epitermal (0.1 a 100 eV)
También para cálculo de porosidades, utilizado en litologías complejas por su mejor respuesta ya que los 0n1
con más E son menos afectados por las variaciones de Σ.y los cálculos de Φ son más valederos

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

NEUTRÓNICO-GAMMA
1
0n epit γ
Es otro perfil para calcular porosidades. Los Cl del agua de Fm emiten γ propios y hacen sobrestimar
-

Φ, pero capturan muchos 0n1 por lo que Φ se subestima en los perfiles neutrón-neutrón.
1 1 Σvnt2-1

NEUTRÓNICO PULSANTE pulsos de 0n 0n en vent de t. Cn2 = Cn1. e
(fuente,acelerador H =>>H =>>0n ) (1000/s a 16MeV) (a 500 y 800µs,
2 3 1
(Vn, veloc. neutrón, t2-1 interv de t)
se comparan las Σ aumenta con Φ y con ClNa
Se obtienen valores de Σ curvas de descenso) Valores de Σ (en barn=10 m ):
-28 2

y curvas de arcillosidad areniscas 8-13, arcilitas 20-40


calizas 8-10, agua dulce 22, petróleo 22

PERFILES DE RAYOS GAMMA NATURALES


Existen dos tipos básicos de perfiles de radiación natural: el tradicional perfil de Rayos Gamma y el perfil
Espectrométrico de la misma radiación γ. Ninguno de ambos posee emisor, sólo receptor.
El Perfil de Rayos γ Naturales Totales o indiscriminados (Gamma Ray, o simplemente GR) fue desarrollado
hacia 1935 por la compañía Well Surveys de los Estados Unidos (después Dresser Atlas, luego Western Atlas y
hoy Baker Atlas). Es un perfil que registra la radiación gamma natural en su conjunto, cuyo conteo se grafica
en una pista de la hoja de perfiles en unidades API que se han definido como 1/100 del valor medido en una
lutita bituminosa de Texas que da una muy fuerte emisión natural.
El perfil de Rayos Gamma aumenta su conteo en función del aumento de uno o varios de los tres elementos
radiactivos más comunes en la Tierra (19K40, 90Th232 y 92U238). Como ya se mencionó, el potasio está presente en
mayor porcentaje en rocas ígneas ácidas, en arcillas, areniscas feldespáticas y metamórficas derivadas de estos
grupos. El torio también está principalmente presente en rocas ígneas félsicas y en arcillas, así como en arenas
monacíticas y metamórficas silíceas en general. Y el uranio además de estar en varias rocas ígneas y
metamórficas, se asocia con depósitos sedimentarios propios de ambientes reductores: carbones, lutitas
bituminosas, petróleo, así como fracturas con depósitos de bitumen. De todas estas opciones, la causa más
habitual de aumento de rayos gamma en secuencias sedimentarias es la presencia del potasio en las arcillas
(sobre todo K39 no radiactivo, pero también K40 emisor de radiación γ), por lo que el perfil de GR se emplea
como indicativo de capas impermeables (arcillosas) versus permeables (si no son areniscas muy feldespáticas),
constituyendo un perfil alternativo al Potencial Espontáneo (SP) cuando éste no da buenas respuestas (por bajo
contraste de salinidad entre el lodo y el agua de formación).

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

La otra variante es el Perfil Espectrométrico de


Rayos γ Naturales, que fue introducido en la industria
durante la década de 1960. No emite, sino que sólo
detecta la radiación gamma natural, pero, a diferencia
del anterior, discrimina esta radiación en ventanas de
energía, como ya fue explicado. La radiación menos
energética corresponde al K40, centrada en 1,46 MeV,
la siguiente es la que corresponde con el 83Bi214 (de la
serie del U238) en torno a los 1,76 MeV, luego la del
208
81Tl (perteneciente a la serie del Th232) alrededor de
2,61 MeV, y más allá cae la radiación cósmica (ruido a
los fines de la prospección geofísica) con unos 3 MeV.
Esta herramienta se emplea para la distinción de
mineralogías, por ejemplo calizas (generalmente
pobres en elementos radioactivos) o rocas ígneas (con
relativa abundancia de ellos). También para definir
tipos de arcilla en función de la relación Th/K,
utilizando gráficas específicas, y para detectar la
presencia del uranio asociado con la materia orgánica.

Perfiles de rayos γ naturales: de izquierda a derecha,


curvas de K+Th, Total (dejando en sombreado verde
la diferencia correspondiente al U) y en el sector
derecho las pistas individuales de K, U y Th

PERFILES DE DENSIDAD

El Perfil de Densidad básico (en inglés Density Log, también


llamado Gamma-Gamma) fue desarrollado por Dresser Atlas
en 1954 y permite obtener valores de densidad y calcular
porosidades a partir de ellos. La herramienta posee una fuente
radiactiva, por ejemplo 55Cs137 que emite radiación γ a 0,66
MeV, y luego registra la radiación que logra retornar al detector.
Esta última nos permite obtener una densidad muestreada en
cada punto, que es proporcional a la densidad electrónica de la
formación. Emisor y detector van sobre un patín apoyado en la
pared del pozo. En rigor, desde hace muchos años se utilizan
dispositivos de densidad compensada, que poseen dos detectores
situados a distintas distancias del emisor, a fin de generar un
promedio de lecturas para compensar los eventuales errores que
podrían generarse por la interposición de lodo entre detector y
roca, sobre todo en casos de cavernas. La velocidad del perfilaje
debe ser baja (alrededor de 500 m/hora) para tener un conteo
representativo resultante de promedios estadísticos, lo que
aumenta su costo, y la profundidad de lectura es corta (de unos
15 cm).

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

Las relaciones matemáticas empleadas son:


µxδb

Cγ = Io. e
(Conteo γ por efectos Compton y Fotoeléctrico a partir
de la Intensidad inicial de emisión, coeficiente atómico
másico µ, la distancia fuente-receptor x y la densidad
muestreada δb en cada punto de interés)
Φ = (δm - δb) / (δδm - δf)
(Porosidad Φ a partir de las densidades de matriz, de
fluido y muestreada en cada punto de interés)
La porosidad calculada puede resultar errónea si hay un
cambio litológico imprevisto. Si, por ejemplo, se
calcula en base a una columna litológica clástica con
cierta δm y aparece una intercalación de una caliza con
porosidad secundaria, tal vez el resultado del numerador dé cero cuando con una adecuada densidad de matriz
hubiese dado un cierto valor positivo y un resultado final distinto de cero. O bien, si existe una intercalación de
lutitas con materia orgánica, su densidad será menor -por la presencia de cierta proporción de carbono en lugar
de silicio- y supondremos que hay una porosidad interesante que en verdad no es tal. Otro caso particular está
dado por los lodos densificados con baritina, que luego dan altas lecturas en las zonas de fracturas donde el
BaSO4 se depositó.
Una herramienta especial nos permite obtener el llamado Perfil de Litodensidad (Lithodensity Log), que
utiliza una fuente con mayor rango de emisión energética, por ejemplo 27Co60 que emite rayos gama entre 1,17
y 1,33 MeV. De modo que luego se registra la radiación gamma que llega al detector en dos niveles de energía
diferenciados, lo que permite estimar litologías en base a estos datos mediante el uso de diagramas (crossplots)
diseñados a tal fin. Esto se agrega a los cálculos de densidad y porosidad, como en el perfil más básico. Las
demás características de la herramienta y la profundidad de investigación son similares al caso anterior.
Puede entonces
calcularse:
Σ = k. Pef. δe
Σ es la sección

eficaz de captura,
k una constante,
Pef el factor
fotoeléctrico
y δe la densidad
electrónica)

Y donde, a su vez,
δe = δb (2Z / A)
(o sea que la
densidad
electrónica es
función de la
densidad
muestreada δb
y los números
atómico Z y
másico A)

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

PERFILES NEUTRÓNICOS
Existen cuatro variedades de perfiles
neutrónicos y todos ellos nos permiten
calcular la densidad y la porosidad de las
formaciones atravesadas por el sondeo,
usualmente en combinación con el Perfil
de Densidad antes descripto. Todos ellos
poseen dispositivos de compensación de
lecturas análogos a los que tienen los
perfiles de densidad, su velocidad de
perfilaje es baja y su profundidad de
investigación también de unos 15 cm. La
información registrada suele indicarse en
unidades API: 1/1000 de una caliza
radiactiva de Indiana (Estados Unidos).
El Perfil Neutrónico Termal (Neutron
Thermal Log) fue desarrollado por Dresser
Atlas hacia 1938 y posee una fuente de
226
88Ra (alternativamente 94Pu239 ó 95Am246)
emitiendo radiación α y γ, la cual
bombardea átomos de 4Be9, por lo que éstos
a su vez emiten una nube de neutrones
(0n1) de energías intermedias (termales) y
se transforman en átomos de 6C12:
α,γ =>> 4Be
226 9
88Ra = >>
4Be + 2He --> 6C12+0n1
9 4

Los neutrones son emitidos en el rango de


energía epitermal (0.1 a 100 eV) y se
registra en un rango energético menor
(termal, en el orden de los 0,002 eV).
Se lo emplea para calcular porosidades,
basándose en el conteo de neutrones
recibidos que disminuye con el aumento
del llamado Índice de Hidrógeno. Este
índice es función de la presencia de los
átomos de hidrógeno (contenidos en el
agua o los hidrocarburos), los cuales frenan
a los neutrones enviados por tener una
masa semejante. Es decir, a mayor cantidad
de hidrógeno, menor conteo de neutrones y
mayor porosidad. La pérdida de energía
viene dada por: -∆E = 4Z/(1+Z) 2
El hidrógeno da cociente 1 (100%), pero
otros elementos dan valores sensiblemente
menores, tanto menos cuanto mayor sea el
número atómico: un neutrón se amortigua
más al chocar contra un protón (de similar
masa) que contra un núcleo grande.
Es habitual combinar el Perfil Neutrónico
con el Perfil de Densidad -Perfilaje
Sinergético-, donde el cruce de ambos
suele indicar la presencia de gas (pista de

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

ΦN y ΦD en la figura siguiente). Esto es así porque en las capas gasíferas el neutrónico mide menos dado que
disminuye el conteo de neutrones: el índice de hidrógeno es menor ya que existe una menor densidad de éste en
el gas que en el agua o el petróleo. Pero, en cambio, el perfil de Densidad mide más porque por defecto se
asigna en la fórmula de porosidad una densidad de fluido correspondiente al agua de formación (mayor que la
del gas, de alrededor de 1,1), densidad que aparece restando en este caso por exceso en el denominador.
Frente a las arcillas, en cambio, sólo sube la medida del perfil neutrónico, ya que el agua poral aumenta el
índice de hidrógeno y por lo tanto el conteo de neutrones.
También debe tenerse presente que los iones Cl- de las aguas del subsuelo capturan muchos neutrones,
reforzando el efecto del hidrógeno, razón por la que finalmente resulta sobrestimada la porosidad formacional.
El ejemplo presentado muestra curvas de SP y acústico; inducción profunda, media y enfocada; Th, U, K y factor
fotoeléctrico; rayos γ totales, calibre del pozo y diámetro de trépano; porosidades D y N, e interpretación integrada.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

El Perfil Neutrónico Epitermal (Epithermal


Neutron Log) es una alternativa, desarrollada una
década más tarde, que emite energía como en el
mismo nivel energético del anterior, pero que, a
diferencia de aquel, registra también en el rango de
las energías epitermales.
Usado también para el cálculo de porosidades,
utilizado en litologías complejas por su mejor
respuesta ya que los neutrones con más energía son
menos afectados por las variaciones de Σ y los
cálculos de porosidad Φ son más valederos. Sin
embargo, debe tenerse en cuenta que, tanto en este
perfil como en el anterior, los iones Cl- de las aguas
del subsuelo capturan muchos neutrones, razón por
la que finalmente resulta subestimada la porosidad
formacional. También esta variante del Neutrónico
se combina con el Perfil de Densidad en el Perfilaje
Sinergético.
El Perfil Neutrónico-Gamma (Neutron-Gamma Log) emite neutrones epitermales, como los anteriores, pero
recibe radiación γ que emite la formación como consecuencia del bombardeo de neutrones. Es otro perfil
empleado para calcular porosidades, pero debe tenerse presente que los iones Cl- del agua de las formaciones
emiten rayos γ propios y en consecuencia hacen sobrestimar la porosidad, al igual que resulta de los dos perfiles
neutrón-neutrón.
El Perfil Neutrónico Pulsante (Pulsed Neutron Log) desarrollado en 1963, tiene una fuente constituida por un
acelerador de átomos de deuterio con los que se bombardea un blanco de tritio, a partir del cual se produce la
emisión de pulsos de neutrones (unos mil por segundo a energías del orden de los 16 MeV).
2 3 1
H =>> H =>> 0n
Se registran neutrones en una ventana temporal entre dos “compuertas” (tiempos de registro, usualmente entre
unos 500 y 800µs) obteniéndose la correspondiente curva de descenso para cada punto muestreado a lo largo
del pozo. El conteo de neutrones responde a la siguiente ecuación:
Σv t

Cn2 = Cn1. e n 2-1
(el conteo en un instante 2 se relaciona con el obtenido en un instante 1 según una exponencial decreciente
donde Σ es la sección eficaz de captura, Vn la velocidad de los neutrones y t2-1 el intervalo de tiempo elegido)
Se obtienen valores de la sección eficaz de captura (Σ Σ, que es la probabilidad de la interacción, función del
átomo considerado y de la energía involucrada). Para los niveles de energía usuales en estos registros, en
areniscas Σ varía entre 8 y 13 barn (1barn=10-28m2), en arcilitas de 20 a 40, en calizas de 8 a 10, y en
reservorios de agua dulce o petróleo es de unos 20-25 barn. Este valor aumenta a medida que se incrementa la
porosidad y asimismo con el aumento de la salinidad.
Es un perfil especialmente indicado para correr a pozo entubado, lo cual puede hacerse junto con el perfilaje de
calidad de la cementación. Pueden registrarse datos a dos
profundidades de investigación distintas (G1 y G2 en la
ilustración a la derecha, en cuentas por segundo), una de
ellas mucho más larga que la convencional en perfiles
radiactivos, lo cual brinda datos comparables con los de
herramientas de resistividad (pista izquierda del ejemplo) y
la convierte en una excelente información para la
correlación entre pozos.
La curva del tiempo de degradación termal τ (en
microsegundos) surge de hacer: τ = 4,55 / Σ
Es una excelente información para poder distinguir
hidrocarburos de agua de formación , como se puede ver en

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

el ejemplo que sigue, adquirido en dos fechas distantes, con un


cambio de la interfaz agua/petróleo producto de la explotación del
recurso.
A partir de los perfiles neutrónicos pulsantes también es posible
obtener curvas de arcillosidad.

Ejemplo de Aplicación No Convencional:


Se trata de la cuantificación de la compactación en un campo
petrolífero del Mar del Norte, en algunos pozos testigo donde un
cañón ha introducido tiempo atrás balas radiactivas a intervalos
prefijados. Allí se procede a bajar cada cierto número de meses la
herramienta de perfilaje con detectores de la radiación gamma: la
fuerte señal de las balas indica inequívocamente su ubicación en
profundidad, la cual se va modificando entre cada medición y la
siguiente en función del grado de compactación que va ocurriendo
por extracción de los fluidos del yacimiento.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

Evaluación Mineralógica Espectrométrica


METODOLOGÍA
Cada uno de los elementos radioactivos presentes en las arcillas emite rayos gamma con un nivel de
energía característico del elemento. Las herramientas espectrométricas, como el SPECTRALOG (SL,
de Baker), clasifican los rayos γ naturales en ventanas de energía. De este modo identifican y
cuantifican los tres elementos radioactivos principales presentes en la formación: torio, uranio y
potasio. Dicho de otro modo, el nivel de energía de la radiación determina de qué elemento proviene y
la cantidad de rayos por segundo determina la cantidad de dicho elemento presente en la formación.
Por otro lado, los diferentes minerales de arcilla se caracterizan por un valor determinado de la
relación Th/K. Entonces, a través de dicha relación se pueden clasificar y estimar porcentajes de
abundancia de cada uno de dichos minerales. En la figura de abajo se puede ver cómo se ubican los
diferentes tipos de arcillas en un diagrama torio-potasio. Los programas utilizados asumen que un
determinado mineral puro es graficado sobre una única línea (valor único de relación Th/K) ubicada
en el centro del sector
que corresponde a dicho
mineral (figura).
Los puntos verdaderos
(mediciones dadas por la
herramienta) en general
quedarán entre medio de
dos líneas, y lo que hace
el programa es calcular
la proporción de cada
uno de los minerales
correspondientes a esas
dos líneas en base a las
distancias del punto a
cada una de ellas.
Existe la posibilidad de
eliminar determinados
componentes, de los
cuales se tiene la certeza
de que no se hallan
presentes dentro de la
formación analizada.
Los programas también
utilizan el factor
fotoeléctrico, provisto
por la herramienta de
Lito-Densidad, a fin de
discriminar entre sí a
Relación Torio-Potasio para identificar tipos de arcillas
aquellas arcillas que
tienen valores similares de relación Th/K, como es el caso de la Esmectita y los Niveles Arcillosos
Mezclados o “Mixed Layer Clays”.

LIMITACIONES de las DETERMINACIONES


En la figura anterior se puede ver que todas las líneas correspondientes a los distintos minerales de
arcilla convergen en el origen (cero de torio y cero de potasio). En este punto caería una arenisca
cuarzosa limpia. Obviamente, cuanto más limpia sea la arenisca, tanto más se va a acercar al origen,

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

donde convergen todas las líneas. Esto hace que cualquier error de medición, aun pequeño, cause
incertidumbre en la determinación del tipo de arcilla porque todas se juntan en el punto 0, 0. Dicho de
otro modo, cuanto más limpia es la arena tanto mayor es la incertidumbre en la determinación del tipo
de arcilla. Este hecho hay que tenerlo en cuenta si se quiere calibrar con corona pues normalmente
éstas son sacadas en areniscas.
Sin embargo en la Cuenca Golfo San Jorge hay un error más importante: las areniscas generalmente
son lítico feldespáticas y por lo tanto presentan niveles de radioactividad natural en muchos casos
similares y aún mayores que los de las arcilitas. El espectro de esta radioactividad de las areniscas, al
ser analizado según un modelo diseñado para las arcillas, da resultados erróneos.
Por todo lo antes mencionado, los resultados en las areniscas deben ser tomados con precaución. El
tipo de arcilla presente en las mismas se debería inferir de las arcilitas vecinas.

EJEMPLO DE ANÁLISIS DE RESULTADOS


En todo el intervalo registrado no se
observan grandes variaciones en las curvas
de Torio y Potasio, la misma observación se
puede hacer mediante el diagrama o
crossplot general (Fig. 6.1) donde se ve una
única nube de puntos. Esto en principio
permite inferir que no existen grandes
variaciones del tipo de arcilla a lo largo de
la columna.
De los tres componentes radioactivos, la
curva que muestra más variaciones es la de
Uranio pues presenta zonas de valores altos
que se dan siempre que el GR (registro de
rayos gama naturales indiscriminados)
presenta valores altos. Ejemplos: 385 a 400
mbbp, 640 a 675 mbbp, 1095 a 1100 mbbp,
etc. Entonces se puede afirmar que el
Uranio es el único elemento que causa los
valores de GR anormalmente altos.
Por encima de los 700 mbbp no se registró
el perfil de Lito-Densidad, razón por la cual
en este intervalo no se puede diferenciar
entre Esmectita y Mixed Layer Clays. Por
eso en la presentación gráfica
aparece el componente llamado Mixed Layer./Esmectita: una combinación indefinida de ambos.
Sin embargo, extrapolando el tramo que tiene todos los perfiles, se podría inferir que lo que más
abunda dentro de esa combinación indefinida son los niveles arcillosos mezclados (Mixed Layer Clays).
Análisis por unidades formacionales:
Con el objeto de poder ver pequeñas variaciones en los tipos de arcillas asociadas a las formaciones
perfiladas se desglosó el diagrama general en las siguientes unidades formacionales:
Bajo Barreal Superior desde tope de registro hasta 925 mbbp
Bajo Barreal Inferior desde 925 hasta 1258 mbbp
Sección Tobácea desde 1258 hasta 1425 mbbp.
Castillo desde 1425 mbbp hasta fondo del pozo
En la figura anterior y en todas las que siguen se observa el mismo diagrama general, con la diferencia

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

de que las unidades formacionales se han codificado por colores. No se indican restricciones
(constrains) en ningún caso. Se hicieron cuatro diagramas separados, uno por cada unidad, como se ve:

Estos diagramas confirman que las nubes de puntos correspondientes a las distintas formaciones caen
todas en la misma zona; la excepción podría ser Castillo (en la última figura) pero no se puede
asegurar ni negar pues el pozo penetra muy poco en dicha formación y la nube de puntos
correspondiente se hace dispersa debido a la poca cantidad de datos.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 9(b)
Radiometría de Pozo, Evaluación Mineralógica Espectrométrica Chelotti, L., Acosta, N., Foster, M., 2009

APLICACIONES PRÁCTICAS DE LA INTERPRETACIÓN DE TIPOS DE ARCILLAS EN


RESERVORIOS DE ARENISCAS:
Diseño de sistemas de estimulación con ácidos
Con la determinación de las propiedades litológicas y mineralógicas y con el reconocimiento de los distintos
modelos litológicos que componen los materiales intersticiales finos y los clastos de los reservorios arenosos es
posible establecer una metodología de trabajo a emplear en operaciones de estimulación ácida cuyo objetivo
sea la remoción de partículas arcillosas que obturan gargantas porales (daño de formación).
Una vez determinados los componentes de la roca es posible establecer un criterio que permita optar por un
sistema de estimulación que no afecte la calidad del reservorio, establecer de antemano el comportamiento y la
respuesta de los modelos frente a una estimulación ácida.
Generalmente los sistemas de estimulación de este tipo están compuestos por combinaciones de HCl-FH.
En reservorios con alto contenido de caolinita, para poder utilizar HCl-FH, sería importante también emplear
agentes quelantes y secuestrantes de Fe, como EDTA, ácido cítrico o acético.
La presencia de caolinita permite inferir migración de finos, siendo ésta la principal responsable de estos
procesos migratorios. Para su eliminación se utiliza ácido HF, el cual disuelve la caolinita y genera ácido
fluorosilícico.
Al2Si2O5(OH)4 + 24HF => 2H2SiF6 + 9H2O + 2H3AlF6
Caolinita Ac Fluorosilícico Ac Fluoroalumínico
Se debe tener cuidado con los subproductos como el Fluosilicato de Sodio o de Potasio, dado que el ácido
fluorosilicico sigue reaccionando con los otros minerales presentes en la roca o con los cationes presentes en
agua de inyección.
2 Na+ + H2SiF6 => Na2SiF6 + 2 H+
2 K+ + H3AlF6 => K2AlF6 + 3H+
No se aconseja la utilización de ClNa en conjunción con el lodo ácido o “mud acid” (HCl-HF) ya que produce
precipitados gelatinosos insolubles.
Se recomienda para la estimulación la utilización de estabilizadores de arcilla en base a cationes multivalentes
como aluminio o circonio.
-Reservorios que con componentes en la matriz principalmente esmectíticas producen un intercambio
catiónico, por ejemplo con aguas de inyección, pudiendo llegar a expandirse y reducir considerablemente el
volumen poral.
En caso de inyección de agua para recuperación secundaria se recomienda el monitoreo continuo mediante
estudios de compatibilidad de agua dados los inconvenientes que ocasionaría la dilución de agua de inyección
debido a mezclas con aguas de distinta salinidad.
La presencia de importantes cantidades de illita, la cual posee propiedades migratorias, generalmente ocasiona
obturamientos de gargantas porales.

CUESTIONARIO BÁSICO
- ¿Qué información da el perfil de rayos gamma totales y cuándo se los utiliza?
- Describir los datos aportados por el perfil espectrométrico y sus aplicaciones.
- ¿Qué perfiles de densidad y neutrónicos pueden correrse en pozos petroleros, qué emiten y reciben, y qué
información brinda cada uno?
- Comentar la utilidad del perfil sinergético.
- ¿Cómo tipificamos las arcillas mediante los diagramas de Th/K, y qué limitaciones puede haber?
- Comentar las aplicaciones prácticas en pozos de la determinación de arcillas atravesadas.

BIBLIOGRAFÍA
- Western Atlas, 1994. Introducción al Perfilaje de Pozos (varios capítulos).
- Schlumberger, 1972. Interpretación de Perfiles (varios capítulos).
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

PROSECCIÓN GEOTÉRMICA
Los primeros aprovechamientos de aguas termales para calefacción y baños públicos datan de los tiempos de
Griegos y Romanos. Los hamams (baños turcos) fueron popularizados en Anatolia durante el Imperio Otomano
y desde el siglo XVIII se explotaron en Italia los soffioni (venteos de vapor de agua hirviente) para la obtención
de ácido bórico y amoníaco.
El Conde de Rumford (Benjamin Thompson) hacia 1800 y James Joule hacia 1850, ambos en Gran Bretaña,
fueron los primeros en comprender los procesos calóricos de la materia.
A partir de datos de perforaciones es conocido el hecho de que la temperatura se incrementa en alrededor de
3,3ºC cada 100 metros a medida que se profundiza, lo cual fue medido en un pozo por primera vez por el Lord
Kelvin (William Thomson, británico) en 1869. Este valor medio se va reduciendo en función del incremento de
profundidad, como resultado de lo cual se estima una temperatura de unos 1400ºC en la base de la litosfera y del
orden de los 5000ºC en el centro de la Tierra. El gradiente de temperatura terrestre es conocido como gradiente
geotérmico (de thermós, caliente en griego):
G = dT/dz
o bien, integrando: G = Tf-Ts / z
(si tenemos las temperaturas de superficie y fondo de pozo y su profundidad z)
G puede variar significativamente en la corteza según las condiciones geológicas presentes, sobre todo en
continentes (por tipos de roca, fenómenos de oxidación, yacimientos radiactivos, acuíferos en movimiento,
glaciaciones, cercanía de lagos, tasa de sedimentación o erosión, etc.) yendo desde 0,05 hasta 0,55ºC/m y en
sectores de actividad volcánica puede ser bastante superior. Es más homogéneo en los fondos marinos. También
varía con la profundidad, definiendo una geoterma (curva de gradiente geotérmico) característica de cada lugar,
cuya mensura se denomina geotermometría.
A partir de los estudios pioneros del escocés James Maxwell (1871) en relación con la segunda ley de la
termodinámica, puede definirse el flujo total de calor que asciende hacia la superficie en cada sitio como una
cantidad denominada flujo calórico o térmico:
Q = k .dT/dz
es decir, el producto del gradiente geotérmico por una constante k (que recibe el nombre de conductividad
térmica) cuya magnitud varía según la constitución de las rocas y sus contenidos porales.
Despejando, k = Q .dz/dT
Entonces, si se toma un gradiente de temperatura igual a 1, resulta k = Q, lo que en unidades del SI significa que
la conductividad térmica es la cantidad de calor que fluye en un segundo a través de un área de un metro
cuadrado en un lugar en el que el gradiente es de 1ºC/m.
De hecho las unidades en el SI quedan finalmente en: ºC/m para G, W/ºCm para k, W/m2 para Q
También se utiliza para Q el HFU (Heat Flow Unit) = 40 mW/m2 (recordar que W = J / s y que J = N. m)
En el sistema CGS, G se da en ºC/cm, k en ucal/ºC cm s, y Q en ucal/cm2 s (una caloría es la cantidad de calor
requerida para elevar en 1ºC 1gr de agua, o bien 4,186 J).

Flujo Térmico en la Tierra Sólida


Si bien la energía solar recibida es cuatro órdenes de magnitud mayor que la energía geotérmica total, la mayor
parte es vuelta a irradiar (albedo) y, si bien la porción retenida es todavía muy significativa, ésta sólo controla

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

los procesos a nivel de la atmósfera e hidrósfera. La razón por la que su influencia en la corteza terrestre resulta
despreciable es la muy baja conductividad térmica de las rocas. Las variaciones diurnas de temperatura afectan
sólo hasta unos 20 cm (menos de 1ºC a 1 m de profundidad), las variaciones estacionales influyen hasta pocos
metros bajo tierra y a pocas decenas de metros los cambios llegan con más de un año de retraso.
Es por esto que el gradiente geotérmico obedece casi exclusivamente al flujo térmico del calor interno del
planeta y su propagación se efectúa por conducción, convección o advección.
La propagación por conducción (interacción electromagnética a nivel molecular) ocurre en el núcleo interno y
en la corteza terrestre, aunque también en el núcleo externo y manto.
Los procesos de convección (movimiento masivo de las moléculas mismas por calentamiento o enfriamiento)
son los encargados de incrementar en varios órdenes de magnitud la propagación térmica en el núcleo externo
(de comportamiento fluido) y en el manto (plástico) con un sistema convectivo muy eficiente hasta los 670 km
de profundidad y otro mucho más viscoso y lento en el manto inferior.
La advección es un modo especial de convección, cuando una región es levantada por eventos tectónicos y
acerca a la superficie rocas cuyas temperaturas corresponden a zonas más profundas, las cuales toman un largo
tiempo en equilibrar sus valores térmicos.
(El proceso de propagación térmica por radiación electromagnética sólo se da en las envolturas fluidas de la
Tierra en las que domina la energía solar, esto es, atmósfera e hidrósfera, donde suceden también la convección
y la advección).
A la derecha, gráfica de temperatura estimada del interior
terrestre. La curva solidus indica la temperatura de fusión,
que naturalmente se cruza con la de temperatura estimada en
el núcleo externo.
Abajo el mapa de flujo térmico superficial a escala global,
donde se han omitido detalles de cada región de la Tierra.

Las causas del calor interno del planeta son:


-El calor original, en progresiva disminución, debido a la energía de la acreción gravitacional durante la
formación del planeta, a lo que se sumó el posterior movimiento de elementos pesados, como el hierro, hacia el
centro de la Tierra, fenómeno bautizado como “la catástrofe del hierro”. Representa el 20% del total actual.
-El flujo térmico debido a la desintegración de minerales radiactivos (principalmente U, Th y K), que se estima
haya sido 3 ó 4 veces superior en tiempos primigenios, correspondiendo el 17% del total a emisión cortical y
sólo el 20% a emisión desde el núcleo de la Tierra. Actualmente es responsable de más del 70% del calor total
producido.
-La energía térmica provocada por el hundimiento por densidad diferencial posterior a la permanente
cristalización gradual de minerales del núcleo.
-La energía generada por el efecto de frenado gravitacional con la Luna y en menor medida con el Sol (mareas
terrestres) que produjo el incremento del período de rotación de la Tierra.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

Medición del Gradiente Geotérmico


Pueden utilizarse termómetros de mercurio (con
registro de temperatura máxima), pero lo más
común es el uso de termistores (diafragma
termoneumático con lectura dada por una célula
fotoeléctrica).
Los fondos marinos usualmente están cubiertos
por sedimentos blandos por lo cual, salvo casos
excepcionales, no se utiliza un equipo de
perforación especial, sino sondas que se dejan
caer libremente por su propio peso y penetran
algunos metros, para así obtener al menos dos
datos de temperatura, uno en el extremo inferior
y otro más arriba, y de ello calcular un gradiente.
La sonda de Maurice Ewing (a la derecha) es
una de las más conocidas. (Ewing y Heezen en
1953 descubrieron la Dorsal Centroatlántica.)
En continentes se pueden hacer mediciones en
pozos perforados a tal fin, los que por motivos de
costos normalmente son de escasa profundidad.
Es usual taladrar pozos a una profundidad de
entre 2 y 5 metros en forma manual o más
raramente perforar decenas de metros con
equipos especiales. En ellos se suele introducir
una delgada sonda de acero (1 a 2 cm de
diámetro) por la que se bajan los termistores a
diferentes profundidades, rellenándose el espacio
anular remanente con los sedimentos del lugar.
Debe esperarse suficiente tiempo para que las
temperaturas alcancen su máximo, equivalente al
estado de terreno virgen, o bien hacerse las
correcciones que correspondan.
En todos los casos el incremento de confiabilidad en los valores puede conseguirse con la repetición de las
mediciones, además de los lógicos recaudos de buen funcionamiento de la técnica utilizada.
Otra opción, válida tanto en continentes como en mares, es valerse de perforaciones que se realizan con otros
fines, sea hidrológicas, mineras, petroleras, etc.
El caso más habitual es el de los pozos petroleros donde se pueden tener datos de temperaturas de ensayos de
formación, o bien desde los perfilajes, a veces en varios tramos, e incluso mediante un registro corrido en el
sondeo a tal fin.
Ensayos: Arrojan valores similares a los del terreno virgen, dado que se aisla un tramo de pozo a fin de permitir
el aporte de fluidos formacionales que luego de un corto tiempo salen con la temperatura original, ya sin la
disminución provocada por el lodo de perforación.
Perfilaje: Las temperaturas de fondo de pozo que se
obtienen en cada carrera con un termómetro (con
registro de máxima) siempre miden por defecto,
dado el enfriamiento que el lodo ha producido en el
pozo durante la perforación. Si bien durante el
perfilaje la circulación se ha detenido, toma muchas
horas volver a los valores de terreno virgen a lo
largo del pozo. Es por esto que en cada carrera
sucesiva se verá un incremento de temperatura
mientras no se baje la sarta de perforación para
volver a circular lodo.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

En este caso se puede graficar temperatura de fondo versus tiempo transcurrido desde que se paró de circular y
construir aproximadamente la curva de recuperación térmica que tiende asintóticamente al valor original en roca
virgen (figura precedente). Así, para obtener el gradiente geotérmico debemos restar a esa temperatura original
estimada la temperatura media anual del lugar y dividir por la profundidad del pozo.
Pero si en cambio tenemos sólo un valor de temperatura de perfilaje (porque sólo se hizo una carrera) entonces
para tener un gradiente aproximado corresponde dividir por la temperatura al momento del perfilaje (si es que
se tiene el dato) dado que el valor de fondo está más influenciado por la temperatura a la que se enfría el lodo en
superficie que la media anual. Pero este resultado dará un gradiente menor al real (en el orden de los 0,005”C/m
en menos).
Datos por Tramos: Si un pozo se ha perforado en dos o tres tramos (con entubación y reducción de diámetro de
trépano en cada parte) seguramente se habrán hecho carreras de perfilaje en cada uno de esos tramos y por lo
tanto se tendrán temperaturas de dos o tres fondos distintos y con ellas se podrán calcular dos o tres gradientes
desde superficie hasta cada una de tales profundidades, o bien los gradientes para cada tramo individual. Si se
hacen estos cálculos usualmente se comprobará que el gradiente puede variar de un tramo a otro, lo cual es
función de diversos factores litológicos, hidrodinámicos, etc. Esto dará una geoterma característica del sitio
donde se ha perforado el sondeo.
Perfil de Temperatura: También pueden efectuarse perfilajes de temperatura, los cuales van arrojando valores a
pequeños intervalos de profundidad y así se obtendrá toda una curva de variación del gradiente con la
profundidad, aunque estos valores también estarán afectados por el enfriamiento debido al lodo de perforación.

Medición de la Conductividad Térmica


Pueden obtenerse valores de conductividad térmica de tablas para distintas litologías en diferentes condiciones
de yacencia, pero el margen de error puede ser grande. También se pueden tomar valores de áreas aledañas si la
columna litológica es suficientemente parecida.
Lo más recomendable es obtener muestras de las rocas –al menos de las más representativas o abundantes en la
zona en estudio- y calcular en laboratorio su conductividad térmica con dispositivos como el del inglés C. Lees
(1892), mejorado por el australiano A. Beck (1957), que se esquematiza en la siguiente figura a la izquierda.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

En los continentes y también en el fondo del mar pueden utilizarse sondas tipo aguja que pueden atravesar
sedimentos duros, se le transmite una predefinida cantidad de calor y se mide el aumento de temperatura
mediante un termistor incorporado a la aguja, como se ve en la figura anterior a la derecha.
A continuación una lista de valores de conductividad térmica de ciertas rocas, sedimentos, minerales y fluidos,
variables pero notoriamente más bajos que el valor de referencia citado: el cobre.

Cálculo del Flujo Calórico


Una vez obtenidos datos de gradiente de temperatura y de conductividad térmica se puede calcular el flujo
térmico o calórico, sea como estimación general o bien con valores mapeables. La representatividad de los
resultados estará en función de la abundancia y certidumbre de los datos utilizados.
A escala global, debido al ascenso
mantélico que las genera, las
dorsales oceánicas son las
regiones de mayor flujo calórico,
como se ilustra en la figura a la
derecha. Pero otras regiones
también son relevantes, como las
zonas de convergencia entre
placas tectónicas y los puntos
calientes (hot spots) en los que
ascienden lavas desde zonas
profundas del manto terrestre.
Sobre los continentes en general
el flujo térmico es menor, pero
existen numerosas zonas en las
que éste es muy significativo.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

Anomalías Geotérmicas
Las anomalías de alto flujo térmico pueden tener un origen químico, radiométrico, mecánico o más
frecuentemente magmático, pero la presencia de vías preferenciales de propagación del calor –como rocas
permeables o fracturas abiertas- también influyen en la magnitud relativa de su manifestación subsuperficial.
Existen yacimientos geotérmicos abiertos (con aguas termales superficiales, fumarolas, geisers u otras
manifestaciones volcánicas) y yacimientos cerrados, a los que sólo se alcanza mediante perforaciones de las
cuales se obtiene agua caliente o vapor.
La estructura y geodinámica terrestre definen dos clases de regiones que determinan sendas formas principales
de explotación de la energía geotérmica. La primera corresponde a regiones donde la corteza posee un
comportamiento relativamente estable, como el que ofrecen las plataformas continentales. En ellas existen áreas
semitérmicas que presentan concentración de calor con flujos que tienen gradientes del orden de los 30 a los 50º
C por kilómetro de profundidad. Si en estas regiones hay estructuras favorables y se las perfora adecuadamente,
se pueden obtener fluidos de moderada temperatura, de unos 50 a 100º C.
Los reservorios están constituidos por formaciones permeables -con buena porosidad primaria o con procesos
secundarios de fisuración o disolución- que contienen agua líquida o vaporizada, usualmente cargada de sales y
distintos gases. Se los conoce como yacimientos cerrados o de baja entalpía (bajo intercambio energético).
Abarcan vastas zonas del planeta y casi siempre se trata de cuencas sedimentarias vinculadas con zonas
fracturadas por donde ascienden a las aguas que se calentaron
por efecto de anomalías térmicas de origen profundo.
La segunda clase abarca las zonas activas, ubicadas en los
límites de placas, divergentes, convergentes o transcurrentes.
El emplazamiento de cámaras magmáticas a niveles poco
profundos de la corteza permite la concentración de flujo de

calor, incrementándose el gradiente geotérmico hasta valores muy altos, con temperaturas de 150 a 300º C a
profundidades de 500 a 2000 m. Conforma los yacimientos abiertos o de alta entalpía y, aunque sólo se limita
a ciertos sectores de la corteza, su interés económico es mayor, dada la alta transferencia de calor y su
accesibilidad. De este tipo son las manifestaciones geotérmicas como las del parque nacional de Yellowstone en
los Estados Unidos.
La propagación del calor acumulado puede alcanzar zonas de gran contenido hídrico y producir la consiguiente
transferencia energética a la masa ácuea, dando origen a la conformación de reservorios naturales. Las
profundidades de interés van de 500 a 2000 metros y el rango de temperaturas entre 150 y 300º C. El
aprovechamiento de estos flujos térmicos deriva en distintas aplicaciones prácticas rentables.
Pero, incluso si esto último no ocurre, la sola variación del gradiente geotérmico puede ser indicación de
diversas situaciones de interés prospectivo.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

Prospección Geotérmica
En primera instancia, las anomalías térmicas pueden estudiarse con objetivos académicos a fin de obtener un
mejor entendimiento de la geología y pueden con ello llegar a contribuir indirectamente a diversas aplicaciones
prácticas. Pero también puede buscarse una aplicación directa.
Debe tenerse presente que para muchos fines prospectivos es suficiente con un mapeo de gradientes
geotérmicos relativos, es decir que, como en otros métodos geofísicos, se puede prescindir de valores absolutos,
dado que lo más significativo es disponer de los datos de variaciones térmicas areales (o verticales en un pozo).
En otras palabras, los errores del método pueden no invalidar el trabajo siempre que sean más o menos
constantes o la magnitud de su variación esté por debajo de las diferencias de magnitud de interés prospectivo.
Un campo geotérmico es un sistema natural que
permite la extracción de aguas a alta temperatura y
se compone de una fuente térmica, un reservorio,
una recarga hídrica y un sello. Las aplicaciones
económicas se valen de perforaciones para el
aprovechamiento industrial de sus minerales
disueltos, calefacción, explotaciones turísticas
(balneología), generación de energía eléctrica, uso
energético de reservorios de roca seca y caliente, etc.
La primera central geotérmica comenzó a funcionar
en 1913 en Larderello (Toscana, Italia) y los Estados
Unidos hicieron lo propio años más tarde en la zona
de geyseres de California. También Filipinas,
México, Japón y Nueva Zelanda tienen importantes
aprovechamientos. E Islandia (foto siguiente a la
derecha) se encuentra en un 99% calefaccionada
geotérmicamente.
En Argentina, en el campo geotérmico Copahue (foto
a la izquierda), fue puesta en funcionamiento en 1988 una central piloto que genera energía eléctrica mediante
el empleo de vapor de agua del subsuelo. Hay tres pozos perforados y se calefaccionan las viviendas y la calle
principal del poblado. Corresponde a un área de alta entalpía.

En la prospección de campos geotérmicos pueden emplearse métodos electromagnéticos de corrientes naturales


(magnetotelúricos), en función de modelos de conductividad eléctrica contrastante entre las rocas con fluidos
líquidos y aquellas con vapor.
También se puede recurrir a la sismicidad natural -si, como suele suceder, el yacimiento geotérmico se
encuentra emplazado en un área sísmicamente activa-. En este caso la indicación de su existencia viene dada
por la atenuación de las ondas cuando éstas deben atravesar reservorios de vapor, tal como se puede ver en el

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

modelo de la figura a la derecha, en California, que fue


construido en base a este tipo de información.
Luego, en exploración avanzada, suelen hacerse pozos de
gradiente a unos 100 metros de profundidad para definir el
área de mayor interés.
La anomalías geotérmicas también pueden tener vinculación
con la presencia de ciertas mineralizaciones de interés
prospectivo, además de los minerales que pueden contener
sus aguas.
En el caso de los yacimientos petrolíferos, éstos suelen
relacionarse con incrementos geotérmicos, debido a que las
vías migratorias de los hidrocarburos son también eficientes
conductos de calor. Un mapeo geotérmico puede ayudar a
decidir dónde perforar en busca de petróleo y gas.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

El ejemplo de la página precedente muestra la coincidencia aproximada entre la ubicación del área de
yacimiento de San Sebastián y la zona de máximo térmico superficial (obtenido de datos de sondeos de sólo 2
metros, corregidos por la curva de variación estacional con la profundidad, como puede verse).
También, en un yacimiento en producción, pueden establecerse vínculos térmicos entre los reservorios de los
distintos pozos, lo cual puede contribuir en un proyecto de recuperación secundaria u otras operaciones.
El valor de gradiente geotérmico actual es asimismo un dato importante para retroproyectar los datos
geohistóricos y ajustar los modelados geoquímicos de maduración y expulsión de los hidrocarburos desde las
rocas madre hacia las rocas reservorio, en el sentido del ruso Nikolai Lopatin (1971). Las figuras siguientes
ilustran información de un modelado para la zona central del flanco norte de la cuenca Golfo San Jorge. Se
grafica la temperatura y reflectancia de vitrinita en un pozo, el mapa de gradiente en una zona en torno al
mismo y la historia de madurez allí calculada.

En la página siguiente los mapas resultantes de un modelado geohistórico a escala de toda la cuenca, más el
mapa de distribución de facies sedimentarias de la Fm Pozo D-129 (generadora) y su coetánea Fm Matasiete.

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

Las dos últimas figuras muestran un corte sur-norte en el flanco norte central, con la cronología (timing) de
generación y expulsión de hidrocarburos y el modelo geológico-térmico a tiempo actual.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 10
Prospección Geotérmica Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO
- Definir geoterma, conductividad térmica y flujo calórico.
- ¿De qué modos podemos medir gradientes y conductividades térmicas?
- ¿Cuál es el origen del calor terrestre, cómo se transmite y cómo varía hacia el centro del planeta?
- ¿Qué son los yacimientos geotérmicos abiertos y cerrados?
- Citar aplicaciones prospectivas de los datos geotérmicos.
- ¿Qué beneficios nos dan los datos geotérmicos en exploración y desarrollo petrolero?

BIBLIOGRAFÍA
- Fowler, C., 1990. The Solid Earth (p.219-274). Cambridge University Press.
- Lowrie, W., 1997. Fundamentals of Geophysics (p.178-202). Cambridge University Press.
- Poirier, J., 2000. Introduction to the Physics of the Earth Interior (p.230-243). Cambridge University Press.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Smith, P., 1975. Temas de Geofísica (p.112-182). Editorial Reverté.
- Vericat Raga, J., 1962. Introducción a la Geofísica (p.61-79). Ediciones Omega.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

SISMOLOGÍA E INTERIOR TERRESTRE

Las ondas sísmicas (del griego seismos, sacudida) son perturbaciones elásticas que se propagan de un punto a
otro a través de un medio. La mayoría se originan naturalmente por la liberación de energía provocada por los
desplazamientos bruscos sobre superficies de falla provocados por la movilidad de la corteza y manto superior
de la Tierra, mucho más frecuentes en límites corticales entre placas tectónicas -principalmente si éstos son
convergentes o transcurrentes-. También generan sismicidad los movimientos de magma (intrusivos o
extrusivos), deslizamientos superficiales, impactos de meteoritos, movimientos de masas de agua superficiales o
profundas, abruptos cambios de fase, vientos potentes y diversas causas humanas.
Esta liberación de energía se
conoce como sismo o terremoto
(del latín, movimiento de tierra),
el lugar donde sucede en el
subsuelo se llama foco o
hipocentro y su proyección a la
superficie se conoce como
epicentro. La energía se desplaza
en forma de frentes de onda
(figura siguiente a la izquierda),
pero por practicidad suelen
referirse los rayos sísmicos, esto
es, las infinitas trayectorias
normales a los frentes de onda,
como se ve a la derecha.
Cuando sucede bajo el mar puede a veces producir maremotos o tsunamis (en japonés tsu, 津, puerto; nami, 波,
ola), debidos al desplazamiento de la masa de agua en el fondo marino, con velocidades superficiales de 700-
900 km/h y un máximo de 10 m de altura en mar abierto y de hasta más de 40 m al llegar a la costa.

En las imágenes, línea costera antes y después del


tsunami de Banda Aceh (Indonesia) en 2004.
Los sismos fuertes van seguidos de réplicas, que son
sismos menores cuya intensidad y frecuencia van
reduciéndose a lo largo de las semanas. Son
causados por movimientos de ajuste en el subsuelo.
Las ondas sísmicas también pueden ser generadas
artificialmente de modos muy diversos, lo cual es
rutina en los trabajos de prospección sísmica.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

MAGNITUDES ELÁSTICAS
En un medio elástico la deformación desaparece cuando se le quita la fuerza que la produce. La Tierra se
comporta como un medio elástico para la propagación de las ondas sísmicas, hecho observado por vez primera
por el inglés Williams Hopkins en 1847, dado el rango de amplitudes y frecuencias involucrado (con altas
velocidades y corta longitud de onda).
Para formular una teoría para la propagación de ondas en un medio, necesitamos antes formular una relación
entre esfuerzo y deformación. Para pequeñas deformaciones, la ley de Hooke dice que la deformación es
linealmente proporcional al esfuerzo:
Esfuerzo = E x Deformación (siendo E la constante de proporcionalidad)
Las constantes elásticas más importantes son cuatro:
1-Módulo de Young (por Thomas Y., inglés, 1810), es la constante de la Ley de Hooke, la que vincula el
esfuerzo y la deformación:
E = (∆F/A) / ( ∆L/Lo)
(donde ∆F/A es la fuerza por unidad de área, ∆L el cambio de longitud del cuerpo y Lo la longitud original)
2-Módulo de Poisson (por Simeon P., francés, 1831), relación entre la deformación transversal ∆W/W y la
longitudinal ∆L/Lo:
σ = -(∆W/Wo) / (∆L/Lo)

3-Módulo de Lamé (por Gabriel L., francés, 1850), de corte, cizalla o rigidez (shear modulus), resistencia al
cambio de forma sin cambio de volumen:
µ = (∆F/A) / ϑ
(donde ∆F/A es la fuerza tangencial por unidad de área y ϑ es la tangente del ángulo de desplazamiento)
4-Módulo de Incompresibilidad o volumétrico (bulk modulus), resistencia al cambio de volumen sin
cambio de forma:
K = ∆P / (∆V/Vo)
(donde ∆P es el cambio de presión, ∆V es el cambio de volumen y Vo es el volumen inicial)
Para un medio isotrópico (donde las propiedades son las mismas medidas en cualquier dirección) hay solamente
dos constantes elásticas independientes: la de Lamé y la de Incompresibilidad.

ONDAS SÍSMICAS
Amplitud A, fase φ, período T (o su inversa, la frecuencia f)
y longitud de onda λ (o su inversa, el número de onda K) son
elementos básicos de toda forma ondulatoria. La amplitud de
una onda seno en un punto i es:
Ai = Ao sen (ω.t – K.x)
(siendo Ao la amplitud original, con la pulsación ω = 2Π.f
y la constante de propagación K = 2Π /λ λ)
Otra relación matemática fundamental de onda es: V = f .λ λ

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

Hay varios tipos de ondas sísmicas, cualquiera sea su origen:


1) Ondas Internas (body waves):
Generadas en el hipocentro, se propagan a través del interior del planeta. Su existencia fue predicha
matemáticamente por Simeon D. Poisson en 1831 en conjunto con su teoría fundamental sobre ondas
elásticas. Fueron confirmadas por el inglés Richard Oldham en 1897, quien además propuso la existencia
del núcleo terrestre. Pueden ser:
 Longitudinales, primarias o compresionales (push-pull waves u ondas P): el movimiento de las
partículas está en la misma dirección que la propagación de la onda. Poseen altas velocidades y son las más
utilizadas en prospección sísmica. Típicamente transitan de 400 a 900 m/s en la capa meteorizada, de 1800 a
4500 m/s a en cuencas sedimentarias, 5000 o más en rocas ígneas poco profundas, 1500 en al agua y 331,6 m/s
en el aire (velocidad del sonido o Mach 1, por Ernst Mach que la estudió en Austria hacia 1880).
Su velocidad es: _________________
Vp = √ (K+ (4/3)µ) / δ ( δ es la densidad)
 Transversales, secundarias, de corte o cizalla (shear waves u ondas S): el movimiento de las partículas
es perpendicular a la dirección de propagación de la onda. Vs ≈ 0,7 Vp, y resulta de:
_______
Vs = √ µ / δ

2) Ondas Superficiales (surface waves):


Se generan al llegar las ondas P y S a la superficie. Su amplitud es aún mayor que la de las ondas S, lo que
las convierte en las más destructivas durante los terremotos, y su velocidad es aproximadamente 0,9 Vs.
Pueden ser:
 Rayleigh (por Lord R, llamado John Strutt, inglés que las predijo en 1885) o Ground Roll (en la jerga
sísmica): polarizadas verticalmente, poseen un movimiento elíptico y retrogrado.
 Love (predichas por el inglés Augustus L. en 1911): vibran de manera transversal, polarizadas
horizontalmente.
 Stonley (por Robert S., inglés, 1925) u Ondas Tubo (tube waves): se propagan en el límite entre dos
medios de muy diferente densidad, sobre todo en el contacto sólido-fluido, con movimiento elíptico retrógrado.
Típicas en pozos petroleros.
Ahora podemos reformular los módulos elásticos a partir de Vp y Vs:
Volumétrico: K = δ.Vp2 – 4/3 Vs2 Lamé: µ = δ.Vs2 Poisson: σ – (Vp/Vs)2 – 2 Young: E = 3Kµ / 3K+µ = 2µ (1 + σ)
2
2 (Vp/Vs) – 2

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

A continuación se adjuntan tablas de valores representativos de módulos elásticos y velocidades sísmicas.

LEYES DE PROPAGACIÓN DE ONDAS


La propagación de las ondas está regida por las siguientes leyes fundamentales:
- Principio de (Pierre) Fermat (francés, 1670): todo rayo en un medio sigue la trayectoria que invierte
menor tiempo.
- Principio de (Christiaan) Huygens (holandés, 1670): Cada punto de un frente de ondas se convierte en
emisor de un nuevo frente de ondas en todas direcciones. Todos estos nuevos frentes se integran en uno
único mientras el medio de propagación sea homogéneo. En un medio isótropo el frente de ondas es esférico. Si
el medio es anisótropo el frente de onda se deforma. Y si encuentra heterogeneidades genera difracciones.
- Ley de (Willebrord) Snell (holandés, 1621): los rayos incidente y refractado y la normal a la superficie en el
punto de incidencia están en un mismo plano. La relación entre los senos de los ángulos incidente (i) y de
refracción (r) medidos entre los rayos y la normal es constante entre dos medios e igual a la relación de
velocidades de la onda entre uno y otro medio, constante que conocemos como índice de refracción n.
n = sen i / sen r sen i / sen r = V1 / V2
Esta ley es muy importante, ya que los métodos sísmicos se basan en que la velocidad de las ondas elásticas
es diferente para rocas diferentes.

FACTORES QUE AFECTAN LA PROPAGACIÓN DE ONDAS


Los principales factores que afectan la propagación de las ondas sísmicas en un medio son:
• Absorción o Atenuación inelástica: Es la pérdida de energía de la onda debida a la fricción entre
granos de la roca y que se convierte en calor. Está en relación directa con la compactación y resulta: Ai = Ao.e-q.r
(siendo Ao la amplitud o intensidad inicial, r la distancia recorrida y q el coeficiente de absorción, en dB/λ)
• Divergencia esférica: es la distribución de la energía inicial focal (teóricamente puntual) en una
superficie cuasi-esférica cada vez mayor. Representa la disminución exponencial de la relación energía/área.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

• Difracciones: análogamente a los fenómenos ópticos, son consecuencia del Principio de Huygens y
se producen por heterogeneidades laterales (fallas, cambios bruscos de buzamiento, terminaciones rocosas
subhorizontales, etc.).

• Dispersión: los cambios de la frecuencia producen variaciones en la velocidad de las ondas, ya que
existe una dependencia física. Una gran disminución de frecuencia produce una pequeña reducción de la
velocidad. (Es el mismo efecto que sufre la luz cuando separa sus colores en un prisma: para cada frecuencia,
distinta velocidad y, por lo tanto, distinto ángulo de refracción.)
• Desperdigamiento (Scattering): el choque de las ondas con partículas menores produce ondas
pequeñas que propagan energía en todas direcciones.
• Conversión de modo de ondas: Cuando una onda P que viaja a través de un medio llega a una
interfaz con un ángulo de incidencia menor que 90 grados, parte de su energía es reflejada, parte es transmitida
y otra parte se convierte en ondas S. Los ángulos con que cada rayo de onda P y S reflejada y transmitida
viajará por el medio están dados por la ley de Snell.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

IMPEDANCIA ACÚSTICA Y COEFICIENTES DE PROPAGACIÓN


El inglés Cargill Knott en 1899 desarrolló la teoría sobre reflexión y refracción sísmica.
La Impedancia acústica Z es la dificultad que opone un medio al paso de las ondas sísmicas y resulta del
producto entre la velocidad de propagación de la onda y la densidad del medio: Z=V.δ
La magnitud de los contrastes de impedancia entre dos medios adyacentes se mide en términos de coeficientes
de reflexión y refracción (o transmisión) y nos da información de las interfaces del subsuelo.
El coeficiente de reflexión para incidencia vertical
en una interfaz es: CRi+1 = (Zi+1 - Zi) / (Zi+1 + Zi)
El coeficiente de transmisión o refracción vertical
está dado por: CTi+1 = 1 - CRi+1 = 2Zi / (Zi+1 + Zi)
Pueden calcularse los coeficientes de reflexión para
casos no verticales mediante la ecuación aproximada
de Hilterman (1990):
θ + 2,25 ∆σ . sen2θ
CR = [(Zi+1 - Zi) / (Zi+1 + Zi)] cos2θ θ
(donde θ es el ángulo de incidencia y σ el módulo de Poisson)
Pero el abordaje riguroso de todos los casos posibles, a partir de los cálculos de Cargill Knott, fue desarrollado
desde 1907 por Emil Wiechert en Alemanía, con ecuaciones a las que el también alemán Karl Zoeppritz dio
forma definitiva en 1909, siendo las más generalmente empleadas para expresar las relaciones entre las energías
reflejadas y refractadas cuando ocurre la partición de la energía involucrando ondas P y S. Son las siguientes:
(Ap1 -1) sen2θp1+ (Vp1/Vs1) As1.cos2θs1 = -(δ
δ2Vs22Vp1/ δ1Vs12Vp2) Ap2. sen2θp2 + (δ
δ2Vs2Vp1/ δ1Vs12) As2.cos2θs2
(Ap1 +1) cos2θs1- (Vs1/Vp1) As1. sen2θs1 = (δ
δ2Vp2/ δ1Vp1) Ap2. sen2θs2 + (δ
δ2Vs2/ δ1Vp1) As2. sen2θs2

(donde A son las amplitudes, θ los ángulos de emergencia y V las velocidades para las ondas p y s en los
medios 1 -reflexiones- y 2 -refracciones-, y δ las densidades en los medios 1 y 2)
Los cuatro gráficos adjuntos
representan los resultados de la
partición de la energía para
distintos ángulos, dada una
cierta relación entre las
impedancias acústicas de los
medios en contacto.

MEDICIÓN
DE LOS SISMOS
Sismógrafos y Sismómetros:
Los sismógrafos son instrumentos ideados para graficar sismos y así poder evaluar su intensidad, duración,
características de las ondas, distancia de origen, etc. En rigor llamamos sismógrafo a la parte graficadora del
instrumento y sismómetro al mecanismo que se mueve en relación al suelo durante un sismo,
proporcionalmente a su magnitud.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

Pero el primer aparato referido en la historia fue un sismoscopio


(no graficaba ni mensuraba el sismo, sólo daba la dirección del
movimiento) y fue ideado en China por Chang Heng en el año
132. Como se ve a la derecha, el mecanismo era tal que una bola
caía desde la boca de uno de los dragones hacia la de alguno de
los ocho sapos distribuidos alrededor de la vasija.
Mucho más tarde, hacia el siglo XVII en Europa se aplicó esta
idea llegada desde China, pero en forma menos artística y más
pragmática: recipientes con canaletitas, conteniendo mercurio,
hacían las veces de sismoscopios.
El primer prototipo de sismómetro lo debemos al francés Jean
de Hautefeuille, en 1703. Y en 1761 el inglés John Mitchell
construyó un sismoscopio de péndulo, base del sistema moderno.

En 1855 el italiano Luigi Palmieri ideó un sismómetro que incluía un sistema eléctrico y un reloj que permitían
conocer el instante inicial y el tiempo total del sismo.
En 1875 otro italiano, Filippo Cecchi, construyó el primer sismómetro con dos péndulos, uno N-S y otro E-O,
sistema que se siguió aplicando desde entonces.
En 1892 el inglés John Milne junto con Ewing, Gray y Omori desarrollaron en Japón el primer sismómetro
vinculado a un sistema de graficación tipo tambor (figura arriba a la derecha), que constituyó el modelo base de
todos los sismógrafos modernos
En 1906 el ruso Boris Galitzin incorporó un sistema de registro galvanométrico en papel fotosensible. En 1925
Wood y Anderson desarrollaron en California un sismógrafo (figura siguiente) cuyo sismómetro funcionaba
con un sistema de torsión. Y sucesivos avances técnicos se produjeron en los años siguientes, especialmente
desde el advenimiento de los registros digitales.

Escalas de Medición:
La energía liberada en sismos naturales puede
medirse alternativamente con dos escalas:
Escala de Mercalli (por Giusseppe M.,
italiano, 1885): da una magnitud que para un
mismo terremoto es variable geográficamente
en función de la percepción del evento, va de
1 a 12, grado 1 prácticamente imperceptible,
grado 12 destrucción total. Está basada en las
escalas previas del también italiano Rossi y
del suizo Forel.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

Escala de Richter (por Charles R., estadounidense, 1935, quien la desarrolló con la colaboración de Beno
Gutenberg sobre el modelo de sismógrafo de Wood y Anderson): da una magnitud que es función de la
energía liberada en el foco del terremoto. Cada punto es diez veces mayor al anterior o una décima del posterior
en la escala, que resulta de: M = log A + 3 log (8∆∆t) - C
A (mm) es la amplitud máxima de la onda S, ∆t (s) es la diferencia de tiempo entre el primer arribo de las ondas
S y el primero de las ondas P, y C es una constante de ajuste para cada tipo de sismógrafo.
En la actualidad se utiliza en realidad una escala que se denomina de Momentos Sísmicos, en la que la
magnitud de un terremoto resulta de mensurar parámetros como el desplazamiento del plano de falla durante el
evento, la extensión de dicho plano y el tiempo de duración del sismo. El resultado es muy parecido al de la
escala de Richter.

Para calcular la distancia desde un observatorio al foco de un movimiento sísmico, se parte de medir los
tiempos de arribo de las primeras ondas P y S, que se sabe son iguales al cociente entre distancia y velocidad:
tp = r / Vp y ts = r / Vs por lo que: ts - tp = r/Vs - r/Vp y entonces: r = (ts – tp) / (1/Vs - 1/Vp)

Las figuras de arriba esquematizan la determinación


geográfica de un hipocentro a partir de datos registrados en
tres observatorios sismológicos.

La figura de la derecha expresa la nomenclatura gráfica para


distintos tipos de movimientos sísmicos de planos de fallas.

TECTÓNICA DE PLACAS Y RIESGO SÍSMICO


El meteorólogo alemán Alfred Wegener publicó en 1915 “Die Entstehung der Kontinente und Ozeane”. Su
teoría de la deriva continental (inspirada por los hielos de Groenlandia, donde años más tarde falleció) fue
documentada desde 1927 por el sudafricano Alexander Du Toit y el inglés Arthur Holmes. En base a esto
más el mapeo de los fondos oceánicos impulsado por la Guerra Fría, en 1960 en los Estados Unidos Robert
Dietz, Bruce Heezen, Harry Hess, Maurice Ewing y Tuzo Wilson propusieron la Tectónica de Placas,
concepto fundamental de la moderna concepción geológica y geofísica de la corteza y el manto terrestre.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

El siguiente planisferio muestra la distribución de la sismicidad, la cual está predominantemente concentrada


sobre límites convergentes entre placas tectónicas corticales.

Aquí algunos sismos relevantes en la historia en escala de Abajo, mapa de riesgo sísmico de la
Momentos (entre paréntesis eventos estimados): Argentina y gráfico del “Gran
9,5 Valdivia, Chile, 1960 Terremoto Argentino” de 1894.
(>>9,0 Thera, Grecia, -1400)
(>>9,0 Krakatoa, Indonesia, 1883)
9,2 Banda Aceh, Indonesia, 2004
9,2 Prince William, Alaska, 1964
9,1 Andreanof, Alaska, 1957
(>9,0 Lisboa, Portugal, 1755)
(≈9,0 Assam, India, 1897)
9,0 Kamchatka, Rusia, 1952
8,8 Pacífico, Ecuador, 1906
8,7 Kuriles, Rusia, 1958
---------------------------------------------------------
(8,2 Jáchal, San Juan, Arg., 1894)
7,4 Caucete, San Juan, Arg., 1977

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

Arriba, fotografía aérea de la falla de San Andrés y a la


derecha mapa (en escala de Mercalli) del potente
terremoto de 1906.

A la izquierda histograma de distribución de energía


sísmica total acumulada por año (en ergios) según su
rango de magnitud M. Debe tenerse presente que los
sismos de menor magnitud ocurren con mucho
mayor frecuencia, aunque sin embargo no logran
acumular tanta energía como los de mayor
envergadura.

DISCONTINUIDADES INTERNAS DE LA TIERRA


El estudio de los arribos de las ondas sísmicas a distintos
observatorios sismológicos del mundo en ocasión de cada
terremoto a lo largo de más de un siglo ha permitido elaborar
un modelo bastante preciso del interior de nuestro planeta. Se
conviene en hacer la siguiente clasificación de terremotos:
-de origen superficial, hasta 70 km de profundidad, en el
dominio frágil de la litosfera,
-intermedios, de 70 a 250 km, en el dominio principalmente
plástico del manto superior, dentro del cual se sumergen las
cortezas oceánicas subductadas,
-profundos, de 250 a 670 km, en el manto medio, donde
todavía las placas oceánicas no han sido totalmente asimiladas
al manto. Por debajo de los 670 km no ocurren más sismos, lo
que se interpreta como un cambio de fase y quizás también
composicional, con posible enriquecimiento de hierro y sílice,
más un pasaje a otro sistema convectivo independiente para el
manto inferior.
Estas tres categorías representan, respectivamente, el 85, 12 y
3% del total, como se evidencia en el histograma de la derecha.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

Los límites entre las zonas


con distinta composición
mineralógica o distinto estado
fisicoquímico se denominan
discontinuidades y han sido
detectados a partir de la
alteración del curso de las ondas
sísmicas de cuerpo (P y S), tanto
por los cambios de velocidad
como por la refracción y
reflexión que dichos límites
ocasionan en los frentes de onda
(o su correlativa visualización
mediante rayos).
En las figuras siguientes puede
visualizarse la nomenclatura
empleada para las trayectorias
sísmicas, así como la
conformación de zonas de
sombra (con pocos arribos
sísmicos desde un foco dado) y
de puntos cáusticos (aquellos
donde los rayos se concentran).

Esta es una brevísima síntesis del hallazgo de las discontinuidades principales de la Tierra, debajo de los
límites con la atmósfera e hidrósfera:
-Andrija Mohorovicic, croata, 1909, límite Corteza (rocas silíceas) - Manto (silíceas más densas), a una
profundidad desde menos de 5 km (bajo la hidrósfera, en corteza oceánica) hasta más de 70 km (bajo la
atmósfera en corteza continental).
-Beno Gutenberg, alemán, 1912 (a partir de los estudios del inglés R. Oldham en 1906), límite Manto-Núcleo
(composición metálica, mayoritariamente hierro), a unos 2900 km bajo el nivel del mar.
-Emil Wiechert, alemán, 1936 (basado en la investigación de la danesa Inge Lehman), límite entre los
Núcleos Externo e Interno (similar composición, en estado fluido y sólido, respectivamente), a unos 5100 km de
profundidad.
La sismología y otras informaciones geofísicas han permitido construir las siguientes gráficas del interior de
nuestro planeta.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

Tanto las ondas P como las S incrementan en general su velocidad con la profundidad, pero ambas disminuyen
esta magnitud al atravesar la Astenósfera (capa plástica del Manto Superior, desde 100 ó 200 km hasta 400 km
bajo el nivel del mar). Luego las ondas P alcanzan su valor máximo en la base del Manto Inferior (unos 14600
m/s) y disminuyen mucho al entrar al núcleo externo, para volver a aumentar en el núcleo interno. Las ondas S
no atraviesan en absoluto el núcleo terrestre y esto sólo puede explicarse por una composición fluida, dado que
sus oscilaciones en dirección perpendicular a la de avance necesariamente se anulan cuando el esfuerzo de corte
es nulo, siendo ésta la principal evidencia del estado físico del núcleo externo de la Tierra.

APLICACIONES DE LA SISMOLOGÍA
Naturalmente la sismología, en tanto rama de la geofísica pura, es empleada como herramienta indirecta -como
es siempre la geofísica- para el conocimiento del interior de nuestro planeta. Es la mejor de todas las
herramientas geofísicas y, de hecho, nos ha brindado la mayor parte del conocimiento que tenemos sobre la
Tierra por dentro, sea desde sismogramas convencionales, sea a partir de imágenes elaboradas de velocidades
sismológicas (mapas o cortes) para distintas profundidades mantélicas.
Pero también puede dar aplicaciones prácticas de tipo prospectivo. Esto es así en áreas de frecuente sismicidad
donde la información que se puede obtener es abundante. En esos casos, si se dispone de una adecuada red de
sismógrafos portátiles y un razonable tiempo de espera para obtener una cantidad crítica de datos, pueden
estudiarse los tiempos de arribo, amplitudes, frecuencias y otros parámetros de las ondas. Entonces, a partir de
esos estudios pueden sacarse conclusiones sobre aspectos geológico-económicos del subsuelo.

La investigación de riesgo sísmico y eventual


predicción estadística de la sismicidad futura (con
todo el impacto humanitario y económico que esto
conlleva) es el primer objetivo de los estudios
sismológicos, lo cual se ilustra con este ejemplo de
modelado de datos en Japón.

También la evaluación de áreas de vapor


geotérmico o yacimientos de gas (ver figura de la
siguiente página), a través de los cuales las ondas
compresionales resultan fuertemente atenuadas (no
en cambio las de corte, que pasan sin atenuarse),
permitiendo entonces planificar la explotación más
adecuada.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

Por último, algunos


ejemplos de mapas y
cortes a escala global
de la variación de las
velocidades de las
ondas transversales a
creciente profundidad
en el manto terrestre.
Este tipo de datos
resulta indispensable
para poder hacer
modelados de la
geodinámica en el
manto superior, lo
cual permite, a su vez,
entender mejor la
tectónica de las placas
de la corteza y los
fenómenos sísmicos
asociados en cada
región.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 11
Sismología e Interior Terrestre Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO

-Citar las tres leyes fundamentales que rigen la propagación de ondas.


-Graficar los tipos de ondas generados cuando una onda P que viaja en un medio de velocidad V1 incide con un
ángulo determinado en una capa de velocidad V2.
-¿Cuáles son las causas de los terremotos y cómo son registrados?, ¿qué ondas tienen mayor amplitud?
-¿Puede un sismo de valor alto en escala de Richter percibirse suavemente?, ¿y si es
alto en la escala de Mercalli?
- Definir los cuatro coeficientes elásticos más importantes.
-¿Qué factores afectan la propagación de las ondas sísmicas?
- Expresar matemáticamente los coeficientes de reflexión y refracción o transimisión.
- ¿Cuáles son las principales discontinuidades de nuestro planeta?, ¿qué evidencian las ondas transversales?
- Mencionar aplicaciones de la sismología.

BIBLIOGRAFIA
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.183-203). Librería de Ciencia e Industria.
- Fowler, C., 1990. The Solid Earth (p.76-118). Cambridge University Press.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.
- Udías y Mezcua, 1997. Fundamentos de Geofísica (p.141-269). Alianza Editorial.

15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA DE REFRACCIÓN
La aplicación prospectiva del método de sísmica de refracción fue iniciada por Ludger Mintrop en Alemania en
1914, el método fue aprovechado para fines bélicos (estimación de la distancia de emplazamiento de los
cañones enemigos) y, tras la Primera Guerra Mundial, Mintrop y su equipo comenzaron a aplicarlo con éxito en
la exploración petrolera del Golfo de México y otras latitudes.
Pero la primera aplicación documentada de este método es aún anterior y tuvo lugar en el observatorio
sismológico de Zagreb (Croacia) donde, tras un sismo muy fuerte ocurrido en 1909, se estudiaron los tiempos
de llegada de las ondas sísmicas a otros observatorios de países cercanos. Se observó entonces que, a partir de
cierta distancia, las primeras ondas llegaban anticipadamente respecto a lo esperado en su viaje por el camino
más corto (a no mucha profundidad dentro de la Tierra). La conclusión del trabajo fue que, a partir de dicha
distancia particular, las primeras ondas en llegar eran las que habían descendido, se habían refractado con el
ángulo crítico en una interfaz de fuerte contraste de impedancias acústicas y había viajado por dicha interfaz
pero con la velocidad del medio infrayacente. Para finalmente ascender y llegar hasta cada observatorio lejano
anticipándose al más lento viaje de las ondas directas (que iban con la velocidad del medio más cercano a la
superficie), según se esquematiza en las siguientes figuras. El sismólogo era Andrija Mohorovicic’ y esa
interfaz fue la primera de importancia encontrada en el interior terrestre: la discontinuidad corteza-manto que
ahora conocemos abreviadamente como “el Moho”.

Abajo, hipocentro, algunas


trayectorias de rayos directos y
otras refractándose en el Moho y
eventualmente emergiendo.
Arriba gráfica tiempo-distancia:
la recta de la izquierda conecta
puntos en los que el primer
arribo sísmico es el directo;
la recta de la derecha, aquellos
donde el primer arribo es el que
viaja por el Moho y emerge.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

Prospección Sísmica de Refracción:


El método se basa en el registro de los frentes de onda, generados por una fuente artificial de energía, leyendo
en los registros los tiempos de los primeros arribos (first breaks). Éstos pueden deberse a la onda directa o bien
a aquellas ondas que se refractan en el subsuelo con el ángulo crítico, viajan por la interfaz con la velocidad del
medio infrayacente y retornan hacia la superficie como ondas frontales (head waves).
El método se aplica siempre que se encuentren medios con impedancias acústicas (Z=ρ.V) contrastantes, con la
condición esencial -dada por la Ley de Snell- de que el segundo medio sea de mayor velocidad de tránsito que
el primero.
La figura a la derecha muestra
tres ángulos de incidencia
alternativos: en (a) hay reflexión
y refracción en profundidad; en
(b) hay reflexión y refracción
crítica (por la interfaz); en (c)
sólo reflexión. Véase la
condición matemática del caso
(b) y el detalle gráfico de la
generación de la onda frontal que
permite el registro mediante este
método prospectivo.
La profundidad de investigación a la que se puede prospectar es aproximadamente 1/3 de la longitud del tendido
de los sismómetros en superficie. El objetivo es determinar espesores de las capas del subsuelo, sus
buzamientos y las velocidades de propagación de las ondas sísmicas en cada una de ellas.
El instrumental necesario para emplear este método consiste básicamente en alguna fuente de energía (de
impacto, explosivo, vibrador, cañón de aire, etc.), receptores o sismómetros (geófonos en tierra, hidrófonos en
el mar, en ambos casos de muy pequeño tamaño) y un sismógrafo donde acondicionar, grabar y graficar la
información. El tópico relativo al instrumental empleado se aborda con algún detalle en el Tema 13.
Los datos de sísmica de refracción adquiridos en el campo se representan mediante el trazado de una
dromocrona (del griego dromos, carrera, y chronos, tiempo), una gráfica tiempo-distancia con rectas como
las dibujadas por Mohorovicic’, con el suficiente número de puntos para cada tramo correspondiente a cada
una de las interfaces refractoras buscadas. En las gráficas dromocrónicas se registran las primeras llegadas de
las ondas P a los receptores (primer arribo o first break) y se representan en función del tiempo y la distancia.
Esto nos define puntos, cada uno de los cuales nos indica la existencia de medios con impedancias acústicas
diferentes. La pendiente de estas rectas representa la inversa de la velocidad en cada medio. La base del método
es la extensión a las ondas sísmicas de la Ley de Snell. Se trabaja con los primeros arribos de los frentes de
onda sísmicos, los cuales incluyen a los siguientes tipos de ondas compresionales o P:
 Directas
 Reflejadas
 Frontales, refractadas con el ángulo crítico
 Aéreas, que viajan a la velocidad del sonido en el aire
Y otras, entre las cuales es importante un tipo de onda superficial, las de Rayleigh (ground roll)
Aquí el caso más sencillo de dos medios
horizontales con velocidades constantes:
E: punto de emisión o fuente
R: punto de recepción o registro
V1 : velocidad en el medio 1
V2 : velocidad en el medio 2
ER = x recorrido directo
EAR: recorrido reflejado
EBCR: recorrido refractado crítico
ED = h espesor del medio 1
El tiempo de llegada para la onda
directa es:
t = x / V1

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

Su representación gráfica en función de x será una línea recta que pasa por el origen, que es el punto
correspondiente a la fuente, con la pendiente 1 / V1.
El tiempo de llegada para la onda reflejada es: t = (EA / V1) + (AR / V1) = 2 EA / V1
y EA = h² + (x / 2 )² siendo h el espesor del medio con V1,
por lo que: t = (2 / V1) . (h² + x² / 4) que resulta ser la ecuación de una hipérbola (curva de trazos en la siguiente figura)

El tiempo de llegada para la onda refractada es: t = (EB / V1) + (BC / V2) + (CR / V1) = 2 (EB / V1) + (BC / V2)
si DB = CF = h .tg ic, resulta que BC = x – 2h .tg ic,
siendo por otra parte EB = h / cos ic
Entonces puede escribirse que: t = (2h / V1 cos ic) + (x / V2) - (2h .tg ic / V2)
Empleando las conocidas relaciones de: tg ic = sen ic / cos ic y sen² ic + cos² ic = 1 y sabiendo que: sen ic = V1/ V2
llegamos a la expresión final: t = [2h (V2² - V1²)1/2 / V2.V1] + [x / V2]
que representa la ecuación de una recta con pendiente 1/V2. De hecho, si derivamos dt/dx = 1/V2
Esta es la representación en un grafico tiempo versus distancia:
En este ejemplo la onda
reflejada llega más tarde
que la onda directa. En
general la velocidad de la
onda directa es baja debido
a que transita por la capa
meteorizada, pero la onda
reflejada que aquí se
representa es la que rebota
en la base de esa misma
capa, y por lo tanto se
mueve con igual velocidad
que la de la onda directa.
También se representan las
trazas sísmicas y sus ruidos.
En la expresión final de
tiempo arriba escrita,
podemos hacer x = 0, o sea
tomar la ordenada al origen
(que se denomina tiempo
de intercepción, to) y
entonces despejamos la
profundidad:
h = to. V2.V1 / (V2² - V1²)1/2

Es muy importante tener presente que el tiempo de intercepción resulta gráficamente de la prolongación de la
recta 1/V2 hasta el eje de ordenadas, con lo cual eliminamos uno de los términos de la expresión final antes
citada, justamente el que contiene x, y simplificamos los cálculos. Pero este artilugio matemático, si bien útil,
no tiene realidad física, debido a que en la práctica 1/V2 es una semirrecta que parte desde el punto de la
distancia crítica (T en la dromocrona de arriba, correspondiente a una distancia R) y a su izquierda no hay
trayectoria refractada posible dado un cierto ángulo de incidencia crítico para el caso que se considere.
Definimos consecuentemente la distancia critica como la mínima distancia a la cual podemos poner un
sismómetro para que reciba la onda frontal (head wave). Para su cálculo igualamos las ecuaciones que
corresponden a la onda directa y reflejada, con lo cual obtenemos:
xc = 2h . tg ic
y finalmente podemos llegar a: xc = 2h / [(V2 / V1)2 – 1]1/2 de donde también podemos despejar la profundidad h.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

La primera trayectoria de onda refractada que puede existir es aquella en la que, tras incidir en el medio 2 con
el ángulo crítico, el recorrido por la interfaz es infinitesimal, generándose de inmediato la trayectoria frontal,
caso que resulta prácticamente igual al de una trayectoria reflejada en ese mismo punto. En la gráfica es el
camino PBR, que resulta tangente en T a la hipérbola de la onda reflejada (curva de trazos).
De una dromocrona podemos entonces obtener los siguientes datos:
 Las velocidades correspondientes a cada medio.
 La profundidad o espesor desde la superficie.
Y hemos visto como, tanto con xc como con to, podemos obtener h (profundidad), utilizando la ecuación que
corresponda en cada caso. Pueden obtenerse ambas y promediarse o bien sólo aquella que nos parezca más
confiable en función de los datos registrados. La xc suele ser una medición más exacta que el to, pero esto no
siempre es así.
A la derecha un ejemplo con tres medios
superpuestos, donde:
t = [2h1(V3² -V1²)1/2/ V3.V1] +
+ [2h2(V3² -V2²)1/2/ V3.V2] + [x /V3]

h2 = {to2 – [2h1(V3² -V1²)1/2/ V3.V1]} V3.V2/


/ 2 (V3² - V2²)1/2

xc = 2[h1.V1/(V3² -V1²)1/2 + h2.V2/(V3² -V2²)1/2]

Abajo sismograma o registro de campo


resultante de un caso similar.

Si generalizamos para casos de muchas


capas horizontales, resulta:
n-1
t = (x /Vn) + (2 /Vn) Σ hi (Vn² -Vi²)1/2/ Vi
i=1

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

 Resolución de capas inclinadas


Sean dos estratos de velocidades V1 y V2
separados por un contacto inclinado (figura de
la derecha, parte inferior). Para definir el
contacto bastará situar dos puntos del mismo.
Si establecemos que la velocidad y la
pendiente del refractor son constantes, la única
manera de determinar las incógnitas que se
presentan es mediante la adquisición de un
perfil y contraperfil, como se esquematiza
desde A hacia D y desde D hacia A.
En la figura superior vemos las dromocronas
resultantes del perfil y del contraperfil,
dibujadas especularmente. Allí resulta que la
pendiente de V1 es la misma, pero la de V2
difiere entre la obtenida en el perfil, que va en
el sentido ascendente de la interfaz refractora
(V2a), y la del contraperfil, en sentido
descendente (V2d). Ambas velocidades son
aparentes, no reales, y la V2a es mayor que la
V2d. Además vemos que los puntos de cruce
también difieren: en sentido ascendente
tardamos más en llegar a él, dado que en el
punto A la profundidad es mayor que en D.
Con las notaciones de la figura escribimos ahora las ecuaciones del tiempo en los puntos de recepción, en los
sentidos ascendente (a) y descendente (d):
T2a = (AB/V1) + (BC/V2) + (CD/V1)
T2d = (DC/V1) + (CB/V2) + (BA/V1)
Naturalmente, el viaje total es el mismo y, como se ve en la figura, T2a = T2d
Las velocidades aparentes en uno y otro sentido serán:
V2a = V1 / sen (i – α) α = ángulo de buzamiento
V2d = V1 / sen (i + α) i = áng. de incidencia y emergencia
Como V2 = V1 /sen i entonces V2a > V2 > V2d
(cuando α = 0 las tres serían iguales)
Con los datos obtenidos de las dromocronas (V1, V2a, V2d, inversas de sus coeficientes angulares) podemos
calcular i1 y α1, ya que tenemos dos ecuaciones y dos incógnitas, resultando:
i = [arc sen (V1/V2a) + arc sen (V1/V2d)] / 2
α = [arc sen (V1/V2d) - arc sen (V1/V2a)] / 2
En las ecuaciones de los tiempos ascendentes y descendentes hacemos x=0 y tenemos: to2a (i) = 2 Z1.cos i / V1
to2d (i) = 2 z1.cos i / V1
to2a y to2d se obtienen de las dromocronas prolongando las rectas hasta la ordenada al origen, V1 se calcula
también desde la gráfica, i es un dato calculado previamente, Z1 y z1 son las incógnitas a despejar.
Después, con α podemos calcular las profundidades: H1 = Z1 / cos α
h1 = z1 / cos α
El perfil y el contraperfil deben registrarse en la dirección de máximo buzamiento si se quiere obtener su
valor real. En caso de no conocerse tal dirección -y siempre que ese dato sea necesario en función del objetivo
del trabajo- deben realizarse dos perfiles y contraperfiles con rumbos perpendiculares entre sí y luego se
podrá calcular la inclinación real a partir de las inclinaciones o buzamientos aparentes.
 Generalización para dos o más refractores
Para el cálculo de dos refractores se calcula previamente el primer refractor con las formulas correspondientes,
de esta manera se conocerá la V1, la pendiente α, las profundidades y el ángulo límite. Puede hacerse una
simplificación, haciendo que el ángulo de buzamiento del primer estrato sea igual a cero.
Para más refractores se prosigue del mismo modo.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

CASOS ESPECIALES
 Capa de baja velocidad intercalada:
Es la primera de dos situaciones en las que una
capa puede resultar omitida (hidden layer).
En este caso la Ley de Snell indica que no hay
refracción crítica y esta inversión de
velocidades no puede detectarse (figura a la
derecha). La capa es ignorada y el espesor
total desde su base hasta la superficie resulta
sobredimensionado.
 Capa delgada sobre un medio
infrayacente mucho más veloz:
En este caso la capa delgada puede resultar
omitida si el camino refractado críticamente
por la base de la capa (con la velocidad mucho
mayor de la infrayacente) resulta de menor
tiempo que el camino por su techo, en cuyo
caso este último nunca es primer arribo y por
lo tanto no resulta visible (figura de abajo a la
izquierda). La capa es ignorada y el espesor
total desde su base hasta la superficie resulta
subdimensionado.

 Cambio lateral de velocidad


En este caso, como ocurre con las capas buzantes, la verificación surge de hacer perfil y contraperfil. Pero ahora
las velocidades no son aparentes sino reales, sólo que no proceden de estratos más profundos sino de la misma
profundidad. La dromocrona muestra en uno de los sentidos una velocidad más lenta a continuación de una más
rápida, y al revés en el sentido contrario (véase la última figura a la derecha en la página anterior).
 Caso de una falla
Si el refractor conserva la misma inclinación a ambos lados de la falla, las dromocronas se componen de dos
rectas paralelas separadas un cierto intervalo de tiempo ∆t; de esta manera las fallas se deducen por la simple
observación de las dromocronas conjugadas por los desplazamientos casi paralelos que se notan en ellas.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

PRINCIPIOS GENERALES DE INTERPRETACIÓN


 Ley de Snell
 Regla de las Velocidades Aparentes: Las velocidades obtenidas de las dromocronas no son reales
sino aparentes cuando la capa buza, variables según el sentido y la magnitud del buzamiento.
 Principio de Reciprocidad: es una consecuencia directa del principio de Fermat o del mínimo
recorrido y establece que el tiempo de propagación de la onda sísmica de un punto A a otro B es el mismo que
el de B hasta A.
 Principio del tiempo interceptado en el origen: si prolongamos las dromocronas correspondientes
al perfil y contraperfil hasta que corten al eje de tiempos, los tiempos interceptados en el origen son iguales.
 Principio del Paralelismo: conocida la dromocrona correspondiente a dos puntos conjugados de tiro,
permite reconstruir la dromocrona que se obtendría desde un punto de tiro intermedio cualquiera sin necesidad
de efectuar el disparo.
 Métodos de interpretación: utilizan los tiempos de llegada desde puntos de explosión conjugados y
reconstrucción de los recorridos de los rayos refractados (situación del refractor por puntos). Algunos de ellos
son: -Tiempos de Retraso (Delay times) o Método de Gardner.
-Por frentes de ondas.
-Método de Sumación, en el que nos independizamos de la velocidad de la capa sub-meteorizada,
como se ve en la siguiente figura. Es un método muy empleado para mapear el espesor de la capa meteorizada,
lo cual, entre otras aplicaciones, es muy empleado como método auxiliar de la sísmica de Reflexión, para
obtener información con la cual hacer las Correcciones Estáticas, tópico que abordaremos en el Tema 15.

 Corrección de Cota: es
una necesidad en la mayoría de los
casos y se realiza, relevamiento
topográfico mediante, en base a
las consideraciones trigonométricas
deducidas de una situación de campo
como la que se esquematiza a la
derecha. Para hacerlo debe elegirse un
plano de referencia (datum).
 Capa Irregular: cuando la
interfaz tiene buzamiento muy
variable. El abordaje es más complejo,
aunque sobre los mismos principios.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

 Dromocronas Verticales (Upholes): Consisten en registros realizados desde pozos perforados a tal
fin, con el objetivo de definir con la mayor precisión posible la posición y velocidad de la capa meteorizada y
de la sub-meteorizada, tal como muestra la siguiente figura. Se las suele aplicar como complemento de los
registros típicos hasta acá vistos obtenidos sólo desde superficie -llamados dromocronas horizontales-, sobre
todo como complemento para las correcciones de la Sísmica de Reflexión.

APLICACIONES DE LA SÍSMICA DE REFRACCIÓN


Fue el primer método aplicado en prospección sísmica y ha dado muchos buenos resultados en todo el mundo,
desde los primeros domos salinos en Texas.
Una de las aplicaciones más importantes ha sido la de conocer la profundidad del basamento ígneo o
metamórfico de las cuencas sedimentarias, donde la velocidad de tránsito es mucho mayor que en las rocas
suprastantes. Incluso es útil para mapear las cuencas, destacando sus depocentros, áreas marginales, estructuras
mayores y principales fallas, a veces en combinación con datos obtenidos a partir de métodos potenciales
(gravimetría, aeromagnetometría, S.E.V. profundos).
Dentro de una cuenca se puede también hacer la determinación de las velocidades interválicas y puede entonces
obtenerse una ley de velocidades, es decir, una sucesión de datos de velocidad de las capas -o de los tiempos de
tránsito de las ondas a medida que las atraviesan- en función de su profundidad. Esto puede hacerse a escala de
todo el espesor de cuenca, a una escala menor e incluso con un detalle de pocos metros de profundidad, según
sea el objetivo planteado. Tiene la limitación de que no todas las interfaces pueden seguirse claramente sobre un
perfil y que todas las capas deben tener velocidades crecientes a mayores profundidades. Si esto no ocurre se
produce la omisión de capas y se determinan espesores por exceso de otras, tal como vimos antes.
Aquí un caso en correspondencia con una perforación para evaluar el emplazamiento de un supercolisionador.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

A la derecha otro ejemplo para


aplicaciones geotécnicas, en el que vemos
ya el resultado final de la interpretación
realizada, donde las velocidades altas se
asocian con la presencia de niveles de
basaltos a distintas profundidades y con
variable extensión lateral.

Otras numerosas aplicaciones del método


de sísmica de refracción existen a muy
diferentes escalas para hidrogeología
(basamentos o techo y base de acuíferos) o
para prospección en actividades mineras,
ya sea en rocas ígneas, metamórficas o
sedimentarias. Un caso de empleo para
espesores aluvionales se ejemplifica en las
figuras siguientes.

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

También se recurre a los métodos de refracción para arqueología (ruinas enterradas), ingeniería civil
(fundación de diques, puentes), trabajos medioambientales y otros.
Puede aplicarse también en el mar, emitiendo energía desde una fuente sumergida desde un barco y
registrándola en hidrófonos conectados por cable o bien en sonoboyas (con sonar para medir profundidad) que
enviarán la información por radio cuando los perfiles son muy largos, tal como muestra la siguiente ilustración.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

El siguiente es un ejemplo complejo a través de la cordillera californiana, donde se atraviesa una falla
compresional que desplaza una interfaz bastante inclinada.

Pero el mayor empleo mundial de la sísmica de refracción, lejos, ha sido en el cálculo del espesor y velocidad
de la capa meteorizada para con esos datos poder aplicar las correcciones estáticas de la sísmica de reflexión
profunda. En el mapa de la página siguiente, correspondiente a un prospecto de sísmica reflectiva
tridimensional, se han localizado los emplazamientos de las dromocronas horizontales (segmentos de puntos
blancos), que eventualmente podrán resolverse por sumación u otros métodos, y también sitios en los que se
registrarán dromocronas verticales (puntos rojos) que, si bien tienen el mayor costo de la perforación, proveen
una información más precisa y confiable desde donde extender las interpretaciones para una cobertura areal.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 12
Sísmica de Refracción Chelotti, L., Acosta, N., Foster, M., 2009

Estos trabajos son especialmente utilizados


con fines de prospección y desarrollo de
yacimientos de hidrocarburos.

CUESTIONARIO BÁSICO

- ¿Qué discontinuidad se descubrió con sismología de refracción?, ¿cómo?


- ¿Qué información debemos leer en las dromocronas para poder calcular profundidades y qué datos
alternativos tenemos?
- ¿Cómo procedemos cuando sospechamos que existe buzamiento de capas?
- Citar y explicar las limitaciones del método.
- Si se quiere registrar una capa horizontal que se encuentra a aproximadamente 800 m, ¿cual debe ser la
longitud aproximada del tendido de receptores?
- ¿Qué es una dromocrona vertical?
- ¿Qué aplicaciones no petroleras tiene la sísmica de refracción?
- Citar las aplicaciones del método en la prospección de hidrocarburos.

BIBLIOGRAFIA

- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.204-234). Librería de Ciencia e Industria.
- Fowler, C., 1990. The Solid Earth (p.119-1329. Cambridge University Press.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.85-104 y 133-145). Editorial Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

INSTRUMENTAL SÍSMICO
Y MEDIOAMBIENTE
Ya sea que se trabaje en prospección sísmica con el método refracción o bien con el de reflexión, que se verá en
los siguientes temas, se requiere de alguna fuente de energía artificial, de receptores o sismómetros apropiados y
de un sismógrafo donde grabar y eventualmente graficar los datos a fin de controlar su calidad. En general el
equipamiento de sísmica de refracción es más sencillo que el necesario para la adquisición de campo de la
sísmica de reflexión, sobre todo si ésta tiene objetivos que no son someros. Veamos sucintamente las
alternativas de instrumental sísmico en tierra y mar, y luego las consideraciones medioambientales relativas a la
adquisición de los datos.
FUENTES DE ENERGÍA:
Fuentes impulsivas:
Cualquiera sea el tipo de fuente, las
impulsivas se caracterizan por generar una
forma de onda u ondícula (wavelet) de
fase mínima, llamada así porque tiene un
adelanto de fase: es asimétrica, ya que está
más cargada de energía en la proa de la
forma ondulatoria, como se ve en la parte
izquierda de la ilustración.
Si el trabajo es somero y no se requiere de mucha energía, puede recurrirse a fuentes por caídas de pesos, desde
una maza de unos 5 a 7 kg sobre un disco metálico grueso, hasta bochas metálicas de más de medio metro de
diámetro cayendo de una altura de uno a tres metros.
Actualmente existen dispositivos de aceleración del peso en caída, denominados golpeadores (thumpers), muy
utilizados en sísmica de refracción. Aquí, ejemplos ilustrativos.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

Pero cuando se necesita mayor energía pueden utilizarse explosivos plásticos (cartuchos con la mezcla
explosiva de nitroglicerina, nitrato de amonio, etc. y detonadores eléctricos a base de fulminato de mercurio) y
es conveniente realizar un pozo por debajo de la capa meteorizada (weathering), lo que obedece a motivos
ambientales así como de eficiente propagación de la energía. A veces, antiguamente, se detonaban cargas en
superficie, lo que por seguridad y medioambiente ya no se hace. La perforación se hace con equipos montados
sobre camiones, que se rebaten durante el transporte, con capacidad de 100 ó más metros de profundidad
(fotografía superior izquierda) o bien con equipos portátiles (para mucho menor profundidad) en zonas de difícil
accesibilidad (imagen inferior izquierda). Allí se baja el explosivo, con un cable hasta el disparador (blaster), y
esto da lugar a una onda impulsiva, como se ve en las fotografías a la derecha, donde el soplado al aire debería
ser mucho menor que el aquí mostrado, tanto por razones de aprovechamiento de la energía en subsuelo como
de riesgo laboral, cosa que se logra tapando y apisonando adecuadamente el pozo luego de colocada la carga.

También puede recurrirse al sistema de Pozos Múltiples: varios


pozos adyacentes perforados a poca profundidad (esquema adjunto),
que en conjunto pueden tener menor costo que uno profundo y
algunas veces permite resultados comparables. Es una alternativa
empleada cuando se recurre a las perforadoras portátiles o en
afloramientos de roca dura.
Una variante superficial actualmente poco usada es el cordón
detonante, una soga con material explosivo que se extiende una
cierta cantidad de metros sobre la superficie, en forma lineal o
circular.

Otro tipo de fuente impulsiva son los dinos


(dinoseis), muy empleados entre 1970 y 1980 pero
hoy prácticamente en desuso. Provocan una
explosión de gas (una mezcla de propano y oxígeno,
análoga a la de un motor de combustión interna)
dentro de un tanque apoyado en el terreno, como se
ilustra a la derecha.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

En el mar desde 1964 mayoritariamente se utilizan cañones de aire (air guns), sumergidos a los lados o a popa
del barco, que generan un salida brusca de aire comprimido hacia el medio ácueo para provocar el pulso sísmico
omnidireccional, como
se ve en la primera
ilustración adjunta.
Abajo, popa de un
barco sismográfico,
cañón de aire sobre la
cubierta y equipo
compresor de aire.

También pueden emplearse:


-Cañón de agua (water gun) que
provoca un desplazamiento brusco
de un volumen de agua.
-Vaporchoc o vaporchoque de
inyección súbita de vapor dentro del
agua, el cual enseguida implosiona.
-Flexichoc o flexichoque una fuente
de aire comprimido con expansión
rápida tipo fuelle.
-Sparker o electropercutor, que
acciona por golpe eléctrico.
-Aquapulse o acuapulso, un
equivalente marino de los dinos,
detona propano y oxígeno en una
cámara de combustión interna.
-Explosivos detonados en cilindros
o esferas a tal fin (como maxipulse
y flexotir).

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

Fuentes vibratorias:
Caracterizadas por generar una forma de onda (ondícula) de fase cero (figura en la primera página), es decir,
simétrica y centrada en la interfaz reflectiva, la cual es el resultado de la emisión de un barrido de frecuencias y
su posterior correlación cruzada con la respuesta generada en el terreno, cuestión sobre la que se volverá en el
Tema 15. Por lo tanto se trata de fuentes controladas.
Los camiones vibradores, vibros o vibroseis (fotos siguientes) son las fuentes más utilizadas en tierra desde la
década de 1980, son seguros y producen un barrido controlado de frecuencias que inicia con valores bajos (de
entre alrededor de 6 y 12 Hz) que va aumentando gradualmente (según una función lineal o logarítmica, elegida
en base a pruebas de campo) hasta llegar a unos 100 a 140 ó más Hz al cabo de unos 6 a 16 ó más segundos
(tiempo de barrido), según sea el caso.

Los martillos neumáticos son la alternativa vibratoria portátil


cuando la complejidad del terreno (topografía abrupta, selva densa,
etc) no permiten la llegada de los camiones vibradores. A la derecha
vemos una fotografía de una de estas fuentes.
Existen también prototipos de vibradores horizontales para generar
mayor proporción de ondas S, en tierra o muy raramente sumergido
en el fondo del agua.

RECEPTORES O SISMÓMETROS:
Los geófonos (esquema a la derecha) son transductores
mecánico-eléctricos en los cuales la vibración del suelo
hace oscilar un imán que se encuentra dentro de un
campo eléctrico generado por una bobina. De esta
manera se produce una FEM representativa del frente
de onda. Los geófonos van conectados en ristras
mediante cables eléctricos que son transportados en
rollos por camiones llamados tiracables o
eventualmente carros (fotografía de arriba) en lugares
de difícil acceso para vehículos pesados.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

La frecuencia natural de resonancia está en torno a los 14 Hz y los geófonos deben ser amortiguados para que
provean una respuesta apropiada a los impulsos del terreno. Algunos de estos receptores electromagnéticos
tienen base plana en lugar de puntiaguda (imagen superior derecha) para aquellos sitios en los que no pueden
clavarse (roca muy dura o veredas y calles en registros dentro de ciudades).
En casos especiales, cuando se desea registrar ondas S, se utilizan geófonos triaxiales (arriba, interior de uno de
ellos), también muy comunes en sísmica de pozo, que obtienen las componente de la vibración en x, y, z, a
diferencia de los geófonos convencionales que sólo registran la componente vertical de la vibración sísmica.
En el mar se utilizan hidrófonos, que funcionan por piezoelectricidad debido a las variaciones de presión de las
ondas sísmicas compresionales en el agua (esquema abajo). No registran ondas transversales porque éstas no
pueden transmitirse a través de los fluidos. Estos receptores son arrastrados a lo largo de una o varias líneas
(streamers) que se desenrollan desde la popa (fotografía a la derecha) para ir semisumergidas detrás del barco
sismográfico. (Una línea permitiría registrar secciones sísmicas individuales, también llamadas bidimensionales
ó 2D. Varias líneas paralelas, lo usual en la actualidad, permiten registrar datos para la sísmica de reflexión 3D.)

Cada una de estas líneas tiene un alma de acero, cables eléctricos y una funda impermeable. Además lleva
reguladores de profundidad llamádos pájaros (birds) entre los grupos de hidrófonos y una boya de cola, como

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

se ilustra en la figura siguiente.

Abajo a la derecha, fotografía de un barco sismográfico llevando varias líneas de hidrófonos o streamers.

Ahora bien, en trabajos especiales en los que se requiere el registro de las ondas S en el mar o un lago, se
deben bajar hasta el lecho geófonos triaxiales (como en tierra), que pueden ser llevados a lo largo de cables
sumergidos (figura derecha) o bien ir conectados separadamente a sonoboyas (figuras de la izquierda).

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

SISMÓGRAFO:
Operado por un “observador” o dos, es el sistema de registro de los datos, donde llegan los cables con la
información proveniente de los sismómetros (geófonos o hidrófonos). Puede ir montado dentro de un camión,
sobre un barco o hasta en versiones portátiles dentro de una valija especial. Antiguamente eran analógicos, se
hicieron digitales hacia 1960 y siguieron tecnificándose. Tienen una serie de dispositivos de acondicionamiento
electrónico de la señal (filtros, amplificadores, etc), un osciloscopio para monitorear la respuesta de los
receptores, una computadora desde donde se opera y donde son visualizados y archivados los registros, también
una impresora, un sistema de radioseñal para las fuentes de energía y, si éstas fueran vibratorias, una caja
electrónica controladora de sus parámetros. Abajo, esquemas del sistema de información que llega a un
sismógrafo en una versión tradicional (izquierda) y moderna para sísmica de reflexión 3D (derecha) en la que se
indican las cajas electrónicas (RSX) que, por grupos de receptores, acondicionan la señal (ganancia, filtrado,
etc.) y la envían telemétricamente al sismógrafo.

Arriba, caja
electrónica
telemétrica.

A la izquierda,
fotografías de
un sismógrafo
antiguo, con el
detalle de la
pantalla abajo,
y de un equipo
sismográfico
más moderno.

7
Cátedra de Geofísica Aplicada
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

Las siguientes figuras muestran el interior de un sismógrafo marino y el exterior de uno terrestre.

Abajo, fotografía de un sismógrafo portátil. Usualmente manejan hasta 48 canales y en general sus aplicaciones
son a pequeña escala).

GEOGRAFÍA DEL ÁREA A PROSPECTAR


Arriba tres imágenes del relevamiento topográfico en prospección terrestre, un trabajo imprescindible previo a
la adquisición de los datos sísmicos, sean éstos de refracción o reflexión, clásicamente realizado con teodolito y
plancheta y actualmente mediante posicionadores satelitales. La profundidad de agua se mide con un sonar.
Los trabajos de registro sísmico de campo pueden tener muy variados desafíos, más allá de los casos típicos de
adquisición marina o terrestre. Existen innumerables posibles complejidades topográficas, biogeográficas y
medioambientales, entre la cuales el trabajo en zonas transicionales intermareales, como es el caso de la
Patagonia, con gran amplitud de mareas, lo que requiere moverse con gomones o disparar durante la bajamar, a
veces con explosivos en perforaciones hechas con equipos portátiles, si la playa es fangosa (dominada por
acción de marea). O bien pueden presentarse casos de áreas pantanosas, como muestran estas dos imágenes.

8
Cátedra de Geofísica Aplicada
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

Aquí fotografías de campamentos sísmicos. Uno convencional, en topografía operativamente favorable, y otro
menos confortable, pero beneficiado por el paisaje.

MEDIOAMBIENTE Y SEGURIDAD LABORAL:


Hasta finales de la década de 1980 la conciencia medioambiental era muy pobre a nivel de empresas y también
de Estados y la seguridad en el trabajo sólo se limitaba a principios muy básicos. Esto fue cambiando para
mejor desde entonces, aunque todavía el cumplimiento de estos ítems suele no ser óptimo.
El terreno o el lago o mar donde se trabaje debería quedar igual después que antes de la tarea prospectiva. Esto
es en rigor imposible, aunque se intenta minimizar el impacto ambiental. Deben tomarse medidas como no
arrojar residuos de ningún tipo (ver fotografías abajo), procurar suprimir el uso de explosivos, minimizar los
vuelos en áreas de numerosa avifauna, o directamente no registrar en áreas críticas de reservas donde pudiera
afectarse de algún modo el ecosistema, por ejemplo si la contaminación acústica de los cañones de aire u otras
fuentes altera el comportamiento de los cetáceos u otras especies. También debe abrirse la menor cantidad
posible de picadas en el campo, para lo cual se suele recurrir a helicópteros, y, cuando la picada es inevitable,
no remover todo el espesor edáfico para facilitar la futura recuperación de la cubierta vegetal (como se ilustra).

9
Cátedra de Geofísica Aplicada
Tema 13
Instrumental Sísmico y Medioambiente Chelotti, L., Acosta, N., Foster, M., 2009

Cuando se trabaja en zonas pobladas, se debe reducir la potencia de vibración a valores acordes con la
seguridad de las edificaciones más débiles, según sea la localización de los vibros respecto a éstas.
Lógicamente, todo trabajo requiere de la solicitud de permisos de los superficiarios, sean éstos particulares o el
mismo Estado, en este último caso incluyendo aguas territoriales. En prospección terrestre se abona un canon
por servidumbre, legalmente estipulado, en compensación por los inconvenientes causados a través un
desarrollo cuidadoso y reglamentado por ley. Eventualmente puede haber casos en los que el propietario no
deba percibir el pago del canon, si la tarea de relevamiento tiene una magnitud y modalidad tal que el impacto
es prácticamente nulo. Así como, en casos de alto impacto, el monto normal de servidumbre puede no satisfacer
al superficiario y éste puede reclamar judicialmente un pago mayor o bien poner limitaciones extraordinarias
previas a la ejecución de las labores de campo.
En términos de seguridad e higiene también se deben seguir rigurosos protocolos para no correr riesgos
personales ni hacérselos correr a terceros, muy especialmente si se trabaja con explosivos, pero también
respecto a las pendientes y características del terreno a transitar, o a las condiciones de navegación segura
(clima, tránsito de otros buques, etc.) y demás circunstancias del entorno laboral. Asimismo deben emplearse la
indumentaria (cascos, botines de seguridad, etc.) y los demás implementos apropiados (por ejemplo salvavidas
en operaciones marinas), debe disponerse de equipamiento y personal entrenado para primeros auxilios -en
grupos medianos o grandes un paramédico- y deben practicarse rutinas de extinción de incendios, evacuación
segura y otras alternativas, según sea el ámbito de trabajo específico.

CUESTIONARIO BÁSICO

- ¿Cuáles son los dos tipos básicos de ondículas y a qué fuentes corresponden en general?
- ¿Qué distintos tipos de fuentes de energía sísmica pueden utilizarse en mar y en tierra?
- Explicar brevemente el principio de funcionamiento de los geófonos e hidrófonos y cómo se conectan entre sí.
- ¿Qué elementos tiene y qué hace un sismógrafo?
- Comentar situaciones no convencionales en cuanto a fuentes de energía, sismógrafos y transportes.
- ¿Cuáles son las consideraciones a tener acerca del impacto ambiental y la seguridad laboral?

BIBLIOGRAFÍA

- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.204-2349. Librería de Ciencia e Industria.
- Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.85-104 y 133-145). Edit.Paraninfo.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

ADQUISICIÓN SÍSMICA DE REFLEXIÓN

El método sísmico de reflexión, al igual que el de refracción, parte de producir microsismos artificiales por
medio de una explosión, impacto, vibración, implosión en agua, etc. Pero en esta variante prospectiva -la más
usada de todas las que existen en geofísica- no basta con registrar el tiempo de primer arribo en cada traza,
como en sísmica de refracción.
Aquí se debe registrar bien toda la traza, hasta el tiempo de ida y vuelta de la energía sísmica calculado para
cubrir los objetivos de interés. Se graban entonces las amplitudes y tiempos de llegada de las ondas reflejadas
en las diversas interfaces geológicas del subsuelo. Esto se hace por medio de receptores o sismómetros
(geófonos en tierra, hidrófonos en el mar) convenientemente ubicados, desde los cuales es enviada la
información a un sismógrafo donde se la graba y grafica. Posteriormente se debe pasar por una serie de etapas
de procesado de la información obtenida en los sucesivos registros, para llegar finalmente a secciones o
volúmenes de información sísmica que deberán ser interpretados en términos neocientíficos, petroleros, etc.
Si bien ideadas por el canadiense Reginald Fessenden en 1917, las primeras aplicaciones en sísmica de
reflexión fueron conducidas por John Karcher, en la prospección petrolera en Oklahoma (Estados Unidos) a
partir de 1920.
CONCEPTOS BÁSICOS:
La ecuación que rige el comportamiento de un evento reflejado corresponde a una hipérbola e involucra tiempo
t en ordenadas, distancia horizontal x en abscisas y las incógnitas velocidad v y profundidad h.

t = SA/v + AG/v

t = 2 SA/v

SA2 = h2 + (x/2)2

_________
SA = V h2 + (x2/4)

_________
t = (2/v) V h2 + (x2/4)

ecuación de una
hipérbola

t2 - x2 = 1
4h / v2 4h2
2

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

En la figura siguiente se esquematiza a la izquierda un emisor de una serie de trayectorias de rayos refractados y
eventualmente reflejados en interfaces a distintas profundidades, más el directo, que convergen en una estación
receptora. El registro de campo esquemático muestra su arribo a sucesivos tiempos dobles (de ida y vuelta, two
way time o TWT) que, verticalizados mediante simples cálculos trigonométricos, representan los To que se
representan usualmente en una Ley de Velocidad, esto es, una relación tiempo-profundidad, concepto
semejante al de las dromocronas en sísmica de refracción, pero que en este caso representa la demora en bajar y
subir por caminos virtualmente verticales.
La figura de la derecha muestra, a su vez, las ondículas resultantes de una reflexión en una sucesión de
impedancias normal o inversa: la forma de onda es esencialmente la misma en el primer caso e inversa en el
segundo, además de que su amplitud variará según sea el coeficiente de reflexión -o sea, el contraste de
impedancias acústicas entre los dos medios- en cada caso.

EVOLUCIÓN HISTÓRICA:
Durante los primeros tiempos,
básicamente la década de 1920, se
empleó el método de Buzamientos
(véase la figura) calculados a
partir de datos obtenidos desde
disparos aislados en distintas
direcciones.
En 1927 fue desarrollado en
Estados Unidos el primer
sismógrafo con amplificadores de
válvulas y en 1930 se hicieron los
primeros trabajos en Argentina,
hechos por YPF con un
sismógrafo todavía mecánico.
Durante la década de 1930
comenzó a prospectarse con el
método de Correlación, en el que
se empezó a trabajar con datos
registrados a la largo de una
misma línea sísmica generando
secciones dibujadas a mano, como
puede apreciarse en la figura
adjunta.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Más tarde, desde mediados de los


años 40, se inició la aplicación del
método de Perfil Continuo, en el
que para cada punto emisor hay
varios puntos de recepción hacia
delante y atrás, generando una
serie de registros cercanos y
continuos a lo largo de la línea
sísmica. La grabación de los
registros era galvanométrica, pero
su representación en secciones
seguía siendo manual, como puede
apreciarse en el ejemplo de abajo,
registrado por una comisión
sismográfica de la empresa
Yacimientos Petrolíferos Fiscales.

En 1956 el estadounidense Harry Mayne propuso el método de Apilamiento o Suma (Stacking), también
conocido como de Recubrimiento Múltiple (Multiple Fold), Punto Común Profundo o PCP (Common Depth
Point o CDP), y el correspondiente procesamiento de la información en computadora, cuyo desarrollo (en el
Massachussets Institute of Technology) fue fundamental para hacer posible la aplicación práctica del método.
Ya sea en sísmica bidimensional o en la más moderna tridimensional, cada punto en el subsuelo resulta
registrado varias veces a partir de distintas posiciones de fuente y receptores, de lo que resulta el apilamiento,
que en los primeros años era de 6 veces (en la jerga suma de 6, ó de 600%), fue aumentando con el progreso
tecnológico y actualmente suele ser de 48 (4800%) o más para trabajos de sísmica 3D, mientras que en trabajos
de adquisición 2D suele recurrirse a 96 (9600%) o más, es decir que en general se emplea un mayor
recubrimiento cuando los datos se adquieren sólo en líneas separadas, ya que en las secciones resultantes no hay
control de información lateral como sí ocurre en un volumen sísmico (tridimensional).

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

El principio de aplicación del método de Punto Común Profundo es el mismo ya sea en adquisición marina
como terrestre. Se lo esquematiza en la figura de la izquierda.

La figura de la derecha representa trayectorias de rayos desde una fuente hasta receptores hacia uno y otro lado
en un caso de horizonte reflector inclinado. Además se ilustra la hipérbola de reflexión resultante y las fórmulas
(obtenidas de deducciones trigonométricas) para calcular los tramos iluminados (AB y AC), así como el ángulo
φ de buzamiento de la interfaz, la velocidad media Vm entre el horizonte y la superficie topográfica y la
profundidad Z perpendicular a la capa. Puede verse que la longitud superficial total con receptores es mayor que
la longitud total iluminada en el subsuelo.
ETAPAS EN LA ADQUISICIÓN DE SÍSMICA DE REFLEXIÓN:
A continuación un esquema básico generalizado de las etapas del trabajo completo de adquisición sísmica de
reflexión, que en cada caso particular tendrá sus propias variantes en las formulaciones cronológicas y tópicos
específicos relativos al área del programa o proyecto.
 Planeamiento Sísmico general.
 Planeamiento Legal y Ambiental.
 Solicitud de Permisos de los Superficiarios
 Licitaciones de Servicios contratados (de operaciones sísmicas, transportes, comedor, enfermería, etc.)
 Levantamiento Topográfico, ya comentado muy brevemente en el Tema 13.
 Apertura de picadas, sector de campamento, etc.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

 Sísmica de Refracción, que en prospección terrestre casi siempre se registra como dromocronas
horizontales y/o verticales para conocer el espesor y velocidad de la capa meteorizada para el cálculo de las
correcciones estáticas, según lo comentado en el Tema 12. En casos de baja complejidad de esta capa
superficial o bien de bajo presupuesto pueden hacerse los cálculos directamente desde los registros de reflexión
sísmica, pero en general esto no es recomendable porque, al no estar registrados con esa finalidad, el margen de
error es mayor y las correcciones estáticas pueden resultar críticamente imprecisas.
 Pruebas de ruido y señal, que consisten en ensayos preliminares, con distintas variantes en la fuente y
magnitudes del dispositivo de receptores, mediante los cuales se hace un diagnóstico de las perturbaciones que
se van a producir durante la adquisición rutinaria. La finalidad es determinar los parámetros más apropiados
para maximizar la relación señal/ruido en función de los objetivos buscados y criterios de amortización
presupuestaria, es decir la relación costo/beneficio.
 Adquisición de rutina, en la que debe cuidarse la correcta respuesta instrumental, junto con los costos, la
seguridad y el medioambiente. Debe procurarse el registro de buenas amplitudes de la señal, pero sobre todo de
altas frecuencias, siempre el parámetro más huidizo. Esto es así porque el subsuelo configura un severo filtro
corta-altos frente al viaje del frente de ondas por el subsuelo, es decir que reduce la amplitud de altas
frecuencias, tanto más cuanto mayor sea el viaje de ida y vuelta. Es esencial no empeorar las cosas por evitables
limitaciones instrumentales.
-Un recaudo al que suele recurrirse es el Filtro Ranura (Notch Filter), que elimina una frecuencia específica
que constituye un ruido identificable, por ejemplo alta tensión en torno a los 55 Hz.
Las amplitudes de los registros sísmicos, así como de los acústicos, se expresan en decibeles:
A (db) = 10 log A salida /A entrada
(Un decibel es un décimo de bel o belio, llamado así por Alexander G. Bell, escocés que inventó el teléfono en
1876 en los Estados Unidos.)
La diferencia entre las ondas sísmicas compresionales y las acústicas o sónicas (sinónimos) es sólo el rango de
frecuencias, que en el primer caso no sobrepasan en mucho los 100 ciclos por segundo (Hz), mientras que en el
segundo caso llegan a valores del orden de los 30 000 Hz.
.

Abajo puede verse un cronograma específico de adquisición sísmica 3D (incluyendo luego el tiempo de
Procesamiento y de una Interpretación básica del programa) en un ejemplo de prospección terrestre de gran
envergadura en el noroeste argentino. La palabra Grabación se refiere a la adquisición de rutina.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

PARÁMETROS DE CAMPO:
.

Tipo y Potencia de la Fuente


(Source Type and Power):
Según pruebas de calidad de
señal, criterios logísticos y
de relación costo/beneficio.
Podemos discernir potencia y
número de cañones de aire
(habitualmente dos), o cantidad
de vibradores y tipo de barrido
(lineal o logarítmico, duración
total -de unos 6 a 16 segundos-
y límites de frecuencia, 8 a 120
hz como valores frecuentes), o
parámetros varios según el tipo
de fuentes utilizadas, las que
siempre habrán de enviar cada
disparo al unísono.
Si fuera el caso de explosivos,
deben definirse la profundidad
(idealmente bajo la base de la
capa meteorizada), tipo de
explosivo y cantidad de carga
(100 gramos hasta más de un kg)
o la cantidad, separación y profundidad de pozos múltiples, si en lugar de uno fueran varios en cada disparo
(por ejemplo tres pozos a cinco metros y con 200 gr de nitroglicerina cada uno), en todos los casos con la ya
comentada activación mediante detonadores eléctricos.
En las figuras siguientes se comparan secciones sísmicas finales procesadas a partir de registros de campo
realizados con distintas fuentes: martillo neumático (Mini Sosie) y explosivo. En este caso resulta claro que las
primeras tienen mayor detalle, es decir mayor resolución sísmica, pero debe prestarse atención a las condiciones
particulares de la comparación: seguramente la sísmica en base a explosivo podría mejorarse con mayor carga
por pozo, mayor profundidad de pozos, etc. y en tal caso habría que evaluar el costo de una y otra alternativa,
así como las ventajas operativas en uno y otro caso.

b) Dispositivo (Pattern) de Receptores,


Que se define también según pruebas y siguiendo los siguientes criterios:
-Mínimo Apartamiento (Near Offset):
distancia superficial horizontal semejante a la profundidad mínima de interés prospectivo y suficiente para

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

alejarse de la zona del registro en la que son máximos los ruidos superficiales (ondas directa, refractadas
críticas, aérea, ground roll, etc), es decir la zona de arreglos de receptores más próximos a la fuente, como se
indica en la figura siguiente, donde para un registro de campo dado se resuelve la distancia hasta la primera
traza o hilo. Valores comunes en sísmica petrolera son de entre 600 a 1000 metros de mínimo apartamiento.

-Máximo Apartamiento (Far Offset):


distancia horizontal semejante a la profundidad máxima de interés prospectivo y no tan grande como para tener
mucha conversión de modo a ondas S -producto de una reflectividad muy oblicua-, si no fueran éstas lo que
deseamos obtener en los registros. Valores habituales para sísmica de prospección petrolera son del orden de los
2500 a 3500 metros. Esto, combinado con el apartamiento mínimo, define una ventana prospectiva, usualmente
referida como “la sábana corta” (Tim, 1968): si se quiere tapar más los pies se destapa la cabeza, y viceversa.
-Longitud del Arreglo (Array Length):
longitud horizontal para que la señal no difiera más de medio ciclo entre su arribo al primer y al último receptor
del arreglo y tal que difiera en más de medio ciclo para la fracción de ruidos superficiales todavía presentes, es
decir supervivientes al criterio ya adoptado para el mínimo apartamiento. Valores de longitud habituales del
arreglo de receptores son de 30 a 50 m, magnitud que representa la distancia horizontal entre el primer y último
receptor de una estación receptora, también llamada estaca, canal, hilo o traza. En otras palabras, todos esos
receptores a lo largo de los 30, 40 ó 50 metros en los que están desplegados -y conectados eléctricamente-
funcionan como un conjunto de oídos que escuchan en simultáneo y refieren lo percibido al unísono como si
todos hubiesen estado en el punto medio o estaca central de dicho arreglo.
Podríamos teóricamente definir velocidades aparentes que resultan de dividir la longitud el arreglo L por la
diferencia de tiempo entre el arribo de un dado frente de onda (proveniente de una reflexión o de un ruido) al
primero y al último receptor de dicho arreglo. Es decir que: Vap = L / ∆t
La Vap resulta igual a la velocidad real en los arribos horizontales (como las ondas directa o aérea), crece
cuando los arribos son oblicuos y se llega a hacer infinita para arribos verticales desde el subsuelo (que casi
siempre serán señales, es decir reflexiones). O sea, cuanto mayor Vap, más probabilidad de que se trate de una
señal. En la figura de la página siguiente esto está representado abajo a la izquierda, junto con algunas
relaciones matemáticas, definiéndose el valor L deseable como la mitad de la longitud de onda aparente λap del
ruido superficial a suprimir. Esto es así porque el muestreo en un instante dado será hecho en contrafase entre
los primeros y los últimos receptores del arreglo (unos escucharán una amplitud positiva mientras los otros una
negativa) con lo cual su registro resultará prácticamente cancelado. Mientras que para una señal, proveniente de
una trayectoria muy vertical, todos los receptores del arreglo escucharán casi lo mismo, en fase, ya sea pico o
valle de la forma de onda, y su registro se verá reforzado.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

En la figura tenemos arriba un espectro de distribución de las amplitudes de la señal y ruidos en función de sus
frecuencias, que aparecen en gran parte superpuestos, lo que nos está indicando la dificultad de discernir unos y
otros componentes del registro a partir de este parámetro. El espectro a su derecha, en cambio, muestra que, si
los separamos en términos de longitud de onda aparente, podemos discriminar señal de ruido, que es lo que se
está llevando a la práctica gracias al establecimiento de una longitud L de cada arreglo de receptores.
A su vez puede definirse una frecuencia espacial K o número de onda (inversa de la longitud de onda) que al
resultar de calcularlo con una velocidad aparente resulta también en un número de onda aparente: Vap = F / Kap
(donde f es la frecuencia).
Las gráficas F-K (F en ordenadas, K en abscisas) expresan rectas de velocidades que parten del origen de
coordenadas y permiten diferenciar señal de ruido, como se ilustra también en la anterior figura a la derecha.
La figura siguiente muestra tres secciones sísmicas resultantes de pruebas de campo obtenidas en un área en los
Estados Unidos con tres arreglos diferentes, a saber: 340, 85 y 170 pies, respectivamente. El primero (izquierda)
resulta en una sección limpia (poco ruidosa) pero con baja definición de la señal, de modo que se ha eliminado
el ruido pero también parte del dato deseado (reflexiones). El segundo (centro) da una sección con mucho mejor
señal (de mayor amplitud) pero muy ruidosa (efecto visual de picoteo). El tercero ofrece una aceptable
combinación de señal buena y ruido bajo. Ergo, estirar o acortar el arreglo es una decisión crítica para permitir
la adquisición de señal y de ruido en fase o en contrafase en cada caso.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

-Distancia entre Grupos (Group Interval):


distancia superficial aproximadamente doble a la distancia del muestreo espacial horizontal deseado para los
puntos comunes profundos que actúan como reflectores en el subsuelo. Con valores usuales del orden de los 50
a 100 metros en sísmica para prospección petrolera.
-Distancia entre Receptores (Seismometers Spacing):
separación horizontal que es función de los ruidos dominantes (cercanos o lejanos), según pruebas. Usualmente
menor (2 a 3 metros) para ruidos locales, como viento, movimiento de matas o perturbación ácuea si los
hubiera, y mayor (4 a 5 metros) para ruidos lejanos, como ruidos de motores, microsismos naturales, etc.
Seguidamente vemos el tipo de graficaciones que se realizan para visualizar la atenuación de los ruidos para
distintas alternativas de distancia y peso de los receptores dentro de un mismo arreglo L. Las curvas representan
la función general sen x / x, con valores de K y L propios del arreglo que se está evaluando y el sector de
amplitudes de respuesta más bajas indica los valores de x / λ donde se produce la mayor atenuación de ruido. A
la izquierda un arreglo de 42 sismómetros con distancia x entre ellos de 5 m pero con pesos variables (los
receptores centrales de cada arreglo escuchan más que los más marginales) y a la derecha arreglo de igual
cantidad de sismómetros pero con peso uniforme (todos escuchan con la misma sensibilidad) pero distancia x
variable entre ellos (los más centrales están más juntos, los más marginales más separados entre sí).

-Intervalo de Muestreo Temporal (Time Sampling Interval):


ha de ser tal que no limite el valor de la frecuencia máxima, o sea que no tenga valores coligados (aliasing).
Esto surge de la ecuación del estadounidense Wyman Nyquist (fines de los años‘50) según la cual: ∆t = ½ fmáx
Donde ∆t es el intervalo temporal de muestreo y fmáx es la frecuencia máxima que se desea cosechar.
Usualmente el intervalo empleado ha sido de 4 ms (con lo cual se está sobradamente cubierto, para frecuencias
de hasta 125 hz) y en los últimos años la sísmica petrolera y otras se muestrean cada 2 ms dada la evolución en
las capacidades de computación, a fin de tener un muestreo fino de altas frecuencias por si fueran útiles para
fines de estratigrafía sísmica detallada.

A la derecha un registro de campo, donde la franja central es todo ruido y se suprimirá. Este es un ejemplo
cuasi-simétrico, con la fuente en la parte central y tendidos de receptores hacia uno y otro lado. En sísmica
marina sólo se puede obtener registros asimétricos, por la imposibilidad de tener receptores delante de la fuente.

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA 2D Y 3D:
En sísmica bidimensional o
2D los parámetros arriba
comentados se determinan a lo
largo de las líneas predefinidas,
usualmente en un mallado
ortogonal donde los dos juegos
de líneas son aproximadamente
uno perpendicular y el otro
paralelo al rumbo dominante de
las estructuras geológicas
del área prospectada. El
distanciamiento entre líneas
es función del objetivo,
generalmente unos 4 km de lado
para mallados regionales en
etapas iniciales de exploración,
unos 2 km de lado para etapas
de exploración intermedia y
cerca de 1 km para una etapa de exploración avanzada en zonas mejor localizadas. El distanciamiento entre
arreglos de receptores es en sísmica para prospección petrolera del orden de los 80 metros (40 en subsuelo),
aunque puede variar significativamente según la profundidad y magnitud de los objetivos. En cuanto al
recubrimiento, cuanto más, mejor; la limitación es el costo, relacionado con las facilidades tecnológicas: como
ya se comentó, en los primeros tiempos era de 600% y en la actualidad suele ser de 9600%.
Arriba un ejemplo de mapeo sísmico (curvas isócronas, en segundos) de un horizonte guía en subsuelo a partir
de un programa de sísmica 2D en la cuenca Neuquina. Existen dos mallados con orientaciones diferentes.
Una sísmica de detalle superior al mallado citado para exploración avanzada ha sido el de la sísmica 2D Swath
(2D Múltiple, por franjas o aradas), que se utilizó en algunos países en yacimientos antes de la 3D. Consistía en
trabajar con tres líneas receptoras paralelas por cada una emisora -coincidente con la receptora central- a fin de
registrar tres líneas por vez distantes en el orden de 600 m en superficie y 300 en subsuelo, como se ilustra.

Sin embargo esta etapa de prospección avanzada de la 2D Swath -generalmente con fines de desarrollo de
yacimientos- ha sido reemplazada por la adquisición de sísmica tridimensional o 3D, un concepto ideado en
los Estados Unidos por G. Walton en 1972 y aplicado por E. Tegland y otros desde 1976. Su empleo se hizo
rutinario en los países desarrollados desde fines de la década de 1980 y en la Argentina desde mediados de los
’90, casi siempre en los prospectos petroleros que poseen un generoso presupuesto (resultante de un aún más
generoso retorno probable de la inversión). En la 3D se registra un volumen de información, muestreada en un
fino mallado rectangular en subsuelo (las más de las veces cuadrado) de pocas decenas de metros de lado, 25 a

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

30 metros como valores más habituales, que se denomina bin. Es un área análoga a un pixel fotográfico.
En sísmica 3D terrestre las líneas receptoras (de geófonos) suelen ser perpendiculares a las líneas de fuente
(habitualmente vibros), como se ilustra en las figuras siguientes, aunque existen otras variantes. Las líneas
receptoras (en el ejemplo N-S) son casi siempre perfectamente rectas y se diagraman ortogonalmente a la
estructuración geológica principal del área. Las líneas fuente (aquí E-O) suelen ser sinuosas ya que los
camiones vibradores circulan por donde la topografía se los permite, aunque siempre procurando la mayor
cercanía posible a las ideales trayectorias rectas, ya que seguir esas rectas permitirá al final un más homogéneo
recubrimiento de datos reflejados en las sucesivas interfaces del subsuelo.
La sucesión de varios disparos o emisiones entre líneas receptoras consecutivas se denomina Salvo. El conjunto
de salvos sucesivos entre dichas líneas receptoras constituye un Swath (Arada o franja de registros). El sector
del proyecto de líneas receptoras habilitadas para la escucha de cada disparo (registro) se denomina Plantilla o
Template y en el proceso de los datos deben computarse numerosísimas trayectorias de rayos con sus
trayectorias azimutales y sus verdaderas posiciones, frecuentemente no ideales.
En la figura de la derecha se indica el recubrimiento, máximo en la mayor parte del prospecto (36 ó 3600%) y

menor, hasta hacerse nulo, en las zonas de borde,


donde ya no hay grupos receptores escuchando
en superficie. La cobertura superficial es siempre
mayor que el área iluminada en el subsuelo, como
ya vimos, y se elaboran modelos en computadora
previamente a la adquisición para elegir las
mejores alternativas viables.
A la izquierda, perspectiva esquemática que
muestra cómo una línea de registro de datos
sísmicos (en este caso de reflexión, pero también
en las de refracción) es recta en la superficie
topográfica pero puede resultar quebrada o sinuosa
en el subsuelo. Esto no puede precisarse cuando
hemos adquirido información sísmica 2D, pero sí
en el caso de la sísmica 3D. Esta última puede
darnos, como resultado del procesamiento de los
datos, no sólo imágenes en sección vertical sino
también secciones horizontales (time slices), cuya
localización en profundidad está dada por el
tiempo sísmico de ida y vuelta verticalizado (To) y
que resultan de gran ayuda en la interpretación.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda un ejemplo de sección horizontal de un volumen sísmico.

En la adquisición de sísmica 3D marina las varias líneas receptoras (streamers, con boyas en los extremos,
arreglos de hidrófonos y pájaros o birds intercalados para sumersión controlada a profundidades de algunos
metros, como ya hemos visto) van paralelas a las líneas emisoras (cañones de aire u otras fuentes) dado que
todo es arrastrado simultáneamente por el barco sismográfico en trayectorias del tipo de las que se ilustra en el
esquema de arriba a la derecha, e incluso en casos singulares de navegación en espiral en torno a domos salinos
de sección subcircular.
La repetición de la adquisición de sísmica 3D a
intervalos de tiempo de meses o incluso años
entre una y otra ha dado lugar a la llamada
sísmica 4D, que será abordada en el Tema 18.
A la derecha puede verse una gráfica que
sintetiza los progresos históricos de la sísmica de
reflexión.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 14
Adquisición Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO:

- Enumerar las etapas del trabajo de campo.


- ¿Qué diferencia a las ondas de sonido de las sísmicas P?
- ¿Con qué criterios se establecen en un tendido el apartamiento cercano y el lejano?
- ¿Cómo definimos el largo del arreglo y las distancias entre arreglos y entre receptores?
- ¿Cómo se evita tener un muestreo aliado de frecuencias?
- ¿Qué ventajas tiene la sísmica 3D?
- Explicar los factores a tener en cuenta para registrar una sísmica 3D en tierra y mar.

BIBLIOGRAFIA

- Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales.
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.235-305). Librería de Ciencia e Industria.
- Fowler, C., 1990. The Solid Earth (p.133-147). Cambridge University Press.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

“Lo que Natura non da,


Processing non presta”
clásico adagio de los analistas

PROCESAMIENTO SÍSMICO

A la adquisición de la sísmica de reflexión le sigue el procesamiento de dichos datos (a cargo de los


Procesadores o Analistas), pero siempre debe recordarse que es crítico optimizar los parámetros de registro para
después poder encarar un mejor proceso de la información.
Los datos adquiridos durante semanas o meses en un determinado proyecto en tierra o mar -como el registro
simétrico acá graficado- deben procesarse a fin de obtener secciones sísmicas (bidimensionales ó 2D) o un
volumen (tridimensional ó 3D) que luego han de interpretarse en términos geológicos, petroleros u otros.
Fue en los Estados Unidos en 1935 cuando Frank
Rieber ideó el procesamiento de los datos -en ese
entonces sólo posible con técnicas fotográficas-,
pero éste comenzó a aplicarse recién desde 1953 con
el desarrollo de la cinta magnética y las primeras
computadoras en el MIT (Massachussets Institute of
Technology). Como fuera referido en el Tema 14, en
1956 el estadounidense Harry Mayne patentó el
método de Punto Común Profundo o Apilamiento
(Common Depth Point o Stacking), en cuyos
registros inicialmente se registraban 6 trazas por
PCP (cobertura o fold de 600%) y ahora se registran
usualmente 48 (4800%) en sísmica tridimensional y
96 (9600%) en sísmica bidimensional. La tecnología
ha hecho enormes avances y actualmente suele
hacerse un procesado rápido de campo para control
de calidad, pero el procesamiento fino se hace en un
centro informático donde los analistas requieren de
uno o varios meses para obtener un resultado
confiable.
CONCEPTOS BÁSICOS
Un frente de onda sísmico producido por una fuente impulsiva es inicialmente un pulso de gran amplitud que
contiene un gran espectro de frecuencias en ese pico instantáneo (spike). Matemáticamente puede describirse
mediante la función Delta de Dirac (descubierta por el inglés Paul Dirac, hacia 1930). Se puede imaginar la
función δ(x) como una función que tiene un valor infinito en x = 0 y tiene un valor nulo en cualquier otro punto,
de tal modo que su integral es uno, es decir:

Luego del disparo, a medida que el frente de onda


avanza, va disminuyendo su amplitud -y perdiendo
altas frecuencias- y se va estirando según la forma de
una ondícula de fase mínima, con un valle y pico
principales y eventualmente otro valle y pico más
pequeños, como se ilustra a la derecha. (El caso de la
ondícula de vibrador -fase cero- lo veremos luego.)

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda vemos algunas


formas de onda típicas que
podemos registrar, todas ellas
resultantes de la mutación de la
delta de Dirac.
Ahora bien, cada traza sísmica
es esencialmente una serie de
valores de amplitud a lo largo
del tiempo (de ida y vuelta
sísmico). Representa el resultado
del arribo de señales, esto es,
sucesivas respuestas reflectivas
provenientes de interfaces de
muy variada magnitud (desde
límites formacionales hasta
laminación sedimentaria, tanto mayor su amplitud cuanto mayor sea el contraste de impedancias acústicas) que
se interfieren entre sí y a la vez son interferidas por diversos tipos de ruidos, sean éstos superficiales o
profundos.
Las señales sísmicas son el resultado de la convolución del frente de onda generado en la fuente con los
sucesivos coeficientes de reflexión correspondientes a interfaces en el subsuelo. Puede pensarse la convolución
como el proceso mediante el cual la forma de onda (ondícula) se modifica al reflejarse, modificación que es
proporcional a la magnitud y signo del coeficiente de reflexión. Como vimos en el Tema 14, la ondícula se
invierte cuando hay inversión de velocidad, es decir, coeficiente de reflexión negativo. Además la amplitud
reflejada es directamente proporcional al módulo de dicho coeficiente. De modo que, como resultado de la
convolución, la señal que llega trae en su impronta la información de los contrastes de impedancia acústica del
subsuelo. Matemáticamente, una convolución es un operador (simbolizado ∗) que transforma dos funciones F y
G (en nuestro caso, respectivamente, la ondícula y la serie de coeficientes de reflexión) en una tercera función S
(la señal registrada) que en cierto sentido representa la magnitud en la que se superponen F y una versión
trasladada e invertida de G. La expresión formal se lee en la figura adjunta e indica que la convolución es la
integral de una serie de productos donde la función G(t) se va desplazando temporalmente respecto a la función
F(t) para, a través de todo el proceso de convolución, dar finalmente la función S(t). Debe, sin embargo,
recordarse que el patrón de interferencia resultante en la traza en este caso idealizado sólo resulta de los
coeficientes de reflexión, mientras que en la vida real la preparación resultante de esta receta resulta
abundantemente condimentada con variopintos ruidos superficiales y profundos.

Pero, además de la interferencias que producen los ruidos y la propia señal en sí misma, el registro
convolucional de las reflexiones -dado por una traza- siempre es significativamente afectado por pérdidas de
amplitud y de frecuencia.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

La siguiente figura a la izquierda muestra los principales factores que afectan la amplitud de las ondas
sísmicas en su tránsito por el subsuelo, en general ya mencionados en el Tema 12.

La figura de arriba a la derecha ilustra la comentada atenuación de las frecuencias sísmicas, tanto mayor
cuanto más altos son sus valores y cuanto más distancia ha debido viajar la onda por el subsuelo.
Hemos visto ya en el Tema 14 los principales ruidos superficiales. Vemos ahora un esquema de los principales
ruidos de origen profundo.
La mayoría consisten en
reflexiones múltiples, es decir
eventos entretenidos por ciertas
interfaces del subsuelo, que por lo
tanto llegan más tarde a los
receptores, superponiéndose en
los registros de campo con señales
procedentes de lugares más
profundos, como se ve abajo.

Una vez obtenidos los registros de campo, como el ilustrado en la primera página, con señales y ruidos, sigue la
tarea de procesarlos digitalmente, mediante programas específicos en computadoras con capacidad suficiente.
Un instrumento matemático fundamental para este fin es la Transformada de Fourier (publicada por el
francés Joseph Fourier en 1822) que en sísmica permite pasar del dominio del tiempo (la traza, o sea una serie
de valores de amplitud a lo largo del tiempo) al dominio de la frecuencia (el espectro de frecuencia donde
vemos en ordenadas las amplitudes de señal y ruido indiscriminadamente, correspondientes a cada frecuencia
registrada con su escala desplegada en abscisas). La transformación se realiza aproximando la forma de la traza
con una integración de una serie de funciones armónicas (seno, coseno) o Serie de Fourier, de amplitudes
variables, para poder entonces pasar al cálculo y representación del espectro de frecuencia (expresable también
como una integración, pero ahora de diferenciales de frecuencia).

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Arriba puede verse simplificadamente


cómo un fragmento de traza sísmica
-en el dominio del tiempo, s(t)- puede
ser pensado como la suma de
funciones armónicas (en este caso sólo
tres, en casos reales muchísimas)
mediante la aplicación de una Serie
de Fourier y puede verse como,
Transformada mediante, puede ser
luego representada en el dominio de la
frecuencia -S(f)- según un espectro de
amplitudes versus frecuencias.
También se leen las expresiones
matemáticas correspondientes y se
visualiza un ejemplo de traza sísmica
típica en función de sus tiempos de
arribo y de sus frecuencias integrantes.
La figura de la izquierda muestra la
representación en uno y otro dominio
de una frecuencia simple, un impulso
unitario (fuente), un ruido blanco
(llamado así porque contiene todas las
frecuencias), un ruido blanco sísmico
ideal (con todas las frecuencias en
amplitud pareja dentro del rango
sísmico) y una traza sísmica
(conteniendo señal y ruido).
Más a la izquierda caso real de traza
(en amarillo) y las armónicas que se
obtienen en su descomposición.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

SECUENCIA DE PROCESAMIENTO
En la siguiente lista se indican: con una I los pasos imprescindibles del proceso, con una C los muy
comúnmente realizados, aunque no sean imprescindibles, y con una O los ocasionales, a los que se recurre para
objetivos específicos, no rutinarios. El orden en que aquí se citan es el
más usual, pero algunos pasos no imprescindibles pueden hacerse en
un orden distinto.
I) Demultiplexeo (reordenamiento de la información)
-- los registros de campo son grabados en formato SEG B
I) Recuperación de Ganancias (por divergencia esférica, etc)
I) Correlación cruzada (sólo en datos de vibro)
C) Edición de Trazas (eliminación de trazas ruidosas o muertas)
I) Correcciones Estáticas (efectos de topografía y capa meteorizada o Weathering)
C) Deconvolución Aguda (Spike, tiende a agudizar las formas de onda)
I) Agrupamiento por Familias de Trazas de PCP (CDP Gathers)
I) Corrección Dinámica o por Retardo Normal (Normal Move Out), que incluye el Análisis de Velocidad.
I) Apilamiento o Suma (Stack), eventualmente antecedido por el Enmudecimiento frontal (Mute)
-- en esta etapa ya se tiene una sección sísmica, en formato SEG Y
C) Filtrados Varios (de frecuencias, de velocidades, etc)
C) Migración (corrección de las deformaciones por buzamientos y eliminación de difracciones)
O) Migración antes de apilamiento (Pre-Stack)
O) Retardo Buzante (Dip Move Out) en lugar de NMO antes de apilamiento
O) Deconvolución Predictiva (para eliminar reflexiones múltiples)
O) Estáticas Residuales (para ajuste fino de estáticas)
O) Realce de Frecuencias (para conseguir una mayor resolución sísmica)
O) Corrimiento de Fase (generalmente a fase cero para una mejor interpretación)
O) Verdadera Amplitud (para optimizar las relaciones de amplitud entre distintos eventos)
O) Conversión a profundidad (se pasa de escala vertical en tiempo a profundidad)
I)Demultiplexeo: Reordenamiento
secuencial de los datos de campo
(figura a la derecha), convirtiendo
el formato provisorio inicial
(secuenciando el número de
canales o trazas de cada muestra
sucesiva) en formato de matriz
traspuesta (secuenciando el
número de muestras de cada traza
sucesiva). Consiste en modificar
la secuencia de valores de
amplitud muestreados a fin de
facilitar la visualización de los
registros de campo y el
subsiguiente procesado de los
datos. Es un proceso realizado
automáticamente apenas después
de grabar tras cada disparo. Los
registros quedan así en el llamado
formato SEG B.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

I) Recuperación de ganancias o amplitudes: proceso de corrección por el efecto de la pérdida de amplitudes


debido a la divergencia cuasiesférica del frente de ondas y las pérdidas por el comportamiento parcialmente
inelástico del subsuelo (atenuación), el desperdigamiento (scattering) y la partición de la energía. Se hace un
análisis iterativo para obtener la curva de
ganancia óptima que mediante una curva
logarítmica creciente recupera la pérdida
total expresada con una curva exponencial
decreciente, como se ilustra a la derecha.
Una alternativa más lenta, y por lo tanto
costosa, es hacer un proceso de recuperación
de Verdadera Amplitud, que en rigor no lo
es, ya que verdadera amplitud es la que se ha
registrado de campo, con primeros arribos de
gran amplitud y arribos posteriores
decreciendo exponencialmente. Llamamos
Verdadera Amplitud a la que se hubiese
obtenido si la divergencia esférica y demás
fenómenos de pérdida de energía no hubieran
sucedido. Y esto se hace mediante cálculos
de áreas relativas involucradas en el viaje del
frente de onda según sea la profundidad y
distancia fuente-receptor de los eventos
registrados. Sólo se realiza cuando otros
procesos o análisis posteriores lo ameritan:
inversión de trazas, método AVO, estudios
sismoestratigráficos u otros.
I) Correlación cruzada de vibros: se hace la comparación entre el barrido (sweep) de campo (grabado en la
cinta) y cada una de las trazas del registro. Es un conjunto de multiplicaciones entre traza y barrido (desplazado
en el tiempo muestra a muestra) que finalmente se integra, como se expresa matemáticamente en el recuadro.

La operación de correlación cruzada se aplica a los valores digitales de la traza registrada. El tiempo total de
registro de campo es la suma de los ocho o doce segundos del barrido más los cuatro o cinco segundos de la
ventana temporal de interés. Como puede verse en la figura de la página anterior, cada trayectoria reflejada a
distinta profundidad, genera un arribo que se extiende por un intervalo de tiempo de varios segundos, dado que,

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

al tener un barrido de frecuencias transitando el subsuelo, en cada interfaz se van reflejando progresivamente
desde las bajas hasta las altas frecuencias del barrido. Consecuentemente llegan a una dada estación receptora
los barridos reflejados parcialmente superpuestos desde esas distintas interfaces localizadas a distintas
profundidades. La aplicación de la función de correlación cruzada permite ordenar matemáticamente la
información de modo que todas las frecuencias resulten aplicadas simultáneamente para cada evento reflejado
como si la fuente hubiese sido impulsiva. Pero con una diferencia en la traza o sismograma obtenido: la
ondícula generada no es de fase mínima -como en las fuentes impulsivas- sino de fase cero, resultante de la
autocorrelación del barrido (la correlación consigo mismo), concepto que fue definido hacia 1970 por el
estadounidense John Klauder.
C) Edición de Trazas: supresión de trazas ruidosas (por mal acople de los receptores, ruidos de motores, etc.) o
muertas (generalmente por problemas de cables), cuya participación en las siguientes etapas del proceso sería
nula o incluso negativa (en el Apilamiento).
I) Correcciones Estáticas: son correcciones en tiempo debido a la topografía (existencia de desniveles entre
fuente de energía y receptores) y a las variaciones de velocidad y espesor de la capa meteorizada (de baja
velocidad o weathering). Se establece un plano horizontal de referencia (datum) por debajo de ésta, que es el
nuevo cero de los tiempos, como se ilustra abajo. Al tiempo total se le restan los tiempos que tarda el frente de
onda en recorrer la capa meteorizada hacia abajo y hacia arriba. Se hace una corrección por emergencia y otra
por incidencia, única para cada estaca o estación, de modo tal que se aplica la estática calculada a cada una
de las trazas de un registro individual.
Otras veces se emplea un plano en el aire, por encima de la topografía, y matemáticamente se rellena ese
espacio con una velocidad semejante a la que se estimó para la primera capa de alta velocidad (la que infrayace
a la meteorizada: submeteorizada o subweathering). La velocidad de la capa meteorizada (del orden de 400 a
1200 m/s) suele variar lateralmente, mientras que la capa infrayacente (de unos 1700 a 2000 m/s) generalmente
varía menos. Los problemas que ocasiona dicha capa superficial se resumen en la figura de más abajo.
El espesor de la capa meteorizada se calcula por sísmica de refracción, con dromocronas horizontales (suele
aplicarse la técnica de Sumación, expuesta en el Tema 12) y/o dromocronas verticales (en
pozos o upholes). Estos últimos
son más costosos y por lo tanto
generalmente se hacen unos pocos
en puntos estratégicos para el
control fino de las dromocronas
horizontales. Si los registros de
sísmica de reflexión son lo
suficientemente detallados para
niveles someros, pueden usarse
para el cálculo de dromocronas
horizontales, evitándose la
adquisición de sísmica de
refracción, aunque esto raramente
sucede debido a su muy distinta
profundidad de interés y
consecuentemente su escasa
confiabilidad.
En el mar o lagos sólo debe
considerarse su variación de
profundidad, más el efecto de
marea. No existe bajo el agua una
capa de baja velocidad como en
tierra. La velocidad en el agua
promedia los 1500 m/s y la capa
de sedimentos de fondo,
embebidos en agua, tienen una
velocidad algo mayor.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

C) Deconvolución Aguda (Spike) o Filtrado Inverso: El concepto de deconvolución se refiere a las


operaciones matemáticas empleadas en restauración de señales para recuperar datos que han sido modificados
por un proceso físico llamado convolución. De modo que, conocidas la imagen convolucionada S (en nuestro
caso la traza) y la función portadora G (la ondícula), más un modelo físico del ruido ε, se obtendría la
distribución de información original F (los coeficientes de reflexión). Pero la resolución de esta ecuación es un
complejo filtrado inverso en la práctica, debido a una dificultosa estimación del ruido, para lo cual se emplean
elaborados algoritmos iterativos que sin embargo nunca logran un resultado cercano al ideal.
En concreto, lo que se tiende a hacer con la deconvolución aguda es minimizar el efecto de la convolución -o
sea, el efecto del informante-, pero no se puede suprimir del todo para llegar a la información pura. El ideal de
remover la forma de onda para obtener las series de coeficientes queda lejos de poder alcanzarse debido a la
presencia de diversos tipos de ruidos y su consecuente magnificación al intensificarse este proceso iterativo de
deconvolución. De todos modos este filtrado inverso permite concentrar o colapsar la energía de cada evento
reflejado, mejorando la resolución vertical, ya que con el estrechamiento de la ondícula se consigue agudizar la
respuesta de los eventos reflejados, tal como se grafica a continuación.

En la práctica el analista sísmico busca un razonable punto


medio entre la agudización de los reflectores y el aumento
del ruido. A la izquierda un caso real en el que se puede
apreciar que la sección sísmica final (resultante de aplicar
toda la secuencia de procesado, hasta el apilamiento o
suma inclusive) da como producto una sección con mejor
definición de reflectores pero también más ruidosa cuando
se ha aplicado la deconvolución aguda, una corrección
que, como se indicó, no es obligatoria aunque sí muy
frecuente.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

I) Agrupamiento por Familia de Trazas (Gathers): Las trazas de los distintos registros de campo (esquema en
amarillo) deben ser agrupadas en función del punto de rebote en el subsuelo, esto es, reunir las trazas
correspondientes a una misma serie vertical de Puntos Comunes Profundos (PCP o CDP) aunque pertenezcan a
distintos puntos de emisión y recepción, como se ve en el esquema de la parte derecha.
Cada familia de trazas presenta un aspecto
hiperbólico, análogo al de los registros de campo,
dado por el creciente distanciamiento (x) que se
refleja en los tiempos de tránsito (T), crecientes a
medida crecen en el subsuelo las trayectorias de
viaje y su oblicuidad.

I) Correcciones Dinámicas o por Retardo Normal (Normal Move Out, NMO): necesarias para
horizontalizar las hipérbolas y dejar en fase los picos y valles correlacionables entre las distintas trazas de cada
familia de punto común profundo.
Hay que llevar todos los registros
a tiempos de ida y vuelta (TWT)
correspondientes a x = 0 (To) y
para eso se deben calcular las
diferencias de tiempo (∆T) entre
cada trayectoria oblicua y la
normal a la capa, lo que
constituye la corrección por
Retardo Normal (NMO), tal como
se expresa matemáticamente en el
gráfico adjunto.
Para diferentes tiempos, la
velocidad que nos anula el retardo
es diferente. Para cada tiempo se
aplica una velocidad media Vm tal
que el cálculo anule el retardo.
Son velocidades crecientes a
mayor tiempo y configuran la
llamada Ley de Velocidad de
Apilamiento (stacking) que logra
optimizar a la familia o gather y atenúa las reflexiones múltiples, dado que estas últimas provienen de una
profundidad menor a la de las reflexiones simples (igualmente llamadas primarias, sean de onda P o S, aunque
casi siempre se trabaja con las primeras). Es decir, al provenir las múltiples de una profundidad menor, tienen
una velocidad media VmM de corrección menor -y por lo tanto una curvatura hiperbólica mayor- a la VmS,
que es la velocidad media que corrige a las reflexiones simples con las cuales tienden a superponerse.
Existe, por lo tanto, una diferencia de tiempo ∆T entre uno y otro alineamiento hipérbólico, tal como puede

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

verse en la figura adjunta.


El ∆T de corrección dinámica apropiado para la
reflexión simple resulta entonces insuficiente
para la múltiple y, consecuentemente, sus
eventos siguen quedando un poco desfasados,
con un retardo o move out residual, como se
aprecia en la figura inmediata inferior.

Asimismo, puede verse que un ruido superficial,


de alineamiento recto como la onda de Rayleigh
(ground roll), también queda desfasado tras la
corrección por retardo normal

Entonces, las velocidades medias que nos anulan el retardo (crecientes con el tiempo) permiten obtener la Ley
de Velocidad que mejor corrige dinámicamente los datos, algo que en la práctica resulta de un Análisis de
Velocidades interactivo, de prueba y error, que generalmente no difiere más del 5% de la que se podría obtener
con precisos datos de sísmica de pozo.
Con esa ley podemos luego calcular los espesores (Z) de cada capa, así como sus velocidades interválicas. Para
ello debe saberse que las velocidades medias reales -que se han intentado aproximar con el Análisis de
Velocidades de Apilamiento- no resultan adecuadamente aproximadas por medias aritméticas, sino por las
raíces de las medias cuadráticas (Vrmc, o Vrms en inglés), dado que las trayectorias de rayos no son totalmente
verticales -en cuyo caso sí una media aritmética funcionaría-. Aquí sus expresiones analíticas:

Desde las sucesivas Vrmc estimadas interactivamente podemos obtener la sucesión de velocidades interválicas
Vi, eventualmente con intervalos de variable espesor en el subsuelo. (A cada espesor le corresponde un cierto
intervalo de tiempo de ida y vuelta vertical, llamado ∆T, que no debe confundirse con los ∆t vistos para la
corrección de retardo normal.

I) Apilamiento (Stacking): Es la culminación de la corrección dinámica, tal como se ve en la figura superior


derecha. Al haber conseguido dejar en fase las reflexiones simples o primarias y desfasados los ruidos
superficiales -que hubieran sobrevivido a las estrategias de adquisición- y también desfasados los ruidos
profundos (esencialmente ondas múltiples varias) al sumar o apilar lo que se está haciendo es atenuar ruidos y
resaltar la señal, es decir, obtener una traza suma que consigue mejorar la relación Señal/Ruido, la esencia del
método de stacking o apilamiento.
Las reflexiones múltiples se suelen atenuar a 1/3 ó 1/4 de la amplitud de la reflexión simple, aunque en ciertos

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

casos en que las velocidades de eventos simples y


múltiples se asemejan, estos últimos pueden llegar a
sobrevivir al apilamiento y podría entonces propender a
confusiones en la interpretación. De ser así, existe una
alternativa posterior en la secuencia de procesamiento
sísmico para lograr su eliminación, la Deconvolución
Predictiva, que luego citaremos.
Existe una operación complementaria previa al
Apilamiento, llamada Enmudecimiento Frontal
(Mute), empleado para eliminar la porción más somera
de las trazas con mayor apartamiento de una Familia,
con una función de corte gradual en rampa. En esos
tiempos superficiales de trazas lejanas a la fuente,
multiplicamos sus amplitudes por cero, evitando así
apilar porciones de trazas con baja frecuencia que
contribuirían negativamente a la suma, como se ilustra a
la derecha.
En esta etapa del procesamiento sísmico de reflexión ya se tiene una sección sísmica -o un cubo- interpretable,
en un formato digital denominado SEG Y. (Este y otros formatos sísmicos fueron desarrollados en la Society of
Exploration Geophysicists de los Estados Unidos.) Una sección o cubo sísmico está constituido de trazas-
suma, cada una de las cuales es una serie temporal (To) de valores de amplitud, muestreados cada 4 ó 2 ms.
C) Filtrados: Los ruidos se pueden separar de la señal haciendo uso de filtros de frecuencias, de velocidades,
de coherencia u otros. Siempre debe evitarse perder parte de la señal (o al menos minimizar la pérdida) en el
afán de suprimir ruidos que, en caso de no ser eliminados, podrían dar imágenes sísmicas procesadas de
confusa interpretación.
Filtrado de Frecuencias: este tipo de filtro permite eliminar aquellos ruidos cuyas frecuencias difieren de las
que contiene la señal sísmica. Se aplica en forma de trapecio con dos rampas como corta-bajos y corta-altos
para suprimir bajas y altas frecuencias temporales respectivamente. En los extremos izquierdo y derecho del
espectro (en el dominio transformado de Fourier) las frecuencias son suprimidas totalmente, mientras que en la
zona central son preservadas totalmente y en las rampas se las va cortando gradualmente desde cero a cien por
ciento, lo cual se hace así para evitar la aparición del Fenómeno de Gibbs (descripto en 1899 por el
estadounidense J. Willard Gibbs, uno de los pioneros de la termodinámica) que generaría un corte abrupto tipo
cajón, esto es, ruido por el problema de sobrepaso residual de las formas de onda de las series de Fourier.

En la figura inmediata superior se ven los espectros de


frecuencias de la contribución teórica de la señal y del ruido,
el espectro conjunto, que es el realmente registrado, y la
forma del filtro trapezoidal, con rampas que en este ejemplo
se ubican entre 8/14 y 60/80 Hz.
A la derecha algunas magnitudes medidas usualmente
durante la adquisición y el procesamiento de la sísmica de
reflexión. La palabra octava es lo que en música se
denomina nota. (Los tonos musicales son armónicos de una
nota, o sea sus múltiplos de frecuencia.)

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

A la derecha un ejemplo real de aplicación


de un Filtro Pasabanda sobre una sección
sísmica vieja, de escaso recubrimiento
(1200%), cuya regular calidad mejora
cuando se reduce la entrada de altas
frecuencias, que evidentemente están
mayormente constituidas por ruido.
Filtrado de velocidades: se basan en
representar la información sísmica en
gráficas F/K (frecuencia / número de onda),
lo que se realiza a través de la aplicación de
una doble transformada de Fourier: primero
de la traza (amplitud/tiempo) al espectro de
frecuencias (amplitud/frecuencia) y luego a
la gráfica F/K. Entonces pueden eliminarse
ruidos que aparecen como eventos lineales
de velocidades distintas a la de la señal.
Hecho lo cual, se realiza el camino
matemático inverso para volver a la traza
sísmica.
En la figura a la derecha puede apreciarse el
sector de aplicación del filtro de velocidades
junto con los sectores del filtro de
frecuencias y del filtrado que ejerce el
arreglo de recepción en el campo. Los
valores negativos en abscisas se refieren a
frentes de onda que han arribado con sentido
opuesto.
Filtrado de Coherencia: la supresión de
ruido se realiza en función de algoritmos de
coherencia o semblanza que se aplican a
partir de la comparación de trazas sucesivas,
de donde se deducen tendencias de
alineamientos de eventos, considerados
como ruidos presuntos que han de
suprimirse. Sin embargo, la aplicación de
este tipo de filtrado ha de ser cuidadosa, ya
que se corre el riesgo de eliminar también
parte de la señal.
C) Migración: Es la etapa del
procesado de la sección sísmica que
permite llevar cada PCP a su
verdadera posición respecto de los
puntos de emisión y recepción, algo
que no es necesario hacer cuando
las interfaces del subsuelo son
horizontales, pero que se torna tanto
más importante cuanto mayores son
los buzamientos, tal como se ilustra
a la derecha. Esto es crítico en la
localización de un pozo.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Es por eso que resulta importante migrar, sobre todo cuando hay altos buzamientos y, en verdad, desde hace dos
décadas, con la reducción de costos que
trajeron los progresos informáticos, la
migración ha pasado a ser una etapa rutinaria
del procesamiento sísmico.
Al migrar se deben determinar los ∆x y ∆y
para cada PCP que no esté sobre un plano
horizontal. Una forma manual de realizarla,
que se empleó en viejas épocas, es la que se
ilustra a la derecha, útil a los fines de
entender geométricamente de qué se trata.
La figura de abajo ilustra un caso extremo,
que sin embargo es frecuente en áreas
plegadas, donde una interfaz geológica de un
sinclinal puede generar tres reflectores
sísmicos, dos en X y uno en forma de
anticlinal profundo (efecto de foco
enterrado), con las nefastas consecuencias
intepretativas que esto podría acarrear. Un
ejemplo real puede verse hacia la derecha,
donde la sección sísmica migrada logra
reconstruir apropiadamente la configuración
estructural que estaba muy distorsionada en
la versión no migrada.

Otra forma de entender lo que hace el proceso de migración es ver cómo éste opera sobre las ficticias hipérbolas
de difracción que están siempre presentes en toda sección sísmica no migrada. La primera figura de la página
siguiente muestra cómo son asignados los puntos de tales curvas de difracción, a partir de puntos de emisión
desde cada uno de los cuales sale un rayo que llega a un punto difractor, que a su vez genera rayos en todas
direcciones que van a parar a todos los puntos receptores. Esas localizaciones erróneas, en los puntos medios
entre emisión y recepción, son la consecuencia de asumir capas horizontales y ausencia de puntos difractores.
Entonces la migración lo que hace es mover cada uno de esos puntos, llevándolos al lugar desde donde en
realidad proviene tal energía. De hecho, una forma manual de migrar es trabajar de este modo con los eventos

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

difractados que se observan sobre la sección sísmica no migrada, tal como se ilustra.

Con sísmica 2D suele haber cierta incertidumbre


en los parámetros de migración debido al
desconocimiento de las componentes de
buzamiento laterales a la línea de adquisición
sísmica, por lo que las imágenes sísmicas finales
pueden resultar desenfocadas. Esto es algo que no
ocurre con sísmica 3D al disponerse de una
visualización completa del espacio circundante, tal
como se ilustra en las secciones a la derecha que
son modelos sintéticos que reproducen el resultado
que daría la estructura que se esquematiza abajo.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Ya sea para sísmica bi o tridimensional, hay varios métodos de migración, de los cuales los más conocidos son:
Métodos Manuales:
a) en tiempo, por Envolventes o bien por Difracciones (el que más se usó en los primeros tiempos del método
de Stacking, como hemos ilustrado)
b) en profundidad por Envolventes o bien por Rayos Sìsmicos.
Métodos Automáticos:
a) en tiempo,
- por el método de difracción o integral de Kirchhoff (una aproximación de índole estadística),
- mediante integración de diferencias finitas por ecuación de onda (de tipo determinístico, por continuación
descendente), más preciso pero más lento que el anterior,
- en el dominio de las frecuencias por doble transformada de Fourier (también determinístico y por ecuación de
onda), con mejores resultados que los anteriores en altos buzamientos,
b) en profundidad,
- por trazado de rayos, más costoso pero con buena resolución de cambios laterales de velocidad.
O) Migración antes de suma (pre-stack): Es una variante
sólo utilizada en situaciones tectónicas complejas dado su
costo, debido a que el proceso de migración se aplica a
cada una de las trazas que van a formar la familia de PCP,
en lugar de hacerse sobre la traza suma o apilada. El
método aplicado en migración pre-stack puede ser
cualquiera de los mismos arriba citados para migración
convencional después de suma o post-stack. Al hacer la
migración sobre cada traza individual de la familia, se
consigue una mejor traza-suma y en definitiva un mejor
resultado en la sección a interpretar. El fundamento de esta
ventaja puede visualizarse en el gráfico de abajo, donde se
observa cómo los rebotes de las distintas trayectorias
fuente-receptor que han de conformar la familia de trazas
de PCP en rigor no provienen de un único punto sobre el
horizonte reflector si éste inclina. Es decir, si se apila antes
de migrar, se está apilando eventos que no coinciden bien
y por lo tanto la traza apilada no es tan buena y la posterior
migración tampoco lo será. En cambio, si primero se
migra, el posterior apilamiento resultará mejor.

Arriba puede verse un ejemplo extremo de cuánto


puede llegar a cambiar una imagen procesada de
sísmica de reflexión (en este caso 3D en el Golfo
de México) si se aplica migración antes de suma.
Otras veces la diferencia con la migración después
de suma no es tan evidente, pero siempre la hay.

15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

O) Correcciones Dinámicas o por Retardo Buzante (Dip Move Out, DMO): Consiste en calcular el Retardo
Buzante (DMO) en lugar del Retardo Normal (NMO), por convolución aplicada a familias adyacentes de Punto
Común Profundo, lo que consigue un corrimiento más correcto de los ∆t entre las trazas de cada familia al
estimar un posicionamiento más correcto en el subsuelo, contemplando el buzamiento del horizonte reflector,
cosa que no hace la corrección por Retardo Normal.
Puede recurrirse al DMO como una opción más económica a la migración, aunque menos efectiva.
Otras veces se lo aplica como complemento previo a la migración antes de suma, a fin de optimizarla.
O) Deconvolución Predictiva: Proceso utilizado para predecir la presencia de reflexiones múltiples y
eliminarlas cuando éstas hubieran sobrevivido al Apilamiento. El algoritmo tiene la forma de una
deconvolución que busca la repetición de formas reflectoras a tiempos múltiplos enteros del más somero, que se
considera el de la reflexión simple.
A la derecha, el esquema operativo de la corrección
aplicada y, abajo, un ejemplo clásico de múltiples en el
espesor de agua de un mar o lago, conocido como
reverberación o ringing. Su presencia en la sección
sísmica podría causar errores de interpretación. La
deconvolución predictiva las suprime.

O) Correcciones Estáticas Residuales: Opción de


ajuste fino de las correcciones estáticas, si éstas no
hubieran sido muy buenas por las carencias en los
datos de las estáticas de campo.
Es un proceso que se hace por comparación de trazas
aledañas, donde el algoritmo busca eventuales saltos
de tiempo constante a lo largo de toda una traza
respecto a sus vecinas y, de haberlo, los corrige. En la
aplicación de esta opción cosmética debe cuidarse de
lograr la mejora en la consistencia en el colgado de los
tiempos de las trazas sin atenuar los rasgos
estratigráficos o estructurales del área registrada.
A la izquierda un ejemplo de este proceso correctivo
opcional.

16
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

O) Realce de Frecuencias: Es otra opción para


mejorar el aspecto de la sísmica, en este caso buscando
obtener una mejor resolución de los eventos. Para ello
se emplean algoritmos que permiten recuperar altas
frecuencias casi perdidas ya desde el registro de
campo, lo cual tiene el alto riesgo de intercalar falsos
horizontes si el proceso se aplica en exceso.
La figura de la derecha es un ejemplo de esta
aplicación.
O) Corrimiento de Fase: Otra opción cosmética, para
correr la fase de las trazas sísmicas, de fase mínima a
fase cero -lo más habitual- o bien a la inversa. El
primer caso suele hacer más fácilmente interpretables
las secciones sísmicas. Al revés, sólo se hace si una
sísmica de vibro debe ser comparada con sísmica
aledaña que está registrada con una fuente impulsiva.
Abajo vemos un modelo sintético del efecto que
produce el corrimiento de fase.

O) Recuperación de Verdaderas Amplitudes: Es un


proceso aplicado sólo en casos particulares -figura a la
derecha- en los que el objetivo no es la mejor
visualización, sino la aplicación posterior de otros
procesos especiales, tales como la Inversión de Traza o
el método AVO, que se explican en el Tema 18.
Debe tenerse presente que las verdaderas amplitudes
son en verdad aquellas que se han registrado, afectadas
por divergencia esférica y un sinnúmero de etcéteras.
Lo que acá definimos como verdadera amplitud es una
amplitud lo más parecida posible a la que se hubiese registrado si divergencia esférica y etcéteras no
ocurriesen. Para hacerlo el método consiste en optimizar la recuperación de ganancias con este criterio que es
más analítico que visual y que requiere de mucho más tiempo de trabajo en el centro de cómputos.
O) Conversión a Profundidad: Existen varios métodos para pasar la escala vertical de la sísmica de reflexión
de tiempos de ida y vuelta verticalizados a profundidades. Puede hacerse con datos de leyes de velocidad
obtenidos en pozos (cuántos más en el área de trabajo, mejor) o bien con datos obtenidos desde el
procesamiento. En este último caso lo más efectivo es hacerlo migrando los datos en profundidad.

17
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Si el proceso está poco controlado es preferible manejarse con la sísmica en tiempo y calcular las profundidades
en los puntos de interés prospectivo. Un exceso de confianza en una sísmica con escala vertical métrica podría
derivar en interpretaciones y prospectos de profundidad errónea.
El ejemplo siguiente, en el Flanco Norte de la Cuenca Golfo San Jorge, obtenido por migración por trazado de
rayos en profundidad antes de suma, muestra cómo se altera la escala vertical en términos relativos. Las
secuencias más altas, del Terciario, se ven más delgadas en la escala Z, mientras que lo contrario ocurre con las
secuencias profundas de la Fm Pozo D-129, rocas madres del Cretácico, más delgadas en escala de To. Se debe
recordar que las velocidades sísmicas crecen con la profundidad.

18
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 15
Procesamiento Sísmico de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Los cubos sísmicos -en rigor volúmenes de variadas formas- pueden registrarse en forma aledaña y luego
procederse a la Fusión (Merge) de los mismos, así como a la vinculación de sísmica 3D con 2D preexistente,
parcialmente superpuesta, mediante el reproceso de esta última, más antigua, con los parámetros de la 3D.
Una vez finalizado el procesamiento de la sísmica de reflexión, las secciones individuales o bien los volúmenes,
resultantes de un proyecto, ingresan a la fase de Interpretación en términos geológicos, petroleros o de otras
aplicaciones diversas.

CUESTIONARIO BÁSICO:

- ¿Qué cosas le sucede a la onda sísmica durante su viaje por el subsuelo?


- ¿Cuál es el objetivo del procesado sísmico de reflexión?
- Esquematizar los pasos esenciales del procesamiento de la sísmica de reflexión y explicar cuál es el objetivo
de cada uno de dichos pasos.
- Mencionar las etapas no imprescindibles pero muy comunes del procesado.
- Explicar la metodología vista en clase para corrección estática.
- ¿Qué ventajas da el uso de la transformada de Fourier?
- ¿Cuál es el significado de la convolución y cuál el de la deconvolución en el procesado sísmico?
- ¿Qué utilidad tiene el proceso de migración y en qué consiste hacerlo antes de suma?
- Citar etapas ocasionales del proceso y su eventual utilidad.

BIBLIOGRAFÍA

- Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales.
- Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.235-305). Librería de Ciencia e Industria.
- Fowler, C., 1990. The Solid Earth (p.133-147). Cambridge University Press.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

19
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

PROSPECCIÓN
ACÚSTICA
Y
SÍSMICA
DE
POZO

La acústica (del griego ἀκουστικός, auditivo) es la ciencia del sonido (del latín, sonitus).
Los griegos Pitágoras en 550 a.C. y Aristóteles en 350 a.C. hicieron los primeros estudios sobre la naturaleza
del sonido. Posteriormente, en el año 20 a.C., el arquitecto romano Vitruvio realizó algunas observaciones
sobre fenómenos acústicos y aventuró hipótesis ingeniosas en relación con la reverberación y la interferencia.
Muchos siglos después, en 1636, el matemático francés Marin Mersenne realizó medidas cuantitativas en
relación con el sonido al hallar el tiempo de retorno de un eco y calcular con sólo un 10% de error el valor de la
velocidad del sonido, así como la frecuencia de vibración de distintas cuerdas en relación con sus notas y tonos.
Años después, en 1660, el irlandés Robert Boyle demostró que el sonido no se propaga en el vacío. Y el inglés
Isaac Newton fue 1687 el primero en publicar un tratamiento matemático de los fenómenos acústicos, y
durante el siglo XVIII los matemáticos franceses Jean d'Alembert y Joseph Lagrange así como los suizos
Johann Bernoulli y Leonhard Euler contribuyeron al conocimiento del sonido, cuyo tratamiento matemático
completo requiere del análisis armónico, desarrollado por el matemático francés Joseph Fourier en 1822 y
aplicado luego en física por el alemán Georg Ohm hacia 1830. Posteriormente, en 1878, el inglés John Strutt
(Lord Rayleigh) publicó “The Theory of Sound” con nuevas aportaciones al tema.
Ondas sísmicas y ondas sonoras o acústicas difieren sólo en el rango de frecuencias involucradas: usualmente
no mucho más de 100 Hz para las primeras y hasta 20 000 ó 30 000 Hz para las segundas (con más de 20 000 Hz
. . .

caen fuera del espectro audible humano y son denominadas ultrasonidos, y debajo de 15 ciclos/s, subsonidos).

Sonar Lateral y de Substrato


Fue Leonardo Da Vinci en 1490 el primero en emplear las ondas de sonido en el agua para, a través de un tubo
sumergido, detectar la cercanía de barcos. Siglos después, tras el desastre del Titanic (1912), Lewis Richardson
patentó en Inglaterra el primer ecolocalizador subácueo y fue el canadiense Reginald Fessenden, mediante un
oscilador de 500 hz, quien primero utilizó esta técnica para localizar témpanos, en 1913. Este desarrollo fue
mejorado en varios países durante la Primera Gran Guerra para detección y navegación submarina.
El sonar (acrónimo de SOund Navigation And Ranging) es una herramienta acústica (sónica) empleada en lagos
o mares para navegación, posicionamiento, comunicaciones y localización de cardúmenes. Emite ondas de
ultrasonido y registra su tiempo de reflexión (viaje de ida y vuelta) que en base a la velocidad de las ondas en el
agua (1500 m/s) permite el cálculo automático de distancias, tal como lo hacen ballenas y delfines.
En el ámbito de las geociencias y también en otras disciplinas se utiliza el sonar para la obtención de imágenes
acústicas en el fondo de cuerpos de agua. Se basa en la emisión de ondas de sonido y la recepción de sus
reflexiones, las cuales tendrán una variación debida al tiempo de viaje (función de la distancia) y una variación
de amplitudes, según los coeficientes de reflexión de las superficies reflectantes.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Existen dos modalidades en uso:


El Sonar Lateral (Side-scan Sonar) utilizado comercialmente
desde la década de 1960, aunque había sido inventado hacia 1950
por el alemán Julius Hagemann (trabajando para la Marina
estadounidense). Este sistema obtiene dos imágenes, una a cada
lado del aparato emisor-receptor (el pescado o fish), las cuales
permiten graficar las características acústicas del fondo marino o
lacustre. Se emplean para geomorfología y sedimentología del
lecho, búsqueda de barcos hundidos, etc.
A la derecha esquema de adquisición de datos, imagen de un
cono volcánico y batimetría mapeada.. Abajo, imagen doble de
óndulas en un lecho arenoso, y una embarcación naufragada.

El Sonar de Substrato (Sub-bottom Sonar), de más reciente desarrollo, permite generar secciones acústicas
verticales, de forma análoga a como lo hace la sísmica 2D o asimismo el Georradar, en este caso de poca
profundidad bajo el lecho (raramente más de 100 metros) pero de gran resolución, es decir, mucho detalle, ya
que permite discriminar capas de hasta unos 10 cm de espesor mínimo. Estas secciones permiten hacer
estudios sedimentológicos o eventualmente
estratigráficos de detalle, como también
búsqueda de restos arqueológicos, etc.
Abajo el pescado registrador y a la derecha
una sección que muestra estratificación
delgada.

Perfiles Acústicos de Pozo


Una de las tareas fundamentales que realiza un intérprete sísmico es la de volcar la información obtenida de la
perforación de un pozo sobre la sección o volumen sísmico que pasa por donde el pozo fue perforado. Su
objetivo es obtener una relación clara entre los eventos sísmicos y geológicos. Esto le permite valerse de la
sísmica de reflexión –2D ó 3D, registrada desde la superficie– para extrapolar lateralmente la información del
pozo y elaborar mapas más confiables. Los perfiles sónicos (acústicos) y la sísmica de pozo son los métodos
para lograr este objetivo.

Mediciones Básicas con el Perfil Acústico o Sónico:


La medición básica registrada por el perfil acústico es el tiempo de tránsito (los microsegundos que tomó en
transitar la onda acústica un pie vertical de formación), que es una magnitud reciproca de la velocidad. La

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

siguiente formula puede usarse para convertir tiempo de transito acústico en velocidad: v = 3,048.105 / ∆t
(∆t es el tiempo de tránsito acústico en microsegundos/pie y v es la velocidad en m /segundo)
El tiempo de tránsito registrado por un perfil sónico en un pozo está normalmente dentro del rango de 50 a 200
microsegundos /pie. Esto corresponde a velocidades en el orden de 6000 a 1500 m/s.
Además de la curva del ∆t suelen indicarse los tiempos de tránsito integrados -es decir, la sumatoria por
tramos- con marcas cada diez milisegundos al borde de la pista del perfil acústico.
Una Ley de Velocidad de Pozo es una gráfica de profundidad (usualmente en ordenadas, con la boca de pozo
arriba) versus tiempos de viaje de las ondas acústicas o bien de las sísmicas (en abscisas, normalmente desde
izquierda a derecha). Es una información de uso cotidiano y, en su versión más económica, se la puede construir
a partir de los tiempos de tránsito integrados que da un perfil sónico. La utilización de sísmica de pozo es una
opción más cara, que veremos más adelante.
Sistemas de Perfilaje Acústico:
a) Receptor dual
Se trata de una herramienta que emplea un transmisor
monopolar (de onda P) y dos receptores. Este sistema
mide sólo el tiempo empleado en el intervalo D, como se A
ve en la figura a la derecha.
Esto se logra tratando a T-R1 y T-R2 como dos
mediciones separadas de receptor simple y calculando su B
diferencia. Para T-R2 el tiempo registrado es la suma de
los tiempos empleados para atravesar los intervalos A,
B, D, E. similarmente el tiempo registrado para T-R1
representa los intervalos A, B y C. Si los intervalos C y C D
E son iguales, la diferencia entre las dos mediciones es
D. El espaciamiento entre R1 y R2 es siempre igual a la
distancia representada por D, aun cuando sus posiciones E
relativas con respecto a D pueden variar ligeramente
debido a cambios en la refracción provocadas por
cambios de velocidad en la formación.
El único problema serio de un sistema de receptor dual es su comportamiento cuando los intervalos de tiempo
desde los dos receptores hasta la formación son desiguales. Esto puede ser a causa de la inclinación de la
herramienta dentro del sondeo o porque los transductores receptores pasan frente a una caverna.
En cualquiera de estos casos el sistema indicará un tiempo de viaje erróneo a través de la formación porque C es
significativamente diferente a E. En ausencia de estos fenómenos el sistema de receptor doble funciona bien y
da resultados válidos de tiempo de tránsito de la formación.

b) Sistemas compensados
Para superar las dificultades causadas por diferentes tiempos de tránsito en
el lodo hasta los dos receptores se ha desarrollado un sistema dual que A
efectivamente compensa esos errores, al promediar las lecturas en sentidos
opuestos.
El sistema usa transmisores y receptores dispuestos como se muestra aquí a B
la derecha. En este instrumento los transmisores superior e inferior (cada
C`
uno monopolar) simétricamente dispuestos disparan alternativamente. Los
dos receptores envían a la superficie dos tandas de datos para ser
promediados y de allí obtener el tiempo de tránsito en la formación. C
Cuando se encuentra un ensanchamiento o un adelgazamiento del pozo, o B`
cuando la herramienta de alguna manera se inclina en el pozo, se eliminan
los errores introducidos a causa de la diferencia de tiempo de transito en el
lodo de cada uno de los sistemas de transmisor simple-receptor dual. Una A`
inspección de A-A`, B-B` y C-C` muestra que los promedios de estas
diferencias son iguales.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Ejemplo Práctico
El perfil de abajo nos indica que para la profundidad X1 una señal acústica (similar a la de sísmica de
refracción-reflexión) tarda Y1 µs en recorrer 1 pie, y en la posición X2 tarda Y2 µs en recorrer 1 pie.
Si se desea averiguar cuánto tarda la señal en atravesar la profundidad X1 – X2 será:
T = [(Y2 + Y1) / 2] . (X2 – X1)
Donde (Y2 + Y1) / 2 es el promedio de las mediciones en el segmento X1 – X2
Para el tramo X3 – X2 será: T = [(Y3 + Y2) / 2] . (X3 – X2)
Y así sucesivamente para cada uno de los tramos en forma individual. Si quisiéramos saber el tiempo total que
tarda la señal acústica en ir de X1 a X3 sería: T X1-X2 + TX3-X2 = TX3-X1
(Y2+Y1)/2 . (X2-X1) + (Y3+Y2)/2 . (X3-X2) = T X3-X1
Σ (Y n +1 + Yn / 2) . (X n+1 – Xn) = T X3-X1
K ∆x T tot = K . ∆x
Ejemplo de integración del acústico:
PROF. (mbbp) ∆T(µ
µs/ft) ∆T medio ∆T(s/m) V(m/s) Prof-Tiempo(s)

200 100.50 100.6 0.000330052 3029.821074 0.0000503


200.1524 100.70 100.8 0.000330709 3023.809524 0.0001007
200.3048 100.90 100.8 0.000330709 3023.809524 0.0001511
200.4572 100.70 100.5 0.000329724 3032.835821 0.00020135
200.6096 100.30 100.1 0.000328412 3044.955045 0.0002514
200.762 99.90 100.3 0.000329068 3038.88335 0.00030155
200.9144 100.70 100.975 0.000331283 3018.568953 0.000352038
201.0668 101.25 101.525 0.000333087 3002.216203 0.0004028
201.2192 101.80 102.075 0.000334892 2986.039677 0.000453838
201.3716 102.35 102.625 0.000336696 2970.036541 0.00050515
201.524 102.90 102.9 0.000337598 2962.099125 0.0005566
A la derecha, tramo de perfil acústico, en el
Flanco Sur de la cuenca Golfo San Jorge.
El acústico, sirve para correlación entre pozos,
análogamente a otros perfiles.
Pero también es un perfil clásico de porosidad,
porque en rocas porosas, fisuradas o con
fluidos la velocidad es menor, al igual que
frente a lutitas con materia orgánica. En
cambio, resulta mayor en rocas más compactas,
muy cementadas o con fuerte diagénesis.
X1

X2

X3

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Perfil de Cemento:
Imagen sónica del caño que entuba el sondeo y de las rocas de la pared, con el objetivo de discernir la presencia
o eventual ausencia de cemento entre ambas. El fin es el de evaluar la efectividad de la operación de
cementación para posteriormente definir sobre bases firmes las capas a punzar para evaluar potenciales capas
productivas u otros trabajos de terminación. del pozo.
En la figura siguiente de la izquierda se ven imágenes típicas antes y después de la inyección de cemento, en
este segundo caso con una cementación muy pobre en el extremo derecho.

Imágenes Acústicas de pozo:


Se obtienen con una herramienta de perfilaje acústico múltiple. Se
registran numerosos perfiles sónicos (24 ó más) en todo el
perímetro del pozo a fin de mapear cilíndricamente la variación de
los tiempos de tránsito y de ahí las velocidades, e incluso las
impedancias acústicas, de las rocas de la pared de pozo en todo el tramo de interés. Son imágenes alternativas o
eventualmente complementarias de las obtenidas por el perfilaje de microrresistividad, vistas en el Tema 6,7,8b.
Arriba a la derecha un ejemplo, comparado con la fotografía de un testigo-corona.
Perfil Sónico Dipolar:
Es un registro acústico con
una herramienta de dos
polos: emisores vecinos que
generan ondas flexurales,
asimilables a las ondas S, de
modo que estas ondas pueden
registrarse bien (ya que
resultan pobres con fuentes
monopolares). Además se
registran las ondas P (de
fuente monopolar) y las
ondas de Stonley (o Tubo),
generadas a partir de las P en
el límite sólido-fluido, que al
atenuarse dan información
sobre fracturas atravesadas.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Tal como puede verse en la figura precedente, los tradicionales transmisores monopolares permiten generar en
las formaciones geológicas más compactas o rápidas los tres tipos de ondas que resultan de interés:
compresionales, transversales y Stonley (ondas Tubo, aquí referidas como Fluid waves). Pero en formaciones
lentas (poco consolidadas, porosas o muy fisuradas, en muchos casos reservorios) las ondas de corte reducen
notablemente su amplitud. Es por esto que se desarrolló la herramienta dipolar, que genera una onda flexural,
que se comporta como onda S pero tiene gran amplitud. La figura de abajo a la izquierda ilustra
esquemáticamente estos transmisores. Disponer simultáneamente de las velocidades de las ondas primarias y
secundarias permite hacer inferencias sobre los tipos de rocas y eventualmente la presencia de fluidos, dado que
se puede proceder al cálculo de los módulos elásticos:
Volumétrico: K = δ.Vp2 – 4/3 Vs2 Lamé: µ = δ.Vs2 Poisson: σ – (Vp/Vs)2 – 2 Young: E = 3Kµ / 3K+µ = 2µ (1 + σ)
2
2 (Vp/Vs) – 2

En la figura de la derecha podemos ver un registro de imágenes microrresistivas, junto con el calibre, el rayo
gamma y la información que brindan las ondas de Stonley, a fin de identificar la presencia de fracturas que
atraviesan el sondeo.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

También se ha diseñado una herramienta acústica dipolar doble (cross-dipole acoustic system), que posee dos
dipolos orientados perpendicularmente entre sí, lo que da la posibilidad de registrar las ondas S en dos acimutes,
tal como se esquematiza a la izquierda. Las ondas de corte viajan más rápido paralelamente a las fracturas y se
ralentizan cuando deben atravesarlas. A la derecha se puede apreciar su potencial empleo para averiguar la
orientación de las fracturas naturales, así como las hidráulicas y también el ovalamiento del pozo en función del
campo de esfuerzos presente en el subsuelo.

A la izquierda la
presentación de
un perfil acústico
dipolar a los fines
de la ingeniería de
la perforación, que
muestra en las
sucesivas pistas
los datos del
calibre del pozo,
módulos elásticos,
esfuerzos, caídas
de la presión,
densidad de lodo y
litología.

Sismograma Sintético
Como ya vimos en el Tema 15, cada sismograma registrado, conocido como traza sísmica S(t), resulta de la
convolución de los coeficientes de reflexión F(t) con la ondícula G(t):
S(t) = F (t) * G(t)
Donde t es el tiempo empleado por la onda sísmica para recorrer el camino desde la fuente hasta las sucesivas
interfaces reflectoras y desde ellas hasta los receptores.
Un sismograma o traza sintética consiste en la imitación informática de ese proceso real. Para ello se debe
disponer de la serie de coeficientes de reflexión, es decir de la sucesión de impedancias acústicas que permiten

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

calcularlos. Y éstas pueden obtenerse a partir de perfiles de pozo de velocidad (sónico o acústico) y densidad
(obtenido usualmente con una herramienta radiactiva o en casos específicos con gravímetro). En la práctica el
dato siempre imprescindible es la velocidad -principal factor de la impedancia-, mientras que puede prescindirse
del dato real de densidad en cuencas sin grandes contrastes litológicos, como es el caso de la cuenca Golfo San
Jorge. En este caso se podría asignar una densidad
(δδ) media constante o bien aproximar mediante la
fórmula de Gardner et al (1974): δ = a .V
b

(V es la velocidad de cada capa, a y b magnitudes


empíricas; por ejemplo, a=0,3 y b=1/4 en clásticas)
En cuencas como la Neuquina estas asunciones de
la densidad podrían llevar a grandes errores, ya
que se intercalan litologías muy diversas (clásticas,
carbonáticas, evaporitas, etc.) no siendo válida una
relación lineal entre densidad y velocidad.
En cualquier caso, habiendo calculado la serie de
coeficientes de reflexión, luego se procede a
convolucionar con una ondícula (ya sea analítica
o bien extraída de datos reales de sísmica de
superficie) y se obtiene una traza sísmica en la
posición del pozo, o sea que se aplica un proceso
que simula la generación de una traza en subsuelo,
como se ilustra a la izquierda.
Esta traza sintética -habitualmente repetida unas 5
a 9 veces a los fines visuales- se correlaciona
luego con la sísmica de superficie en el lugar del
pozo y así se pueden identificar los eventos
geológicos a través de los perfiles de pozo y
analizar su existencia en la sísmica.

De izquierda
a derecha:
perfil sónico,
serie de
coeficientes de
reflexión,
perfil de
resistividad,
ondícula
analítica,
sección sísmica
y sismograma
sintético
intercalado
(en rojo)

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Sísmica de Pozo
Nos vamos a referir ahora a los registros sísmicos reales en pozos. Un
sismograma sintético, como vimos, si bien útil, no es verdadera sísmica.
En sísmica de pozo generalmente la fuente se halla en superficie y un
receptor (geófono, foto a la izquierda) dentro del pozo se va ubicando a
profundidades previamente definidas desde el fondo hasta la superficie.

Prueba de Velocidad (Checkshot Survey):


Es el tipo de registro sísmico de pozo más antiguo y
básico. En él las posiciones o estaciones de anclaje de la
herramienta a distintas profundidades se definen
observando los cambios de tendencia del perfil acústico
previamente registrado en el mismo pozo, de forma tal
de dividir al sónico en zonas donde el carácter del perfil
es más o menos constante. En los raros casos en que el
perfil sónico no ha sido registrado, puede recurrirse a un
perfil de resistividades profundas, que suelen tener cierta
proporcionalidad general con los perfiles de velocidad.
Se hacen varios disparos de la fuente -o sea, varios
registros- por cada profundidad de anclaje de la
herramienta (que contiene al receptor) y luego se suman
las señales para aumentar la relación señal/ruido. Se
mide el tiempo de arribo de la onda directa a cada
profundidad y se obtiene así una ley tiempo/profundidad,
llamada Ley de Velocidad sísmica de pozo, tal como la
ilustrada a la derecha mediante la curva que nos da las
velocidades medias -calculables en cada punto en base a las escalas vertical y horizontal superior-. En este
gráfico también se representan las velocidades interválicas computadas, cuya escala está en la horizontal inferior.
Calibración del Perfil Sónico:
Un sismograma sintético procesado sin ajuste sísmico será mucho mejor que no tener ninguno, pero casi
siempre presentará efectos distorsivos por una o varias de las siguientes causas:
-Cambios laterales de velocidad en la inmediatez del pozo, los que darán unas lecturas para el perfil sónico
-el cual lee a menos de un metro desde la pared del pozo- que serán distintas que las de la sísmica de pozo -la
cual promedia valores a varios metros de distancia-. Debido a esto, la traza sintética puede aparecer acortada o
alargada en distintos tramos respecto a las trazas sísmicas de superficie del entorno del sondeo, dependiendo
tales diferencias de cuán importantes sean esas variaciones laterales y en qué sentido se produzcan.
-Condición del pozo, que hace que allí donde está más deteriorado (por la invasión del lodo, expansión de
arcillas, cavernas, etc) dará lecturas de velocidad más bajas para el perfil acústico que para la sísmica, dado que
esta última promedia a distancias mayores donde la alteración se torna insignificante. Por esta razón en los
tramos de pozo en peor condición las velocidades acústicas son más lentas que las sísmicas. Esto generalmente
se da en la parte más somera del sondeo, donde las rocas son menos competentes y la exposición a la
circulación de lodo ha sido más prolongada.
-Dispersión de ondas, es decir la dependencia de la velocidad registrada con la frecuencia de la fuente. Dado
que la herramienta acústica emite energía a 20000 ó 30000 Hz y la sísmica a no más de 100 ó 140 Hz, las
velocidades sísmicas resultan más lentas. Este fenómeno se da a lo largo de todo el pozo, pero se hace visible en
los sectores donde la condición de pozo es buena -dado que no es contrarrestado por el efecto anteriormente
explicado-, normalmente la parte más profunda del sondeo.
La calibración del perfil sónico se logra ajustándolo con el registro de tiempo de primer arribo de la onda
sísmica (onda directa) de la Prueba de Velocidad. El método clásico de calibración consiste en aplicarle al
acústico las correcciones indicadas por una curva de deriva (o drift) obtenida a partir del análisis de las
diferencias entre los tiempos registrados mediante la Prueba de Velocidad y los tiempos de tránsito integrado
del perfil sónico: DERIVA = T sísmico – T sónico integrado

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

La figura adjunta muestra los métodos de


corrección de la deriva, por ∆t mínimo si ésta es
negativa y por desplazamiento en bloque si es
positiva. En este último caso se corre toda la curva
en forma pareja para compensar la diferencia de
tiempo entre acústico integrado y sísmica, por
efecto de la dispersión. Pero, si la deriva es
negativa, el corrimiento es proporcional, como se
aprecia, dado que se asume un efecto variable
dado por las condiciones también variables del
sondeo.
El resultado es una sucesión de velocidades con
la cual se puede construir una serie de coeficientes
de reflexión y finalmente una traza sintética que
correlacionará mejor con la sísmica de superficie,
evitándose los efectos distorsivos antes explicados.

Arriba un caso en que la velocidad y


la densidad tienen comportamiento
inverso, típicamente una evaporita.
En la figura de la izquierda, caso de
sismogramas sintéticos procesados
con una densidad constante y con la
que mide el perfil. Corresponde a un
pozo de la cuenca del Golfo San
Jorge y puede observarse que la
densidad real sólo es importante en
una interfaz a unos 1250 m

A la derecha un sismograma sintético procesado alternativamente con


una ondícula de polaridad normal (PN) o reversa (PR), siguiendo la.
convención americana. En el primer caso, un aumento de la impedancia.
se corresponde con un pico. En el segundo, con un valle. (En la.
convención europea es a la inversa.) El procesado alternativo con las dos

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

polaridades es una práctica común, de modo que en la interpretación sísmica se pueda cotejar el sismograma
con las secciones de sísmica de superficie (2 ó 3D) en una u otra polaridad según corresponda.
A la izquierda correlación de perfiles de pozo y litologías interpretadas, con el sismograma sintético y una
angosta franja de una sección sísmica real. Y a la derecha un detalle de traza sintética procesada alternativamente
con frecuencias máximas de 50 y 125 Hz. El segundo caso da mayor resolución y se acerca, sin llegar, a la
posibilidad de inferir sísmicamente las capas mas espesas de la formación Comodoro Rivadavia. Sin embargo,
la que vale es la que se equipara con
las frecuencias realmente cosechadas
desde la sísmica de superficie, de
menores frecuencias lamentablemente.
,

Otra posibilidad es la de generar sismogramas sintéticos de ondas S, a partir de un perfil acústico dipolar, como
se grafica seguidamente en escalas de tiempo y profundidad.

Con todo, el sismograma sintético sigue siendo un producto artificial, con limitaciones inherentes al modelo
teórico que le da origen. Estos modelos toman datos de velocidad y densidad de perfiles de pozo que, aun
corregidos, pueden no coincidir con lo que ve una onda sísmica al atravesar el subsuelo. Además suponen
estratificación horizontal -aunque podría hacerse un modelo de capas buzantes con una inversión de tiempo
bastante mayor-, computan incidencia vertical del rayo sísmico -también podría simularse incidencia inclinada-,
suponen conocer el tipo de ondícula -que puede realmente conocerse si se la extrae de la sísmica de superficie-

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

y además están limitados por la extensión del pozo -en rigor por la extensión del registro acústico en el pozo-,
es decir sólo son capaces de suministrar información de los estratos atravesados por el sondeo pero no de los
ubicados debajo de él. Es, en suma, de importantísima ayuda para la puesta en profundidad de la sísmica de
superficie, pero no es lo más.
Perfil Sísmico Vertical (VSP):
Para superar las limitaciones de una traza sintética, se puede recurrir a un VSP -a un costo bastante mayor- que
analiza no sólo el primer arribo de la onda directa sino todo el tren de ondas y donde los geófonos están
colocados equiespaciados entre 15 y 30 metros a lo largo del pozo. Este intervalo de muestreo espacial mínimo
dependerá de la frecuencia máxima esperada y de la velocidad mínima esperada en la zona de interés.
Según el teorema de muestreo de Nyquist, que ya hemos citado en el Tema 14, para evitar el coligamiento o
aliasing espacial, dados ciertos valores de velocidad mínima (Vmín) y frecuencia máxima (Fmax), la
separación entre geófonos deberá ser: ∆Z(m) < Vmín(m/s) / 2 Fmax(Hz)
El campo de ondas sísmicas presentes en el VSP se divide en ondas descendentes (down) y ascendentes (up), con
sus correspondientes múltiples, lo cual puede ser visualizado en la figura de la izquierda.

Arriba medidas típicas de un pozo


en el cual se sumerge un cañón de
aire en agua o lodo de perforación,
para ser empleado como fuente en
tierra, donde, sin embargo, la fuente
más común es el vibro.
Todas las otras fuentes conocidas
son utilizables en mar o tierra, según
sea el caso.
Abajo se ilustra un típico espectro
de frecuencias registrado, el cual
se va monitoreando durante la
adquisición y naturalmente siempre
resulta más rico en altas frecuencias
en la porción más somera del pozo.

En la figura de la izquierda vemos


cómo las reflexiones múltiples,
tanto las ascendentes como las
descendentes, aparecen como
descolgadas en el registro debido a
sus trayectorias, como quedan
esquematizadas.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Registro real de VSP

El campo de ondas ascendentes es separado del descendente y luego se efectúa un procesamiento de los datos
semejante, aunque algo más simple, que el de sísmica superficial. Al visualizar el conjunto de trazas se pueden
identificar fácilmente las reflexiones múltiples que pudieran haberse producido en el subsuelo, lo cual es un
dato de suma utilidad para identificarlas en la sísmica de superficie, si estuvieran presentes, y eventualmente
eliminarlas en un posterior reproceso de esta última. Abajo se ilustra comparativamente la familia de trazas de
superficie que corresponde a la locación del pozo y la familia de trazas del VSP, distinguiéndose, entre otras,
una reflexión simple (S) y su correspondiente múltiple (M) que no es tan evidente en los datos superficiales.

Las trazas de la familia del pozo (las registradas durante el VSP) luego son sumadas y se obtiene una única traza
sísmica real apilada en la posición del pozo, la cual abarca desde la última posición del geófono (la más
superficial), normalmente la número 40, ya que ése es el número mínimo de estaciones recomendadas para
poder conseguir una buena traza suma. Y que además llega no sólo hasta la primera posición de recepción (la
más profunda) sino hasta muchos metros por debajo del fondo del sondeo: mil o más, teóricamente tanto como
se desee, asumiendo que la calidad se deteriora con la profundidad.
El tramo superior del pozo, si no queda cubierto por el Perfil Sísmico Vertical, se completa con algunas
estaciones de Prueba de Velocidad para poder calibrar el perfil sónico y ajustar el sismograma sintético, que
siempre habrá de ser útil en ese tramo somero en el que se carece de una traza real de pozo. Esto se ilustra en la

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

figura superior.
Un VSP tiene generalmente mayor resolución que la sísmica de superficie, porque las ondas viajan menos y por
lo tanto tienen menor atenuación de sus altas frecuencias. Esta no es una ventaja para la correlación entre ambas
sísmicas y, de hecho, se puede aplicar un filtro cortaaltos sobre la traza del VSP para asemejarla a las trazas de
superficie. Pero esta mejor resolución de pozo puede ser útil para algún eventual proceso especial de la sísmica
superficial (inversión de trazas, realce de las
frecuencias, etc.).
De modo que, al igual que una Prueba de
Velocidad, el VSP también permite construir
una Ley de Velocidad, pero además provee un
sismograma real de pozo, la visualización por
debajo del mismo y adicionalmente datos de
reflexiones múltiples.
Si el pozo abierto tiene mal calibre puede que el
Perfil Sísmico Vertical sólo pueda registrarse a
pozo entubado, por los problemas de anclaje de
la herramienta en las cavernas. Pero entonces es
más factible que aparezcan en los registros las
ondas Tubo (de Stonley), las cuales en este caso
son ruidos que pueden invalidar un VSP.
Éstas pueden atenuarse bajando el nivel de lodo
del pozo (en el tramo de cañería guía) o bien
ubicando la fuente tal que haya una zanja o
pileta entre ésta y la boca de pozo. Pero si el
problema no se soluciona, se tendrá que desistir
de registrar el VSP y alternativamente
conformarse con una Prueba de Velocidad
(Checkshot), si los primeros arribos están libres
de ruido. Esto último servirá para tener un mejor
sismograma sintético, siempre que se tenga el
perfil acústico, lo cual es el caso más habitual.
A la derecha un VSP intercalado en la sección
sísmica de superficie.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Registros Sísmicos Apartados:


Existe toda una variedad de
registros con apartamientos, que
permiten obtener angostas
secciones sísmicas hacia los
lados de los pozos perfilados -es
decir, varias trazas apiladas- a
fin de tener información con la
que resolver problemáticas
estratigráficas o estructurales
cuando no existe sísmica de
superficie con tales rumbos o
bien cuando la sísmica existente
no es de buena calidad.
El más típico es el VSP
Apartado (Offset VSP). En él
se aleja la fuente a una posición
fija a cientos de metros de la
boca de pozo, como se
esquematiza arriba, y se
registran las usuales 40
estaciones o más como en el
caso de un VSP sin
apartamiento. La sección
sísmica resultante se ilustra a la
derecha del esquema.
Otro caso es el VSP Recorrido
(Walkaway) en el que se
recurre a varias posiciones de
fuente a distintas distancias de
la boca de pozo, pero se limita
el número de posiciones de
geófono a unas pocas dentro del
sondeo.
Otros son el Sobrecorrido
(Walkabove), el Horizontal, el
Multiazimut y otros, cuyas
configuraciones de adquisición
se esquematizan a la derecha.
Sísmica de Pozo durante la Perforación:
También se puede registrar sísmica como parte de la técnica de perfilaje simultáneo (LWD, logging while
drilling). Se puede operar ya sea con el trépano haciendo las veces de fuente y un geófono triaxial en la
superficie -procedimiento que genera una ondícula muy mala- o bien, la mayoría de las veces, con un geófono
ubicado dentro del conjunto de fondo en la misma columna de perforación y una fuente convencional en la
superficie (vibro, cañón de aire u otra). Si bien este segundo caso es mejor, los registros obtenidos durante la
perforación nunca son de buena calidad. La razón de su empleo es que permite predecir las formaciones a ser
atravesadas para ajustar al máximo el momento de detener la perforación para operaciones críticas. Como
ejemplos típicos, entre otros:
- ensayos a pozo abierto
- coroneo de reservorios
- entubamiento previo a una zona sobrepresionada o a la entrada a un diapiro para cambiar la composición o
densidad del lodo en función de las condiciones geológicas o de reservorios que se intenta atravesar sin dañar.

15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

Registros de ondas S
En cualquiera de las modalidades de los VSP se puede optar por adquirir, además de las ondas longitudinales,
también las transversales, alargando el tiempo de registro y procesando la información de los canales
horizontales del geófono de pozo, que desde hace muchos años es rutinariamente triaxial (son tres geófonos en
x,y,z). No es necesario cambiar la fuente de energía, ya que las ondas S igual se producen desde tales fuentes
convencionales en tierra -no en el mar-, y además también se generan ondas S en el subsuelo por conversión de
modo de las P.
Abajo podemos ver los registros de campo de ambos tipos de ondas y los VSP Apartados de ondas P (P-P), de
ondas S creadas en subsuelo por conversión de modo (P-S) y de ondas S que partieron como tales desde la
fuente sísmica.

Tomografías Sísmicas de Pozo:


Del griego tomos, sección, y gráphein, dibujar, consisten en técnicas no convencionales de adquisición que
procuran el registro de pozo de las más altas frecuencias posibles para una resolución de mucho detalle. Esto
puede hacerse con una técnica pozo-superficie (tipo VSP Recorrido), o bien entre dos o más pozos, con la
fuente desplazándose dentro de uno de ellos y los receptores dentro del otro u otros. En cualquiera de los dos
casos es determinante el distanciamiento fuente-receptores para poder obtener las altas frecuencias que se
buscan, lo que significa pozos poco profundos si se emplea la técnica pozo-superficie (máximo 1000 metros)
o pozos cercanos entre sí en la técnica pozo-pozo (máximo 200 metros), aunque a mayores distancias también
puede hacerse con resultados menos óptimos. Pero además se requiere de una geología favorable, con buenos
contrastes de impedancia acústica entre las capas de interés, donde se realiza un procesamiento muy cuidado
para maximizar la relación señal/ruido y se emplea una modelización iterativa en base a otros datos de pozo.

16
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 16
Prospección Acústica y Sísmica de Pozo Chelotti, L., Acosta, N., Foster, M., 2009

La figura siguiente ilustra la aplicación de las tomografías sísmicas.

CUESTIONARIO BÁSICO

- ¿Qué tipos de registros se obtienen con el sonar lateral y con el de substrato?


- Explicar brevemente los distintos tipos de herramientas acústicas de pozo y sus aplicaciones.
- ¿Qué pasos deben seguirse para obtener un sismograma sintético?
- Señalar los motivos por los que los tiempos integrados del acústico no coinciden con los que da la sísmica y
explicar qué es la calibración de un sónico.
- ¿Por qué en una Prueba de Velocidad sólo interesan los tiempos de primer arribo y en un VSP importa todo el
tren de ondas?
- Indicar las ventajas de un Perfil Sísmico Vertical convencional.
- ¿Qué variantes de un VSP permiten obtener más de una traza apilada?, ¿qué información útil pueden brindar?
- ¿Para qué puede servir registrar sísmica durante la perforación?
- ¿Para registrar sísmica de onda S, qué tipos de fuentes pueden emplearse y cómo se trabaja?
- Comentar brevemente las técnicas de tomografía sísmica de pozos.

BIBLIOGRAFÍA
- Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p. 67-71 y 102-108). Yac. Petrolíferos Fiscales.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.
- Varios Autores, 1996. Sísmica de Pozo y Perfil Sónico. Western Atlas.
- Varios Autores, 1990. Sísmica de Pozo. Schlumberger.

17
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

“L’essentiel est
invisible pour les yeux”
Le Petit Prince,
Antoine de Saint-Exupéry

INTERPRETACIÓN SÍSMICA

Registrados y procesados los datos sísmicos, llega la hora del intérprete, como en todo otro método geofísico.
Hasta aproximadamente 1990 se interpretaba con lápices de color sobre secciones impresas en blanco y negro o
en los tonos gris azulado o castaño de las copias heliográficas. Después llegaron las computadoras,
preferentemente a doble pantalla, para interpretación interactiva en secciones o cubos en color. De hecho, el
avance informático permitió el desarrollo de la sísmica 3D, que sólo fue viable cuando se dispuso de la
ferretería y la librería computacional que hoy nos son familiares y hasta imprescindibles para todo tipo de tareas
en variadísimos campos de la cultura.
Las máquinas más potentes para interpretar son las estaciones de trabajo (workstations) que funcionan sobre
sistema operativo Unix, de las cuales Sun y Spark han sido las más usadas (fotografía izquierda), con varios
paquetes de programas disponibles para alquilar en un mercado en permanente evolución. Pero también se
puede disponer de licencias de softwares de varias empresas que los han desarrollado sobre PC, para Windows
o Linux (sistema operativo DOS), con menos capacidades pero más amigables que los primeros, y en muy
rápida evolución.

Por último, se han construido salas de visualizacion tridimensional (foto superior derecha) en las que se puede
navegar dentro de un volumen sísmico, sobre todo para fines de presentación de proyectos ante quienes no están
familiarizados con la sísmica, ya que un intérprete con una mínima experiencia visualiza mentalmente las tres
dimensiones del prospecto que lo ocupa.
Además todavía hoy suele recurrirse a secciones en papel, las más de las veces como un complemento práctico
cuando se hace una interpretación de sísmica regional en dos dimensiones.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Conceptos Básicos de la Interpretación


Cualquiera sea el soporte de la información, las
estrategias generales de interpretación no varían
demasiado.
En áreas enteramente nuevas, sin pozos, asignar las
interfaces reflectivas a determinados límites
formacionales o secuenciales es sumamente
especulativo: como en los espejismos, cuesta saber de
dónde viene cada imagen. Es por esto que resulta
fundamental contar con datos de acústica y/o
sísmica de pozo, para posicionarse con certidumbre al
menos en esa unidimensionalidad del sondeo, para
después extenderse con algún grado de confianza en el To
espacio bi o tridimensional que provee la información X
sísmica disponible, tal como se ilustra a la derecha.
Aun así, suele decirse que hay tantas interpretaciones como intérpretes, lo que en verdad no es correcto: hay más.
Porque cada intérprete es capaz de dar más de una interpretación. Sólo una mayor y mejor cantidad de
información geofísica, geológica, de pozos, ingeniería petrolera u otras puede ayudar a acotar el espectro
interpretativo, como cuando aplicamos un filtro pasabanda. No obstante lo cual, haber eliminado posibles
interpretaciones extremas no nos libera del ruido escondido dentro del rango aceptado, y hay que convivir con
él. Ergo, nada garantiza que la más sólida de las interpretaciones no pueda acabar en pozo papa.
Pero, como los fracasos deben reciclarse en enseñanzas, tras el prospecto fallido se reinterpretará esta suerte de
música subterránea a partir de la nueva partitura que desde lo profundo arrojan los datos decepcionantemente
descubiertos. Aunque claro, también se aprende desde los éxitos, seguramente menos, pero con mejor onda.

Interfaces reflectoras:
Si la buena onda es sísmica, debe tenerse siempre presente que los horizontes reflectores representan
contrastes de impedancia acústica, tanto mayores cuanto mayor sea la diferencia en el producto de la
densidad y velocidad de cada medio respecto al que se encuentra al otro lado de la interfaz, como ya hemos
visto, y en tal caso mayor será la amplitud resultante. Los cambios litológicos de cualquier origen casi siempre
implican contrastes en las impedancias acústicas, aunque hay algunos casos en que esto no sucede.
También debe recordarse que, incluso en el mejor de los mundos, hay ruidos remanentes en las secciones o
cubos sísmicos que podrían propender a interpretaciones erróneas. Y debe recordarse que la escala vertical
normalmente es de tiempos sísmicos, no de distancias, y entre lo uno y lo otro no existe una relación lineal.
En las cuencas sedimentarias los reflectores tienden a seguir líneas de tiempo geológico, es decir, superficies
de sedimentación contemporánea y no líneas-roca, que es lo que suele interpretarse como correlativo cuando se
tienen datos puntuales de pozos. Si lateralmente cambia el tipo de roca -por cambios en las condiciones del
ambiente sedimentario dentro de un mismo tiempo geológico dado-, cambiarán entonces lateralmente las
impedancias acústicas y, por lo tanto, la amplitud y, en general, el aspecto o carácter de la reflexión: su
amplitud, pero también quizás su frecuencia, y eventualmente también el modo en que se interfiere con otras
reflexiones supra o infrayacentes.
La continuidad lateral mayor o menor será resultante de cuán estables lateralmente sean las condiciones
sedimentarias en un tiempo geológico dado: un fondo marino con ocasionales cañones de turbidez, una
superficie de llanura cortada por canales, un talud con deltas intercalados, una plataforma con arrecifes, un lago
continental de fondo parejo, un desierto con dunas en avance y muchos etcéteras.
Los contrastes verticales, a su vez, serán indicativos de los cambios en las condiciones de depositación a través
del tiempo, sea con energía estable que resultará en reflexiones débiles por los bajos contrastes de impedancias
acústicas, o bien energía cambiante en el medio sedimentario y consecuentemente reflectores fuertes (por
ejemplo intercalación de arenas de cursos enérgicos con arcillas de planicies de inundación de baja energía del
medio de transporte, en este caso el agua en movimiento).
Una superficie sísmica de reflexión (lo que llamamos horizonte, nivel guía, reflector o, en inglés, marker) en
su expresión geológica actual normalmente muestra el resultado de unos rasgos de sedimentación originales
alterados estructuralmente por la tectónica posterior. De modo que mapear un reflector es ver el final de una

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

larga historia.
Si se quisiera ver el paleorrelieve, a nivel de una determinada interfaz reflectora, se debería poder quitar todos
los efectos tectónicos posteriores con algún modelo razonablemente certero. Pero una forma de aproximarse a
ese objetivo es aplanar un reflector suprayacente que se vea bien, es decir ponerlo perfectamente horizontal, lo
que se denomina aplanamiento o flattening. Esta técnica resultará válida siempre que en ese intervalo de
tiempo entre ambos reflectores no haya ocurrido algún evento que modifique sensiblemente la estructura.
Como puede verse
en el ejemplo
adjunto, con el
aplanamiento de un
reflector somero,
una estructura
compresiva por
inversión tectónica
puede restituirse
.

aproximadamente a
un tiempo previo a
su origen, o al
menos previo a su
última fase de
compresión.

Ahora bien, debe advertirse que no siempre los reflectores responden a líneas-tiempo. Puede darse que
correspondan a líneas-roca cuando existen especiales configuraciones estratigráficas, por ejemplo arenas no
coetáneas pero amalgamadas en patrones de fuerte continuidad lateral o crecimientos arrecifales con pasaje
lateral a sedimentación clástica. También serán reflectores extemporáneos los contactos con intrusiones ígneas o
diapíricas, los planos de falla subhorizontales y otros.
Mapeo de sísmica de reflexión:
El mapa sísmico básico es el plano
isócrono (figura izquierda), constituido
por curvas de igual tiempo de ida y
vuelta de las ondas sísmicas en sentido
vertical. Pero no debe olvidarse que se
puede tener muchas distorsiones propias
del método respecto a lo que sería ver la
imagen en escala vertical en
profundidades (metros o pies) en lugar
de tiempos sísmicos (segundos o
milisegundos).
Otra posibilidad de mapeo es hacer un
plano isocronopáquico (pachys, grueso
en griego), es decir el equivalente de los
mapas isopáquicos pero en magnitud de
tiempo sísmico de ida y vuelta, lo cual
se obtiene a partir de la operación de
resta entre dos grillas correspondientes a
dos isócronos previamente elaborados.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

La confiabilidad de un mapa isócrono o


isocronopáquico es función, entre otras
variables, de la dimensionalidad de la sísmica de
reflexión registrada. Como ya hemos visto, la
sísmica 2D, por su menor costo, todavía suele
emplearse cuando el presupuesto es bajo, con
objetivos y escalas muy diversos. Pero también
en las primeras etapas de la exploración
petrolera, con mallados de entre 2 y 4 km
(paralelo y perpendicular a la principal
estructuración del área). Aunque en etapas
posteriores, una vez probado el potencial
hidrocarburífero, o frente a la necesidad de un
conocimiento preciso del subsuelo con diversos
fines, se registra sísmica 3D que, además de la
muy alta densidad de datos, permite una mejor
migración y eventualmente aplicar ciertas
técnicas especiales no viables en la sísmica
Sección horizontal, Flanco Norte de la cuenca Golfo San Jorge. bidimensional.
Como sea, mapear desde una 2D significa
interpolar valores dentro de cada rectángulo del
mallado sísmico, mientras que mapear una 3D es
seguir una imagen prácticamente continua de
todo un volumen. Entre las ventajas más
comunes de visualización que da una 3D están
las secciones verticales tanto de líneas (inlines,
en la dirección de los receptores) como de
traversas (crosslines, líneas ortogonales a las
anteriores, que en tierra suele ser la dirección de
las fuentes de energía) o en cualquier otro
azimut que se elija, incluso trayectorias
quebradas, por ejemplo pasando por pozos que
se quiere correlacionar, a lo que se agrega la
visualización de secciones horizontales (time
slices) donde se representan las amplitudes
sísmicas de las trazas de todo o parte del
Arriba mapa de amplitudes, abajo isocronopáquico de la Fm volumen a cualquier To específico que sea de
Springhill, mar adentro de la cuenca Austral, Tierra del Fuego. interés, como se ejemplifica en la figura superior
a la izquierda.
En cambio, los mapas de amplitud (horizon
slices o seiscrops) muestran la variación de
amplitud sobre superficies guía, que han debido
ser previamente interpretadas con sumo detalle
sobre toda el área de interés en una 3D. Permiten
visualizar las variaciones sobre un nivel
estratigráfico a través del cambio de sus
amplitudes. Es el ejemplo de la figura central a
la izquierda.
El objetivo general de la interpretación de
sísmica de reflexión es generar un modelo
geológico estructural y estratigráfico que
permita obtener una descripción detallada con
finalidades diversas de acuerdo al campo de
aplicación considerado.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

En la prospección y
desarrollo petroleros los
objetivos principales se
refieren a la posición
estructural, morfología y
distribución espacial de los
reservorios que componen
un intervalo definido de la
columna estratigráfica en
un área determinada. Pero
también, naturalmente, de
la roca madre y de las
vías de migración de los
hidrocarburos.

Modelo en perspectiva
de un plano de falla,
mapa de amplitudes de una
secuencia reservorio
y localización de pozos
perforados (flanco N, CGSJ)

Resolución Sísmica
La resolución sísmica es un asunto relevante a tener presente. Es el espesor geológico mínimo que podemos
identificar, que corresponde a un cuarto de la longitud de onda sísmica (1/4 λ), recordando que λ = V / f (V es la
velocidad y f la frecuencia a la profundidad considerada). El ancho mínimo resoluble o resolución horizontal
resulta de la zona o radio de Fresnel (por el francés Augustin Fresnel, 1820) y es función del mismo 1/4
λ, siendo: r = V. (To / 4f)1/2

La figura de la izquierda ilustra arriba el concepto de la resolución vertical a partir de 1/4 λ y abajo el ancho de
la resolución horizontal, con ejemplos numéricos. La figura de la derecha también muestra abajo la resolución

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

horizontal de una sección esquemática no migrada, donde se ve que ya en 1/4 λ el horizonte reflector se
confunde con la hipérbola de difracción y su amplitud ha disminuido sensiblemente, mientras que arriba se
aprecia que el rechazo vertical de una falla también resulta casi invisible cuando es menor a 1/4 λ.
Un caso especial es el fenómeno de resonancia o
sintonía (tuning), producido por la interferencia
constructiva de ondas entre la amplitud principal de
la ondícula y los lóbulos laterales (figura a la
derecha). Suele permitir la visualización de espesores
menores a 1/4 de la longitud de onda, hasta 1/8 λ e
incluso algo menores, no porque podamos ver las
respuestas individuales de techo y base, sino porque
la fuerte amplitud nos permite inferir la presencia de
la capa con un espesor delgado inferior a ¼ λ.
Etapas de la Interpretación Sísmica Estructural
Evaluación geológica general:
Se realiza una primera aproximación tendiente a
definir el modelo estructural al cual responde el área a
los efectos de conocer la relación del mismo con la
sedimentación. Resulta de vital importancia
determinar la posible existencia de un control
estructural en los procesos sedimentarios. La principal
tarea es reconocer las principales fallas del área a fin
de delimitar los bloques a estudiar en detalle.

Arriba, correlación de primer


orden y esquema de la
correlación entre pozos.
Derecha, correlación regional.

Correlación regional de
pozos:
- Delimitación de bloques
principales y correlación de
niveles guía o marcadores
(markers) regionales, donde
se define la posición exacta
de las fallas en los pozos
delimitando correctamente
los bloques que componen

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

el área. De esta manera se determina el modelo evolutivo de las fallas en profundidad y la ubicación de las
mismas.
- Confección de cortes (cross-sections) regionales (longitudinales y transversales a las principales estructuras
reconocidas en el área).
Correlación estratigráfica de pozos:
- Elección de bloques a estudiar y secuencias a interpretar mediante correlación estratigráfica: se correlacionan
en películas en escala 1:1000, o en pantalla, todas las arenas seleccionando para el control de correlación una
serie de horizontes guía locales más los regionales. Esta correlación se realiza por grillas con pozos nodos y
control de cierre.
- Confección de cortes estructurales cruzados a escala conveniente.
- Cortes estratigráficos de detalle (capa a capa) a escala apropiada.
- Diagramas estratigráficos de paneles.

Correlación de segundo orden CORTE ESTRATIGRAFICO


1209 1069 1210 981
(estratigráfica) y corte
estratigráfico
73.495 m
294.85 m 342.0 m 285.83 m 88.558 m

m SP (mV) ILD SP (mV) ILD.DF (ohm.m) SP (mV) ILD (ohm.m) SP (mV) ILD (ohm.m) m
-80.0 20.0 0.0 30.0 -80.0 20.0 0.0 30.0 -80.0 20.0 0.0 30.0 -80.0 20.0 0.0 30.0

A485 A485

TOPE-B TOPE-B TOPE-B TOPE-B

B95

B115 B115

-355 -355
B140

B165

-380 -380

B220
B190

B232 B232 B230

-405 -405
B237

B260 B260
B260
B280

B290 B285

B300
B310
-430 -430
B330

B340

B342 B342
B342

-455 -455
B400
B400
B403
B403 B403

B407
B407

-480 -480

TOPE-C

TOPE-C
TOPE-C

Carga de datos:
Es una etapa imprescindible antes de la interpretación sísmica. Incluye la carga de:
- planimetría de sísmica y de pozos
- archivos SEG Y de la sísmica procesada, incluyendo sísmica de pozo
- archivos de perfiles geológicos de pozo
- datos geológicos, de los cuales los relevantes son: topes y bases de capas ( en metros bajo boca pozo y metros
bajo nivel mar), espesores útiles y permeables, valores de porosidad medidos por perfil, puntos de corte de
fallas en cada pozo (en mbbp y mbnm)
- datos de ingeniería de perforación y de terminación, etc.
También se debe construir los sismogramas sintéticos que hagan falta.

Interpretación sísmica:
Lo más conveniente es partir del punto con mejores datos de correlación sísmico-geológica, por ejemplo un
pozo con VSP o con una Prueba de Velocidad convencional o con un sismograma sintético, ahí elegir dos o
tres reflectores continuos con importante significación geológica y/o prospectiva, y desde ahí ir llevando el
picado o rayado de los reflectores, con colores y nombres distintivos, en dirección a algún otro pozo con atado
de datos entre sísmica y geología, si lo hay.
Durante este avance se van interpretando las fallas, al menos las de mayor rechazo en una primera etapa, en
general sin asignarles nombres o números identificatorios hasta una etapa posterior, a menos que se tenga

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

pronta certeza de cuál es cuál


entre línea y línea.
Este gradual avance de la
interpretación es conveniente
hacerlo en sísmica 2D
cerrando rectángulos de la
malla, para ir con mayor
certidumbre, dado que si al
terminar la vuelta se llega un
reflector arriba o uno abajo
del punto de partida, significa
que habrá que revisar dónde
se ha cometido un error.
En cambio, en sísmica 3D se
van interpretando líneas
(inlines) paralelas y
cercanas, cada dos o cuatro
líneas, por comparación de
cada una con la siguiente, y a
la vez se va controlando con
dos o tres traversas que las
cruzan en ciertos sectores
estratégicos, por ejemplo en Sección sísmica sin y con interpretación de horizontes y fallas.
el bloque alto y el bloque bajo
respecto a una falla importante que es perpendicular a las líneas que se está rayando. También se puede
controlar con secciones horizontales y visualizaciones en perspectiva. Las líneas intermedias pueden
completarse en una etapa posterior con alguna opción de seguimiento automático de horizontes, la cual en
casos favorables se puede emplear desde el principio de la interpretación, aunque siempre se deben controlar
sus resultados y corregir todo lo que haga falta.
Con el avance de la interpretación se podrá nominar las fallas, agregar las más pequeñas, rayar reflectores
adicionales y eventualmente recurrir al cálculo y visualización de atributos sísmicos, etc.
Por último, o en forma progresiva, se podrá hacer el grillado y curveo de mapas isócronos y otros. Para ello
deben dibujarse previamente los polígonos de falla en planta, para cada nivel guía que se desee mapear, de
modo que las curvas o contornos se ajusten al esquema de bloques geológicos interpretado.

Sección sísmica interpretada y mapa isócrono al tope de una de las formaciones.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Cuando se interpretan datos combinados de sísmica 2D de distintas generaciones de adquisición o cubos


adyacentes con distintos parámetros de registro o información combinada 2D-3D se debe efectuar al ajuste de
los planos de referencia entre unos y otros, a fin de homogeneizarlos, para lo cual se pueden hacer los
corrimientos en tiempo de unos respecto a otros o bien recurrirse a programas de atado diferencial (mistie), si
los corrimientos no fueran de tiempos constantes. También debe tenerse presente que podría ser necesario
invertir la polaridad de la sísmica entre una y otra generación de datos, para homogeneizarla, y no hay que
olvidar que siempre habrá corrimiento de fase entre datos de fuentes impulsivas y vibratorias.
Caracterización final de los bloques:
Comparación y ajuste del modelo estructural con la interpretación obtenida desde un mallado de sísmica 2D, o
bien de un cubo de sísmica 3D. Finalmente se ajustan todas las correlaciones con las interpretaciones de
sísmica. Se comparan interpretaciones de líneas 2D de rumbos apropiados, o bien de secciones en líneas
(inlines) y traversas (crosslines) de sísmica 3D con los cortes generados por correlación de pozos. Se comparan
los isócronos con mapas estructurales preexistentes hechos sólo con datos de pozos.
También se pueden construir mapas estructurales nuevos a partir de los isócronos siempre que se cuente con
adecuados controles de velocidad (relación tiempo-profundidad) en varios pozos estratégicamente situados en el
área mapeada. En este caso lo más recomendable es construir un mapa de isovelocidades a cada nivel de
interés (ver en el Tema 18, pag. 5) y luego efectuar en cada caso la operación de producto entre grillas: valores
de velocidad por valores de tiempo darán valores de profundidad, que entonces se mapearán como un estructural.

Engaños Sísmicos (Pitfalls):


La interpretación de secciones de reflexión
(incluso en sus versiones horizontales de 3D)
debe partir de la premisa de que las imágenes
sísmicas que se perciben no son cortes
geológicos, ni los isócronos mapas
estructurales, sino sólo aproximaciones a éstos.
Las consecuencias de ignorarlo son las metidas
de pata en las trampas sísmicas.
Cuando se observa una sección vertical
procesada puede tenerse problemas
significativos si ésta no ha sido migrada, sobre
todo si se está en un área de regulares o altos
buzamientos: los reflectores sísmicos no estarán
en su verdadera posición relativa y además se
tendrán difracciones sobre planos de falla y toda
geología que presente variaciones laterales
significativas (intrusiones, diapiros, arrecifes,
lentes arenosas, etc.), como muestra la figura de
la derecha, en cuyo caso se deberá ser cauto y
eventualmente intentar al menos algunas
migraciones manuales de los reflectores de
mayor interés.
Afortunadamente cada vez hay menos sísmica
sin migrar para ser interpretada, ya que los costos
de migración han disminuido mucho y
generalmente hasta la sísmica antigua se
reprocesa para poder verla migrada. Pero en
casos de geología complicada (faja plegada,
intrusiones de complejo emplazamiento, etc.)
una migración convencional puede no ser
suficiente y sólo se tendrá cierta certeza de
una correcta interpretación cuando el proceso

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

migratorio se haya realizado antes de apilamiento. A su vez, como ya vimos, existe diferencia según sea el
algoritmo utilizado (Kirchhoff, Ecuación de Onda, Trazado de Rayos, etc.), y esto es también válido para las
etapas previas del procesado sísmico: recuperación de amplitudes, estáticas, dinámicas, deconvolución,
filtrados, etc., que pueden realizarse con distintos criterios y variables márgenes de error, lo cual redunda en el
producto final resultante para interpretar.
Pero, aún si todo hubiese sido realizado del modo más atinado -que casi siempre tiene como condición
necesaria, aunque no suficiente, un presupuesto generoso-, no se tiene que olvidar que la símica normalmente
está representada en escala de tiempos, no de profundidades. De modo que la imagen resultante es
función de las variaciones de velocidad, en general crecientes con la profundidad pero además variables
lateralmente según sea la geología iluminada por las ondas sísmicas. Una sección sísmica refleja la geología
como un espejo deformante a una persona reflejada frente a él: piernas cortas, cabeza muy alargada, un brazo
más corto que el otro, etc., y lo mismo va a pasar con las secciones horizontales y con los mapas o cualquier
otra información interpretada. Sólo si la sísmica ha sido pasada a profundidad por un método muy sólido, por
ejemplo abundantes y representativos datos de sísmica de pozo, o bien una consistente migración por trazado de
rayos, entonces se podrá tener una cierta confianza de la equivalencia entre imagen sísmica e imagen geológica,
pero incluso en estos casos se debe ser cauto porque algunas deformaciones estructurales, aunque sutiles,
estarán todavía presentes.
Y no debe olvidarse que la sísmica no puede ver nada que se aproxime a la vertical. Todo aquello que
incline más de 45º será prácticamente invisible. A lo sumo, si el espesor de tales eventos subverticales es
significativo, se podrá ver una zona de ruido que va a alertar sobre algo que existe pero no se puede ver. Otras
veces, cuando los espesores son de pocas decenas de metros, ni siquiera podrá intuirse que tales
emplazamientos existen.
La limitación en cuanto a la resolución sísmica de intervalos delgados es otro de los significativos problemas
de visualización, como se ha explicado antes.
Así, existe un variado menú de engaños sísmicos posibles cuando alguien se larga a rayar -o sea, a interpretar-
sísmica de reflexión. Algunos de los más frecuentes se deben a:
-Falta de Migración o Migración Inadecuada, que puede generar buzamientos erróneos, falsas estructuras,
difracciones y cambios laterales de velocidad no corregidos. En la figura siguiente, un ejemplo en el que en la
sección no migrada (izquierda) las difracciones llevan a una interpretación errónea, que cambia en la sección
migrada (derecha) con la incorporación de fallas en un esquema de pilares (horsts) y bloques hundidos (grabens).

-Recuperación de Amplitudes Excesiva, donde la tendencia a ecualizar en exceso hace indistinguibles


secuencias de bajos contrastes internos respecto a otras que contienen altos contrastes acústicos. Recuperar en
Verdadera Amplitud es la mejor opción para poder realizar interpretaciones sismoestratigráficas o para poder
aplicar adecuadamente inversión de trazas o método AVO, que veremos en el Tema 18.
-Estáticas Imprecisas, que pueden dar tirones o empujones de velocidad (pull up, push down) resultantes de
emplear velocidades o espesores por exceso o por defecto para la capa meteorizada. Resultan entonces
intervalos temporales respectivamente por defecto o por exceso para dicha capa superficial, lo que a su vez
levanta o empuja las trazas generando falsos anticlinales o falsos sinclinales a lo largo de toda la sísmica.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

En las siguientes figuras se esquematizan y presentan


casos reales de falsas estructuras por problemas no
corregidos debidos a velocidades subsuperficiales
lateralmente cambiantes. A la izquierda forma anticlinal y
a la derecha sinclinal, en ambos casos con preservación de
la curvatura a lo largo de toda la sección sísmica.

-Ruidos en general, que no han podido ser removidos


durante la adquisición ni tampoco en el procesamiento de los
datos, por lo cual pueden dificultar la interpretación de la
geología e incluso generar falsas interpretaciones. Las
reflexiones múltiples son un caso típico cuando no se ha
recurrido a toda la batería de remedios disponible para
eliminarlas.
En la figura a la derecha vemos el modelo geológico con su
correspondiente imagen sísmica.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda caso real


de una sección sísmica
en la que se presentan
reflexiones múltiples
por reverberación en el
fondo marino. Se repite
el reflector del lecho
marino y también un
reflector fuerte dentro
de la antiforma..

-Variaciones laterales de velocidad (a profundidad actual constante), generadas sobre todo por cuestiones
estructurales (sobrecorrimientos, fallas gravitacionales o transcurrentes, pliegues por inversión tectónica,
diapirismo, intrusiones, u otras muchas posibilidades) como en menor medida también por cuestiones
estratigráficas (crecimientos arrecifales, lentes arenosas, etc). El resultado es similar al de las estáticas erróneas
(tirones y empujones de velocidad), aunque en estos casos no hay nada que corregir en el proceso convencional.
Si el fenómeno ocurre bajo una superficie de falla recibe el nombre alternativo de Sombra de Falla (Fault
Shadow), que se grafica a continuación.

En ocasiones la sombra de falla produce una sucesión de pequeños anticlinales y sinclinales. Sólo se puede
entender este tipo de problemas haciendo modelos de sísmica sintética hasta encontrar la probable geología
causante de tales levantamientos o hundimientos en la sísmica, o bien pueden ser corregidos, al menos
parcialmente, con migración por trazado de rayos, preferentemente antes de suma, tal como aquí se ilustra.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

-Deconvolución, Filtrados o Procesos Cosméticos variados, que pueden alterar, a veces significativamente, la
forma como se visualizan rasgos sutiles de la sísmica. Un cambio lateral de carácter, como el ilustrado abajo,
puede modificarse con las distintas opciones a las que se recurra o no durante el procesamiento. En este caso
ambas secciones tienen igual proceso, lo que varía es la interpretación realizada.

- Zonas poco iluminadas por los frentes de onda, lo que puede ser debido al alto buzamiento de las capas,
como en la figura de la derecha, en la que un dique ígneo denunciado por el perfil magnético prácticamente
no se ve en la sísmica, excepto por muy sutiles indicios.
También ocurren zonas pocos iluminadas en capas
subyaciendo fuertes contrastes de impedancia acústica
(de gran amplitud) que actúan como espejos bajo los
cuales muy poca energía logra pasar. Es el caso de
diapirismo evaporítico, carbón o lentes gasíferas, en este
último caso sólo si se registran ondas P, ya que las S son
indiferentes al fluido poral. También bajo intrusiones
ígneas, como el filón de la sección de abajo, con un tirón
de velocidad combinado con poca energía en los estratos
infrayacentes y un combamiento anticlinal real por
encima de la intrusión, causado por inyección forzada.

Sección sísmica con intrusión ígnea concordante en el Tc. basal de


Santa Cruz Sur, cuenca Austral.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Interpretación Sismoestratigráfica:
La interpretación sísmica más básica es siempre la de tipo estructural, sin embargo muchas veces de gran
complejidad. Pero una etapa habitualmente posterior de la interpretación es la de tipo estratigráfico. Sólo en
áreas tectónicamente muy estables puede comenzarse directamente con el análisis sismoestratigráfico sin una
previa evaluación del marco estructural.
En este tipo de estudios se toman como base los conceptos geológicos de relaciones estratigráficas: paralelas o
divergentes, formas progradacionales sigmoides u oblicuas, formas monticulares, en abanico, valles cavados,
truncación erosiva, solapo u onlap, sublapo o downlap, topelapo o toplap, etc. Pero también la observación de
las relaciones de amplitud entre reflectores individuales o secuencias sísmicas: con o sin reflexiones internas,
con reflexiones de aspecto caótico o estratificado, con amplitud reflectiva fuerte o débil, con una continuidad
lateral grande o pequeña, con sucesión de reflexiones de bajo o de alto contraste, etc.
Las siguientes figuras muestran estas relaciones geométricas fundamentales de la sismoestratigrafía.

Si se quiere avanzar hasta un trabajo de sismoestratigrafía secuencial será mucho más factible en cuencas
marinas, o al menos continentales con vinculación al mar, que en cuencas cerradas donde las variaciones
globales no hayan ejercido una influencia mensurable. El otro factor importante es la tectónica, esencialmente la
tasa de subsidencia o algún eventual pulso de levantamiento que generará erosión.

14
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Arriba, un ejemplo de variadas geometrías de secuencias sedimentarias en una sección sísmica regional.
Como sabemos, una secuencia es la unidad fundamental de la estratigrafía secuencial, corresponde al registro
sedimentario de un ciclo (del orden de 2 a unos 5 millones de años) y está limitada por discordancias o sus
correlativas concordancias, pudiendo subdividirse en cortejos sedimentarios (system tracts) y en
parasecuencias (relativas a paraciclos de menos de un millón de años) limitadas por superficies de inundación o
bien de erosión, según sea la escuela tomada como referencia. Las secuencias se agrupan en supersecuencias y
éstas en megasecuencias (registro de megaciclos, de más de 40 m.a.).

15
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

Recordando siempre el concepto


de líneas-tiempo inherente a las
reflexiones en las cuencas
sedimentarias, pueden entonces
buscarse superficies de máxima
inundación o de máxima erosión,
más los arreglos sedimentarios
internos de cada secuencia que
permitirán definir los cortejos
sedimentarios transgresivos, de
nivel alto o de nivel bajo, referidos
a ciclos de distinto orden
según la particular historia
tectosedimentaria.

16
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

La figura de la derecha presenta


un ejemplo de sección sísmica y
abajo su interpretación: un
cortejo sedimentario de nivel
bajo suprayaciendo a uno
de nivel del mar alto e
infrayaciendo a otro de
carácter transgresivo.

Una herramienta práctica


cuando se trabaja en áreas
con variables inclinaciones
tectónicas es el aplanamiento
(flattenning) ya comentado.
Su aplicación posibilita
independizarse de los
buzamientos y la observación
de los cambios de potencia
resulta más fácilmente
interpretable. La elaboración
de mapas isopáquicos es otro
modo de ver gráficamente las
variaciones de espesor.
Ahora bien, siendo la sísmica de reflexión en la gran mayoría de los casos el mejor método geofísico para
visualizar cuencas sedimentarias, existe no obstante una limitación concreta ya explicada: la resolución sísmica.
No está permitido ver capas de menor espesor que un cuarto de la longitud de onda presente a la
profundidad de interés. Con la excepción de tener resonancia sísmica o capas de alto contraste acústico que,
aunque delgadas, podrían detectarse debido a su fuerte amplitud, aunque naturalmente sin poder conocerse su
exacto espesor: sólo se sabrá que se encuentran por debajo del cuarto de longitud de onda, a condición de que se
haya podido aseverar la existencia de tales capas mediante el descarte de otras posibles causas de sus
amplitudes.
Cuando se dispone de información sísmica
tridimensional, las secciones horizontales (time
slices) o, mejor aún, los mapas de amplitud
(horizon slices o seiscrops) resultan recursos
prácticos para ver los cambios sobre un nivel
estratigráfico a través del cambio de amplitudes
o cualquier otro atributo sísmico que muestre
diferencias interpretables en términos geológicos
-o eventualmente incluso petroleros-. Ejemplos
son el seguimiento de canales, abanicos,
variaciones de fluidos y otros, como se
ejemplifica en la figura a la derecha, del centro-
oeste de la cuenca del Golfo San Jorge.
Los Atributos Sísmicos (usualmente disponibles
en la estación de trabajo) como amplitud o
espesor de valle, frecuencia, fase, velocidad
y otros pueden ser de gran ayuda en la
interpretación de rasgos sismoestratigráficos en relación a los cambios litológicos y la visualización de
geometrías sedimentarias. Eventualmente puede recurrirse asimismo a otros métodos específicos de sísmica
de reflexión -si fuera aconsejable para la resolución de cuestiones geológicas, petroleras u otras- ya sea
Procesos Especiales o bien Registros Especiales que requieren de una nueva adquisición de datos de
campo. Todos ellos serán tratados en el Tema 18.
Pero, en definitiva, las certezas sólo llegan cuando el trépano horada los objetivos prospectados.

17
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 17
Interpretación Sísmica de Reflexión Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO

- Definir resolución sísmica horizontal y vertical.


- ¿Qué es la sintonía sísmica y qué utilidad brinda?
- ¿Cuáles son los posibles significados de las interfaces reflectivas?
- Definir mapa isócrono e isocronopáquico, ¿qué utilidad tienen?
- Explicar la aplicación de la técnica de aplanamiento de reflectores.
- Citar la información previa necesaria para una interpretración sísmica estructural.
- ¿Qué pasos sucesivos se deben seguir en la interpretración?
- ¿Qué tipos de estructuras puede mostrar la sísmica?
- ¿Qué diferentes tipos de problemas puede ocasionar la falta de migración?
- ¿Què otros tipos de engaños sísmicos pueden presentarse?
- Explicar cómo realizar una interpretación sismoestratigráfica.
- ¿Qué tipo de información nos dan las secciones horizontales y los mapas de amplitud?
- ¿Cuáles son las ventajas de la sísmica 3D sobre la 2D? ¿Y desventajas?
- Comentar las posibles conclusiones de una interpretación de índole petrolera.

BIBLIOGRAFÍA:

- Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p. 1-36). Yacimientos Petrolíferos Fiscales.
- Brown, A., 1991. Interpretation of Three Dimensional Seismic Data. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

18
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

PROCESOS SÍSMICOS
ESPECIALES
Existen muy diversas modalidades especiales de adquisición y procesamiento de los datos sísmicos de reflexión
que, como todos los temas antes abordados, dan para escribir varios tomos. Empero, vamos a realizar un
abordaje fugaz de cada uno, sólo a los efectos de aprehender unos pocos conceptos básicos que nos permitan
identificar sus fundamentos y potencialidades.
Presentamos entonces este breviario a partir de un encasillamiento práctico a los fines didácticos, clasificando
estos variados métodos en: Atributos de las Trazas, Procesos Especiales, Registros Especiales, Sísmica Somera
y Sísmica Ultraprofunda., aunque seguramente existen diversos encasillamientos alternativos. Vamos a ver aquí
los dos primeros de estos cinco ítems.

ATRIBUTOS SÍSMICOS
Se denomina así a las características propias de las trazas o sismogramas individuales. El atributo fundamental
es la amplitud (desplegada en función del tiempo de ida y vuelta), que es lo que muestra una visualización
símica convencional (2D ó 3D). Éste puede visualizarse en forma de hilo (wiggle) con o sin relleno negro en el
hemiciclo positivo (hacia la derecha en la convención americana), o bien en escalas de colores (elegidos a
piacere) en función de la magnitud de tales amplitudes (variable intensity).
Pero también es posible calcular, mediante distintos algoritmos, otros atributos como, por ejemplo, frecuencia,
velocidad o atributos de traza compleja. El número de atributos que se puede calcular y representar es
prácticamente ilimitado, la mayoría de los cuales resulta de la combinación de otros más básicos, que se
describen seguidamente.
ATRIBUTOS DE AMPLITUDES
En toda sísmica convencional puede hacerse el mapeo de las
variaciones de la intensidad normal sobre un mismo nivel guía
previamente interpretado con la mayor justeza posible, habiendo
rayado con precisión a lo largo de los máximos o mínimos de las
trazas. Este método en sísmica 2D es muy limitado ya que sólo
sigue las variaciones de ampitud sobre secciones individuales y su
interpolación en una mapa se vuelve incierta. Pero, como ya fue
comentado en en Tema 17, esto es ideal para sísmica 3D,
generando los denominados mapas de amplitud (horizon slices o
seiscrops) que reflejan detalladamente la variación de los
contrastes de impedancia acústica a lo ancho del área prospectada.
A la derecha, mapa de amplitudes costa afuera de Tierra del Fuego.

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

ATRIBUTOS DE FRECUENCIAS
A partir de las trazas sísmicas procesadas existen algoritmos que
permiten calcular magnitudes relativas a la variación de frecuencia,
tanto lateral como verticalmente sobre las secciones o volúmenes
sísmicos, a saber:
-Porcentaje de energía de determinada banda de frecuencia, respecto a
la energía total.
-Frecuencias medias o bien modales (pico del espectro de frecuencias,
como el ejemplo de la figura adjunta: un mapa de frecuencias).
-Ancho espectral, es decir la diferencia entre la máxima y la mínima
frecuencia cosechadas.
La información así obtenida puede desplegarse en secciones verticales y horizontales (estas últimas si se
dispone de sísmica 3D). Esto es útil para evaluar la calidad de adquisición y procesado de los datos, para los
que las condiciones superficiales (topografía y capa meteorizada) son críticos. Incluso con el mejor tratamiento
posible de las estáticas, un espesor grande o un muy alto grado de incompetencia de la capa meteorizada darán
como resultado una fuerte caída en el contenido de altas frecuencias a lo largo de toda la sísmica bajo tales
sectores del área prospectada.
Pero, una vez descartado que los cambios en el espectro de frecuencia se deban a las cuestiones antedichas,
pueden hacerse aproximaciones al entendimiento de aspectos geológicos del subsuelo, ya que los cambios
del espectro pueden indicar variaciones litológicas (en rocas más densas en general se registra mayor
frecuencia), pero también pueden denunciar cambios en la condición de los reservorios, tanto más porosos o
más fisurados o eventualmente con más gas (hidrocarburos o CO2) cuanto menor sea la frecuencia registrada.
ATRIBUTOS DE TRAZA COMPLEJA
Son atributos cuyo cálculo está disponible en todos los programas de interpretación sísmica. Se los obtiene a
partir de pensar la traza como un fasor, según lo propuesto en los Estados Unidos por Turhan Taner junto a
Koehler y Sheriff en 1979, a partir del siguiente concepto.
Un número complejo se define como: donde:
, θ = arc tg (y/x), A = (x2 + y 2)1/2
Por lo tanto, la función traza sísmica en el espacio complejo es:

Allí el fasor avanza en el tiempo t, cambiando continuamente su frecuencia, su amplitud A y su fase γ,


describiendo una suerte de tirabuzón donde la traza efectivamente registrada f(t) pertenece al plano real y su
correlato en el plano imaginario da la serie en cuadratura fc(t).
El proceso de generación de los datos imaginarios a partir de los reales se realiza mediante la Transformada de
Hilbert (desarrollada para funciones holomorfas por el
prusiano oriental David Hilbert en 1905), que es un
operador lineal que toma una función real s(t), la
convoluciona con una respuesta impulsiva h(t)=1/πt y
genera una función H(s)(t) en el mismo dominio (t):

considerando la integral como


el valor principal (lo que evita la singularidad t = τ)
Se obtiene entonces la traza imaginaria H(s)(t), lo que
permite describir la función compleja de la señal.
Así, el fasor desplegado en el espacio complejo posibilita obtener relaciones que de otro modo no serían
evidentes, como:
-Envolvente de las amplitudes, A, en el espacio complejo (reflection strenght).
-Fase instantánea, γ(t), es decir la posición angular del fasor en los instantes muestreados.
-Polaridad aparente, resultante de dar al fasor un valor positivo o negativo.

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

-Fase promedio, esto es, el promedio angular


(de –π a +π) para una ventana temporal
definida.
-Frecuencia instantánea, dγ(t)/dt, esto es, la
velocidad de cambio de la fase en función del
tiempo.
-Frecuencia promedio, para una dada ventana
de tiempo.
-Otros, como Coseno de Fase, Derivada de
Frecuencia, Cociente de Amplitudes, etc.

Intrusión cóncava en la Cuenca Austral, Santa Cruz, desplegada con cuatro atributos de la traza sísmica:
arriba, secciones en amplitud normal y frecuencia instantánea; abajo, envolvente de la amplitud y fase instantánea

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

Las variaciones de frecuencia observadas con atributos de traza compleja pueden dar información más o
menos equivalente a la que se puede obtener con los atributos más convencionales explicados antes.
Los atributos de fase y de polaridad instantánea son útiles para el seguimiento de rasgos estratigráficos o en
general geometrías de las capas o su interrupción por emplazamientos geológicos diversos, sin importar las
variaciones de amplitud o frecuencia.
Ahora bien, como se mencionó, las variaciones
de amplitud son el rasgo más evidente de la
sísmica. Pueden mapearse en forma
convencional pero se consigue resaltarlas más
cuando se recurre a un atributo de traza
compleja como la envolvente de la amplitud.
Las amplitudes anómalas (o manchas
brillantes en sentido amplio) indicarán
fuertes contrastes de impedancia acústica y
pueden deberse a mantos de carbón, rocas
intrusivas, calizas masivas y muchos otros
etcéteras. Así como también pueden deberse a
la resonancia sísmica en capas que se acuñan
(como en la figura a la derecha). Pero,
inversamente, también hay amplitudes
anómalas originadas por un muy bajo contraste
local de impedancias (manchas oscuras) y hay
anomalías por cambio de fase lateral, debido a
cambios geológicos diversos. Sección vertical mostrando sintonía sísmica.
Respecto a los fluidos de la formación, las ANOMALÍAS DE AMPLITUD pueden ser tanto Manchas Brillantes
como Manchas Oscuras o Cambios de Fase (Bright Spots, Dim Spots, Phase Changes), dependiendo de cómo
la presencia de los distintos fluidos modifica la impedancia acústica de la roca reservorio.
Un sumario y ejemplos de estos conceptos se ilustran seguidamente.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

ATRIBUTOS DE VELOCIDADES
Pueden calcularse a partir de datos de velocidad de procesamiento,
usualmente del análisis de velocidades de la corrección dinámica, o
menos habitualmente de una migración en profundidad (por
trazado de rayos), caso este último que brinda valores mucho más
confiables. Se pueden hacer cálculos de:
-Velocidades medias (en rigor Vrmc) hasta sucesivos horizontes,
-Velocidades interválicas, en ventanas temporales definidas,
-Variaciones de velocidad respecto a las velocidades medias,
y otros.
Habitualmente se visualizan en secciones verticales, pero pueden
visualizarse en secciones horizontales de sísmica 3D o
interpolarse mapas a distintas profundidades de interés a partir
de un mallado de sísmica 2D, como en la figura a la derecha.
Los cambios de velocidad guardan relación con variaciones en la composición litológica, así como con la
porosidad y tipos de fluidos (líquidos o gaseosos):
-Rocas ígneas y metamórficas en general tienen más velocidad que las sedimentarias. Dentro de estas últimas,
las carbonáticas y las evaporiticas suelen ser de mayor velocidad que las clásticas. Mineralogía, diagénesis y
porosidad hacen variar estos valores.
-Reservorios con mejor condición petrofísica (más porosos, más fisurados, con menor cantidad de matriz y
cemento) suelen registrar velocidades más bajas. Los fluidos, cuanto menos densos, dan menores valores de
velocidad sísmica.
Las ANOMALÍAS DE VELOCIDAD (muy baja) permiten detectar Zonas Sobrepresionadas y Manchas Dulces
(Sweet Spots), en este último caso debido a la presencia de gas. Esto último se ilustra en la siguiente figura,
donde la sección de presión poral resulta de la conversión de los datos de velocidad en función de parámetros de
relación velocidad/presión obtenidos desde datos de perfiles de pozo.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

INVERSIÓN DE TRAZAS
Es un postproceso que puede ser también considerado como un
atributo especial de velocidades, o bien de impedancias acústicas.
Resulta de un procesamiento por el cual se obtienen secciones o
volúmenes sísmicos cuyas trazas se han invertido a través de una
secuencia de pasos -véase a la derecha- grosso modo opuesta a la de
un sismograma (sintético en computadora o real en subsuelo). Así, se
obtienen pseudoimpedancias o, si se cuenta con un perfil de
densidades de pozo, entonces se pueden llegar a generar
pseudosónicos. En ciertos casos de litologías más o menos
homogéneas se puede asumir densidad constante o bien proporcional
a la velocidad: la ya vista fórmula de Gardner, donde δ = a.Vb .

A cada perfil así obtenido se le debe


adicionar una componente de baja
frecuencia (hasta 5 u 8 Hz, como se
ve en la figura a la izquierda) extraída
de perfiles acústicos reales y se lo
debe cotejar con estos mismos perfiles
acústicos de pozo en una versión
filtrada a frecuencias máximas del
rango de la sísmica (hasta 40, 60 u 80
Hz, según sea el caso). De ese cotejo
surgirán ajustes al proceso hasta lograr
resultados similares a los reales de los
pozos del área de trabajo.
Una inversión de traza se puede hacer
en forma rápida a partir de la sísmica
procesada convencionalmente, pero es
preferible hacerla partiendo de sísmica
procesada en Verdadera Amplitud
para que los resultados sean más
reales y, sobre todo, las impedancias o
velocidades obtenidas guarden una
mejor variación relativa a distintas
profundidades.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda se ilustran trazas magnificadas,


coloreadas según los valores de velocidad. Al centro
una sección de pseudoimpedancias del suroeste de la
cuenca Golfo San Jorge (con acústicos de pozos) y a la
derecha un ejemplo de Perú donde se compara la
sección sísmica invertida (arriba) con la versión
normal.

La figura a la derecha corresponde a una inversión en 3D.


También puede hacerse el trabajo mediante una técnica
geoestadística que procura mejorar la definición de capas
delgadas mediante una correlación estadística con datos de
pozos. Y existe un proceso en base a redes neurales que
logra el mejor ajuste con los verdaderos datos de pozo.

PROCESOS ESPECIALES
Se incluye en este rubro una amplia variedad de
procesamientos del conjunto de las trazas sísmicas, de los
mapas resultantes de su interpretación y hasta de perfiles
de pozo vinculados a la sísmica.
MODELADO SÍSMICO
Es básicamente una técnica de interpretación de la información sísmica, fabricando la mejor imitación posible.
El modelado más básico es el sismograma sintético de pozo: una sola traza.
El procedimiento consiste en realizar el modelo geológico de capas (con sus buzamientos, fallas, etc.) que
interpretamos como más probable en el subsuelo, al que se asigna valores de velocidad y densidad en función
del mejor conocimiento disponible. Este modelo es iluminado mediante un programa de trazado de rayos, con
una ondícula elegida, a fin de generar secciones sísmicas sintéticas que habremos de comparar con la
información real procesada. De hecho, hemos presentado ya muchos ejemplos de sísmica modelada: en la
página 4, referido a una mancha brillante, en el Tema 15 (pag. 14 y 17), en el Tema 16 (pag. 5, 6 y 12) y,
naturalmente, los varios sismogramas sintéticos del Tema 16.
También se pueden simular cubos sísmicos, ya sea para modelado de sísmica tridimensional de pozo o bien de
superficie, aunque se hace menos habitualmente que en 2D debido a su mucho mayor tiempo de proceso. En
cualquier caso, el modelo se irá ajustando sucesivamente hasta lograr la mayor similitud posible con la sísmica
verdadera, instancia en la que podremos considerar probable -nunca totalmente segura- la interpretación
aproximada a través del modelado sísmico.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

Acá puede verse el modelado de la intrusión de la cuenca Austral, con dos salidas, con o sin filtro de velocidad.

CUBOS DE VARIANZA
Llamados también cubos de coherencia o semblanza fueron ideados en los Estados Unidos por Bahorich y
Farmer en 1996. Sólo son posibles en sísmica 3D, como resultado de la aplicación de algún algoritmo de
estimación de similitud entre trazas sucesivas, mediante una ventana temporal fija, para finalmente obtener un
volumen sísmico en el que podemos desplegar las secciones horizontales a fin de visualizar las variaciones
laterales producidas por rasgos estructurales o a veces también estratigráficos.
Las magnitudes estadísticas más comúnmente calculadas para su construcción son la varianza y la semblanza.
La Varianza es la medida del ancho de la probabilidad de distribución de una variable muestreada al azar
-mientras que la covarianza involucra más de una variable-, y resulta de hacer el cuadrado de la Desviación
Normal o Standard (σ σ). De manera que:

_
donde G es la media de la distribución para N muestras considerando en este caso 2 trazas, una de las cuales es
la Gk, centradas a un tiempo t con una ventana de búsqueda de + d.
El resultado varía entre 0 (total similitud) y 1 (máxima varianza).

La Semblanza (S) es una medida de coherencia:

donde el coeficiente está calculado para N muestras a lo largo de las trazas Gk y Hk centradas a un tiempo t con
una ventana de búsqueda de + d.
El resultado varía entre 0 (máxima diferencia) y 1 (perfecta semblanza)

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

La presentación más habitual es la de


blanco (buena continuidad), grises
(regular) y negro (discontinuidad), aunque
puede recurrirse a diversas escalas
cromáticas.
A la derecha una sección horizontal de un
cubo de coherencia en el flanco norte de la
cuenca Golfo San Jorge (Chubut), con
indicación de la nomenclatura de fallas,
que se ven definidamente en negro.

CUBOS Y MAPAS DE BUZAMIENTO


Y AZIMUT
En sísmica tridimensional, de forma
análoga a los cubos de varianza, se puede
obtener cubos con información de
buzamiento y azimut de las capas, los que
resultan de un algoritmo de cálculo que
compara trazas sucesivas utilizando una
ventana temporal con un ángulo de
búsqueda.
También pueden calcularse directamente a
partir de mapas isócronos previamente
elaborados desde sísmica 2D ó 3D. En
este caso se calcula por derivación, que
permite obtener los gradientes, desde
donde surgen los mapas de inclinación
real (ángulo y azimut de máximos
gradientes, como en la figura a la derecha)
o eventualmente de rumbos estratigráficos
(direcciones de gradiente nulo).
Obviamente estos procesamientos facilitan
luego la interpretación estructural,
tectosedimentaria y de geometrías
secuenciales.

MAPAS RESIDUALES Y
REGIONALES
Se los computa en forma similar a otros
métodos geofísicos, como hemos visto en
los métodos potenciales. En este caso se
parte de mapas isócronos, sobre los que se
aplica el algoritmo elegido (Griffin,
Derivada Segunda, Fourier, Continuación)
o incluso una técnica manual, para
distinguir mejor los efectos superficiales
de otros profundos.
También pueden trabajarse las
componentes regional y residual sobre
secciones verticales.
A la derecha un ejemplo a partir de un
mapeo en sísmica tridimensional.

9
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS GEOESTADÍSTICOS
Daniel Krige desarrolló en Sudáfrica (yacimiento minero de Witwatersrand) en la década de 1950 un método
de mapeo que se conoce como Kriging, luego perfeccionado por Georges Matheron en Francia durante la
década siguiente. En él se estima estadísticamente la ubicación de una magnitud variable en función de su
variabilidad geográfica, por lo que constituye un procedimiento muy empleado de mapeo.
Ahora bien, si se establece la correlación estadística entre dos magnitudes variables, que puede visualizarse en
diagramas de interrelación (crossplots), entonces puede vincularse esta relación con la variable geográfica, lo
que se denomina Cokriging.
Los métodos geoestadísticos, cuando aplicados a sísmica, vinculan alguna variable sísmica (amplitud de pico
o valle, espesor entre cruces por cero, frecuencia instantánea o cualquiera otra) con alguna variable geológica,
petrolera, minera, etc. (espesor de reservorio, porosidad, producción del intervalo, relaciones litológicas u otra
que sea de interés).
Es muy conveniente disponer de algunos datos completos de pozos que deliberadamente no se incluyan en el
proceso geoestadístico, para luego poder utilizarlos como un control de calidad.
La visualización areal de tales magnitudes estimadas, así como su error probable, pueden ser de gran
utilidad para estudios geocientíficos, localización de futuros sondeos u otras aplicaciones.
Un ejemplo específico es el de inversión geoestadística de trazas, donde los datos de pozo permiten obtener
trazas con el doble de resolución vertical que la que se cosecha de campo. En este caso los datos puntuales
efectivamente registrados en pozos son acústicos ajustados por prueba de velocidad, o bien perfiles sísmicos
verticales con elevado registro de frecuencias. Y los datos disponibles en todas partes son las trazas, con
menores frecuencias. Naturalmente, el producto final ha de estar sujeto a verificación para descartar posibles
resultados ficticios.
Las siguientes figuras (del flanco Norte de la cuenca Golfo San Jorge) muestran la semejanza general que existe
entre la distribución de arenas de una secuencia, resultante de la interpolación de datos de pozos (sin control
sísmico) y el mapeo de la envolvente de las amplitudes, que dada la resolución sísmica, en verdad puede
involucrar más de una secuencia. Estas semejanzas se verifican mediante distintos gráficos de interrelación
entre variables geológicas (en abscisas) y sísmicas (en ordenadas), como los abajo ilustrados y muchos otros.

10
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

Abajo vemos mapas de porosidades resultantes de un procesamiento geoestadístico, en los que se aprecia la
variación significativa que ocurre en los resultados dependiendo de la orientación preferencial y la distancia de
correlación impuestos al algoritmo, así como el número de datos (pozos) involucrados.

REDES NEURALES
Se trata de programas que poseen una configuración tipo red de entrenamiento, utilizados en muy variados
campos, surgidos en los Estados Unidos a partir del concepto original de Pitts y McCulloch (1943) y sus
aplicaciones propuestas por John Hopfield (1982) y otros.
En el caso de la sísmica de reflexión, se vincula los datos sísmicos con otros datos geofísicos, geológicos o de
pozos para generar sintéticamente cierto tipo de información a partir de aquellos datos efectivamente
registrados. Para esto se debe generar un aprendizaje en algunos sitios donde sí se ha registrado ese tipo de
información más los mismos datos extra que fueron efectivamente registrados.
Pueden, por ejemplo, generarse perfiles acústicos a partir de otros perfiles (resistividad, potencial
espontáneo, etc.) si en la zona existen otros pozos donde se dispone de los acústicos junto a los otros perfiles
para efectuar en ellos el aprendizaje del programa, como se ejemplifica en la siguiente figura.

11
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

Aprender o entrenar una red significa aproximar por iteraciones sucesivas un algoritmo de cálculo que produce
como resultado, en este caso, un acústico a partir de datos de otros perfiles. El algoritmo tendrá en cuenta la
variación de una magnitud respecto a las otras, que irá cambiando con la profundidad (z) y con la posición
geográfica (x, y). Para controlar la calidad del proceso debe reservarse siempre al menos un pozo donde se
cuenta con todos los datos sin que entre en el proceso neural, para así poder controlar el grado de certeza de tal
aprendizaje, una vez concluído.
Otro ejemplo es la generación de
secciones o cubos sísmicos de
porosidad, en este caso mediante la
interacción de trazas invertidas
(pseudosónicos) con información de
porosidad registrada en distintos
pozos dentro del área en estudio, tal
como se esquematiza a la izquierda.
La red neural generará entonces un
aprendizaje en el que virtualmente se
obtendrá un pozo con datos de
porosidad en cada lugar donde exista
una traza sísmica, obviamente dentro
del rango de resolución que ésta
habilite.

MÉTODO A.V.O. (Amplitud Versus Oblicuidad, Amplitude Versus Offset)


Ideado por el estadounidense Bill Ostrander (1982) es un procesamiento especial que requiere volver a las
familias de trazas de PCP antes del apilamiento en aquellos lugares donde las anomalías de amplitud sugieran
la posible presencia de reservorios con hidrocarburos, sobre todo gas. A la profundidad del objetivo se visualiza
la variación de amplitud con la oblicuidad de los rayos o, lo que es lo mismo, con el apartamiento de la fuente al
grupo receptor para cada sismograma. Esto es algo que en realidad ocurre siempre, tal como hemos visto en el
Tema 11: las fórmulas de Zoeppritz o la aproximación de Hiltermann proveen los verdaderos valores del
coeficiente de reflexión para los distintos ángulos considerados que se apartan de la vertical. Pero en presencia
de fluidos, sobre todo gas, el coeficiente de reflexión aumenta a medida que el ángulo de incidencia va siendo
menos perpendicular a la interfaz entre el reservorio y las rocas impermeables que le supra e infrayacen, en una
magnitud que en la práctica prospectiva es sólo visible para hidrocarburos ligeros dentro del rango de los
ángulos de las reflexiones sísmicas cosechadas (usualmente hasta unos 30º). Existe en estos casos un efecto de
amortiguamiento que se reduce con la oblicuidad del rebote y que es más notable en el caso de los fluidos de
formación menos densos. Es decir, la amplitud aumenta sensiblemente con la oblicuidad cuando hay gas o,
a veces también, con petróleos livianos tipo condensado, como se ilustra seguidamente.

12
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

Suelen hacerse procesamientos separados con apilamiento y migración sólo de las trazas cercanas (near offset)
y por otro lado de las trazas lejanas (far offset) de mayor oblicuidad, para poder sacar conclusiones comparando
ambas secciones o cubos sísmicos. Esto puede verse a continuación, donde, entre otras, se resalta una fuerte
amplitud diferenciada en el sector inferior derecho de la sección sísmica de mayor oblicuidad.

Una variante es el método AVA (Amplitud Versus Azimut) aplicable en medios anisótropos donde las
amplitudes varían con el azimut de los registros.

CUESTIONARIO BÁSICO:
- ¿Qué son los atributos sísmicos y cuál es el más básico?
- ¿Cómo y para qué se calculan los atributos de frecuencia?
- ¿Cómo se obtienen los atributos de traza compleja?
- ¿Para qué pueden servir la envolvente de amplitud, la polaridad aparente y la fase y frecuencia instantáneas?
- Explicar las manchas brillantes, las oscuras y los cambios de fase.
- ¿Qué aplicaciones tienen los atributos de velocidad?.
- Señalar las etapas en un proceso de inversión de trazas.
- ¿Qué es un modelado sísmico?
- ¿Qué aplicaciones tiene el cubo de coherencia?
- Definir mapas de buzamiento y azimut, así como residuales y regionales: ¿cuál es la utilidad de cada uno?
- Explicar en qué consiste la geoestadística mediante sísmica.
- ¿Para qué pueden emplearse las redes neurales en sísmica?
- ¿En qué se fundamenta el método AVO y qué aplicación principal tiene?

BIBLIOGRAFÍA
- Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales.
- Brown A., 1991. Interpretation of Three Dimensional Seismic Data. Society of Exploration Geophysicists.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

13
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

REGISTROS SÍSMICOS
ESPECIALES

Dentro del tema de los métodos especiales, vamos a abordar ahora las adquisiciones especiales de sísmica
reflectiva con principal aplicación a la prospección de hidrocarburos, para luego transbordar a las aplicaciones
de sísmica de reflexión somera y de sísmica de reflexión ultraprofunda.

ADQUISICIONES ESPECIALES
Se trata de métodos especiales de sísmica de reflexión que requieren de un nuevo programa de registro de datos
de campo, más sus consiguientes procesamiento e interpretación.
SÍSMICA DE POZO
Ítem que comprende una variedad de registros especiales ya explicados en el Tema 16.
ADQUISICIÓN DE ONDAS S
Las ondas S, (secundarias, de corte, cizalla o transversales) pueden ser registradas a partir de fuentes
convencionales, emisoras mayormente de ondas P (primarias, compresionales o longitudinales), pero también de
ondas S en menor proporción. Además debe recordarse que buena parte de la energía convierte en las interfaces
reflectivas su modo de propagación de P a S. También pueden emplearse fuentes especiales mayormente
emisoras de ondas S (explosiones rápidamente consecutivas en pozos alineados, vibradores de movimiento
horizontal en tierra firme o en fondos marinos o lacustres, y otras), aunque esto ocurre en rarísimas ocasiones.
Abajo esquemas de dos opciones.

Como ya fuera comentado en el Tema 13, la adquisición en tierra se hace con geófonos triaxiales, que registran
las componentes x, y, z, donde x, y componen las ondas S y z representa las ondas P. Se los llama Registros 3C
(de tres componentes).

1
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

En el mar o lagos debe


disponerse de los mismos
geófonos triaxiales adaptados al
medio subácueo del lecho y se
utilizan además los hidrófonos
convencionales que repiten el
registro de la onda P, por lo cual
se los denomina Registros 4C
(de cuatro componentes).
Ya sean registros 3 ó 4C, dada
cierta profundidad de interés
máximo, el tiempo de escucha
ha de ser naturalmente mayor
que cuando sólo se registran
las ondas compresionales.
Asimismo debe tenerse presente
que, según la Ley de Snell, el
ángulo de reflexión cambia al
cambiar las velocidades, tal
como se esquematiza en la
figura de la derecha.
El gráfico siguiente abajo
expresa las relaciones de
velocidad entre ondas P y S.

A la derecha, comparación de
una sección real de ondas P con
su correspondiente de ondas S,
junto con perfiles de pozo, todo
en escala de profundidades z
para que pueda visualizarse sin
desfasaje. Las amplitudes varían
entre una y otra al variar los coeficientes de reflexión, debido a que las impedancias relativas difieren entre cada
capa y la siguiente, porque las velocidades relativas entre P y S fluctúan tanto por litología como por fluidos.
Debe tenerse presente, además, que las ondas secundarias tendrán una dada dirección inicial de oscilación, a la
que llamaremos x, pero luego pueden escindirse en dos direcciones ortogonales a la primera y a su vez entre sí,
digamos y, z a las cuales podremos referir como Sv (dirección vertical, también llamada Sz) y Sh (dirección
horizontal, en este caso Sy). Esta escisión depende del carácter anisotrópico del subsuelo, típicamente debido a
estratificación o bien fracturación paralela. También sucede que, una vez polarizada la onda transversal en dos
componentes perpendiculares de vibración, éstas a su tiempo pueden modificarse según las distintas

2
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

direccionalidades de las anisotropías que encuentren en su tránsito por el subsuelo. Estos sucesos se ilustran en
las siguientes figuras, incluyendo un eventual registro de pozo.

Las ondas S tienen variadas aplicaciones, de las cuales la


más relevante es la identificación de reservorios gasíferos
(técnica desarrollada por los estadounidenses James
Robertson y William Pritchett en 1985) que resultan muy
reflectivos con ondas longitudinales pero de reflectividad
normal ante las ondas transversales, dado que estas últimas
no se transmiten por el fluido poral y por lo tanto para ellas
apenas se modifica el coeficiente de reflexión (sólo por el
pequeño cambio en la densidad total de la roca).
A la derecha vemos las respuestas diferenciadas para carbón
y reservorios acuíferos y gasíferos.

Una segunda aplicación muy frecuente es la


visualización de la geología por debajo de esos
mismos reservorios gasíferos, dado que, en el
caso de las ondas de cizalla, la energía continúa
propagándose normalmente en profundidad, con
una mínima pérdida de amplitud. En cambio las
ondas compresionales sufren una fuerte
reducción de intensidad por debajo de estos
reservorios debido a la fuerte reflectividad antes
mencionada.
A la izquierda puede apreciarse que la sección
sísmica superior, registrada con ondas P,
muestra dos reflexiones someras de gran
amplitud, repetidas como múltiples, y más abajo
una notable falta de información en dos sectores.
La sección inferior, de ondas S en cambio, da
amplitudes normales en la subsuperficie y una
muy buena visualización a todo lo ancho de la
línea sísmica.

3
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

Las relaciones de velocidad entre ondas P y S suelen permitir la identificación de fluidos, siendo la relación de
Poisson una magnitud significativa. Asimismo permiten en muchos casos la discriminación de distintas
litologías a partir del cálculo de los módulos elásticos (puede consultarse la tabla del Tema 11, pág. 4), como
igualmente ocurre desde datos de acústica y de sísmica de pozo.
Abajo gráficas típicas de respuestas alternativas entre las ondas compresionales y de cizalla.

SISMICA REPETITIVA (4D o Time Lapse)


Esta técnica fue desarrollada gracias al trabajo de muchos investigadores, entre ellos el equipo liderado en
Estados Unidos por el israelí Amos Nur hacia 1980, a la que dieron forma completa los estadounidenses Terry
Fulp y Robert Greaves en 1987.
Consiste en repetir el registro de sísmica 3D manteniendo los parámetros de adquisición originales y
procesando luego también con la misma secuencia y parámetros utilizados la primera vez. La idea es tener dos
juegos de datos comparables, que han sido obtenidos tras un cierto intervalo de tiempo.
El objetivo es la visualización de los cambios producidos en los reservorios por la explotación de los
hidrocarburos, por lo que se repite el registro tras un intervalo que puede ser de meses o, más habitualmente, de
años. Es una metodología muy útil -y costosa- para monitorear la eficiencia del mallado de pozos productivos y
eventualmente de los inyectores, si se tratara de un proyecto de recuperación secundaria. Normalmente no sólo
se observa un cubo en relación al otro utilizando distintos atributos sísmicos, sino que, adicionalmente, se
calcula la diferencia de esos atributos entre los dos cubos para obtener volúmenes representativos de la
diferencia entre tales magnitudes sísmicas e indicativo de las variaciones de fluidos que se intenta detectar.

4
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

El método puede usarse también entre sísmicas 2D sucesivas, pero esto casi nunca se hace dado que no se
aprovecha la estrategia en toda su potencialidad, además de que un yacimiento que amerita un monitoreo
sísmico en el tiempo también seguramente amerita sísmica tridimensional.

Arriba a la izquierda puede


verse una sección sísmica que
va mostrando los cambios en el
reservorio en forma previa,
simultánea y posterior al venteo
de gas.
Hacia la derecha volumen
sísmico en un tiempo inicial y
otro tras cierto lapso en
producción, más el cubo de la
diferencia entre el primero y el
segundo, donde se resaltan los
acuñamientos en el sector
derecho, principalmente el más
profundo.
A la izquierda el monitoreo de
un proyecto de recuperación
secundaria en un yacimiento de
Nigeria, tras nueve años.

5
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA DE REFLEXIÓN SOMERA


Existen variadísimas aplicaciones de la sísmica de reflexión a diferentes profundidades, además de la modalidad
profunda, a nivel de cuencas, sobre la que hemos hecho énfasis y que se ha empleado sobre todo en la
prospección de hidrocarburos. Cabe recordar que más del 90% de la sísmica en todo el mundo tiene fines
petroleros. Allí se han hecho las mayores inversiones y progresos técnicos impulsados por las empresas
petroleras y de servicios. De la inversión total, un 90% corresponde al gasto en adquisición, un 9% al
procesamiento de los datos y el 1% al costo de interpretación.
Los dispositivos de investigación de sísmica somera, de corto espaciamiento superficial y con escaso número de
receptores, poseen menores requerimientos de potencia de la fuente y la mayoría de las veces son realizados con
sismógrafos portátiles. Por lo demás, la metodología, aunque algo más simple, es esencialmente la misma que
hemos estudiado para la sísmica de reflexión profunda convencional. La resolución puede ser bastante superior,
dado que a poca profundidad disminuye mucho el efecto de filtrado cortaalto que ejerce el terreno. Esto
permite, de ser conveniente, la utilización de barridos de muy altas frecuencias cuando se emplean fuentes
vibratorias, dado que el gasto extra en este caso sí vale la pena.
Los programas someros pueden tener aplicaciones en minería, hidrogeología, ingeniería civil (fundaciones),
arqueología, medioambiente (a veces relativas a las consecuencias de la actividad petrolera) y otras.
Abajo secciones sísmicas de la cuenca Austral (sur de Santa Cruz, laguna Potrok Aike) mostrando secuencias
sedimentarias pleistocenas vinculadas a freatomagmatismo, con datos adicionales de densidad y susceptibilidad
magnética obtenidas a partir de perforaciones.

6
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA DE REFLEXIÓN ULTRAPROFUNDA


Los dispositivos para la investigación sísmica ultraprofunda poseen un muy largo espaciamiento superficial,
requieren de fuentes de energía relativamente potentes y de un procesamiento muy cuidadoso para minimizar
ruidos y maximizar la visualización de las reflexiones provenientes a tiempos largos y frecuencias casi siempre
muy bajas.
Estos registros suelen tener objetivos netamente científicos, como investigación de corteza profunda y manto
superior, aunque no pocas veces con implicancias indirectas relativas a la prospección, en términos de conocer
la historia tectónica profunda para poder entonces comprender mejor los emplazamientos más someros,
desarrollo de cuencas, fajas plegadas, etc. hacia donde se dirigen determinados estudios geocientíficos
aplicados.
Abajo se ilustra una sección ultraprofunda de muy alta calidad, procesada a partir de una adquisición marina en
Canadá, sobre la continuación septentrional de la faja plegada de los Apalaches. En ella, además de las
amplitudes, se indica el grado de correlación y de buzamiento en tonalidades variables.

Una opción de sísmica ultraprofunda de bajo presupuesto -desarrollada en Estados Unidos por Okaya y
Jarchow en 1989 y utilizada en argentina por Alberto Cominguez desde 1990- es la de reutilizar los registros de
vibradores de prospección petrolera rutinaria para hacer un reproceso distinto del convencional, con las bajas
frecuencias cosechadas a tiempos largos, es decir grandes profundidades, para obtener imágenes que, si bien de
muy pobre calidad, pueden dar importantes indicios sobre la geología profunda. El complemento de otros
métodos geofísicos, especialmente gravimetría y detección de sismicidad natural, podrá conducir a modelos
bastante confiables sobre la geodinámica cortical.

7
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

La sección sísmica ya
interpretada que se
adjunta es un ejemplo
de esta técnica especial
de correlación cruzada,
en este caso obtenida en
la cuenca Noroeste de
Argentina.

CUESTIONARIO BÁSICO:

- Puntualizar los recaudos para registrar las ondas S y sus características en el subsuelo.
- Comentar las posibles aplicaciones de las ondas transversales.
- ¿Qué beneficios puede brindar la sísmica 4D?
- Ejemplificar aplicaciones de sísmica de reflexión somera.
- ¿Qué objetivos puede tener la sísmica ultraprofunda?, ¿cómo se la puede generar?

BIBLIOGRAFÍA

- Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales.
- Brown A., 1991. Interpretation of Three Dimensional Seismic Data. Society of Exploration Geophysicists.
- Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.
- Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

8
Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina.
Tema 18(b)
Métodos Sísmicos Especiales Chelotti, L., Acosta, N., Foster, M., 2009

POSDATA:
Hasta acá llegamos con el programa de la materia.
La temática, aunque muy variada, dista de agotar las vertientes de la ciencia geofísica, tanto por el número de
tales vertientes como por el gran caudal que ellas aportan, siempre renovado y además creciente a través del
tiempo, como el conocimiento científico en general. De modo que éste puede considerarse sólo un primer
acercamiento a uno y otro manantial del saber geofísico, ojalá refrescante, que seguirá surgiendo de las entrañas
del subsuelo mientras se requiera de él, ya sea por curiosidad científica o por necesidades aplicadas.
Y bueno es recordar que en la sequedad del golfo San Jorge el perito Francisco Pascasio pronosticó un
particular escenario: éste, que nos tiene empleando la geofísica para hurgar en la búsqueda de los recursos no
renovables de la madre tierra.

Vous aimerez peut-être aussi